Todas las conversaciones relacionadas con el tema de Inteligencia Artificial terminan en la misma discusión: esta tecnología necesita regulación.
Y es que luego de ver el desastre social causado por la masificación sin control y regulación de las redes sociales -que terminaron generando la llamada economía de la vigilancia y de la cual se desprenden problemas como la desaparición de la privacidad de los usuarios, la destrucción de “la verdad” y el premio a los posts más controversiales por medio de una mayor amplificación- no nos podemos quedar cruzados de brazos viendo como la IA se nos sale de las manos.
El tema es cómo hacerlo (y en manos de quien dejar las decisiones relacionadas con su regulación). ¿Queremos dejar las decisiones en manos de congresistas que, sin importar el país, han demostrado ser los más analfabetas digitales? ¿Queremos depender de visiones geopolíticas -como la recientemente tomada en Montada de prohibir TikTok- sesgadas y que no tienen fundamento real más allá de un discurso nacionalista? ¿Queremos dejarlo en cabeza de jueces como aquel juez de un pequeño pueblo en Brasil que ordenó el arresto del Gerente de Meta en dicho país por no entregar los chats de un ciudadano a pesar de que técnicamente eso no era posible por la encripción extremo a extremo de la plataforma? ¿O queremos volver a dejarlo en manos de los directivos de las empresas de tecnología con la esperanza de que hagan lo correcto para la sociedad y no para su bolsillo y de sus inversionistas?
El reto es inmenso por (i) el crecimiento exponencial asociada al desarrollo de esta tecnología (según Cathy Wood de Ark Investment el costo de entrenar algoritmos de IA generativa está cayendo 70% cada año), (ii) por la lentitud de los sistemas legislativos tradicionales y (iii) porque en muchos de los casos la discusión termina en la “ética”; ética que varía entre regiones, entre países y entre culturas (mírese esta implementación del “problema del trolley” adaptada a carros autónomos). Mire la diferencia abismal entre la regulación de privacidad de mercados como el Europeo (con GDPR), el Norteamericano, el Chino y el de países latinoamericanos.
Es por eso que cobra fuerza la creación de un ente multilateral, al estilo de la Agencia Internacional de Energía Eléctrica, que pueda crear guías, inspeccionar sistemas, requerir certificaciones, definir estándares y auditar su cumplimiento en temas de seguridad, privacidad, desarrollo e implementación, entre otros. Un ente con representación de varios países que puedan fungir como guía de hacia dónde llevar el control del desarrollo de esta tecnología antes de que sea demasiado tarde.
Esa es la base de un post publicado por Sam Altman, CEO de OpenAI (los creadores de ChatGPT y Dall-E).
Dada la imagen tal como la vemos ahora, es concebible que dentro de los próximos diez años, los sistemas de IA superen el nivel de habilidad de los expertos en la mayoría de los dominios y lleven a cabo tanta actividad productiva como una de las corporaciones más grandes de la actualidad.
La superinteligencia será más poderosa que otras tecnologías con las que la humanidad ha tenido que lidiar en el pasado. Podemos tener un futuro mucho más próspero; pero tenemos que gestionar el riesgo para llegar allí. Dada la posibilidad de riesgo existencial, no podemos simplemente ser reactivos. La energía nuclear es un ejemplo histórico de uso común de una tecnología con esta propiedad; la biología sintética es otro ejemplo.
También debemos mitigar los riesgos de la tecnología de IA actual, pero la superinteligencia requerirá un tratamiento y coordinación especiales.
¿IneCreen que esta es la solución?