El auge de la Inteligencia Artificial Generativa ha conseguido que los gobiernos de todo el mundo se esfuercen por regular la tecnología emergente, pero, cabe resaltar, que también ha aumentado el riesgo de desbaratar el impulso de la Unión Europea para aprobar las primeras reglas integrales de IA del mundo.
La Ley de Inteligencia Artificial del bloque de 27 naciones ha sido exaltada como un reglamento pionero. Pero como el tiempo se acaba, no se tiene claro si las tres ramas del gobierno de la UE podrán llegar a un acuerdo en lo que los funcionarios esperan sea una ronda final de conversaciones a puerta cerrada.
¿Se podrá llegar a un acuerdo?
Es importante señalar que los esfuerzos de años de Europa para establecer barreras de seguridad para la Inteligencia Artificial (IA) se han visto estancados por la reciente aparición de sistemas generativos de IA como ChatGPT de la reconocida compañía OpenAI, que han deslumbrado al mundo con su capacidad de producir trabajo similar al humano pero, al mismo tiempo, han generado temores sobre los riesgos que plantean.
Esas preocupaciones han impulsado a Estados Unidos, Reino Unido, así como también a China y coaliciones globales como el Grupo de las 7 principales democracias a la carrera para regular la tecnología en rápido desarrollo, aunque aún están alcanzando a Europa.
Incluso, hay que destacar que además de regular la IA generativa, los negociadores de la Unión Europea deben resolver una extensa lista de otras cuestiones dificultosas, como la prohibición total del uso policial de sistemas de reconocimiento facial, que han suscitado preocupaciones sobre la privacidad. Vale la pena mencionar que los modelos de código abierto (Open-Source) se han quedado por fuera de estas discusiones.
Aunque las posibilidades de lograr un acuerdo político entre los legisladores de la UE, los representantes de los estados miembros y así mismo, los comisionados ejecutivos “son bastante altas, en parte porque todos los negociadores quieren una victoria política” en un esfuerzo legislativo emblemático, todo parece indicar que este tema se sigue dilatando.
¿Qué puede ocurrir si no se llega a un acuerdo?
Todo parece indicar que la última ronda de conversaciones, por lo cual, los negociadores se verán obligados a tener que retomarlo el próximo año. Por lo que hay que acotar que eso aumenta las probabilidades de que la legislación se retrase hasta después de las elecciones del mes de junio en toda la UE, o que tome una dirección diferente conforme nuevos líderes asuman el poder.
Vale la pena señalar que uno de los principales puntos conflictivos son los modelos básicos, los sistemas avanzados que sustentan los servicios de IA de propósito general como ChatGPT de OpenAI y así mismo, el chatbot Bard de Google.
En este sentido, estos sistemas se entrenan con grandes cantidades de trabajos escritos e imágenes extraídas de Internet. Proporcionan a los sistemas de IA generativa la capacidad de crear algo nuevo, a diferencia de la IA tradicional, que procesa datos y completa tareas haciendo uso de reglas predeterminadas.
Según se conoció, la Ley de IA pretendía ser una legislación sobre seguridad de los productos, al igual que regulaciones similares de la UE para cosméticos, automóviles y también juguetes. Calificaría los usos de la Inteligencia Artificial según 4 niveles de riesgo: desde el riesgo mínimo o nulo que plantean los videojuegos y los filtros de spam, hasta incluso, el riesgo inadmisible de los sistemas de puntuación social que juzgan a las personas en función de su comportamiento.
La nueva ola de sistemas de IA de uso general lanzados desde el primer borrador de la legislación en el año de 2021 impulsó a los legisladores europeos a reforzar la propuesta para cubrir los modelos de base. Francia, como Alemania e Italia, se han resistido a la actualización de la legislación y, en cambio, están pidiendo la autorregulación, al parecer, es un intento de ayudar a los actores locales de IA generativa.
Según se conoce, los investigadores han advertido que los poderosos modelos básicos, construidos por un puñado de grandes empresas tecnológicas, podrían utilizarse para potenciar la desinformación y la manipulación en línea, los ciberataques o incluso la creación de armas biológicas. Actúan como estructuras básicas para los desarrolladores de software que crean servicios impulsados por IA, de modo que según comentó Avaaz, una organización sin fines de lucro, si estos modelos se encuentran podridos, todo lo que se construya encima también lo estará y los implementadores no podrán arreglarlo.
Pese a todos los esfuerzos de las partes, los legisladores aún no han podido llegar a un consenso sobre la mejor manera para regular la tecnología de rápido desarrollo que, parece estar tan candente por estos días.