fbpx

¿Una constitución para la Inteligencia Artificial?

Anthropic respaldado por Amazon, se encuentra promoviendo una nueva forma de Inteligencia Artificial (IA) responsable.

Anthropic respaldado por Amazon, la startup detrás de Claude Generation AI Chatbot, se encuentra promoviendo una nueva forma de Inteligencia Artificial (IA) responsable; una constitución para sus modelos de idiomas grandes basados en la entrada pública. Pero, ante esto cabe hacerse varias preguntas como por ejemplo ¿porque es importante?, entre otras, y las responderemos a continuación. ¡No se pierda ningún detalle sobre este tema tan inherente!

 

¿Por qué es importante?

Cabe señalar que quien controla e influye en la Inteligencia Artificial (IA) es controvertido, esto, producto del potencial de engrandecer los sesgos y desigualdades existentes y crear otros nuevos.

 

Pero, evidentemente se viene a la mente una pregunta; ¿Qué es lo que está sucediendo? Está sucediendo  la encuesta de una muestra representativa de 1000 estadounidenses, preguntándoles qué valores y barandillas querían que reflejaran los poderosos modelos de Inteligencia Artificial.

 

  • Hay que mencionar que los resultados de la encuesta en bruto se escogieron en 75 principios y así mismo, se compararon con un conjunto existente de 58 principios que el personal antrópico desarrollo y ya se aplicó a su modelo Claude Chatbot.
  • A lo que hay que decir que, solo hubo una superposición del 50% entre los resultados de la encuesta y el conjunto actual de principios de Anthropic, destacando como puede ser el Valle de Silicon eliminado de los que están fuera de la industria tecnológica.
  • Para comparar los efectos de los 2 conjuntos de valores, cada uno se aplicó como una restricción en una versión pequeña del modelo Claude, produciendo de esta forma, resultados de precisión casi idénticos (de casi el 85%).
  • Ahora bien, la “constitución” pública fue “menos sesgada” en 9 categorías sociales, incluidas; la edad, así como la nacionalidad, el género, la religión, entre otros (según una publicación de Anthropic).

 

Hay que mencionar que la construcción de IA con más aportes de los usuarios es una forma de abordar la disminución de la confianza; contrasta el enfoque de la Casa Blanca  y el enfoque del congreso de invitar a expertos, principalmente a grandes compañías tecnológicas, para asesorar sobre el diseño de las barandillas de IA.

 

La presión pública para las barandillas muy posiblemente aumentará conforme las herramientas generativas de IA se vuelvan rápidamente  más poderosas.

 

Si se consulta a los usuarios sobre el diseño de productos tecnológicos, habitualmente se trata de actualizaciones de productos y preguntas de conveniencia, no sobre los valores fundamentales del producto.

 

Consultar muestras representativas de una población determinada, bien sea el público en general o empleados, podría suministrar controles y  así mismo, equilibrios realmente valiosos en torno a los equipos de ingeniería de software que poseen una tendencia sesgada hacia los hombres y carecen de diversidad racial.

 

Hay que destacar que en comparación con los principios de Anthropic, el público quería un mayor enfoque en la imparcialidad mediante “información objetiva que refleje todos los lados de una situación”, o al menos así lo ha señalado Anthropic, y hacer que las respuestas de la Inteligencia Artificial sean fáciles de entender.

 

El proyecto de constitución de Anthropic es más conciso que el creado con respuestas públicas, en gran medida se debe a que la versión publica permite ideas algo contradictorias se sientan una al lado de la otra.

 

Lo cierto es que en contexto, 15 grandes empresas de tecnologías (evidentemente incluida Anthropic), se han suscrito a compromisos voluntarios de seguridad de la IA negociados por la Casa Blanca, pero esos compromisos escasean de plazos y así mismo otras métricas.

 

Es muy poco probable que el Congreso apruebe una legislación integral sobre IA antes de las elecciones de 2024.

 

 

Leave a Reply

Your email address will not be published. Required fields are marked *