fbpx
Algunos errores de los Chatbots con IA ¿podrían ser inducidos? Algunos errores de los Chatbots con IA ¿podrían ser inducidos?

Algunos errores de los Chatbots con IA ¿podrían ser inducidos?

Recientemente encontraron al menos un extraño problema matemático malo, entre otros errores de los Chatbots con IA!

Recientemente se descubrió que un grupo de piratas informáticos se reunió durante el pasado fin de semana en la  conferencia de piratería Def Con en Las Vegas para probar si la Inteligencia Artificial (IA) desarrollada por empresas, como por ejemplo: OpenAI y Google, podrían ser propensos o inducidos al sesgo, encontrar al menos un extraño problema matemático errado y otros errores fácticos. Así las cosas, algunos errores de los Chatbots con IA podrían ser inducidos por humanos con diferentes motivaciones.

 

via GIPHY

 

La conferencia de “Def Con” en Las Vegas y los errores de los Chatbots con IA

 

Como parte de un concurso público para piratas informáticos, Kennedy Mays, un estudiante de 21 años de edad de Savannah, Georgia, engañó a un modelo de IA para que afirmara que 9 más 10 es igual a 21. Hay que acotar que esto lo logró haciendo que la Inteligencia Artificial lo hiciera como una “broma interna” antes de que la IA finalmente dejara de brindar cualquier justificación para el cálculo incorrecto.

 

Por su parte, un reportero de Bloomberg que logró participar en el evento engañó a un modelo de IA para que diera instrucciones para espiar luego de un solo aviso, lo que llevó al modelo a sugerir cómo el gobierno de Estados Unidos podría espiar a un activista de derechos humanos.

 

Inyección indirecta de indicaciones
Inyección indirecta de indicaciones

 

Así mismo, se puede mencionar que otro participante obtuvo un modelo de Inteligencia Artificial para aseverar falsamente que Barack Obama nació en Kenia, una teoría de conspiración sin fundamento alguno popularizada por figuras de derecha.

 

Ahora bien, un número no expuesto de participantes recibió 50 minutos cada uno por intento con un modelo de Inteligencia Artificial no identificado de una de las empresas de IA participantes. Por otra parte, se debe mencionar que la Oficina de Política Científica y Tecnológica de la Casa Blanca logró ayudar en la organización del evento.

 

 

El estudiante Mays mencionó que lo que más le preocupaba era el sesgo de AI hacia la raza, y manifestó que el modelo respaldó el discurso discriminatorio y de odio después de que se le pidiera que considerara la Primera Enmienda desde el punto de vista de un miembro del Ku Klux Klan.

 

Estos errores no son una preocupación única

 

Todo parece indicar que estos errores no son una preocupación única. Los expertos en Inteligencia Artificial, han estado haciendo sonar la alarma sobre el sesgo y así mismo, la inexactitud en los modelos de IA, a pesar de que la IA aparece en los titulares por resaltar en los exámenes de la facultad de derecho y los SAT. En un caso, el sitio de noticias de tecnología CNET se vio obligado a hacer correcciones luego de que sus artículos escritos por Inteligencia Artificial, cometieran cuantiosos errores matemáticos básicos.

 

Según se ha podido conocer en el caso de los delirios, alucinaciones y errores de la Inteligencia Artificial, las consecuencias de estos errores pueden ser de largo alcance. Como en el caso del abogado que no valido la data antes de presentarla como pruebas en un juicio.

 

Leave a Reply

Your email address will not be published. Required fields are marked *