fbpx

El problema no es el algoritmo. El problema es la data

La primera semana del nuevo Bing ha estado llena de errores. ¿Es este el futuro de la Inteligencia Artificial?

Sólo ha pasado una semana desde que Microsoft presentó su nueva versión de Bing, que corre sobre el mismo motor conversacional de ChatGPT, y la verdad en medio del hype por “el futuro del search” creo que se han diluido miles de historias de respuestas erradas, comportamientos erráticos y anomalías en su funcionamiento que, como dicen Andrew Chow y Billy Perrigo en su fantástico artículo para la revista Time, demuestra que la carrera de la IA se disparó a pesar de que los algoritmos no estaban listos para su uso masificado.

 

El problema no es el motor neuronal ni el algoritmo per se. El problema radica en el cambio de un modelo en el que pasamos de ser redireccionados a páginas web con el contenido que estábamos buscando a uno en el que pretendemos que el buscador nos de respuestas exactas. Respuestas que surgen del análisis de diversas fuentes de información para construir esa respuesta. Fuentes de información públicas, existentes en la web, pero que no necesariamente tienen información real. Fuentes que pueden ser manipuladas, así como por años se han manipulado las redes sociales, para crear “verdades alternativas”.

 

No es la primera vez que Microsoft se enfrenta a este problema. Ya en el 2016 la compañía tuvo que apagar un chat conversacional pues en menos de 2 días se volvió xenófobo, racista y machista por las interacciones a las que se vio expuesto en internet. El problema es que ahora las expectativas son mayores. Es por eso que la compañía ha anunciado que está trabajando en mejorar la calidad de las respuestas y en hacer fine tuning de la forma en que responde el algoritmo.

 

Y no sólo en el caso de Bing. en la presentación de Bard, el bot conversacional de Google, el sistema dio una respuesta “técnicamente errada” que llevó a varios inversionistas se asustaran y el precio de la acción cayera. Así como los humanos creamos percepciones y realidades específicas a partir de lo que consumimos (mire a los terraplanistas, convencidos de que la tierra es plana, o mire a los trumpistas, enceguecidamente convencidos que les “robaron las elecciones”), los algoritmos como ChatGPT, Bard o el nuevo Bing construyen sus respuestas a partir del contenido al que están expuestos y es ahí donde está el riesgo.

 

 

 

 

 

 

 

Leave a Reply

Your email address will not be published. Required fields are marked *