Todo parece indicar que las redes de Inteligencia Artificial entrenadas en salidas de IA (como el texto creado por ChatGPT o la salida de imagen creada por un modelo de Stable Difusion), tienden a volverse desequilibradas luego de 5 ciclos de entrenamiento con datos generados por IA (en otras palabras: no es bueno entrenar la IA con data generada por medio de IA).
Modelos de IA y la calidad de sus resultados colapsan
Es importante señalar que (MAD), abreviatura de Model Autophagy Disorder, es el acrónimo usado por los investigadores de la Universidad de Rice y Stanford que participaron en el estudio para describir cómo los modelos de Inteligencia Artificial y la calidad de sus resultados colapsan cuando se entrenan de forma repetida con datos generados por IA.
Según se descubrió, el modelo básicamente “se come a sí mismo”. Pierde información sobre las colas (los extremos) de la distribución de datos original y comienza a generar resultados que están más alineados con la representación media de los datos.
In work led by @iliaishacked we ask what happens as we train new generative models on data that is in part generated by previous models.
We show that generative models lose information about the true distribution, with the model collapsing to the mean representation of data pic.twitter.com/OFJDZ4QofZ
— Nicolas Papernot (@NicolasPapernot) June 1, 2023
Entrenar un LLM con sus propios resultados (o los de otros) crea un efecto de convergencia en los datos que componen el propio Modelo de Lenguaje Grande. Esto se puede evidenciar sencillamente en el gráfico anteriormente mostrado, (compartido por los científicos y el miembro del equipo de investigación Nicolas Papernot en Twitter), donde las sucesivas iteraciones de entrenamiento en los datos generados por el modelo lo llevan a perder progresivamente el acceso a los datos contenidos en los extremos de la curva de Bell, los valores atípicos, los elementos menos comunes.
Según se ha podido conocer, aquellos datos en los bordes del espectro (los que tienen menos variaciones y están menos representados) básicamente desaparecen. Es por tal motivo que, los datos que quedan en el modelo actualmente son menos variados y retroceden hacia la media. Según los resultados, se requieren alrededor de 5 de estas rondas hasta que desaparezcan las colas de la distribución original (ese es el momento en que se establece MAD).
Hasta el momento hay que dejar claro que no se ha confirmado que el trastorno de autofagia modelo perturbe a todos los modelos de Inteligencia Artificial (IA), pero, los investigadores lo verificaron con codificadores automáticos, así como con modelos de mezcla Gaussiana y modelos de lenguaje extenso.
Los codificadores automáticos pueden manejar aspectos como la predicción de popularidad (en cosas como el algoritmo de una aplicación de redes sociales), compresión de imágenes, así como también la eliminación de ruido de imágenes y generación de imágenes y los modelos de mezcla Gaussiana se utilizan para fines de estimación de densidad, agrupamiento y segmentación de imágenes, lo que los vuelve realmente útiles para las ciencias estadísticas y de datos.
Ahora bien, en cuanto a los grandes modelos de lenguaje en el núcleo de las populares aplicaciones de chatbot de hoy en día (ChatGPT de OpenAI y AI Claude de Anthropic por ejemplo), también son propensos a “volverse locos” cuando se entrenan en sus propios resultados. En este sentido, vale la pena enfatizar cuán importantes son estos sistemas de Inteligencia Artificial en nuestras vidas; porque los modelos algorítmicos de IA se emplean tanto en el ámbito corporativo como también en el ámbito público.
Incluso hay que acotar que otro aspecto importante impulsado por los resultados es la preocupación por la procedencia de los datos, actualmente se vuelve aún más inherente poder separar los datos “originales” de los “artificiales”. Si no puede identificar qué datos creó un LLM o una aplicación de imagen generativa, es posible que, los incluya de forma accidental en los datos de capacitación para su producto de próxima generación y, esto es algo que ya ha estado ocurriendo.
Ahora bien, la búsqueda de una marca de agua que identifique el contenido generado por IA ahora se ha convertido en un esfuerzo mucho más importante y lucrativo que la responsabilidad de etiquetar los datos generados por IA, en la actualidad, esto se ha convertido en un requisito mucho más formal y sumamente vital que se tiene que conocer.
Incluso, hay otras formas de compensar estos sesgos y se debe dejar claro que una de ellas es cambiar las ponderaciones del modelo, si aumenta la relevancia o la frecuencia de los resultados en las colas de la distribución, se moverán de forma natural a lo largo de la curva de campana, más cerca de la media. Se deduce que entonces serían mucho menos propensos a la poda (por así decirlo) del entrenamiento autogenerativo. El modelo aún pierde los datos en los bordes de la curva, sin embargo, esos datos ya no se encuentran sólo allí.