¿Llegó el colapso de la inteligencia artificial generativa? Un estudio tiene la respuesta Aunque esta tecnología es cada vez más popular, las respuestas que ofrece a los usuarios son cada vez menos fiables.
Key Takeaways
- Un estudio advierte que la proliferación de contenido generado por IA en internet podría deteriorar la calidad de los modelos de lenguaje.
- Esto podría llevar a un "colapso del modelo" debido al entrenamiento con datos repetitivos y menos variados.
El uso de modelos de inteligencia artificial (IA) ya ha transformado la forma en que interactuamos con la tecnología; sin embargo, no está exento de problemas y dudas.
Un estudio reciente concluyó que la proliferación de contenido generado por IA en internet podría llevar a una disminución significativa en la calidad de estos modelos, un fenómeno denominado "colapso del modelo".
Este proceso podría afectar la capacidad de los modelos para producir contenido coherente y preciso.
Los modelos de lenguaje grandes (LLM), como ChatGPT de OpenAI, dependen en gran medida de los datos disponibles en línea para entrenarse y mejorar su rendimiento. Sin embargo, a medida que estos datos se agotan o se vuelven menos accesibles debido a restricciones, los modelos recurren a entrenarse con contenido generado por otras inteligencias artificiales.
Según el estudio publicado en la revista Nature, esto puede conducir a una degradación progresiva en su capacidad para generar respuestas precisas y relevantes.
Ilia Shumailov, investigador de la Universidad de Oxford y coautor del estudio, explicó que este fenómeno comienza cuando un modelo de IA se entrena utilizando datos generados por otro modelo, lo que inicialmente reduce la variedad en los datos.
"Con el tiempo, prevemos que será más difícil entrenar los modelos, aunque probablemente tengamos más datos, simplemente porque es muy fácil tomar muestras de los datos de los modelos", comentó Shumailov a Euronews.
El estudio identificó que, cuando un modelo se alimenta repetidamente de datos generados por IA, comienza a cometer errores y a generar contenido incoherente.
Según Shumailov, el "colapso del modelo" ocurre en dos etapas. La primera se caracteriza por una reducción en la variabilidad de los datos, lo que resulta en un sobremuestreo de ciertos aspectos y en la negligencia de otros importantes.
Relacionado: ¿Qué tan cerca está realmente la inteligencia artificial de robarte tu trabajo?