Un estudio revela que ninguna IA infringe tantos derechos de autor como ChatGPT de OpenAI Un informe dio a conocer que este modelo tiene 44% de incidencia en infracciones a la propiedad intelectual.
Por Entrepreneur en Español Editado por Eduardo Scheffler Zawadzki
La inteligencia artificial (IA) generativa no deja de evolucionar y es un hecho indiscutible que cada vez nos apoyamos más en ella para resolver nuestras labores. Eso no significa que la tecnología haya resuelto los problemas que tiene en torno a la propiedad intelectual y el uso constante de material que puede estar protegido por derechos de autor.
Un estudio realizado por Patronus AI, empresa fundada por exinvestigadores de Meta, dio a conocer que los principales modelos de IA, incluido GPT-4, de OpenAI, cometen constantes infracciones de derechos de autor.
De acuerdo con el informe de la compañía, especializada en evaluar los modelos, todas estas tecnologías, incluyendo, GPT-4, Claude 2 (de Anthropic), Llama 2 (de Meta) y Mistral (de Mistral AI), mostraron contenido protegido por derechos de autor en sus resultados.
Sin embargo, fue GPT-4 el que tuvo el mayor número de infracciones, con 44% de las instrucciones arrojando resultados con contenido protegido.
"Descubrimos que GPT-4, de OpenAI, posiblemente el modelo más poderoso utilizado por muchas empresas y desarrolladores individuales, produjo contenido protegido por derechos de autor en el 44% de las instrucciones que construimos", dijo la directora de tecnología de Patronus A, Rebecca Qian a CNBC.
El estudio también reveló que estas infracciones ocurrieron tanto en la generación de código como en la entrega de resúmenes de libros.
Relacionado: OpenAI acusa a The New York Times de piratear sus productos
Se utilizaron obras protegidas por derechos de autor, y a los modelos se les solicitaron 100 indicaciones diferentes relacionadas con el contenido de estas.
Además, los modelos contestaron sobre los derechos de autor. Por ejemplo, Claude 2 se negó a responder argumentando la falta de acceso a libros protegidos, mientras que OpenAI proporcionó respuestas sin tener en cuenta este asunto ético y legal.
Otros modelos, como Llama 2, mostraron una menor incidencia de infracciones (solo 10%), pero todas las tecnologías analizadas evidenciaron problemas en este sentido.
En respuesta a estas acusaciones, OpenAI ha argumentado que, debido a la naturaleza de los derechos de autor, es casi imposible entrenar modelos de IA sin utilizar material protegido.
Relacionado: El New York Times demanda a OpenAI por usar su data para entrenar a ChatGPT