¿Envenenar a la inteligencia artificial para proteger las obras con derechos? Eso es lo que propone Nightshade Expertos de la Universidad de Chicago crearon este sistema para engañar a los programas que usan la inteligencia artificial.
Por Entrepreneur en Español Editado por Eduardo Scheffler Zawadzki
Vivimos en una época en la que la inteligencia artificial (IA) nos ha proporcionado la capacidad de realizar en poco tiempo tareas que antes resultaban complejas, caras, o a veces, casi imposibles de realizar.
Sin embargo, esta era tecnológica no está exenta de desafíos, especialmente en la protección de los derechos de autor. En este contexto, un equipo de investigadores de la Universidad de Chicago ha desarrollado una nueva arma para los artistas: Nightshade, una herramienta diseñada para combatir a las IA generativas que utilizan obras con derechos de autor para responder a las solicitudes de los usuarios.
Según la información publicada en arXiv, Nightshade es una herramienta innovadora que permite "envenenar" el material utilizado por dichas tecnologías.
Esto significa que, cuando una IA generativa solicita una imagen, Nightshade puede alterar el resultado de manera que, por ejemplo, una solicitud de un diseño de un perro podría terminar mostrando a un gato.
Según Genbeta, los investigadores liderados por Ben Zhao ya habían tenido éxito anteriormente con una herramienta llamada Glaze, que altera sutilmente las imágenes digitales al cambiar algunos píxeles de manera que el ojo humano no detecte la diferencia, pero que confunde a los programas.
El equipo de la Universidad de Chicago tiene la intención de integrar Nightshade con Glaze, de modo que los artistas puedan elegir qué método utilizar para proteger sus obras contra la inteligencia artificial generativa.
¿Cómo funciona Nightshade?
Nightshade se basa en la explotación de una vulnerabilidad de seguridad que existe en los modelos de IA. Esta vulnerabilidad permite la introducción de imágenes "envenenadas" en la red. Cuando los modelos de IA comienzan a buscar información en línea para entrenarse, se topan con datos manipulados.
Esto significa que los modelos que utilizan información envenenada aprenderán de manera incorrecta, generando resultados que están completamente desconectados de la realidad.
Nightshade es un ejemplo de cómo los artistas están luchando contra la apropiación no autorizada de su trabajo por parte de las IA generativas. Esta herramienta, junto con otras como Glaze, representa un paso importante hacia la creación de un equilibrio entre la innovación tecnológica y la protección de los derechos de autor en el mundo digital, un área todavía llena de vacíos legislativos y con mucho camino por andar.
Relacionado: Autores demandan a OpenAI por usar sus obras para entrenar a ChatGPT