OpenAI piensa utilizar "marcas" para identificar textos creados con sus herramientas de inteligencia artificial La organización contempla el uso de "señales secretas" para evidenciar el contenido generado con la plataforma.
Por Eduardo Scheffler Zawadzki Editado por Eduardo Scheffler Zawadzki
La incursión al mercado de plataformas de inteligencia artificial capaces de generar textos perfectamente bien escritos ha despertado muchas inquietudes. Además de redactores y escritores —quienes comienzan a sentir que una máquina podría quedarse con su empleo—, hay un sector que también mira este tipo de desarrollos con suspicacia: el académico.
Hoy los modelos de lenguaje autorregresivo son capaces de redactar elaborados textos que fácilmente podrían cumplir con los puntos a desarrollar en un trabajo escolar. Es decir: la inteligencia artificial podría hacerles la tarea a los alumnos.
Previniendo esta situación, empresas como OpenAI (la responsable del desarrollo de Dall-E y GPT-3) trabajan ya en medidas para impedir que sus herramientas cumplan con esa función.
Scott Aaronson, profesor de ciencias computacionales en la Universidad de Austin, quien labora como desarrollador invitado en OpenAI, dictó una conferencia en la que aborda el tema y una posible solución para que los profesores puedan identificar si un texto fue creado utilizando un modelo de lenguaje basado en la inteligencia artificial.
En su blog personal el académico explica: "Mi proyecto principal hasta ahora ha sido una herramienta para marcar estadísticamente las salidas de un modelo de texto como GPT. Básicamente, cada vez que GPT genera un texto largo, queremos que haya una señal secreta imperceptible en su elección de palabras, que se puede usar para probar más tarde que, sí, esto vino de GPT. Queremos que sea mucho más difícil tomar algo creado en GPT y hacerlo pasar como si viniera de un humano. Esto podría ser útil para prevenir el plagio académico, obviamente, pero también, por ejemplo, la generación masiva de propaganda, ya sabes, enviar spam a cada blog con comentarios que aparentemente apoyan la invasión rusa de Ucrania, sin siquiera tener un edificio lleno de trolls en Moscú. O imitar el estilo de escritura de alguien para incriminarlo. Estas son todas las cosas que uno podría querer hacer más difíciles, ¿verdad?"
La preocupación de Aaronson la comparten muchos profesionales en diversas disciplinas y no es para menos: los sistemas de inteligencia artificial hoy son capaces de generar en segundos contenidos que a una persona le tomaría un buen tiempo realizar. De obras de arte capaces de ganar concursos, a poemas creados a partir de una breve entrada de texto, estas herramientas obligan a hacer preguntas éticas.
Pero la respuestas a esas preguntas no deben de ir en el sentido de la prohibición o de la satanización de una tecnología que parece haber llegado para quedarse. Más bien se trata de entender la manera en que estas herramientas pueden potenciar nuestra capacidad y nuestro talento, claro, garantizando que no mermen nuestro desarrollo como pudiera suceder en el ámbito académico.