OpenAI lanza sistema para verificar si un texto fue escrito por medio de la inteligencia artificial. ¿El problema? No es fiable La herramienta digital ChatGPT es capaz de redactar ensayos y tareas perfectas; los académicos están preocupados.
Por Eduardo Scheffler Zawadzki Editado por Eduardo Scheffler Zawadzki
ChatGPT, la herramienta para generar texto impulsada por la inteligencia artificial, ha conquistado al mundo en tan solo un par de meses.
El Generative Pre-trained Transformer (algo así como un transformador generativo pre-entrenado) o GPT es un modelo de lenguaje autorregresivo que utiliza el machine learning para simular el modo en el que escribimos los seres humanos.
Dándole instrucciones al sistema, este puede escribir relatos coherentes y comprensibles. Pero no solo eso. GPT va más allá, pues tomando en cuenta los datos previos que el mismo sistema ha generado puede completar por sí mismo un relato, tarea, poema o ensayo.
Como era de esperarse tanto profesionistas como estudiantes han comenzado ya a utilizar el sistema, encendiendo los focos rojos en torno a su uso, sobre todo en el entorno académico.
En un intento por contrarrestar el impacto de la herramienta en el mundo académico, OpenAI (la organización que la creó) ha liberado una nueva función llamada AI Text Classifier (Clasificador de Texto de Inteligencia Artificial) que permite a un usuario verificar si un texto fue redactado haciendo uso de la herramienta.
Por ahora esta funcionalidad solo está disponible en el idioma inglés y opera por medio de un sistema de machine learning (aprendizaje automático) capaz de identificar si un texto fue generado utilizando ChatGPT.
El problema es que el sistema es falible y solo arroja una calificación del uno al cinco para determina la probabilidad que existe de que un texto haya sido creado haciendo uso de la herramienta.
En una entrada publicada en su blog, OpenAI confiesa que resulta imposible detectar con toda seguridad si un texto ha sido escrito por la inteligencia artificial. La organización explica: "Nuestro clasificador no es totalmente fiable. En nuestras evaluaciones sobre un 'conjunto de desafíos' de textos en inglés, nuestro clasificador identifica correctamente el 26% del texto escrito por IA (verdaderos positivos) como 'probablemente escrito por IA', mientras que etiqueta incorrectamente el texto escrito por humanos como escrito por la IA el 9% de las veces (falsos positivos). La fiabilidad de nuestro clasificador suele mejorar a medida que aumenta la longitud del texto de entrada. En comparación con nuestLa herramienta digital ChatGPT es capaz de redactar ensayos y tareas perfectas; los académicos están preocupados.ro clasificador lanzado anteriormente, este nuevo clasificador es significativamente más confiable en el texto de los sistemas de IA más recientes".
Del mismo modo que OpenAI ha ido puliendo la capacidad de su herramienta para generar textos cada vez más cercanos a los que escribimos los humanos, es de esperar que su sistema de identificación de material generado utilizando la herramienta también mejor en el corto plazo.
Al menos es eso lo que los maestros esperamos.