Académicos de la UNAM alertan que la inteligencia artificial no entiende, solo predice palabras Investigadores del Instituto de Fisiología Celular señalaron que herramientas como ChatGPT deben usarse con supervisión y criterio académico.

En medio del auge de la inteligencia artificial (IA), investigadores de la Universidad Nacional Autónoma de México (UNAM) advirtieron sobre la necesidad de fomentar un uso informado y responsable de estas tecnologías, particularmente en espacios académicos y científicos.
Durante un foro celebrado en el Instituto de Fisiología Celular (IFC), especialistas analizaron los alcances y limitaciones de modelos de lenguaje como ChatGPT, subrayando que su integración en ambientes universitarios va más allá de una moda tecnológica: implica un cambio en la forma en que se genera, transmite y valida el conocimiento.
De acuerdo con una publicación realizada en el blog de UNAM Global, Carlos Peralta Álvarez, académico del IFC, explicó que los modelos generativos de lenguaje funcionan a través de algoritmos estadísticos que predicen palabras con base en el contexto, lo que permite producir textos con apariencia coherente.
Sin embargo, enfatizó que estas plataformas no comprenden lo que dicen ni procesan significados como lo haría una mente humana.
Relacionado: ¿El nuevo asistente virtual universitario? ChatGPT se prueba con 460,000 estudiantes
Según Augusto Poot Hernández, coordinador del foro, es común escuchar en clases frases como "me lo dijo ChatGPT", generalmente seguidas de quejas cuando el resultado no cumplió con las expectativas.
El foro también abordó algunos de los riesgos más evidentes, como las llamadas "alucinaciones de la IA" (errores o invenciones que los sistemas de inteligencia artificial presentan como hechos ciertos), y el sesgo de los datos con los que son entrenadas estas plataformas, que pueden reproducir prejuicios históricos o sociales.
Pese a las críticas, los académicos reconocieron que estas herramientas pueden tener un papel positivo en ciertas tareas, como la organización de información, la generación de borradores o incluso la asistencia en diagnósticos médicos preliminares. No obstante, coincidieron en que su uso debe estar acompañado de una supervisión humana.
Entre las recomendaciones presentadas en el encuentro, se sugirió realizar preguntas más complejas al interactuar con chatbots, preferentemente en inglés cuando se trate de temas científicos, y siempre contrastar los resultados con fuentes confiables.
Asimismo, destacaron la utilidad de modelos combinados, conocidos como RAG (por sus siglas en inglés), que permiten conectar una IA con bases de datos locales para generar respuestas más seguras y controladas.
Relacionado: ¿Preguntas o respuestas? Sam Altman revela la clave para destacar en la era de la IA