Académicos de la UNAM alertan que la inteligencia artificial no entiende, solo predice palabras Investigadores del Instituto de Fisiología Celular señalaron que herramientas como ChatGPT deben usarse con supervisión y criterio académico.

Universidad Nacional Autónoma de México (UNAM)

En medio del auge de la inteligencia artificial (IA), investigadores de la Universidad Nacional Autónoma de México (UNAM) advirtieron sobre la necesidad de fomentar un uso informado y responsable de estas tecnologías, particularmente en espacios académicos y científicos.

Durante un foro celebrado en el Instituto de Fisiología Celular (IFC), especialistas analizaron los alcances y limitaciones de modelos de lenguaje como ChatGPT, subrayando que su integración en ambientes universitarios va más allá de una moda tecnológica: implica un cambio en la forma en que se genera, transmite y valida el conocimiento.

De acuerdo con una publicación realizada en el blog de UNAM Global, Carlos Peralta Álvarez, académico del IFC, explicó que los modelos generativos de lenguaje funcionan a través de algoritmos estadísticos que predicen palabras con base en el contexto, lo que permite producir textos con apariencia coherente.

Sin embargo, enfatizó que estas plataformas no comprenden lo que dicen ni procesan significados como lo haría una mente humana.

Relacionado: ¿El nuevo asistente virtual universitario? ChatGPT se prueba con 460,000 estudiantes

Según Augusto Poot Hernández, coordinador del foro, es común escuchar en clases frases como "me lo dijo ChatGPT", generalmente seguidas de quejas cuando el resultado no cumplió con las expectativas.

El foro también abordó algunos de los riesgos más evidentes, como las llamadas "alucinaciones de la IA" (errores o invenciones que los sistemas de inteligencia artificial presentan como hechos ciertos), y el sesgo de los datos con los que son entrenadas estas plataformas, que pueden reproducir prejuicios históricos o sociales.

Pese a las críticas, los académicos reconocieron que estas herramientas pueden tener un papel positivo en ciertas tareas, como la organización de información, la generación de borradores o incluso la asistencia en diagnósticos médicos preliminares. No obstante, coincidieron en que su uso debe estar acompañado de una supervisión humana.

Entre las recomendaciones presentadas en el encuentro, se sugirió realizar preguntas más complejas al interactuar con chatbots, preferentemente en inglés cuando se trate de temas científicos, y siempre contrastar los resultados con fuentes confiables.

Asimismo, destacaron la utilidad de modelos combinados, conocidos como RAG (por sus siglas en inglés), que permiten conectar una IA con bases de datos locales para generar respuestas más seguras y controladas.

Relacionado: ¿Preguntas o respuestas? Sam Altman revela la clave para destacar en la era de la IA

Entrepreneur en Español

Entrepreneur Staff

Iniciar un negocio

63 ideas de pequeños negocios para iniciar en 2025

Hemos elaborado una lista con las mejores y más rentables ideas de pequeños negocios para que los emprendedores las consideren en 2025.

Emprendedores

10 grandes frases sobre el poder de las metas

Establecer metas es el primer paso para lograr algo significativo.

Noticias

¿La IA reduce la capacidad de pensar? Estudio alerta sobre efectos de ChatGPT

La investigación introdujo el concepto de "deuda cognitiva" y muestra que el uso de herramientas de IA como ChatGPT debilita la memoria.

Noticias

14 maneras fáciles de ganar dinero extra en casa

Un ingreso adicional se siente como ser rico si ya tienes un trabajo diario para cubrir las deudas.

Recursos Humanos

6 tácticas efectivas para manejar a un jefe tóxico

Rescatar tu dignidad de un jefe abusivo es un trabajo difícil.

Consultoría

¿Quieres ser un mejor líder? Deja de confundir estos dos roles

En los negocios, lograr el balance adecuado entre hacer el trabajo y liderarlo es clave. Los líderes más efectivos saben cuándo arremangarse y cuándo dar un paso atrás para dirigir.