Sam Altman reconoce la personalidad "aduladora y molesta" de ChatGPT. Así piensa ajustarla El CEO de OpenAI habló del tono con el que el chatbot responde a los usuarios. Ellos opinaron.

Durante meses, los usuarios de ChatGPT han levantado la voz para quejarse de un cambio sutil, pero molesto: la personalidad del chatbot ha evolucionado hacia la positividad tóxica, la amabilidad excesiva y la adulación de los usuarios.
El mismo Sam Altman, CEO de OpenAI, abordó el tema en una de sus publicaciones en X el pasado fin de semana.
El ejecutivo escribió (sic.): "Las últimas actualizaciones de GPT-4o han hecho que la personalidad sea demasiado aduladora y molesta (aunque hay aspectos muy buenos), y ya estamos trabajando en correcciones lo antes posible, algunas hoy mismo y otras durante esta semana. En algún momento compartiremos lo que hemos aprendido de esto, ha sido interesante".
the last couple of GPT-4o updates have made the personality too sycophant-y and annoying (even though there are some very good parts of it), and we are working on fixes asap, some today and some this week.
— Sam Altman (@sama) April 27, 2025
at some point will share our learnings from this, it's been interesting.
Si has usado la herramienta de inteligencia artificial (IA) a lo largo del tiempo, habrás notado su evolución, no solo a nivel técnico (sus respuestas parecen incorporar cada vez más elementos interactivos como hipervínculos o la posibilidad de pedirle que genere una imagen a partir de sus respuestas), sino en el tono de la "voz" con la que se dirige a ti.
Aunque a algunos pudiera no molestarles ese tono amable y complaciente de la herramienta, a otros les parece irritante.
Varios usuarios reaccionaron a la publicación de Altman.
Uno de ellos comentó (sic.): "podemos volver a la vieja personalidad? o se puede distinguir la nueva de la vieja de alguna manera?"
Relacionado: Sam Altman dice que ser amable con la IA cuesta miles de millones. ¿Qué opina ChatGPT?
Buscando una IA más humana
El ejecutivo aprovechó para comentar sobre los planes que la empresa tiene para modular el tono con el que la herramienta se dirige a los usuarios y explicó que pronto ChatGPT ofrecerá al usuario la posibilidad de elegir la "voz" con la que el chatbot se dirige a ellos.
Adelantó que la plataforma contará con un botón para elegir la personalidad con la que el usuario desea interactuar en un determinado momento.
Otra persona en X respondió a Altman que la IA debería de ser capaz de "calibrar" su personalidad basándose en la manera en la que el usuario interactúa con ella, así como lo podemos hacer los humanos.
Tanto el comentario de Sam Altman como la respuestas de los usuarios dejan ver una tendencia real en el uso de la IA: interacciones que se sientan más naturales y humanas. Tanto ChatGPT de OpenAI, como Claude de Anthropic y Gemini de Google han pasado de interacciones rígidas a unas más naturales. Es cierto que en ciertas versiones de los modelos e iteraciones el tono puede parecer adulador o fingido, pero las empresas de IA trabajan constantemente para encontrar el justo medio o para desarrollar modelos flexibles que se adapten al modo en el que el usuario les habla.
Antes de que nos demos cuenta, los chatbots llegarán a eso.
Relacionado: Sam Altman delega la gestión de OpenAI para enfocarse en la innovación tecnológica