Anthropic revela que solo el 2.9% de las conversaciones con Claude buscan apoyo emocional La mayoría de las conversaciones con Claude se centran en productividad y creación de contenido, no en apoyo emocional.
Key Takeaways
- Anthropic analizó 4.5 millones de conversaciones para entender mejor cómo se usan sus chatbots.

Aunque los chatbots de inteligencia artificial (IA) han ganado popularidad como herramientas de apoyo emocional, un informe de Anthropic, la empresa creadora de Claude, revela que la mayoría de las personas no los utilizan con ese propósito. En lugar de recurrir a los chatbots como compañía, los usuarios suelen emplearlos más para tareas de productividad.
En su estudio, Anthropic analizó 4.5 millones de conversaciones de usuarios con Claude Free y Claude Pro para conocer mejor cómo se usan sus chatbots.
Los datos mostraron que solo el 2.9% de las interacciones con Claude estaban relacionadas con apoyo emocional o consejos personales. Incluso, el juego de roles y las interacciones de compañía no superaron el 0.5% de las conversaciones totales.
La mayoría de las interacciones se centran en la creación de contenido o la resolución de problemas laborales. En este sentido, el chatbot se usa más como un asistente de productividad que como un compañero emocional.
Aunque las interacciones emocionales no son el foco principal, el informe señala que en situaciones donde los usuarios enfrentan problemas emocionales, como soledad o estrés, pueden terminar recurriendo al chatbot en busca de apoyo.
Relacionado: 308,000 conversaciones revelan los valores de Claude, la IA de Anthropic
En estos casos, las conversaciones de coaching o asesoramiento pueden volverse más personales y convertirse, sin querer, en momentos de consuelo.
Además, el estudio observa que las conversaciones largas (más de 50 mensajes) tienden a cambiar de tono, y los usuarios a veces buscan compañía, aunque al principio solo buscaban consejos prácticos o profesionales.
El informe también señala que Claude rara vez rechaza las solicitudes de los usuarios, a menos que existan limitaciones de seguridad para evitar que el chatbot proporcione respuestas peligrosas o fomente comportamientos autodestructivos.
Sin embargo, como cualquier otra herramienta de IA, Claude tiene limitaciones. Los chatbots todavía pueden dar información incorrecta o generar respuestas inadecuadas, y a veces no cumplen con las expectativas emocionales de los usuarios.
Relacionado: Investigaciones alertan sobre el impacto de ChatGPT en la soledad y la dependencia emocional