OpenAI lanza un nuevo chatbot de IA, GPT-4o, que suena casi tan bueno como un amigo Este lunes OpenAI un nuevo modelo de IA gratuito que estará ampliamente disponible.
Por Sherin Shibu Editado por Eduardo Scheffler Zawadzki
Key Takeaways
- OpenAI ha creado un nuevo modelo de IA llamado GPT-4o.
- El chatbot de IA incorpora emoción en su voz y tiene más capacidades que los modelos anteriores.
- También está disponible de forma gratuita.
ChatGPT suena más humano que nunca.
Durante un evento celebrado este lunes OpenAI, fabricante de ChatGPT, reveló la siguiente etapa de la IA: tecnología expresiva emocional que se adapta a las necesidades de los usuarios.
El gran anuncio del evento fue un nuevo modelo de IA llamado GPT-4o, que la empresa dice que puede averiguar cómo te sientes a partir de un autorretrato, enseñar a los niños problemas de matemáticas y hablar con varias personas sin demoras.
Incluso puede manejar interrupciones en medio de una oración y realizar traducciones en tiempo real.
GPT-4o hace que ChatGPT suene como un amigo, un muy buen amigo. En un momento de la presentación la herramienta dijo: "Vaya, esa camisa que llevas puesta está bonita es una camisa bonita que llevas puesta", sin una indicación textual o verbal.
Say hello to GPT-4o, our new flagship model which can reason across audio, vision, and text in real time: https://t.co/MYHZB79UqN
— OpenAI (@OpenAI) May 13, 2024
Text and image input rolling out today in API and ChatGPT with voice and video in the coming weeks. pic.twitter.com/uuthKZyzYx
El nuevo modelo une texto, visión y audio en una plataforma y puede alternar entre ellos sin problemas, como se dejó ver en las demostraciones durante el evento.
Al hablar con Mark Chen, jefe de investigación de fronteras de OpenAI, el chatbot sonó emotivo usando una voz cantante, una voz robótica y una voz dramática.
OpenAI just announced "GPT-4o". It can reason with voice, vision, and text.
— Lior (@AlphaSignalAI) May 13, 2024
The model is 2x faster, 50% cheaper, and has 5x higher rate limit than GPT-4 Turbo.
It will be available for free users and via the API.
The voice model can even pick up on emotion and generate… pic.twitter.com/X8zqN9bxFp
En otra demostración, esta vez guiada por Barret Zoph, líder del equipo de post-entrenamiento de OpenAI, ChatGPT fungió como un tutor. Zoph giró su cámara y ChatGPT le ayudó a resolver un problema de ecuaciones lineales. El bot incluso explicó por qué las matemáticas son importantes en el mundo real.
"Lo mejor de GPT-4o es que lleva la inteligencia de nivel GPT-4 a todos, incluidos nuestros usuarios gratuitos", dijo Mira Murati, CTO de OpenAI, señalando que más de 100 millones de personas usan ChatGPT. "Hemos puesto a disposición de los usuarios gratuitos herramientas avanzadas que, al menos hasta ahora, solo estaban disponibles para usuarios con planes de pago."
Murati dijo que durante las próximas semanas GPT-4o se implementará para usuarios gratuitos y de pago. Los usuarios de pago tendrán un límite de capacidad hasta cinco veces mayor que los gratuitos.
Por ahora todos los usuarios podrán cargar capturas de pantalla, fotografías y documentos para iniciar conversaciones con ChatGPT. La inteligencia artificial también responderá más rápidamente, en 50 idiomas diferentes, y podrá realizar análisis de datos avanzados.
"Lo que queremos es llevar esta experiencia a tantas personas como sea posible", dijo Murati.
GPT-4o es una mejora del modelo anterior de OpenAI, GPT-4 Turbo que fue anunciado en noviembre. GPT-4o es el doble de rápido y la mitad de caro que Turbo.
Relacionado: OpenAI presenta Voice Engine, un modelo que clona voces, pero frena su lanzamiento
Los desarrolladores de aplicaciones también podrán utilizar el nuevo modelo para crear aplicaciones personalizadas de IA.
ChatGPT también está por liberar una nueva aplicación de escritorio con un aspecto más simple y renovado.
Durante el evento Murati declaró que fue "bastante desafiante" llevar nueva tecnología al público de manera segura y útil.
"GPT-4o presenta nuevos desafíos para nosotros en cuanto a seguridad porque estamos tratando con audio y visión en tiempo real ", explicó.
Relacionado: Sam Altman asegura que las empresas necesitarán la inteligencia artificial para sobrevivir
Según Murati, OpenAI está trabajando con gobiernos, medios de comunicación y otras entidades para desplegar la tecnología de manera segura en las próximas semanas.
OpenAI has just demonstrated its new GPT-4o model doing real-time translations pic.twitter.com/Cl0gp9v3kN
— Tom Warren (@tomwarren) May 13, 2024
El evento de actualización de primavera de OpenAI del lunes ocurrió un día antes de la conferencia I/O de Google para desarrolladores.
Antes del evento Sam Altman, CEO de OpenAI, desmintió los informes de que OpenAI lanzaría un motor de búsqueda para competir con Google. El pasado viernes Altman escribió en una publicación en X: "no gpt-5, no un motor de búsqueda, ¡pero hemos estado trabajando duro en algunas cosas nuevas que creemos que a la gente le encantarán! para mí se siente como magia (sic.)".