ChatGPT ahora puede imitar voces sin autorización de los usuarios OpenAI reconoció el problema y aseguró que ya está trabajando para mitigar los riesgos para los usuarios.
OpenAI presentó un informe que detalla los riesgos asociados con su último modelo de lenguaje, GPT-4o, según información publicada por The Verge.
Este reporte, conocido como System Card, destaca los avances técnicos logrados con la nueva versión del modelo, pero también alerta sobre algunos riesgos, especialmente en lo relacionado con la imitación de voces.
Una de las situaciones que más preocupación ha generado es la capacidad del Modo de Voz Avanzado de GPT-4o para imitar voces humanas sin el consentimiento de los usuarios.
Esta función, diseñada para mejorar la experiencia del usuario permitiendo la interacción con ChatGPT mediante comandos de voz, mostró durante las pruebas que el modelo podía replicar la voz de un usuario de manera casi exacta, incluso sin haberlo solicitado.
Ars Technica, un medio especializado en tecnología, documentó un caso durante las pruebas en el que un usuario, tras emitir un comando de voz acompañado de un enfático "¡No!", recibió una respuesta de ChatGPT que emulaba su voz de manera alarmantemente precisa.
El informe de OpenAI también advirtió sobre la capacidad de GPT-4o para generar no solo voces humanas, sino también efectos de sonido y música.
Relacionado: OpenAI suspende el uso de una de las voces de GPT-4o por su parecido a la de Scarlett Johansson
Sin embargo, OpenAI ha implementado medidas para mitigar estos riesgos. Según el informe, el riesgo de replicación involuntaria de voces es "mínimo" gracias a las protecciones integradas en el sistema.
Además, la compañía ha restringido la capacidad del modelo para generar voces, limitándola a aquellas creadas en colaboración con actores de voz profesionales. Esta decisión busca reducir las posibilidades de que el sistema imite voces sin autorización.
Esta situación, calificada como de mediano riesgo por OpenAI, muestra cómo los avances en inteligencia artificial pueden mejorar diversas industrias, pero también generan problemas y preocupaciones que, en algunos casos, parecen estar fuera del control humano.
Relacionado: Los deepfakes acechan en 2024. Así es cómo abordar el creciente panorama de amenazas de la IA