Meta comenzará a etiquetar las imágenes creadas por la inteligencia artificial en sus plataformas La empresa, propietaria de Facebook, Instagram, WhatsApp y Threads, busca generar confianza entre sus usuarios detectando y etiquetando el contenido creado por medio de la IA generativa.
Por Entrepreneur en Español Editado por Eduardo Scheffler Zawadzki
Meta, la empresa matriz de Facebook, Instagram y Threads, quiere dar un paso para que los usuarios puedan distinguir el contenido generado por medio de la inteligencia artificial (IA).
A través de un comunicado publicado en su blog oficial, la compañía anunció planes para identificar y etiquetar todas las imágenes generadas por la IA en sus plataformas.
"En los próximos meses, etiquetaremos las imágenes que los usuarios publiquen cuando podamos detectar indicadores estándar de la industria de que han sido generadas por IA", expresó Meta en el escrito.
De acuerdo con CNN, Meta ya etiqueta imágenes realistas creadas con su propia tecnología de IA, informando a los usuarios que fueron generadas por medio de la inteligencia artificial. Sin embargo, ahora busca extender esta práctica a contenido realizado con reconocidas herramientas de terceros como OpenAI, Adobe, Midjourney, Shutterstock, Microsoft y Google.
En el comunicado Meta explica que actualmente no cuenta con medidas similares para la detección de audio y video generados por IA, aunque planea implementar una función que permita a los usuarios etiquetar directamente su contenido cuando se trate de archivos de audio o video generados por la inteligencia artificial generativa (aunque esta no es una medida infalible, pues lo que muchas veces se pretende es que el contenido parezca real.
"Exigiremos que las personas usen esta herramienta de divulgación y etiquetado cuando publiquen contenido orgánico con un video fotorrealista o un audio que haya sido generado o alterado digitalmente", explicó Meta.
La empresa advirtió que aquellos que no etiqueten correctamente su contenido podrían enfrentar sanciones. Además, indicó que se considera la posibilidad de añadir etiquetas adicionales a ciertos contenidos que representen un riesgo de engaño sobre temas importantes.
Esta medida se asemeja a las notas de comunidad implementadas por otras plataformas como X, que proporcionan información adicional y contexto sobre ciertos contenidos.
De esta manera, Meta busca promover la transparencia y la confianza en su plataforma en un entorno digital cada vez más saturado de contenido falso generado por la IA, como los deepfakes.
Relacionado: Los deepfakes acechan en 2024. Así es cómo abordar el creciente panorama de amenazas de la IA