DeepMind de Google libera un sistema para identificar imágenes creadas por medio de la inteligencia artificial La herramienta lleva el nombre de SynthID y aunque dista mucho de ser perfecta, explora modos de combatir la desinformación que la tecnología puede generar.
Por Eduardo Scheffler Zawadzki Editado por Eduardo Scheffler Zawadzki
Hace unos meses una imagen del Papa Francisco I llegó a los titulares de los medios de comunicación y a los feeds de las redes sociales. En ella se podía ver al pontífice caminando por una calle vistiendo una elegante chamarra blanca (después se dijo que era de la marca Balenciaga) con un crucifijo plateado colgando del cuello. Aunque observando la fotografía es posible detectar que hay algo raro en ella (las manos, siempre son las manos), hubo muchos que creyeron que se trataba de una imagen real y criticaron la opulencia de un papa que se ha caracterizado por su humildad y votos de pobreza.
AI-generated image of Pope Francis goes viral on social media. pic.twitter.com/ebfLK4F850
— Pop Base (@PopBase) March 25, 2023
Al poco tiempo se supo que la imagen había sido creada por medio de Midjourney, una herramienta de inteligencia artificial (IA) capaz de generar imágenes a partir de la entrada de texto proporcionada por un usuario.
La imagen del Papa Francisco I demostró algo que ya sabíamos: que la tecnología ha evolucionado tanto que empieza a ser imposible distinguir a simple vista si una imagen, video texto o pintura ha sido creada por un ser humano o por una máquina.
A las imágenes de Francisco le siguieron las del supuesto arresto de Donald Trump y muchas otras. Una de las preocupaciones con las herramientas regenerativas de IA es que puedan ser utilizadas para difundir información falsa al mostrar imágenes y videos que parezcan reales (como los deepfakes).
Making pictures of Trump getting arrested while waiting for Trump's arrest. pic.twitter.com/4D2QQfUpLZ
— Eliot Higgins (@EliotHiggins) March 20, 2023
Consciente de esa situación, Deep Mind, la empresa de investigación y desarrollo de IA de Google, ha creado una herramienta que permite identificar con facilidad las imágenes que hayan sido generadas haciendo uso de la inteligencia artificial por medio de una marca de agua imperceptible para el ojo humano e indeleble, pese a que el material sea recortado y/o editado.
Pero hay dos detalles: los creadores de las imágenes tienen que "marcar" manualmente la imagen y por ahora solo funciona con Imagen, la herramienta de Google que equivale a Dalle-2 de OpenAI.
El nombre de la herramienta es SynthID y DeepMind explicó por medio de una publicación en su blog oficial: "Con esta herramienta, los usuarios pueden incrustar una marca de agua digital imperceptible en sus imágenes generadas por IA e identificar si Imagen se utilizó para crearlas, o incluso parte de ellas. Ser capaz de identificar el contenido generado por IA es fundamental para promover la confianza en la información. Si bien no es una bala de plata para abordar el problema de la desinformación, SynthID es una solución técnica temprana y prometedora para este apremiante problema de seguridad de la IA".
Aunque se trata todavía de una solución parcial que requiere de la buena voluntad de un usuario, deja ver que las empresas que están desarrollando las herramientas de IA que usamos en nuestro día a día, comprenden la necesidad de transparentar cuando algún material fue creado utilizando alguna de sus herramientas.
No es una solución, pero al menos un pequeño paso en la dirección correcta para abordar el tema.