Protesta revela proyecto secreto de IA entre Walmart y Microsoft La herramienta MyAssistant, desarrollada por Walmart, requiere límites de seguridad por su alto poder operativo.

Durante el evento Microsoft Build 2025, una protesta interrumpió la exposición de seguridad de la compañía, provocando que se revelara accidentalmente un mensaje confidencial que involucra a Walmart y los planes de implementación de inteligencia artificial (IA) en su operación interna.
De acuerdo con CNBC, la revelación ocurrió cuando Neta Haiby, jefa de seguridad de IA en Microsoft, compartió su pantalla para salir del incidente. En ese instante, asistentes presenciaron un mensaje interno de Microsoft Teams en el que se mostraba que Walmart está "listo para arrancar con Entra Web y AI Gateway", dos tecnologías desarrolladas por la firma con sede en Redmond.
El mensaje fue escrito por Leigh Samons, arquitecto principal de soluciones en la nube, y detallaba el proceso de integración de IA en los sistemas de Walmart.
Además, señalaba que una herramienta propia del gigante minorista, llamada MyAssistant, requería medidas de control adicionales debido a su alta capacidad de procesamiento.
Según un comunicado publicado por Walmart en enero, MyAssistant se basa en una combinación de datos internos, tecnología propietaria y modelos de lenguaje generativo en Azure OpenAI.
Esta herramienta ayuda a empleados en tiendas físicas a resumir documentos, redactar materiales promocionales y realizar tareas operativas.
El mismo mensaje citaba a un ingeniero sénior de Walmart, quien afirmó que "Microsoft está muy por delante de Google en seguridad de IA".
Relacionado: Grok, IA de Elon Musk, llega al ecosistema de Microsoft
Las protestas de los activistas
La filtración coincidió con una jornada de protestas contra la empresa tecnológica. Varios activistas interrumpieron distintas sesiones para señalar la participación de Microsoft en contratos relacionados con tecnología militar israelí.
Durante la misma sesión donde ocurrió la filtración, un manifestante del grupo No Azure for Apartheid acusó a la doctora Sarah Bird, directora de IA responsable en Microsoft, de "blanquear los crímenes en Palestina". La transmisión fue silenciada momentos después.
Más tarde, un trabajador palestino del sector tecnológico interrumpió al jefe de CoreAI, Jay Parikh, para exigir que Microsoft corte vínculos con Israel. El empleado, que prefirió no revelar su nombre, acusó directamente a la empresa de facilitar acciones bélicas mediante el uso de IA.
Relacionado: Microsoft produjo un spot publicitario con ayuda de la IA — y nadie lo notó