¿IA para usos bélicos? Alphabet y Google actualizan sus políticas para eliminar las restricciones Alphabet, la empresa matriz de Google, ha modificado sus políticas de inteligencia artificial, eliminando las restricciones sobre el uso de la tecnología con fines militares o de vigilancia.
Key Takeaways
- Este cambio genera preocupación en un contexto global donde la competencia por el liderazgo en IA se intensifica.

Con la llegada de ChatGPT en noviembre de 2022 no solo explotó nuestra productividad (gracias a todo lo que la inteligencia artificial generativa puede hacer por nosotros), sino que también las preocupaciones que la nueva tecnología supone.
De manera simultánea a la adopción de la inteligencia artificial (IA), se hicieron escuchar las voces de los académicos, científicos y expertos advirtiendo de los peligros que supone y de que, sin los cuidados necesarios, la tecnología podía emanciparse para tomar decisiones por sí misma y poner en riesgo a la humanidad.
Desde entonces, muchas cosas han sucedido: hoy la IA está integrada en muchos más procesos de los que imaginamos y la utilizamos a diario sin siquiera pensarlo. Aunque algunos siguen hablando de los riesgos, la adopción de herramientas como ChatGPT de OpenAI, Gemini de Google o Claude de Anthropic es masiva y hemos comprendido que más que reemplazarnos, la tecnología tiene el poder de complementarnos.
Pero sigue habiendo señales de riesgo.
Alphabet, la dueña de Google, acaba de modificar su políticas de IA y aunque el cambio pudiera parecer menor, es significativo. En el texto ya no se menciona la promesa de no utilizar inteligencia artificial con fines militares o de vigilancia.
Según The Guardian, la compañía anunció la actualización de sus políticas el martes pasado, justo antes de presentar los resultados del cuatro trimestre de 2024. La empresa actualizó sus políticas éticas sobre IA, eliminando la mención de no desarrollar tecnologías que "puedan causar o sean propensas a causar daño en general".
Demis Hassabis, Director de IA, y James Manyika, Vicepresidente Senior de Sociedad y Tecnología de Alphabet, se refirieron al tema en una publicación en el blog de la compañía en el que explicaron cómo ha evolucionado la tecnología desde 2018, cuando Google hizo públicos por primera vez sus Principios de IA:
"Está teniendo lugar una competencia global por el liderazgo en IA dentro de un panorama geopolítico cada vez más complejo. Creemos que las democracias deben liderar el desarrollo de la IA, guiadas por valores fundamentales como la libertad, la igualdad y el respeto por los derechos humanos. Y creemos que las empresas, los gobiernos y las organizaciones que compartan estos valores deben trabajar juntos para crear una IA que proteja a las personas, promueva el crecimiento global y apoye la seguridad nacional."
Los ejecutivos explicaron que la empresa está centrando sus principios de inteligencia artificial en tres pilares fundamentales:
- La innovación audaz, para desarrollar "una IA capaz de asistir, empoderar e inspirar a las personas en casi todos los campos del esfuerzo humano, impulsar el progreso económico y mejorar vidas, habilitar avances científicos y ayudar a abordar los mayores desafíos de la humanidad".
- El desarrollo y despliegue responsable pues "la IA, como una tecnología transformadora aún emergente, plantea nuevas complejidades y riesgos". La empresa sigue comprometida en desarrollar la IA de manera responsable a lo largo de todo su ciclo de vida "aprendiendo a medida que la IA avanza y evolucionan sus usos".
- Progreso colaborativo para aprender de otros y construir una "tecnología que empodera a otros para aprovechar la IA de manera positiva".
Sin embargo, la mención anterior a no desarrollar tecnologías que "puedan causar o sean propensas a causar daño en general" ha sido eliminada.
Relacionado: Crean en China una inteligencia artificial capaz de impactar a individuos a 16 km de distancia
¿Esto significa que Google podría desarrollar IA con fines militares?
No necesariamente. Pero en un entorno de competencia internacional y con países como China demostrando su potencial para desarrollar IA efectiva a costos muchos menores que las empresas tecnológicas en Estados Unidos, le empresa parece estar dejando atrás las restricciones de lenguaje que ella misma se había puesto.
Desde que asumió su segundo mandato, Donald Trump ha dejado claro su deseo de mantener el liderazgo de Estados Unidos en inteligencia artificial mediante proyectos de alta inversión como Stargate. Aunque no ha explicado qué pretende lograr con el impulso al desarrollo de la tecnología, su uso militar no puede ser descartado.
Relacionado: ¿Qué es Stargate? Donald Trump le apuesta fuerte al desarrollo de la inteligencia artificial