"Construyamos un búnker": la advertencia del cofundador de OpenAI sobre la inteligencia artificial general Ilya Sutskever mencionó en reuniones privadas la idea de un refugio ante el riesgo de una IA incontrolable.

Ilya Sutskever, una de las principales mentes detrás del desarrollo de la inteligencia artificial moderna y cofundador de OpenAI, afirmó en una reunión privada que se debe "construir un búnker antes de lanzar la inteligencia artificial general". Así lo reportó The New York Post, citando a una fuente que estuvo presente en el encuentro.
Aunque la declaración fue matizada con un "por supuesto, será opcional", la frase ha provocado especulaciones dentro y fuera del mundo tecnológico, al apuntar al temor a perder el control de lo que se conoce como inteligencia artificial general (AGI).
Según las fuentes citadas por el medio, la afirmación no fue un exabrupto aislado. Al parecer, Sutskever habría hecho comentarios similares en más de una ocasión, sugiriendo que la posibilidad de que una AGI represente un riesgo existencial no es menor.
Quienes han trabajado con el ejecutivo lo describen como un personaje intelectual, a veces enigmático, e incluso con una inclinación "casi mística" hacia la forma en que concibe el futuro de la inteligencia artificial.
Sutskever, por ahora, no ha emitido comentarios públicos sobre las declaraciones que se le atribuyen. Tampoco ha aclarado si la mención de un "búnker" es una metáfora o una propuesta literal para salvaguardar a los humanos en caso de que los sistemas AGI evolucionen de forma hostil o incontrolable.
Relacionado: ¿Cuál es el precio para llegar a la inteligencia artificial general?
¿Qué hace diferente a la inteligencia artificial general?
A diferencia de la inteligencia artificial actual —capaz de realizar tareas específicas como escribir textos, traducir idiomas o generar imágenes— la AGI busca replicar o incluso superar las capacidades cognitivas humanas en todos los campos. Esta tecnología aún no existe, pero múltiples laboratorios del mundo, incluido OpenAI, trabajan activamente para alcanzarla.
Por ahora, el "búnker" de Sutskever puede verse como un símbolo: una advertencia de que la carrera por la inteligencia artificial no solo requiere innovación, sino también responsabilidad, visión a largo plazo y mucha más transparencia.
Relacionado: Inteligencia artificial general: el futuro que podría llegar en menos de 10 años