Nick Bostrom y la paradoja de la IA: el mayor riesgo es también la única vía hacia el futuro El filósofo sueco afirma que la inteligencia artificial avanzada es inevitable y necesaria, aunque su desarrollo plantea riesgos existenciales sin precedentes.

El debate sobre la inteligencia artificial (IA) ha pasado de ser un tema de ciencia ficción a convertirse en una de las mayores preocupaciones del presente.
Nick Bostrom, filósofo sueco y director del Instituto para el Futuro de la Humanidad en la Universidad de Oxford, es una de las voces más influyentes en este tema.
Aunque es conocido por sus advertencias sobre los peligros de la superinteligencia, su postura ha evolucionado, pasando de un enfoque apocalíptico a una visión más matizada que reconoce tanto los riesgos como las oportunidades que esta tecnología representa.
En una entrevista con UnHerd, Bostrom aseguró que la inteligencia artificial avanzada no solo es inevitable, sino que es la mejor opción para alcanzar un futuro para la humanidad. Sin embargo, también dejó claro que la transición hacia una era dominada por la IA no estará exenta de peligros.
Relacionado: Yuval Noah Harari lanza una advertencia: "La IA puede acabar con el dominio humano en la Tierra"
Según el experto, la IA es la clave para resolver los mayores desafíos globales. Desde el cambio climático hasta la prevención de pandemias y la gestión de recursos a gran escala, Bostrom cree que solo un sistema de inteligencia artificial superior a la cognición humana podrá abordar estos problemas de manera eficaz.
Bostrom señaló que, aunque ve en la IA el camino hacia el progreso, también advierte que las etapas iniciales de su desarrollo y despliegue serán las más riesgosas.
El filósofo reconoce que, en los próximos años, la IA podría ser utilizada con fines menos altruistas. La vigilancia masiva, la manipulación de información y la guerra autónoma son solo algunos de los escenarios preocupantes que menciona.
Además, advierte sobre un problema fundamental: no hay garantía de que la IA desarrolle objetivos alineados con el bienestar humano.
Otro peligro radica en la posible centralización del control de la IA en manos de unos pocos actores, ya sean gobiernos o corporaciones privadas. Si el desarrollo de la superinteligencia queda monopolizado, el mundo podría enfrentar una concentración de poder sin precedentes.
A pesar de las advertencias, Bostrom no cree que detener el desarrollo de la IA sea una opción viable. De hecho, argumenta que el miedo excesivo a la inteligencia artificial podría ser tan perjudicial como la falta de precaución.
Relacionado: Según un estudio esta es la razón por la que el 70% de la gente saluda amablemente a ChatGPT