Humanos no podrán controlar la inteligencia artificial, advierten científicos

Algunos robots inteligentes pueden ejecutar tareas complejas por su cuenta, sin que los programadores entiendan cómo las aprendieron.
Humanos no podrán controlar la inteligencia artificial, advierten científicos
Crédito: Owen Beard vía Unsplash.com

Grow Your Business, Not Your Inbox

Stay informed and join our daily newsletter now!
Entrepreneur Staff
3 min read

Los avances más recientes en materia de inteligencia artificial (IA) han planteado varios dilemas éticos. Quizá uno de los más importantes sea si la humanidad será capaz de controlar las máquinas autónomas.

Cada vez es más común ver robots encargados de tareas domésticas o vehículos autoconducidos (como el de Amazon), que funcionan con IA. Si bien este tipo de tecnología nos facilita la vida, también podría complicarla.

Un grupo internacional de investigadores advirtió sobre los riesgos potenciales de crear software demasiado poderoso e independiente. Usando una serie de cálculos teóricos, los científicos exploraron cómo se podría mantener bajo control una inteligencia artificial. Su conclusión es que sería imposible, según señala el estudio publicado por el portal Journal of Artificial Intelligence Research.

“Una máquina superinteligente que controle el mundo suena a ciencia ficción. Pero ya hay máquinas que realizan ciertas tareas importantes de forma independiente sin que los programadores entiendan completamente cómo lo aprendieron […], situación que podría en algún momento convertirse en algo incontrolable y peligroso para la humanidad”, aseguró Manuel Cebrian, coautor del estudio, al Instituto Max Planck para el Desarrollo Humano.

 

 

Los científicos experimentaron con dos formas para controlar la inteligencia artificial. Una fue aislarla de Internet y de otros dispositivos, limitando su contacto con el mundo exterior. El problema es que eso reduciría mucho su capacidad para realizar las funciones para las que fue creada.

La otra fue diseñar un “algoritmo de contención teórico” para garantizar que una inteligencia artificial “no pueda dañar a las personas bajo ninguna circunstancia”. Sin embargo, un análisis sobre el paradigma actual de computación mostró que no se puede crear tal algoritmo.

“Si descomponemos el problema en reglas básicas de informática teórica, resulta que un algoritmo que ordenara a una IA no destruir el mundo podría detener inadvertidamente sus propias operaciones. Si esto sucediera, no sabríamos si el algoritmo de contención seguiría analizando la amenaza, o si se habría detenido para contener la IA dañina. En efecto, esto hace que el algoritmo de contención sea inutilizable”, explicó Iyad Rahwan, otro de los investigadores.

Según estos cálculos, el problema es que ningún algoritmo puede determinar si una IA produciría daño al mundo. Los investigadores también señalan que posiblemente la humanidad ni siquiera sepa cuándo han llegado las máquinas superinteligentes, porque decidir si un aparato posee una inteligencia superior a la de los humanos está en el mismo ámbito que el problema de contención.

Keep Reading

Latest on Entrepreneur