¿La IA nos reemplazará? Meta dice que no (por ahora) Yann LeCun, científico jefe de inteligencia artificial en Meta, asegura que la superinteligencia no tomará el control y que siempre estará subordinada a los humanos.
Desde hace años, la inteligencia artificial (IA) dejó de ser un concepto de ciencia ficción para convertirse en una realidad que transforma la vida cotidiana.
Sin embargo, una de las grandes incógnitas es: ¿qué pasará cuando la IA supere la inteligencia humana?
Según Business Insider, durante la conferencia GTC de Nvidia, Yann LeCun, científico jefe de IA en Meta, aseguró que la superinteligencia artificial es inevitable, pero no significa que vaya a desplazar o dominar a los humanos.
"Podría suceder en algún momento, pero no creo que la gente esté dispuesta a aceptarlo", afirmó LeCun.
Su argumento es que la relación entre los humanos y los sistemas de IA avanzados será de colaboración, no de subordinación. En este escenario, los humanos seguirán siendo los "jefes".
"Tendremos un equipo de personas superinteligentes y maravillosas trabajando para nosotros. No sé ustedes, pero a mí me gusta trabajar con personas más inteligentes que yo. Es lo mejor del mundo", comentó.
En los últimos años, figuras clave de la industria de la IA han debatido sobre los riesgos de desarrollar sistemas más inteligentes que los humanos.
Sam Altman (OpenAI) y Elon Musk (xAI) han expresado su preocupación de que la superinteligencia podría traer enormes avances científicos, pero también escenarios catastróficos si se sale de control.
LeCun, sin embargo, es escéptico ante estas predicciones apocalípticas. En una publicación de 2024 en la red social X, calificó la idea de una IA que tome el control como un "cliché de ciencia ficción" y un "escenario ridículo que contradice todo lo que sabemos sobre el funcionamiento de las cosas".
"El surgimiento de la superinteligencia no será un evento repentino", escribió en aquella ocasión.
A pesar de su rechazo a los escenarios de dominación de la IA, LeCun reconoce que sí existen riesgos en el desarrollo de estos sistemas. Sin embargo, considera que la solución no es frenarlos, sino hacerlos mejores.
"La solución es una IA mejor. Sistemas con sentido común, capacidad de razonamiento, de comprobar si las respuestas son correctas y de evaluar la fiabilidad de sus propias respuestas, algo que actualmente no ocurre del todo", explicó.
Según él, el problema no es que la IA sea demasiado inteligente, sino que todavía no es lo suficientemente confiable.
Relacionado: Yuval Noah Harari lanza una advertencia: "La IA puede acabar con el dominio humano en la Tierra"