China publica código ético para regular la Inteligencia Artificial, ¿qué diría Isaac Asimov?

Adelantándose a Europa, China ya publicó un código ético de seis puntos para regular la Inteligencia Artificial, dando 'pleno poder de decisión' a los humanos, muy similar a las leyes de la robótica de Isaac Asimov.

Por
Las opiniones expresadas por los colaboradores de Entrepreneur son personales.

El Ministerio de Ciencia y Tecnología de China publicó un código ético que pretende regular los modelos de Inteligencia Artificial (IA) existentes o en desarrollo. Con esto, el país asiático se adelanta a Europa, que ya tenía un prototipo de reglamento en el mismo sentido. Las directrices de la guía china priorizan el ‘pleno poder de decisión’ de los humanos respecto a las máquinas, muy en línea con las leyes de la robótica del escritor Isaac Asimov.

Depositphotos.com

En abril pasado, la Unión Europea presentó el borrador previo de un reglamento para garantizar que los seres humanos tengan control sobre la IA. Sin embargo, éste no se ha concretado y ahora China es pionera en lanzar una normativa para estas tecnologías en auge.

Según informa The South China Morning Post, el documento titulado Especificaciones Éticas para Inteligencias Artificiales de Nueva Generación parte de una premisa muy clara: “Asegurarse que la IA siempre esté bajo el control de los seres humanos” y que éstos tengan “pleno poder de decisión” sobre la IA.

“En última instancia, China está optando por un modelo de mano dura, donde el estado está pensando muy seriamente en las transformaciones sociales a largo plazo que traerá la IA, desde la alienación social hasta los riesgos existenciales, y tratando de gestionar y guiar activamente esas transformaciones”, dijo al mismo medio Rebecca Arcesati, analista del 'think tank' alemán Mercator Institute for China Studies. "Tienen una forma de pensar notablemente progresista", agregó.

¿Qué tiene que ver Isaac Asimov con el código ético de China para la IA?

En 1942, mucho antes de que la Inteligencia Artificial fuera un tema común, el escritor de ciencia ficción Isaac Asimov publicó por primera vez sus famosas tres leyes de la robótica en el relato ‘Círculo vicioso’.

Éstas ‘leyes’ fueron clave en las obras de Asimov y han servido como base para todo lo que tiene que ver con dicho género: novelas, películas, series, cómics y más, pues resultan justamente una guía ética para que los androides puedan interactuar con los humanos sin resultar perjudiciales.

  • Primera Ley. Un robot no hará daño a un ser humano ni, por inacción, permitirá que un ser humano sufra daño.
  • Segunda Ley. Un robot debe cumplir las órdenes dadas por los seres humanos, a excepción de aquellas que entren en conflicto con la primera ley.
  • Tercera Ley. Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o con la segunda ley.

Las directrices planteadas por Isaac Asimov tienen como objetivo proteger a los humanos en el hipotético caso de que las máquinas pudieran rebelarse y atacar a sus creadores. Si un robot, que ahora sabemos operaría con Inteligencia Artificial, intentara desobedecer estas leyes, su sistema activaría el modo de ‘autodestrucción’.

Es decir, las tres leyes de la robótica representan el código moral de una IA y están tan arraigadas en la cultura popular que probablemente fueron inspiración para la nueva normativa china.

Los seis puntos del código ético de China para Inteligencias Artificiales de Nueva Generación

El documento describe seis principios básicos para los sistemas de Inteligencia Artificial, incluida la garantía de que sean “controlables y confiables”. Los otros puntos abarcan el uso de estas tecnologías para mejorar el bienestar humano; promover la equidad, la transparencia y la justicia; proteger la privacidad y la seguridad; y aumentar la educación ética.

Según el código, los usuarios tendrán todo el derecho de aceptar o rechazar el servicio de una IA, así como para detener las interacciones con estos sistemas cuando lo deseen.

También plantean la necesidad de evitar riesgos al garantizar que las IA no tengan vulnerabilidades ni brechas de seguridad, y que éstas no se utilicen en actividades ilegales o ilícitas que puedan comprometer “la seguridad nacional” o “el interés general”.

Este último punto es el más polémico, ya que se alinea con las políticas impuestas por el gobierno chino en el último año, encaminadas a tener más control sobre el sector tecnológico del país.

De hecho, recientemente China se lanzó contra los algoritmos de recomendación de contenido, la gran mayoría basados en sistemas de IA. Éstos recopilan y analizan datos de los usuarios para dirigir publicidad o determinar qué contenidos se les presentan en sus bandejas de entrada o buscadores.

Por ello, Arcesati afirma que la publicación del código es “un claro mensaje” para los gigantes tecnológicos como Amazon, FacebookGoogle y todas las compañías que “han basado su modelo de negocio en algoritmos de recomendación”.

Cabe recordar que uno de los objetivos de China es ser líder en Inteligencia Artificial para 2030, señala la publicación. Quizá por ello la urgencia de regular de forma ética todos los tipos de IA actuales y futuros.

Mientras tanto, en la Unión Europea, grupos de activistas temen que la Inteligencia Artificial se utilice con fines autoritarios o de vigilancia masiva. De hecho, una de sus principales demandas es que en su futuro Reglamento de IA se prohíban los sistemas de reconocimiento facial.

Ingresa Ahora