Ejecutivos de las empresas de inteligencia artificial acudirán a la Casa Blanca para comprometerse de manera voluntaria a cuidar estos aspectos en el desarrollo de la tecnología Presentes estarán los representantes de las siete empresas que más han invertido y avanzado en el desarrollo de la IA.
Por Eduardo Scheffler Zawadzki Editado por Eduardo Scheffler Zawadzki
Aunque no existe todavía una legislación que regule el uso de la inteligencia artificial (IA), el gobierno de los Estados Unidos al menos comienza a mostrar preocupación e interés al respecto.
Desde la irrupción masiva de la tecnología en noviembre del año pasado con la aparición de ChatGPT, son muchas las voces que advierten en torno al peligro que las herramientas de IA suponen. En marzo de este año más de 1,000 personas firmaron una misiva abierta en la que pedían a los laboratorios y empresas tecnológicas que detuvieran el desarrollo de sus investigaciones al menos durante seis meses para dar espacio a los gobiernos para legislar en torno a la efervescente tecnología. Entre los firmantes se encontraban importantes figuras como Elon Musk, Steve Wozniak, Tristan Harris y Yuval Noah Harari.
Relacionado: ¿Qué se esconde realmente detrás de la famosa carta contra la inteligencia artificial?
El temor, dada la velocidad del desarrollo de esta tecnología, es que en algún momento se salga de control y tenga un impacto negativo en la vida de los humanos. ¿Por qué? Porque las herramientas de inteligencia artificial son tan poderosas que hipotéticamente son capaces de tomar decisiones por sí mismas.
La carta no logró detener el desarrollo de la tecnología, pero al menos ahora la Casa Blanca ha mostrado señales de que el tema le importa.
Un acto de buena voluntad
El día de hoy ejecutivos de las principales empresas en el campo de la IA visitarán la Casa Blanca para refrendar el compromiso de ceñirse a una serie de acuerdos de buena voluntad para llevar la nueva tecnología a buen puerto. No se trata de un acuerdo, pero al menos mostrarán la voluntad de cuidar algunos aspectos en el desarrollo de la tecnología.
Entre los asistentes estarán: Dario Amodei (Anthropic), Greg Brockman (OpenAI), Nick Clegg (Meta), Adam Selipsky (Amazon Web Services), Brad Smith (Microsoft), Mustafa Suleyman (Inflection AI) y Ken Walker (Google).
Según TechCrunch los ejecutivos discutirán (y se comprometerán a prestar atención a) los siguientes puntos:
- Realizar pruebas, tanto internas como externas, antes de liberar una nueva herramienta; esto incluye el red teaming, práctica en la que un grupo simula ataques para identificar la vulnerabilidad de un sistema.
- Compartir información con el gobierno, la sociedad y la academia sobre los riesgos que implica el desarrollo de la IA y cómo mitigarlos.
- Invertir en ciberseguridad para proteger a los modelos y los datos que contienen.
- Permitir el que terceros busquen y reporten fallos en los sistemas de inteligencia artificial.
- Reportar el uso que se la da a la tecnología, así como sus capacidades, limitaciones y usos (apropiados e inapropiados).
- Priorizar la investigación en torno a temas como los sesgos sistemáticos o asuntos de privacidad.
- Utilizar la capacidad de la IA para atender los grandes retos sociales como la prevención de enfermedades o el cambio climático.
Por ahora se trata solo de una lista de compromisos a ser cumplidos voluntariamente, pero es posible que algunos de estos puntos terminen por formar parte de una futura legislación. Aunque eso, por ahora, aún no lo sabemos.
Relacionado: ¿Por qué Elon Musk y otros expertos en tecnología están tan preocupados por la inteligencia artificial?