Primera reunión mundial sobre los riesgos de la IA: Estas fueron las conclusiones OpenAI, Anthropic, Google, Microsoft, Meta y xAI participaron en la Cumbre sobre Seguridad de la Inteligencia Artificial, donde acordaron con gobiernos la necesidad de realizar pruebas en nuevos modelos de IA antes de su lanzamiento.
Por Stiven Cartagena Editado por Eduardo Scheffler Zawadzki
Las opiniones expresadas por los colaboradores de Entrepreneur son personales
Durante una semana líderes del mundo se reunieron en Reino Unido para llevar a cabo la Cumbre sobre Seguridad de la Inteligencia Artificial, que también contó con la participación de las principales empresas tecnológicas, quienes se comprometieron a trabajar con los gobiernos en futuras pruebas de IA, logrando trabajar en la prevención de posibles riesgos relacionados con esta tecnología.
Representantes de OpenAI, Anthropic, Google, Microsoft, Meta y xAI participaron en una discusión sobre combatir los principales riesgos de la inteligencia artificial, para eso acordaron el testeo de los modelos de IA con los gobiernos antes y después de su lanzamiento al público.
Yoshua Bengio, quien es reconocido por ser uno de los científicos más conocedores de los potenciales de la inteligencia artificial, se comprometió a realizar un informe sobre el estado de esta tecnología. El informe le permitirá a los gobiernos comprender las capacidades actuales de la IA y priorizar sus peligros relacionados.
"Actualmente, las únicas personas que han probado la seguridad de los nuevos modelos de IA han sido las mismas empresas que los desarrollan", explicaba Sunak en un comunicado.
El gobierno británico, principal mediador de la cumbre, se prestó para la creación de lo que será un nuevo centro global de pruebas de inteligencia artificial. Esto con el objetivo de combatir los peligros para la seguridad nacional y la sociedad.
La controvertida posición de China
Hace unos meses se conoció que China participó en la declaración de Bletchley, en la que 28 gobiernos acordaron exigir transparencia y rendición de cuentas de las empresas que desarrollarán tecnología basada en inteligencia artificial, comprometiéndose a monitorear, medir y mitigar los posibles riesgos.
Sin embargo, lo más llamativo es que el representante de China no estuvo presente en la cumbre celebrada en Reino Unido, ni siquiera el día que se ratificó el acuerdo sobre las pruebas. Mientras tanto, en el país se debate una polémica por la invitación del país asiatico a participar en la cumbre.
La importancia de regular la IA
Con la llegada de los prototipos de inteligencia artificial generativa desarrollados por empresas como OpenAI, Microsoft y Google, surgió la necesidad de crear una regulación a este tipo de tecnologías. En especial porque recientemente se dieron polémicas a raíz de la clonación de identidades, los fallos de la conducción autónoma, y el plagio.
En este sentido, la vicepresidenta de Estados Unidos, Kamala Harris, dijo que la acción audaz de su gobierno debería ser inspiradora para otros países. Harris dijo que el foco principal debe estar puesto en este tipo de tecnologías que podrían ampliar la desigualdad dentro de las sociedades.
La vicepresidenta comentó el ejemplo de un anciano que canceló su plan de atención médica debido a un fallo en el algoritmo de inteligencia artificial defectuoso. También puso de ejemplo el caso de una mujer que fue amenazada por su pareja con fotos modificadas por IA. Se debe trabajar en todos los espectros, comentó Harris, más allá de las amenazas que existen sobre ciberataques masivos o armas biológicas.
Relacionado: Es inevitable que perdamos habilidades frente a la inteligencia artificial, pero ¿superan los beneficios a los riesgos?Empresas preocupadas por el uso de IA
En el mundo, tres de cada cuatro empleados están utilizando herramientas basadas en inteligencia artificial generativa, algunos con frecuencia, mientras que otros lo hacen de manera regular, pero a pesar a pesar de las amenazas a la seguridad que plantea el uso no controlado de este tipo de tecnologías, los líderes empresariales no saben qué hacen ni cómo regular esta clase de plataformas.
Recientemente se llevó a cabo una encuesta donde participaron 1,200 líderes de TI y seguridad de todo el mundo. Como resultado se pudo concluir que mientras el 73% de los líderes de TI y seguridad encuestados reconocieron que sus trabajadores usaban herramientas de IA generativa con cierta regularidad, los investigadores de ExtraHop informaron que menos de la mitad de sus organizaciones (46%) tenían políticas que regían el uso de la IA o tenían programas de capacitación sobre el uso seguro de las aplicaciones (42%).
"Ese resultado de la encuesta es probablemente una manifestación de la preocupación de los empresarios por las muchas otras técnicas menos atractivas y probadas en el campo de la inteligencia artificial", dice Mike Starr, CEO y fundador de trackd, un proveedor de soluciones de gestión de vulnerabilidades con sede en Londres.
Relacionado: ¿Qué se esconde realmente detrás de la famosa carta contra la inteligencia artificial?