¿Cómo saber si la IA se está utilizando de manera ética? Aquí hay 3 cosas para tener en cuenta ¿En qué nos debemos de fijar para saber si una empresa o un equipo ha desarrollado una tecnología de inteligencia artificial ética?
Por Karim Nurani Editado por Eduardo Scheffler Zawadzki
Las opiniones expresadas por los colaboradores de Entrepreneur son personales
Ha sido un tema de gran interés: todos estamos asombrados por su potencial y el impacto que puede tener en nuestras vidas, principalmente porque la inteligencia artificial (IA) es la primera herramienta en la historia que puede tomar decisiones por sí misma. Toma a ChatGPT como ejemplo. Reúne más conocimiento del que cualquier humano haya conocido. Esta herramienta puede ser una fuerza de enormes beneficios. ¿Imagina lo que la IA puede hacer en la atención médica con sus enormes bases de datos de genes, medicamentos y síntomas de enfermedades e interacciones de medicamentos? Literalmente puede salvar vidas. Pero también es una enorme responsabilidad que estamos poniendo en manos de una tecnología que ni siquiera hemos empezado a comprender por completo.
Como inversionistas, emprendedores y usuarios, tenemos un impacto directamente hacia dónde irá la tecnología y estamos sentando las bases de su destino final.
Relacionado: ¿Qué significa ChatGPT para el futuro de los negocios?
La emoción en torno a la IA
La IA es una tecnología que se ha estado desarrollando durante muchos años. Hemos visto altibajos en torno ella, pero recientemente hay mucha emoción. La razón por la que la IA está teniendo su momento radica principalmente en dos simples razones:
- Ahora hay más datos disponibles que nunca, y la IA se alimenta y crece a partir de los datos.
- La informática y el almacenamiento de datos se han vuelto exponencialmente más baratos, por lo que la tecnología necesaria para entrenar a la IA se ha vuelto suficientemente accesible.
Hemos visto la IA en todos los aspectos de nuestras vidas, desde la forma en que compramos, buscamos información, pagamos, etc., y seguiremos viendo cómo la inteligencia artificial entra en nuestras vidas y en nuestro proceso de toma de decisiones de formas cada vez más variadas. Las aplicaciones son infinitas, desde agentes conversacionales (como Siri de Apple o Alexa de Amazon) hasta nuevas formas de hacer cosas específicas, como crear la imagen de una campaña de marketing o un anuncio.
En el ámbito de la salud, por ejemplo, la IA mejora los diagnósticos, los tratamientos y la atención al paciente. Los algoritmos de aprendizaje automático pueden analizar datos médicos, detectar enfermedades en etapas tempranas y predecir los resultados de los pacientes. Los sistemas impulsados por IA han mejorado la imagenología médica, permitiendo diagnósticos más precisos y rápidos.
En las finanzas, la IA está optimizando procesos desde la detección de fraudes hasta la personalización de la experiencia del cliente. Los algoritmos de IA pueden analizar volúmenes enormes de datos financieros en tiempo real, ayudando a los bancos y las instituciones financieras a detectar anomalías y prevenir fraudes.
La IA ha revolucionado el sector manufacturero a través de la automatización, el mantenimiento predictivo y el control de calidad. Los robots y las máquinas impulsados por la IA automatizan tareas repetitivas, mejorando la eficiencia y reduciendo errores.
Pero, ¿cómo podemos hacer que esta tecnología, que ya es parte de nuestras vidas de manera íntima, sea realmente benéfica? Como creadores de esta tecnología, es nuestra responsabilidad darle casos de uso que respalden el potencial humano y no lo disminuyan; por eso es importante la ética.
Tres cosas a tener en cuenta para encontrar una IA ética
1. Parámetros generales de la IA:
Una inteligencia artificial responsable y ética comienza por saber cómo evaluar la tecnología, la empresa y el equipo que la desarrolla. Puede ser difícil establecer dónde trazar la línea, pero puede haber parámetros generales o reglas para sentar las bases; los derechos humanos, las libertades fundamentales y la dignidad humana son esenciales para evaluar si una tecnología o una herramienta está aumentando nuestras capacidades o si nos lastimará a nosotros y/o a otros (especialmente a los grupos minoritarios).
Por ejemplo, históricamente, se ha excluido el género en muchos aspectos de la investigación científica, y hemos establecido que la IA aprende de datos y ejemplos pasados. Si la IA está aprendiendo de ejemplos que contienen sesgos y discriminación que hemos tenido en nuestra sociedad, estamos reforzando patrones en lugar de romperlos. La IA promete resolver más problemas de los que crea. Sin embargo, no podemos ignorar desafíos como los resultados equitativos y la privacidad personal. Cuestionar al equipo y a la empresa para comprender cómo están trabajando para romper los sesgos es importante. El objetivo es tener la aplicación más reflexiva de lo que el conocimiento de la IA está construyendo.
Relacionado: ¿Cómo pueden las empresas usar ChatGPT para hacer marketing de contenidos?
2. El equipo:
Es fundamental tener personas en la junta directiva y en la organización que estén vigilando de cerca. Siempre hay profesionales financieros altamente capacitados que supervisan la salud financiera de una empresa; lo mismo ocurre con el cumplimiento de las regulaciones. Hoy en día, también debería haber expertos que evalúen las consecuencias previstas e imprevistas de la IA y su impacto.
Contar con diversidad en el equipo fomentará una empresa más ética. Cuando se tienen diferentes culturas, edades, personalidades, etc., se desafía a ver más perspectivas. Es importante incorporar diferentes puntos de vista en el proceso de desarrollo para tener un producto final inclusivo.
3. Confiar en la IA:
Los expertos en marketing y ventas saben que las relaciones y la confianza con los clientes son un impulso fundamental de los resultados empresariales; la confianza es clave para los negocios. Como usuarios y clientes de la IA, también estamos siendo testigos de un impacto. ¿Cómo pueden los creadores establecer una relación de confianza entre la tecnología y los clientes? Vivimos en un mundo donde la falta de confianza en las instituciones y los gobiernos se ha vuelto más común. En otras palabras, hoy en día estamos sujetos a la manipulación porque ya no hay una sola fuente de verdad, lo que nos convierte en una sociedad inestable. Hoy en día, las herramientas de inteligencia artificial que son completamente confiables son raras, pero podríamos llegar al punto en el que dejarán de ser algo opcional y se conviertan en algo necesario.
Relacionado: ChatGPT para viajar: ¿puede la inteligencia artificial planificar tus próximas vacaciones?
Desafortunadamente, hoy en día no existen regulaciones o certificados que demuestren si una empresa está construyendo un modelo de IA de manera ética o no, pero si cuestionamos el proceso de desarrollo, es más probable que descubramos los principios sobre los cuales se construyó la tecnología.
Lo importante es que todos somos una parte integral del ecosistema; lo increíble de la IA es que todos somos lo suficientemente relevantes como para tener un impacto, incluso si no somos expertos que trabajan en la industria. Ya estamos involucrados, los datos provienen de nosotros, de nuestras decisiones y acciones, y es probable que nuestra participación siga creciendo. Entonces, después de todo, la ética podría depender de nosotros.