5 cosas que los líderes empresariales deben saber sobre la adopción de IA a escala

A pesar de la creciente conciencia de la importancia y el potencial de crecimiento de la IA, la mayoría de las implementaciones de IA fallan en la producción.

Por
Este artículo fue traducido de nuestra edición en inglés utilizando tecnologías de IA. Pueden existir errores debido a este proceso. Las opiniones expresadas por los colaboradores de Entrepreneur son personales.

Como parte de mi trabajo , me reúno a diario con líderes empresariales que abordan el desafío de implementar la IA en sus negocios. Por lo general, estos son ejecutivos a cargo de la transformación de la inteligencia artificial de su organización o gerentes comerciales que desean obtener una ventaja competitiva mejorando la calidad, acortando los ciclos de entrega y automatizando los procesos. Estos líderes empresariales tienen un conocimiento sólido de cómo la IA puede servir a su negocio, cómo iniciar el proceso de implementación de la IA y qué aplicación de aprendizaje automático se adapta a sus necesidades comerciales específicas. A pesar de su comprensión de la IA y su potencial, la mayoría de los gerentes parecen no comprender las áreas técnicas clave en la adopción de la IA a escala.

Los gerentes que se esfuerzan por superar estos puntos ciegos, que actualmente descarrilan la implementación exitosa de proyectos de IA en producción, deben abordar las siguientes cinco preguntas.

¿Qué datos entran en el modelo?

Si tiene un conocimiento básico del aprendizaje profundo, probablemente sepa que se basa en un algoritmo que toma muestras de datos de entrada y produce una salida en forma de clasificación, predicción, detección y más. Durante la fase de entrenamiento del modelo, se utilizan datos históricos (etiquetados o no etiquetados). Una vez entrenado, el modelo podrá manejar datos similares a las muestras con las que fue entrenado. Este modelo puede seguir funcionando sin problemas en un entorno de laboratorio controlado, pero está bloqueado dentro del "casco convexo" de los datos de entrenamiento. Si, por alguna razón, el modelo se alimenta con datos que están fuera del alcance de la distribución de datos de entrenamiento, fallará estrepitosamente. Desafortunadamente, esto es lo que sucede a menudo en entornos de producción de la vida real.

La capacidad de procesar datos que se desvían de los límites del entorno de entrenamiento estéril está determinada por cuán robusto y estable es el sistema de IA. Las empresas que utilizan sistemas de baja estabilidad y robustez inevitablemente se darán cuenta de que se enfrentan a un caso de modelo de "entrada y salida de basura" en términos de cómo se analizan y procesan los datos.

Relacionado: ¿Cuándo no debería invertir en IA?

¿Cuáles son los límites del modelo?

Con el entendimiento de que el modelo está altamente acoplado con los datos de entrenamiento que lo alimentan, nos gustaría saber cuándo el modelo es correcto y cuándo está mal. Construir una colaboración hombre-máquina confiable es vital para el éxito en la adopción de la IA. El primer paso es controlar la incertidumbre del modelo para cada muestra dada. Tomemos un ejemplo en el que la aplicación de inteligencia artificial está automatizando una operación de misión crítica que requiere una precisión muy alta (por ejemplo, procesamiento de reclamos para una compañía de seguros, control de calidad en una línea de ensamblaje de aviones o detección de fraudes en un gran banco). Teniendo en cuenta lo sensible que es la salida en estos casos de uso, la precisión requerida no se puede lograr con la automatización de IA en solitario. Los casos complejos y raros deben pasar a un experto humano para su juicio final. Esa es la esencia de establecer un límite para el sistema de IA. El enorme flujo de datos que entra en el modelo debe dividirse en dos categorías: un depósito de datos totalmente automatizado y un depósito semiautomático.

La capacidad de dividir los datos en estos dos grupos se basa en la estimación de la incertidumbre: para cada muestra de datos (caso y entrada), el modelo debe generar no solo un resultado de predicción, sino también una puntuación de confianza de esta predicción. Esta puntuación se compara con un umbral preestablecido que gobierna cómo se dividen los datos entre la ruta completamente automática y la ruta humana en el bucle.

Relacionado: Esto es lo que la IA nunca podrá hacer

¿Cuándo se debe volver a capacitar al modelo?

El primer día de producción es el peor día. Ese es el punto en el que el modelo debe mejorarse constantemente mediante comentarios continuos. ¿Cómo se proporciona ese circuito de retroalimentación? Siguiendo el ejemplo anterior, los datos que se pasan a un humano para su análisis, los datos con una puntuación de confianza baja y los datos que están fuera de la distribución de entrenamiento deben usarse para mejorar el modelo.

Hay tres escenarios principales en los que los modelos de IA deben volver a capacitarse con mecanismos de retroalimentación:

  1. Datos insignificantes. Si los datos utilizados en el entrenamiento del sistema no están bien distribuidos entre los datos de producción, deberá mejorar el modelo con el tiempo con datos adicionales para lograr una mejor generalización.

  2. Entornos antagónicos. Algunos modelos son propensos a ataques y hackeos externos (como en el caso de los sistemas de detección de fraude y contra el blanqueo de capitales). En estos casos, el modelo debe mejorarse con el tiempo para garantizar que esté un paso por delante de los estafadores, que pueden invertir muchos recursos para entrar en él.

  3. Entornos dinámicos. Los datos cambian constantemente, incluso en negocios aparentemente estables y tradicionales. En la mayoría de los casos, mantener altos niveles de sostenibilidad de las soluciones requiere tener en cuenta nuevos datos.

En términos simples, los modelos de IA no son perennes por naturaleza; deben nutrirse, mejorarse y afinarse con el tiempo. Tener estos mecanismos en producción va muy unido a la IA sostenible y a la adopción de IA a gran escala.

Relacionado: Cómo los emprendedores pueden utilizar la inteligencia artificial para impulsar su negocio

¿Cómo detectar cuando el modelo se descarrila?

A estas alturas, comprende la complejidad de los diferentes elementos operativos y de producción de la IA, que son el núcleo de la adopción de la IA a escala. A la luz de estas complejidades, tener la capacidad de monitorear el sistema, comprender lo que sucede bajo el capó, obtener información, detectar desviaciones de datos (cambio de distribución) y tener una observación general del estado del sistema son cruciales. Los estándares de la industria establecen que por cada $ 1 que gasta en desarrollar un algoritmo, debe gastar $ 100 para implementarlo y respaldarlo . Dada la cantidad de investigación académica, herramientas centralizadas y de código abierto (como PyTorch y TensorFlow), el proceso de construcción de soluciones de IA se está democratizando. Producir IA a escala, por otro lado, es algo que solo unas pocas empresas pueden lograr y dominar.

Hay un dicho común sobre el aprendizaje profundo: "Cuando falla, falla silenciosamente". Los sistemas de inteligencia artificial son sistemas silenciosos en su mayor parte. Los mecanismos avanzados de monitoreo y observabilidad pueden convertirlos en sistemas a prueba de fallas.

¿Cómo construir un producto de IA responsable?

El quinto elemento es el más complejo de dominar. Dado el último avance en la regulación de la inteligencia artificial, particularmente en la UE, la construcción de sistemas de inteligencia artificial responsables se está volviendo más necesaria, y no solo por el bien de la regulación, sino para garantizar que las empresas se comporten de manera ética y responsable. La equidad, la confianza, la mitigación del sesgo, la explicabilidad (la capacidad de explicar el fundamento de las decisiones tomadas por la IA) y la repetibilidad y trazabilidad de los resultados son todos componentes clave de un sistema de IA responsable del mundo real. Las empresas que adoptan la IA a escala deben tener un comité de ética que pueda evaluar el uso continuo del sistema de IA y asegurarse de que esté "funcionando bien".

La IA debe usarse de manera responsable no porque la regulación lo exija, sino porque es lo correcto como comunidad, como humanos. La equidad es un valor y, como personas que se preocupan por nuestros valores, debemos incorporarlos en nuestro desarrollo y estrategia diarios.

La adopción de IA a escala requiere mucho esfuerzo, pero es un proceso enormemente gratificante. Las tendencias del mercado indican que 2021 será un año fundamental para la IA. Las personas, los socios y la mentalidad adecuados pueden ayudar a dar el salto del laboratorio a la producción a gran escala. Los líderes empresariales que adquieran un conocimiento profundo de los aspectos técnicos y operativos de la IA tendrán una ventaja en la carrera para adoptar la IA a escala.