📺 Stream EntrepreneurTV for Free 📺

¿Van los deepfakes en aumento? ¿Cambiarán la forma en que las empresas verifican a sus usuarios? ¿Transforman las últimas innovaciones tecnológicas a los criminales en fantasmas invisibles? Vamos a explorar el mundo de las amenazas altamente sofisticadas para ver si los detectives de inteligencia artificial tienen lo necesario para atrapar a sus adversarios, también impulsados por la IA.

Por Ihar Kliashchou

Key Takeaways

  • Los criminales están invirtiendo más dinero y esfuerzos para superar las soluciones de seguridad.
  • Las amenazas del deepfake evolucionan rápidamente; ya estamos al borde de presenciar muestras persuasivas que apenas pueden despertar sospechas, incluso bajo un escrutinio deliberado.

Las opiniones expresadas por los colaboradores de Entrepreneur son personales

Shutterstock

¿Ya sabes que en estos días no puedes hacer nada sin demostrar quién eres? Ya sea abrir una cuenta bancaria o simplemente subirte a un servicio de coche compartido. Con la verificación de identidad en línea cada vez más integrada a nuestra vida cotidiana, los estafadores están más interesados en burlar al sistema.

Los criminales están invirtiendo más dinero y haciendo mayores esfuerzos para superar las soluciones de seguridad. Su arma definitiva son los deepfakes: suplantar a personas reales utilizando técnicas de inteligencia artificial (IA). Ahora, la pregunta que vale millones es: ¿pueden las organizaciones emplear eficazmente la IA para combatir a los estafadores con sus herramientas?

Según un informe de verificación de identidad de Regula, sorprendentemente, un tercio de las empresas globales ya han sido víctimas de fraudes con deepfake, y las actividades fraudulentas que involucran deepfake de voz y video representan amenazas significativas para el sector bancario.

Por ejemplo, los estafadores pueden fácilmente hacerse pasar por ti para acceder a tu cuenta bancaria. En Estados Unidos, casi la mitad de las empresas encuestadas confesaron haber sido blanco de deepfakes de voz el año pasado, superando el promedio mundial del 29%. Es como un gran atraco en el mundo digital.

Y a medida que la tecnología de IA para crear deepfakes se vuelve más accesible, el riesgo de que las empresas se vean afectadas solo aumenta. Esto plantea una pregunta: ¿Debería ajustarse el proceso de verificación de identidad?

Una carrera interminable

Afortunadamente, aún no estamos en la etapa de "Terminator". En este momento, la mayoría de los deepfakes todavía son detectables, ya sea por humanos observadores o por tecnologías de inteligencia artificial que se han integrado en soluciones de verificación de identidad desde hace tiempo. Pero no bajes la guardia. Las amenazas de deepfake evolucionan rápidamente; ya estamos al borde de presenciar muestras persuasivas que apenas despiertan sospechas, incluso bajo un escrutinio deliberado.

La buena noticia es que la IA, el superhéroe al que hemos reclutado para luchar contra el buen viejo fraude de identidad "hecho a mano", ahora está siendo entrenado para detectar cosas falsas creadas por sus colegas de IA. ¿Cómo logra este milagro? En primer lugar, los modelos de IA no funcionan en el vacío; los datos proporcionados por humanos y algoritmos inteligentes los moldean. Los investigadores pueden desarrollar herramientas impulsadas por IA para eliminar a los malandros de fraudes sintéticos y deepfakes.

La idea central de esta tecnología de protección es estar alerta ante cualquier cosa sospechosa o inconsistente al realizar esas verificaciones de vivacidad de la identificación y sesiones de selfie (donde tomas una foto o video en vivo con tu identificación). Una solución de verificación de identidad impulsada por la IA se convierte en el Sherlock Holmes digital. Puede detectar tanto cambios que ocurren con el tiempo, como los de iluminación o movimiento, como cambios astutos dentro de la imagen misma, como el engañoso copy & paste o la unión de imágenes.

Afortunadamente, el fraude generado por la IA todavía tiene algunos puntos ciegos, y las organizaciones deberían de aprovecharlos. Por ejemplo, los deepfakes no suelen capturar correctamente las sombras y tienen fondos extraños. Los documentos falsos suelen carecer de elementos de seguridad ópticamente variables y no proyectarían imágenes específicas a ciertos ángulos.

Otro desafío clave al que se enfrentan los criminales es que muchos modelos de IA se entrenan principalmente utilizando imágenes estáticas de rostros, sobre todo porque son más fácilmente accesibles en línea. Estos modelos tienen dificultades para lograr realismo en sesiones de video "3D" en vivo, donde las personas deben de girar la cabeza.

Otra vulnerabilidad que las organizaciones pueden utilizar es la dificultad para manipular documentos para la autenticación en comparación con intentar usar un rostro falso (o "intercambiar un rostro") durante una sesión de vivacidad. Esto se debe a que los criminales generalmente tienen acceso solo a escaneos de identificación unidimensionales. Además, las identificaciones modernas a menudo incorporan características de seguridad dinámicas que son visibles solo cuando los documentos están en movimiento. La industria está innovando constantemente en esta área, lo que hace que sea casi imposible crear documentos falsos convincentes que puedan pasar una sesión de captura con validación de vivacidad, donde los documentos deben girarse en diferentes ángulos. Por lo tanto, exigir identificaciones físicas para una verificación de vivacidad puede aumentar significativamente la seguridad de una organización.

Aunque el entrenamiento de la IA para soluciones de verificación de identidad sigue evolucionando, es esencialmente un juego constante del gato y el ratón con los estafadores, y los resultados a menudo son impredecibles. Es aún más intrigante que los criminales también estén entrenando a la inteligencia artificial para superar la detección mejorada de la IA, creando un ciclo continuo de detección y evasión.

Toma la verificación de edad, por ejemplo. Los estafadores pueden usar máscaras y filtros que hacen que las personas parezcan mayores durante una prueba de vivacidad. En respuesta a tales tácticas, los investigadores se ven obligados a identificar nuevas señales o signos de medios manipulados y entrenar a sus sistemas para detectarlos. Es una batalla de ida y vuelta que continúa, con cada lado tratando de superar al otro.

Relacionado: Olvídate de tu identificación: tu rostro podría servir para verificar tu edad al comprar alcohol

Nivel máximo de seguridad

A la luz de todo lo que hemos explorado hasta ahora, surge la pregunta: ¿qué pasos debemos tomar?

En primer lugar, para lograr el más alto nivel de seguridad en la verificación de identidad, desecha el antiguo manual y abraza un enfoque centrado en la vivacidad para las comprobaciones de identidad. ¿Cuál es la esencia?

Aunque la mayoría de las falsificaciones generadas por IA todavía carecen de la naturalidad necesaria para sesiones de vivacidad convincentes, las organizaciones que buscan la máxima seguridad deben trabajar exclusivamente con objetos físicos, sin escaneos, sin fotos, solo documentos y personas reales.

En el proceso de verificación de identidad, la solución debe validar tanto la vivacidad como la autenticidad del documento y la persona que lo presenta.

Esto también debe ser respaldado por un modelo de verificación de IA entrenado para detectar incluso las manipulaciones de video o imagen más sutiles, que pueden ser invisibles para el ojo humano. También puede ayudar a detectar otros parámetros que podrían indicar un comportamiento de usuario anormal. Esto implica verificar el dispositivo utilizado para acceder a un servicio, su ubicación, historial de interacción, estabilidad de la imagen y otros factores que pueden ayudar a verificar la autenticidad de la identidad en cuestión. Es como armar un rompecabezas para determinar si todo encaja.

Un último consejo: sería útil solicitar a los clientes que utilicen sus teléfonos móviles durante las sesiones de vivacidad en lugar de la cámara web de una computadora. Esto se debe a que generalmente es mucho más difícil para los estafadores intercambiar imágenes o videos cuando se utiliza la cámara de un teléfono móvil.

En resumen, la IA es el aliado definitivo para los buenos, asegurándose de que los malos no puedan pasar desapercibidos ante esas defensas. Sin embargo, los modelos de IA necesitan orientación de nosotros, los humanos, para mantenerse en el camino correcto. Pero cuando trabajamos juntos, somos excelentes para detectar el fraude.
Ihar Kliashchou

Entrepreneur Leadership Network® Contributor

Recursos Humanos

6 tácticas efectivas para manejar a un jefe tóxico

Rescatar tu dignidad de un jefe abusivo es un trabajo difícil.

Emprendedores

10 grandes frases sobre el poder de las metas

Establecer metas es el primer paso para lograr algo significativo.

Consultoría

Cómo mejorar tus habilidades de liderazgo y transformar a tu equipo con este antiguo, pero poderoso método

Este enfoque de liderazgo podría revolucionar tu lugar de trabajo, aquí te lo contamos todo sobre él.

Mujeres emprendedoras

Top 20 de mujeres que están liderando el cambio en Latinoamérica

Estas mujeres han destacado por impulsar soluciones de impacto en diversos sectores. Descubre cómo su determinación y talento están dejando una huella imborrable en el mundo emprendedor y forjando un futuro prometedor para las nuevas generaciones.

Liderazgo

Por qué jugar videojuegos es bueno para su empresa y sus empleados

Mucha gente piensa que jugar videojuegos perjudicará su productividad. He aquí por qué lo contrario puede ser cierto.

Noticias

Kiwo, el auto eléctrico de bajo costo que puedes comprar en las tiendas Waldo's

El vehículo es comercializado en la cadena de tiendas y también puede ser comprado por medio de internet.