Las compañías están usando inteligencia artificial (IA) para prevenir y detectar todo, desde el rutinario robo por parte de los empleados, hasta el uso de información privilegiada. Muchos bancos y grandes organizaciones emplean IA para detectar y prevenir fraudes y lavado de dinero. Compañías de redes sociales usan el aprendizaje de las máquinas para bloquear contenidos ilícitos, como la pornografía infantil. Las empresas están experimentando constantemente con nuevas formas de usar la inteligencia artificial para un mejor manejo de riesgos y una detección de fraudes más rápida y responsiva –e incluso para predecir y evitar crímenes.
Aunque la tecnología básica de la actualidad no es necesariamente revolucionaria, los algoritmos que utiliza y los resultados que produce sí lo son. Por ejemplo, los bancos han estado usando durante décadas sistemas de monitoreo de transacciones basados en reglas binarias predefinidas que requieren revisar manualmente los resultados. La tasa de éxito es generalmente baja: en promedio, sólo 2% de las transacciones detectadas por los sistemas efectivamente reflejan un crimen verdadero o una intención maliciosa.
En contraste, las soluciones actuales de aprendizaje de las máquinas usan reglas predictivas, que automáticamente reconocen anomalías en los datos. Estos avanzados algoritmos pueden reducir significativamente el número de falsas alarmas, filtrando los casos que fueron detectados incorrectamente y descubriendo otros que fueron omitidos usando las reglas convencionales.
Considerando la riqueza de datos disponibles en la actualidad, y las crecientes expectativas de los consumidores y las autoridades públicas en cuanto a proteger y administrar esos datos, muchas compañías han decidido que la IA es una de las pocas formas de mantener el ritmo de criminales cada vez más sofisticados. Hoy, por ejemplo, se espera que las compañías de redes sociales descubran y remuevan casi instantáneamente videos y mensajes de reclutamiento de terroristas. Con el tiempo, las herramientas de combate al crimen impulsadas por IA podrían convertirse en requisito para las grandes empresas, en parte porque no habrá otra forma de detectar e interpretar rápidamente patrones entre miles de millones de piezas de información.
Sin embargo, determinar si es que las soluciones de combate al crimen por IA se ajustan estratégicamente a una compañía depende de que los beneficios superen a los riesgos. Uno de estos riesgos es que a través de la IA pueden obtenerse conclusiones sesgadas con base en factores como la etnicidad, el género y la edad. Las compañías también pueden experimentar represalias de consumidores preocupados de que sus datos sean mal utilizados o explotados en una vigilancia incluso más intensiva de sus registros, transacciones y comunicaciones, especialmente si esa información se comparte con el gobierno.
Entonces, ¿cómo están evaluando las compañías líderes los beneficios y peligros de combatir el crimen y administrar riesgos con IA? A continuación, explicamos algunos de los pasos que están dando.
Evalúan el ajuste estratégico
Antes de embarcarse en una iniciativa de manejo de riesgos con IA, los directivos deben entender en dónde el aprendizaje de las máquinas ya está haciendo una gran diferencia. Los bancos, por ejemplo, están deteniendo los crímenes financieros en forma mucho más rápida y económica que antes, usando IA para automatizar procesos y conducir análisis de “aprendizaje profundo”. Incluso aunque los bancos ahora presentan 20 veces más reportes de actividad sospechosa vinculada a lavado de dinero que en 2012, las herramientas de IA les han permitido ser más eficientes. Ello se debe a que las falsas alarmas han caído a la mitad gracias a la IA, y porque muchos bancos ahora pueden automatizar las labores humanas de rutina en la evaluación de documentos.
Las herramientas de IA también les permiten a las empresas encontrar patrones sospechosos o relaciones invisibles incluso para los expertos. Por ejemplo, las redes neurales artificiales pueden permitirles a los empleados predecir los siguientes movimientos de criminales no identificados que han encontrado formas de evadir los detonantes de los sistemas de seguridad binarios basados en reglas. Estas redes vinculan millones de puntos de datos provenientes de bases aparentemente no relacionadas, que contienen desde publicaciones de redes sociales hasta devoluciones de impuestos, y los utilizan para identificar patrones.
El siguiente paso para evaluar el lanzamiento de un programa de manejo de riesgos con IA consiste en revisar hasta qué punto los consumidores y las autoridades gubernamentales esperarán que la compañía encabece a su industria. Incluso si el análisis avanzado no se convierte en una obligación legal, podría ser ventajoso para las compañías el jugar un rol central en su uso. Las firmas pueden ayudar a asegurar que los participantes, reguladores, innovadores y consumidores de la industria están seguros, sin pasar por encima de la privacidad y derechos humanos de las personas.
Análisis y mitigación de riesgos internos
Conforme los directivos examinan cómo la IA puede asistirlos para identificar actividades criminales, también deberían considerar en qué forma se integra en su estrategia general de IA. El manejo de riesgos y detección de crímenes con IA no debe realizarse aisladamente. Hacer back-testing con modelos más simples puede ayudar a los bancos a limitar el impacto de conclusiones potencialmente inexplicables obtenidas por la IA, especialmente si hay un evento desconocido, para el que el modelo no ha sido entrenado.
Por ejemplo, los bancos usan inteligencia artificial para monitorear transacciones y reducir el número de falsas alarmas que ocurren al detectar posibles transacciones irregulares, como aquellas involucradas en el lavado de dinero para propósitos criminales. Estos esfuerzos son back-tested en comparación de modelos más simples, basados en reglas, para identificar problemas potenciales. Un modelo de IA podría, por ejemplo, omitir erróneamente una gran transacción de lavado de dinero que normalmente activaría una alerta en un sistema basado en reglas, si es que el modelo de IA determina –con base en datos sesgados– que las grandes transacciones hechas por consumidores que residen en barrios acaudalados no ameritan un monitoreo tan estricto como las de quienes viven en áreas menos prósperas. Este enfoque le permite a las compañías diseñar modelos más transparentes de aprendizaje de las máquinas, incluso si ello significa que operan dentro de límites más explícitos.
Lo más importante, los directivos deberían evaluar si los análisis de datos de su compañía pueden manejar herramientas complejas de IA. De no ser así, necesitan desarrollar las suficientes capacidades internas de análisis.
Prepárese para los riesgos externos
El mayor uso de herramientas de IA para prevenir crímenes también puede ocasionar una cascada de riesgos externos en formas inesperadas. Hay multitud de formas en que una compañía podría perder su credibilidad ante el público, reguladores y otras partes interesadas, por ejemplo, si el sistema de IA identifica erróneamente a personas como “sospechosas” o “criminales” a causa de un prejuicio racial involuntariamente integrado en el sistema. La inteligencia artificial también podría no detectar actividades criminales, como las de fondos encauzados desde países con sanciones, como Irán. Otro riesgo es que los criminales podrían recurrir a medidas más extremas e incluso violentas para superar a la IA. Los consumidores podrían moverse a entidades menos monitoreadas fuera de industrias reguladas. Un riesgo moral podría incluso desarrollarse si los empleados se volvieran demasiado dependientes de las herramientas de combate al crimen por IA.
Para evitar que esto suceda, las compañías necesitan crear y probar una variedad de escenarios resultantes del seguimiento de crímenes con IA. Para superar a los lavadores de dinero, por ejemplo, los bancos deberían realizar “juegos de guerra” con exfiscales e investigadores, para descubrir cómo los lavadores podrían vencer al sistema.
Con resultados producidos a través de análisis de escenarios, los directivos pueden ayudar a altos ejecutivos y miembros de las juntas directivas a decidir qué tan cómodos están usando combate al crimen con IA. También pueden desarrollar manuales de manejo de crisis, que contengan estrategias internas y externas de comunicación, para cuando las cosas inevitablemente salgan mal.
Lisa Quest, Lucas du Croo de Jongh y Subas Roy son socios en Oliver Wyman. Anthony Charrie es un director en Oliver Wyman.