Capítulo 1
La necesidad y la oportunidad de un cambio en la AML
Necesitamos nuevos enfoques para combatir el lavado de dinero.
En la actualidad, tanto el enfoque de la industria como el marco regulatorio están trabajando en la lucha contra el lavado de dinero. Hoy en día, se estima que esta actividad en todo el mundo se encuentra entre el 2% y el 5% del PIB mundial (pdf). A pesar de los enormes recursos desplegados por las instituciones financieras para combatir el lavado de dinero, el enfoque actual no está dando resultados. Según un informe de Europol, solo alrededor del 10% de las denuncias de transacciones sospechosas presentadas por las instituciones de servicios financieros dan lugar a una mayor investigación por parte de las autoridades competentes.
Mientras que las empresas de servicios financieros luchan por contener los costos de cumplimiento, la industria puede esperar que los volúmenes de datos y la sofisticación de las amenazas sigan aumentando. Como resultado, hay un reconocimiento creciente de la necesidad de innovación en AML y la adopción de la última tecnología.
La capacidad y el impacto de la IA está creciendo rápidamente
A medida que las capacidades de la IA han ido creciendo en los últimos años — como lo demuestran ejemplos de la vida real como los asistentes virtuales y la robótica — su potencial transformador ha atrapado la imaginación de las empresas que buscan reducir los costos, administrar más eficazmente el riesgo y aumentar la productividad. Se estima que la inversión anual de capital de riesgo en empresas de IA de Estados Unidos se ha multiplicado por seis desde el año 2000 (pdf). El potencial de la inteligencia artificial para ayudar a cumplir con las regulaciones tampoco se le ha escapado a los inversores. Más de 238 millones de libras esterlinas de capital de riesgo se invirtieron en las empresas de RegTech en el primer trimestre de 2017. Del mismo modo, los reguladores y los organismos del sector, como la Autoridad de Conducta Financiera y la Junta de Estabilidad Financiera, reconocen la creciente prevalencia de la IA en los servicios financieros y sus aplicaciones al cumplimiento de la normativa.
Abordar el costo del cumplimiento de la IA
La IA puede impulsar eficiencias significativas en puntos críticos de operación típicos, como customer due diligence, la selección y los controles de monitoreo de transacciones. Por ejemplo, los controles de monitoreo de transacciones AML existentes típicamente generan altos niveles de alertas de falsos positivos y cargas de trabajo operacional significativas. El tema del costo se amplifica aún más por las ineficiencias en el proceso de investigación creando una división significativa entre los esfuerzos empleados versus el impacto de los controles de monitoreo de transacciones.
La IA ofrece oportunidades inmediatas para reducir significativamente el costo operacional sin detrimento de la efectividad, introduciendo técnicas de aprendizaje automático en diferentes etapas del proceso de monitoreo de la transacción. La IA también se está aplicando cada vez más a customer due diligence y controles de selección utilizando técnicas de procesamiento de lenguaje natural y de minería de textos.
Artículo Relacionado
KYC integrado — devolver el contexto a AML con inteligencia artificial
La creciente comprensión de cómo la IA podría aplicarse e integrarse con la actividad humana está impulsando un nuevo pensamiento en la lucha contra el lavado de dinero. Es la apertura de oportunidades que podrían conducir a un cambio fundamental en el enfoque de conocer a su cliente (KYC por sus siglas en inglés). Tal vez en la próxima tendencia de transformación veremos una integración más estrecha de los procesos de evaluación de riesgos, monitoreo, investigación y due diligence, con la IA ayudando a romper los silos y proporcionar una base más contextual para determinar el riesgo y detectar actividades sospechosas.
En esta visión para el futuro, la IA podría aportar una mayor amplitud, escala y frecuencia a las revisiones KYC holísticas de una manera que integre mejor el análisis de detección y seguimiento en curso. Los modelos de riesgo y detección evaluarían y aprenderían de un conjunto más rico de insumos y producirían resultados en el contexto tanto del perfil como del comportamiento del cliente. Aprovechando la capacidad de aprendizaje dinámico de la IA, junto con los investigadores cualificados, este modelo podría utilizarse para aumentar las operaciones, proporcionar control de calidad e incluso para entrenar nuevos recursos.
Capítulo 2
Cómo crear confianza en las aplicaciones de la IA
Siete formas de crear confianza en las soluciones AML de la inteligencia artificial.
Las instituciones financieras están en una posición clave para explorar las oportunidades y crear confianza en las aplicaciones de IA para AML. Sin embargo, muchas organizaciones se encuentran en el inicio de su proceso con inteligencia artificial y por lo tanto puede que no sean conscientes o no estén bien equipadas para gestionar los nuevos riesgos y retos de la implementación de estas nuevas tecnologías. Entonces, ¿cuáles son las dimensiones clave para crear confianza en las soluciones AML con IA?
1. Instituir un gobierno corporativo fuerte
El establecimiento de un gobierno corporativo y controles fuertes sobre el diseño, desarrollo y despliegue de la IA es fundamental para el uso seguro y eficaz en el cumplimiento de la AML. El buen gobierno proporciona los medios para evaluar y gestionar el riesgo, promueve el desafío efectivo e impulsa los niveles necesarios de comprensión y documentación para informar la toma de decisiones efectivas a lo largo del ciclo de vida de una solución de IA.
Un buen punto de partida para desarrollar la gobernanza y los controles de la IA puede ser el aprovechamiento y la adaptación de los enfoques de gestión de riesgos de modelos existentes (pdf) que se han aplicado cada vez más a la lucha contra el lavado de dinero en los últimos años. Las empresas pueden utilizar estos y otros pronunciamientos regulatorios similares como base para construir un enfoque razonable para la adopción de la IA que aborde las expectativas de los stakeholders en cuanto a la gestión de riesgos y la supervisión.
2. Definir el alcance, los objetivos y los criterios de éxito desde el principio
La base para el desarrollo de soluciones AML habilitadas para IA debe comenzar con una declaración clara de objetivos para asegurar que el diseño y la implementación estén alineados con el uso previsto y se integren efectivamente en los procesos de negocios.
Definir cómo se ve el éxito puede ser muy difícil en el AML, ya que los resultados y los conjuntos de datos pueden ser muy subjetivos. Las instituciones pueden descubrir que, sin mejorar las capacidades de investigación e inteligencia, la IA no producirá beneficios significativos más allá de los controles establecidos. El establecimiento de indicadores y parámetros de desempeño claros, que se vinculen a una declaración de apetito de riesgo bien definida, será fundamental para rastrear si los resultados de la IA están cumpliendo los objetivos a un nivel de riesgo aceptable.
A continuación se define el alcance de la solución de IA. En este caso, la adhesión a las políticas de protección de datos, el uso justo de los datos personales y el derecho legal a la explicación son consideraciones importantes a la hora de decidir el alcance de los datos utilizados para formar y operar la inteligencia artificial, así como los resultados y la información que puede compartir esta tecnología.
3. Hacer el diseño transparente
La capacidad de demostrar y auditar el cumplimiento es una piedra angular del marco de la AML actual — por lo que la transparencia de la IA y sus algoritmos subyacentes son importantes. La IA y machine learning es un campo amplio con diferentes niveles de complejidad y transparencia. En el extremo más complejo del espectro, las redes neuronales y el aprendizaje profundo pueden resultar áreas más difíciles en las que construir la confianza, cuando se comparan con los procesos más existentes. En la actualidad, muy pocas de las actuales soluciones de AML que se están probando en los bancos han avanzado más allá de la regresión, los árboles de decisión y la agrupación debido a estos desafíos.
El proceso de diseño tiene que considerar las diferentes capacidades de la IA y su adecuación a los objetivos previstos y al uso del modelo, así como las características de los datos de entrada. El proceso de diseño debería documentar la especificación técnica en detalle junto con las limitaciones y restricciones conocidas del diseño propuesto para la revisión del gobierno corporativo y de los stakeholders.
4. Colaborar en la definición de la práctica líder
La integración exitosa de la IA en el ecosistema de cumplimiento requiere de un compromiso y colaboración entre múltiples stakeholders: empresas, proveedores, reguladores y gobierno. Los esfuerzos de colaboración pueden respaldar una adopción más amplia y la identificación de beneficios adicionales, pero también establecer estándares para la gobernanza y los controles adecuados para gestionar el desarrollo y el despliegue seguros de soluciones habilitadas para la IA.
Una mayor adopción, colaboración y una mayor orientación pueden ayudar a impulsar la innovación y el despliegue de la IA. Una adopción más amplia, respaldada por la convergencia normativa, también ayudará a evitar las asimetrías en la eficacia de los controles que, de otro modo, podrían alejar la actividad ilícita de las instituciones más innovadoras y hacerla desaparecer aún más.
5. Centrarse en la entrada de datos y en las implicaciones éticas
Los datos de entrada que se utilizan para entrenar y operar la IA son críticos. La calidad de los datos es un desafío importante para muchas instituciones financieras y a menudo impacta la eficacia y eficiencia de los controles AML. Los proyectos necesitan evaluar la calidad de los datos y su idoneidad para ser utilizados por la IA como parte de la fase de diseño y desarrollo, y también implementar controles de manejo de datos para monitorear la calidad de los datos en curso durante la operación.
Otro desafío con los datos de entrada (particularmente los conjuntos de datos de capacitación) es el sesgo y la ética tanto del uso de esta capacidad como de la naturaleza de la IA capacitada. Ejemplos recientes de alto perfil han puesto de relieve la posibilidad de consecuencias no deseadas cuando se entrena en entradas de datos no controladas.
6. Aplicar pruebas y validaciones robustas
Cuanto mayor sea el nivel de prueba y el desafío independiente, más eficaz será la solución y menor será el riesgo operativo. Los marcos de gestión de riesgos de modelo común incluyen la validación del modelo y equipos de revisión de modelos independientes que podrían proporcionar un desafío efectivo. De manera similar, las técnicas de prueba como las pruebas de estrés y sensibilidad, así como los enfoques de un campeón o un rival pueden ser aprovechados.
Se podrían extraer más técnicas novedosas para validar las aplicaciones de la IA para otros dominios, como el uso de equipos rojos, recompensas por errores y enfoques de tipo comprador secreto que se aprovechan en las pruebas y en las mejoras continuas de los controles cibernéticos.
7. Participar desde el principio, desplegar gradualmente, revisar regularmente
La IA puede provocar una disrupción significativa en los procesos de cumplimiento y en el modelo operativo de las instituciones. Involucrar a los stakeholders desde el principio, construir una visión común y desplegarla gradualmente puede ayudar a impulsar un cambio más efectivo, una retroalimentación constructiva y, en última instancia, la confianza en los stakeholders de la empresa.
Al trasladar la IA a la producción, las organizaciones necesitan considerar los riesgos operativos que requieren controles de monitoreo continuo. Una preocupación creciente en la promoción de la IA en el uso cotidiano es la posibilidad de manipulación maliciosa o uso indebido no intencionado. Las actividades de validación periódicas, incluyendo la revisión del uso del negocio y las pruebas de sensibilidad, pueden ayudar a mitigar el riesgo junto con la revisión regular de las decisiones de IA. Al mismo tiempo, los sistemas expertos basados en reglas pueden utilizarse para proporcionar una línea de base continua para comparar y ayudar a identificar dónde se desvían las decisiones de IA de las normas esperadas.
Conclusión: Es hora de actuar
El actual enfoque de AML está luchando por mantenerse al ritmo de la actividad moderna de lavado de dinero. Existe una verdadera oportunidad para que la IA no sólo impulse la eficiencia, sino que, lo que es más importante, identifique formas nuevas y creativas de abordar el lavado de dinero.
Mientras la inteligencia artificial continúa planteando desafíos y poniendo a prueba nuestro apetito por el riesgo, la pregunta que todas las instituciones financieras deberían hacerse es: ¿podemos permitirnos no incluir la IA en nuestra lucha contra el lavado de dinero? En última instancia, cuando se integra con la estrategia correcta y con el enfoque adecuado en la creación de confianza, innovar con IA debe verse como un riesgo que vale la pena tomar.
Resumen
La pregunta que todas las instituciones financieras deberían hacerse es: ¿podemos permitirnos no incluir a la IA en nuestra lucha contra el lavado de dinero?