IA de combate
En 2022, los bancos estadounidenses procesaron más de $448 mil millones en transacciones entre pares (P2P), haciendo de estas plataformas un objetivo principal para los estafadores. Como es el caso de los paradigmas de fraude "clásicos" como el phishing, el fraude de Zelle o Venmo se alimenta cada vez más de la inteligencia artificial (IA).A medida que los ciberdelincuentes aprovechan el poder del aprendizaje automático (y muy pronto) la IA generativa para burlar los sistemas de detección de fraudes, las tecnologías de prevención de fraudes en línea deben evolucionar en consecuencia.
El rápido ritmo de la transformación digital ha beneficiado enormemente a nuestra sociedad y economía. También ha sido una gran ayuda para los ciberdelincuentes que, al igual que las empresas a las que apuntan, utilizan la infraestructura de la nube todos los días para escalar sus operaciones. Aprovechando el poder de la nube, los nuevos modelos maliciosos de aprendizaje automático (ML) ofrecen la posibilidad de automatizar tareas que solo los humanos podían realizar hace unos años.
Como resultado, la próxima ola de innovación en fraude presenta IA impulsada por la nube, o más correctamente, ML, lo que hace que la prevención de fraude moderna sea una "batalla de máquinas". Estas batallas generalmente comienzan cuando los estafadores dan el primer paso, utilizando servicios en la nube para construir modelos de ML capaces de eludir las defensas construidas por las empresas para detectar fraudes obvios.
Considere un sistema típico de mitigación de fraude en un entorno minorista. Supongamos que una empresa establece una regla según la cual, en ciertas ubicaciones, las transacciones superiores a $900 se marcan automáticamente para una verificación secundaria. Se podría programar una herramienta de ML para calcular mediante prueba y error el punto en el que se inspeccionan las transacciones de alto valor. Luego, el adversario solo necesita asegurarse de que sus transacciones fraudulentas se mantengan por debajo de $ 900 y se basen en la geolocalización correcta para evitar la detección. Lo que antes era un proceso que requería mucho tiempo se convierte en una simple cuestión de análisis basado en la nube.
Incluso los modelos ML sofisticados pueden ser probados y atacados por debilidades por parte de IA maliciosa. Cuanto más opacos se vuelven los sistemas de IA, más riesgosos son para implementarlos en entornos de producción. Los humanos solo tendrán una comprensión limitada de su comportamiento y los resultados que podrían generar. Además, para seguir siendo efectivos, necesitan ser entrenados con datos de ataques anteriores. Esta combinación los hace vulnerables a la explotación cuando se les presenta un escenario ligeramente diferente. Solo se necesitan algunas pruebas y mejoras específicas para que la IA maliciosa aprenda esos descuidos y puntos ciegos.
Eso no es todo. AI también podría generar datos de imágenes falsas de la cara de un usuario que sean lo suficientemente convincentes como para permitir que se lleve a cabo una transacción, ya que la computadora de verificación asume que se trata de una foto de un nuevo usuario. O podría entrenarse con datos públicos de video o audio (por ejemplo, clips publicados en las redes sociales) para hacerse pasar por clientes legítimos en las verificaciones de autenticación. De manera similar, la IA podría entrenarse para imitar el comportamiento humano, como los movimientos del mouse, para burlar a las máquinas diseñadas para detectar signos de actividad no humana en las transacciones. Incluso podría generar diferentes combinaciones de datos robados para eludir las comprobaciones de validación, una tarea de computación intensiva que se puede resolver utilizando la nube pública.
Los ciberdelincuentes a menudo tienen una ventaja sobre los defensores, y ese es actualmente el caso de los estafadores en línea que aprovechan la IA. Tienen el elemento sorpresa y la motivación financiera para tener éxito. Sin embargo, los equipos de fraude y riesgo pueden contrarrestar la IA maliciosa ajustando sus propios enfoques. La IA puede ser entrenada por los malos para imitar el comportamiento humano de manera más realista. Pero si se usa en ataques automatizados, aún deberá implementarse como un bot, que puede detectarse modificando e innovando algoritmos de detección de fraude.
Los defensores no solo pueden reforzar su defensa mediante la implementación de algoritmos ML nuevos y mejorados, sino que también pueden cambiar el campo de batalla a uno que les proporcione una ventaja estratégica. Por ejemplo, al cambiar la detección de fraude al perímetro de la red, mucho más cerca de los dispositivos que se utilizan para realizar transacciones en línea, los defensores crean una dinámica en la que el comportamiento inusual o de alto riesgo es más fácil de detectar con un mayor grado de precisión.
Al usar la infraestructura existente, como las redes de entrega de contenido (CDN), la detección de fraudes puede moverse al borde de una manera relativamente fluida. Mover la detección de fraudes al borde no solo proporciona una visión mucho más clara y detallada de la experiencia en línea de un usuario (o "viaje del cliente", como les gusta llamarlo a los expertos de la industria), sino que también crea una línea de base más rica y matizada, lo que facilita detectar y frustrar la IA maliciosa.
Al capturar inteligencia en toda la sesión del usuario, hay más oportunidades de detectar anomalías generadas por máquinas. La generación de señales flexibles también puede ser una herramienta poderosa en el arsenal de un ingeniero de seguridad. Podría usarse en los ejemplos anteriores para activar el análisis de imágenes tan pronto como se cargue una imagen. O para comparar los movimientos del mouse en páginas de transacciones no financieras con aquellas en las que se inicia una transacción financiera. Además, desde un punto de vista estratégico, una mayor visibilidad de la experiencia del cliente seguramente proporcionará información valiosa que puede respaldar otras funciones comerciales.
La IA se está volviendo muy sofisticada muy rápidamente. Mover la detección de fraudes al borde es un movimiento preventivo que puede dificultar el éxito de los estafadores, lo que aumenta la probabilidad de que simplemente pasen a objetivos más vulnerables. De cualquier manera, la hábil aplicación de modelos ML basados en la nube para cometer y defenderse contra el fraude en línea anuncia el comienzo de una nueva carrera armamentista impulsada por la IA, nativa de la nube.
Abróchate el cinturón, la batalla de las máquinas ha comenzado.
,