Aumento de fraudes con deepfakes
Experto en IA y Machine Learning advierte sobre aumento de fraudes con deepfakes; la IA ayuda a detectarlos
*Sumsub, la única plataforma de verificación global que ofrece soluciones personalizables de KYC, KYB, supervisión de transacciones y AML para todo el viaje del cliente, advierte sobre la creciente amenaza de fraudes en línea en la era digital.
La popularidad de los deepfakes y el aumento de los casos de robo de identidad han llevado a un aumento significativo en la ciberdelincuencia. Para profundizar en este tema, hemos entrevistado a Pavel Goldman-Kalaydin, Jefe de Inteligencia Artificial y Machine Learning de Sumsub, quien nos brinda su perspectiva sobre la creciente amenaza y el uso de la IA para detectar fraudes.
P: ¿Cómo está afectando la proliferación de plataformas de IA generativa en general y cuáles son las tendencias en el uso fraudulento de deepfakes?
R: Hay dos tipos de estafadores: aquellos muy expertos en tecnología que utilizan esta y el hardware más avanzado, como GPUs (unidades de procesamiento de gráficos) de gama alta y modelos de inteligencia artificial generativa de última generación; y los estafadores de nivel inferior que utilizan herramientas comúnmente disponibles en computadoras de consumo. Por ejemplo, hay personas a las que se les ha prohibido el acceso a sitios de juegos de apuestas por infringir las reglas y que quieren volver al sitio por cualquier medio.
A medida que avanza la tecnología de IA generativa, los estafadores disponen de más herramientas. Si bien existen muchos desarrollos interesantes en el campo de la IA generativa, en Sumsub nos enfocamos en combatir los usos fraudulentos de esta tecnología.
P: ¿Ha coincidido la creciente sofisticación de las herramientas de IA generativa con los estafadores que intentan utilizar deepfakes con fines maliciosos?
R: No es una coincidencia sino una consecuencia lógica. Con la creciente tendencia de las herramientas de inteligencia artificial generativa y el uso de imágenes falsas, es evidente que los deepfakes se han vuelto más frecuentes en los últimos meses. De hecho, hemos visto más este tipo de fraudes en los últimos tres meses que en los últimos años.
P: ¿Cómo pueden las empresas diferenciar entre personas reales y deepfakes?
R: En primer lugar, existe un procedimiento llamado liveness check, que determina si una persona está viva o si se trata de una foto impresa, una captura de pantalla de video o un deepfake. Esto se hace automáticamente usando varios modelos de IA que detectan elementos en la imagen. Otro paso es el análisis de comportamiento de fraude, donde se puede verificar si hay actividad sospechosa. Por ejemplo, si la dirección IP del usuario o una huella digital de un dispositivo ha sido asociado con otros intentos fraudulentos.
También hay pasos posteriores, como el monitoreo de transacciones, donde se pueden verificar las acciones del usuario. La actividad del usuario se puede agrupar para detectar botnets, por ejemplo. El equipo de AI/ML de Sumsub está involucrado en todos estos pasos. La conclusión clave es que se está desarrollando una solución compleja para prevenir el fraude. Y para las empresas, es importante darse cuenta de que implementar solo controles generales de KYC (Know Your Customer) no es suficiente para mantenerse completamente protegido.
Es crucial monitorear el comportamiento de los usuarios durante todo su viaje. Para este propósito, encontrar un proveedor de verificación de ciclo completo es la mejor opción para mantenerse completamente protegido contra el fraude, incluidos los deepfakes.
P: ¿Ha habido instancias en las que Sumsub sepa dónde los estafadores han utilizado la IA para generar una persona completamente ficticia sin tener que depender de tomar fotos/documentos de una persona real? Si es así, ¿hay una fuga en los datos para eso?
R: Hay una fuga, sí. Los avances recientes en la generación de imágenes también han influido en la generación de deepfakes. Un escenario típico hace un año era usar un documento real robado como base y luego intercambiar el rostro del documento con un video pregrabado de un estafador. Esto permitió que el estafador intercambiara la cabeza tal como lo requieren muchas plataformas de verificación. Ahora bien, no siempre es necesario tener una imagen de la cara de origen. En cambio, puede generarlo desde cero y usarlo tanto en documentos como en fotos de rostros. Esto dificulta que las plataformas de verificación busquen identidades robadas porque no hay nada que buscar.
P: ¿Qué sectores empresariales son los más vulnerables al fraude deepfake?
R: Diría que todas las empresas que operan digitalmente y realizan verificaciones remotas son vulnerables al fraude deepfake. Podemos agregar que las plataformas fintech, cripto y de juego están especialmente en riesgo. Dado que la verificación remota no desaparecerá pronto, las empresas de todos los sectores deben invertir en soluciones antifraude, como los detectores de deepfakes.
P: ¿Qué pueden hacer los consumidores/público en general para asegurarse de que sus datos personales no se utilicen para producir un deepfake?
R: Responder a esta pregunta no es fácil. Si bien no se recomienda publicar imágenes de rostros de alta calidad en las redes sociales, incluso las imágenes de baja calidad se pueden usar para crear deepfakes que luego se pueden mejorar con técnicas de superresolución para que se vean realistas. En última instancia, uno solo puede esperar que las plataformas de verificación empleen múltiples controles y seguridad, no solo en la imagen en sí, sino también en el comportamiento del usuario para detectar y evitar el robo de identidad digital (por ejemplo, IP o ubicación anómalas, patrones de uso de servicios inusuales).
P: ¿Cómo utiliza Sumsub la inteligencia artificial y el machine learning para detectar intentos de fraude?
R: Como se mencionó anteriormente, utilizamos tecnología liveness con “Prooface”, una solución con tecnología propia de Sumsub que detecta fácilmente los intentos de suplantación de identidad y autentica a los usuarios reales en cuestión de segundos. Gracias al machine learning, esta tecnología puede detectar los datos biométricos y la vitalidad de una persona con gran precisión, lo que mejora la protección del cliente. Para reiterar, trabajamos en el desarrollo de modelos complejos que puedan detectar automáticamente deepfakes, fraude conductual y grupos de estafadores.
En conclusión, el robo de identidad y otros tipos de fraudes cibernéticos son una amenaza en aumento en la era digital actual. Como señala Pavel Goldman-Kalaydin, experto en inteligencia artificial y machine learning de Sumsub, la verificación de identidad en línea se ha convertido en una necesidad crítica para proteger a los usuarios y las empresas de estos delitos. La buena noticia es que las tecnologías de inteligencia artificial y machine learning están emergiendo como herramientas poderosas para combatir el fraude en línea. Con su capacidad para analizar grandes conjuntos de datos, estas tecnologías pueden detectar patrones sospechosos de actividad y comportamiento en línea, lo que puede ayudar a prevenir el robo de identidad y otros ciberataques.