top of page
TKS.png
Foto del escritorguido Aguirre

La ciberpandemia: deepfakes de IA y el futuro de la seguridad y la verificación de la identidad

A los profesionales de la seguridad y la gestión de riesgos hay muchas cosas que les quitan el sueño. La era de las falsificaciones profundas generadas por IA ha llegado y, por desgracia, los métodos actuales de verificación de identidad y seguridad no sobrevivirán. De hecho, Gartner estima que para 2026, casi un tercio de las empresas considerarán que las soluciones de verificación de identidad y autenticación no son fiables debido a las falsificaciones generadas por IA. De todas las amenazas a las que se enfrentan las organizaciones de TI, un ataque de inyección que aprovecha deepfakes generados por IA es el más peligroso. Historias recientes muestran que los ataques de inyección de deepfakes son capaces de derrotar a los sistemas populares de Conozca a su Cliente (KYC) - y con un aumento del 200% en los ataques de inyección el año pasado y sin manera de detenerlos, los CIO y CISO deben desarrollar una estrategia para prevenir los ataques que utilizan deepfakes generados por IA.



En primer lugar, tendrá que entender exactamente cómo los actores maliciosos utilizan deepfakes de IA para atacar sus sistemas. A continuación, puede desarrollar una estrategia que integre tecnologías avanzadas para ayudarle a prevenirlos (no solo detectarlos).


El ataque de inyección digital

Un ataque de inyección digital se produce cuando alguien "inyecta" datos falsos, incluidos documentos generados por IA, fotos e imágenes biométricas, en el flujo de información recibida por una plataforma de verificación de identidad (IDV). Los delincuentes utilizan cámaras virtuales, emuladores y otras herramientas para burlar las cámaras, los micrófonos o los sensores de huellas dactilares y engañar a los sistemas haciéndoles creer que han recibido datos verdaderos.



Los ataques de inyección son ahora cinco veces más comunes que los ataques de presentación, y cuando se utilizan en combinación con deepfakes generados por IA, son casi imposibles de detectar. Los ciberdelincuentes utilizan documentos de identidad falsos para engañar los procesos KYC o inyectan fotos y vídeos falsos para burlar los sistemas de biometría facial. Un buen ejemplo es el reciente ataque que inyectó un vídeo deepfake con IA para estafar 25 millones de dólares a una empresa de Hong Kong. Como era de esperar con el auge de la IA Generativa, los deepfakes de IA también van en aumento, con Onfido informando de un aumento del 3.000% en ataques de deepfake el año pasado. La NSA, el FBI y el CISA compartieron en colaboración su preocupación por la amenaza de los deepfakes de IA, afirmando que: "La creciente disponibilidad y eficiencia de las técnicas de medios sintéticos disponibles para los ciberactores maliciosos menos capaces indican que este tipo de técnicas probablemente aumentarán en frecuencia y sofisticación."



La clave para detener los ataques de inyección es impedir que se introduzcan imágenes o documentos alterados digitalmente. Y la única forma de hacerlo es aprovechar tecnologías de seguridad avanzadas, como la criptografía móvil. Las firmas criptográficas que proporcionan los dispositivos móviles, los sistemas operativos y las aplicaciones son prácticamente imposibles de falsificar porque están respaldadas por las prácticas de altísima seguridad de Apple y Android. Utilizar la criptografía móvil para determinar la autenticidad del dispositivo, su sistema operativo y la aplicación que ejecuta es una medida crucial y decisiva para detener los ataques de inyección.


El ataque de presentación

Los ataques de presentación presentan datos falsos a un sensor o escáner de documentos con la intención de hacerse pasar por un usuario final y engañar a un sistema para que conceda el acceso. Los ataques de presentación de biometría facial adoptan muchas formas, utilizando documentos de identidad falsos, "intercambios de caras" e incluso máscaras hiperrealistas para hacerse pasar por alguien. Las plataformas IDV y KYC utilizan la detección de ataques de presentación (PAD) para verificar los documentos y selfies que se presentan, pero muchas técnicas PAD pueden ser vencidas por ataques de inyección que aprovechan las falsificaciones profundas de IA.



Anticiparse a los ataques de inyección y presentación

En los dos últimos años, hemos visto cómo miles de empresas eran víctimas de estos ataques. Los impactos son incalculables: cientos de millones de dólares saqueados, cierres por ransomware que afectan a millones de personas, información personal robada y reputaciones dañadas irreparablemente. Y el problema no hace más que empeorar.


La única estrategia para detener estos ataques es utilizar herramientas de verificación de identidad que impidan que se produzcan ataques de inyección en primer lugar y, a continuación, aplicar el enfoque en la verificación de la persona real detrás de la pantalla. De esta forma, las organizaciones de TI también pueden acabar con los vectores de ingeniería social humana que eluden o explotan los procesos de IDV. Además, al añadir tecnologías de verificación como inteligencia de dispositivos, modelos de IA y biometría del comportamiento, las organizaciones de TI pueden reducir aún más el riesgo de fraude de primera parte. Por último, invierta en soluciones que protejan sus procesos de autenticación multifactor (MFA) y recuperación de contraseñas: este es un vector de ataque primario y una vulnerabilidad clave que las empresas a menudo pasan por alto.



Los atacantes han tenido un gran éxito utilizando deepfakes de IA para ataques de inyección y presentación, lo que significa que cada vez veremos más. La clave para detener esta amenaza es desarrollar un enfoque multicapa que combine PAD, detección de ataques de inyección (IAD) e inspección de imágenes. Esta estrategia constituye la base para que las empresas naveguen por la "ciberpandemia" a la que nos enfrentamos y hacia un futuro más seguro y fiable.


Fuente: CIO

Коментарі


Функцію коментування вимкнено.
bottom of page