top of page
TKS.png
Foto del escritorguido Aguirre

Cómo los deepfakes mejoran la ingeniería social y las amenazas de autenticación

La tecnología deepfake es una amenaza de ciberseguridad creciente para las organizaciones. Los ciberdelincuentes están invirtiendo en IA y aprendizaje automático para crear contenido digital sintético o manipulado (incluyendo imágenes, vídeo, audio y texto) para utilizarlo en ciberataques y fraudes. Este contenido puede replicar o alterar de forma realista la apariencia, la voz, los gestos o el vocabulario con el objetivo de engañar a objetivos tanto humanos como autónomos haciéndoles creer que lo que ven, oyen o leen es auténtico y digno de confianza.


En marzo de 2021, el FBI advirtió de una tendencia creciente de actores maliciosos que aprovechan los contenidos digitales sintéticos o manipulados para influir en el ciberespacio y en el extranjero, como extensión de las campañas existentes de spear phishing e ingeniería social. Estas pueden tener un impacto más grave y generalizado debido al nivel de sofisticación de los medios sintéticos utilizados, añadió. Por lo tanto, las organizaciones deben ser conscientes de las crecientes ciberamenazas de deepfake y tomar medidas para defenderse de los ciberataques y estafas mejoradas por deepfake.


Los ciberdelincuentes adoptan la tecnología deepfake

A menudo se dice que el contenido para adultos impulsa la adopción de la tecnología, y eso fue ciertamente cierto en el caso de los deepfakes cuando aparecieron por primera vez. Ahora la tecnología se está poniendo de moda en otros círculos, especialmente entre los grupos de ciberdelincuentes organizados.


En la actualidad, los ataques derivados de Deepfake son escasos, ejecutados por bandas especializadas o que tienen el peso de un Estado detrás, con sólo un puñado de usos exitosos documentados. Sin embargo, se extenderá como lo hacen todas las tecnologías de este tipo cuando las herramientas, las técnicas y las recompensas potenciales sean bien conocidas.


Esto ya está demostrando ser el caso en los foros clandestinos y de la web oscura, donde los delincuentes están compartiendo los conocimientos y la experiencia de deepfake. Los investigadores de VMware descubrieron tutoriales de la web oscura que ilustran las herramientas y técnicas de deepfake, un ejemplo de colaboración de los actores de amenazas con el fin de comprometer a las organizaciones. Los actores de amenazas han recurrido a la dark web para ofrecer servicios y tutoriales personalizados que incorporan tecnologías de deepfake visuales y de audio diseñadas para eludir y derrotar las medidas de seguridad.


La ingeniería social mejorada por el deepfake

La tecnología deepfake es de creciente interés para los grupos criminales que se especializan en ingeniería social sofisticada. Estos grupos dirigen las campañas BEC [business email compromise] que engañan al personal de finanzas y contabilidad de las grandes organizaciones para que envíen dinero en efectivo a cuentas controladas por los estafadores. Las herramientas de las que se habla actualmente en las salas de chat de los delincuentes explotan los perfiles públicos de los altos ejecutivos, capturando vídeos, audios y mensajes de blog para crear simulacros convincentes.


Estos se utilizarán luego para dar peso a las demandas de mover dinero en efectivo o hacer pagos rápidamente, haciendo que esta estafa sea más fácil de perpetrar y más difícil de defender. Las suplantaciones de audio deepfake pueden ser particularmente eficaces en los ataques de ingeniería social que van tras los datos corporativos y el acceso al sistema. Hacerse pasar por un ejecutivo que está de viaje o fuera de la oficina para restablecer una contraseña o realizar una acción que le permita acceder a los activos de una empresa es un truco, con este contenido que proporciona una capa adicional de credibilidad con la capacidad de recrear características reconocibles como el acento y los patrones de habla de alguien.


Se ha producido un aumento particular de este tipo de ataques a medida que los ciberdelincuentes se aprovechan del cambio a una fuerza de trabajo distribuida. Los CISO y sus equipos de seguridad son ahora testigos de cómo se utilizan deepfakes en ataques de phishing o para comprometer el correo electrónico empresarial y plataformas como Slack y Microsoft Teams. Las campañas de phishing a través de plataformas de comunicación empresarial proporcionan un mecanismo de entrega ideal para los deepfakes, ya que las organizaciones y sus usuarios confían implícitamente en ellas.


Deepfakes diseñados para eludir la autenticación biométrica

Otra tendencia arriesgada de los deepfakes es el contenido creado y utilizado para eludir la verificación biométrica. La biometría, como el reconocimiento facial y de voz, proporciona capas adicionales de seguridad y puede utilizarse para autenticar automáticamente la identidad de alguien basándose en sus características únicas. Sin embargo, la tecnología que puede recrear con precisión la apariencia o la voz de una persona para eludir dicha autenticación supone un riesgo importante para las empresas que confían en ella como parte de su estrategia de gestión de la identidad y el acceso, y es algo en lo que los delincuentes están invirtiendo en medio del trabajo a distancia generalizado.


Las falsificaciones profundas suponen efectivamente un riesgo notable para la autenticación basada en la biometría. Cualquier organización que aproveche la verificación de la identidad para llevar a cabo su negocio y protegerse de los ciberdelincuentes puede ser susceptible de sufrir ataques de deepfake. Los defraudadores han tomado nota de los recientes vídeos virales sobre deepfakes y se han dado cuenta de que estas herramientas de deepfakes y bibliotecas de código podrían aprovecharse para eludir los controles de verificación de identidad en línea. Varias aplicaciones gratuitas de código abierto facilitan a los defraudadores, incluso con escasos conocimientos técnicos, la generación de vídeos y fotos deepfakes.


Defensa contra las ciberamenazas de deepfake

Ya sea mediante la manipulación de texto, voz o vídeo, los estafadores invierten en tecnología deepfake para distorsionar la realidad digital con fines maliciosos, prosperando en la confusión y la incertidumbre. Estamos en un punto de inflexión para entrar en una nueva realidad de desconfianza y distorsión a manos de los atacantes.


Aunque las amenazas que plantean los ataques asistidos por deepfake pueden parecer muy duras, hay varias defensas que las empresas pueden poner en práctica contra ellos. Éstas van desde la formación y la educación hasta la tecnología avanzada y la inteligencia de amenazas, todas ellas diseñadas para contrarrestar los mayores riesgos de la actividad maliciosa de deepfake.


Enseñar al personal sobre los ataques de ingeniería social de deepfake (en particular los más dirigidos) es un elemento importante para mitigar los riesgos, y aconseja centrarse en los empleados que desempeñan funciones financieras. Alertarles de la posibilidad y darles permiso para ralentizar el proceso de pago si sospechan puede ayudar mucho. Revisar los procedimientos para realizar los pagos puede frustrar a los atacantes si no están al tanto de los últimos cambios que ha adoptado una organización.


Desde el punto de vista tecnológico, hay un número creciente de sistemas de análisis que pueden detectar cuando el contenido muestra signos de manipulación que de otro modo pasarían desapercibidos. Del mismo modo, la inteligencia sobre amenazas también puede ayudar, ya que puede mostrar si una organización está en el punto de mira, si un sector está siendo objeto de escrutinio o si un grupo concreto está siendo activo en este ámbito. Las estafas de tipo deepfake tardan tiempo en ser preparadas y ejecutadas. Eso puede dar a las víctimas potenciales tiempo suficiente para detectar las señales de alarma y actuar.


También se puede lograr una defensa eficaz si se aleatorizan las instrucciones que los usuarios deben seguir para autenticarse cuando se utiliza la tecnología de verificación. Hay miles de peticiones posibles que los creadores de deepfakes simplemente no pueden predecir, como mirar en diferentes direcciones o leer una frase. Los usuarios que responden repetidamente de forma incorrecta pueden ser marcados para una investigación adicional, y aunque los deepfakes pueden ser manipulados en tiempo real, la calidad del vídeo se deteriora significativamente, ya que la gran potencia de procesamiento requerida no se presta a reacciones rápidas.

Fuente: CSO



29 visualizaciones0 comentarios

Entradas recientes

Ver todo

Comments


bottom of page