Internacional. La compañía iProov presentó un informe de amenazas a la verificación remota de identidad, proporcionando información sobre la anatomía de un ataque de inyección digital y exponiendo las metodologías, las tendencias y los impactos de los actores maliciosos.
El ‘Reporte de Inteligencia de Amenazas iProov 2024:El impacto de la IA generativa en la verificación remota de la identidad’ revela cómo los ciberdelincuentes están utilizando herramientas avanzadas de IA para efectuar intercambios convincentes de caras, junto con emuladores y otras metodologías de manipulación de metadatos (herramientas tradicionales de ciberataque), para crear nuevos vectores de amenazas.
“La IA generativa ha proporcionado un gran impulso a los niveles de productividad de los actores de amenazas: estas herramientas tienen un costo relativamente bajo, son de fácil acceso y se pueden usar para crear medios sintetizados altamente convincentes, como intercambios faciales u otras formas de deepfakes que pueden engañar fácilmente al ojo humano, así como soluciones biométricas menos avanzadas. Esto solo sirve para aumentar la necesidad de una verificación de identidad remota altamente segura”, afirma Andrew Newell, director científico de iProov.
¿Qué pasó el año pasado?
Dos tipos principales de ataques han sido identificados por el iSOC - iProov’s Security Operations Center: ataques de presentación y ataques de inyección digital.
Entre las tendencias descubiertas durante 2023 se evidencia un aumento significativo de las herramientas de imágenes de IA empaquetadas que hacen que sea mucho más fácil y rápido lanzar un ataque.
Además, hubo un aumento del 672% entre el primer y segundo semestre de 2023 en el uso de medios deepfakes, como los intercambios faciales, que se implementaron junto con las herramientas de suplantación de metadatos.
A diferencia del ojo humano, los sistemas biométricos avanzados pueden ser resistentes a este tipo de ataques. Sin embargo, en 2023, los actores maliciosos aprovecharon una laguna en algunos sistemas mediante el uso de herramientas cibernéticas, como emuladores, para ocultar la existencia de cámaras virtuales.
“Si bien los datos de nuestro informe destacan que los intercambios de rostros son actualmente el deepfake más elegido por los actores de amenazas, no sabemos qué sigue. La única forma de estar un paso por delante es monitorear e identificar constantemente sus ataques, la frecuencia de los ataques, a quién se dirigen, los métodos que utilizan y formar un conjunto de hipótesis sobre lo que los motiva”, añade Andrew Newell.
Evolución de los ataques de inyección digital
El uso de emuladores y suplantación de metadatos por parte de los actores de amenazas para lanzar ataques de inyección digital en diferentes plataformas fue observado por primera vez por el iSOC en 2022, pero continuó dominando en 2023, creciendo un 353% entre el primer y segundo semestre del año.
Un emulador es una herramienta de software que se utiliza para imitar el dispositivo de un usuario, como un teléfono móvil. Estos ataques están evolucionando rápidamente y plantean nuevas amenazas significativas para las plataformas móviles: los ataques de inyección contra la web móvil aumentaron un 255% entre el primer semestre y el segundo semestre de 2023
Avances en colaboración y sofisticación
A lo largo de 2022 y 2023, los niveles de ataques indiscriminados oscilaron entre 50.000 y 100.000 veces al mes. También hubo un aumento considerable en el número de actores y una mejora en la sofisticación de las herramientas utilizadas.
También se observó un crecimiento significativo en el número de grupos que participan en el intercambio de información relacionada con ataques contra sistemas biométricos y de identificación humana remota o “identificación por video”, lo que evidencia el enfoque colaborativo que ahora están adoptando los actores de amenazas.
Deje su comentario