
- Ataques de inyección de Deepfake cámaras de derivación y engañar el software de verificación de video directamente
- Swaps facial y recreaciones de movimiento transforman las imágenes robadas en defectos profundos convincentes
- Los servicios de detección administrados pueden identificar patrones sospechosos antes de que los ataques tengan éxito
Las plataformas de comunicación digital son cada vez más vulnerables a ataques sofisticados que explotan la inteligencia artificial avanzada.
Un informe de iproov Revela una herramienta especializada capaz de inyectar profundos profundos generados por IA directamente en videollamadas de iOS, lo que plantea preocupaciones sobre la confiabilidad de las medidas de seguridad existentes.
El descubrimiento revela qué tan rápido Herramientas AI están siendo adaptados por fraude y robo de identidadmientras expone las brechas en los sistemas de verificación actuales.
Un método sofisticado para evitar la verificación
La herramienta de inyección de video iOS, sospechosa de tener orígenes chinos, apunta a los jailbroken iOS 15 y dispositivos más nuevos.
Los atacantes conectan un iPhone comprometido a un servidor remoto, omiten su cámara física e inyectan transmisiones de video sintéticas en llamadas activas.
Este enfoque permite a los estafadores hacerse pasar por usuarios legítimos o construir identidades completamente fabricadas que puedan pasar controles de seguridad débiles.
Utilizando técnicas como swaps facial y recreaciones de movimiento, el método transforma imágenes robadas o fotos estáticas en un video realista.
Esto cambia el fraude de identidad de incidentes aislados a operaciones a escala industrial.
El ataque también socava los procesos de verificación al explotar Sistema operativo-Los vulnerabilidades de nivel en lugar de controles basados en cámara.
Los estafadores ya no necesitan engañar a la lente, pueden engañar al software directamente.
Esto hace que los sistemas tradicionales contra la especie, especialmente aquellos que carecen de salvaguardas biométricas, sean menos efectivas.
«El descubrimiento de esta herramienta de iOS marca un avance en el fraude de identidad y confirma la tendencia de los ataques industrializados», dijo Andrew Newell, director científico de IProov.
«El origen sospechoso de la herramienta es especialmente preocupante y demuestra que es esencial utilizar una capacidad de detección de vivienda que pueda adaptarse rápidamente».
«Para combatir estas amenazas avanzadas, las organizaciones necesitan controles de ciberseguridad de varias capas informados por la inteligencia de amenazas del mundo real, combinados con biometría basada en la ciencia y una capacidad de detección de vivienda que puede adaptarse rápidamente para garantizar que un usuario sea la persona adecuada, una persona real, autenticando en tiempo real».
Cómo mantenerse a salvo
- Confirme a la persona adecuada haciendo coincidir la identidad presentada con registros o bases de datos oficiales de confianza.
- Verifique a una persona real utilizando imágenes y metadatos integrados para detectar medios maliciosos o sintéticos.
- Asegúrese de que la verificación esté en tiempo real con métodos de respuesta de desafío pasivo para prevenir la repetición o los ataques retrasados.
- Implemente servicios de detección administrados que combinan tecnologías avanzadas con experiencia humana para el monitoreo activo.
- Responda rápidamente a los incidentes utilizando habilidades especializadas para ataques de ingeniería inversa y fortalecer las defensas futuras.
- Incorpore controles biométricos avanzados informados por inteligencia de amenaza activa para mejorar la detección y prevención de fraude.
- Instalar el El mejor software antivirus Bloquear malware que pueda habilitar el compromiso o la explotación del dispositivo.
- Mantenga una fuerte protección de ransomware para salvaguardar los datos confidenciales de los ataques cibernéticos secundarios o de soporte.
- Manténgase informado sobre las herramientas de IA en evolución para anticipar y adaptarse a los métodos emergentes de inyección de Deepfake.
- Prepárese para escenarios en los que la verificación de video por sí sola no puede garantizar la seguridad contra el sofisticado fraude de identidad.




