La inteligencia artificial (IA) ha evolucionado rápidamente de un concepto futurista a una poderosa herramienta que, en manos de actores maliciosos, puede representar un riesgo significativo para la identidad personal y corporativa. Los ataques basados en IA ya no son amenazas teóricas; están ocurriendo en todos los sectores, superando los mecanismos de defensa tradicionales y desafiando la autenticidad de medios digitales. Desde videollamadas fraudulentas hasta falsificaciones de voz y rostro en tiempo real, el fraude de identidad ha alcanzado un nivel sin precedentes.

La creciente amenaza del fraude mediante suplantación de identidad por IA

Casos recientes subrayan el alarmante potencial del fraude mediante IA:

  • Transferencias fraudulentas: Durante una videollamada, usuarios de deepfake se hicieron pasar por varios ejecutivos para transferir 25 millones de dólares de forma fraudulenta.
  • Infiltración en entrevistas laborales: KnowBe4, una empresa de ciberseguridad, fue engañada mediante deepfakes en entrevistas de contratación, permitiendo que un atacante norcoreano se integrara a su organización.
  • Engaños corporativos: El director ejecutivo de WPP, la mayor empresa de publicidad, fue blanco de un deepfake para solicitar fondos y datos personales en una conferencia virtual.
  • Manipulación política: Un senador estadounidense fue víctima de una falsificación de un diplomático ucraniano en una llamada de Zoom, en un intento de interferencia política.

Estos casos revelan cómo los delincuentes han adoptado la IA para reducir costos y simplificar la manipulación de identidades, aprovechando las debilidades de los métodos de autenticación tradicionales.

Limitaciones de las soluciones actuales

Aunque la industria de la ciberseguridad ha respondido con herramientas de detección de deepfake y capacitaciones para usuarios finales, estos enfoques tienen limitaciones importantes:

  • Carrera armamentista de IA: Los detectores y generadores de deepfake están en constante evolución, lo que dificulta que alguna de las partes mantenga una ventaja duradera.
  • Defensas probabilísticas: Las soluciones actuales ofrecen solo una detección probabilística, dejando margen de error.
  • Carga sobre los usuarios: Depender de la vigilancia del usuario genera expectativas poco realistas, ya que resulta complicado que las personas puedan discernir entre engaños cada vez más sofisticados.

Un cambio de paradigma: la defensa de la identidad mediante IA

El fraude mediante suplantación de identidad es, en última instancia, una manifestación de las debilidades en la seguridad de identidad. Para estos ataques, los actores maliciosos comprometen la identidad de usuarios legítimos, lo que les permite manipular a sus víctimas para obtener beneficios económicos o políticos. Las plataformas de seguridad de identidad, diseñadas específicamente para combatir el fraude de suplantación de identidad, pueden ofrecer soluciones que mejoran la autenticidad criptográfica, el cumplimiento de la seguridad de dispositivos y la evaluación en tiempo real de riesgos.

A continuación, se presentan tanto opciones comerciales como de código abierto que proporcionan defensas avanzadas contra las amenazas de deepfake.

Herramientas comerciales

  1. Beyond Identity RealityCheck
    RealityCheck ofrece verificación criptográfica de identidad y cumplimiento de seguridad de dispositivos en herramientas de comunicación como Zoom y Microsoft Teams, brindando una garantía visual contra suplantaciones en videoconferencias.
  2. Microsoft Video Authenticator
    Herramienta para la detección de deepfakes en videos e imágenes. Utiliza IA para verificar la autenticidad del contenido mediante la detección de detalles sutiles en rostros manipulados.
  3. iProov
    Autenticación biométrica con reconocimiento facial, que detecta manipulaciones profundas en tiempo real. Es especialmente útil para aplicaciones bancarias y móviles donde la autenticidad del usuario es crucial.
  4. Pindrop
    Enfocada en la autenticación de voz, esta herramienta detecta fraudes en tiempo real mediante el análisis de patrones de voz y audio, proporcionando una solución contra la falsificación en llamadas y asistentes virtuales.
  5. Adobe Content Authenticity Initiative (CAI)
    CAI establece un estándar de autenticación de contenido para identificar si una imagen o video ha sido manipulado, mediante la incorporación de metadatos de autenticación visibles.

Herramientas de código abierto

  1. Deepware Scanner
    Un escáner de deepfake de código abierto que permite analizar videos en busca de posibles manipulaciones, detectando patrones visuales inusuales y alertando sobre su autenticidad.
  2. Sensity AI (anteriormente DeepTrace)
    Plataforma que ofrece una versión de código abierto para el análisis de videos mediante IA, capaz de detectar alteraciones en archivos multimedia al identificar patrones sospechosos.
  3. FaceForensics++
    Un conjunto de datos y herramientas de detección de deepfake, diseñado para investigaciones de IA. Incluye una base de datos de videos manipulados y modelos de IA para entrenar sistemas de detección.
  4. dlib
    Una biblioteca de aprendizaje automático que proporciona módulos de reconocimiento facial y detección de emociones, útil para integrar en sistemas de seguridad que identifiquen posibles deepfakes.
  5. FakeCatcher (de Cornell Tech)
    Detecta deepfakes mediante el análisis del flujo sanguíneo en el rostro de una persona, ya que los videos falsos no reproducen correctamente estos cambios fisiológicos.

Preparación para defenderse de los deepfakes

El fortalecimiento de la seguridad de identidad mediante plataformas seguras por diseño es esencial para defender las organizaciones del fraude basado en IA. Estas herramientas, ya sean comerciales o de código abierto, permiten a las empresas establecer defensas sólidas, adaptándose a los nuevos desafíos de suplantación de identidad. Las soluciones avanzadas, como RealityCheck y Microsoft Video Authenticator, ofrecen verificación criptográfica y detección visual en tiempo real, mientras que las herramientas de código abierto como Deepware Scanner y FakeCatcher brindan flexibilidad para personalización y desarrollo interno.

A medida que la amenaza de deepfakes crece, es crucial adoptar un enfoque integral y proactivo en la ciberseguridad, seleccionando herramientas y plataformas que puedan garantizar la autenticidad de la identidad y los dispositivos de manera continua.

INFORMÁTICA FORENSE
error: Content is protected !!