Estafas

"Deepfake" financiero: cómo protegerte para evitar que usen tu imagen y tu voz para pedir créditos a tu nombre

Deepfake: los vídeos falsos que son toda una amenaza. Reuters
Compartir

Hasta hace poco, que alguien pidiera un préstamo a tu nombre exigía robar tu DNI o tus claves bancarias. Hoy, la amenaza es mucho más sofisticada: el fraude mediante “deepfakes”, donde delincuentes generan vídeos o audios hiperrealistas que imitan tu voz y tu imagen para suplantarte ante un banco o una financiera. Lo que parecía ciencia ficción hasta hace bien poco es ya una preocupación creciente para el sector financiero y para los propios reguladores.

Los datos confirman que no se trata de casos aislados. Según un informe de Reality Defender, especializado en detección de deepfakes, “el 46% de las empresas ha sido atacada por fraude de identidad impulsado por deepfakes”, y dentro de esa cifra, “el fraude de identidad sintética fue responsable del 33% de los casos de fraude reportados por empresas estadounidenses”.

PUEDE INTERESARTE

El problema es global y va en aumento. Los expertos advierten de técnicas como el voice spoofing, es decir, la clonación de voz por inteligencia artificial, y de la manipulación de vídeos. Alertan de que los deepfakes pueden hacerse pasar por una persona conocida y convencer a la víctima de que entregue información personal o dinero.

La voz ya no es una contraseña

El propio director ejecutivo de OpenAI, Sam Altman, alertó en 2024 de que la autenticación por voz está quedando obsoleta porque la IA puede replicar voces con gran nivel de fidelidad. Esto significa que muchos métodos que hasta hace nada parecían completamente seguros, como la confirmación de identidad en el banco por biometría vocal, ya no ofrecen garantías.

PUEDE INTERESARTE

De hecho, firmas de ciberseguridad como Group-IB han documentado ataques completos basados en audio sintético, en los que los ciberdelincuentes utilizan voces generadas por IA para realizar llamadas fraudulentas (vishing) que imitan a clientes o directivos, con el objetivo de aprobar transferencias o solicitudes financieras.

La regulación vigente

La preocupación ha llegado también al terreno legal. España se convirtió en uno de los primeros países europeos en aprobar una regulación específica que obliga a etiquetar el contenido generado por inteligencia artificial. De este modo, se impondrán multas masivas, de hasta 35 millones de euros, por no etiquetar el contenido generado por IA, detalla la nueva norma aprobada en marzo de 2025.

Aunque esta medida apunta sobre todo a la desinformación, también abre la puerta a exigir más transparencia tecnológica en sectores como la banca, donde distinguir lo real de lo falso puede ser vital para proteger a los clientes.

Cómo protegerte del deepfake financiero

  • Desconfía de la voz como único factor de seguridad: si tu banco ofrece autenticación por biometría vocal, pregunta por factores adicionales: contraseñas de un solo uso, claves en app o verificación presencial.
  • Configura alertas en tus cuentas y activos: Muchos bancos permiten recibir notificaciones en tiempo real de operaciones o solicitudes de préstamo. Es una forma rápida de detectar si alguien intenta usar tu identidad.
  • Controla tu huella digital: cuantos más audios y vídeos tuyos circulen en abierto, más material hay para entrenar un deepfake. Revisa la privacidad de tus redes y limita qué contenido público compartes.
  • Activa la verificación en dos pasos: ante llamadas o mensajes urgentes que te pidan actuar con rapidez, corta y llama tú al número oficial de tu entidad. McAfee recuerda que los estafadores se apoyan en la familiaridad de una voz o cara conocida para ganarse tu confianza.
  • Ejercita tu derecho a la protección de datos. si detectas un uso fraudulento de tu identidad, puedes reclamar ante la Agencia Española de Protección de Datos y ante tu entidad financiera.