Los 'deepfakes' o vídeos manipulados con IA serán delitos contra el derecho al honor: el Gobierno regula la ley
Los 'deepfakes' se crean con algoritmos que “leen” los rostros faciales de decenas de imágenes y videos
Desde el Gobierno consideran que este tipo de contenido vulnera la intimidad y la reputación
El Gobierno ha aprobado este martes el anteproyecto de ley del derecho al honor y a la intimidad personal que contempla como delito el uso y difusión de imágenes o voces manipuladas sin consentimiento a través de la Inteligencia Artificial, las conocidas como 'deepfakes'.
Se trata del anteproyecto de ley del derecho al honor y a la intimidad personal y familiar y a la propia imagen, que incluye los deepfakes (ultrafalsificaciones y manipulación de imágenes) como delitos contra el honor y refuerza el consentimiento en el uso y difusión de la propia imagen.
La norma -impulsada por los Ministerios de Justicia y de Juventud e Infancia- supone un hito del Plan de Acción para la Democracia, según ha señalado el titular de Justicia, Félix Bolaños.
¿Cómo funcionan los 'deepfakes'?
Los 'deepfakes' se crean con algoritmos que “leen” los rostros faciales de decenas de imágenes y videos tomados desde distintos ángulos. Con esa información, el programa consigue recrear la voz y la imagen de una persona simulando sus gesticulaciones sobre la cara de otra.
Los mejores programas utilizan una gran cantidad de recursos audiovisuales y cada vez que crean un 'deepfake' están mejorando sus algoritmos para hacerlo mejor a la próxima gracias al 'machine learning', métodos computacionales y estadísticos que permiten a los ordenadores aprender tareas basadas en datos existentes.
El término 'deepfake' nació en 2017 por un usuario de la plataforma Reddit con ese nombre que subió videos con los rostros de famosas como Taylor Swift o Gal Gadot en el cuerpo de actrices porno.
Los 'deepfakes', entre las principales amenazas de ciberseguridad para 2026
Los 'deepfakes' cada vez más realistas y que se modifican en tiempo real serán una de las principales amenazas de 2026, que tendrá a la inteligencia artificial (IA) generativa y de agentes como principales protagonistas tanto en el lado de la defensa como en el de los criminales.
Una vez más, la IA marcará el panorama de la ciberseguridad en 2026, a través de modelos de lenguaje e inteligencia generativa que mejorarán las capacidades de protección, pero también ampliarán las posibilidades de ciberataque de los ciberdelincuentes.
Así se desprende del informe 'Kaspersky Security Bulletin 2025 Statistics', que recoge las previsiones para el este año de la firma de seguridad Kaspersky, y que incluye entre las principales tendencias la consolidación de los 'deepfakes'.
Esta tecnología, caracterizada por el uso de herramientas de IA para manipular con gran realismo imágenes y vídeos, seguirá mejorando, sobre todo en lo que respecta al audio, y los programas para generarlos serán aún más fáciles de usar, sin necesidad de conocimientos técnicos, lo que multiplicará el riesgo de su uso malicioso.