Deepfake: los vídeos falsos que amenazan a famosos, políticos y jueces

telecinco.es 24/09/2018 14:40

De hecho, estos vídeos falsos ya han generado un conflicto político en Catar. Su emir, Tamin bin Hamad al-Thani, aparecía en un vídeo en el que elogiaba y apoyaba a Hamás, a Hezbola, a los Hermanos Musulmanes y a Irán. Las imágenes, aun tratándose de deepfake, sentaron mal a Arabia Saudí, Emiratos Árabes, Bahréin y Egipto. Tal fue su reacción ante un vídeo que creían real que rompieron relaciones, cerraron las fronteras e impusieron un bloqueo por mar, tierra y aire.

Ahora imagínese eso a escala mundial. Unas imágenes falsas en las que Donald Trump, Theresa May o Xi Jinping pronunciasen unas palabras que podrían significar el desencadenante de un conflicto internacional. Aunque de Trump uno podría esperarse cualquier cosa, existen ciertos límites que hasta el polémico presidente estadounidense no se atrevería a cruzar. Pero claro, todos los poderosos tienen muchos enemigos y, sobre todo, mucha gente que cuenta con intereses peligrosos. Es más, un buen ejemplo serían la cantidad de gifs y vídeos que aparecieron de Trump cuando firmó el primer decreto.

Y no sólo eso, existe una tercera vía: la judicial. Podrían llegar a crearse vídeos tan bien hechos que puedan ser utilizados como pruebas veraces en un juicio. Según explica Borja Adsuara, experto en Derecho, Estrategia y Comunicación Digital, los deepfake generan “una grave inseguridad. Hemos pasado de las fake news a las fake reality y no te puedes fiar de nada”. El reto entonces es buscar la manera de diferenciar las imágenes reales con las que se han manipulado.

Así, asegura que puede existir gran dificultad en saber si un vídeo es real o no: “Estás viendo cosas que están tan bien hechas gracias a la inteligencia artificial. A no ser que seas un experto en esas tecnologías, es muy fácil que a todo el mundo, incluido a un juez en un proceso en el que le aporten una prueba con esta tecnología, o tiene un perito que sepa mucho o se la pueden colar”.

En ese sentido se expresa el auditor informático José Aurelio García, quien asegura sobre los deepfake que “el principal problema con el que nosotros nos encontramos es autentificar la prueba, hacer que esta sea válida en un juzgado. Los abogados cada vez saben más, cada vez saben más de nuevas tecnologías, cada vez hay que hacerlo mejor para que no te echen para atrás la prueba”.

El experto explica que la prueba a realizar para conocer la veracidad varía si se trata de un vídeo grabado por un móvil en concreto o un vídeo sacado de Internet. En el primer ejemplo, mediante una serie de máquinas y programas específicos para forenses, se compararían los parámetros del vídeo con los del móvil, lo que haría saber si realmente se ha grabado con un terminal en concreto.

Mientras, los vídeos sacados de Internet tienen una dificultad mayor para conocer si es deepfake o no, ya que lo primero es que se desconoce su origen: “Tienes que ceñirte a lo que estás viendo en Internet sin saber el origen de ese vídeo”. Aunque sí es cierto que luego se vuelven a usar herramientas específicas para comprobar si existe, por ejemplo, “saltos bruscos en los parámetros de píxeles de las imágenes”.

Una de las cuestiones que puede surgir entonces es si habría que elaborar una nueva legislación para proteger los derechos de las personas que puedan ver perjudicado su honor con la creación de estos falsos vídeos. “Mucha gente se vuelve loca cuando sale una nueva tecnología, pero hay que volver al origen: al derecho al honor, al de la intimidad y al de la propia imagen. Lo que hay que hacer es que esos conceptos se puedan aplicar sobre las redes sociales, Internet… Cómo puede afectar a la información veraz los vídeos falsificados”, explica Adsuara.

Conocidas ya algunos de los usos negativos de este tipo de vídeos, hay que mencionar también algunos ejemplos que podrían ser utilizados de forma positiva. Es el caso, tal y como cita Adsuara, de la conservación de patrimonio: “Se podrían restaurar películas que se hayan deteriorado o perdido parte con el tiempo. O cuando un actor o una actriz ha muerto, podrían llegar a usarse para terminar de rodar la película”. “Desde el punto de vista de creación de contenido hay usos que pueden ser muy positivos”. Al final la tecnología no es buena o mala por sí, es buena o mala según la persona que la utilice y sus intenciones.

Más noticias sobre la inteligencia artificial: