Compartir

Somos muy conscientes de lo que es capaz de conseguir la Inteligencia Artificial, desde decirte qué piensa de ti hasta hablar con tu yo del futuro pasando por ser tu agencia de viajes, diseñar imágenes con un prompt o escribir una novela. Si bien la Inteligencia Artificial es una gran herramienta para poder hacer nuestra vida más sencilla, en manos erróneas puede suponer un problema.

Sabemos que ChatGPT es capaz de crear textos con nuestra manera de expresarnos para que parezca que lo hemos escrito nosotros. Pero, esta capacidad ha ido un paso más allá, aunque es una función bastante atractiva, no deja de ser peligrosa dependiendo de las manos en las que caiga. Lo que sucede es que OpenAI ha ido más lejos y ha salido a la luz que ChatGPT es capaz de imitar la voz humana con un grado de perfección preocupante.

PUEDE INTERESARTE

El modelo que ha conseguido esto es el GPT-4o, el modelo más avanzado de OpenAI, y permite a la Inteligencia Artificial generar diferentes voces.

El problema no es que emule voces humanas, es que es capaz de hacerlo sin que el usuario lo autorice explícitamente. Así que, sí, ChatGPT puede imitar tu voz sin que ni siquiera se lo pidas. Esto supone un evidente problema de seguridad para todos los usuarios que utilicen este chatbot.

Esta actualización expone la preocupación constante de los usuarios por su privacidad y también, sobre lo que es capaz de hacer la Inteligencia Artificial. Lo que ocurre es que OpenAI no ha entrenado a ChatGPT para que imite voces, de hecho ni siquiera cuenta con una enorme base de datos para esto. Es debido a esto que el chatbot puede utilizar la voz del usuario que le está hablando. Aunque suponga un gran avance, no es lo ideal que ChatGPT tenga esta capacidad.

PUEDE INTERESARTE

Como es normal, OpenAI ya está intentando solucionarlo y ha limitado que esta situación pueda pasar, y ha realizado cambios para evitar que ChatGPT pueda tomar la voz de una persona y usarla para generar un audio, aunque, sí que es cierto que puede ser engañado para que haga esto.

El problema de esto es que se puedan producir fraudes, ya que se podrían realizar llamadas imitando las voces de sus familiares solicitando datos confidenciales o pidiendo transferencias bancarias. Al tener esta capacidad tan asombrosa la Inteligencia Artificial puede llevar a errores y estafas, porque el usuario reconoce la voz de su familiar y no lo pone en duda. Este sería un ejemplo de lo que podría suponer para la seguridad de los usuarios.

PUEDE INTERESARTE

¿Cuáles son los derechos sobre la voz en España?

En el marco jurídico español, la voz está considerada como una extensión de la personalidad de un individuo y, por tanto, está protegida bajo el derecho de la propia imagen y el derecho a la intimidad. Es el artículo 18 de la Constitución Española el que recoge estos derechos, reconociendo la necesidad de proteger el uso de la imagen y la voz de una persona.

Cuando se refiere a imitación, se asume que este derecho podría estar vulnerado si la persona imitada no ha dado su consentimiento. Por otro lado, la Ley Orgánica 1/1982 también recoge y regula estos derechos. Por lo que una voz imitada sin consentimiento podría ser considerada como una invasión a la imagen o una intromisión en la intimidad de la persona.

Por otro lado, tanto en España como en la Unión Europea, el Reglamento General de Protección de Datos (RGPD) también se aplica a la clonación y manipulación de la voz. La voz es considerada un dato biométrico, por lo que su uso indebido es una infracción del RGPD. Cualquier dato que permita la identificación de una persona, como en este caso la voz, está bajo la protección de esta normativa europea. Por tanto, la reproducción o clonación de voz sin consentimiento es una violación de su derecho a la protección de datos.

En términos de derechos de propiedad intelectual, ésta no recoge ningún derecho sobre la voz de una persona, pero sí que protege las interpretaciones artísticas, y eso incluye una grabación o la reproducción de la voz de un artista en un medio. Por tanto, si una persona imita la voz de un personaje público en un contexto comercial sin autorización, estaría vulnerando el derecho de explotación de imagen y del trabajo de este artista. Esto supondría una infracción de derechos de propiedad intelectual.

¿Ha imitado la Inteligencia Artificial a cantantes o actores sin su consentimiento?

En los últimos meses se han podido ver contenidos muy virales con audios generados por Inteligencia Artificial que imitan las voces de artistas como Duki, Quevedo o Ariana Grande, para crear versiones de canciones que ellos nunca han cantado. Cuando sucede esto, se aplica lo anteriormente explicado entraría en juego la Ley de Propiedad Intelectual, ya que su voz es un rasgo de su identidad y está siendo usada sin permiso.