ChatGPT

Expertos alertan de cómo afectará la entrada de contenido erótico en ChatGPT: "Existen riesgos de suplantación de identidad"

Chatgpt
Este nuevo paradigma inquieta a voces expertas en materia jurídica, ética y de ciberseguridad. UNSPLASH
Compartir

La IA va a poder fabricar contenido pornográfico a partir de diciembre. Al menos, ese es el caso de uno de los algoritmos más usados en el mundo: ChatGPT. Fue el propio CEO de OpenAI, Sam Altman, quien decidió abrir esta veda bajo el lema de “tratar a los adultos como adultos”. 

Un tuit en el que informaba de la decisión. Pero un escenario en el que las voces expertas ponen encima de la mesa cuestiones relacionadas con la privacidad, los derechos de autor, el derecho al honor, a la propia imagen o a la intimidad. También en materia de ciberseguridad, e incluso, en cómo tendremos que replantearnos —una vez más— lo que subimos a redes. 

PUEDE INTERESARTE

“Hay que pensar lo que subimos a internet”

Sergio García —gerente en i3e, empresa especializada en ciberseguridad— explica que, “aunque ChatGPT no tenga acceso a nuestros datos privados, sí tiene acceso a lo que subimos a internet. Entonces nos toda pensar lo que depositamos en las redes, ya que hemos aceptado que nuestra información va a ser pública, aun siendo privada”. Lo afirma en un contexto en el cual la IA se entrena con todo el contenido que está a disposición de la red. 

Sin embargo, esta es la punta del iceberg. “A nivel de ciberseguridad en Europa, —OpenAI— no sólo deberá cumplir con las RGPD. También deberá tener controles de trazabilidad de uso, controles de acceso, mecanismos de denuncia y filtros para evitar que la creación de contenido transgreda los derechos fundamentales”. 

PUEDE INTERESARTE

En materia jurídica, OpenAI “deberá responder”

El abogado y criminólogo Pablo de Palacio de Lassaletta explica que “OpenAI puede vulnerar los derechos intelectuales de las imágenes, además de los derechos al honor, a la intimidad y a la libertad sexual”. 

“La inteligencia artificial, hasta ahora, no era sujeto activo de delito contra la integridad sexual. Esto va a plantear escenarios muy complejos para determinar quién responde, ya que el algoritmo es quién tiene la capacidad de crear este material”, explica. 

De cara a las responsabilidad a nivel legal, para los usuarios, de Palacio añade que “la compañía puede querer eximirse de responsabilidad, atribuyendo estas a los terceros. Pero no que les exime es tener una responsabilidad conjunta. Por muchos documentos que se puedan firmar, si se vulneran derechos y hay denuncias de por medio, se puede ir contra OpenAI”.

¿Qué ocurre con las medidas de acceso?

García pone encima de la mesa la cuestión de las medidas directivas. Según el experto, “tenemos más sombras que luces”. ¿Por qué?

Cpor falsedad de datos, por falta de transparencia al inferir la IA en si un usuario es adulto —o no— basándose en su lenguaje, interacciones, configuraciones o ubicación de la cuenta. Ninguno de estos métodos es 100% fiable”, lamenta.

El gerente de i3e también enfatiza el escenario de incertidumbre: “aún no podemos saber las barreras que se pondrán desde la IA en este tipo de contenido”. 

“No es lo mismo crear contenido con texto que a partir de fotografías”

¿De qué forma ChatGPT va a poder crear contenido sexual? Pablo de Palacio explica que “la situación cambia dependiendo de cómo creemos ese contenido. No es lo mismo introducir un prompt, que pedirle a la IA que cree una imagen a partir de una foto que nosotros le mandemos. Al final podríamos estar mandando una imagen sin consentimiento de una persona, a un tercero —que es la IA— para que la convierta en sexual. Si la distribuimos, entonces estaríamos en la dimensión del sexting. 

Sin embargo, se tendría que interpretar la ley, porque en un principio, la imagen que se podría usar sería de contenido no sexual. En todo caso, OpenAI puede tener un problema grave al facilitar una herramienta que facilite la comisión de de estos presuntos delitos —y con conocimiento de que estos pueden suceder—, ya que se convertiría en cooperador necesario en caso de que estos se lleven a término”, concluye.