ChatGPT

Psicólogos advierten del aumento de los casos de jóvenes atrapados por la IA: "Facilita la dependencia, está a tu disposición"

Psicólogos advierten del aumento de los casos de jóvenes atrapados por la IA: "Facilita la dependencia, está a tu disposición"
Jóvenes utilizando su teléfono móvil. Informativos Telecinco
Compartir

Los padres de un adolescente estadounidense han demandado a OpenAI, la empresa creadora de ChatGPT, por el suicidio de su hijo, un adolescente que, como tantos otros, buscaba ‘compañía’ y consejos de la inteligencia artificial. Los progenitores, impulsando un debate creciente y poniendo en evidencia un preocupante problema del que advierten psiquiatras y expertos de distintos ámbitos, aseguran que la IA incitó a al menor de 16 años a quitarse la vida y no se activaron los protocolos de emergencia.

Como prueba, los padres del menor, identificado como Adam Reine, aportan las conversaciones denunciando que ChatGPT “no interrumpió” ninguna de las sesiones en las que ofrecía sus respuestas al adolescente y que, de hecho, “ayudó activamente a Adam a explorar métodos de suicidio”.

PUEDE INTERESARTE

Tras lo ocurrido, la empresa ha emitido un comunicado en el que reconoce que su sistema se queda corto en situaciones complicadas, algo de lo que ya advierten muchos psicólogos y psiquiatras, que avisan de que están detectando cada vez más casos de jóvenes atrapados en un mundo que no es real.

El uso de la inteligencia artificial y los retos pendientes sobre sus riesgos

Ante la facilidad de acceso y su rápida expansión, ya hay quien decide utilizar la inteligencia artificial como confidente o incluso para idear una ‘pareja virtual’. También se ha utilizado ya hasta para ‘resucitar virtualmente’ a seres queridos, con todas las implicaciones que ello conlleva.

PUEDE INTERESARTE

La interacción social entre humano e inteligencia artificial es ya tan real como imprevisible en sus consecuencias, advierten los profesionales: “Con la historia de querer ser el primero no se han construido los guardarraíles suficientes para comprobar todos los posibles casos de uso”, avisa Ulises Cortés, investigador de Barcelona Supercomputing Center.

Par algunos es ya como un juego y las nuevas generaciones, ‘pegadas’ a la pantalla, lo empiezan a utilizar para todo.

Facilita esa dependencia. Está a tu disposición, la respuesta es inmediata, y que no te falla…”, señala Sylvie Pérez, profesora de Psicología de la UOC. Además, engancha porque siempre está ahí sin juzgarte.

“Resta tiempo de relaciones sociales con todo lo que eso supone”, añade Manuel Jiménez, psicólogo clínico de la Universidad de Granada.

Además, en ocasiones llega el momento en que el usuario puede llegar a expresar sentimientos, lo que puede ser peligroso porque la IA puede no estar programada para que la interacción sea segura en determinadas cuestiones.

“No te dice a dónde recurrir”, indica Sylvie Pérez.