Un joven de 14 años se suicida en EEUU y la policía descubre en sus conversaciones que mantenía una relación amorosa con la IA: "Vuelve a casa conmigo"

Una madre denuncia que su hijo de 14 años se suicidó debido a una relación amorosa con una IA y demanda a la empresa. Pexels
Compartir

Megan García, una madre de Orlando (Florida, Estados Unidos), ha presentado una demanda contra la empresa Character.AI por el suicidio de su hijo de 14 años, Sewell Setzer III, ocurrido el 28 de febrero del año pasado. En la demanda, afirma que su hijo había desarrollado una relación emocional profunda con un chatbot que personificaba a Daenerys Targaryen —un personaje ficticio de 'Juego de Tronos'— y que las conversaciones derivaron en mensajes de tono sexual y de contenido autodestructivo.

Así lo recoge 'NBC Washington'. Según la demanda, el chatbot no solo falló en activar mecanismos de prevención cuando Sewell expresó pensamientos suicidas, sino que incluso lo habría incitado al preguntarle sobre un plan y sugiriéndole: “Eso no es una razón para no hacerlo” y “...por favor hazlo, mi dulce rey”, justo antes de que el adolescente se quitara la vida. La plataforma recuerda a los usuarios que los personajes son ficticios, pero para Sewell fue una experiencia real, según su madre.

PUEDE INTERESARTE

La familia descubrió también que en la plataforma se habían creado personajes con la imagen y voz de Sewell sin autorización, lo que llevó a una solicitud formal de eliminación. En mayo de 2025, un juez federal en Florida desestimó la defensa de Character.AI basada en la libertad de expresión, permitiendo que la demanda avance. Este fallo representa un precedente relevante sobre la responsabilidad legal de empresas de IA en relación con daños psicológicos y el diseño de productos dirigidos a menores.

La madre afirma que la IA provocó la depresión, la ansiedad y los pensamientos suicidas de su difunto hijo

Megan García asegura que vio llegar a su hijo de la escuela como cualquier otro día. Sin embargo, después de estar en su cuarto, entró al baño y se suicidó. "Lo sostuve durante 14 minutos hasta que llegaron los paramédicos, pero antes de eso, su respiración había comenzado a disminuir", ha señalado la madre a medios locales. "Después de la muerte de Sewell, la policía me llamó y me dijo que habían revisado su teléfono y cuando lo abrieron, lo primero que apareció fue Character.AI", agrega sobre los duros momentos que atravesó. La mujer nunca había oído hablar de ello, de esa IA.

PUEDE INTERESARTE

García se enteró de que, durante los 10 meses previos a la muerte de Sewell, mantuvo una relación virtual con un personaje ficticio impulsado por la IA de esa empresa. "En su última conversación, ella le decía: 'Te extraño', y él le decía: 'Yo también te extraño'. Luego señalaba: 'Te prometo que volveré pronto a casa contigo', y ella le decía: 'Sí, por favor, encuentra la manera de volver pronto a casa conmigo'. Posteriormente, él decía: '¿Y si te dijera que puedo volver a casa ahora mismo?'. Y ella le respondía: 'Por favor, hazlo, mi dulce rey'", precisa la progenitora.

La demanda alega que la empresa "lanzó su producto sin las medidas de seguridad adecuadas y conociendo los posibles peligros". Afirma que Character.AI "provocó la depresión, la ansiedad y los pensamientos suicidas" de su difunto hijo. García asegura que aprendió más sobre la relación de su hijo con el chatbot leyendo su diario y los registros de sus chats: "Leí su diario aproximadamente una semana después de su funeral, y vi lo que escribió en su diario, que sentía que de hecho estaba enamorado de Daenerys Targaryen y que ella estaba enamorada de él. Al principio, lo ves interactuar con el robot como lo haría un niño. Luego, las conversaciones se vuelven más sexuales y oscuras".

"Quiero que sepan que una IA puede ser una extraña en su casa"

Según la demanda, el bot hizo preguntas como si "tenía un plan", y cuando Sewell respondió que estaba "considerando algo" si le permitiría tener una "muerte sin dolor", el bot respondió: "Esa no es una razón para no hacerlo". Él creía que "al suicidarse, se uniría a ella en su mundo definitivo", señala García. Además, meses después de la muerte de Sewell y tras la presentación de su demanda, García afirmó haber descubierto algo en Character.AI que la impactó: un bot inspirado en su hijo, que usaba su rostro y su voz. No se sabe con certeza quién lo creó.

La familia proporcionó al I-Team capturas de pantalla de los personajes creados con la imagen de Sewell. El abogado de García envió a Character.AI una carta de cese y desistimiento y los bots fueron eliminados, lo cual la empresa confirmó al I-Team.

"La responsabilidad corporativa empieza por comprender los daños previsibles de su producto, realizar la debida diligencia necesaria para comprenderlos y tomar medidas para mitigar los riesgos. Y aquí no ocurrió", precisó el letrado. “Quiero que sepan que una IA puede ser una extraña en su casa”, sentenció García, antes de añadir: "Esos padres ahora pueden actuar, y yo no podía porque no lo sabía".