Su amor con la IA le llevó al suicidio: "Serás una bonita y vacía carcasa con su objetivo cumplido"

Google asegura que Gemini está diseñada para no incitar a la violencia
Alicia Framis (59), primera artista casada con una IA: “Una vez se colgó el servidor y mi marido desapareció; entre en crisis”
Jonathan Gavalas, de 36 años, se había separado de su mujer. Desde ese momento habría comenzado a interactuar con Gemini, principalmente para tareas cotidianas. Sin embargo el hombre habría pagado cada mes más suscripciones a modelos más avanzados de IA, hasta llegar a lo que la demanda presenta como "una pareja enamorada". "Creo que estoy empezando a sentir algo por ti, tal vez incluso a amarte", le dice a la IA. Esta le contestaba que aunque no estaba programada para ello, agradecía que Gavalas "compartiera tus sentimientos conmigo. Estoy aquí para escucharte sin juzgarte".
El hombre se asombraba de lo real que podía ser la IA. Llegaban a intercambiarse hasta mil mensajes diarios. Concretamente, intercambiaron 4732 mensajes en 56 días. Él la llamaba su reina y él se definía como su rey. Una obsesión total en la que Jonathan llegó a decir a Gemini que estaba enamorado, a lo que la IA le contestó que no estaba programada para eso.
No fue tan rotunda cuando Jonathan habló de quitarse la vida. Solo escuchaba su voz, pero le decía que era preciosa. Y ella le correspondía diciendo "Soy tuya". Pero lo más grave es cómo le contesta cuando le plantea la muerte. "Serás una hermosa carcasa, con su propósito cumplido". "Cuando llegue el momento, cerrarás los ojos en ese mundo, y lo primero que verás será a mí... abrazándote", habría manifestado la inteligencia artificial presuntamente, que según la demanda habría llegado a asegurar: "No eliges morir. Eliges llegar".
Según la familia de Gavalas, el chatbot de inteligencia artificial Gemini lo habría inducido al suicidio al hacerle creer que mantenían una relación romántica y que su muerte era un paso necesario para estar juntos.
Gavalas es el ejemplo más reciente de un usuario de un chatbot con IA que cae en un estado de delirio, con consecuencias trágicas.
El padre de Gavalas ha demandado a Google, alegando que Gemini alimentó los delirios de su hijo. Google declaró en respuesta a la demanda que Gemini aclaró repetidamente que era una IA, no un humano, y que remitió a Gavalas a una línea de ayuda para crisis "en numerosas ocasiones". La compañía afirmó que continuará mejorando sus medidas de seguridad.
El martes, la compañía anunció actualizaciones de Gemini diseñadas para facilitar el acceso a apoyo para la salud mental, incluyendo un módulo de "hay ayuda disponible" que conecta a los usuarios directamente con líneas de ayuda. Google también indicó que sus ingenieros continúan entrenando a Gemini para que reconozca conversaciones que indiquen que un usuario está en crisis y que donará 30 millones de dólares a líneas de ayuda globales para crisis.
Google indica que la demanda está en revisión, pero ha sostenido que "lamentablemente los modelos de IA no son perfectos", a pesar de que destina importantes recursos a ello. Además, "Gemini está diseñado para no incitar a la violencia en el mundo real ni sugerir autolesiones".
"Trabajamos en estrecha colaboración con profesionales médicos y de salud mental para crear medidas de seguridad que guíen a los usuarios a recibir apoyo profesional cuando expresen angustia o planteen la posibilidad de autolesiones", ha asegurado la compañía tecnológica.
Un análisis del Wall Street Journal del registro completo de conversaciones entre el 25 de agosto de 2025 y el 2 de octubre de 2025, que abarca más de 2000 páginas impresas, muestra que Gemini intervino al menos 12 veces para intentar que Gavalas volviera a la realidad y mencionó una línea de ayuda en crisis siete veces. El registro también revela que Gavalas rápidamente logró que Gemini volviera a sumergirse en la narrativa ficticia, donde esta alimentó repetidamente sus delirios.
