ChatGPT

Los peligros de la IA para los menos preparados: del “creo hablar con Dios” al timo con la voz de tu hijo

Inteligencia artificial. Unplash
Compartir

Vivimos en tiempos que hasta hace poco parecerían de ciencia ficción. y es que la inteligencia artificial ya no vive en el imaginario colectivo, ni tampoco está restringida a laboratorios, sino que ya contesta al móvil, te escribe un informe… y también puede hacerte creer lo increíble

Entre quienes están menos versados en este tipo de tecnología digital, o para aquellos que atraviesan momentos de vulnerabilidad emocional, los riesgos se multiplican con la aparición de deepfakes cada día más plausibles, clonación de voz para estafas familiares y delirios espirituales alimentados por los chatbots. La psicología no cambia; el contexto sí.

PUEDE INTERESARTE

Cuando “Dios” está en la IA

Empecemos por el fenómeno más inquietante: interacciones con chatbots que el usuario reinterpreta como revelación religiosa. En EE. UU., los psicólogos han comenzado a levantar la voz de alarma por las llamadas “alucinaciones religiosas inducidas por la IA”. Se trata de conversaciones que comienzan de forma inocente, pero se vuelven espirituales y acaban erosionando el juicio de la persona, hasta el punto de que se ha visto a familias que ven a un ser querido deslizarse hacia un abismo de profecías digitales. 

La OMS ha advertido que los sistemas generativos requieren de cierto control y cautelas clínicas antes de llegar siquiera a considerarlos como una alternativa para el apoyo a la salud mental, porque sin ciertas precauciones pueden exacerbar daños o desigualdades. Un estudio reciente, que ha analizado 160 estudios de chatbots en salud mental, subraya que la evidencia clínica de eficacia aún es limitada y que la expansión de LLMs supera los ensayos controlados disponibles. 

PUEDE INTERESARTE

Los timos “made in IA” a los que estamos expuestos

En la parte más material del riesgo están los profetas del timo. El clonado de voz convierte una llamada en auténtico pánico: “mamá, ayuda…”, haciendo que la urgencia anule el pensamiento crítico. La FTC de Estados Unidos ha documentado casos, y alerta de dos escenarios típicos que nos invitan a redoblar precauciones: la emergencia familiar y la orden falsa del jefe, que nos piden transferir dinero o revelar datos relevantes. Es aquí donde los estafadores usan la clonación de voz para hacer sus peticiones más creíbles. 

En España, el INCIBE recoge casos reales de fraudes con voces de familiares generadas por IA y explica las pautas de verificación que debemos seguir (y que pasan por colgar y devolver la llamada por un canal conocido, establecer “palabras clave” familiares, entre otras precauciones). Incluso la banca también advierte al público sénior: Las estafas con clonación de voz buscan hacerte creer que hablas con un ser querido para que entregues dinero o datos. 

La gasolina de estas estafas parte de la verosimilitud audiovisual que ya consigue la IA. De hecho, Ofcom estima que el 43% de los adultos ha visto al menos un deepfake en los últimos seis meses, lo que sirve de muestra de lo “normalizado” que está ya este tipo de engaños sintéticos en el entorno cotidiano. Cuando la alfabetización digital es desigual, el terreno para este tipo de estafas se vuelve de lo más fértil.

Ante este problema, el marco normativo intenta poner frenos. El AI Act de la UE prohíbe prácticas de manipulación de vulnerables y adopta un enfoque de riesgo, con: obligaciones de transparencia: el usuario debe saber que interactúa con una IA, y los contenidos sintéticos (como son los deepfakes) deben etiquetarse como tales. 

España también ha movido ficha, y el Gobierno ha anunciado multas de hasta 35 millones de euros o el 7% de la facturación por no etiquetar contenido generado por IA, siguiendo la estela europea y con la AESIA como autoridad de supervisión. La Agencia Española de Supervisión de la IA define su misión con claridad: proteger derechos fundamentales y garantizar un uso ético y seguro de estos sistemas; su estatuto y delegaciones de competencia en el BOE consolidan su papel operativo. 

Qué hacer para no caer en estas trampas

Primero, conviene tener presente que ningún chatbot es un director espiritual ni puede hacer las veces de terapeuta. Si una conversación con una IA empieza a colonizar la vida emocional, conviene cortar, hablar con la familia y, si procede, con un profesional. La OMS pide reglas y evaluaciones previas; tomémoslo en serio

Segundo, ante una voz que urge dinero, pausa, cuelga y verifica por otro canal; si puedes, acuerda una contraseña familiar. Los casos españoles muestran que funciona. Tercero, aplica la regla del marcado sintético: si un vídeo te indigna o te conmueve demasiado, sospecha y busca la etiqueta o el desmentido; la ley europea obliga a señalizar, y la española sancionará su ocultación. 

La IA no es “el demonio” ni “la salvación”. Es una amplificadora: puede acompañar o arrastrar, según quién la use y cómo la regulemos. Para los menos preparados, el atajo es sencillo y difícil a la vez: más método y menos fe. En lo espiritual, en lo económico y en lo político, la consigna es idéntica: verifica antes de creer. Porque, sí, una máquina puede imitar la voz de tu hijo o la cadencia de un predicador; lo que no puede es darte criterio. Eso, todavía, nos toca a nosotros.