Suicidio

La inteligencia artificial falla al intentar anticipar la conducta suicida

Los algoritmos no logran identificar con precisión a las personas con mayor riesgo de suicidio
Los algoritmos de la IA no logran identificar con precisión a las personas con mayor riesgo de suicidio. Europa press
  • El análisis de datos revela que estos sistemas de la IA no mejoran las escalas clásicas para evaluar el riesgo de suicidio

  • Los expertos concluyen que no hay pruebas para cambiar las recomendaciones actuales sobre prevención y seguimiento

Compartir

La precisión de los algoritmos la IA de aprendizaje automático para anticipar el riesgo de suicidio de una persona es demasiado baja para resultar útil en su detección, según una investigación de la Universidad de Melbourne (Australia).

El trabajo, publicado en PLOS Medicine, recuerda que en los últimos 50 años se han creado numerosas escalas de evaluación de riesgos para identificar a pacientes con mayor probabilidad de suicidio o autolesión. Aunque estas herramientas han mostrado baja fiabilidad, la llegada de métodos modernos de inteligencia artificial, combinados con historiales médicos electrónicos, había despertado expectativas sobre su capacidad predictiva.

PUEDE INTERESARTE

Revisión de más de 50 estudios

En esta nueva investigación, los autores llevaron a cabo una revisión sistemática y un metaanálisis de 53 estudios previos que usaron algoritmos para prever suicidio, autolesión o ambos. En conjunto, estos trabajos analizaron más de 35 millones de historiales médicos y casi 250.000 casos de suicidio o autolesión tratados en hospitales.

El equipo halló que los algoritmos mostraban una sensibilidad moderada y una especificidad elevada, es decir, eran eficaces para identificar a quienes no volverían a autolesionarse ni morirían por suicidio, pero fallaban a la hora de detectar a quienes sí lo harían.

PUEDE INTERESARTE

Errores frecuentes en la clasificación

Los investigadores constataron que estos sistemas clasificaron de forma errónea como de bajo riesgo a más de la mitad de quienes posteriormente acudieron a los servicios sanitarios por autolesión o fallecieron por suicidio. Entre quienes fueron catalogados como de alto riesgo, solo un 6 % murió por suicidio y menos del 20 % regresó a los servicios médicos por autolesión.

"Encontramos que las propiedades predictivas de estos algoritmos de aprendizaje automático eran deficientes y no mejores que las de las escalas tradicionales de evaluación de riesgos", señalan los autores. "La calidad general de la investigación en esta área fue deficiente, y la mayoría de los estudios presentaban un riesgo de sesgo alto o incierto. No hay evidencia suficiente para justificar cambios en las recomendaciones de las guías de práctica clínica actuales".

No superan a las herramientas tradicionales

Los expertos añaden: "Existe un creciente interés en la capacidad de la inteligencia artificial y el aprendizaje automático para identificar con precisión a los pacientes con alto riesgo de suicidio y autolesión. Nuestra investigación demuestra que los algoritmos desarrollados pronostican de forma deficiente quiénes se suicidarán o volverán a acudir a los servicios de salud para recibir tratamiento por autolesión, y presentan tasas considerables de falsos positivos".

Asimismo, apuntan: "Muchas guías de práctica clínica en todo el mundo desaconsejan enérgicamente el uso de la evaluación del riesgo de suicidio y autolesión como base para asignar intervenciones eficaces de cuidados posteriores. Nuestro estudio demuestra que los algoritmos de aprendizaje automático no son mejores para predecir la conducta suicida futura que las herramientas tradicionales de evaluación del riesgo en las que se basaron estas guías. No observamos evidencia que justifique modificar estas guías".