ChatGPT ahora responde preguntas de salud: un experto explica por qué no deberías compartirle tu historial médico
La IA en sanidad gana cada vez más terreno: ahora los usuarios tienen la posibilidad de realizar consultas de salud con el chatbot de OpenAI
ChatGPT lanza su propio 'Google': "Es como esperamos que la gente use internet en el futuro"
Ha nacido ChatGPT Health, una nueva iteración del asistente de IA con la que podremos realizar consultas relacionadas con la salud y el bienestar. La compañía liderada por Sam Altman clama por el hecho de que "el objetivo no es sustituir" a los profesionales sanitarios, aunque los expertos claman en pos de la ciberseguridad y piden no compartir nuestro historial médico con la aplicación.
No obstante, ¿cuál es la diferencia entre ChatGPT y ChatGPT Health? Del mismo modo que cualquier otra aplicación específica, esta última consiste de un modelo formateado expresamente para el ámbito de la salud. De la mano de profesionales y conocimientos médicos, se ha adaptado para que entienda mejor el contexto de las preguntas y pueda ofrecer respuestas más acertadas que el modelo genérico que veníamos usando hasta ahora.
Más allá de los datos que forman parte de nuestro historial médico, este nuevo espacio también permite conectar información de aplicaciones de salud --como puedan ser los pasos, calorías quemadas o seguimiento del sueño--. Sin embargo, una cosa son estas métricas recogidas por los dispositivos que usamos de forma cotidiana y otra muy distinta es el historial médico como tal. ¿Cuáles son los riesgos que corremos de compartir esta información más sensible con la IA?
¿Por qué no es buena idea compartir el historial con ChatGPT?
Informativos Telecinco ha contactado con el departamento de IA de ASHO, empresa health-tech especializada en codificación sanitaria. Desde ahí, lo primero que explican es que "la información de los pacientes se almacenan en sitios seguros y bajo los reglamentos de protección de datos, y en Europa, todo pasa por la RGPD".
Además, explican el papel de la propia codificación como primera capa de seguridad: "el sistema CIE-10 es el actual estándar para catalogar información sanitaria. La intención es evitar que terceras personas sin autorización y sin los conocimientos necesarios puedan consultar los datos catalogados de las personas que reciben atención en hospitales y centros sanitarios".
La ciberseguridad, en el punto de mira
El grupo de expertos también pone el foco en la ciberseguridad, más allá del reglamento de protección de datos. ¿Cómo es posible que se mantenga la privacidad de los datos en plena era de la interconexión?
"En los hospitales se aplican medidas como el cifrado de extremo a extremo, la anonimización de los datos pata la investigación, así como también, protocolos estrictos de acceso sólo para profesionales autorizados".
Desde el momento en el que nosotros, como usuarios, estamos compartiendo el historial --a pesar de que sea nuestra información-- con OpenAI, estos datos ya forman parte de la base para el entreno de los algoritmos por parte de la compañía.
La precisión de los modelos, otra de las grandes bazas
Los algoritmos de inteligencia artificial generativa no son perfectos. Los errores de precisión en los datos que presenta; recomendaciones que a veces no son precisas o fuentes que no existen. Estos son algunos de los principales ejemplos de cómo esta tecnología puede equivocarse.
En el terreno de la salud, son los profesionales sanitarios quiénes diagnostican o deciden las pautas a seguir. Incluso, si se trata de la detección de enfermedades, desde ASHO explican que "la IA ayuda a detectar patrones o elementos concretos de una manera mucho más precisa que el ojo humano, gracias a la potencia de cálculo y a la capacidad de procesamiento. Pero es siempre el médico quién tiene la última palabra".