Los riesgos de usar la Inteligencia Artificial como consulta médica: ''ChatGPT tiene la costumbre de darte la razón''
Ignacio Alcalá, divulgador digital y fundador de Red SanitarIA, entra en directo en 'La mirada crítica'
Character.AI prohíbe a los menores el uso de sus chatbots tras el suicidio de un adolescente
Cada vez son más los españoles que recurren al ChatGPT para hacer consultas médicas, de hecho, parece ser que la Inteligencia Artificial se está convirtiendo en el nuevo médico ya que casi 8 de cada 10 españoles la utilizan para realizar sus consultas sobre salud.
Tras conocer lo que está pasando, 'La mirada crítica' ha conectado en directo con Ignacio Alcalá, divulgador digital y fundador de Red SanitarIA, que explica detalladamente cómo está afectando el uso del ChatGPT en el ámbito médico y de la salud.
''Eso tiene un montón de riesgo porque cuando tú le preguntas algo, ChatGPT tiene la costumbre de darte la razón. Así que si le preguntas presuponiendo que tiene una enfermedad, ojo, cuidado, que a lo mejor te da la razón, aunque no la tenga'', comienza advirtiendo.
Ignacio Alcalá continúa: ''A esto se llama sesgo de confirmación y ChatGPT tiene la mala costumbre de hacernos la pelota, así que siempre intenta darnos la razón, todo el rato. Además es muy interesante porque antes, cuando la gente preguntaba a doctor Google, pues te salían a lo mejor 100 páginas y tú podías elegir de dónde creías que venía la información correcta, ahora con ChatGPT te devuelve un trozo de texto y como no te da una alternativa, tienes opción de creértelo o no creértelo y eso todavía es un poquito más peligroso''.
''Aquí entra una palabra muy interesante que son las alucinaciones, es decir, tú le preguntas algo a ChatGPT y te puede responder superconvencido y con una seriedad que parece que efectivamente te lo ha dicho un médico, pero a lo mejor se lo está inventando. Entonces eso es bastante, bastante peligroso. Es como hablar con un borracho a las 3:00h de la mañana en un bar, te habla como con mucha sensación de que es algo cierto, pero se lo puede estar inventando, o sea que, mucho, mucho cuidado con todo esto'', explica sobre los riesgos.
Además, explica que es algo a nivel mundial: ''Esto es un fenómeno que está pasando a nivel global, esta palabra de Inteligencia Artificial suena casi como a ente divino, entonces eso hace que te dé especialmente una falsa sensación de seguridad que no se correlaciona con la realidad. Entonces, eso está pasando en todo el mundo y hay un problema muy importante, y es que incluso nosotros mismos, los profesionales de la salud, todavía no estamos cien por cien preparados para aprender a utilizarlo y, por supuesto, aprender a rebatirles a los pacientes cuando llegan a la consulta después de haber revisado este tipo de aplicaciones, así que se mezclan varias cositas ahí''.
