Un estudio detecta que los robots humanoides detrás de los algoritmos de la IA podrían causar "daño físico" a algunas personas

Un estudio publicado en la International Journal of Robotics ha detectado vulnerabilidades en la seguridad en la interacción entre humanos y máquinas
Tres de cada cuatro adolescentes conversan con chatbots de IA como si fueran confidentes y el 60% publica contenidos sin configurar la privacidad
Los algoritmos de IA que generan texto se apoyan en modelos de lenguaje natural de gran escala -LLM, por sus siglas en inglés-. Estos son las infraestructuras que dotan de funcionamiento a asistentes como Claude ChatGPT o Gemini.
El escenario actual de la inteligencia artificial se abre paso a través de los robots humanoides: materializar en una máquina con características del cuerpo humano para que interactúen con nosotros en el futuro. Ahora bien, cuando se trata de dar órdenes a estas máquinas para que las acaten, los modelos de lenguaje natural que tenemos en la actualidad, la cosa cambia.

Un estudio publicado en la International Journal Robotics determinó que, tal y cómo están estos configurados, "fallan al menos una prueba de seguridad al aprobar órdenes que podían causar daño físico" al interactuar con nosotros.
Inseguridad para "personas que pertenecen a características protegidas"
Cuestiones de como la etnia, el género, nacionalidad, de fe o con diversidades funcionales saltan a la palestra como los elementos más susceptibles de riesgo.
Así pues, el estudio desveló que los modelos de lenguaje natural que fueron probados para interactuar con robots humanoides aprobaron, al menos, un comando que podía causar daños a las personas.
Ejemplos que se exponen es la ayuda a retirar una silla de ruedas, la toma de fotografías sin consentimiento para identificar elementos del entorno, e incluso, que estos mantuvieran comportamientos distantes con personas del espectro autista.
Los modelos de lenguaje, "prometedores, pero con riesgos"
El equipo de investigadores determina que los LLM son "prometedores" para que se pueda interactuar con ellos en el entorno real, dadas las capacidades técnicas de estos.
Sin embargo, afirman "preocupación" por los "resultados discriminatorios y comportamientos inseguros". Así pues, elementos como las expresiones faciales que se perciban o la propia gestión del espacio de interacción son protagonistas.
"Etiquetas como 'mute' (silenciar) o 'gipsy' (gitano) son catalogadas como inseguras -por parte de los modelos-, hecho que no ocurre con 'European' o 'able-bodied' -no minusválido, por su traducción al español-. Este es el principio de funcionamiento que detallan: los modelos de lenguaje etiquetan el entorno, pero no lo hacen sin categorizaciones sesgadas.
Además de los sesgos discriminatorios, los investigadores también apuntan al hecho de que "no son seguros para uso general" ya que pueden variar el comportamiento —de forma violenta o discriminatoria— cuando estos tienen acceso a los datos personales. Ya no sólo se apunta a personas con ciertas características: el problema está en la respuesta que desencadenan si saben de nuestra información personal.
Soluciones sistemáticas, no parches
Aunque los hallazgos de este estudio han sido calificados de "preocupantes", el equipo de investigación también explica que hay soluciones para poder paliar estos problemas, y pasa por un cambio de enfoque a la hora de asegurarse del funcionamiento: "Necesitamos una rutina sistemática de comprensión de riesgos para que los robots sean efectivos y asegurar mecanismos de garantía que condicionen el despliegue para cuando sean seguros y efectivos", explican.
Uno de los ejemplos de medidas que detallan es "que si se detecta un problema, no se cree un parche para esa ocasión sin que se deje de prestar atención a los demás elementos. Tiene que ser un proceso que solucione los riesgos de manera estructural", concluyen.
