Inteligencia Artificial

La dificultad de borrar datos sensibles en IA: "No hay un método que garantice un olvido irreversible"

Imagen de archivo de Inteligencia Artificial. Freepik
Compartir

TarragonaInvestigadores de la Universidad Rovira i Virgili de Tarragona han estudiado la efectividad de las técnicas de desaprendizaje en modelos de inteligencia artificial. Un análisis que revela que "actualmente no hay un método que garantice un olvido total e irreversible, más allá de entrenar el modelo de nuevo sin los datos de los que se quiere prescindir, un proceso muy costoso e ineficiente".

Esta limitación de desaprendizaje supone "un conflicto con el derecho al olvido, garantizado por la legislación europea, que obliga a eliminar los datos personales de las personas si lo solicitan", por lo que defienden como solución a esta incompatibilidad el diseño de nuevas formas de entrenar los modelos que faciliten el olvido con garantías.

PUEDE INTERESARTE

Las estrategias analizadas buscan eliminar datos personales, "pero también incorrectos o discriminatorios", de los modelos de lenguaje extensos como ChatGPT, Mixtral, Bard o Copilot, entre otros. El rendimiento de los modelos de inteligencia artificial, también llamados modelos de lenguaje extensos (MLE), depende de los datos con los que han sido entrenados.

Por ello, las compañías que los gestionan les alimentan con toda la información que pueden para hacerlos más potentes y, sobre todo, mejores que los de la competencia con modelos con miles de millones de parámetros. "En algunos casos incluso saben cosas que, por varios motivos, no conviene que sepan", explica Josep Domingo, investigador del Departamento de Ingeniería Informática y Matemáticas y coautor de la investigación.

PUEDE INTERESARTE

Derecho al olvido

El Reglamento general de protección de datos de la Unión Europea recoge, entre otros aspectos, el derecho al olvido. Por tanto, a raíz de cualquier petición de eliminar datos personales de sus sistemas, los gestores de esta información deben prescindir de ellos: "Esto incluye a todas las compañías con modelos de IA que operan en Europa. Sin embargo, la forma en que se han configurado estos modelos hace que eliminar datos específicos sea un reto técnico mucho más complejo de lo que podría parecer".

Los resultados del estudio también ponen de manifiesto el conflicto entre la legislación y la tecnología disponible, por lo que es posible eliminar datos personales de los modelos de IA, pero las técnicas que ofrecen garantías son "costosas": "Si la gente ve que estos modelos contienen datos personales y empieza a haber peticiones para que las olviden, podrían tener problemas".