Alarma en EEUU por el uso de la Inteligencia artificial Compas y su posible racismo

La alarma se encendió con el programa de Inteligencia artificial Compas, que utilizan algunos jueces en EEUU para evaluar el riesgo de reincidencia.
Robots que bailan, obedecen y deciden: el experto Jon Hernández explica cómo avanza la inteligencia artificial y su futuro
¿Es la inteligencia artificial racista? Sentada en el banquillo de los acusados, una mujer negra, de 18 años, juzgada por robo. La cantidad, unos 80 dólares. Para la IA, su nivel de reincidencia es altísimo: ocho sobre diez. Pero ¿y si cambiamos al acusado? Ahora ponemos a un joven blanco, que robó herramientas valoradas en casi quinientos dólares. ¿Qué reincidencia le dio la Inteligencia Artificial? Un tres sobre diez.
Estos ejemplos son reales y esto está pasando de verdad en juicios de Estados Unidos.
La alarma se encendió con el programa de Inteligencia artificial Compas, que utilizan algunos jueces en EEUU para evaluar el riesgo de reincidencia de los presos y conceder o no permisos. Se demostró que el algoritmo perjudicaba a los afroamericanos. Este caso abrió el debate sobre los sesgos algorítmicos de la IA.
"Acogiéndose al algoritmo se han cometido injusticias enormes de personas a las que se ha despedido porque el algoritmo premiaba cosas que no son importantes", señala la filósofa Adela Cortina.
Y para evitarlo los equipos que diseñan los programas se empieza a contratar a filósofos. Sobre el papel de la filosofía en la IA debate al Fundación Telefónica. "Un filósofo o filósofa sí puede convertirse en un buen juez de instrucción que organice el debate sobre las cosas importantes que hay que deliberar sobre la IA", señala el filósofo Diego Garrocho.
Preguntas para diseñar algoritmos que sean justos a la hora de contratar personas, dar una hipoteca o un seguro médico, porque el futuro es de ellos. "Al contrario que los humanos, los algoritmos no tienen amigos ni enemigos, no se cansan, no necesitan dormir, no son vulnerables a la corrupción", señala Nuria, de la Fundación Ellis, un centro de referencia europeo para construir una inteligencia artifical justa.
Pero sí reproducen los prejuicios humanos porque somos nosotros los que decidimos que datos darles.
