María Vanina, investigadora del CSIC, sobre los 'chatbots' de IA: "No tienen un modelo de realidad de lo que es verdad o mentira"
Carlos Franganillo entrevista a la especialista del Instituto de Investigación de la IA del CSIC para analizar las polémicas de este tipo de chatbots
La IA de Musk elimina las publicaciones antisemitas de Grok por ser "inapropiadas"
En las últimas horas, la inteligencia artificial de Elon Musk, Grok, parece haberse contagiado de aquel polémico gesto suyo de hace meses en el que parecía hacer un saludo nazi que, según él, hizo sin intención. Ahora, varias respuestas de su modelo de IA, claramente nazis, han rodeado la dimisión de la consejera delegada de X, Linda Yaccarino.
El sistema respondía a usuarios que Hitler sería el gobernante ideal hoy en día para acabar con un supuesto odio hacia los blancos, e incluso los calificaba de Dios. Para comprender qué esta ocurriendo con estos sistemas y cómo pueden derivar en polémicas afirmaciones, Carlos Franganillo ha entrevistado en Informativos Telecinco a María Vanina Martínez, del Instituto de Investigación de la Inteligencia Artificial del CSIC.
Tal y como explica la especialista, lo primero que hay que tener en cuenta es saber qué hacen estos modelos. "Estos sistemas, básicamente, lo que hacen es aprender a partir de muchos patrones que se les ha mostrado sobre cómo escriben los humanos. Lo que hacen es predecir la próxima palabra, frase o párrafo más probable", explica Vanina.
"Lo único que tienen es un cálculo matemático muy complejo"
Una cuestión meramente lingüística para la que estas herramientas "funcionan muy bien porque han sido entrenados con mucha cantidad de datos". Sin embargo, "no tienen un modelo de la realidad de los que es verdad o mentira, de lo que es información, mejor o peor información", advierte la experta.
"Lo único que tienen es un cálculo matemático muy complejo que lo usan para predecir qué es lo más parecido o lo más correcto que deberían generar", insiste Vanina.
En opinión de la especialista, situaciones polémicas como la de Grok suceden porque "nosotros no estamos entendiendo realmente cómo es el funcionamiento y creemos que hay detrás una inteligencia que entendemos propia como la de los humanos", valora.
"Están sesgados por la calidad de datos con los que se entrenan"
La especialista indica que estos sistemas pueden dar lugar a la manipulación para pensar de una forma u otra porque son modelos cerrados. "Es un problema que tenemos sobre todo con los productos comerciales. No sabemos realmente con qué datos han creado sus propietarios el sistema ni cómo han sido diseñados", apunta.
"Aun así, aunque no hubiera intención de parte de de las compañías que lo generan desde un punto de vista los modelos matemáticos están tan fuertemente sesgados por la calidad de los datos con las que se lo entrenan", señala.
Sobre ese aspecto, la especialista incide en que hay que tener en cuenta que "la mayoría de la información que hay en internet está generada por usuarios de EEUU y Europa, y eso deja a un montón de gente y de poblaciones fuera de lo que es la interpretación de estos modelos del mundo", concluye Vanina.