Inteligencia Artificial

María Vanina, investigadora del CSIC, sobre los 'chatbots' de IA: "No tienen un modelo de realidad de lo que es verdad o mentira"

Carlos Franganillo entrevista a la especialista María Vanina, del Instituto de Investigación de la Inteligencia Artificial, para analizar las polémicas en torno a los 'chatbots'. Informativos Telecinco
Compartir

En las últimas horas, la inteligencia artificial de Elon Musk, Grok, parece haberse contagiado de aquel polémico gesto suyo de hace meses en el que parecía hacer un saludo nazi que, según él, hizo sin intención. Ahora, varias respuestas de su modelo de IA, claramente nazis, han rodeado la dimisión de la consejera delegada de X, Linda Yaccarino.

El sistema respondía a usuarios que Hitler sería el gobernante ideal hoy en día para acabar con un supuesto odio hacia los blancos, e incluso los calificaba de Dios. Para comprender qué esta ocurriendo con estos sistemas y cómo pueden derivar en polémicas afirmaciones, Carlos Franganillo ha entrevistado en Informativos Telecinco a María Vanina Martínez, del Instituto de Investigación de la Inteligencia Artificial del CSIC.

PUEDE INTERESARTE

Tal y como explica la especialista, lo primero que hay que tener en cuenta es saber qué hacen estos modelos. "Estos sistemas, básicamente, lo que hacen es aprender a partir de muchos patrones que se les ha mostrado sobre cómo escriben los humanos. Lo que hacen es predecir la próxima palabra, frase o párrafo más probable", explica Vanina.

"Lo único que tienen es un cálculo matemático muy complejo"

Una cuestión meramente lingüística para la que estas herramientas "funcionan muy bien porque han sido entrenados con mucha cantidad de datos". Sin embargo, "no tienen un modelo de la realidad de los que es verdad o mentira, de lo que es información, mejor o peor información", advierte la experta.

PUEDE INTERESARTE

"Lo único que tienen es un cálculo matemático muy complejo que lo usan para predecir qué es lo más parecido o lo más correcto que deberían generar", insiste Vanina.

En opinión de la especialista, situaciones polémicas como la de Grok suceden porque "nosotros no estamos entendiendo realmente cómo es el funcionamiento y creemos que hay detrás una inteligencia que entendemos propia como la de los humanos", valora.

"Están sesgados por la calidad de datos con los que se entrenan"

La especialista indica que estos sistemas pueden dar lugar a la manipulación para pensar de una forma u otra porque son modelos cerrados. "Es un problema que tenemos sobre todo con los productos comerciales. No sabemos realmente con qué datos han creado sus propietarios el sistema ni cómo han sido diseñados", apunta.

"Aun así, aunque no hubiera intención de parte de de las compañías que lo generan desde un punto de vista los modelos matemáticos están tan fuertemente sesgados por la calidad de los datos con las que se lo entrenan", señala.

Sobre ese aspecto, la especialista incide en que hay que tener en cuenta que "la mayoría de la información que hay en internet está generada por usuarios de EEUU y Europa, y eso deja a un montón de gente y de poblaciones fuera de lo que es la interpretación de estos modelos del mundo", concluye Vanina.