La inteligencia artificial aprende sobre lenguaje a través de los ojos y oídos de un niño

Los resultados de una investigación de la Universidad de Nueva York servirá para desarrollar sistemas de IA que usen el lenguaje de forma más parecida a la humana
Los actuales sistemas de IA, como Chat GPT-4, ya pueden aprender y utilizar el lenguaje humano
Apple confirma que está trabajando en características de IA generativa
La Inteligencia Artificial cada vez está más presente en nuestras vidas, en la medicina, en la educación, en la economía. Ahora un grupo de investigadores ha dado un paso un nuevo paso en el aprendizaje del lenguaje humano por parte de las máquinas. El modelo de aprendizaje automático de IA se ha nutrido con videos y audios grabados a un bebé desde los seis meses hasta su segundo cumpleaños, ha aportado nuevos conocimientos sobre la adquisición del habla en la infancia.
Entre los seis y los nueve meses de edad, los niños aprenden sus primeras palabras y empiezan a relacionarlas con objetos y conceptos del mundo real. Cuando tienen entre 1,5 y dos años, la mayoría puede comprender una media de 300 palabras. Sin embargo, no se sabe bien cómo las adquieren y las relacionan con sus equivalentes visuales, según ha publicado la web de SINC.
Comprender mejor este proceso podría servir de base a los sistemas de inteligencia artificial (IA) de nueva generación que desarrollan vínculos entre las palabras y las representaciones visuales.
Los actuales sistemas de IA, como Chat GPT-4, ya pueden aprender y utilizar el lenguaje humano, pero lo hacen a partir de cantidades astronómicas de datos lingüísticos, mucho más de lo que reciben los niños cuando aprenden a entender y hablar. Los mejores sistemas de IA se entrenan con textos que contienen billones de palabras, mientras que los niños solo reciben millones al año.
Debido a esta enorme laguna de datos, los investigadores se han mostrado escépticos ante la posibilidad de que los recientes avances de la IA puedan decirnos mucho sobre el aprendizaje y el desarrollo del lenguaje humano.
Para avanzar en este ámbito, un equipo de la Universidad de Nueva York (NYU, por sus siglas en inglés) decidió desarrollar un nuevo modelo de aprendizaje automático, no a partir de datos masivos, sino tomando como ejemplo la experiencia de cómo aprende a hablar un único niño, al que llamaron bebé S. Los resultados del estudio se publican ahora en 'Science'.
Entrenar a la IA a través de los ojos y oídos de un bebé
Los autores diseñaron un experimento que consistió en entrenar un sistema de IA multimodal a través de los ojos y los oídos de bebé S. Para ello utilizaron grabaciones de vídeo de una cámara frontal que recogieron desde que tenía seis meses hasta su segundo cumpleaños. Y examinaron si el modelo podía aprender palabras y conceptos presentes en la experiencia cotidiana de un niño.