Gemma Barberà, investigadora de la primera IA que permite a las personas sordas hablar por radio: "Convierte en sonido lo que se dice con las manos"

Una foto de la demo de la herramienta. Sorensen
Compartir

Una estudiante de cuarto grado de periodismo de la Universitat Pompeu Fabra de Barcelona ha sido la encargada de desarrollar este proyecto pionero en base a su propia experiencia. Su sordera le permitía seguir con todas las materias, pero el bastión llegaba con la asignatura de radio. 

Ante esta situación, y según explica a la web de 'Informativos Telecinco' Gemma Barberà, investigadora del proyecto SignarIA y profesora del Departamento de Traducción y Ciencias del lenguaje de la Universitat Pompeu Fabra de Barcelona, la misma alumna se preguntó cómo podía conseguir que una persona que "sólo habla lengua de signos pudiese tener voz antes los micros".

PUEDE INTERESARTE

La inteligencia artificial, “el motor” que lo hace posible

“Tenemos repositorios de imágenes grabadas en lengua de signos catalana para el entreno de un algoritmo de estas características. Con los conocimientos adquiridos y junto con nuevas grabaciones en dicha lengua, hemos construido la base del entreno”, explica Barberà.

Además, también pone encima de la mesa la cuestión de la ‘simbiosis’ entre capacidades técnicas y los conocimientos humanos: “La IA, por sí sola, no hubiese hecho nada. Pero combinada con nuestros recursos hemos podido crear una herramienta que interpreta los signos y, gracias al contexto que se le da y a voces pregrabadas, se puede convertir en sonido lo que se dice con las manos”. 

PUEDE INTERESARTE

Así funciona la primera IA que ‘traduce’ a sonido

Por una parte está el ordenador —junto con el programa— que observa a la persona que habla en lengua de signos. En tiempo real, y con una latencia de a penas dos segundos, se obtienen tres transcripciones diferentes del mismo contenido, pero con diferentes enfoques dependientes del contexto de la información y de la conversación.

Después la persona usuaria selecciona el texto que mejor se adapta a las circunstancias. Finalmente, ese texto se narra por una voz ya grabada. En el caso de la estudiante de periodismo, “la voz fue cedida por su prima, ya que en todo momento queremos respetar las características del lenguaje en cuanto a dialéctica, fonética y de localización”, explica Barberà. “Podríamos tener una voz que sonase estándar, pero el objetivo es que todo el mundo, además de tener su propia voz, lo haga con las características identitarias de la región donde pertenece”, señala.

El primer “banco de voces”

España es el primer país del ranking global en donaciones de órganos. Pero, ¿qué tiene que ver esto con la radio y la IA? En esta línea, Barberà relata cómo “ha surgido una nueva línea derivada del proyecto principal de SignarIA”.

“Queremos crear una plataforma donde las personas que quieran puedan ser donantes de voz. La idea es tener cuantos más timbres, tonos, acentos, pronunciaciones y riqueza dialectal posible para que, a partir de estas, las personas sordas que hablen lengua de signos puedan elegir su voz, o bien, crearse la suya a partir del material existente”.

A este escenario se le ha de sumar el componente del “entrenamiento en casa”. Balsera así lo ilustra: “la idea es que la herramienta se pueda entrenar desde casa y de forma muy sencilla. Nuestra voz forma parte de nuestra identidad y queremos que todo el mundo la pueda adaptar a sus propias características y necesidades”.