Inteligencia Artificial

La IA ya reconoce el lenguaje no verbal: se lanza el primer 'traductor' de reacciones emocionales y cognitivas en tiempo real

Inteligencia artificial
Nuevo hito de la inteligencia artificial. Pexels
Compartir

La IA se entrena en emociones y en el lenguaje verbal: prueba de ello son los múltiples modelos generativos que tenemos a día de hoy. Sin embargo, la comunicación va mucho más allá de las palabras y, en el caso del ser humano, la comunicación no verbal es una de las grandes disciplinas que nos rigen.

Incluso este bastión ya forma parte de lo que los algoritmos son capaces de reconocer --con previo entrenamiento adecuado-- y sin reconocimiento facial ni ningún tipo de obtención de datos de biometría, como pueda ser el caso de la frecuencia cardíaca o la presión sanguínea. Informativos Telecinco ha tenido acceso al funcionamiento de esta herramienta, así como también, ha podido entrevistar a su creador, quién está en pleno proceso de expansión con Emogg --el nombre de la empresa creada alrededor de este algoritmo--.

PUEDE INTERESARTE

¿Qué es lo que mide exactamente?

No mide la alegría o la tristeza. Tampoco el enfado o la decepción. A pesar de que nos encontramos en el terreno de las emociones, el algoritmo desarrollado por Sanjuan no se centra en lo que sentimos por dentro: se centra en lo que nuestro cuerpo manifiesta por fuera. Una mueca, levantar una ceja, fruncir el ceño, la posición de las manos o cómo se coloca nuestro cuerpo ante un input externo.

En palabras de su creador: “No es un traductor de emociones, sino que es una herramienta que interpreta las respuestas cognitivas y no verbales de nuestro cuerpo”.

PUEDE INTERESARTE

¿Cómo lo mide?

“En un primer momento la idea era la de utilizar pulseras para medir la frecuencia cardíaca. Incluso hicimos pruebas piloto pero nos dimos cuenta que era demasiado intrusivo. La idea de lanzar algo por el estilo surgió años antes de que la IA generativa apareciese en escena”, explica Sanjuan.

Con las herramientas que existen en la actualidad --tanto a nivel de medición como de procesamiento de los datos--, Emogg usa cámaras, pero sin reconocimiento facial.

El reconocimiento facial reconoce quién es la persona que está en el foco, la máquina sabe identificar al sujeto que tiene delante. “El mejor ejemplo lo podemos ver en las zonas de control de acceso al interior del recinto principal del Mobile World Congress: nos ponemos delante de un escáner que nos identifica”.

Sin embargo, esta nueva herramienta no recolecta los datos. Tampoco pone nombres, edades, géneros, orígenes, direcciones ni nada por el estilo. En el caso de la prueba realizada con Informativos Telecinco sólo aparecía el nombre de “Antoni Mateu” ya que Edgar Sanjuan confeccionó una prueba ex proceso para este reportaje.

“Las cámaras captan a la audiencia como grupo, no como personas individuales. Las reacciones se miden segundo a segundo y de forma colectiva, lo cual nos permite el no almacenaje de datos. No se dan nombres ni datos personales, pues todo queda anonimizado a pesar de que se observen rostros en la multitud”, explica Sanjuan.

¿Cómo se ha entrenado?

La psicología es una de las grandes protagonistas para que este algoritmo funcione. “Utilizamos bancos de imágenes y vídeos que están diseñados para este tipo de entrenamientos y lo combinamos con conocimientos de psicología. Tenemos en nuestro equipo a un entrenador de deportistas de alto rendimiento, lo cual nos ha permitido crear una herramienta que detecta cómo exteriorizamos y reaccionamos”.

Así pues, nueve son los parámetros que se tienen en cuenta a la hora de medir a la audiencia:

1- El foco de la atención

2- La exaltación del público

3- Momentos en los que haya baja energía

4- Seriedad

5- Aversión o desacuerdo

6- Momentos de impacto

7- Abrumación

8- Valencia de reacción positiva, neutra o negativa

9- La carga emocional del público

El resultado del informe de la prueba de Informativos Telecinco dio como resultado un foco de atención del 74,95%; un 17,8% de momentos de exaltación; un 4,62% de momentos de impacto y 1,53% de momentos de seriedad. Todo ello, en un contexto en el que el creador de la herramienta explicaba a esta cadena cómo funciona la propia herramienta.

¿Es posible que se mantenga la privacidad?

Los servidores de la empresa están en Madrid, por lo que nos aseguramos con el cumplimiento de las normativas europeas. Por otro lado, la ejecución de la herramienta se lleva a cabo de forma local en el equipo en el que se haya instalado la aplicación”, explica.

De cara al servidor, Sanjuan ha explicado que existe debido a la necesidad del entrenamiento del propio algoritmo.

Las aplicaciones de este ‘analizador’

Reuniones de empresa, eventos multitudinarios como conciertos o festivales o lugares con mucha concurrencia “para evitar las encuestas de satisfacción, muchas veces sesgadas y con muy poca participación”, explica.

“Queremos saber lo que sienten las personas en su conjunto, en un momento determinado. No queremos recopilar ni cómo se llaman, ni la edad, ni el género. No hay parámetros de este tipo que se almacenen o se reconozcan. Y tampoco queremos perder tiempo en ir uno a uno preguntando en encuestas de satisfacción. Emogg lo mide al segundo y sin almacenar información”.

La normativa Europea, a raja tabla

La RGPD nos incide a la hora de almacenar información de las personas a las que en ese momento analizamos, cosa que no sucede, ya que no guardamos datos de ningún tipo”, explica Sanjuan.

Sin embargo, el hecho de que haya cámaras observando de forma constante sí que es un elemento que se tiene en cuenta: “aunque todavía no está implementado a gran escala, en los lugares en los que hemos testeado el algoritmo, todas las personas que han estado presentes han sido informadas. La IA se tiene que aplicar con ética y con el conocimiento de antemano”, concluye.