La IA ya reconoce el lenguaje no verbal: se lanza el primer 'traductor' de reacciones emocionales y cognitivas en tiempo real
El diseñador industrial Edgar Sanjuan ha desarrollado un algoritmo capaz de detectar con precisión cómo reacciona una audiencia a un evento o un suceso determinado
De las listas de espera a la detección de cáncer: así ya se aplica la IA en la sanidad española
La IA se entrena en emociones y en el lenguaje verbal: prueba de ello son los múltiples modelos generativos que tenemos a día de hoy. Sin embargo, la comunicación va mucho más allá de las palabras y, en el caso del ser humano, la comunicación no verbal es una de las grandes disciplinas que nos rigen.
Incluso este bastión ya forma parte de lo que los algoritmos son capaces de reconocer --con previo entrenamiento adecuado-- y sin reconocimiento facial ni ningún tipo de obtención de datos de biometría, como pueda ser el caso de la frecuencia cardíaca o la presión sanguínea. Informativos Telecinco ha tenido acceso al funcionamiento de esta herramienta, así como también, ha podido entrevistar a su creador, quién está en pleno proceso de expansión con Emogg --el nombre de la empresa creada alrededor de este algoritmo--.
¿Qué es lo que mide exactamente?
No mide la alegría o la tristeza. Tampoco el enfado o la decepción. A pesar de que nos encontramos en el terreno de las emociones, el algoritmo desarrollado por Sanjuan no se centra en lo que sentimos por dentro: se centra en lo que nuestro cuerpo manifiesta por fuera. Una mueca, levantar una ceja, fruncir el ceño, la posición de las manos o cómo se coloca nuestro cuerpo ante un input externo.
En palabras de su creador: “No es un traductor de emociones, sino que es una herramienta que interpreta las respuestas cognitivas y no verbales de nuestro cuerpo”.
¿Cómo lo mide?
“En un primer momento la idea era la de utilizar pulseras para medir la frecuencia cardíaca. Incluso hicimos pruebas piloto pero nos dimos cuenta que era demasiado intrusivo. La idea de lanzar algo por el estilo surgió años antes de que la IA generativa apareciese en escena”, explica Sanjuan.
Con las herramientas que existen en la actualidad --tanto a nivel de medición como de procesamiento de los datos--, Emogg usa cámaras, pero sin reconocimiento facial.