Un estudio revela si la música generada por inteligencia artificial emociona más que la compuesta por humanos
La música generada por IA provocó una mayor dilatación pupilar, más parpadeo y cambios en la piel: se asocian a una mayor carga cognitiva
Crear música más allá de lo tradicional: de la inteligencia artificial a las melodías con códigos de barras
BarcelonaLa inteligencia artificial está transformando el mundo de la creatividad y la música no es una excepción, tal y como ha analizado la Universidad Autónoma de Barcelona en un estudio que concluye que la música generada por IA puede emocionar más que la compuesta por humanos.
La investigación compara cómo reaccionan las personas al ver vídeos acompañados por diferentes tipos de música. Durante el experimento, 88 participantes visualizaron clips audiovisuales con la misma imagen pero tres condiciones sonoras diferentes: creada por humanos, generada por IA con instrucciones complejas y detalladas, y generada por IA con instrucciones menos detalladas.
De este modo, los participantes visualizaban los clips, midiendo sus reacciones fisiológicas, como la dilatación de pupilas, el parpadeo y la respuesta galvánica de la piel, así como sus respuestas emocionales tal y como ellos mismos las describían.
Mayor parpadeo, dilatación pupilar y cambios en la piel
"Los resultados del experimento fueron reveladores", destaca la Universidad Autónoma de Barcelona sobre el estudio donde la música generada por IA provocó una mayor dilatación pupilar: "Indica un nivel más elevado de activación emocional".
Asimismo, la generada mediante prontos sofisticados provocó más parpadeo y cambios en la piel, que se asocian a una mayor carga cognitiva; es decir, se observaron diferencias en el impacto generado por la música con IA según la complejidad del prompt utilizado. Desde el punto de vista emocional, los participantes describieron la música de IA como más excitante, aunque la música humana fue percibida como más familiar.
Estos hallazgos podrían tener implicaciones significativas para el futuro de la producción audiovisual, especialmente en lo que se refiere a la personalización de la música según la narrativa visual, la economía de recursos en procesos creativos y la posibilidad de ajustar el impacto emocional del contenido con mayor precisión mediante herramientas automatizadas.