Atrás Las emociones que genera la música, y nuestra forma de percibirlas, estudiadas por la inteligencia artificial

Las emociones que genera la música, y nuestra forma de percibirlas, estudiadas por la inteligencia artificial

Investigadores del Grupo de Investigación en Tecnología Musical tratan de crear estándares más completos y precisos sobre los algoritmos que intentan reconocer las emociones musicales percibidas por los oyentes. En un futuro estos algoritmos podrían tener usos beneficiosos en la regulación emocional con la música o en aplicaciones de aprendizaje.  
19.11.2021

Imatge inicial

La música ha sido muy importante a lo largo de la historia del ser humano y las emociones han sido siempre la razón última de todas las creaciones musicales. Al escribir una canción un compositor intenta expresar un sentimiento particular, los oyentes de un concierto pueden reír, llorar o sentir escalofríos. Utilizamos la música en el día a día para regular nuestras emociones o revivir un recuerdo. Por esta razón saber reconocer las emociones que produce la música ha sido y seguirá siendo muy importante. Grandes plataformas como Spotify o Deezer utilizan clasificaciones, generadas por algoritmos de inteligencia artificial (IA), basadas en las emociones que la música genera en los oyentes. 

Sin embargo, no todas las personas están de acuerdo en el tipo de emociones, tanto las que genera la música en nosotros como las que percibimos en la propia música al escucharla. Una canción como “Feliz Cumpleaños” puede expresar “felicidad” por estar en una escala mayor y tener un ritmo rápido, pero puede generar “tristeza” si nos acordamos de una persona que ya no está. Cada uno de nosotros percibe de manera muy personal la música y esto puede estar influenciado por aspectos tan generales como las preferencias musicales, el trasfondo cultural, el lenguaje de la canción, etc. 

Este aspecto es importante definirlo pues un algoritmo de IA necesita conocer lo que se llama “ground truth” o “etiquetas”. Es la base sobre la que el algoritmo “aprende”. Por ejemplo, con una foto de un perro labrador en Instagram, es muy probable que todos estemos de acuerdo con que la etiqueta sea “perro”. Pero con una sinfonía de Beethoven las etiquetas pueden variar desde “feliz” hasta “nostálgico”, dependiendo del oyente y su contexto.

“El reconocimiento de las emociones en la música es una de las tareas más complejas de descripción musical y modelamiento computacional”

En una reciente publicación en la revista IEEE Signal Processing Magazine, investigadores del Grupo de la Investigación en Tecnologías Musicales (MTG) de la Pompeu Fabra, junto con científicos de la Academia Sinica de Taiwan, la Universidad de Hong Kong, la Universidad de Durham en Reino Unido, entre otros, proponen un nuevo marco de conceptualización que ayuda a caracterizar la música en términos de emociones y así construir modelos que se ajusten más a las características de la gente.

“El reconocimiento de las emociones en la música es una de las tareas más complejas de descripción musical y modelamiento computacional”, explica el estudiante de doctorado Juan Sebastián Gómez Cañón, primer autor del estudio. “Hay bastante variabilidad de las opiniones de las personas y es difícil encontrar las razones por las que la sección de una canción puede generar cierta emoción. Es una tarea muy subjetiva y utilizar algoritmos de inteligencia artificial aún requiere bastante investigación”.

El objetivo principal de la investigación era el de crear una guía sobre el funcionamiento de los sistemas actuales de reconocimiento de emociones [MER, por sus siglas en inglés]. Por eso proponen un enfoque en que el ser humano se encuentre en  el centro del diseño del sistema para así combatir la problemática subjetividad.

La investigación ha permitido a los autores proponer aquellas áreas donde el campo de investigación necesita profundizar, como son la accesibilidad de los datos en código abierto, la reproducibilidad de los experimentos, la relevancia del contexto cultural de las personas y la necesidad de estudiar las implicaciones éticas de las posibles aplicaciones del reconocimiento musical de las emociones. Gómez añade que “la mayoría de la investigación de música y emociones se ha realizado por y para personas provenientes de países Occidentales, Educados, Industrializados, Ricos y Democráticos (Western, Educated, Industrialized, Rich, and Democratic, WEIRD son sus siglas en inglés). Es crítico ir más allá para poder evaluar músicas tradicionales no occidentales, recolectar datos de oyentes diversos y democratizar esta investigación a diferentes culturas musicales en el mundo”.

También incluyeron propuestas para el manejo de las implicaciones éticas para este tipo de aplicaciones, como la privacidad, el sesgo de los sistemas al oyente occidental y el impacto que pueden tener en nuestro bienestar. “Cuando un algoritmo pueda predecir exactamente la emoción que un tipo de música pueda generar, la pregunta más importante será la de cómo podemos asegurarnos que estos algoritmos serán utilizados para nuestro bienestar”, termina explicando Gómez.

TROMPA, un proyecto de ciencia ciudadana

Para poder comprender mejor nuestras opiniones acerca de las emociones en la música, el Laboratorio de Investigación de Información Musical del MTG, liderado por Emilia Gómez, coautora del estudio, está recolectando datos utilizando la ciencia ciudadana a través del proyecto TROMPA (Towards Richer Online Music Public-Domain Archives). Este proyecto está financiado por el programa Horizon 2020 de la Unión Europea. 

TROMPA sigue estando activo y pide a los participantes que escuchen un tema musical y anoten con diferentes categorías las emociones que esta música produce o expresa.“Con TROMPA”, comenta la doctora Emilia Gómez, “hemos desarrollado herramientas que combinan la inteligencia artificial con la inteligencia humana para conectar  repositorios de música de dominio público, usarlos para crear aplicaciones beneficiosas para diferentes comunidades musicales, y enriquecer dichos repositorios para su uso futuro”.

“Hemos desarrollado herramientas que combinan la inteligencia artificial con la inteligencia humana para conectar  repositorios de música de dominio público, usarlos para crear aplicaciones beneficiosas para diferentes comunidades musicales, y enriquecer dichos repositorios para su uso futuro”

“Con la colaboración de todos, podemos crear un modelo personalizado que se ajuste a sus opiniones”, continúa explicando Juan Sebastian Gómez, “hacemos recomendaciones musicales de diferentes lugares del mundo (Latinoamérica, África y el Medio Oriente). La idea de esta plataforma es que nuestros participantes se diviertan, conozcan música del mundo y aprendan un poco más sobre la relación entre la música y la emoción, así que los invitamos a todos a que participen!”.

En el proyecto han participado instituciones como la Universidad Técnica Delft (TUDelft), la University of Music and Performing Arts de Viena, la Orquesta Real del Concertgebouw de Ámsterdam y pequeñas empresas como la barcelonina Voctrolabs.

Trabajo de referencia:

J.S. Gómez-Cañón, E. Cano, T. Eerola, P. Herrera, X. Hu, Y.-H. Yang, E. Gómez, “Music Emotion Recognition: Toward new, robust standards in personalized and context sensitive applications,” in IEEE Signal Processing Magazine, vol. 38, no. 6, pp. 106-114, Nov. 2021, doi: 10.1109/MSP.2021.3106232

Multimedia

ODS - Objetivos de desarrollo sostenible:

09. Industria, innovación e infraestructura
Els ODS a la UPF

Contact

Para más información

Noticia publicada por:

Oficina de Comunicación