Vés enrere Les emocions que genera la música, i la nostra manera de percebre-les, estudiades per la intel·ligència artificial

Les emocions que genera la música, i la nostra manera de percebre-les, estudiades per la intel·ligència artificial

Investigadors del Grup de Recerca en Tecnologia Musical (MTG) intenten crear estàndards més complets i precisos sobre els algoritmes per reconèixer les emocions musicals percebudes pels oients. En un futur, aquests algoritmes podrien tenir usos beneficiosos en la regulació emocional amb la música o en aplicacions d'aprenentatge.
19.11.2021

Imatge inicial

La música ha estat molt important al llarg de la història de l'ésser humà i les emocions sempre han estat la raó última de totes les creacions musicals. En escriure una cançó un compositor intenta expressar un sentiment particular, els oients d'un concert poden riure, plorar o sentir calfreds. Utilitzem la música en el nostre dia a dia per regular les nostres emocions o reviure un record. Per això saber reconèixer les emocions que produeix la música ha estat i seguirà sent molt important. Grans plataformes com Spotify o Deezer utilitzen classificacions, generades per algoritmes d'intel·ligència artificial (IA), basades en les emocions que la música genera als oients.

Tot i això, no totes les persones estan d'acord amb el tipus d'emocions, tant les que genera la música en nosaltres com les que percebem en la pròpia música en escoltar-la. Una cançó com “Feliç Aniversari” pot expressar “felicitat” per estar en una escala més gran i tenir un ritme ràpid, però pot generar “tristesa” si recordem una persona que ja no hi és. Cadascú de nosaltres percep de manera molt personal la música i això pot estar influenciat per aspectes tan generals com les preferències musicals, el rerefons cultural, el llenguatge de la cançó, etc.

"El reconeixement de les emocions en la música és una de les tasques més complexes de descripció musical i modelament computacional"

Aquest aspecte és important definir-lo ja que un algoritme d'IA necessita conèixer allò que s'anomena “ground truth” o “etiquetes”. És la base sobre la qual l'algoritme “aprèn”. Per exemple, amb una foto d'un gos de tura a Instagram, és molt probable que tots estiguem d'acord que l'etiqueta sigui “gos”. Però amb una simfonia de Beethoven les etiquetes poden variar des de “feliç” fins a “nostàlgic”, depenent de l'oient i el seu context.

En una recent publicació a la revista IEEE Signal Processing Magazine, investigadors del Grup de la Recerca en Tecnologies Musicals (MTG) de la UPF, juntament amb científics de l'Acadèmia Sinica de Taiwan, la Universitat de Hong Kong, la Universitat de Durham a Regne Unit, entre d'altres, proposen un nou marc de conceptualització que ajuda a caracteritzar la música en termes d'emocions i construir models que s'ajustin més a les característiques de la gent.

"El reconeixement de les emocions en la música és una de les tasques més complexes de descripció musical i modelament computacional", explica l'estudiant de doctorat Juan Sebastián Gómez Cañón, primer autor de l'estudi. “Hi ha força variabilitat de les opinions de les persones i és difícil trobar les raons per les quals la secció d'una cançó pot generar certa emoció. És una tasca molt subjectiva i utilitzar algoritmes d'intel·ligència artificial encara requereix força investigació”.

L'objectiu principal de la investigació era crear una guia sobre el funcionament dels sistemes actuals de reconeixement d'emocions [MER, per les sigles en anglès]. Per això proposen un enfocament en què l'ésser humà es trobi al centre del disseny del sistema per així combatre la problemàtica subjectivitat.

La investigació ha permès als autors proposar aquelles àrees on el camp de recerca necessita aprofundir més, com són l'accessibilitat de les dades en codi obert, la reproductibilitat dels experiments, la rellevància del context cultural de les persones i la necessitat d'estudiar-ne les implicacions ètiques de les possibles aplicacions del reconeixement musical de les emocions. Gómez afegeix que “la majoria de la investigació de música i emocions s'ha realitzat per i per a persones provinents de països Occidentals, Educats, Industrialitzats, Rics i Democràtics (Western, Educated, Industrialized, Rich, and Democratic, WEIRD són les sigles en anglès). És crític anar més enllà per poder avaluar músiques tradicionals no occidentals, recol·lectar dades d'oients diversos i democratitzar aquesta investigació a diferents cultures musicals al món”.

També van incloure propostes per al maneig de les implicacions ètiques per a aquest tipus d'aplicacions, com la privadesa, el biaix dels sistemes a l'oient occidental i l'impacte que poden tenir en el nostre benestar. "Quan un algoritme pugui predir exactament l'emoció que un tipus de música pugui generar, la pregunta més important serà la de com podem assegurar-nos que aquests algoritmes seran utilitzats pel nostre benestar", acaba explicant Gómez.

TROMPA, un projecte de ciència ciutadana

Per poder comprendre millor les nostres opinions sobre les emocions a la música, el Laboratori de Recerca d'Informació Musical de l'MTG, liderat per Emilia Gómez, coautora de l'estudi, està recol·lectant dades utilitzant la ciència ciutadana a través del projecte TROMPA (Towards Richer Online Music Public-Domain Archives). Aquest projecte està finançat pel programa Horizon 2020 de la Unió Europea.

“Hem desenvolupat eines que combinen la intel·ligència artificial amb la intel·ligència humana per connectar repositoris de música de domini públic, fer-los servir per crear aplicacions beneficioses per a diferents comunitats musicals, i enriquir aquests repositoris per al seu ús futur”

TROMPA segueix estant actiu i demana als participants que escoltin un tema musical i anotin amb diferents categories les emocions que aquesta música produeix o expressa. “Amb TROMPA”, comenta Emilia Gómez, “hem desenvolupat eines que combinen la intel·ligència artificial amb la intel·ligència humana per connectar repositoris de música de domini públic, fer-los servir per crear aplicacions beneficioses per a diferents comunitats musicals, i enriquir aquests repositoris per al seu ús futur”.

“Amb la col·laboració de tots, podem crear un model personalitzat que s'ajusti a les seves opinions”, continua explicant Juan Sebastian Gómez, “fem recomanacions musicals de diferents llocs del món (Llatinoamèrica, Àfrica i l'Orient Mitjà). La idea d'aquesta plataforma és que els nostres participants es diverteixin, coneguin música del món i aprenguin una mica més sobre la relació entre la música i l'emoció, així que convidem a tothom a participar-hi!”.

En el projecte hi han participat institucions com la Universitat Tècnica Delft (TUDelft), la Universitat de Music and Performing Arts de Viena, l'Orquestra Reial del Concertgebouw d'Amsterdam i petites empreses com la barcelonina Voctrolabs.

Treball de referència:

J.S. Gómez-Cañón, E. Cano, T. Eerola, P. Herrera, X. Hu, Y.-H. Yang, E. Gómez, “Music Emotion Recognition: Toward new, robust standards in personalized and context sensitive applications,” in IEEE Signal Processing Magazine, vol. 38, no. 6, pp. 106-114, Nov. 2021, doi: 10.1109/MSP.2021.3106232

Multimèdia

ODS - Objectius de desenvolupament sostenible:

09. Indústria, innovació i infraestructures
Els ODS a la UPF

Contact

Per a més informació

Notícia publicada per:

Oficina de Comunicació