Atrás La primera plataforma de crowdsourcing de descripción musical pide la colaboración ciudadana para investigar la aplicación de la IA en este ámbito

La primera plataforma de crowdsourcing de descripción musical pide la colaboración ciudadana para investigar la aplicación de la IA en este ámbito

Investigadores del campo de la Inteligencia Artificial (IA) de la Queen Mary University of London y de la UPF están construyendo una base de datos que permitirá el desarrollo de mejores herramientas de descripción musical, pero necesitan la ayuda de los aficionados de la música para hacerlo.

18.04.2023

Imatge inicial

Song Describer es una plataforma colaborativa para que las personas escriban descripciones de música bajo licencia Creative Commons, cosa que permitirá crear una base de datos abierta de música con descripción del lenguaje natural. A medida que la base de datos crezca, servirá para apoyar a los equipos de investigación que estudian las aplicaciones de la inteligencia artificial en este campo, para el desarrollo de sistemas que combinen el lenguaje natural y el procesamiento de audio para generar leyendas musicales automáticamente, entre otras finalidades.

A través de Song Describer, investigadores del C4DM  (Centre for Digital Music) de la Queen Mary University of London y del Music Technology Group (MTG) del Departamento de Tecnologías de la Información y las Comunicaciones (DTIC) de la UPF, están facilitando la recopilación de descripciones textuales de diferentes canciones, donde se explica y valora su género o tono, las emociones evocadas por la melodía o los instrumentos que emplea, entre otros aspectos.

Esta base de datos pública, de más de 10.000 piezas de música con sus descripciones correspondientes, podrá ser utilizada por la comunidad científica para desarrollar, formar y validar modelos de inteligencia artificial en el campo de la descripción musical.

Song Describer es una plataforma de crowdsourcing abierta a cualquier persona interesada a colaborar, sin que sea necesario que tenga conocimientos musicales especializados. Los investigadores piden a la ciudadanía que colabore con el proyecto escribiendo nuevas descripciones de canciones en inglés en la plataforma. Hay premios disponibles para los colaboradores más activos. Alrededor de 100 personas han incluido sus descripciones de canciones hasta ahora.

Para participar, hay que seguir sencillamente estos tres pasos:

1.  Se tiene que crear un perfil que incluya la edad, la ubicación y el nivel de interés en la música de cada participante (sin datos personales). Esta información puede ayudar los investigadores a valorar cómo los factores culturales afectan la forma en que las personas describen las canciones.

2.  Después, habrá que seguir las instrucciones de la plataforma, escuchar canciones y escribir las descripciones correspondientes.

3.  Finalmente, se tendrán que evaluar las descripciones hechas por otros participantes e indicar si se consideran válidas o no y puntuarlas del 1 al 5. Esto se utiliza para el control de calidad, de forma que, si muchas personas invalidan una descripción o le dan una puntuación muy baja, el sistema la descarta.

Ilaria Manco, investigadora del doctorado en inteligencia artificial y música en la Queen Mary University of London, asegura: "El campo de la investigación de la música y el lenguaje está creciendo rápidamente, pero encontrar bases de datos abiertas que sirvan para apoyar el trabajo de investigación en este campo continúa siendo un reto. Por eso, decidimos crear Song Describer, una plataforma de crowdsourcing de código abierto con la que cualquier persona puede contribuir a la construcción de un corpus de músicas aparejadas con sus descripciones en lenguaje natural. Esperamos que los datos recogidos con nuestra plataforma ayuden a desarrollar nuevos modelos de audio-lenguaje para la música y que nos permitan evaluarlos con más detalle”.

Dmitry Bogdanov, investigador del proyecto en el Music Technology Group (en el DTIC de la UPF) añade: “Queremos estudiar la relación entre el audio y estas descripciones textuales y cómo la gente caracteriza la música verbalmente, para desarrollar modelos de aprendizaje automático que generen leyendas musicales para cualquier canción”. En cuanto a los usos de estos sistemas, Bogdanov explica: "Para muchos usuarios, las leyendas musicales pueden ser útiles para navegar por las colecciones de música de una manera innovadora y más intuitiva. Por un lado, la gente podrá buscar música a través de las descripciones textuales generadas automáticamente, y, por otro lado, podrá hacer consultas textuales directamente utilizando el lenguaje natural, por ejemplo, escribiendo en un motor de búsqueda busca baladas lentas con guitarras y voces profundas”.

Sobre el Grupo de Investigación C4DM en la Queen Mary University of London

El Centro de Música Digital C4DM de la Universidad Queen Mary de Londres es un grupo de investigación multidisciplinaria en el campo de la música y la tecnología de audio. Desde que sus miembros fundadores se unieron en la Universidad Queen Mary el 2001, el Centro ha crecido hasta convertirse en el principal grupo de investigación de música digital del Reino Unido. La QML, miembro del prestigioso Russell Group, es una universidad de investigación intensiva que conecta mentes de todo el mundo. Trabaja en los campos de las humanidades y las ciencias sociales, la medicina y la odontología, la ciencia y la ingeniería. La historia de la QML se remonta a 1785 y se basa en cuatro instituciones históricas (London Hospital Medical College, St. Bartholomew's Medical College, Westfield College y Queen Mary College), con la visión compartida de dar oportunidades a los grupos sociales más vulnerables.

Sobre el Music Technology Group del DTIC de la UPF

El Music Technology Group (MTG) forma parte del Departamento de Tecnologías de la Información y las Comunicaciones (DTIC) de la UPF. Se dedica a la investigación de la tecnología musical, incluyendo temas como el procesamiento de señales de audio, la recuperación de información musical, interfaces musicales y musicología computacional. Además de participar en el proyecto Song Describer, el Music Technology Group también fomentó la creación del sitio web Freesound, una base de datos colaborativa y diversa de sonidos de audio bajo licencia Creative Commons, en colaboración con la Fundación Phonos, también ubicada en el campus del Poblenou de la Universidad.

Multimedia

Categorías:

ODS - Objetivos de desarrollo sostenible:

09. Industria, innovación e infraestructura
Els ODS a la UPF

Contact

Para más información

Noticia publicada por:

Oficina de Comunicación