Un equipo de investigación de la Universidad de Málaga ha analizado cómo responde el cerebro al oír distintos géneros musicales y ha clasificado mediante inteligencia artificial las señales eléctricas que se producen en él, diferenciando si lo que se oye es melodía o voz y si gusta lo que se escucha. Los datos obtenidos permiten el desarrollo de aplicaciones que generen listas en función de los gustos o necesidades individuales de cada persona.
Conocer cómo funciona el cerebro ante distintos estímulos y qué zonas concretas se activan ante una determinada circunstancia permite confeccionar herramientas que faciliten la vida rutinaria. De esta manera, los expertos desarrollan en el artículo ‘Energy-based features and bi-LSTM neural network for EEG-based music and voice classification’ publicado en la revista Neural Computing and Applications un avance en la clasificación de las respuestas cerebrales ante diversos géneros y a sonidos de naturaleza diferente: habla y música.
Los expertos han concluido que el cerebro responde de manera distinta ante los diversos estímulos y han identificado esas diferencias según las relaciones entre los niveles de energía de las señales eléctricas que se registran en las diferentes regiones cerebrales. Han observado que éstas cambian según el género musical que se escuche y si gusta o no la canción que suena.
Esto podría permitir el desarrollo de aplicaciones de recomendación musical que irían más allá de las listas de reproducción actuales. «Sabiendo cómo reacciona el cerebro según el estilo que se está escuchando y los gustos del oyente, se puede llegar a afinar más la selección que se propone al usuario» indica a la Fundación Descubre el investigador de la Universidad de Málaga Lorenzo J. Tardón, autor del artículo.
Para ello han definido un esquema de caracterización de la actividad cerebral basado en las relaciones entre las señales eléctricas, adquiridas en diferentes localizaciones por medio de electroencefalografía, y su clasificación mediante el uso de dos tipos de pruebas: binaria y multiclase.
“La primera de ellas utiliza tareas con algoritmos sencillos, donde se diferencian voz hablada y música. La segunda, más compleja, analiza las respuestas cerebrales al escuchar canciones de diferentes géneros musicales: balada, clásica, metal y reguetón. Además, incluye el gusto musical de los sujetos”, añade el investigador.
Las redes neuronales son herramientas de inteligencia artificial para procesar datos de una manera similar al funcionamiento del cerebro humano. Los resultados de este trabajo se obtuvieron mediante la red neuronal conocida como LSTM bidireccional, que aprende relaciones entre los datos, que se pueden interpretar como memoria a largo y corto plazo.
Es un tipo de arquitectura utilizada en aprendizaje profundo que trata la información en dos direcciones diferentes, desde el principio hasta el final y viceversa. De esta manera el modelo reconoce el pasado y el futuro de las referencias incluidas y crea contextos para la clasificación.
Concretamente, la red neuronal utilizada para realizar estas tareas de clasificación consta de 61 entradas que reciben las secuencias de datos con las relaciones de energía entre las diferentes zonas del cerebro. La información se procesa en las sucesivas capas de la red para generar respuestas a las preguntas que se realicen sobre el tipo de contenido sonoro que se escucha, o los gustos de la persona que escucha una pieza musical.
En los ensayos, los voluntarios estaban provistos de unos gorros con electrodos que captan la señal eléctrica del cerebro. Al mismo tiempo, se conectan unos altavoces donde se oirá la música. Se establecen marcas de sincronización para comprobar lo que ocurre en cada momento durante la media hora que duró el experimento.
En la primera prueba, los participantes escucharon de forma aleatoria 20 fragmentos, de 30 segundos de duración, de canciones de diferentes géneros musicales extraídos del estribillo o de la parte más pegadiza. Después de escucharlos, se les preguntó si les gustó, con tres posibles respuestas: ‘me gusta’, ‘me gusta un poco’ o ‘no me gusta la canción’. También si la conocían previamente, pudiendo contestar ‘conozco la canción’, ‘la canción me suena familiar’ o ‘no conozco la canción’.
En la segunda, oyeron 30 frases de manera aleatoria en diferentes idiomas: español, inglés, alemán, italiano y coreano. El objeto de esta segunda prueba es identificar la activación del cerebro en el caso de escuchar voz, independientemente del conocimiento de la lengua utilizada.
Precisamente, los investigadores continúan sus estudios para evaluar otro tipo de sonidos y tareas y la reducción del número de canales del electroencefalograma, lo que permitiría una mayor usabilidad del modelo para otras aplicaciones y entornos.
Este trabajo es parte de los proyectos “TICs aplicadas al análisis de señales cerebrales (EEG) en relación con estímulos auditivos” (PY20_00237) del Plan Andaluz de Investigación, Desarrollo e Innovación (PAIDI 2020) y “Música, voz, sonidos: creación, interacción, gamificación, sonificación e interrelación de audio y señales cerebrales” (PID2021-123207NB-I00) financiado por MCIN/AEI/10.13039/501100011033/FEDER, UE.