Las ondas cerebrales revelan la música que se escucha: el sistema de IA utiliza patrones de EEG y escáneres cerebrales para identificar la pieza musical que se escucha

Las ondas cerebrales revelan la música que se escucha: el sistema de IA utiliza patrones de EEG y escáneres cerebrales para identificar la pieza musical que se escucha
Las ondas cerebrales revelan la música que se escucha: el sistema de IA utiliza patrones de EEG y escáneres cerebrales para identificar la pieza musical que se escucha
---

Lectura musical de la mente: solo con la ayuda de escáneres cerebrales y datos de EEG, es posible decodificar qué música está escuchando una persona de prueba, como muestra un experimento. Una inteligencia artificial adecuadamente entrenada identificó la pieza musical correcta en función de las señales neuronales registradas de forma no invasiva con una tasa de éxito del 71,8 por ciento. Los resultados podrían ser un primer paso en el camino hacia la lectura no invasiva del habla de las ondas cerebrales.

La música está profundamente arraigada en nuestra naturaleza. Cuando escuchamos sonidos familiares, nuestro cerebro los identifica en fracciones de segundo. Las mediciones de ondas cerebrales muestran que la música puede desencadenar un verdadero fuego artificial de señales, acompañado de emociones fuertes y piel de gallina. Varios equipos de investigación ya han analizado lo que las ondas cerebrales pueden revelar al escuchar música, por ejemplo, sobre las emociones de los sujetos de prueba o sobre la música en sí.

Combinación de EEG y fMRI

Ian Daly, de la Escuela de Ciencias de la Computación e Ingeniería Electrónica de la Universidad de Essex en Gran Bretaña, ha demostrado ahora que las ondas cerebrales se pueden usar para saber qué música está escuchando una persona. Por ejemplo, mientras que los estudios anteriores para leer el habla de la actividad cerebral a menudo usaban métodos invasivos como la electrocorticografía (EKoG), para la cual se colocan electrodos en el cráneo, Daly usó datos de mediciones de electroencefalografía (EEG) no invasivas.

Para aumentar la precisión de las predicciones, Daly combinó los datos de EEG con mediciones de imágenes de resonancia magnética funcional (fMRI), que muestran el flujo sanguíneo en el cerebro y, por lo tanto, brindan información sobre qué regiones del cerebro están particularmente activas cuando escucha música en una persona determinada. El investigador utilizó esta información para seleccionar precisamente los datos de EEG para un análisis posterior que correspondía a estas áreas.

Música reconstruida a partir de ondas cerebrales

Los datos provienen de un estudio anterior que originalmente se centró en las emociones de los oyentes de música. Los 18 sujetos incluidos en el análisis habían escuchado 36 piezas breves de música de piano mientras se registraba su actividad cerebral mediante fMRI y EEG. Luego, Daly entrenó un modelo de aprendizaje profundo para decodificar los patrones en el EEG de tal manera que pudiera reconstruir la pieza musical respectiva que el sujeto de prueba había escuchado durante la medición.

Sonograma de la pieza musical escuchada por el sujeto (arriba) y la versión reconstruida a partir de las ondas cerebrales. ©Daly et al. / Informes científicos, CC-by 4.0

De hecho, el modelo pudo reproducir parcialmente el tempo, el ritmo y la amplitud de la música. La similitud con las piezas musicales originales fue lo suficientemente alta como para que el algoritmo pudiera predecir cuál de las 36 piezas musicales había escuchado la persona con una tasa de éxito del 71,8 por ciento.

Diferencias individuales

Para validar los resultados, Daly utilizó una muestra independiente de otros 19 sujetos que también habían escuchado las piezas musicales correspondientes. Dado que solo se disponía de datos de EEG y no de fMRI de estas personas, Daly usó la información de la primera muestra para determinar los datos de EEG relevantes.

---

“Incluso en ausencia de datos de fMRI específicos de la persona, pudimos identificar la música que estábamos escuchando solo a partir de los datos de EEG”, informa Daly. Sin embargo, señala que la localización de las reacciones cerebrales relevantes a la música difiere de persona a persona. En consecuencia, si el modelo no podía ajustarse con datos de fMRI específicos de la persona, era menos preciso y solo lograba una tasa de aciertos del 59,2 por ciento.

Objetivo a largo plazo: reconocer el habla

Daly ve su modelo como un primer paso hacia metas más grandes. “Este método tiene muchas aplicaciones potenciales”, dice. “Hemos demostrado que podemos decodificar música, lo que indica que algún día podremos decodificar el habla del cerebro.” Los experimentos han demostrado que esto ya es posible hasta cierto punto. Sin embargo, hasta ahora, esto solo ha funcionado con tecnología invasiva, como electrodos en el cerebro.

Para las personas con síndrome de enclaustramiento que no pueden comunicarse con otras personas debido a la parálisis, esto podría abrirles una puerta de entrada al mundo exterior. “Obviamente, todavía queda un largo camino por recorrer, pero esperamos que algún día, si podemos descifrar el lenguaje con éxito, podamos usarlo para construir ayudas de comunicación”, dice Daly. (Informes científicos, 2023, doi: 10.1038/s41598-022-27361-x)

Fuente: Universidad de Essex

25 de enero de 2023

– Elena Bernardo

Tags: Las ondas cerebrales revelan música escucha sistema utiliza patrones EEG escáneres cerebrales para identificar pieza musical escucha

 
For Latest Updates Follow us on Google News
 

---

NEXT Los que comen así viven más