
Lectura musical de la mente: solo con la ayuda de escáneres cerebrales y datos de EEG, es posible decodificar qué música está escuchando una persona de prueba, como muestra un experimento. Una inteligencia artificial adecuadamente entrenada identificó la pieza musical correcta en función de las señales neuronales registradas de forma no invasiva con una tasa de éxito del 71,8 por ciento. Los resultados podrían ser un primer paso en el camino hacia la lectura no invasiva del habla de las ondas cerebrales.
La música está profundamente arraigada en nuestra naturaleza. Cuando escuchamos sonidos familiares, nuestro cerebro los identifica en fracciones de segundo. Las mediciones de ondas cerebrales muestran que la música puede desencadenar un verdadero fuego artificial de señales, acompañado de emociones fuertes y piel de gallina. Varios equipos de investigación ya han analizado lo que las ondas cerebrales pueden revelar al escuchar música, por ejemplo, sobre las emociones de los sujetos de prueba o sobre la música en sí.
Combinación de EEG y fMRI
Ian Daly, de la Escuela de Ciencias de la Computación e Ingeniería Electrónica de la Universidad de Essex en Gran Bretaña, ha demostrado ahora que las ondas cerebrales se pueden usar para saber qué música está escuchando una persona. Por ejemplo, mientras que los estudios anteriores para leer el habla de la actividad cerebral a menudo usaban métodos invasivos como la electrocorticografía (EKoG), para la cual se colocan electrodos en el cráneo, Daly usó datos de mediciones de electroencefalografía (EEG) no invasivas.
Para aumentar la precisión de las predicciones, Daly combinó los datos de EEG con mediciones de imágenes de resonancia magnética funcional (fMRI), que muestran el flujo sanguíneo en el cerebro y, por lo tanto, brindan información sobre qué regiones del cerebro están particularmente activas cuando escucha música en una persona determinada. El investigador utilizó esta información para seleccionar precisamente los datos de EEG para un análisis posterior que correspondía a estas áreas.
Música reconstruida a partir de ondas cerebrales
Los datos provienen de un estudio anterior que originalmente se centró en las emociones de los oyentes de música. Los 18 sujetos incluidos en el análisis habían escuchado 36 piezas breves de música de piano mientras se registraba su actividad cerebral mediante fMRI y EEG. Luego, Daly entrenó un modelo de aprendizaje profundo para decodificar los patrones en el EEG de tal manera que pudiera reconstruir la pieza musical respectiva que el sujeto de prueba había escuchado durante la medición.
De hecho, el modelo pudo reproducir parcialmente el tempo, el ritmo y la amplitud de la música. La similitud con las piezas musicales originales fue lo suficientemente alta como para que el algoritmo pudiera predecir cuál de las 36 piezas musicales había escuchado la persona con una tasa de éxito del 71,8 por ciento.
Diferencias individuales
Para validar los resultados, Daly utilizó una muestra independiente de otros 19 sujetos que también habían escuchado las piezas musicales correspondientes. Dado que solo se disponía de datos de EEG y no de fMRI de estas personas, Daly usó la información de la primera muestra para determinar los datos de EEG relevantes.
---“Incluso en ausencia de datos de fMRI específicos de la persona, pudimos identificar la música que estábamos escuchando solo a partir de los datos de EEG”, informa Daly. Sin embargo, señala que la localización de las reacciones cerebrales relevantes a la música difiere de persona a persona. En consecuencia, si el modelo no podía ajustarse con datos de fMRI específicos de la persona, era menos preciso y solo lograba una tasa de aciertos del 59,2 por ciento.
Objetivo a largo plazo: reconocer el habla
Daly ve su modelo como un primer paso hacia metas más grandes. “Este método tiene muchas aplicaciones potenciales”, dice. “Hemos demostrado que podemos decodificar música, lo que indica que algún día podremos decodificar el habla del cerebro.” Los experimentos han demostrado que esto ya es posible hasta cierto punto. Sin embargo, hasta ahora, esto solo ha funcionado con tecnología invasiva, como electrodos en el cerebro.
Para las personas con síndrome de enclaustramiento que no pueden comunicarse con otras personas debido a la parálisis, esto podría abrirles una puerta de entrada al mundo exterior. “Obviamente, todavía queda un largo camino por recorrer, pero esperamos que algún día, si podemos descifrar el lenguaje con éxito, podamos usarlo para construir ayudas de comunicación”, dice Daly. (Informes científicos, 2023, doi: 10.1038/s41598-022-27361-x)
Fuente: Universidad de Essex
25 de enero de 2023
– Elena Bernardo
Tags: Las ondas cerebrales revelan música escucha sistema utiliza patrones EEG escáneres cerebrales para identificar pieza musical escucha