Los neurocientíficos lograron recrear ‘Another Brick in the Wall, Part 1’ utilizando inteligencia artificial para descifrar la actividad eléctrica del cerebro. La canción reconstruida de Pink Floyd representa un avance que podría restaurar la musicalidad del habla natural en pacientes con condiciones neurológicas discapacitantes.

Científicos han reconstruido una canción clásica de Pink Floyd a partir de las ondas cerebrales registradas de pacientes que estaban siendo sometidos a cirugía de epilepsia mientras escuchaban la canción.

Investigadores de la Universidad de California, Berkeley (EE. UU.), utilizaron técnicas de inteligencia artificial para decodificar las señales cerebrales, recreando el éxito de 1979 ‘Another Brick In The Wall, Part 1’.

El equipo señaló que esta es la primera vez que los científicos reconstruyen una canción a partir de grabaciones de la actividad cerebral.

Este tipo de traducción algorítmica se ha utilizado para recrear el habla a partir de imágenes de resonancia magnética cerebral, pero no para la música.

Para el estudio, los investigadores analizaron las grabaciones de la actividad cerebral de 29 pacientes en el Albany Medical Center en el estado de Nueva York desde 2009 hasta 2015. Como parte de su tratamiento para la epilepsia, los pacientes tenían una red de electrodos implantados en sus cerebros. Esto creó una oportunidad única para que los neurocientíficos registraran su actividad cerebral mientras escuchaban música. Se utilizaron un total de 2.668 electrodos para registrar toda la actividad cerebral y 347 de ellos estaban específicamente relacionados con la música.

Los científicos dijeron que la famosa frase «En definitiva, es solo otro ladrillo en la pared» es reconocible en la canción reconstruida y los ritmos se mantienen intactos.

«Suena un poco como si estuvieran hablando bajo el agua, pero es nuestro primer intento en esto», dijo Robert Knight, un neurólogo y profesor de psicología de la UC Berkeley en el Instituto de Neurociencia Helen Wills, quien llevó a cabo el estudio junto con el becario posdoctoral Ludovic Bellier.

Según el equipo, los hallazgos, reportados en la revista PLOS Biology, muestran que las señales cerebrales pueden ser traducidas para capturar los elementos musicales del habla (prosodia) – patrones de ritmo, sonido, énfasis e entonación – que transmiten significado que las palabras por sí solas no pueden expresar.

Los científicos creen que su trabajo también puede ayudar a comprender cómo responde el cerebro a la música y podría allanar el camino para nuevos dispositivos protésicos que puedan mejorar la percepción del ritmo y la melodía del habla. Este estudio también representa un avance para los neurocientíficos y neurotecnólogos que desean ayudar a personas con daño neurológico grave, como la esclerosis lateral amiotrófica, la enfermedad neurodegenerativa con la que fue diagnosticado Stephen Hawking. Podría ayudar a personas que han sufrido un derrame cerebral o parálisis, o que tienen otros problemas de comunicación verbal, a comunicarse a través de interfaces cerebro-computadora de una manera que suene más natural.

«Es un resultado maravilloso», dijo Knight.

«Una de las cosas para mí acerca de la música es que tiene prosodia y contenido emocional. A medida que avanza todo este campo de las interfaces cerebro-máquina, esto te brinda una manera de agregar musicalidad a futuros implantes cerebrales para personas que lo necesitan, alguien que tiene ELA u otro trastorno neurológico o de desarrollo discapacitante que compromete la producción de habla. Te brinda la capacidad de decodificar no solo el contenido lingüístico, sino también parte del contenido prosódico del habla, parte del afecto. Creo que es en eso en lo que realmente hemos empezado a descifrar el código».

Fuente:

Europenews

Únete a la comunidad

Más de 16.000 personas se han unido a nuestra newsletter. Prometemos enviarte sólo cosas interesantes.

Gracias por suscribirte.

Share This