As palavras saíram meio emboladas, mas a música saiu quase perfeita.
[Imagem: Ludovic Bellier/Robert Knight/UC Berkeley]
Depois da cirurgia, usando um software de inteligência artificial, eles conseguiram reconstruir a música a partir das gravações das ondas cerebrais.
Esta é a primeira vez que uma música foi reconstruída a partir de gravações de eletroencefalografia intracraniana.
Não é exatamente "ler os pensamentos", mas a técnica permitiu capturar todos os atributos da música, incluindo tom, ritmo, harmonia e as palavras, analisando apenas a atividade elétrica das regiões do cérebro.
A frase "Contudo, éramos apenas um tijolo na parede" aparece de forma reconhecível na música reconstruída, com seus ritmos intactos. As palavras são meio confusas, mas decifráveis.
[Imagem: Ludovic Bellier et al. - 10.1371/journal.pbio.3002176]
Invasão da mente?
Como essas gravações de eletroencefalografia intracraniana (iEEG) só podem ser feitas a partir da superfície do cérebro - o mais próximo possível dos centros auditivos - ninguém escutará as músicas em sua cabeça tão cedo. Este experimento foi feito com pacientes de epilepsia passando por uma cirurgia para implante de eletrodos no cérebro.
Mas, para as pessoas que têm problemas de comunicação, seja por causa de derrame ou paralisia, essas gravações com eletrodos na superfície do cérebro podem ajudar a reproduzir a musicalidade da fala que falta nas reconstruções robóticas de hoje.
"É um resultado maravilhoso. Uma das coisas para mim sobre a música é que ela tem prosódia e conteúdo emocional. À medida que todo esse campo de interfaces cérebro-máquina progride, isso oferece uma maneira de adicionar musicalidade a futuros implantes cerebrais para pessoas que precisam, alguém que tem ELA [Esclerose Lateral Amiotrófica] ou algum outro distúrbio neurológico ou de desenvolvimento incapacitante que comprometa a produção da fala. Isso dá a você a capacidade de decodificar não apenas o conteúdo linguístico, mas parte do conteúdo prosódico da fala, parte do afeto. Eu acho que realmente começamos a decifrar esse código," disse o Dr. Robert Knight, da Universidade de Berkeley (EUA).
Artigo: Music can be reconstructed from human auditory cortex activity using nonlinear decoding models
Autores: Ludovic Bellier, Anais Llorens, Déborah Marciano, Aysegul Gunduz, Gerwin Schalk, Peter Brunner, Robert T. Knight
Publicação: PLoS Biology
DOI: 10.1371/journal.pbio.3002176