https://frosthead.com

Neurocientistas transformaram ondas cerebrais em discurso verbal

A mesma tecnologia que capacita seu assistente móvel conversável poderia, um dia, dar voz àqueles que perderam a capacidade de falar. Como relata Renae Reints para a revista Fortune, os neurocientistas da Universidade de Columbia recentemente fizeram um grande avanço em direção a essa meta futurista, traduzindo com sucesso ondas cerebrais em fala inteligível pela primeira vez.

A pesquisa da equipe, publicada na Scientific Reports, envolve uma abordagem pouco convencional. Em vez de rastrear diretamente os pensamentos para produzir a fala, os pesquisadores registraram padrões neurológicos gerados por sujeitos de teste ouvindo os outros falarem. Essas ondas cerebrais foram alimentadas em um vocoder - um algoritmo de inteligência artificial que sintetiza a fala - e depois convertidas em voz compreensível, embora com som robótico, espelhando as frases ouvidas pelos participantes.

"Nossas vozes ajudam a nos conectar aos nossos amigos, família e ao mundo ao nosso redor, e é por isso que perder o poder da voz devido a lesões ou doenças é tão devastador", afirma a autora do estudo Nima Mesgarani, engenheira do programa de neurobiologia da Columbia. uma afirmação. “Com o estudo de hoje, temos uma maneira potencial de restaurar esse poder. Nós mostramos que, com a tecnologia certa, os pensamentos dessas pessoas poderiam ser decodificados e entendidos por qualquer ouvinte ”.

Vale a pena notar, de acordo com George Dvorsky, do Gizmodo, que os cientistas ainda não descobriram como traduzir diretamente palavras internas, também conhecidas como discurso imaginário, em palavras. Nesse cenário ideal, os indivíduos que utilizavam a tecnologia da fala simplesmente visualizavam o que queriam dizer e esperavam que um sistema de voz artificial verbalizasse esses pensamentos.

O falecido físico britânico Stephen Hawking usou uma versão rudimentar da tecnologia de síntese de fala para se comunicar com os outros. Como Nina Godlewski escreve para a Newsweek, Hawking foi diagnosticado com esclerose lateral amiotrófica (ELA) aos 21 anos. A doença do neurônio motor acabou por reivindicar suas habilidades de fala, forçando-o a usar um clicker para acionar a fala.

Quando Hawking perdeu o uso de suas mãos, ele mudou para um sistema baseado em movimentos faciais; Dvorsky do Gizmodo explica ainda que o cientista usou um interruptor de bochecha conectado a seus óculos para escolher palavras faladas por um sintetizador de voz.

Uma iteração avançada dessa tecnologia omitiria o intermediário, permitindo que os usuários produzissem voz sem a ajuda de um computador ou sistema sensível ao movimento.

Comparativamente, observa Avery Thompson para a Popular Mechanics, o estudo da equipe de Columbia concentra-se em traduzir “conversas escutadas”. Pesquisadores recrutaram cinco pacientes com epilepsia submetidos a uma cirurgia no cérebro e pediram que eles ouvissem uma série de palavras faladas - por exemplo, uma gravação de alguém. contando de zero a nove - enquanto ligado a dispositivos de monitoramento neural.

As ondas cerebrais capturadas por essas ferramentas foram colocadas no vocoder, que sintetizou a fala com a ajuda de uma rede neural treinada, nas palavras de Kristin Houser, do Futurismo, para “limpar” a saída e tornar os sons inteligíveis.

Em seguida, os cientistas pediram 11 outros participantes para ouvir o discurso habilitado para AI. Significativamente, o coautor do estudo Mesgarani aponta na declaração da Columbia, esses indivíduos foram capazes de “entender e repetir” os sons em 75% do tempo - “bem e além” das taxas observadas em quaisquer experimentos anteriores. (Você pode julgar as gravações por si mesmo aqui.)

Em uma entrevista com Dvorsky, do Gizmodo, Mesgarani diz que ele e seus colegas esperam sintetizar frases mais complexas no futuro próximo. Os pesquisadores também querem registrar os sinais cerebrais gerados pelos participantes que estão pensando ou imaginando o ato de falar, em vez de simplesmente ouvir os outros falarem. Finalmente, Mesgarani acrescenta na declaração que a equipe pretende um dia transformar a tecnologia em um implante capaz de traduzir os pensamentos de um usuário diretamente em palavras.

As limitações potenciais da nova pesquisa incluem seu pequeno tamanho da amostra e, de acordo com o neurocientista da Newcastle University Andrew Jackson, que não esteve envolvido no estudo, o fato de que as redes neurais precisariam ser introduzidas em um grande número de sinais cerebrais de cada novo participante. a fim de sintetizar a fala além dos números de zero a nove.

"Será interessante no futuro ver como os decodificadores treinados para uma pessoa se generalizam para outros indivíduos", diz Jackson ao Gizmodo . “É um pouco como os sistemas de reconhecimento de fala iniciais que precisavam ser treinados individualmente pelo usuário, ao contrário da tecnologia de hoje, como Siri e Alexa, que podem dar sentido à voz de qualquer pessoa, novamente usando redes neurais. Só o tempo dirá se essas tecnologias poderiam um dia fazer o mesmo para sinais cerebrais ”.

Neurocientistas transformaram ondas cerebrais em discurso verbal