Pesquisadores da Universidade de São Francisco desenvolveram uma interface neural que permite que pacientes sem o uso da palavra "falem" através do dispositivo.
É um marco no campo das próteses neurais: o sistema monitora a atividade cerebral e a converte em palavras usando uma voz artificial (como as dos assistentes de voz Google ou Amazon, por assim dizer). O software é muito avançado e contempla uma reconstrução virtual precisa da laringe, língua, lábios e mandíbula.
Por que perdemos nossa palavra?
Os pacientes perdem a capacidade de falar por várias razões: doenças degenerativas, acidentes ou danos cerebrais. As tecnologias já em uso permitem que algumas pronunciem algumas palavras "traduzindo" pequenos movimentos faciais ou usando outros mecanismos que, em qualquer caso, tornam a comunicação muito longa e trabalhosa.
A interface neural estudada em San Francisco traduz diretamente a atividade cerebral em linguagem natural, usando uma infraestrutura que "imita" a maneira como os centros de linguagem coordenam os movimentos do trato vocal.

"A relação entre movimentos do trato vocal e sons das palavras é realmente complexa", dados Gopala Anumanchipalli, um dos pesquisadores envolvidos no projeto. "Pensamos que, se esses centros de linguagem codificam os movimentos e os traduzem de alguma maneira, também podemos fazer essa operação a partir dos sinais do cérebro".
Em que consiste?
Por esse motivo, a equipe criou um traço vocal "virtual" que explora o aprendizado de máquina para produzir sons cada vez mais corretos. Um grupo de voluntários pronuncia frases específicas enquanto sua atividade cerebral é monitorada: a inteligência artificial empregada examina esses sinais e os compara com os movimentos do trato vocal para entender exatamente como eles se traduzem nesse som específico.
"Temos a oportunidade de imitar perfeitamente a linguagem falada" dados Josh Chartier, outro dos pesquisadores. “Já estamos em um estágio muito avançado para sons mais lentos ou mais doces, como 'sh' ou 'z', mas temos dificuldades com os sons truncados 'b' e 'p'. O nível de precisão, no entanto, aumenta a uma velocidade surpreendente, graças ao uso do aprendizado de máquina ".
"Pessoas que não conseguem mexer os braços e as pernas aprenderam a controlar implantes robóticos com o cérebro" Chartier continua. "Estamos confiantes de que um dia as pessoas com problemas de fala aprenderão a falar novamente através desta prótese vocal".
Publicado em Natureza