Os pesquisadores analisam imagens do estudo em laboratório - Noah Berger/UCSF
Os pesquisadores analisam imagens do estudo em laboratórioNoah Berger/UCSF
Por REVISTA PLANETA

Cientistas americanos decodificaram pela primeira vez palavras e frases pronunciadas em tempo real a partir dos sinais cerebrais que controlam a fala, em um projeto que visa transformar no futuro o modo como pacientes com deficiências graves se comunicam. O avanço, descrito na revista “Nature Communications” e abordado pelo jornal “The Guardian”, é o primeiro a demonstrar como a intenção de dizer palavras específicas pode ser extraída da atividade cerebral e convertida em texto com rapidez suficiente para acompanhar a conversa natural.

“Até o momento, não há um sistema de próteses de fala que permita aos usuários interações na rápida escala de tempo de uma conversa humana”, disse Edward Chang, neurocirurgião da Universidade da Califórnia em San Francisco e principal autor do estudo. O projeto foi concebido no sentido de permitir que pessoas paralisadas se comuniquem com mais fluidez do que é possível com os atuais dispositivos que captam movimentos dos olhos e contrações musculares para controlar um teclado virtual.

Financiado pelo Facebook, o trabalho foi possível graças a três pacientes prestes a passar por neurocirurgia para tratar sua epilepsia. Antes de suas operações serem realizadas, um pequeno conjunto de minúsculos eletrodos foi colocado no cérebro deles (com sua concordância) por pelo menos uma semana, a fim de mapear as origens de suas convulsões.

Chang usou os eletrodos para registrar a atividade cerebral dos pacientes, enquanto sua equipe pedia a cada um deles para ouvir nove perguntas simples (por exemplo, “Como está seu quarto atualmente?” ou “De 0 a 10, quão confortável você está?”) e ler uma lista de 24 possíveis respostas.

Identificação rápida

Munidos das gravações, Chang e sua equipe elaboraram um conjunto de algoritmos de aprendizado de máquina capacitados a combinar padrões específicos de atividade cerebral com as perguntas que os pacientes ouviam e as respostas que davam. Com esse treinamento, o software pôde identificar quase que instantaneamente, baseado apenas em sinais cerebrais, qual pergunta um paciente ouviu (com precisão de 76%) e que resposta ele deu (com precisão de 61%).

“A maioria das abordagens anteriores se concentrou apenas na decodificação da fala, mas aqui mostramos o valor da decodificação de ambos os lados de uma conversa – tanto as perguntas que alguém ouve quanto o que ela diz em resposta”, afirmou Chang. “Isso reforça nossa intuição de que a fala não é algo que ocorre no vácuo e que qualquer tentativa de decodificar o que os pacientes com deficiência de fala estão tentando dizer será melhorada levando em conta o contexto completo em que eles estão tentando se comunicar.”

Em sua forma atual, o software funciona apenas nos casos de determinadas frases para as quais foi treinado. Mas os autores do estudo consideram que ele é um trampolim para um sistema que poderá decodificar em tempo real as palavras que uma pessoa pretende dizer.

Você pode gostar
Comentários