Na prática, os investigadores criaram um mecanismo capaz de traduzir a atividade cerebral associada à fala em palavras faladas quase em tempo real, anunciam as conclusões do estudo hoje publicadas na revista científica Nature Neuroscience.

Esta investigação resolveu o "velho problema" da latência neuroprotética da fala, ou seja, o tempo que decorre entre o momento em que uma pessoa tenta falar e o momento em que o som é produzido.

Utilizando os últimos avanços em IA, a equipa de cientistas desenvolveu um método de transmissão que sintetiza sinais cerebrais em discurso audível quase em simultâneo.

"A nossa abordagem traz as mesmas capacidades de descodificação rápida de voz de dispositivos como Alexa e Siri para neuropróteses", explicou Gopala Anumanchipalli, um dos investigadores principais do estudo.

De acordo com o cientista, utilizando um tipo de algoritmo semelhante, foi possível descodificar dados neurais e, pela primeira vez, permitir a transmissão de voz quase síncrona. “O resultado é uma síntese de fala mais natural e fluida", salientou Anumanchipalli.

Para Edward Chang, outro dos investigadores da equipa de Berkeley, esta nova tecnologia "tem um enorme potencial" para melhorar a qualidade de vida das pessoas com paralisia grave que afeta a fala.

"É entusiasmante que os últimos avanços na IA estejam a acelerar muito as interfaces cérebro-computador para utilização prática no mundo real num futuro próximo”, afirmou Edward Chang.

No âmbito de um ensaio clínico, as equipas de Chang e Anumanchipalli implantaram a interface cérebro-computador numa mulher de 47 anos com tetraplegia (paralisia dos membros e do tronco) que não conseguiu falar ou vocalizar durante 18 anos, após ter sofrido um acidente vascular cerebral.

Para recolher os dados necessários para treinar o seu algoritmo, os investigadores pediram primeiro à participante que olhasse para uma mensagem no ecrã, como a frase "Olá, como estás?", e depois tentasse pronunciar essa frase silenciosamente.

Implantes cerebrais com IA já estão a ajudar pessoas com paralisia a falarem (quase) normalmente
Implantes cerebrais com IA já estão a ajudar pessoas com paralisia a falarem (quase) normalmente
Ver artigo

Os autores treinaram uma rede neural de aprendizagem profunda, utilizando a atividade cerebral da participante, registada por elétrodos implantados no seu córtex motor da fala, enquanto esta pronunciava internamente frases completas contendo 1.024 palavras únicas.

Este modelo foi então utilizado para descodificar o discurso online, simultaneamente com a intenção vocal da participante, e depois para produzir áudio imitando a sua voz, que tinha sido treinada usando um `clip´ dela a falar antes da lesão.

Cheol Jun Cho, outro autor do artigo, adiantou que a neuroprótese funciona através da recolha de amostras de dados neurais do córtex motor, a parte do cérebro que controla a produção da fala, e depois utilizando a IA para descodificar a função cerebral e convertê-la em fala.

Num estudo anterior deste tipo de dispositivos, os investigadores encontraram uma longa latência de descodificação de cerca de oito segundos para uma única frase.

Com o novo método de transmissão, a saída audível pode ser gerada quase em tempo real, enquanto a pessoa tenta falar, de acordo com um comunicado da Escola de Engenharia da Universidade da Califórnia, em Berkeley.

Veja o vídeo partilhado anteriormente pelos investigadores