
Na prática, os investigadores criaram um mecanismo capaz de traduzir a atividade cerebral associada à fala em palavras faladas quase em tempo real, anunciam as conclusões do estudo hoje publicadas na revista científica Nature Neuroscience.
Esta investigação resolveu o "velho problema" da latência neuroprotética da fala, ou seja, o tempo que decorre entre o momento em que uma pessoa tenta falar e o momento em que o som é produzido.
Utilizando os últimos avanços em IA, a equipa de cientistas desenvolveu um método de transmissão que sintetiza sinais cerebrais em discurso audível quase em simultâneo.
"A nossa abordagem traz as mesmas capacidades de descodificação rápida de voz de dispositivos como Alexa e Siri para neuropróteses", explicou Gopala Anumanchipalli, um dos investigadores principais do estudo.
De acordo com o cientista, utilizando um tipo de algoritmo semelhante, foi possível descodificar dados neurais e, pela primeira vez, permitir a transmissão de voz quase síncrona. “O resultado é uma síntese de fala mais natural e fluida", salientou Anumanchipalli.
Para Edward Chang, outro dos investigadores da equipa de Berkeley, esta nova tecnologia "tem um enorme potencial" para melhorar a qualidade de vida das pessoas com paralisia grave que afeta a fala.
"É entusiasmante que os últimos avanços na IA estejam a acelerar muito as interfaces cérebro-computador para utilização prática no mundo real num futuro próximo”, afirmou Edward Chang.
No âmbito de um ensaio clínico, as equipas de Chang e Anumanchipalli implantaram a interface cérebro-computador numa mulher de 47 anos com tetraplegia (paralisia dos membros e do tronco) que não conseguiu falar ou vocalizar durante 18 anos, após ter sofrido um acidente vascular cerebral.
Para recolher os dados necessários para treinar o seu algoritmo, os investigadores pediram primeiro à participante que olhasse para uma mensagem no ecrã, como a frase "Olá, como estás?", e depois tentasse pronunciar essa frase silenciosamente.
Os autores treinaram uma rede neural de aprendizagem profunda, utilizando a atividade cerebral da participante, registada por elétrodos implantados no seu córtex motor da fala, enquanto esta pronunciava internamente frases completas contendo 1.024 palavras únicas.
Este modelo foi então utilizado para descodificar o discurso online, simultaneamente com a intenção vocal da participante, e depois para produzir áudio imitando a sua voz, que tinha sido treinada usando um `clip´ dela a falar antes da lesão.
Cheol Jun Cho, outro autor do artigo, adiantou que a neuroprótese funciona através da recolha de amostras de dados neurais do córtex motor, a parte do cérebro que controla a produção da fala, e depois utilizando a IA para descodificar a função cerebral e convertê-la em fala.
Num estudo anterior deste tipo de dispositivos, os investigadores encontraram uma longa latência de descodificação de cerca de oito segundos para uma única frase.
Com o novo método de transmissão, a saída audível pode ser gerada quase em tempo real, enquanto a pessoa tenta falar, de acordo com um comunicado da Escola de Engenharia da Universidade da Califórnia, em Berkeley.
Veja o vídeo partilhado anteriormente pelos investigadores
Pergunta do Dia
Em destaque
-
Multimédia
Xiaomi "ataca" Porsche e automóveis de alta cilindrada com o elétrico SU7 Ultra abaixo dos 70 mil euros -
App do dia
Mister Antonio: Salte entre planetas e resolva desafios para agradar a um gato muito exigente -
Site do dia
Tem uma montanha de tarefas pela frente? Esta extensão ajuda a manter tudo organizado a partir do browser -
How to TEK
Aumente a privacidade e “tape os ouvidos” ao seu smartphone
Comentários