Na prática, os investigadores criaram um mecanismo capaz de traduzir a atividade cerebral associada à fala em palavras faladas quase em tempo real, anunciam as conclusões do estudo hoje publicadas na revista científica Nature Neuroscience.
Esta investigação resolveu o "velho problema" da latência neuroprotética da fala, ou seja, o tempo que decorre entre o momento em que uma pessoa tenta falar e o momento em que o som é produzido.
Utilizando os últimos avanços em IA, a equipa de cientistas desenvolveu um método de transmissão que sintetiza sinais cerebrais em discurso audível quase em simultâneo.
"A nossa abordagem traz as mesmas capacidades de descodificação rápida de voz de dispositivos como Alexa e Siri para neuropróteses", explicou Gopala Anumanchipalli, um dos investigadores principais do estudo.
De acordo com o cientista, utilizando um tipo de algoritmo semelhante, foi possível descodificar dados neurais e, pela primeira vez, permitir a transmissão de voz quase síncrona. “O resultado é uma síntese de fala mais natural e fluida", salientou Anumanchipalli.
Para Edward Chang, outro dos investigadores da equipa de Berkeley, esta nova tecnologia "tem um enorme potencial" para melhorar a qualidade de vida das pessoas com paralisia grave que afeta a fala.
"É entusiasmante que os últimos avanços na IA estejam a acelerar muito as interfaces cérebro-computador para utilização prática no mundo real num futuro próximo”, afirmou Edward Chang.
No âmbito de um ensaio clínico, as equipas de Chang e Anumanchipalli implantaram a interface cérebro-computador numa mulher de 47 anos com tetraplegia (paralisia dos membros e do tronco) que não conseguiu falar ou vocalizar durante 18 anos, após ter sofrido um acidente vascular cerebral.
Para recolher os dados necessários para treinar o seu algoritmo, os investigadores pediram primeiro à participante que olhasse para uma mensagem no ecrã, como a frase "Olá, como estás?", e depois tentasse pronunciar essa frase silenciosamente.
Os autores treinaram uma rede neural de aprendizagem profunda, utilizando a atividade cerebral da participante, registada por elétrodos implantados no seu córtex motor da fala, enquanto esta pronunciava internamente frases completas contendo 1.024 palavras únicas.
Este modelo foi então utilizado para descodificar o discurso online, simultaneamente com a intenção vocal da participante, e depois para produzir áudio imitando a sua voz, que tinha sido treinada usando um `clip´ dela a falar antes da lesão.
Cheol Jun Cho, outro autor do artigo, adiantou que a neuroprótese funciona através da recolha de amostras de dados neurais do córtex motor, a parte do cérebro que controla a produção da fala, e depois utilizando a IA para descodificar a função cerebral e convertê-la em fala.
Num estudo anterior deste tipo de dispositivos, os investigadores encontraram uma longa latência de descodificação de cerca de oito segundos para uma única frase.
Com o novo método de transmissão, a saída audível pode ser gerada quase em tempo real, enquanto a pessoa tenta falar, de acordo com um comunicado da Escola de Engenharia da Universidade da Califórnia, em Berkeley.
Veja o vídeo partilhado anteriormente pelos investigadores
Em destaque
-
Multimédia
Ferrari revela interior do seu primeiro modelo elétrico. Design do Luce é criação de Jony Ive -
Site do dia
Atom Animation: a tabela periódica ganha vida em animações hipnotizantes -
App do dia
Salte de teia em teia e acompanhe as aventuras de uma pequena aranha com uma grande missão -
How to TEK
LinkedIn já começou a usar dados dos utilizadores para treinar IA. Veja como desativar
Comentários