Há novos recordes batidos no campo dos implantes cerebrais alimentados por inteligência artificial, mais especificamente, na ajuda de pessoas com paralisia a falarem mais rapidamente e com maior precisão.

Dois estudos de equipas distintas publicados recentemente na revista Nature demonstram que é possível a duas pessoas que perderam a capacidade de falar - uma com esclerose lateral amiotrófica, ou ELA, outra por ter sofrido um AVC no tronco cerebral - voltarem a comunicar a uma velocidade que se aproxima do ritmo de uma conversa normal, através de um computador.

Em estudos anteriores, tanto a equipa da UC San Francisco e UC Berkeley como a da Stanford Medicine já tinham demonstrado que era possível traduzir a fala pretendida de uma pessoa com paralisia em texto, usando um interface cérebro-computador, ou BCI - na sigla para brain-computer interface, em inglês - mas com velocidade, precisão e vocabulário limitados.

Clique nas imagens para mais detalhes

Num dos estudos, os investigadores da UC San Francisco e UC Berkeley desenvolveram uma tecnologia que sintetiza a fala e expressões faciais a partir de sinais cerebrais. O sistema também pode decodificar esses sinais em texto a quase 80 palavras por minuto, uma grande melhoria em relação às 14 palavras por minuto conseguido pela solução usada até agora.

Neuralink de Elon Musk vai iniciar os testes de implantes cerebrais em humanos
Neuralink de Elon Musk vai iniciar os testes de implantes cerebrais em humanos
Ver artigo

Para fazer isso, a equipa implantou um retângulo da espessura de uma folha de papel de 253 elétrodos na superfície do cérebro de Ann, que sofreu um AVC no tronco cerebral em 2005, quando tinha 30 anos, sobre áreas críticas para a fala.

Os elétrodos intercetaram os sinais cerebrais que, se não fosse pelo derrame, teriam ido para os músculos dos lábios, língua, mandíbula e laringe da paciente, bem como para seu rosto. Um cabo ligado ao dispositivo fixado na cabeça de Ann “conduziu” os elétrodos aos computadores.

Durante várias semanas, Ann trabalhou com a equipa de cientistas para treinar os algoritmos de inteligência artificial do sistema a reconhecerem os seus sinais cerebrais únicos para a fala. Tal envolveu a repetição intensa de frases diferentes de um vocabulário de conversação de 1.024 palavras, até que o computador “aprendesse” os padrões de atividade cerebral associados a todos os sons básicos da fala.

Ann viu a sua voz recriada com a ajuda de uma IA de aprendizagem de línguas e do recurso a um vídeo do discurso que fez no dia do seu casamento, para soar como a voz dela antes da lesão.

A paciente também teve direito a um avatar, criado com a ajuda de um software que simula e anima os movimentos musculares do rosto, desenvolvido pela Speech Graphics, empresa que faz animações faciais baseadas em IA.

Veja o vídeo sobre todo o processo

No outro estudo publicado na Nature, investigadores da Stanford Medicine desenvolveram um BCI baseado num pequeno sensor quadrado parecido a uma escova de cabelo com 64 cerdas em forma de agulha. Cada um tem um elétrodo na ponta e, juntos, recolhem a atividade de neurónios individuais. A rede neural artificial foi depois treinada para descodificar a atividade cerebral e traduzi-la em palavras, para as exibir num ecrã.

O sistema foi testado em Pat Bennett, paciente com ELA, agora com 68 anos, com quatro dos minúsculos sensores inseridos no seu córtex cerebral. Fios finos ligam as matrizes a uma “entrada” que pode ser ligada a um computador através de cabos.

Startup testa ligação cérebro-computador menos invasiva e “escalável”
Startup testa ligação cérebro-computador menos invasiva e “escalável”
Ver artigo

O software foi treinado pedindo à paciente que tentasse dizer frases em voz alta, uma vez que Pat Bennett ainda consegue produzir sons, embora a sua fala seja ininteligível. A tecnologia aprendeu a reconhecer os sinais neurais distintos associados aos movimentos dos lábios, da mandíbula e da língua feitos para produzir sons diferentes. A partir daí, aprendeu a atividade neural que corresponde aos movimentos usados para criar os sons que compõem as palavras. Foi então capaz de prever sequências dessas palavras e encadear frases apresentadas no ecrã do computador, explicam os investigadores.

Embora ainda mais lentos do que a "fala natural", os BCIs criados por estas equipas são mais rápidos do que os sistemas de comunicação aumentativa e alternativa existentes. Apesar dos avanços, a comunidade científica sublinha que ainda existem alguns obstáculos tecnológicos para a criação de um dispositivo implantável que reúna todos os requisitos para uma “conversa", tal como a conhecemos.

Há também questões relacionadas com a longevidade e confiabilidade do dispositivo. Um BCI considerado prático terá de registar sinais constantemente durante anos, sem exigir recalibração diária.

Os BCI também terão de ser wireless, sem todos os cabos exigidos pelos sistemas atuais, para que possam ser usados sem que os pacientes tenham de estar ligados “fisicamente” a um computador. Empresas como a Neuralink de Elon Musk ou a Precision Neuroscience, que recentemente testou com sucesso um novo tipo de implante cerebral para ligar o cérebro ao computador, menos invasivo e que abre novas possibilidades.