Uma equipa de investigadores do London Imperial College desenvolveu uma tecnologia capaz de “mascarar” as emoções presentes na voz de quem utiliza assistentes pessoais inteligentes à semelhança da Alexa ou do Google Assistant. De acordo com o artigo publicado, a voz pode ser reveladora não só de diversos estados emocionais, mas também de outras características à semelhança da idade, género e até dos níveis de stress do utilizador. Assim sendo, o método desenvolvido poderá servir de barreira de privacidade entre os utilizadores e os serviços.

A compreensão do vasto espetro de emoções humanas por parte da inteligência artificial tem vindo a tornar-se num dos grandes objetivos de empresas que trabalham com este tipo de tecnologia. Tal como avança o The Atlantic, em 2017, a Amazon patenteou um método para reconhecer estados emocionais nas vozes dos utilizadores da Alexa. De acordo com a patente, o assistente virtual utiliza os sinais que recolhe - à semelhança de tosse, espirros, risos ou choro – em combinação com o histórico de compras para oferecer anúncios específicos.

Para proteger a privacidade do utilizador, a tecnologia desenvolvida pelos investigadores do London Imperial College recolhe amostras de discurso, analisa-as e extrai todos os indicadores emocionais presentes. Uma vez removidos todos os sinais, um sintetizador vocal envia o discurso gerado para a cloud dos assistentes pessoais.

Segundo declarações de Ranya Aloufi, investigadora que liderou o estudo, à Vice, a utilização de inteligência artificial capaz de detetar emoções pode “comprometer significativamente a privacidade” dos utilizadores. Para Aloufi, a necessidade de proteger o consumidor é fulcral, pois sendo que quem compra um assistente virtual pessoal deve ser informado acerca do tratamento das suas interações com o sistema pela empresa que o fabricou.

Apesar de esta tecnologia ainda estar em desenvolvimento, para já, os resultados do estudo apresentam-se positivos, havendo um decréscimo de 96% no nível de exatidão do reconhecimento emocional por parte dos assistentes. Contudo, de acordo com os investigadores, ainda é necessário um maior treino da IA criada, pois ainda existem algumas dificuldades no reconhecimento do discurso dos utilizadores.