O som vindo das televisões pode fazer com que os assistentes inteligentes “acordem” e “ouçam” momentaneamente o que se está a passar, levantando ainda mais questões acerca da privacidade dos utilizadores. Um novo estudo levado a cabo pela Ruhr University Bochum e pelo Max Planck Institute for Security and Privacy revela que existem mais de 1.000 sequências de palavras capazes de ativar acidentalmente as colunas inteligentes.

Os investigadores alemães puseram à prova os assistentes da Amazon, Apple, Google e Microsoft, assim como os da Deutsche Telekom e Xiaomi, Baidu e Tencent. As colunas inteligentes foram expostas várias horas de séries como Game of Thrones, Modern Family e House of Cards, e ainda programas de notícias. Todas as colunas estavam equipadas com um sensor luminoso que registava quando eram ativadas acidentalmente.

Com base nos dados recolhidos através da experiência, os investigadores compilaram uma lista de todas combinações que “despertam” os assistentes. Por exemplo, a Alexa reage quando as palavras “unacceptable” e "election" são pronunciadas de uma determinada forma.

Já o Google Assistent parece “acordar” quando alguém diz “Ok, cool” ou “Ok, who’s Reading?”. A Siri consegue ser ativada se ouvir “a city” ou “Hey, Jerry” e a Cortana com a palavra “Montana”.

De acordo com Dorothea Kolossa, uma das investigadoras do estudo, os equipamentos são programados propositadamente para “perdoar” alguns erros de pronúncia, uma vez que têm de ser capaz de compreender todos os utilizadores. Assim, os seus sensores estão sempre prontos a ser ativados, mesmo que seja sem querer.

A equipa analisou também a forma como as fabricantes preparam os equipamentos para avaliar momentos de ativação acidental. A maioria das colunas verifica primeiro se o discurso que ouviu contem alguma palavra que as faça “acordar”. Caso suspeitem que o utilizador requer a sua ajuda, começam a gravar a conversa e a enviá-la para os servidores da empresa na Cloud.

Se a análise feita pelos servidores detetar uma ativação acidental, o assistente manter-se-á calado. O que torna o processo problemático é o facto de as gravações, por mais triviais que sejam, poderem passar para as mãos das empresas, onde serão transcritas por funcionários.

“Do um ponto de vista da engenharia, a abordagem é compreensível, pois os sistemas só podem ser melhorados através dos dados recolhidos”, indica Thorsten Holz. No entanto, o investigador sublinha que, em matéria de privacidade, a prática é preocupante. Para já, nenhuma das empresas cujas colunas inteligentes fizeram parte do estudo prestou algum esclarecimento em relação às conclusões encontradas.

Estudo revela que colunas inteligentes podem “acordar” por engano até 19 vezes por dia
Estudo revela que colunas inteligentes podem “acordar” por engano até 19 vezes por dia
Ver artigo

Em março de 2020 um estudo da Northeastern University e do Imperial College London, no Reino Unido, revelou que, embora os assistentes inteligentes não estejam constantemente a gravar as conversas, estes podem ser ativados sem o utilizador querer até 19 vezes por dia.

Os especialistas concluíram que as assistente inteligentes com mais ativações acidentais são as da Apple e da Microsoft. No caso do Homepod, a Siri “acordava” sempre que surgiram palavras que rimavam com “hi” ou “hey” seguidas por algo que começava pela letra S, ou ainda por algo que rimava com “ri”. Já a Cortana era ativada quando ouvia palavras começadas por “Co”.