Esta terça-feira, os utilizadores do Facebook na Tailândia depararam-se com um alerta na rede social que os incitava a comunicarem aos seus contactos que estavam seguros, na sequência daquilo que se considerou ser a explosão de uma bomba na capital do país.

De acordo com as informações veiculadas na altura, o “Safety Check” foi ativada depois de o seu algoritmo ter analisado uma série de publicações e notícias publicadas na plataforma que apontavam para a ocorrência de explosões em Banguecoque.

Mas veio a descobrir-se que tudo não passou de um equívoco. O que se ouviu não foi a detonação de um engenho explosivo, mas sim o som de “bombinhas” artesanais a serem atiradas por um cidadão descontente ao edifício da sede do governo tailandês.

No entanto, o Facebook afirma que não houve qualquer erro por parte da rede social e que o "Safety Check" foi acionado porque o algoritmo subjacente à funcionalidade concluiu que existiam razões para alarme, depois da análise dos conteúdos e mensagens publicadas na plataforma.

As informações, avançadas pela Bloomberg, apontam que, anteriormente, o "Safety Check" era apenas ativado por responsáveis humanos e que a automatização deste processo, com a implementação do algoritmo, pode dar origem a vários falsos alertas.

Dados avançados pelo Facebook indicam que desde que o algoritmo está em funcionamento, ou seja, desde junho deste ano, o "Safety Check" já foi ativado mais de 300 vezes. Recorde-se que a funcionalidade estreou-se em 2014, tendo sido acionada pelo Facebook 39 vezes.

Estes números deixam claro que se podem esperar mais falsos alarmes no futuro, algo que em nada abona a favor da credibilidade da rede social, acusada de disseminar desinformação, no fenómeno que ficou conhecido como “fake news”.