No início de outubro, foi revelado que Frances Haugen, que trabalhou para o Facebook até maio de 2021, foi a responsável pelo fornecimento dos documentos que deram origem a uma investigação do Wall Street Journal. A “whistleblower” deu a cara no programa 60 Minutos para expor ao mundo que a empresa de Mark Zuckerberg optou várias vezes por dar prioridade aos seus interesses e lucros.

Depois de Frances Haugen testemunhar no senado dos Estados Unidos, surgem agora mais detalhes acerca das práticas da empresa liderada por Mark Zuckerberg através dos Facebook Papers, publicados por um consórcio de 17 organizações noticiosas que tiveram acesso a documentos obtidos pela “whistleblower”.

Entre os documentos encontram-se novos dados acerca das práticas de moderação de conteúdos do Facebook, que divide os países onde a rede social está presente por grau de importância. Mesmo assim, em certas nações consideradas de “alto risco”, há sérias falhas no que toca a recursos para lidar com a propagação de conteúdo abusivo são escassos.

De acordo com documentação a que o website The Verge teve acesso, a decisão terá sido tomada pela empresa no final de 2019, altura que os responsáveis da plataforma decidiram onde é que investiriam os recursos da empresa, optando por dar uma maior prioridade e proteção a países com eleições “à porta”.

Países como os Estados Unidos, Brasil e Índia foram colocados no nível zero, considerado o mais prioritário. A empresa criou “war rooms” para monitorizar continuamente a atividade nestes países e para verificar se existiam situações durante as eleições que necessitavam de intervenção das autoridades locais.

Já países como a Alemanha, Itália, Indonésia, Irão e Israel foram colocados no nível um, sendo que nestes casos eram aplicados recursos semelhantes, excetuando alguns tipos de alertas fora do período mais próximo de eleições.

Facebook deu prioridade ao lucro em detrimento das medidas para combater o discurso de ódio e desinformação
Facebook deu prioridade ao lucro em detrimento das medidas para combater o discurso de ódio e desinformação
Ver artigo

Os documentos indicam que no nível dois encontram-se 22 países que, embora não tenham “war rooms” específicos, dispõem de centros avançados de operações. Os restantes países onde o Facebook opera foram colocados no nível três. Aqui, a empresa só faria a revisão de conteúdos relacionados com eleições caso fossem sinalizados pelos moderadores.

Porém, existem diferenças mesmo entre os países considerados de alto risco. Por exemplo, no caso da Etiópia, que enfrenta atualmente uma guerra civil e que foi adicionada a esta categoria no ano passado, os recursos são escassos.

A documentação revela que as regras da plataforma não foram traduzidas para todos os idiomas oficiais do país, o sistema de machine learning usado para detetar discurso de ódio e outros conteúdos prejudiciais não está disponível e não há parcerias com organizações de fact checking nem “war rooms”: tudo elementos que existem para países como os Estados Unidos.

A Reuters, que também teve acesso a documentos internos, avança que o próprio Facebook sabe que não tem um número suficiente de funcionários que tenham as competências linguísticas, assim como os conhecimentos relativos a eventos necessários para identificar publicações que violam as regras num vasto número de países em desenvolvimento onde a rede social tem presença. Os documentos demonstram também que os sistemas de inteligência artificial utilizados pela empresa para detetar conteúdos abusivos não estão a par da tarefa.

Por outro lado, em resposta às informações agora reveladas, Mavis Jones, porta-voz do Facebook, afirma em declarações à imprensa internacional que a empresa tem moderadores que reveem conteúdo em mais de 70 línguas, assim como especialistas em questões humanitárias e de direitos humanos, que trabalham para impedir abusos na plataforma, sobretudo em locais que possam estar mais em risco de conflito ou violência.