A Meta vai avançar com um novo modelo de moderação para as redes sociais Facebook e Instagram, substituindo o programa de verificação de factos por um modelo baseado em notas da comunidade. O anúncio foi feito por Mark Zuckerberg, numa nota deixada no blogue da empresa, apontando que a mudança se inspirou diretamente no modelo introduzido na rede social X de Elon Musk.
O programa de verificação de factos das plataformas da Meta sempre foi criticado pela remoção excessiva de conteúdos. Em dezembro de 2024, a empresa viria a reconhecer esses mesmos excessos, afirmando que as taxas de erro na moderação continuavam demasiado elevadas, comprometendo-se a melhorar. E deu o exemplo que nos tempos da pandemia foram registadas eliminações excessivas de publicações referentes ao COVID-19, admitindo o exagero e prometendo alterações significativas.
No plano da empresa, agora anunciado, vai começar nos Estados Unidos e tem como objetivo garantir a liberdade de expressão e diminuir os erros de moderação. A medida pretende levantar restrições em alguns tópicos que fazem parte do discurso mainstream, para que a plataforma se foque em conteúdos que são mesmo ilegais.
Veja a mensagem de Mark Zuckerberg:
Também aponta uma maior abordagem personalizada ao que diz respeito ao conteúdo político, para que as pessoas interessadas no tema possam receber mais no seu feed. A empresa admite que os erros excessivos estavam a frustrar os utilizadores e a intrometer-se demasiado na liberdade de expressão. Muito conteúdo sem perigo era censurado e muitos utilizadores acabavam, inocentemente, na “prisão do Facebook”.
Como funcionam as notas da comunidade?
Como explica a Meta, a ideia das notas da comunidade surgiu pela primeira vez no Twitter em 2019, antes da compra por Elon Musk e a mudança de nome para o X. Basicamente os utilizadores têm a capacidade de decidir se as publicações são potencialmente enganadoras e precisem de mais contexto. Este formato permite que pessoas com diferentes perspetivas sobre um assunto possam contribuir e decidir que tipo de contexto é útil para outros utilizadores verem.
Este tipo de moderação, realizada diretamente pela comunidade de utilizadores, cria anotações relacionadas com as publicações. Situações de desinformação e outras situações que criem controvérsia, em vez de serem bloqueadas ou apagadas pelos moderadores, são marcados pela comunidade, juntamente com notas adicionais, do género “não é bem assim”, com explicações adicionais com os respetivos pontos de vista.
A Meta diz que quando o programa começar, a Meta não vai escrever notas da comunidade ou decidir quais as que aparecem. Essas notas serão escritas pelos utilizadores que contribuem para a comunidade. No entanto, aponta que tal como na rede social X, essas notas da comunidade vão requerer um acordo entre pessoas com diferentes perspetivas para evitar que se criem pontuações enviesadas. A empresa diz que pretende ser transparente sobre como os diferentes pontos de vista informam nas notas mostradas nas suas apps e vai partilhar a informação.
De notar que estas notas não são simplesmente adicionadas por qualquer utilizador das redes sociais. É preciso ser um “contribuinte”, com a necessidade de se registar como tal. A Meta abriu a lista de espera para os utilizadores interessados em participar neste programa para o Facebook, Instagram e Threads. O novo programa começa nos Estados Unidos nos próximos meses e espera afinar a plataforma durante cerca de um ano. Durante este período de transição será eliminado o sistema de verificação de factos.
Quando o X adotou as notas da comunidade, apontou três problemas no anterior sistema de moderação realizado por funcionários da empresa. O primeiro é que os mesmos não conseguiam moderar rapidamente a quantidade de posts dos utilizadores. Haviam também demasiadas publicações para monitorizar. E por fim, a crítica constante da opinião pública de não confiar numa empresa gigante tecnológica para decidir que conteúdos eram ou não enganadores.
Na rede social X, as notas de comunidade funcionam em dois momentos. A primeira reúne a contribuição dos utilizadores selecionados para adicionar notas escritas a dar contexto a uma determinada publicação que pode levar à desinformação. Os outros utilizadores que contribuem para as notas podem votar se essas notas são ou não úteis para clarear a informação. Quando diversos contribuintes, com diferentes pontos de vista, pontuarem a nota como útil, esta é então adicionada em baixo da publicação em questão.
Segundo a X, quando um utilizador se regista para fazer parte do programa, começa por ter a capacidade de avaliar as notas e com o tempo, podem vir a ser “promovidos” a ganhar a capacidade de escrever. Estas notas não são escolhidas pela regra da maioria, mas sim para serem úteis, com diferentes pontos de vista.
Notas da comunidade podem não ser totalmente eficazes
Como aponta o Business Insider, uma das desvantagens deste sistema de notas de comunidade é o tempo que uma nota pode demorar a ser adicionada a uma publicação com potencial de ser desinformação. Por vezes, quando a nota é adicionada, já a publicação foi espalhada e sido lida por outros utilizadores.
Fala-se ainda numa polarização quando o assunto está relacionado com política. Como referido, uma das regras para adição da nota é o acordo entre os membros que contribuem. Pode ser difícil chegar a uma conclusão quando existem extremos opostos de opiniões.
Por outro lado, o sistema de notas da comunidade ataca diretamente a terceira dificuldade dos programas de moderação convencionais. Os utilizadores confiam mais nos seus pares para adicionar notas do que as grandes corporações tecnológicas.
De um consenso geral, as notas da comunidade, sejam elas mais rápidas ou lentas a gerarem efeito, são vistas como uma medida para ajudar a combater a desinformação nas redes sociais. A moderação é mais lenta e excesso de zelo, cometendo-se erros na censura dos conteúdos.
A Meta aponta que no mês de dezembro de 2024, foram removidas milhões de peças de conteúdo por dia. Essa ação correspondente a menos de 1% de todo o conteúdo produzido diariamente, mas considera que entre 1 a 2 remoções em 10 foram um erro de moderação, que não violaram as suas políticas de utilização.
Com esta mudança, Mark Zuckerberg é também acusado de mudar as políticas das suas redes sociais ao sabor da política, neste caso, alterando-as nas mudanças do executivo de Trump e Biden. Quando em 2016 o Facebook (antes de mudar o nome para Meta) foi acusado de disseminar desinformação, a empresa implementou o programa de verificação de factos nas suas redes sociais. Agora mudou de ideias pelo excesso de zelo.
Em janeiro de 2021 baniu Donald Trump da rede, depois do tumulto no Capitólio na passagem da pasta para Joe Biden. Quatro anos depois, na mais recente corrida à Casa Branca, a conta do novo presidente dos Estados Unidos foi desbloqueada, na necessidade de haver um debate justo na plataforma entre os candidatos, como aponta a Globo.
Pergunta do Dia
Em destaque
-
Multimédia
Robot da Toyota regista recorde do Guinness no lançamento ao cesto mais distante -
Site do dia
FlowPrompter: um teleponto invisível para apresentações mais naturais -
App do dia
É bom a montar puzzles? Experimente Jigsawscapes -
How to TEK
Não quer que a rede social X use os seus dados para treinar a IA? Saiba como desativar a conta
Comentários