A Meta reconheceu que está a remover excessivamente conteúdos nas suas plataformas, como Facebook e Instagram. Nick Clegg, presidente da área de assuntos globais da empresa, afirmou numa conferência de imprensa que as taxas de erro na moderação continuam "demasiado altas" e comprometeu-se a melhorar a precisão das políticas aplicadas.

O responsável destacou que erros de moderação frequentemente levam à eliminação ou restrição de conteúdos inofensivos, penalizando utilizadores de forma injusta. Exemplos incluem a eliminação excessiva de publicações durante a pandemia de COVID-19, algo que a empresa considera, agora, um exagero.

Estas decisões foram influenciadas pela incerteza da época e por pressões externas, incluindo da administração Biden, referiu Nick Clegg, citado pela publicação The Verge.

Erros recentes de moderação, como a censura de imagens de Donald Trump, têm gerado críticas e pedidos de mudança. Apesar de gastar milhares de milhões de dólares anualmente em moderação, a Meta apresenta falhas nas suas ferramentas automatizadas, muitas vezes acusadas de serem excessivamente rigorosas.

Nick Clegg também sugeriu que as regras de moderação da empresa são um "documento vivo" e que alterações significativas podem estar a caminho. No entanto, evitou comentar detalhes sobre encontros entre o CEO Mark Zuckerberg e figuras políticas, destacando apenas o interesse da Meta em liderar debates sobre tecnologia e inteligência artificial.