A Meta reconheceu que está a remover excessivamente conteúdos nas suas plataformas, como Facebook e Instagram. Nick Clegg, presidente da área de assuntos globais da empresa, afirmou numa conferência de imprensa que as taxas de erro na moderação continuam "demasiado altas" e comprometeu-se a melhorar a precisão das políticas aplicadas.
O responsável destacou que erros de moderação frequentemente levam à eliminação ou restrição de conteúdos inofensivos, penalizando utilizadores de forma injusta. Exemplos incluem a eliminação excessiva de publicações durante a pandemia de COVID-19, algo que a empresa considera, agora, um exagero.
Estas decisões foram influenciadas pela incerteza da época e por pressões externas, incluindo da administração Biden, referiu Nick Clegg, citado pela publicação The Verge.
Erros recentes de moderação, como a censura de imagens de Donald Trump, têm gerado críticas e pedidos de mudança. Apesar de gastar milhares de milhões de dólares anualmente em moderação, a Meta apresenta falhas nas suas ferramentas automatizadas, muitas vezes acusadas de serem excessivamente rigorosas.
Nick Clegg também sugeriu que as regras de moderação da empresa são um "documento vivo" e que alterações significativas podem estar a caminho. No entanto, evitou comentar detalhes sobre encontros entre o CEO Mark Zuckerberg e figuras políticas, destacando apenas o interesse da Meta em liderar debates sobre tecnologia e inteligência artificial.
Pergunta do Dia
Em destaque
-
Multimédia
Como seria um dia se a Inteligência Artificial estivesse integrada em todas as coisas? -
Site do dia
Aproveite o frio para andar de trenó no browser do computador -
App do dia
Aplicação invideo facilita a criação de vídeos com inteligência artificial -
How to TEK
Saiba como partilhar a sua localização num iPhone
Comentários