A Meta usou o seu blog oficial para explicar como está a preparar as eleições do próximo ano. Em 2024 vários países vão a eleições, incluindo Portugal e os Estados Unidos, mas não só. No total, o grupo que detém o Facebook e o Instagram diz que no próximo ano mais de 2 mil milhões de eleitores vão às urnas.

As redes sociais passaram a ter um papel crítico na divulgação de todo o tipo de informação, incluindo propaganda, e o Facebook já esteve mais do que uma vez no centro de polémicas relacionadas com a divulgação deste tipo de conteúdos. O seu controlo (ou a falta dele) sobre informação falsa, manipulada ou desalinhada com outras políticas de utilização definidas pela própria empresa, têm dado azo a várias críticas nas eleições americanas mais recentes.

Para que não haja dúvidas sobre o empenho do grupo fundado por Mark Zuckerberg relativamente a este tema, a publicação frisa que, desde 2016, o grupo investiu mais de 20 mil milhões de dólares para dar o seu contributo para a “segurança e proteção dos atos legislativos a nível global”. Refere ainda que 40 mil pessoas trabalham na Meta para o mesmo objetivo. “Nenhuma outra empresa de tecnologia fez ou investiu mais online para proteger processos eleitorais”, garante Nick Clegg, presidente de assuntos globais.

Tsunami de fake news atingiu o Twitter, Facebook, TikTok e YouTube nas eleições nos EUA, Brasil e Israel
Tsunami de fake news atingiu o Twitter, Facebook, TikTok e YouTube nas eleições nos EUA, Brasil e Israel
Ver artigo

A empresa revela também que contribuiu para identificar 700 grupos de ódio à volta do mundo, mais de metade ligados a organizações supremacistas brancas, e que calou mais de 200 campanhas de manipulação da opinião pública nas suas plataformas. Faz ainda referência à plataforma de fact-checking, que ajuda a verificar a veracidade dos conteúdos partilhados na rede social e a classificá-los como fake news, se for caso disso. Esta plataforma junta hoje quase 100 parceiros, que trabalham em mais de 60 línguas.

No que toca a medidas concretas para garantir que tudo corre dentro da normalidade nas suas redes sociais nas próximas eleições, na verdade a nova comunicação não traz grandes novidades. É mais um reforço da posição já conhecida da empresa, onde se detalham medidas que já estiveram em vigor em eleições anteriores, ou que já tinham sido anunciadas para as próximas.

No que se refere à publicidade, por exemplo, a Meta voltará no próximo ano a bloquear a entrada de anúncios nas suas redes sociais, na última semana antes das eleições. A medida vale apenas para os Estados Unidos e, como explica a empresa, deve-se ao facto de num prazo tão curto não haver tempo para avaliar queixas que possam surgir sobre essas campanhas nem para retirá-las do ar, em tempo útil, caso se verifique que violam algum princípio da plataforma. Nas eleições de 2020 esta regra já existiu.

A grande novidade para as eleições do próximo ano nas redes Meta, no entanto, vai ser a regra imposta a todos os anúncios de teor político ou social. Todas as campanhas com conteúdo manipulado digitalmente, nomeadamente com recurso a ferramentas de inteligência artificial, terão de assinalar que usaram esses recursos.

O que se pretende evitar com estas novas regras? A Meta não quer que anúncios com vozes, fotos ou vídeos alterados sejam publicados sem aviso a que os vê. Isto é, anúncios que através de efeitos digitais, ponham alguém a dizer algo que não disse, a fazer algo que não fez, ou num local onde não esteve, devem estar referenciados como tal. Da mesma forma, a empresa quer passar a identificar como alterados os anúncios com imagens de pessoas que parecem reais mas não existem, os anúncios que mostrem eventos que não aconteceram, ou que aconteceram mas não da forma retratada nas imagens do anúncio.

Não perca as principais novidades do mundo da tecnologia!

Subscreva a newsletter do SAPO Tek.

As novidades de todos os gadgets, jogos e aplicações!

Ative as notificações do SAPO Tek.

Newton, se pudesse, seguiria.

Siga o SAPO Tek nas redes sociais. Use a #SAPOtek nas suas publicações.