A Comissão Europeia pediu às principais redes sociais e motores de busca que identifiquem claramente publicidade política e conteúdos gerados por inteligência artificial (IA), para combater a desinformação antes das eleições europeias de junho.
“Nos termos do Regulamento dos Serviços Digitais (DSA na sigla em inglês), os serviços designados com mais de 45 milhões de utilizadores ativos na União Europeia têm a obrigação de atenuar os riscos relacionados com os processos eleitorais, salvaguardando simultaneamente os direitos fundamentais, incluindo o direito à liberdade de expressão”, refere a Comissão Europeia em comunicado.
A Comissão Europeia pretende reduzir os riscos de difusão de informações falsas, como deepfakes - sons, fotografias e vídeos manipulados -, em que as plataformas devem “avaliar e atenuar os riscos específicos associados à IA”, por exemplo, ao “rotular claramente os conteúdos gerados por inteligência artificial”.
A cerca de dois meses das eleições europeias (junho), Bruxelas pede às grandes plataformas que “reforcem os seus procedimentos internos, nomeadamente através da criação de equipas dotadas de recursos adequados”, para garantir o cumprimento do DSA.
Em vigor desde fevereiro, o DSA impõe obrigações específicas a 22 plataformas de grande dimensão, incluindo as redes sociais X, TikTok, Facebook, Instagram, Snapchat, a plataforma de vídeo YouTube, os motores de busca Google e Bing e a enciclopédia online Wikipedia.
Bruxelas apelou ainda à criação de “mecanismos de resposta a incidentes” para reduzir qualquer impacto nos resultados eleitorais e, no final de abril, tenciona organizar um “teste de resistência” com as partes interessadas, para utilizar os instrumentos e os mecanismos de cooperação que foram criados.
No caso de incumprimento, as empresas terão pesadas sanções, que podem atingir 6% do volume de negócios anual ou a proibição de operar na Europa, no caso de não conseguirem provar que aplicaram medidas “igualmente eficazes”.
Em dezembro, a rede social X foi alvo de um inquérito formal por alegadas violações das regras europeias em matéria de moderação de conteúdos e de transparência.
A Comissão Europeia exigiu, a 14 de março, explicações a oito grandes empresas tecnológicas, incluindo TikTok, Facebook, Google, YouTube, X, Instagram, Snapchat e o motor de busca Bing, sobre a forma como gerem os riscos associados à difusão de conteúdos manipulados.
Corrida à inteligência artificial aumenta risco de desinformação em eleições
Um dia antes do comunicado da Comissão Europeia, também o especialista em conflitos cibernéticos e tecnologias emergentes Joe Burton tinha alertado para o lançamento apressado de soluções como grandes modelos de linguagem, de inteligência artificial generativa, que podem ser usados para desinformação, pondo em risco processos eleitorais.
O professor de Segurança Internacional da universidade britânica de Lancaster referiu que os grandes modelos de linguagem [Large Language Models em inglês, também designados pela sigla LLM] são usados como uma ferramenta de desinformação.
A mais conhecida destas soluções de inteligência artificial generativa é o ChatGPT da norte-americana OpenAI, lançado em 2022, mas entretanto a Google lançou um produto equivalente, chamado Gemini (antigo Bard) e a Anthropic, financiada pela Amazon, introduziu o Claude.
"Os imperativos comerciais, a necessidade de vencer os concorrentes através do lançamento destes produtos, estão a sobrepor-se às preocupações de segurança”, lamentou Burton durante a conferência "Eleições legislativas: Qual a dimensão da ameaça que a IA e a desinformação representam para as eleições de 2024?” realizada hoje em Londres.
O académico alertou que "esta combinação de adversários determinados, a evolução tecnológica, a falta de atenção à segurança no setor empresarial vai juntar-se para criar um risco ainda maior e mais elevado para os nossos processos eleitorais”.
Burton explicou que o uso de inteligência artificial pela Rússia ou China para influenciar eleições pode não ser necessariamente através de um apoio a um candidato específico, mas como uma forma de "enfraquecer a democracia para semear desconfiança e discórdia”.
“A IA e os algoritmos podem ser usados em torno de temas catalisadores, como tensões raciais ou étnicas, a Palestina, a guerra na Ucrânia”, funcionando como "rastilhos para semear discórdia e divisão dentro dos nossos sistemas políticos”, disse no evento organizado pelo Institute for Government.
Para o diretor executivo do verificador britânico Full Fact, Chris Morris, o problema é que a IA generativa "impulsiona tudo, tanto em termos de velocidade como em termos de escala, e o que está a fazer é revolucionar a criação, a produção e a distribuição da informação”.
Com a evolução desta tecnologia, a distinção entre vídeos e áudios verdadeiros e falsos é cada vez mais difícil, como aconteceu recentemente no Reino Unido com dois sons deepfake do presidente da Câmara Municipal de Londres, Sadiq Khan, e do líder do Partido Trabalhista, Keir Starmer.
Em relação às eleições legislativas previstas para o fim do ano, Morris, ex-jornalista da BBC, sugeriu que um desafio será o risco de as pessoas se "esforçarem tanto para detetar as falsificações que se esquecem de se concentrar no que os políticos realmente dizem”.
O diretor do Full Fact sublinhou que a IA também representa uma oportunidade, e que a instituição criou ferramentas automatizadas de verificação de factos nos últimos anos para combater a desinformação.
Pergunta do Dia
Em destaque
-
Multimédia
The Game Awards: Astro Bot conquistou quatro prémios incluindo Jogo do Ano -
Site do dia
Como devem funcionar os modelos de IA de propósito geral? Regras estão a ser alinhadas -
App do dia
Everyone Draw: a app grátis que transforma pixéis em obras de arte coletivas -
How to TEK
Mantenha as apps e jogos Android atualizados para evitar vulnerabilidades
Comentários