A utilização dos modelos de IA generativa estão a ser bastante úteis na transformação digital das empresas e cidadãos, assim da Administração Pública. Este foi, aliás, o principal tema da conferência Portugal Digital Summit, realizada esta semana na Exponor. Mas existe todo o lado obscuro da tecnologia, a criação de conteúdos falsos, incluindo imitações credíveis de figuras públicas, as chamadas Deepfakes.

Recentemente, o ator Tom Hanks partilhou nas redes sociais como a sua imagem e voz estava a ser utilizada numa campanha publicitária para vender planos dentários, sem que o mesmo estivesse envolvido ou autorizado. Este tipo de abuso está a ser debatido pelos reguladores nos Estados Unidos, tendo-se apresentado propostas de lei para proteger atores e artistas contra o uso indevido da sua imagem, o No Fakes Act.

A iniciativa Cidadãos pela Cibersegurança (CpC) deixou o alerta para o perigo do áudio Deepfake, sobretudo num contexto político, deixando o exemplo do que aconteceu nas últimas eleições legislativas na Eslováquia, e que servem de aviso a Portugal. Nos dois dias usados para reflexão, antes do dia de eleições, tal como acontece em Portugal, os partidos políticos não podem fazer campanha ou declarações. Porém, foram partilhados áudios deepfake nas redes sociais nos dias antes das eleições.

No Fakes Act: proposta de lei federal quer proteger atores e artistas do uso não autorizado de IA
No Fakes Act: proposta de lei federal quer proteger atores e artistas do uso não autorizado de IA
Ver artigo

Entre os áudios falsos ouvia-se Michal Šimečka, do partido “Liberal Progressivo” e Monika Tódová do jornal “Denník N” a debater formas de falsificar as eleições com a compra de votos da comunidade local. Surgiram outros áudios, como por exemplo um candidato que queria duplicar o preço da cerveja.

Nos exemplos dos áudios partilhados e provados que eram conteúdo falso gerado por IA, não foram tomadas as medidas rápidas para tirar estes conteúdos do ar, antes que conseguissem tornar-se virais. E neste caso, a não ser cumprido o Regulamento dos Serviços Digitais imposto pela União Europeia que obriga as redes sociais a eliminarem proactivamente os conteúdos falsos em 24 horas. Veja-se em contraste como as redes sociais como o TikTok e a X (Twitter) estiveram recentemente na mira pela Comissão Europeia por não agirem rapidamente à partilha de deepfakes e conteúdos falsos em torno dos conflitos entre Israel e o Hamas.

E Israel é um dos exemplos mais recentes de como os conteúdos deepfake gerados por inteligência artificial estão a ser utilizados para gerar vídeos falsos da guerra em Gaza. Desde o massacre em Israel do dia 7 de outubro que muitos destes conteúdos falsos estão a inundar as redes sociais. Mais importante, as agências noticiosas têm de estar preparadas para a escala deste tipo de conteúdo.

A CEO da CBS News, Wendy McMahon, afirmou que que a rede recebeu mais de 1.000 vídeos sobre a guerra entre Israel e o Hamas, mas apenas 10% puderam ser utilizadas, explicou à agência Axios. Este tipo de conteúdo que leva à desinformação está a obrigar às agências de notícias a investir nas suas próprias capacidades de IA e no combate às notícias falsas. É preciso novos standard e protocolos para proteger a credibilidade das fontes noticiosas e os seus espetadores, disse Wendy McMahon e pede que outras agências façam o mesmo para se protegerem deste flagelo.

Deepfakes que manipulam imagens reais para porno estão fora de controlo. Mulheres são mais visadas
Deepfakes que manipulam imagens reais para porno estão fora de controlo. Mulheres são mais visadas
Ver artigo

No caso do áudio deepfake, como refere o CpC, o padrão comum nestes casos é o uso de palavras montadas por IA, mas as análises dos especialistas não são imediatas e são sempre realizadas a pedido e com pagamento. Estas deepfakes conseguem também sintetizar frases a partir de amostras de frases das personalidades visadas. Os sistemas de deep learning tornam as simulações de áudio mais realistas, que segundo a CpC vai tornar-se em breve quase impossível de distinguir dos áudios reais.

Atualmente, através do ChatGPT pode-se fazer textos com discursos políticos credíveis, que pode incluir frases e expressões usados pelos alvos. E com poucos dólares pagar os serviços que geram áudios a partir de amostras. Num contexto de se realizar falsificações em Portugal, nos testes realizados pelo CpC, nenhuma plataforma testada conseguiu produzir para já áudios credíveis. Isto porque os modelos de voz têm sotaque do português do Brasil.

Mas salienta que a tecnologia já existe e pode ser uma questão de meses até as ferramentas serem atualizadas com voz em português europeu nas plataformas existentes. Mas também existem outras ferramentas não comerciais que já podem ser usadas por grandes empresas e organizações que tenham a sua própria agenda.

E com isso, o CpC deixa o alerta para as próximas eleições em Portugal para o Parlamento Europeu em junho do próximo ano. Poderão haver campanhas maliciosas, com o uso de ferramentas de IA para criar deepfakes para interferir com desinformação na eleição dos deputados para o Parlamento Europeu.

“A CNE (Centro Nacional de Eleições) deve estar particularmente atenta a estes fenómenos conhecidos como “deepfakes audio” e ter mecanismos de resposta rápida”, salienta a CpC, aconselhando à realização de contratos com empresas especializadas neste tipo de investigação e na criação de uma equipa dedicada para receber e processar as denúncias.

Deixa também algumas dicas e pistas que podem ajudar a identificar um possível áudio deepfake. Os áudios podem ter cadências vocais irregulares, assim como resíduos de áudio nas transições entre palavras.

Para uma identificação mais complexa e profissional, é referida a análise do especto, assim como uso de algoritmos de deep learning para analisar gravações reais do autor e comparar o áudio do alegado deep fake. Por fim, a deteção de artefactos de áudio inseridos nos registos sonoros.