A notícia da divulgação online de imagens sexualmente explícitas, manipuladas por inteligência artificial para parecerem da cantora Taylor Swift, correu o mundo há uns dias e mereceu uma resposta rápida de políticos e empresas de tecnologia. Há mesmo uma proposta legislativa já em marcha nos Estados Unidos para criar um quadro de responsabilização para quem cria, divulga e recebe este tipo de conteúdo.
O problema dos deepfakes não é novo nem tem uma solução fácil, por diversas razões. O acesso às ferramentas que permitem manipular um som ou uma imagem verdadeira e pôr alguém num sítio onde nunca esteve, a fazer o que nunca fez, ou a dizer o que nunca disse, é cada vez mais fácil. Muitas destas ferramentas são gratuitas e de utilização intuitiva para qualquer leigo na matéria.
A tecnologia é relativamente recente mas está a evoluir a cada dia, pelo que a qualidade destes conteúdos falsos também é cada vez maior. Nos últimos meses surgiram dezenas de vídeos e fotos que mostram isso mesmo, como este, com a imagem de Morgan Freeman a explicar que “ele não é ele”.
Se a maioria dos conteúdos manipulados com inteligência artificial fossem tão inocentes, seria só divertido acompanhar a evolução tecnológica destas ferramentas, mas não é isso que acontece. A tecnologia é cada vez mais usada para manipular imagens do foro íntimo, tanto de adultos como de crianças. Nestes casos, as vitimas são sobretudo do sexo feminino, como explica a responsável da Linha Internet Segura, Carolina Soares, admitindo que o número de queixas recebidas sobre este tipo de situações tem vindo a aumentar.
As denúncias que chegam à linha coordenada pela Associação Portuguesa de Apoio à Vítima mostram que a faixa etária das vítimas de crimes de partilha de imagens de foro íntimo não autorizadas, manipuladas ou não, é bastante alargada. Cobre desde adolescentes até pessoas com 60 a 70 anos, em contextos de violência muito diversos.
Nas idades mais avançadas têm proliferado os casos de violência sexual a partir de imagens associados a situações de extorsão, que “começam com uma chamada ou troca de conteúdo e logo a seguir inicia-se o processo de extorsão, com base numa imagem que o outro lado diz ter gravado”, explica Carolina Soares.
Nas denúncias relacionadas especificamente com a utilização de deepfakes também há situações que envolvem tentativas de extorsão. A surfista portuguesa Mariana Rocha Assis revelou ter sido recentemente vítima de um caso destes. Acabou por divulgar a ameaça antes das fotos serem reveladas e recusou-se a pagar ao agressor, mas não conseguiu evitar que este lhe roubasse todos os fundos que tinha numa wallet digital com investimentos em criptomoedas. Mas na esmagadora maioria dos casos, as imagens manipuladas são publicadas sem conhecimento prévio da vítima e o mote não é financeiro.
Esta imagem manipulada através do serviço Midjourney também correu mundo. É mais um exemplo do que a tecnologia de deepfake pode fazer, aqui sem consequências graves
A vítima descobre por terceiros que dá rosto a uma imagem manipulada de cariz sexual que anda a circular pela internet, muitas vezes em grupos de WhatsApp ou Telegram aos quais nem teve acesso. Casos como o que aconteceu em Espanha no verão, onde imagens reais de duas dezenas de adolescentes - a mais nova com 11 anos - foram usadas para criar nudes que as próprias e amigos receberam em grupos de WhatsApp, também têm surgido em Portugal. “Temos casos de menores de 18 com imagens manipuladas e a circular na internet. Isto acontece sobretudo no âmbito do ambiente escolar”, confirma Carolina Soares.
“Apesar de uma imagem manipulada não ser verdadeira, o dano causado na vítima é muito semelhante”, sublinha ainda a responsável. Não só porque as imagens que recorrem a este tipo de tecnologias são cada vez mais credíveis, mas porque “todo o contexto de circulação dessa imagem é muito forte e a ansiedade gerada na vítima por não saber quem vai ver, por onde vai circular aquela imagem e por saber que não vai conseguir controlar essa divulgação é enorme”.
O método utilizado para divulgação destes conteúdos de cariz sexual manipulados é muitas vezes o mesmo que já era usado para fazer circular imagens do foro íntimo reais. Redes sociais como o Telegram ou o Whatsapp, com comunicações encriptadas, são privilegiadas. “Há também uma tendência crescente para publicar este tipo de conteúdos nos stories do Instagram, que desaparecem ao fim de 24 horas”, acrescenta Carolina Soares.
Ambas as opções dificultam a ação das autoridades e das próprias plataformas por serem ambientes fechados, o que nem por isso minimiza a possibilidade de serem difundidas, já que quem vê a imagem pode guardá-la e continuar a divulgação onde quiser, quando quiser.
No caso das plataformas encriptadas, a bandeira da garantia de privacidade das comunicações têm nestes casos o revés da moeda, porque essa codificação de todo o conteúdo das mensagens entre quem manda e quem recebe inviabiliza a utilização de um conjunto de ferramentas já disponíveis para detetar e remover conteúdo ofensivo.
“Um whatsapp ou um Telegram são encriptados e isso significa que a própria plataforma tecnológica não tem capacidade, ainda, para aplicar tecnologia de hashing e fazer uma pesquisa ativa de determinado conteúdo”. É preciso que haja uma denúncia concreta para haver uma ação.
Quando uma imagem manipulada, ou real, mas abusiva, é partilhada numa plataforma aberta como o Facebook, ou em sites que os motores de busca conseguem indexar, há um conjunto de ferramentas que podem ser usadas para varrer bases de dados. Identificam o que precisa de ser limpo, ou partilham informação crucial para impedir futuras publicações de imagens já referenciadas. Ainda assim, há medidas que podem ser tomadas, tanto pelas vítimas como pelas autoridades.
Quem manipula imagem com recurso a tecnologia deepfake?
Na maior parte dos casos que chegam à Linha Internet Segura, a partilha de imagens manipuladas é feita por alguém que a vítima conhece: colegas, nos casos em ambiente escolar, antigos parceiros ou novas companheiras de antigos parceiros. Em alguns casos de cyberstalking, os deepfakes também estão a ser usados como mais uma forma de atormentar a vítima perseguida online.
Muitas vezes, reconhece Carolina Soares, “a vítima nem sequer tem uma atividade digital significativa, até porque basta ter acesso a uma foto para criar um conteúdo manipulado”. A maior parte dos casos denunciados à linha de apoio coordenada pela APAV partem de uma única imagem, que é manipulada uma vez. Noutros contextos, como em redes de pedofilia ou pornografia, tem sido identificada uma utilização destes recursos em escala. A partir de uma imagem abusiva verdadeira, a tecnologia de deepfakes é usada para criar muitas outras que multiplicam cenas e cenários.
Dados da Internet Watch Foundation (IWF), divulgados em outubro do ano passado, após uma análise feita apenas num único site de pedofilia revelaram 11 mil imagens digitalmente manipuladas, sendo que quase 3.000 representavam, efetivamente, abuso sexual infantil. O relatório destacava como nova a tendência de predadores sexuais tirarem fotos únicas de vítimas de abuso infantil e criar novas imagens a partir delas, em diferentes ambientes de abuso sexual, partilhando inclusive o modelo de IA utilizado para que outros pedófilos possam fazer o mesmo.
Pela mesma altura, um especialista entrevistado pela Wired concluía que 2023 podia vir a ser o ano em que o número de vídeos manipulados com ajuda de inteligência artificial, para juntar rostos reais a cenas de pornografia sem o consentimento dos visados, ultrapassasse o de todos os anos anteriores somados. A conclusão resultava da análise de conteúdo em 35 sites dedicados a esta atividade e mostrava que as mulheres são as maiores vítimas. Verifica-se que nos últimos sete anos estes sites receberam 244.625 vídeos pornográficos criados com tecnologia deepfake. Nos primeiros nove meses de 2023 já tinha sido carregados mais 113 mil.
O documentário Another Body, que estreou no final do ano passado e que foi vencedor do Prémio Especial do Júri no SXSW Film Festival e outros, aborda precisamente o tema e o impacto que pode ter na vida real. Conta a história verdadeira de uma estudante universitária de engenharia, que descobriu por um amigo que estava a dar o rosto a uma atriz de filmes pornográficos. O rosto era real, tudo o resto foi criado com inteligência artificial, mas circulou de tal forma na internet que a dupla de realizadores do filme chegou às suas redes sociais através do suposto perfil da jovem no PornHub, onde nunca tinha estado.
Esquemas de fraude com criptomoedas e ofertas de emprego também aceleram com IA
Voltando ao contexto português e às queixas que têm chegado à Linha Internet Segura, começam a identificar-se também outras áreas onde o recurso a ferramentas de inteligência artificial já parece evidente, como os esquemas de burla para investimentos em criptomoedas, ou empregos online em part-time. “Isto é novo, há uns meses não víamos acontecer”, admite Carolina Soares. “Começámos a perceber pela sequência de mensagens que a pessoa recebe, que são ferramentas de IA a conversar com ela”.
Estas ferramentas estão a ser usadas nas primeiras trocas de mensagens, com quem se interessa por uma mensagem ou anúncio que recebeu no telemóvel ou viu no Facebook, a propor um investimento altamente rentável em criptomoedas, ou um part-time online bem remunerado. Os dois tipos de ofertas têm o mesmo objetivo, de acabar por extorquir dinheiro a quem cai no esquema e nalguns casos os prejuízos chegam aos milhares de euros.
No caso dos investimentos cripto, a vítima começa por ganhar dinheiro, como incentivo ao reinvestimento. As perdas começam quando investe mais ou quando tenta recuperar o investimento e é confrontado com todo o tipo de taxas para poder fazê-lo. Nas propostas de rendimento extra com pequenas tarefas online, como fazer gostos em páginas ou partilhar conteúdos, para poder ter acesso a um rendimento que nunca chega.
Ambos os esquemas continuam a envolver burlões humanos, mas “com a ajuda da IA uma parte do processo é automatizada e com isso multiplicam-se as oportunidades de chegar a um maior número de vítimas”, sublinha Carolina Soares.
Em 2023, as burlas continuaram a ser um dos grandes motes para as queixas recebidas na linha Internet Segura, associadas a diferentes métodos para atrair as vítimas. Os principais dados foram divulgados esta terça-feira pela APAV. A segunda área com mais casos denunciados é a da violência sexual baseada em imagens, onde se destacam os casos de sextortion. Num grupo e noutro, o número de denúncias está a crescer. Verifica-se também um aumento recente das burlas românticas e “temos cada vez mais casos de menores, vítimas de tentativas de extorsão ou de ameaças de partilha de imagens”, reconhece Carolina Soares.
Este artigo integra um Especial que o SAPO TEK está a publicar ao longo desta semana sobre O lado "menos bonito" da inteligência artificial.
Pergunta do Dia
Em destaque
-
Multimédia
Imagens de satélite mostram impacto das cheias em Espanha e ajudam a salvar vidas -
App do dia
O seu telefone é “esperto” o suficiente? A app Geekbench AI quer servir como tira-teimas -
Site do dia
Tem boa capacidade de observação? Então tente encontrar as personagens em i-Spy -
How to TEK
4 dicas rápidas para tirar partido do iPad e tornar-se mais produtivo
Comentários