Nos últimos anos, o número de imagens reais manipuladas para criar conteúdos pornográficos cresceu de forma significativa. As contas são difíceis de fazer e acontece o mesmo em relação à capacidade de controlar este tipo de conteúdos, um esforço que pode ter de passar por uma intervenção mais firme das empresas de internet. Até lá, o problema continua a crescer e o número de pessoas, em boa parte mulheres, que todos os dias vêem os seus rostos usados em montagens que recorrem à inteligência artificial para juntar caras e corpos distintos e criar conteúdo pornográfico, sem autorização das visadas, aumenta.

Um especialista entrevistado pela Wired fez um levantamento e apurou que, pelo menos, 244.625 vídeos pornográficos, deepfake não consensuais, foram carregados nos últimos sete anos nos 35 principais sites criados exclusiva ou parcialmente para alojar este tipo de conteúdos.

A análise mostra ainda que, só nos primeiros nove meses deste ano, 113 mil videos foram carregados para estes sites, mais 53% que em todo o ano passado e estima-se que este ano se alcance um número de deepfakes não consentidos de pornografia, maior que a soma de todos os anos anteriores.

Sobre estes 35 sites, foi possível apurar que a maioria diz explicitamente que tipo de conteúdos aloja e que alguns têm milhares de vídeos. Os dois maiores sites disponibilizam, cada um, 44 mil deepfakes alguns com milhões de visualizações. Foram também identificados 300 sites de pornografia que alojam deepfakes não consentidos.

A análise permitiu ainda perceber que entre 50 a 80% das pessoas que viram os vídeos divulgados nestas páginas foram lá parar seguindo resultados de pesquisa. Testes feitos pelo mesmo investigador confirmaram que não é difícil encontrar o caminho para sites de deepfakes, pesquisando só por esta designação nos principais motores de busca. Os resultados dos sites dedicados a este tipo de conteúdos surgem destacados.

O investigador responsável pela análise não foi identificado para não se tornar um alvo de quem promove este tipo de conteúdos, bem como os sites em questão, para não contribuir para uma divulgação ainda maior das ferramentas para isso usadas.

Os números, no entanto, pecam por defeito, uma vez que muitos destes conteúdos são distribuídos através de outros canais, como canais privados ou redes sociais, já para não referir que os vídeos pornográficos se juntam a outros tipos de imagens manipuladas, que podem ser igualmente lesivas para os visados.

A proliferação das ferramentas que permitem este tipo de montagem e a facilidade de utilização têm contribuído para aumentar o tamanho do problema até ficar fora de controlo, até porque só agora começa a surgir legislação para responsabilizar este tipo de abuso.

"Isto é algo que tem como alvo pessoas comuns, estudantes do ensino secundário comuns, adultos comuns - tornou-se uma ocorrência diária", assegura à Wired Sophie Maddocks, investigadora na área dos direitos digitais e violência cibersexual na Universidade da Pensilvânia. "Faria muita diferença se conseguíssemos dificultar o acesso a estas tecnologias. Dois segundos não deviam ser o suficiente para potenciar o incitamento a um crime sexual".

Têm surgido vários relatos de casos deste tipo. Um dos mais recentes mesmo aqui ao lado, em Espanha, quando em setembro se soube que 20 raparigas, com idades entre os 11 e os 17 anos, viram os seus rostos a circular pela internet em fotos geradas por inteligência artificial que juntavam esses rostos a corpos nus.

Os especialistas consultados pela Wired defendem que a forma de endereçar o problema pode passar por uma ação mais firme dos motores de busca, que podem dar menos destaque aos sites de deepfakes nos seus resultados de pesquisa, ou dos ISPs, que podem bloquear o acesso a sites com conteúdos não consentidos, como refere o investigador Henry Ajder.

"É difícil estar otimista, tendo em conta o volume e a escala destas operações e a necessidade de as plataformas - que historicamente não têm levado estas questões a sério - agirem rapidamente", acrescenta, no entanto, o mesmo responsável.

Google e Microsoft entretanto vão disponibilizando ferramentas que permitem solicitar o bloqueio destes conteúdos sexuais nos respetivos motores de busca, preenchendo um formulário e apresentando os links a proibir e as palavras de pesquisa que lá permitiram chegar.

Para os serviços da Google é possível apresentar esse pedido aqui. No Bing aqui, embora a Microsoft sublinhe que os deepfakes não consentidos são proibidos nas suas plataformas e serviços e vão claramente contra as políticas de utilização desses serviços.