A criação de imagens realístas de pessoas nuas através de chatbots está a ficar fora do controlo e qualquer um pode “despir” virtualmente uma celebridade ou alguma pessoa que conheça, obtendo novas fotografias ou vídeos de deepfake com apenas uns cliques e a introdução do material-fonte que se deseja transformar. Uma investigação da Wired à aplicação do Telegram resultou em dúzias de chatbots de IA que fazem o trabalho sem grande esforço do utilizador. E há milhões de pessoas a utilizar de forma abusiva estas ferramentas de IA generativa.

De recordar que no início do ano, deepfakes sexualmente explícitas de Taylor Swift motivam criação de nova proposta de lei nos Estados Unidos. A DEFIANCE Act quer proteger as vítimas da publicação de imagens sexualmente explícitas geradas por IA, dando-lhes a oportunidade de recorrer à Justiça, e responsabilizar quem cria e difunde este tipo de conteúdo.

Mas a nova investigação às comunidades envolvidas em conteúdos explícitos não consensuais identificou pelo menos 50 bots que dizem criar fotos e vídeos com apenas alguns cliques. Estes bots estão disponíveis com diferentes “habilidades”, desde a remoção das roupas de fotografias, outros dizem conseguir criar imagens com pessoas em atos sexuais.

A minha imagem foi manipulada e divulgada na internet. O que posso fazer?
A minha imagem foi manipulada e divulgada na internet. O que posso fazer?
Ver artigo

Combinados, estes 50 bots listam mais de 4 milhões de utilizadores mensais. Dois desses bots listaram mais de 400 mil utilizadores ativos, cada um, outros 14 têm mais que 100 mil membros, cada um. Estes números revelam como as ferramentas de criação de deepfakes continuam a ser disponibilizadas e o Telegram como um dos principais veículos de propagação dos chatbots.

O especialista em deepfakes, Henry Adjer, explicou ao The Wired que se trata de um aumento significativo de pessoas que estão a utilizar ferramentas, como os bots do Telegram, de forma abusiva e a destruir vidas, criando cenários assustadores que afetam sobretudo as jovens adolescentes e mulheres. E afirma que continua a ser um processo fácil de utilizar e de acesso rápido, encontrando-se na superfície da internet.

Existem cerca de 25 canais do Telegram, identificados pela Wired, onde os utilizadores podem subscrever o feed de atualizações. Estas comunidades, que chegam aos 3 milhões de membros, avisam os membros sobre novas funcionalidades e oferecem tokens disponíveis para compra que servem para os ativar.

O próprio Telegram parece não ter mãos a medir para eliminar este tipo de contas. A empresa apagou as contas reportadas pela Wired, cerca de 75 bots e canais identificados. Mas outros parecem surgir de imediato. Nas notas colocadas pelos utilizadores proprietários desses canais são prometidas novas criações de bots para o dia seguinte.

Deepfakes sexualmente explícitas de Taylor Swift motivam criação de nova proposta de lei nos EUA
Deepfakes sexualmente explícitas de Taylor Swift motivam criação de nova proposta de lei nos EUA
Ver artigo

Espalhados à vista, os bots do Telegram têm como principal objetivo ajudar os utilizadores da rede social, criar alertas ou traduzir mensagens, assim como começar videochamadas no Zoom. No entanto, muitos deles permitem a criação de deepfakes.

Pela natureza grave dos conteúdos, os investigadores optaram por não testar os chatbots, não chegando também a uma conclusão de quantas imagens ou vídeos possam ter sido criados. Mas os bots construídos para criar deepfakes tinham nomes e descrições sugestivas para o qual foram criados. No entanto, a sua utilização obriga a introduzir tokens adquiridos para a criação das imagens. Isto revela a quantidade de utilizadores que está a pagar para utilizar estes serviços.

Isso significa que os chatbots de deepfake já atuam como serviços potencialmente lucrativos. E alguns deles passam despercebidos à superfície, mas quando se começa a explorar as suas definições descobrem-se as opções de natureza sexual.

De notar que a tecnologia de deepfakes não é usada só com cantores ou atores. Qualquer pessoa pode ser vítima de uma chantagem com base neste tipo de imagem manipulada, ou alvo de brincadeiras sem graça para criar conteúdos íntimos. Se alguma vez foi vítima de uma imagem criada por IA saiba o que pode fazer.