O TikTok terá proibido em março a publicação e partilha na plataforma de vídeos animados por inteligência artificial, que recorrem a imagens de crianças, mas uma investigação da BBC concluiu que este tipo de conteúdos continua a circular e a chocar as famílias dos menores falecidos.

A técnica é mais uma, usada por alguns perfis, para chamar a atenção de quem circula pela rede social e acumular visualizações. Com recurso a software de inteligência artificial têm sido criados pequenos vídeos para contar a história de morte de diferentes crianças. Nos exemplos citados pela reportagem da BBC, citam-se a histórias de crianças que foram assassinadas.

Em alguns destes vídeos a imagem é aleatória, mas noutros a imagem animada por IA é a da própria criança que já morreu, a partir de uma fotografia que tenha sido publicamente divulgada. A isso junta-se um texto criado pelo autor do conteúdo, que é reproduzido por uma voz sintetizada, como se fosse a própria criança a falar.

Um destes casos foi reportado por uma mãe do Canadá, Amélie Lemieux, cujas duas filhas com 6 e 11 anos foram assassinadas pelo pai e ex-marido da mulher, que depois de cometer os crimes se suicidou. A mulher divulgou a história depois de ter encontrado o vídeo protagonizado pela imagem animada de uma das crianças no TikTok, a descrever a morte na primeira pessoa.

A investigação da BBC encontrou vários outros vídeos do género, já depois de março, altura em que a rede social terá proibido a publicação deste tipo de conteúdos. Entre eles, 170 vídeos a relatar “na primeira pessoa” a morte de uma criança britânica de dois anos, que em 1993 foi assassinada por outras duas crianças mais velhas.

Os pais recriminam o TikTok por permitir a exibição deste tipo de conteúdos e sublinham o efeito psicológico destes vídeos neles próprios e noutros familiares menores com acesso à plataforma.

A rede social tem vindo a admitir a dificuldade de garantir uma monitorização 100% eficaz do cumprimento da política de utilização da rede social, embora assegure que faz todos os esforços nesse sentido.

Um moderador de conteúdo ao serviço da empresa, a partir do Vietname, disse no entanto à BBC, sob anonimato, que a rede social não alterou as diretrizes passadas aos moderadores, depois de ter vindo a público assumir uma posição mais firme sobre o assunto. Esse relato foi feito duas semanas após a tomada de posição da empresa sobre o tema.

Isso aconteceu em julho, depois da mãe do bebé assassinado em 1993, James Bulger, tornar o caso público, num alerta para o que considerou a permissão para divulgar vídeos “doentios”. Na sequência disso foram removidos vários vídeos, que somavam mais de 4 milhões de visualizações e o TikTok assegurou que "não há lugar na plataforma para conteúdo perturbador desta natureza. Continuamos a remover este tipo de conteúdo à medida que o encontramos".

No entanto, também a mãe canadiana, que deu várias entrevistas sobre o vídeo divulgado com o relato da morte do filho assassinado, relata que o conteúdo foi por diversas vezes reportado à plataforma e continuou online. A conta que o criou, anónima, acabou mais tarde, e só depois do caso vir a público, por ser bloqueada pela plataforma.

Muitas das contas que exploram este tipo de conteúdos são privadas, mas a BBC identificou uma delas como pertencendo a um jovem estudante britânico (Ritul), que usava o seu canal no YouTube para promover os vídeos criados para o TikTok.

O rapaz referia no canal que este tipo de vídeos, a contar histórias da morte de menores na primeira pessoa, lhe renderam milhares de seguidores: “ganhei 47 mil seguidores em menos de três semanas”, admitia. O jovem não quis participar na reportagem e a sua conta no TikTok foi entretanto banida.

Foram identificados pela BBC vídeos com este tipo de conteúdos em diferentes línguas, entre elas o português, espanhol, francês, alemão, italiano ou polaco