A OpenAI está a desenvolver uma nova ferramenta para identificar e provar que uma imagem foi feita com recurso ao seu “editor” DALL-E, bem como novos métodos de marca d’água, mas para áudio.

A partir do seu blog, a empresa partilha que o detetor foi disponibilizado inicialmente a um pequeno grupo, incluindo laboratórios de investigação e organizações sem fins lucrativos de jornalismo, para testar a eficácia da aplicação em situações reais.

O objetivo da OpenAI é ajudar a identificar conteúdos gerados por inteligência artificial e fornecer mais detalhes sobre como foram criados, numa altura em que os desafios colocados pelos deepfakes e pela manipulação de imagens "reais" está na ordem do dia.

Inteligência Artificial "leva" Katy Perry e Rihanna à Gala Met. Deepfakes podem ser facilmente identificados?
Inteligência Artificial "leva" Katy Perry e Rihanna à Gala Met. Deepfakes podem ser facilmente identificados?
Ver artigo

Segundo a empresa, a ferramenta de deteção registou um alto índice de precisão nos testes internos ao analisar se uma imagem foi gerada ou não pelo DALL-E 3, a versão mais recente da tecnologia, identificando corretamente 98% das imagens criadas com a IA e sinalizou incorretamente em menos de 0,5% os conteúdos que não foram gerados pela IA..

A ferramenta não foi projetada para detetar imagens produzidas por outros geradores populares, como o Midjourney e o Stability, e aí o desempenho fica-se pelos 5% a 10%.

As novidades anunciadas AI incluem também a adição de marcas d'água aos áudios do Voice Engine, a sua plataforma de conversão de texto em fala, atualmente de acesso limitado. Tal como o classificador de imagens, o sinal de marca d'água de áudio ainda está a ser refinado em testes.

Além da ferramenta de deteção de imagens geradas pelo DALL-E e as marcas d’água, a OpenAI anunciou ainda que se juntou ao comité gestor da C2PA, com o objetivo de contribuir com o desenvolvimento do padrão para identificar conteúdos de inteligência artificial, refere no post.

Os riscos da difusão de informações falsas geradas com recurso à IA, como deepfakes de som, fotografia e vídeos manipulados, têm estado na ordem do dia, levando inclusive a Comissão Europeia a pedir às plataformas digitais que rotulem os conteúdos gerados por inteligência artificial, o que tem vindo a acontecer a julgar pelos anúncios feitos.

O mais recente é do TikTok, que diz ter reforçado a identificação de conteúdos gerados por inteligências artificiais de terceiros, com estratégias idêntica por parte da Meta para  Facebook, Instagram e WhatsApp.