A OpenAI está a desenvolver uma ferramenta que potencialmente pode “apanhar” quem recorre ao ChatGPT para escrever textos em seu nome, para artigos escolares ou profissionais, por exemplo, mas está a ponderar se deve ou não lançá-la.

A informação é avançada pelo The Wall Street Journal que aponta a abordagem - em desenvolvimento há dois anos - como diferente da maioria dos esforços anteriores para detetar texto gerado por IA, e que se revelaram amplamente ineficazes, com baixas taxas de precisão.

Com a marca d'água de texto, a OpenAI pretende concentrar-se apenas em identificar a escrita do ChatGPT, não de modelos de outras empresas. O método passa por fazer pequenas alterações na forma como o ChatGPT seleciona palavras, essencialmente criando uma marca d'água invisível na escrita que poderia ser detetada posteriormente por uma ferramenta separada.

Já o TechCrunch nota que após a publicação do artigo do The Wall Street Journal, a OpenAI também atualizou um post de maio no seu blog sobre as investigações que tem feito em torno da identificação de conteúdo gerado por IA.

A atualização diz que a marca d'água de texto provou ser "altamente precisa e até eficaz contra adulteração localizada, como paráfrase", mas provou ser "menos robusta contra adulteração globalizada; como usar sistemas de tradução, reformular com outro modelo generativo ou pedir ao modelo para inserir um caractere especial entre cada palavra e, em seguida, excluir esse caractere". Como resultado, a OpenAI escreve que esse método é "fácil para contornar por atores mal-intencionados".

Clique nas imagens para mais detalhes

A atualização da OpenAI também destaca que a marca d'água de texto poderia “estigmatizar o uso da IA ​​como uma ferramenta de escrita útil para falantes não nativos de inglês”.