As ferramentas que usam IA para transformar texto em imagens têm vindo a ganhar popularidade, mas também a gerar preocupação relativamente a questões como direitos de autor, com artistas a avançarem com processos contra tecnológicas, acusando-as de lucrarem através do roubo dos seus trabalhos.

Ainda este ano, uma equipa de investigadores da Universidade de Chicago, nos Estados Unidos, apresentou a Nightshade, uma ferramenta concebida para “envenenar” dados e ajudar artistas a lutarem contra o uso não autorizado das suas imagens.

Milhões de imagens compõem os datasets usados para treinar os modelos usados nas ferramentas de IA. Embora alguns sejam treinados com recurso a conteúdo que as empresas detêm ou têm uma licença para usar, outros usam uma variedade de imagens recolhidas online.

Os modelos de IA identificam imagens através dos termos usados nos metadados. A Nightshade “envenena” os dados, fazendo com que os modelos se confundam neste processo de associação, explica Ben Zhao, investigador da Universidade de Chicago que liderou a equipa de investigadores, à NPR.

Dados envenenados podem ajudar artistas a lutar contra o roubo de imagens para treinar modelos de IA
Shawn Shan, Wenxin Ding, Josephine Passananti, Haitao Zheng, Ben Y. Zhao (Universidade de Chicago)

A Nightshade não é a única ferramenta desenvolvida pelos investigadores. A Glaze permite fazer mudanças nos pixels das imagens. Ao olho nu, estas alterações são imperceptíveis, mas, para um modelo de IA, são suficientes para gerar confusão e levá-los a pensar que se trata de algo diferente.

Como avança o website MIT Technology Review, os investigadores tencionam integrar a Nightshade na Glaze, para dar aos artistas a possibilidade de escolherem se querem, ou não, “envenenar” as imagens. Os planos da equipa passam também por abrir a ferramenta ao público, tornando-a Open Source.

A par da Nightshade ou da Glaze, a Kudurru, criada pela Spawning.ai, é outra das ferramentas que poderão ajudar os artistas a lutar contra o uso não autorizado dos seus trabalhos. Neste caso, a ferramenta identifica quem está a recolher conteúdo online sem autorização, detectando os respectivos endereços IP e bloqueando-os temporariamente.