Depois da OpenAI é a vez de outras empresas de inteligência artificial generativa darem nas vistas junto dos autores com os métodos de treino usados para “ensinar” os seus chatbots. A Anthropic vai enfrentar uma ação popular nos Estados Unidos, interposta por três autores que acusam a companhia de usar versões pirata das respetivas obras para treinar o seu modelo de linguagem.

O processo arranca com queixas referentes ao acesso não autorizado a conteúdos de livros dos autores, mas sendo uma ação popular outros queixosos podem juntar-se e aumentar facilmente a dimensão do caso e dos possíveis danos a avaliar pela justiça.

O valor da indemnização pedida pelos três autores não é conhecido, mas sabe-se que, além disso, os promotores da queixa querem que o tribunal proiba a utilização dos conteúdos em questão pela Anthropic com efeitos imediatos. Os autores que movem o processo são Andrea Bartz, Charles Graeber e Kirk Wallace, escritores e jornalistas.

Se não é possível treinar inteligência artificial sem violar direitos de autor, qual é o caminho?
Se não é possível treinar inteligência artificial sem violar direitos de autor, qual é o caminho?
Ver artigo

Um porta-voz da Anthropic já confirmou que a empresa está a par do caso, mas recusou fazer comentários e a mesma posição assumiu o advogado dos autores, que também não quis comentar o caso à agência Reuters.

No último ano foram notícia vários outros casos semelhantes por causa dos grandes modelos de linguagem serem treinados “varrendo” toda a internet e no processo, tanto usarem conteúdos protegidos por direitos de autor (muitas vezes distribuídos também ilegalmente por terceiros) como conteúdos de acesso aberto e não protegidos.

A própria Anthropic já foi visada noutros processos. O mais mediático foi lançado no final do ano passado e junta várias editoras musicais como a Universal Music, ABKCO e Concord Publishing, que acusam a empresa de usar músicas protegidas por direitos de autor para treinar o seu chatbot Claude. A OpenAI, e por arrasto a Microsoft, ou a Meta são também visadas em processos do género.

Ainda nenhum dos casos produziu resultados na justiça. Várias acabaram por ser resolvidos à margem do tribunal, com acordos de licenciamento de conteúdos. Esta política é aliás cada vez mais seguida pelas empresas de IA, mesmo antes dos queixosos chegarem à justiça, como forma de evitar esse tipo de litígio.

Exemplo disto é o acordo assinado também esta terça-feira entre a OpenAI e a Condé Nast, que abre acesso à dona do ChatGPT aos conteúdos de publicações do grupo como a Vogue ou a The New Yorker. A OpenAI já assinou acordos semelhantes com a Time, o Financial Times, o Le Monde ou o grupo Prisa, em Espanha.