SÃO PAULO, SP (FOLHAPRESS) – A empresa americana Anthropic, criadora do chatbot Claude, comunicou à Justiça da Califórnia nesta terça-feira (26) que chegou a um acordo com os escritores que a processam por utilizar cópias piratas de seus livros no treinamento de modelos de inteligência artificial.

Com isso, o processo fica paralisado, e agora cabe ao juiz do caso ratificar o acordo. Nem a empresa nem as partes apresentaram detalhes sobre a que conclusão as negociações chegaram.

No dia 8 de setembro, haverá uma audiência para a Justiça determinar se o pacto é justo. Como essa é uma chamada “ação de classe” -que estabeleceria reparação para todos os escritores lesados, não só os autores originais do processo-, o juiz precisa decidir se ele é vantajoso para os integrantes desse grupo, entre outros critérios.

Na ação, três escritores pediam reparação pelo uso sem autorização de suas obras pela Anthropic. No fim de junho, o juiz decidiu que empregar livros no treinamento de robôs sem pagar por isso era “uso justo”. Mas viu problema no uso de bibliotecas com obras pirateadas às quais a criadora do Claude recorreu para tal.

A empresa utilizou bibliotecas piratas que somavam mais de 7 milhões de livros. Dada essa extensão, o magistrado concordou em tornar o caso uma ação coletiva. Com isso, todos os milhões de autores prejudicados também se tornavam aptos a receber uma reparação em dinheiro.

“Esse acordo histórico vai beneficiar todos os integrantes da classe”, disse a defesa dos autores da ação original em nota enviada à agência Reuters. “Esperamos anunciar os detalhes nas próximas semanas.”

O processo assustava não só a Anthropic, mas todas as empresas de IA americanas. Afinal, várias delas usaram conteúdo proprietário sem autorização no desenvolvimento de seus modelos de IA e, além disso, também recorreram a conteúdos pirateados para tal.

Esse caso tinha o potencial para levar a Anthropic à falência e abrir um precedente perigoso para outras companhias do ramo. Advogados da empresa calculavam que a indenização para todos os autores lesados poderia passar de US$ 1 trilhão (R$ 5,4 trilhões) no total, compensação muitíssimo acima do próprio valor de mercado da Anthropic, que pode chegar a US$ 170 bilhões numa rodada de investimentos em breve.

As empresas de IA argumentam que a aplicação que fazem de conteúdo protegido no treinamento de seus modelos configura uso justo, já que os robôs não reproduzem esse material e sim criam algo novo a partir dele -como um ser humano faria.