Anthropic é acusada de treinar sua IA, Claude, com cópias piratas de livros

Ação judicial foi movida por um trio de escritores dos EUA que estão tentando representar uma classe de autores de ficção e não-ficção em situação semelhante

PUBLICIDADE

Por Matt O’brien (AP)

Um grupo de autores está processando a startup de inteligência artificial (IA), Anthropic, alegando que ela cometeu “roubo em grande escala” ao treinar seu popular chatbot Claude com cópias piratas de livros protegidos por direitos autorais.

Embora processos semelhantes tenham se acumulado por mais de um ano contra a concorrente OpenAI, fabricante do ChatGPT, este é o primeiro processo movido por escritores contra a Anthropic e seu chatbot Claude.

Anthropic enfrenta processo judicial pelo método de treinamento de sua IA Foto: Richard Drew/AP

PUBLICIDADE

A empresa menor, sediada em São Francisco - fundada por ex-líderes da OpenAI - tem se apresentado como a desenvolvedora mais responsável e focada na segurança de modelos de IA generativa que podem escrever e-mails, resumir documentos e interagir com as pessoas de forma natural.

Mas a ação judicial apresentada na segunda-feira, 19, em um tribunal federal em São Francisco, nos EUA, alega que as ações da Anthropic “ridicularizaram seus objetivos grandiosos” ao utilizar repositórios de textos piratas para criar seu produto de IA.

Publicidade

“Não é exagero dizer que o modelo da Anthropic busca lucrar com a extração da expressão humana e da engenhosidade por trás de cada uma dessas obras”, diz o processo.

A Anthropic não respondeu imediatamente a um pedido de comentário da revista Fortune na segunda-feira.

A ação judicial foi movida por um trio de escritores - Andrea Bartz, Charles Graeber e Kirk Wallace Johnson - que estão tentando representar uma classe de autores de ficção e não-ficção em situação semelhante.

Embora seja o primeiro processo contra a Anthropic movido por autores de livros, a empresa também está lutando contra um processo movido por grandes editoras de música, alegando que Claude regurgita as letras de músicas protegidas por direitos autorais.

Publicidade

O caso dos autores se junta a um número crescente de ações judiciais movidas contra desenvolvedores de modelos de linguagem de IA de grande porte em São Francisco e Nova York.

A OpenAI e sua parceira de negócios, a Microsoft, já estão lutando contra um grupo de processos de violação de direitos autorais liderados por nomes conhecidos como John Grisham, Jodi Picoult e o romancista de “Game of Thrones”, George R. R. Martin; e outro conjunto de processos de veículos de mídia como os jornais The New York Times, Chicago Tribune e a revista Mother Jones.

O que une todos os casos é a alegação de que as empresas de tecnologia ingeriram grandes quantidades de textos humanos para treinar chatbots de IA a produzir passagens de texto semelhantes às humanas, sem obter permissão ou compensar as pessoas que escreveram as obras originais. Os desafios legais não vêm apenas de escritores, mas também de artistas visuais, gravadoras de música e outros criadores que alegam que os lucros da IA geradora foram construídos com base na apropriação indevida.

A Anthropic e outras empresas de tecnologia argumentaram que o treinamento de modelos de IA se enquadra na doutrina de “uso justo” das leis dos EUA, que permite usos limitados de materiais protegidos por direitos autorais, como para ensino, pesquisa ou transformação do trabalho protegido por direitos autorais em algo diferente.

Publicidade

Mas o processo contra a Anthropic a acusa de usar um conjunto de dados chamado The Pile, que incluía uma grande quantidade de livros piratas. Ela também contesta a ideia de que os sistemas de IA estão aprendendo da mesma forma que os humanos.

“Os seres humanos que aprendem com os livros compram cópias legais deles ou os emprestam de bibliotecas que os compram, fornecendo pelo menos alguma compensação aos autores e criadores”, diz o processo.

Este conteúdo foi traduzido com o auxílio de ferramentas de Inteligência Artificial e revisado por nossa equipe editorial. Saiba mais em nossa Política de IA.

c.2024 Fortune Media IP Limited

Publicidade

Distribuído por The New York Times Licensing Group

Comentários

Os comentários são exclusivos para assinantes do Estadão.