Vejamos duas abordagens da indústria da música para a inteligência artificial (IA). Uma delas é a de Giles Martin, filho de sir George Martin, produtor dos Beatles. No ano passado, para remixar o álbum Revolver, do Fab Four, de 1966, ele usou inteligência artificial para apreender os sons dos instrumentos de cada integrante da banda (por exemplo, a guitarra de John Lennon) a partir de uma fita master mono para poder, depois, separá-los e fazer engenharia reversa em estéreo.
O resultado é glorioso. A outra abordagem também não é ruim. Trata-se da resposta de Nick Cave, um temperamental cantor e compositor australiano, ao ler letras escritas em seu estilo pelo ChatGPT, a ferramenta de inteligência artificial desenvolvida pela startup OpenAI. “Essa música é um lixo”, escreveu ele. “Compor uma música boa não é mímica, nem replicação, nem pastiche, é o contrário. Isso é um ato de assassinato de si que destrói tudo o que alguém se esforçou para produzir no passado.”
É improvável que Cave se impressione com a versão mais recente do algoritmo por trás do ChatGPT, apelidado de GPT-4, que a OpenAI revelou em 14 de março. Martin talvez ache útil. Michael Nash, diretor digital da Universal Music Group, a maior gravadora do mundo, cita seus exemplos como evidência de temor e entusiasmo a respeito da IA por trás de aplicativos de criação de conteúdo, como ChatGPT (para texto) ou Stable Diffusion (para imagens).
Essas ferramentas podem ajudar no processo criativo. Também podem destruí-lo ou usurpá-lo. No entanto, para a música em geral, a chegada dos bots traz à mente um evento sísmico de sua história: a rápida ascensão e queda do Napster, uma plataforma para compartilhamento sobretudo de músicas piratas na virada do milênio. O Napster acabou sendo derrubado pela lei de direitos autorais.
Para provedores de bots agressivos, acusados de passar por cima da propriedade intelectual, Nash tem uma mensagem simples que, vinda de um veterano da indústria musical da era Napster, soa como ameaça. “Não se posicione no mercado e implore por perdão. Essa é a abordagem do Napster.”
A questão principal aqui não são as paródias de Cave feitas por IA nem os falsos sonetos de Shakespeare. São os oceanos de dados protegidos por direitos autorais que os bots extraíram enquanto eram treinados para criar conteúdo semelhante ao humano. Essas informações vêm de todos os lugares: feeds de redes sociais, pesquisas na internet, bibliotecas digitais, televisão, rádio, bancos de estatísticas e assim por diante. Muitas vezes, alega-se, os modelos de IA saqueiam os bancos de dados sem permissão. Os responsáveis pelo material de origem reclamam que seu trabalho é usado sem consentimento, crédito ou compensação. Em suma, algumas plataformas de inteligência artificial podem estar fazendo com outras mídias o que o Napster fez com as músicas: ignorando totalmente os direitos autorais. E os processos começaram a aparecer.
É um campo minado jurídico, com implicações que se estendem para além das indústrias criativas, rumo a qualquer negócio em que o aprendizado de máquina tenha algum papel – como carros autônomos, diagnósticos médicos, robótica de fábrica e gerenciamento de riscos de seguros. A União Europeia, fiel à burocracia, tem uma diretiva sobre direitos autorais que se refere à mineração de dados (escrita antes do recente boom dos bots).
Especialistas dizem que os EUA não têm casos específicos para a IA generativa. Em vez disso, têm teorias conflitantes sobre se a mineração de dados sem licença é permitida ou não sob a doutrina do fair use (uso razoável ou aceitável, na tradução para o português). O Napster também tentou emplacar o fair use como defesa nos EUA – e fracassou. Isso não quer dizer que o resultado será o mesmo desta vez.
Os principais argumentos em torno do fair use são fascinantes. Segundo uma palestra de Mark Lemley e Bryan Casey sobre o assunto, publicada no periódico acadêmico Texas Law Review, o uso de obras protegidas por direitos autorais é considerado razoável ou aceitável quando serve a um propósito social valioso – ou seja, o material de origem é transformado a partir do original e não há efeito sobre o mercado dos detentores de direitos autorais. Os críticos argumentam que as inteligências artificiais não transformam, apenas exploram a totalidade dos bancos de dados que mineram.
Eles alegam que as empresas por trás do aprendizado de máquina abusam do fair use ao “pegar carona” no trabalho de terceiros. E afirmam que isso ameaça os meios de subsistência dos criadores, bem como da sociedade em geral, visto que a IA pode promover vigilância em massa e disseminar desinformação. Os autores pesam esses argumentos contra o fato de que, quanto maior for o acesso aos dados para treinamento, melhor será a IA – e de que, sem esse acesso, talvez nem exista Inteligência Artificial. Em outras palavras, a indústria pode morrer ainda na infância. Eles caracterizam este momento como uma das questões legais mais importantes do século: “A lei de direitos autorais permitirá que os robôs aprendam?”.
Um processo inicial que chama a atenção é o da Getty Images. A agência de fotografia acusa a Stability AI, dona da Stable Diffusion, de infringir seus direitos autorais sobre milhões de fotos de sua coleção para construir um modelo de geração de imagens de IA que competirá com a Getty. Se o caso não for resolvido fora do tribunal, poderá abrir um precedente sobre o fair use. Um veredicto ainda mais importante pode vir em breve da Suprema Corte dos EUA em um caso envolvendo a transformação de imagens protegidas por direitos autorais de Prince, o ídolo pop, pelo falecido Andy Warhol. Daniel Gervais, especialista em propriedade intelectual da Vanderbilt Law School em Nashville, acredita que os juízes podem fornecer orientações há muito esperadas sobre o fair use em geral.
A extração de dados protegidos por direitos autorais não é a única questão legal que a IA generativa enfrenta. Em muitas jurisdições, os direitos autorais se aplicam apenas ao trabalho criado por humanos. Portanto, ninguém sabe ao certo até que ponto os bots podem reivindicar proteção de propriedade intelectual para o material que geram. Fora dos tribunais, as maiores questões são políticas: a IA generativa deve ou não desfrutar das mesmas proteções de responsabilidade pelo conteúdo que exibe, como as plataformas de redes sociais? E até que ponto isso compromete a privacidade dos dados?
Mas a batalha em torno da propriedade intelectual será grande. Nash diz que as indústrias criativas devem se posicionar rapidamente para garantir que a produção dos artistas seja licenciada e usada eticamente no treinamento de modelos de IA. Ele exorta as empresas de inteligência artificial a “documentar e divulgar” suas fontes. Mas reconhece que é um equilíbrio delicado. Caras criativos não querem soar como inimigos do progresso.
Muitas pessoas podem se beneficiar da IA no trabalho. A lição da “terapia da realidade” do Napster, como Nash a chama, é que é melhor se envolver com novas tecnologias do que torcer para que elas desapareçam. Talvez desta vez não sejam necessários 15 anos de receita desmoronando para que a indústria aprenda a lição. l TRADUÇÃO DE RENATO PRELORENTZOU