Pouco antes do mundo iniciar um processo acelerado de transformação impulsionado por ferramentas como ChatGPT (da OpenAI, que possui uma parceria bem estabelecida com a Microsoft) e Bard (da Google), que passaram a fazer parte das manchetes das principais publicações jornalísticas ao redor do mundo (e do dia-a-dia de milhões de usuários), outras ferramentas surpreenderam usuários em todo o planeta: nomes como DALL-E, Midjourney e Stable Diffusion rapidamente se tornaram conhecidos entre artistas, designers, estudantes e interessados em explorar o campo da Inteligência Artificial Generativa (ou generative AI).
Leia também
Falamos sobre isso em uma coluna publicada há dois anos, quando apresentamos os avanços técnicos que viabilizaram uma das mais importantes revoluções em curso atualmente: as GANs (Generative Adversarial Networks, ou “Redes Adversárias Gerativas”). As GANs funcionam criando duas redes neurais artificiais (estruturas digitais inspiradas no cérebro humano), uma chamada “geradora” e a outra chamada “discriminadora”. A rede geradora cria novos dados, enquanto a discriminadora deve determinar se esses dados são reais ou falsos. Ambas as redes são treinadas ao mesmo tempo, competindo entre si (daí o nome do modelo): enquanto a geradora tenta criar dados que a discriminadora não consegue distinguir da realidade, a discriminadora tenta melhorar sua capacidade de diferenciação entre dados reais e dados falsos (ou dados extrapolados). Essa competição permite que sejam criadas imagens, vídeos ou vozes sintéticas que se aproximam ou até mesmo se confundem com as informações reais, utilizadas no treinamento das estruturas.
Quando o poder das GANs (e suas derivações) foi combinado com os Grandes Modelos de Linguagem (Large Language Models), no qual uma rede neural artificial passou a ser capaz de “entender” aquilo que escrevemos (tema da nossa coluna de fevereiro), ferramentas “generativas” ganharam popularidade ao redor do mundo. Criar imagens altamente sofisticadas, em qualquer tipo de estilo (realista, anime, manga, abstrato, surreal, tridimensional, entre outros) ou ainda baseado em qualquer artista que tenha sido utilizado no treinamento do modelo (pintores, desenhistas, fotógrafos — sejam do passado ou do presente) — tornou-se ainda mais simples que encomendar uma refeição pelo seu aplicativo favorito.
E é aqui que retornamos ao tema de nossa discussão do mês passado: a ética dos sistemas baseados em inteligência artificial. Para gerar novas imagens, o treinamento destas plataformas é realizado com dados do mundo real: centenas de milhões de imagens disponíveis na internet são apresentadas às redes neurais artificiais, que pouco a pouco “aprendem” como vincular descrições textuais ao resultado final desejado pelo usuário. Se por um lado alguns artistas acreditam no potencial desses sistemas para criar novos tipos de arte, outros estão preocupados com o fato desses sistemas criarem peças virtualmente indistinguíveis daquelas feitas por seres humanos, potencialmente desvalorizando o valor de seu próprio trabalho.
Outros artistas questionam se o fato de imagens das suas obras estarem disponíveis na rede realmente implicam em uma “autorização tácita” para que sejam utilizadas para treinar um potencial competidor, ou se não há discussões importantes a serem feitas sobre o tema de direitos autorais. Isso sem considerar outras preocupações legítimas, que incluem a potencial criação de peças ofensivas e preconceituosas com o objetivo de promover estereótipos e gerar discórdia.
Discórdia, notícias falsas e manipulação são as extensões naturais dessa discussão, que iremos continuar em nossa próxima coluna e que compõem um dos principais motivos pelos quais diversas figuras importantes de múltiplos segmentos entendem que é imprescindível aplicar freios e uma legislação rigorosa a esse novo mundo que vem sendo construído um prompt de cada vez. Até lá.
Os comentários são exclusivos para assinantes do Estadão.