Fotos e textos ajudam a treinar IAs, mesmo sem permissão de usuários

Aplicativos como Lensa, em alta nas redes sociais, têm IAs treinadas a partir das fotos carregadas pelos usuários

PUBLICIDADE

Por Shira Ovide

THE WASHINGTON POST - Sem dúvidas aquela selfie tirada enquanto estava bêbado e postada no Instagram pode ser uma vergonha para você. Agora imagine que essa mesma selfie também está treinando e abastecendo um sistema de inteligência artificial que ajuda a colocar uma pessoa inocente na prisão.

Bem-vindo à era da inteligência artificial. O que você faz com seu rosto, seus vídeos de segurança domésticos, o que você escreve e as fotos da exibição de arte do seu amigo não dizem respeito apenas a você. Quase completamente sem o seu consentimento real, as informações publicadas por você ou sobre você na internet estão sendo usadas para treinar softwares de IA. Essas tecnologias podem permitir que um estranho o identifique ao vê-lo ou criar arte personalizada sob seu comando.

PUBLICIDADE

Para o bem ou para o mal, esses sistemas de IA são desenvolvidos com pedacinhos de você. O que esperar pela frente agora que estamos dando vida à IA e não conseguimos imaginar os resultados disso?

Recentemente, entraram em alta aplicativos como o Lensa, que transforma algumas selfies enviadas pelo usuário em retratos artísticos, e o ChatGPT, que escreve poemas bobos ou e-mails profissionais que parecem ter sido redigidos por um ser humano. Essas tecnologias de IA podem ser extremamente úteis, mas elas também vêm junto com um monte de questões éticas complicadas.

A magia por trás dos retratos criados pelo Lensa vem dos estilos de artistas cujos trabalhos foram incluídos em um banco de dados gigante para treinar computadores geradores de imagens. Os profissionais não deram permissão para isso nem estão sendo pagos. Em outras palavras, aqueles seus retratos divertidos são construídos com trabalhos roubados de artistas.

Publicidade

Já o ChatGPT aprendeu a imitar humanos analisando receitas, publicações nas redes sociais, resenhas de produtos e outros textos que todos postam na internet.

Além dessas duas tecnologias, as fotos do seu aniversário no Facebook ajudaram a treinar o software de reconhecimento facial Clearview AI, utilizado pelos departamentos de polícia nos Estados Unidos em investigações criminais.

App Lensa, sucesso nas redes sociais, usa IA para criar fotos. Foto: Reprodução/Lensa

Participar dessa construção coletiva de todos esses sistemas de IA pode parecer injusto para você, ou incrível. Mas isso está acontecendo e a tecnologia deixou para trás nossa ética e nossas leis.

“Embora seja, sem dúvidas, uma prática individual positiva limitar o compartilhamento digital quando não se sabe ou não é possível saber o que vai ser feito depois com seus dados, fazer isso não terá um impacto grande no uso indevido de dados por empresas e governos”, disse Emily Tucker, diretora executiva do Centro de Privacidade da Faculdade de Direito da Universidade Georgetown.

Emily disse que as pessoas precisam se organizar para exigir regulamentações de privacidade e outras restrições que impeçam o armazenamento e uso de nossos dados de modos que não conseguimos imaginar. “Quase não temos proteções legais de privacidade nos Estados Unidos, e instituições poderosas têm tirado partido disso há tanto tempo que começamos a agir como se fosse normal”, disse Emily. “Não é normal e não está certo.”

Publicidade

Não é normal nem certo não ter proteções legais de privacidade nos EUA

Emily Tucker, diretora do Centro de Privacidade da Universidade de Georgetown

Mat Dryhurst e Holly Herndon, artistas de Berlim, ajudaram a criar um projeto para identificar o trabalho de artistas ou suas fotografias em bases de dados famosas utilizadas para treinar sistemas de IA. Dryhurst disse que algumas organizações sem fins lucrativos de IA, incluindo a LAION, a enorme coleção de imagens usada para criar retratos pelo Lensa, estão ansiosas para que as pessoas sinalizem suas imagens pessoais, caso queiram retirá-las dos conjuntos de dados de treinamento para computador. (O site para verificar se alguma imagem sua foi utilizada é https://haveibeentrained.com/)

Dryhurst disse que está animado com o potencial da IA para artistas como ele. Mas também tem feito pressão por um modelo diferente de permissão para o que se publica na internet. Imagine, disse ele, postar uma selfie no Instagram e ter a opção de dizer sim ou não ao uso da foto para futuros treinamentos de IA.

Talvez isso pareça uma fantasia utópica. Você se acostumou com a sensação de que, após expor fragmentos digitais de si mesmo ou de seus entes queridos on-line, perde o controle do que acontece depois.

Dryhurst disse que, com programas de IA disponíveis para o público em geral, como o Dall-e e o ChatGPT, recebendo tanta atenção, apesar de não serem perfeitos, este é o momento ideal para restabelecer o que deve ser o verdadeiro consentimento individual para a era da IA. E ele disse que algumas organizações influentes de IA também estão abertas a isso.

Imagem criada pela IA Dall-e sobre o futuro do mundo, transformado pelas inteligências artificiais. Foto: DALL-E 2/Estadão

Hany Farid, professor de ciência da computação na Universidade da Califórnia, em Berkeley, disse que pessoas comuns, funcionários do governo, muitos executivos de tecnologia, jornalistas e educadores como ele estão bem mais conscientes de estarem a poucos anos das possíveis consequências positivas e negativas das tecnologias em desenvolvimento, como a IA. A parte difícil disso, segundo ele, é saber o que fazer para limitar de forma eficaz os danos e maximizar os benefícios.

Publicidade

“Já denunciamos os problemas”, disse Farid. “Mas não sabemos como corrigi-los.” / TRADUÇÃO DE ROMINA CÁCIA

Comentários

Os comentários são exclusivos para assinantes do Estadão.