A Autoridade Nacional de Proteção de Dados (ANPD) determinou nesta terça, 2, que a Meta, empresa dona do Instagram, Facebook e WhatsApp, suspenda a coleta de dados de brasileiros para o treinamento de seus sistemas de inteligência artificial. De acordo com a autoridade, a medida preventiva foi adotada porque há indícios de violação à Lei Geral de Proteção de Dados.
A ANPD determinou a suspensão imediata, no Brasil, da vigência da nova política de privacidade da Meta, que permitia a utilização de publicações e posts públicos para o aperfeiçoamento da IA que a empresa está desenvolvendo. Em caso de descumprimento, a empresa pode ser penalizada com multa diária de R$ 50 mil. A Meta tem cinco dias úteis para demonstrar o cumprimento da medida preventiva, contados a partir da intimação da decisão.
Em nota, a Meta disse: “Estamos desapontados com a decisão da ANPD. Treinamento de IA não é algo único dos nossos serviços, e somos mais transparentes do que muitos participantes nessa indústria que têm usado conteúdos públicos para treinar seus modelos e produtos. Nossa abordagem cumpre com as leis de privacidade e regulações no Brasil, e continuaremos a trabalhar com a ANPD para endereçar suas dúvidas. Isso é um retrocesso para a inovação e a competividade no desenvolvimento de IA, e atrasa a chegada de benefícios da IA para as pessoas no Brasil”.
Mudança de termos de uso no Brasil deixa interrogações
Recentemente, a Meta fez um movimento de atualização de seus termos de uso no sentido de permitir o aperfeiçoamento de sua IA por meio da análise de posts feitos por usuários nas redes sociais, incluindo textos e fotos. No entanto, a mudança deixou mais perguntas do que respostas.
No Brasil, nenhuma data foi informada com antecedência aos usuários para o início da prática. A única pista que indica que a companhia já teria começado a usar os dados de brasileiros é de 22 de maio. Na data, foi publicado o formulário para usuários indicarem que não desejam ter seus dados usados por IA. No mesmo dia, foi publicado um comunicado informando sobre a mudança na política de uso dos usuários.
O caso ganhou repercussão depois que a Meta teve seus planos frustrados na União Europeia. A companhia tinha planos de lançar a nova política de privacidade no bloco no dia 26 de junho. Contudo, a Meta recuou após sofrer críticas de usuários e autoridades locais.
Assim, a ANPD entendeu que houve falta de divulgação de informações claras, precisas e facilmente acessíveis em relação à alteração da política de privacidade e ao tratamento de dados. Além disso, alegou limitações excessivas ao exercício dos direitos dos usuários.
Assim, a Meta não teria fornecido informações adequadas para que os usuários pudessem ter ciência das consequências do uso de seus dados para o treinamento da IA generativa da companhia de Mark Zuckerberg.
Leia também
Antes disso, no último dia 26, o Instituto de Defesa de Consumidores (Idec) notificou a ANPD, a Secretaria Nacional do Consumidor (Senacon) e o Conselho Administrativo de Defesa Econômica (Cade) sobre como a Meta está usando dados de usuários brasileiros para treinar sua inteligência artificial.
Afirmando que “a violação aos direitos básicos do consumidor está evidente”, o instituto argumentou que a empresa não explica a relação entre o treinamento da inteligência artificial e os serviços prestados ao titular da conta.
O que pretende a nova política da Meta
Com a mudança nos termos de uso, as publicações no Facebook e no Instagram serviriam para que a inteligência artificial generativa desenvolva “conhecimentos” para produzir texto. Sistemas como o ChatGPT precisam de uma grande quantidade de dados para fazer conexões entre os termos - e a busca por dados “inéditos” e “de qualidade” se tornou uma das principais corridas comerciais entre gigantes da IA. Os posts das redes da Meta, que são proprietários (ou seja, não são acessados por mais ninguém), são vistos como uma das principais vantagens da empresa na disputa.
Embora a companhia já utilize IA há anos em suas plataformas, os dados dos usuários passariam a ser usados também para alimentar modelos capazes de gerar textos e imagens – tudo isso para que, no futuro próximo, a Meta possa lançar o seu “ChatGPT”. Para esse fim, seriam usadas as postagens realizadas de modo público. Assim, apenas conversas e posts privados seriam poupados.
Para aqueles que não quiserem fazer o treinamento de IAs, a Meta criou um formulário pelo qual o usuário pode vetar o uso, chamado “Direito de se opor”. Ele está disponível na página de privacidade da Meta.
No entanto, o Idec afirma que é preciso seguir nove passos para se opor ao uso de suas informações para treinar a inteligência artificial da empresa forma um design que dificulta o exercício dos direitos por parte do consumidor.
Assim, a ANDP entendeu também que, embora exista a opção de se opor a essa utilização de dados pessoais, há obstáculos não justificados ao acesso às informações e ao exercício desse direito. Para negar acesso aos dados, o usuário deve seguir uma série de passos, além de ter que fornecer uma justificativa para tanto.
Com tudo isso, a agência concluiu que há risco iminente de dano grave e irreparável ou de difícil reparação aos direitos fundamentais dos titulares das contas.
Os comentários são exclusivos para assinantes do Estadão.