PUBLICIDADE

Decisão da ANPD contra Meta indica início de escrutínio das Big Techs no Brasil, dizem especialistas

Órgão determinou a suspensão imediata da coleta de dados de usuários brasileiros para treinar seus modelos de IA

PUBLICIDADE

Foto do author Bruna Arimathea

A Autoridade Nacional de Proteção de Dados (ANPD) determinou na terça-feira, 2, a suspensão imediata da política da Meta, dona do Facebook, Instagram e Whatsapp, de coleta de dados de brasileiros em suas plataformas para treinar sua inteligência artificial (IA). A decisão, tida como inédita no órgão, foi interpretada por especialistas como um sinal de amadurecimento da ANPD, quatro anos após a sua formação.

PUBLICIDADE

Caso a determinação do órgão não seja cumprida, a Meta deve pagar uma multa de R$ 50 mil por dia, equivalente a todos os dias que estiver em desacordo com a decisão. A medida preventiva dá cinco dias para que a empresa manifeste o cumprimento da suspensão.

Em nota, a Meta disse: “Estamos desapontados com a decisão da ANPD. Treinamento de IA não é algo único dos nossos serviços, e somos mais transparentes do que muitos participantes nessa indústria que têm usado conteúdos públicos para treinar seus modelos e produtos. Nossa abordagem cumpre com as leis de privacidade e regulações no Brasil, e continuaremos a trabalhar com a ANPD para endereçar suas dúvidas. Isso é um retrocesso para a inovação e a competitividade no desenvolvimento de IA, e atrasa a chegada de benefícios da IA para as pessoas no Brasil”.

Caso a determinação do órgão não seja cumprida, a Meta deve pagar uma multa de R$ 50 mil por dia Foto: Jeff Chiu/AP

O movimento da ANPD é um dos primeiros a enfrentar uma grande empresa de tecnologia no Brasil desde que a agência foi criada em 2020 para supervisionar a Lei Geral de Proteção de Dados (LGPD).

“A ANPD agora tem maturidade para ações como essa. Como é uma autoridade de proteção de direitos fundamentais, é importante que escolha casos estratégicos e de grande repercussão para medidas quando há fundamento jurídico. Neste caso, a decisão é bastante técnica e está dentro das margens da Lei Geral de Proteção de Dados Pessoais”, explica Rafael Zanatta, diretor do instituto Data Privacy Brasil.

Para Bruna Santos, do Grupo Consultivo do Fórum de Governança da Internet das Nações Unidas, a decisão também ajuda a justificar o valor e a importância de se ter uma autoridade nacional de proteção em prol dos cidadãos que utilizam serviços das gigantes de tecnologia.

“Ela (decisão) vem em um momento importante e inédito, onde não só a ANPD assume uma posição mais forte contra uma empresa dominante do mercado de Big Tech, como atua também de maneira mais categórica em prol dos interesses dos titulares de dados pessoais, que é a função dela”, afirma a especialista.

Publicidade

Já para Carlos Affonso Souza, a questão não se encerra na empresa de Mark Zuckerberg, e, sim, precisa ir além de apenas uma das gigantes da tecnologia.

“Ao escolher o tema do tratamento de dados para treinamento de IA generativa a ANPD caminha em território espinhoso porque ela mira em uma empresa quando essa prática é desempenhada, em maior ou em menor escala, por todo um ecossistema”, apontou Souza.

Europa também teve proibição

Uma medida parecida foi tomada na União Europeia em junho deste ano, quando a Comissão de Proteção de Dados (DPC, na sigla em inglês), de reguladores irlandeses, proibiu a Meta de recolher dados de perfis de suas redes sociais. A decisão adiou o lançamento do Meta AI, IA da empresa, que já funciona no Brasil.

Por aqui, a Meta adotou uma postura mais incisiva e menos transparente do que na Europa, optando por não comunicar a mudança dos termos e dificultar o processo de não consentimento por parte dos usuários. Assim, o Instituto de Defesa de Consumidores (Idec) notificou a ANPD, a Secretaria Nacional do Consumidor (Senacon) e o Conselho Administrativo de Defesa Econômica (Cade), alegando que a Meta mudou as políticas de uso da plataforma sem aviso claro aos usuários.

PUBLICIDADE

A companhia de Zuckerberg já usa IA em suas redes sociais há alguns anos, assim como faz a coleta de alguns dados pessoais para, principalmente, o direcionamento de anúncios. Agora, a empresa também estaria usando as informações para treinar modelos de linguagens a base de textos e imagens, como o ChatGPT.

A ANPD alega que a Meta não informou com antecedência sobre o início da nova regra. Apenas uma indicação mostra que a companhia já teria começado a usar os dados de brasileiros: em 22 de maio, foi publicado um formulário para usuários optarem por não ceder seus dados para o uso da IA. No mesmo dia, um comunicado informando sobre a mudança na política de uso dos usuários circulou pelas redes.

O formulário, para aqueles que não desejam compartilhar seus dados com a IA da Meta, segue disponível no site da empresa.

Publicidade

“A Meta insistiu na aplicação da medida e na alteração da política de privacidade. A União Europeia chegou a suspender o processo também e a atuar sobre o objetivo da empresa, mas como de praxe, a Meta aceitou a requisição de uma autoridade europeia, mas insistiu na sua aplicação em um país como o Brasil”, explicou Bruna Santos, do Grupo Consultivo do Fórum de Governança da Internet das Nações Unidas.

IA é incompatível com proteção de dados?

Para os especialistas, é possível treinar inteligências artificiais, que precisam de grandes quantidades de dados, sem comprometer a privacidade das informações de seus usuários, especialmente no caso de empresas que possuem uma base ativa, como a Meta e suas redes sociais.

“Atividades de treinamento de sistemas de inteligência artificial não são necessariamente uma invasão do direito à proteção de dados, uma vez que isso pode ser feito com dados anonimizados ou a partir do consentimento de usuários”, afirma Bruna. “Mas é importante que a gente mantenha alguma centralidade para o debate da garantia de direitos humanos e proteção de dados pessoais, uma vez que muitos dos modelos de negócios emergentes do setor de AI serão sempre baseados na exploração de informações pessoais em massa de seus usuários”.

Métodos como análise agregada, clusterização e anonimização de informações podem ser formas de utilizar dados de uma forma menos prejudicial enquanto se treina um modelo de linguagem, a fim de não entrar em conflito com informações sensíveis e pessoais de usuários de redes sociais.

“Existem formas de garantir direitos de oposição mais transparentes, ampliando aquilo que chamamos de autodeterminação informativa. Afinal, os dados são das pessoas. São projeção da nossa personalidade e nosso corpo eletrônico”, aponta Zanatta.

De acordo com Souza, a ANPD tem, agora, uma missão para estabelecer o quanto a IA e a proteção de dados devem se encontrar e como fazer isso em um futuro próximo, principalmente após uma regulamentação de IA ser estabelecida no País - o que ainda pode levar meses.

“Considerando que a ANPD procura se estabelecer como coordenadora do sistema regulatório de IA, essa medida parece fazer um ensaio do que poderá ser a sua futura atuação. Aqui, vai ser importante saber separar as águas entre o que é estritamente dados pessoais e o que é IA, já que nem tudo em IA está ancorado no tratamento de dados pessoais”, explicou.

Publicidade

Comentários

Os comentários são exclusivos para assinantes do Estadão.