Meta lança nova IA, mas Brasil fica de fora após ação de reguladores

Autoridade Nacional de Proteção de Dados vetou o uso de dados de brasileiros para treinar sistema

PUBLICIDADE

Por Sabrina Brito
Atualização:

A inteligência artificial da Meta acaba de ficar disponível em mais sete idiomas e em outros países pelo mundo, inclusive nações da América Latina pela primeira vez. No entanto, a IA da empresa dona do Instagram, WhatsApp e Facebook, não foi lançada no Brasil após a Autoridade Nacional de Proteção de Dados (ANPD) proibir a companhia de coletar dados de cidadãos do País por considerar que a prática viola a privacidade das pessoas.

De acordo com a Meta, a ausência da inteligência artificial no País se deve a “incertezas regulatórias”, e a companhia continuará “trabalhando em colaboração com as autoridades locais competentes para que o Brasil tenha acesso – e seja devidamente atendido – pelo mesmo nível de inovação em IA que estamos levando a outros países”. As ferramentas foram disponibilizadas em outros países da América Latina, Argentina, Chile, Colômbia, Equador, México e Peru.

Meta está lançando sua IA em países da América Latina Foto: Divulgação/Meta

PUBLICIDADE

No começo de julho, o Instituto de Defesa de Consumidores (Idec) notificou a Autoridade Nacional de Proteção de Dados (ANPD), a Secretaria Nacional do Consumidor (Senacon) e o Conselho Administrativo de Defesa Econômica (Cade) em relação à forma como a Meta estava usando informações de donos de contas em redes sociais da companhia no Brasil para treinar a sua inteligência artificial. Como resultado, a ANPD determinou que a Meta suspendesse a coleta dessas informações para treinar seus sistemas de IA, alegando indícios de violação à Lei Geral de Proteção de Dados. A multa diária em caso de descumprimento seria de R$ 50 mil.

O resultado final do embate, ao menos por ora, se deu na semana passada, quando a empresa afirmou ter suspendido os recursos de inteligência artificial generativa usados em suas redes sociais no Brasil.

Publicidade

“Decidimos suspender ferramentas de genAI que estavam ativas no Brasil enquanto engajamos com a ANPD para endereçar suas perguntas sobre IA generativa”, afirmou um porta-voz da companhia. Como consequência do imbróglio, a inteligência artificial da Meta ainda não pode ser aplicada em território brasileiro.

A suspensão também repete a ação da União Europeia, que proibiu a Meta de coletar dados para o treinamento de IAs. Assim, a Meta também desistiu de lançar suas ferramentas de IA por lá.

O que a IA faz

Com os novos prompts “Imagine-me” na IA da companhia, usuários são capazes de, com base em uma foto, fornecer comandos como “imagine-me surfando” no bate-papo com a inteligência artificial. Como resultado, a IA gera imagens que podem ser compartilhadas nas próprias redes sociais.

A inteligência artificial da Meta também pode responder a perguntas mais complexas, como aquelas focadas em matemática. A IA pode dar explicações passo a passo e resolver equações rapidamente.

Publicidade

A inteligência artificial também estará disponível de forma experimental nos Estados Unidos e no Canadá nos óculos inteligentes Ray-Ban Meta. Com isso, será possível substituir o comando de voz pela IA, verificando o clima e obtendo informações em tempo real com a ajuda da inteligência artificial

Novo modelo de linguagem

Junto com a nova IA, a Meta lançou uma nova versão do seu grande modelo de linguagem (LLM) de código aberto, o Llama 3.1, que tem 405 bilhões de parâmetros (representações matemáticas que expressam as relações entre palavras). Isso coloca o modelo no mesmo patamar de IAs sofisticadas como o GPT-4.

O Llama tem código aberto e está disponível no mundo inteiro, inclusive no Brasil, e é usado por pesquisadores e startups para ampliar e melhorar seus serviços de IA. A Meta não revela quais dados usou para treinar o Llama.

Resposta

O Instituto de Defesa de Consumidores (Idec) emitiu um posicionamento em resposta à postura da empresa de Mark Zuckerberg.

Publicidade

“Ao Idec parece que a Meta está deliberadamente evitando obter o consentimento necessário para o tratamento de dados, possivelmente com a intenção de estabelecer um precedente perigoso que possa ser usado futuramente em novos lançamentos com a alegação de que ‘sempre agimos dessa maneira’.”

Comentários

Os comentários são exclusivos para assinantes do Estadão.