Texto do Marco da IA sofreu retrocesso após pressão de empresas de tecnologia, dizem especialistas

Especialistas em direito e privacidade digital afirmam que novo texto deixa cidadãos desprotegidos ao remover obrigações de empresas de tecnologia

PUBLICIDADE

Foto do author Bruna Arimathea
Atualização:

O texto final do Marco da Inteligência Artificial no Brasil - o Projeto de Lei 2338/2023 - foi aprovado nesta quinta-feira, 5, na Comissão Temporária Interna sobre Inteligência Artificial (CTIA) e deve ser votado no Senado na próxima semana. Com mais de 500 dias e 80 sessões públicas de análise e elaboração do conteúdo da lei, especialistas afirmam que, apesar de indicar uma conquista em direção à legislação do assunto, o texto ainda tem lacunas e falhas, principalmente na parte de classificação de risco e de direitos dos trabalhadores.

“O PL falha em estabelecer uma estrutura regulatória robusta e equilibrada, que proteja os direitos dos cidadãos e promova o desenvolvimento tecnológico responsável. A regulação da inteligência artificial deveria priorizar a segurança, a privacidade e a dignidade da população, e não servir como uma carta branca para o lucro irrestrito das grandes empresas de tecnologia”, afirmou Luã Cruz, coordenador do programa de Telecomunicações e Direitos Digitais do Instituto de Defesa de Consumidores (Idec).

Senado deve votar o Marco da IA na próxima terça-feira, 10  Foto: Saulo Cruz/Agência Senado

PUBLICIDADE

Para o órgão, o impacto das empresas de tecnologia fez com que o projeto fosse menos fiel aos seus objetivos, facilitando brechas para IAs que ainda podem ser perigosas, como avaliação de crédito privada ou monitoramento em tempo real - antes considerada como “Risco Excessivo”, mas que, agora, pode ser aplicada em situações a serem definidas pelos órgãos regulatórios. Segundo o texto, IAs classificadas como “Risco Excessivo” são proibidas.

“A exclusão da classificação de sistemas de distribuição de conteúdo em larga escala como de alto risco favorece a proliferação de golpes, fraudes e desinformação. Isso representa um retrocesso em relação à proteção dos consumidores e à integridade do ambiente digital”, apontou o Idec, em um comunicado.

Publicidade

O PL tem como objetivo criar regras para o desenvolvimento da IA no Brasil para o setor público e privado, estabelecendo, principalmente, fundamentos de segurança e de crescimento para a tecnologia no País - e foi alvo de várias revisões ao longo do último ano por afetar a operação de gigantes de tecnologia, como Google, Amazon, Apple, Microsoft e Meta.

Por esse motivo, as classificações de risco, por exemplo, ficaram mais brandas, além da flexibilização da necessidade da supervisão humana em alguns casos, o que diminui a restrição de produtos que podem ser desenvolvidos e testados no País.

Para Rafael Zanatta, diretor do Data Privacy Brasil, o texto também levanta preocupações em relação aos direitos dos trabalhadores, tornando as regras sobre supervisão e ação humana em sistemas de IA menos exigentes.

“O governo está cedendo diante das pressões da indústria e do setor privado com relação às propostas do antigo art. 56 (atualmente art. 58), ou seja, as regras de proteção dos trabalhadores diante de automações, despedidas em massa e avaliação de trabalhadores”, explicou Zanatta ao Estadão.

Publicidade

Outro ponto que gera divergência é a mudança de alguns itens obrigatórios que, agora, passam a ser considerados apenas como “boa prática” para quem trabalha e faz parte do ecossistema de IA - como a supervisão humana de modelos da tecnologia, por exemplo. Anteriormente, essas análises humanas eram obrigatórias. Agora, apenas as IAs que “possam ter impacto irreversível” são obrigatoriamente submetidas à revisão.

Melhor do que nada

Ainda assim, a tramitação do projeto, que vai agora para votação no Senado antes de ser encaminhado para a Câmara dos Deputados, foi considerada uma conquista por especialistas que acompanham a discussão desde 2022.

“Essa é uma vitória enorme para a sociedade civil porque temos um projeto que garante direitos e tem medidas de governança. Obviamente tivemos alguns retrocessos no texto ao longo dos novos relatórios apresentados, mas é uma vitória muito grande que esse texto tenha sido aprovado na Comissão e agora siga o curso do processo legislativo”, explicou Paula Guedes, integrante do Grupo de Trabalho Inteligência Artificial da Coalizão Direitos na Rede.

“Eu entendo que as mudanças promovem um equilíbrio entre a inovação, a governança, a proteção de direitos fundamentais. É claro que o projeto não está imune a erros. Inclusive, uma crítica que existe há bastante tempo é sobre algumas definições, como o sistema de IA, mas também estamos seguindo um acompanhamento da legislação da Europa”, afirmou o professor Marcelo Crespo, especialista em direito digital da ESPM.

Publicidade

Comentários

Os comentários são exclusivos para assinantes do Estadão.