O Senado Federal aprovou nesta terça-feira, 10, o PL 2338/2023 - conhecido como o Marco da IA no Brasil - após discussão e votação simbólica no plenário. O projeto é de autoria do presidente da casa, Rodrigo Pacheco (PSD-MG), e visa estipular regras para o desenvolvimento de sistemas de inteligência artificial (IA) no País. Agora, a Câmara dos Deputados deve votar o projeto, ainda sem data definida.
A regulação se aplica para as IAs públicas e privadas que tenham uso comercial e de larga escala no País - ou seja, além dos modelos desenvolvidos pela iniciativa pública, startups e gigantes de tecnologia como Meta, Amazon, Microsoft, OpenAI e outras terão que se adaptar ao contexto da lei, caso aprovada.
Para sistemas que infringirem a legislação, uma multa, que pode chegar a R$ 50 milhões de reais a depender do caso, pode ser aplicada, além da perda do direito de testar a tecnologia por até cinco anos - ou seja, sem a possibilidade de ser submetida a testes, a IA se torna ilegal no País.
O texto ainda afirma que, independente do tipo de sistema, a regulação não se aplica para o desenvolvimento de IAs que sejam de uso pessoal e não comercial ou de uso em alguns setores governamentais, como defesa nacional.
Na discussão no Senado, parlamentares que não fizeram parte da Comissão Temporária Interna sobre Inteligência Artificial (CTIA), responsável pela elaboração do texto, pediram mais tempo para outras sessões de debate sobre o assunto. O presidente do Senado, porém, afirmou que a discussão já estava “madura” para votação.
O PL também foi alvo de várias revisões ao longo do último ano por afetar a operação de gigantes de tecnologia. Por esse motivo, as classificações de risco, por exemplo, ficaram mais brandas, além da flexibilização da necessidade da supervisão humana em alguns casos, o que diminui a restrição de produtos que podem ser desenvolvidos e testados no País.
“O PL falha em estabelecer uma estrutura regulatória robusta e equilibrada, que proteja os direitos dos cidadãos e promova o desenvolvimento tecnológico responsável. A regulação da inteligência artificial deveria priorizar a segurança, a privacidade e a dignidade da população, e não servir como uma carta branca para o lucro irrestrito das grandes empresas de tecnologia”, afirmou Luã Cruz, coordenador do programa de Telecomunicações e Direitos Digitais do Instituto de Defesa de Consumidores (Idec).
Já uma carta conjunta assinada por órgãos como Associação Brasileira do Agronegócio (ABAG), Associação Brasileira das Empresas de Software (ABES), ABStartups, Associação Brasileira de Data Center (ABDC) e Câmara E-Net, pediu ao Senado que liberasse um uso maior de dados para treinamento de IA, afirmando que o texto ainda é rígido nesse sentido.
“A última versão do PL 2338 apresenta um conjunto de regras que pode inviabilizar o desenvolvimento da IA no Brasil. Entre outros pontos, a redação atual inviabiliza o treinamento de sistemas de IA sempre que houver finalidade comercial ao exigir o pagamento pelo aprendizado computacional de conteúdos (inclusive conteúdos protegidos) e a divulgação dos conjuntos de dados nos quais os sistemas de IA foram treinados”, apontou a carta.
A Data Privacy Brasil, organização especializada em direitos digitais com papel importante na construção do texto, afirmou que o texto é uma “conquista da democracia”. “Esperamos que a aprovação do Senado federal passe um recado claro à Câmara dos Deputados e contenha as pressões de grupos econômicos privados”, afirmou em Rafael Zanatta, codiretor da entidade.
Leia também
O que diz o Projeto de Lei
Um dos principais pontos do Marco da IA é a classificação de risco dos produtos construídos com a tecnologia. Segundo o texto, fica proibido o desenvolvimento de IAs que possam “comprometer a segurança, direitos fundamentais ou a integridade física e moral das pessoas de forma significativa e irreparável”, que são chamadas de Risco Excessivo. DeepFakes e IAs que podem manipular o sistema eleitoral entram nessa categoria.
O documento também fala que as IAs de Risco Alto, que podem ter impacto nos direitos fundamentais dos indivíduos, como sistemas de seleção de candidatos e biometria via IA, devem ser submetidas a uma maior supervisão e uma regulamentação rigorosa antes de serem liberadas.
Já as IAs consideradas de Risco Geral ou Baixo Risco podem ser desenvolvidas com menos burocracia, por não apresentarem riscos fundamentais - de acordo com texto, é o caso de IAs de tradução, correção ortográfica ou de filtro de mensagens, por exemplo.
Para a fiscalização, o texto determina dois órgãos responsáveis pela supervisão e triagem dessas tecnologias: o Sistema Nacional de Regulação e Governança de Inteligência Artificial (SIA) e a Autoridade Nacional de Proteção de Dados (ANPD), que figura como um possível braço de fiscalização.
Outra diretriz diz respeito ao uso de dados é que a utilização deve estar de acordo com a Lei Geral de Proteção de Dados (LGPD). Além disso, todos os agentes de IA - como são chamados os desenvolvedores, fornecedores e aplicadores da tecnologia - precisam deixar claro quais informações estão sendo usadas por IAs e precisam do consentimento dos usuários para seu uso.
Ainda, o projeto prevê que o Governo Federal destine recursos financeiros e crie programas de fomento à educação e capacitação de profissionais para trabalharem na área.
Na semana passada, o texto foi apresentado com mudanças, após um período de análise da comissão e foi considerado uma versão branda do projeto inicial - com a suavização de diversos tópicos que versam sobre a responsabilidade das empresas e a classificação de risco das IAs.
Agora, o texto deve ir para votação na Câmara dos Deputados para mais um pleito. Apenas se for aprovada nas duas casas o Projeto de Lei pode seguir para sanção presidencial.
Os comentários são exclusivos para assinantes do Estadão.