A Comissão Temporária Interna sobre Inteligência Artificial (CTIA) apresentou nesta quinta-feira, 28, uma nova versão do Projeto de Lei 2.338/2023, mais conhecido como Marco da Inteligência Artificial (IA) no Brasil. O novo texto foi lido pelo relator do PL, o Senador Eduardo Gomes (PL-TO), no Senado e deverá ser votado em 3 de dezembro. O documento, que recebeu mais de 140 propostas de emendas, classifica algoritmos de redes sociais como “alto risco” em alguns casos, mas abrandou regras e obrigações presentes na versão anterior, apresentada em junho deste ano.
Na sessão desta manhã, o Senador Carlos Viana (Podemos-MG) afirmou que não há mais possibilidade de pedido de vista para o texto, ou seja, um prazo extra para revisões. Em conjunto com o Senador Eduardo Gomes, os parlamentares terão até o próximo dia 2 de dezembro para apresentar novas emendas e a votação final do texto deve acontecer em 3 de dezembro.
“Entre os principais temas abordados nos projetos estão a definição de princípios éticos para IA, a criação de uma Política Nacional de Inteligência Artificial, a regulação do uso de IA em áreas como publicidade e justiça, além de mecanismos de governança e responsabilização”, de acordo com o Senado.
Uma das principais mudanças em relação ao texto anterior é a classificação de risco das IAs. Na apresentação desta quinta, o documento traz uma redução na listagem de setores da tecnologia que podem entrar na categoria de “alto risco”, aquelas IAs que podem ter impacto nos direitos fundamentais dos indivíduos. Foi uma vitória das empresas de tecnologia.
A espinha dorsal do Marco da IA é a classificação de risco dos produtos construídos com a tecnologia. Segundo o texto, fica proibido o desenvolvimento de IAs que possam “comprometer a segurança, direitos fundamentais ou a integridade física e moral das pessoas de forma significativa e irreparável“, que são chamadas de Risco Excessivo. ”Deepfakes" e IAs que podem manipular o sistema eleitoral entram nessa categoria.
No novo documento, foram excluídas da classificação de alto risco sistemas de avaliação de crédito privados, ficando apenas os sistemas públicos do tipo. Ainda nas classificações, o novo texto traz uma redução no escopo de IAs em sistemas biométricos, diminuindo a carga regulatória dessas tecnologias privadas - o foco do texto ficou com as IAs governamentais que usam biometria de alguma forma.
As mudanças foram incluídas para aliviar o impacto da regulação para grandes empresas de tecnologia, à medida que a implantação de sistemas de IA por essas companhias já acontece e, uma lei mais rígida poderia inibir ou proibir algumas das atividades no País.
Alguns pontos também foram retirados do texto original. Anteriormente, o uso de IAs em espaços públicos, como para monitoramento com reconhecimento facial e biometria só seria liberado em casos específicos, com restrições. No novo documento, suspende-se a proibição geral e o uso desse tipo de tecnologia fica submetido, apenas, a uma autorização judicial.
Algoritmos de redes sociais
Estão também na classificação de alto risco algoritmos de recomendação de redes sociais, reflexo do debate de moderação de conteúdo online que domina os três poderes nos últimos anos. Embora o PL não cite explicitamente as plataformas, ele afirma que são classificados como alto risco IAs de “curadoria, difusão, recomendação e distribuição, em grande escala e significativamente automatizada, de conteúdo por provedores de aplicação de internet, com objetivo de maximização do tempo de uso e engajamento das pessoas ou grupos afetados”.
Os casos, porém, serão analisados a partir dos riscos que podem causar à liberdade de expressão e ao acesso à informação, por exemplo, como manipulação do debate público e influência no processo eleitoral.
Leia também
IA generativa
O novo texto também aborda as IAs generativas, ainda que de forma reduzida. De acordo com o PL, todos os produtos gerados por esses sistemas precisam ter uma identificação, como uma marca d’água, que deixe claro a procedência do material. As empresas que possuem esse tipo de produto também terão que publicar quais dados foram utilizados para treinar o modelo de IA.
Obrigações viram ‘boas práticas’
Outros pontos do texto original, que antes eram obrigatórios, agora aparecem como “boas práticas” para quem trabalha e faz parte do ecossistema de IA - como a supervisão humana de modelos da tecnologia, por exemplo. Anteriormente, essas análises humanas eram colocadas nas regras como obrigatórias. Agora, apenas as IAs que “possam ter impacto irreversível” são obrigatoriamente submetidas à revisão.
O impacto algorítmico também foi incluído nos casos em que a supervisão humana é apenas recomendada. Segundo o texto, a avaliação nessa situação é obrigatória apenas para as IAs consideradas de alto risco.
As regras, se aprovadas, serão válidas para IAs desenvolvidas por empresas, com fins comerciais, e à tecnologias públicas e governamentais. A regulação não se aplica, porém, ao desenvolvimento da tecnologia em alguns setores, como defesa nacional, pesquisa e desenvolvimento e IAs desenvolvidas para uso pessoal.
O projeto é discutido desde o final de 2022 e teve seu prazo de redação de texto prorrogado algumas vezes neste ano pela CTIA. O PL trata das diretrizes para a regulação do desenvolvimento da tecnologia no País. É este documento que deve conter regras para como as IAs públicas devem ser regidas, quais dados elas podem usar e o que podem ser considerados sistemas de IA no Brasil - o modelo segue o exemplo da lei aprovada na União Europeia, pioneira na regulação da IA no mundo.