BERLIM - Ainda está para nascer no mundo um marco regulatório para a inteligência artificial (IA). Mas a União Europeia (UE) saiu na frente nesse debate e aprovou na última quarta-feira, 14, a Lei de IA, uma legislação pioneira ao impor regras para a implementação de serviços e produtos de IA no bloco. O projeto deve continuar em discussão no triálogo europeu até o fim do ano, quando se espera a sanção definitiva – mas o movimento deve inspirar outros países a correr com suas próprias regulamentações, como o Brasil.
“A Lei de IA vai representar um modelo a ser seguido por outras jurisdições”, declara em entrevista por videoconferência ao Estadão o eurodeputado romeno Dragoș Tudorache, correlator do projeto que espera sua aprovação até o fim do ano. “Vai ser um texto bastante inovador e que vai fazer história”, diz.
A legislação determina um conjunto de regras de funcionamento das ferramentas de automação, aprendizado de máquina e de modelos amplos de linguagem. Isso inclui de algoritmos de redes sociais e serviços de streaming a infraestrutura urbana, como redes elétricas. Também estão contemplados carros autônomos e ferramentas como ChatGPT, o popular chatbot da OpenAI.
Leia também
“Muitos acreditam que essa legislação foi o resultado do ChatGPT, mas as pessoas se esquecem de que estamos preparando isso há algum tempo”, explica. No Parlamento Europeu, braço legislativo da UE, o texto é discutido desde 2021, quando foi dado o sinal verde para o tema.
O principal ponto da Lei de IA da UE está em separar diferentes modelos de inteligência artificial no que os eurodeputados chamam de “abordagem baseada em risco”. Nesse modelo, cada sistema de IA é colocado sob uma das categorias previstas pelas autoridades: baixo risco à sociedade (como games), alto risco (como veículos autônomos) e inaceitável (como sistemas biométricos de vigilância). A partir dessa classificação, as companhias têm uma série de obrigações de privacidade e transparência para cumprir, seguindo a categoria em que seus serviços e produtos foram colocados.
Dragoș Tudorache, eurodeputado romeno e correlator da Lei de IA da União Europeia
“Por definição, a IA tem um certo grau de autonomia e tem essa capacidade de influenciar seus ambientes, física ou virtualmente. É isso que a torna diferente de outros softwares que usamos e que estamos usando há décadas”, explica Tudorache. Entre os exemplos citados pelo eurodeputado estão ferramentas de eficiência de redes de águas e elétricas que abastecem cidades.
O Brasil estuda projeto similar. Em fevereiro deste ano, o Senado Federal iniciou discussões por uma legislação ampla que regulamenta essa tecnologia, também a partir de uma abordagem baseada em riscos. Essa não é primeira vez que a Europa inspira o Brasil em termos de regulação tecnológica: a GDPR, lei europeia de proteção de dados aprovada em 2016, apontou caminhos para a Lei Geral de Proteção de Dados (LGPD) de 2018.
Leia abaixo trechos da entrevista ao Estadão, realizada na semana da votação no Parlamento Europeu.
Por que deveríamos regulamentar as IAs?
Essa é a pergunta de um milhão de dólares, né? Há dois grandes motivos. O primeiro tem a ver com o tamanho real e a dimensão da transformação que a IA provoca em nossas sociedades. Essa não é apenas mais uma tecnologia, e não é apenas mais uma transformação ou mesmo uma revolução industrial como as que tivemos no passado. Com a IA é diferente, porque ela afeta tudo, desde a maneira como interagimos como seres humanos e como nossas economias e democracias funcionam. É uma transformação muito, muito profunda. A segunda é que se trata de uma transformação que, obviamente, traz enormes benefícios, e é importante observar isso. Mas, ao mesmo tempo, também traz riscos, como possíveis vieses e preconceitos na forma como os algoritmos estão usando dados já tendenciosos.
E o último argumento, que também considero muito importante, é que a opção de não regulamentar significa não fazer nada. Se não fizermos nada e mantivermos o status quo, isso significa que estaremos confiando exclusivamente na autorregulação ou na autodisciplina das empresas que estão desenvolvendo IAs. E, mais uma vez, a história tem mostrado, especialmente nesta economia digital, que a concorrência não necessariamente incentiva uma corrida para o topo. Na verdade, as empresas que estão desenvolvendo IA nos procuraram nos últimos dois anos e disseram que querem um padrão para que a corrida se torne saudável. Portanto, por todos esses motivos, chegamos à conclusão de que este era o momento de começar a estabelecer algumas regras para a IA.
As próprias empresas entraram em contato solicitando uma regulamentação?
A grande maioria das empresas que consultamos nesses anos reconhece a necessidade de salvaguardas. Elas reconhecem a necessidade de proteções, de alguma orientação na forma de regras para que fique claro até onde podem ir e em quais condições.
A IA já está conosco há algum tempo, como os algoritmos das redes sociais. Por que só agora estamos discutindo a regulamentação da IA? O ChatGPT acelerou a necessidade de regulamentação?
Muitos acreditam que esse foi o resultado do ChatGPT, mas se esquecem de que estamos preparando isso há algum tempo. Começamos há alguns anos com um grupo de especialistas de alto nível organizado na esfera da UE, que começou a analisar o impacto e os benefícios, mas também os riscos. Em seguida, a comissão publicou um white paper e iniciou uma consulta muito ampla dirigida a todas as possíveis partes interessadas: empresas, universidades, sociedade civil, ativistas e sindicatos. Isso não tem nada a ver com o ChatGPT, que surgiu em um momento em que já estávamos bastante avançados nas negociações. O que isso significou foi abrir os olhos de todos para coisas que já estávamos vendo e nas quais já estávamos trabalhando.
Quem o sr. acha que não vai gostar do texto?
A maioria das empresas aceita a ideia dessas regras, mas nem todas vão gostar dos detalhes das regras ou do que vão ter de fazer em decorrência delas. Sam Altman, CEO da OpenAI, diz que não será fácil cumpri-las. E, é claro, será um esforço para muitos desenvolvedores, especialmente para aqueles que estão atuando nas áreas que devem ser consideradas de alto risco. Nem todo mundo gosta disso. Mas, em última análise, estou convencido de que todas essas regras farão bem à sociedade em geral. E é claro que também procuramos equilibrar cuidadosamente a necessidade de proteção com a necessidade de inovação. Por isso, também criamos várias regras no texto que também têm o objetivo de ajudar as empresas a manter a conformidade e continuar a inovar. Portanto, acreditamos que o equilíbrio existe e é importante.
Dragoș Tudorache, eurodeputado romeno e correlator da Lei de IA da União Europeia
Como atingir esse equilíbrio em que a inovação não é prejudicada pela regulamentação?
Sou um político liberal, portanto acredito muito na necessidade de deixar as empresas o mais livre possível de burocracia e de incentivá-las a inovar. Portanto, quis escrever um texto que impusesse apenas o mínimo possível. Estamos dando um mandato muito claro aos órgãos de padronização, e também não estamos fazendo isso de cima para baixo. Inicialmente, a Comissão Europeia queria que os padrões fossem escritos por eles, de cima para baixo e impostos. Em nossas negociações no Parlamento, mudamos a lógica e mandamos que os órgãos normatizadores redigissem as normas, o que é uma abordagem de baixo para cima, liderada pelas empresas.
Também, introduzimos esse conceito de sandboxes, que agora estamos tornando obrigatórios em todos os Estados-membros da União Europeia, com o objetivo de ajudar as empresas a obter conformidade a um custo mínimo. Portanto, se eu não quiser contratar agentes de conformidade, advogados ou qualquer outra coisa, vou para o sandbox, onde, junto com o órgão regulador, posso cometer erros. Mesmo para as pequenas empresas e startups, essa é uma medida que visa a nivelar o campo de atuação entre elas e as empresas maiores. Mesmo que sejam as que mais gritam, as gigantes sempre podem arcar com a conformidade, porque elas sempre podem contratar mais 50 advogados. Minha preocupação é com as empresas menores, para as quais o custo da conformidade é muito importante.
O sr. tem algum conselho para os legisladores no Brasil, que estão tendo o mesmo tipo de discussão?
Meu conselho, antes de mais nada, é dedicar algum tempo para entender o que é isso. Fizemos isso aqui: criamos um comitê especial sobre IA, com o objetivo de realmente nos ajudar a entender, porque se trata de algo bastante complexo de se compreender. Basicamente, passamos quase toda a pandemia da covid-19 em audiências, conversando com especialistas de absolutamente todos os setores possíveis. Analisamos a agricultura, defesa, diplomacia, relações exteriores, saúde, seguros, bancos, em absolutamente todos os setores, para entender qual é o impacto, quais são os tipos de aplicações de IA, quais são os benefícios, quais são os riscos em cada um dos setores, para entender exatamente onde precisamos colocar a barra em termos de definição das regras. Portanto, essa parte de documentar, entender, aprender e educar o legislador é muito importante.
Em segundo lugar, especialmente quando se trata de lobby, meu conselho seria ouvir todos que têm uma opinião, não apenas as empresas. Eu mesmo vou decidir o que considero relevante ou não. Preciso entender todas as perspectivas para ter certeza de que farei o julgamento correto. Mas, da mesma forma, é preciso ouvir os especialistas, a academia, a sociedade civil, os sindicatos. Temos que ouvir todos aqueles que têm interesse nessa transformação. E, mais uma vez, com todas essas informações, às vezes as pessoas falam mais alto, outras são mais silenciosas, mas, no final das contas, tudo isso deve ser levado em conta, considerado adequadamente e, no final, como legislador, você toma suas decisões.
*O repórter está em Berlim como parte do Internationale Journalisten-Programme (IJP), programa de intercâmbio para jornalistas da América Latina