Nesta semana foi aprovado no plenário do Senado Federal o marco legal da inteligência artificial, o PL 2338/2023. Assim como em outros países, o Brasil vem desde maio do ano passado estruturando regras a respeito dessa tecnologia, considerada revolucionária. E na jurisprudência internacional sobre o tema, o risco do uso da IA é métrica para definir obrigações, restrições e punições para quem faz uso dessas ferramentas. No Brasil, o texto foi enviado para a Câmara também com essa régua, definindo basicamente dois riscos: alto e excessivo. A lei da União Europeia, porém, há mais nuances para avaliar seus perigos: mínimo, limitado, alto e inaceitável.
Chamado de AI Act, o texto europeu começa a valer já em fevereiro de 2025 e o principal nome por trás de seu planejamento e estruturação é o do italiano Gabriele Mazzini. Ele liderou os trabalhos na Comissão Europeia para redigir o texto, trabalhando em seguida por sua aprovação e, depois, pela disseminação de suas boas práticas. Hoje Mazzini é pesquisador do Media Lab do Massachusetts Institute of Technology (MIT) em Cambridge (EUA), e viaja pelo mundo falando sobre IA em conferências e encontros governamentais. Quando concedeu esta entrevista para o ESTADÃO, durante o Web Summit em Portugal, ficou surpreso ao saber que um extremista tentou explodir o Superior Tribunal Federal brasileiro, onde esteve em junho, realizando reuniões com integrantes da comissão legisladora que analisa IA. Depois de Lisboa, viajou a Taiwan, Coreia do Sul, China e Sérvia, onde tinha algumas reuniões agendadas antes do recesso de fim de ano.
Inteligência artificial já é amplamente utilizada no Brasil, seja como ferramenta de produtividade e entretenimento, mas também para criar desinformação e as chamadas deep fakes. Como evitar isso?
O AI Act não foi feito para regular ou moderar desinformação ou fake news em plataformas e mídias sociais. Para isso há outra peça legal, o Digital Services Act (DSA), que em essência estabelece diversas obrigações para os provedores de serviços online, incluindo as grandes plataformas, que estão submissas às mais severas recomendações quando se discute direitos fundamentais de liberdade de expressão, mas também desinformação, tentando encontrar equilíbrio num ambiente digital seguro. Enquanto o DSA se concentrou mais em comportamento online, o AI Act regula produtos baseados em IA e em sua disseminação. Depois do crescimento da IA generativa e do Chat GPT, o AI Act também foi convocado a estabelecer certas formas de transparência para conteúdo generativo, para que as pessoas possam entender quando aquilo vem de uma IA ou não, se aquilo é baseado em fatos, ou se está causando desinformação. Porém, apesar de a regulamentação ter se movido nesse sentido, não impacta fundamentalmente as obrigações de moderação de plataformas ou formas de prevenir o extremismo. Mas elas devem ter a obrigação de tomar cuidado com a propaganda terrorista e, se necessário, por meio de dispositivos legais para isso.
Ainda que o AI Act venha de uma necessidade de regulação diferente de onde vem o DSA ou o General Data Protection Regulation (GDPR), pode-se dizer que se conecta de alguma forma a esse ecossistema, no qual a União Europeia costuma se antecipar e até pautar uma agenda global?
Acredito que sim. Começou com o GDPR e, ainda que eu não estivesse na comissão naquela época, é um caminho mesmo. Esse tipo de enfrentamento na Europa se tornou um modelo, e acredito que até havia essa intenção. Na época, já havia diretivas sobre proteção de dados. Mas se percebeu que era necessário transformá-las em uma regulação, pois facilitaria a circulação de informações pessoais dentro da União Europeia, o que também exige um direito fundamental de proteção. Então se tornou um ponto de referência, pois as obrigações eram muitas, junto a graves ameaças de non-compliance. E, como foi a primeira do mundo, fez com que empresas globais simplesmente se adaptassem e levassem essas regras para outros mercados. As multinacionais preferem, afinal, ter uma abordagem de jurisprudência similar nos mercados onde atuam. Acredito que aquilo levou a se refletir que, provavelmente, não era o suficiente. Que precisávamos atualizar e evoluir com as diretivas de e-commerce, que antes só contavam com uma legislação estabelecida pelos EUA na seção 230 (do Communications Decency Act que protege provedores de serviços online e seus usuários de serem responsabilizados por terceiros), era uma ferramenta adicional que só prevenia as big techs e plataformas sobre a poluição do sistema. Então talvez o AI Act também se torne um segundo passo na direção de outro tipo de regulamentação inovadora, que poderia ser um modelo.
O conteúdo criado sinteticamente por uma máquina é comercialmente mais barato. Mas ele não necessariamente nos ajuda, como humanos, a sermos mais criativos
Segundo esse caminho regulatório, como foi concebido o AI Act e para onde ele vai?
Sendo honesto, apesar de fazer sentido ver essas regulações como um caminho, quando comecei a pensar no AI Act não foi como uma consequência desses outros. Queria que fosse bem diferente, na verdade. Pois agora estamos regulando uma tecnologia. Eu gosto do tipo de texto que tem a GDPR ou a DSA, quando você coloca obrigações sobre certos operadores do mercado. Mas no caso do AI Act o que fizemos foi regulamentar como desenvolver um produto baseado em IA, algo que, per se, pode ser usado de muitas formas diferentes. É a tecnologia e a partir dela colocar obrigações para as companhias. Mas o objetivo é ter certeza que o produto final, baseado em IA, trabalhe de certa forma pretendida, essencialmente sem discriminação e com segurança. É mais conectado ao desenvolvimento do produto, não importando muito quem você é, seja uma big tech ou um pequeno-médio empreendedor. Já que os dois podem desenvolver o mesmo produto, as regras devem ser as mesmas para os dois.
Quais seriam os principais pontos de atenção para legisladores mundo afora, de acordo com os debates que a comissão europeia teve sobre o AI Act?
Acredito que seja importante que cada país faça a própria due dilligence, no sentido de que nós fizemos nossa investigação profunda antes de conceber o AI Act. Veio do exercício de tentar entender quais problemas haviam e quais opções tínhamos para resolvê-los e tomar decisões. Isso foi um processo, consultando experts, identificando qual seria o impacto de mercado, a competitividade, o que seria relevante para aquele texto. A falta de fiscalização seria outro problema, esteve entre algumas das coisas que consideramos. Mas não sei se seriam as mesmas para outros países. Especialmente quando falamos da América do Sul, que tem um contexto sócio-econômico diferente da Europa. A lei tem de ser observada como uma ferramenta para atingir um propósito. Pegar algo que foi desenvolvido por outra pessoa num contexto diferente talvez não seja, necessariamente, a melhor solução. Mas meu ponto é que um processo apropriado precisa acontecer. Nós fizemos isso e o Brasil ou qualquer outro país deve entender o próprio contexto.
As empresas, hoje, não sabem como deveriam se regularizar. A realidade é simples assim
Quando falamos da indústria de marketing e publicidade, quais são os principais alertas ao adotar tecnologias como IA?
A primeira coisa que me vem à cabeça são as questões de direitos autorais. É um problema emergente que tem impacto em diversos aspectos falhos no sistema, mas principalmente em criadores de conteúdo. Pessoalmente, quando calço os sapatos de um creator, ainda não sei direito qual deveria ser o melhor equilíbrio. Pois quero que minha criatividade tenha valor para o marketing, a publicidade. E também quero manter meu trabalho. Isso é importantíssimo. Ao mesmo tempo, você tem os large language models que são capazes de substituir parte da criatividade. E o valor daquilo vai para uma empresa sem ter compensado ou reconhecido uma criação humana anterior. O conteúdo criado sinteticamente por uma máquina é comercialmente mais barato. Mas ele não necessariamente nos ajuda, como humanos, a sermos mais criativos. É uma situação complexa… Acredito que o essencial é pensar nesse equilíbrio entre continuar competitivo, pois é uma indústria que quer entregar resultados mais rápidos com menos custo e, por outro lado, qual é o preço que isso pode de fato impor sobre a criatividade humana.
Leia também
O AI Act começará a valer em fevereiro de 2025. Quais são os pontos sensíveis nessa adaptação do mercado?
As empresas, hoje, não sabem como deveriam se regularizar. A realidade é simples assim. Mas desde o começo do ano, quando começamos a montar essa regulamentação, havia situações que sabíamos que precisaria de mais tempo para processar novas regras. Para que sistemas de alto risco atingissem certos padrões, era preciso tocar um processo paralelo à regulação central, para dar conta de problemas que geralmente identificamos só depois que acontecem. Então prevíamos isso. E inclusive por isso que a comissão se antecipou ao calendário previsto. As coisas não valerão a partir do dia um de aplicação, ou seria muito difícil para as empresas se ajustarem. Porém, há outras situações, como as provisões e as obrigações de transparência ou mesmo as regras sobre modelos de fundação que, a não ser que apareça algum direcionamento adicional, já valerão em fevereiro.
Os comentários são exclusivos para assinantes do Estadão.