NEW YORK TIMES - Quando os líderes da União Europeia (UE) apresentaram um projeto de lei de 125 páginas para regulamentar a inteligência artificial (IA) em abril de 2021, eles o saudaram como um modelo global para lidar com a tecnologia. Os legisladores da UE obtiveram a opinião de milhares de especialistas durante três anos sobre a IA, quando o assunto nem sequer era discutido em outros países. O resultado foi uma política “histórica” que era “à prova de futuro”, declarou Margrethe Vestager, chefe de política digital do bloco de 27 países. Depois veio o ChatGPT.
O chatbot assustadoramente humano, que se tornou viral no ano passado por gerar suas próprias respostas às solicitações, surpreendeu os formuladores de políticas da UE. O tipo de IA que alimentou o ChatGPT não foi mencionado no projeto de lei e não foi o foco principal das discussões sobre a política. Os legisladores e seus assessores se apimentaram com telefonemas e mensagens de texto para resolver a lacuna, enquanto os executivos de tecnologia alertavam que regulamentações excessivamente agressivas poderiam colocar a Europa em desvantagem econômica.
Leia mais
Mesmo agora, os legisladores da UE estão discutindo sobre o que fazer, colocando a lei em risco. “Sempre estaremos atrasados em relação à velocidade da tecnologia”, disse Svenja Hahn, membro do Parlamento Europeu que participou da redação da lei de IA.
Legisladores e reguladores em Bruxelas, em Washington e em outros lugares estão perdendo a batalha para regulamentar a IA e estão correndo para recuperar o atraso, à medida que crescem as preocupações de que a poderosa tecnologia automatize empregos, turbine a disseminação da desinformação e, por fim, desenvolva seu próprio tipo de inteligência. As nações agiram rapidamente para enfrentar os possíveis perigos da IA, mas as autoridades europeias foram pegas de surpresa pela evolução da tecnologia, enquanto os legisladores dos EUA admitem abertamente que mal entendem como ela funciona.
Na raiz das ações fragmentadas está um descompasso fundamental. Os sistemas de IA estão avançando de forma tão rápida e imprevisível que os legisladores e reguladores não conseguem acompanhar o ritmo. Essa lacuna foi agravada por um déficit de conhecimento sobre IA nos governos, burocracias labirínticas e temores de que o excesso de regras possa inadvertidamente limitar os benefícios da tecnologia.
Mesmo na Europa, talvez o órgão regulador de tecnologia mais agressivo do mundo, a IA tem confundido os formuladores de políticas. A União Europeia seguiu em frente com sua nova lei, a A.I. Act, apesar das disputas sobre como lidar com os fabricantes dos sistemas de IA mais recentes. Um acordo final, esperado para quarta-feira, poderia restringir certos usos arriscados da tecnologia e criar requisitos de transparência sobre como os sistemas subjacentes funcionam. Porém, mesmo que seja aprovado, ele não deverá entrar em vigor por pelo menos 18 meses - uma vida inteira no desenvolvimento de IA - e não está claro como será aplicado.
“Ainda não se sabe se é possível regulamentar essa tecnologia ou não”, disse Andrea Renda, pesquisadora sênior do Center for European Policy Studies, um laboratório de pesquisas sociais em Bruxelas. “Há um risco de que esse texto da UE acabe se tornando pré-histórico.”
A ausência de regras deixou um vácuo. O Google, a Meta, a Microsoft e a OpenAI, que fabrica o ChatGPT, foram deixados à própria sorte enquanto corriam para criar e lucrar com sistemas avançados de IA. Muitas empresas, que preferem códigos de conduta não vinculativos que ofereçam margem de manobra para acelerar o desenvolvimento, estão fazendo lobby para suavizar as regulamentações propostas e colocando os governos uns contra os outros.
Se não houver uma ação unificada em breve, alertaram algumas autoridades, os governos poderão ser deixados para trás pelos fabricantes de IA e seus avanços.
“Ninguém, nem mesmo os criadores desses sistemas, sabe o que eles serão capazes de fazer”, disse Matt Clifford, assessor do primeiro-ministro Rishi Sunak, da Grã-Bretanha, que presidiu uma cúpula de segurança de IA no mês passado com 28 países. “A urgência vem do fato de haver uma dúvida real sobre se os governos estão equipados para lidar com os riscos e mitigá-los.”
A Europa assume a liderança
Em meados de 2018, 52 acadêmicos, cientistas da computação e advogados se reuniram no hotel Crowne Plaza, em Bruxelas, para discutir inteligência artificial. As autoridades da União Europeia os selecionaram para prestar consultoria sobre a tecnologia, que estava chamando a atenção por impulsionar carros sem motorista e sistemas de reconhecimento facial.
O grupo debateu se já havia regras europeias suficientes para proteger contra a tecnologia e considerou possíveis diretrizes de ética, disse Nathalie Smuha, uma acadêmica de direito na Bélgica que coordenou o grupo.
Porém, ao discutirem os possíveis efeitos da IA - inclusive a ameaça da tecnologia de reconhecimento facial à privacidade das pessoas - eles reconheceram que “havia todas essas lacunas legais, e o que acontece se as pessoas não seguirem essas diretrizes?”, disse ela.
Em 2019, o grupo publicou um relatório de 52 páginas com 33 recomendações, incluindo mais supervisão das ferramentas de IA que poderiam prejudicar os indivíduos e a sociedade. Em 2020, os formuladores de políticas europeus decidiram que a melhor abordagem era focar em como a IA era usada e não na tecnologia subjacente. A IA não era inerentemente boa ou ruim, disseram eles - dependia de como ela era aplicada.
Portanto, quando a Lei de IA foi revelada em 2021, ela se concentrou nos usos de “alto risco” da tecnologia, inclusive na aplicação da lei, admissões escolares e contratações. Em grande parte, evitou regulamentar os modelos de IA que os alimentavam, a menos que fossem listados como perigosos.
De acordo com a proposta, as organizações que oferecem ferramentas de IA arriscadas devem atender a determinados requisitos para garantir que esses sistemas sejam seguros antes de serem implantados. O software de IA que criou vídeos manipulados e imagens “deepfake” deve divulgar que as pessoas estão vendo conteúdo gerado por IA. Outros usos foram proibidos ou restritos, como o software de reconhecimento facial ao vivo. Os infratores poderão ser multados em 6% de suas vendas globais.
Alguns especialistas alertaram que o projeto de lei não levava em conta o suficiente as futuras reviravoltas da IA. “Eles me enviaram um rascunho e eu lhes devolvi 20 páginas de comentários”, disse Stuart Russell, professor de ciência da computação da Universidade da Califórnia, em Berkeley, que assessorou a Comissão Europeia. “Tudo o que não estivesse em sua lista de aplicativos de alto risco não seria considerado, e a lista excluía o ChatGPT e a maioria dos sistemas de IA”
Os líderes da União Europeia não se intimidaram. “A Europa pode não ter sido a líder na última onda de digitalização, mas tem tudo para liderar a próxima”, disse Vestager ao apresentar a política em uma coletiva de imprensa em Bruxelas.
Um ponto cego
Dezenove meses depois, o ChatGPT chegou.
O Conselho Europeu, outro órgão da União Europeia, tinha acabado de concordar em regulamentar os modelos de IA de uso geral, mas o novo chatbot reordenou o debate. Ele revelou um “ponto cego” na formulação de políticas do bloco sobre a tecnologia, disse Dragos Tudorache, membro do Parlamento Europeu que argumentou, antes do lançamento do ChatGPT, que os novos modelos devem ser cobertos pela lei. Esses sistemas de IA de uso geral não apenas alimentam os chatbots, mas podem aprender a realizar muitas tarefas analisando dados coletados da Internet e de outras fontes.
As autoridades da UE ficaram divididas sobre como responder. Alguns se mostraram cautelosos quanto à adição de muitas regras novas, especialmente porque a Europa tem lutado para criar suas próprias empresas de tecnologia. Outros queriam limites mais rigorosos.
“Queremos ter cuidado para não exagerar e regulamentar demais coisas que ainda não estão claras”, disse Tudorache, um dos principais negociadores da Lei de IA.
Em outubro, os governos da França, Alemanha e Itália, as três maiores economias da União Europeia, haviam se manifestado contra a regulamentação rigorosa dos modelos de IA de uso geral, por medo de prejudicar suas startups de tecnologia domésticas. Outros membros do Parlamento Europeu disseram que a lei seria inútil sem abordar a tecnologia. As divisões sobre o uso da tecnologia de reconhecimento facial também persistiram.
Os formuladores de políticas ainda estavam trabalhando em compromissos, já que as negociações sobre a linguagem da lei entraram em um estágio final nesta semana. Um porta-voz da Comissão Europeia disse que a Lei de IA era “flexível em relação a desenvolvimentos futuros e favorável à inovação”.
Queremos ter cuidado para não exagerar e regulamentar demais coisas que ainda não estão claras”
Dragos Tudorache, membro do Parlamento Europeu
O jogo de Washington
Jack Clark, fundador da Anthropic, empresa iniciante de IA, visitou Washington durante anos para dar aos legisladores tutoriais sobre IA. Quase sempre, apenas alguns assessores do Congresso apareciam. Mas depois que o ChatGPT se tornou viral, suas apresentações ficaram lotadas de legisladores e assessores que queriam ouvir seu curso intensivo de IA e suas opiniões sobre a criação de regras.
“Todo mundo meio que acordou em massa para essa tecnologia”, disse Clark, cuja empresa contratou recentemente duas empresas de lobby em Washington.
Na falta de conhecimento técnico, os legisladores estão confiando cada vez mais na Anthropic, Microsoft, OpenAI, Google e outros fabricantes de IA para explicar como ela funciona e ajudar a criar regras.
“Não somos especialistas”, disse o deputado Ted Lieu, democrata da Califórnia, que recebeu Sam Altman, CEO da OpenAI, e mais de 50 legisladores em um jantar em Washington em maio. “É importante ser humilde.”
As empresas de tecnologia aproveitaram sua vantagem. Na primeira metade do ano, muitos dos 169 lobistas da Microsoft e do Google, juntos, reuniram-se com legisladores e com a Casa Branca para discutir a legislação de IA, de acordo com as divulgações de lobby. A OpenAI registrou seus três primeiros lobistas e um grupo de lobby tecnológico revelou uma campanha de US$ 25 milhões para promover os benefícios da IA este ano.
Nesse mesmo período, Altman se reuniu com mais de 100 membros do Congresso, incluindo o ex-presidente da Câmara dos Deputados Kevin McCarthy, republicano da Califórnia, e o líder do Senado, Chuck Schumer, democrata de Nova York. Depois de testemunhar no Congresso em maio, Altman embarcou em uma turnê global de 17 cidades, reunindo-se com líderes mundiais, incluindo o presidente Emmanuel Macron da França, Sunak e o primeiro-ministro Narendra Modi da Índia.
Em Washington, a atividade em torno da IA tem sido frenética, mas sem nenhuma legislação para mostrar.
Em maio, após uma reunião na Casa Branca sobre IA, os líderes da Microsoft, OpenAI, Google e Anthropic foram solicitados a elaborar autorregulamentações para tornar seus sistemas mais seguros, disse Brad Smith, presidente da Microsoft. Depois que a Microsoft apresentou sugestões, a secretária de comércio, Gina M. Raimondo, enviou a proposta de volta com instruções para acrescentar mais promessas, disse ele.
Dois meses depois, a Casa Branca anunciou que as quatro empresas haviam concordado com compromissos voluntários sobre a segurança da IA, incluindo o teste de seus sistemas por meio de supervisores terceirizados - o que a maioria das empresas já estava fazendo.
“Foi brilhante”, disse Smith. “Em vez de as pessoas do governo apresentarem ideias que poderiam ser impraticáveis, elas disseram: ‘Mostre-nos o que você acha que pode fazer e nós o incentivaremos a fazer mais’.”
Em uma declaração, Gina disse que o governo federal continuaria trabalhando com as empresas para que “os Estados Unidos continuem a liderar o mundo em inovação responsável de IA”.
Durante o verão, a Comissão Federal de Comércio (FTC, na sigla em inflês) abriu uma investigação sobre a OpenAI e como ela lida com os dados dos usuários. Os legisladores continuaram a receber executivos de tecnologia. Em setembro, Schumer foi o anfitrião de Elon Musk, Mark Zuckerberg da Meta, Sundar Pichai do Google, Satya Nadella da Microsoft e Altman em uma reunião a portas fechadas com legisladores em Washington para discutir as regras de IA. Musk alertou sobre os riscos “civilizacionais” da IA, enquanto Altman proclamou que a IA poderia resolver problemas globais, como a pobreza.
Em alguns casos, as empresas de IA estão jogando os governos uns contra os outros. Na Europa, grupos do setor alertaram que as regulamentações poderiam colocar a União Europeia atrás dos Estados Unidos. Em Washington, as empresas de tecnologia advertiram que a China poderia sair na frente.
“A China é muito melhor nessas coisas do que vocês imaginam”, disse Clark, da Anthropic, aos membros do Congresso em janeiro.
Colaboração fugaz
Em maio, Vestager, Raimondo e Antony J. Blinken, secretário de Estado dos EUA, reuniram-se em Lulea, na Suécia, para discutir a cooperação em políticas digitais.
Após dois dias de conversas, Vestager anunciou que a Europa e os Estados Unidos lançariam um código de conduta compartilhado para proteger a IA “dentro de semanas”. Ela enviou uma mensagem aos colegas em Bruxelas pedindo que compartilhassem sua publicação nas mídias sociais sobre o pacto, que ela chamou de “grande passo em uma corrida que não podemos perder”.
Meses depois, nenhum código de conduta compartilhado foi publicado. Em vez disso, os Estados Unidos anunciaram suas próprias diretrizes de IA.
Com os países atolados em competição econômica e desconfiança geopolítica, muitos estão definindo suas próprias regras para a tecnologia sem fronteiras.
No entanto, “uma regulamentação fraca em outro país afetará você”, disse Rajeev Chandrasekhar, ministro de tecnologia da Índia, observando que a falta de regras para as empresas americanas de rede social levou a uma onda de desinformação global.
“A maioria dos países afetados por essas tecnologias nunca esteve na mesa quando as políticas foram definidas”, disse ele. “A IA será um fator muito mais difícil de gerenciar.”
Mesmo entre os aliados, a questão tem causado divisões. Na reunião na Suécia entre as autoridades da UE e dos EUA, Blinken criticou a Europa por avançar com as regulamentações de IA que poderiam prejudicar as empresas americanas, segundo um participante. Thierry Breton, um comissário europeu, respondeu que os Estados Unidos não poderiam ditar a política europeia, disse a pessoa.
Um porta-voz da Comissão Europeia disse que os Estados Unidos e a Europa “trabalharam juntos” na política de IA e que o Grupo dos 7 países divulgou um código de conduta voluntário em outubro. Um porta-voz do Departamento de Estado disse que houve “conversas contínuas e construtivas” com a União Europeia, incluindo o acordo do G7. Na reunião na Suécia, acrescentou, Blinken enfatizou a necessidade de uma “abordagem unificada” para a IA.
Alguns formuladores de políticas disseram que esperavam um progresso em uma cúpula sobre segurança de IA que a Grã-Bretanha realizou no mês passado em Bletchley Park, onde o matemático Alan Turing ajudou a decifrar o código Enigma usado pelos nazistas. A reunião contou com a participação da vice-presidente Kamala Harris, Wu Zhaohui, vice-ministro de ciência e tecnologia da China, Musk e de outros.
O resultado foi uma declaração de 12 parágrafos descrevendo o potencial “transformador” e o risco “catastrófico” de uso indevido da IA. Os participantes concordaram em se reunir novamente no próximo ano. As conversas, no final, produziram um acordo para continuar conversando.
Este conteúdo foi traduzido com o auxílio de ferramentas de Inteligência Artificial e revisado por nossa equipe editorial. Saiba mais em nossa Política de IA.
Os comentários são exclusivos para assinantes do Estadão.