Um primeiro esboço de regulamentação da inteligência artificial (IA) foi assinado nesta segunda-feira, 30, pelo presidente dos EUA Joe Biden, no que pode ser o empurrão para que outros países também adotem leis específicas para a tecnologia. Entre os tópicos do governo americano para o desenvolvimento e regulação da IA estão a exigência de que produtos de IA mais avançados sejam testados para garantir que não possam ser usados para produzir armas biológicas ou nucleares, e que os resultados desses testes sejam informados ao governo.
Os requisitos de teste são uma parte pequena, mas central, do que Biden, em um discurso programado para a tarde desta segunda-feira, deve descrever como a ação governamental mais abrangente para proteger os americanos dos riscos potenciais trazidos pelos enormes saltos na IA nos últimos anos. O esforço ainda pode ser considerado uma tentativa dos EUA de tomar a liderança na regulamentação da tecnologia que ainda enfrenta um mercado crescente e pouco delimitado pelas leis já vigentes em vários países.
Leia também
De acordo com o jornal americano The New York Times, as regulamentações incluirão recomendações, mas não exigências, de que fotos, vídeos e áudio desenvolvidos por esses sistemas sejam identificados com marca d’água para deixar claro que foram criados por IA. Isso reflete o medo crescente de que a tecnologia torne muito mais fácil a criação de deepfakes e desinformação convincente, especialmente à medida que a campanha presidencial de 2024 se acelera nos EUA.
A ordem de Biden será emitida dias antes de uma reunião de líderes mundiais sobre segurança em IA, organizada pelo primeiro-ministro da Grã-Bretanha, Rishi Sunak. Na questão da regulamentação da tecnologia, os Estados Unidos ficaram atrás da União Europeia, que já está elaborando novas leis, e de outras nações como China e Israel, que emitiram propostas de regulamentação. Desde que o ChatGPT, o chatbot com tecnologia de IA da OpenAI, explodiu em popularidade no ano passado, legisladores e reguladores globais têm debatido sobre como a inteligência artificial pode alterar empregos, espalhar desinformação e potencialmente desenvolver seu próprio tipo de inteligência.
As novas regras dos EUA, algumas das quais devem entrar em vigor nos próximos 90 dias, provavelmente enfrentarão muitos desafios, alguns legais e outros políticos. Mas a ordem visa aos sistemas futuros mais avançados e, em grande parte, não aborda as ameaças imediatas dos chatbots existentes que poderiam ser usados para espalhar desinformação relacionada à Ucrânia, Gaza ou à campanha presidencial.
Para quem?
A ordem afeta apenas as empresas americanas, mas como o desenvolvimento de software ocorre em todo o mundo, os Estados Unidos enfrentarão desafios diplomáticos para aplicar as regulamentações, razão pela qual o governo está tentando incentivar aliados e adversários a desenvolver regras semelhantes. A vice-presidente Kamala Harris está representando os Estados Unidos na conferência em Londres sobre o assunto nesta semana.
As regulamentações também têm o objetivo de influenciar o setor de tecnologia, estabelecendo padrões inéditos de segurança e proteção ao consumidor. As diretrizes da Casa Branca para as agências federais visam forçar as empresas a cumprir os padrões estabelecidos por seus clientes governamentais.
“Esse é um primeiro passo importante e, o que é importante, as ordens executivas estabelecem normas”, disse Lauren Kahn, analista sênior de pesquisa do Center for Security and Emerging Technology da Universidade de Georgetown.
A ordem também instrui o Departamento de Saúde e Serviços Humanos e outras agências a criar padrões de segurança claros para o uso de IA e a simplificar os sistemas para facilitar a compra de ferramentas que usem a tecnologia. Ela determina que o Departamento do Trabalho e o Conselho Econômico Nacional estudem o efeito da IA no mercado de trabalho e apresentem possíveis regulamentações. E solicita que as agências forneçam orientações claras aos locadores, contratantes do governo e programas de benefícios federais para evitar a discriminação por algoritmos usados em ferramentas de IA.
Mas a Casa Branca tem autoridade limitada, e algumas das diretrizes não são aplicáveis. Por exemplo, a ordem pede que as agências fortaleçam as diretrizes internas para proteger os dados pessoais dos consumidores, mas a Casa Branca também reconheceu a necessidade de uma legislação de privacidade para garantir totalmente a proteção dos dados.
Para incentivar a inovação e reforçar a concorrência, a Casa Branca solicitará que a Câmara Federal de Comércio (FTC, na sigla em inglês) intensifique seu papel de fiscalizador da proteção ao consumidor e das violações antitruste. Mas a Casa Branca não tem autoridade para instruir o FTC, um órgão independente, a criar regulamentações.
Lina Khan, presidente da Comissão, já sinalizou sua intenção de agir de forma mais agressiva como fiscalizadora da IA. Em julho, a comissão abriu uma investigação sobre a OpenAI sobre possíveis violações de privacidade do consumidor e acusações de divulgação de informações falsas sobre indivíduos.
“Embora essas ferramentas sejam novas, elas não estão isentas das regras existentes, e o FTC aplicará vigorosamente as leis que somos encarregados de administrar, mesmo nesse novo mercado”, escreveu Khan em um artigo publicado no The New York Times em maio.
O setor de tecnologia disse que apoia as regulamentações, embora as empresas discordem sobre o nível de supervisão do governo. A Microsoft, a OpenAI, o Google e a Meta estão entre as 15 empresas que concordaram com compromissos voluntários de segurança e proteção, incluindo a realização de testes de estresse em seus sistemas por terceiros para detectar vulnerabilidades.
Biden pediu regulamentações que apoiem as oportunidades da IA para ajudar na pesquisa médica e climática, ao mesmo tempo em que cria barreiras para proteger contra abusos. Ele enfatizou a necessidade de equilibrar as regulamentações com o apoio às empresas dos EUA em uma corrida global pela liderança da IA. Para isso, a ordem orienta as agências a simplificar o processo de visto para imigrantes altamente qualificados e não imigrantes com experiência em IA para estudar e trabalhar nos Estados Unidos.
Um alto funcionário do Departamento de Energia disse na semana passada que a Administração Nacional de Segurança Nuclear já havia começado a explorar como esses sistemas poderiam acelerar a proliferação nuclear, resolvendo questões complexas na construção de uma arma nuclear. E muitas autoridades têm se concentrado em como esses sistemas poderiam permitir que um grupo terrorista reunisse o que é necessário para produzir armas biológicas.
Ainda assim, legisladores e funcionários da Casa Branca advertiram que não se deve agir com muita rapidez para redigir leis para tecnologias de IA que estão mudando rapidamente. A União Europeia não considerou modelos de linguagem ampla (LLM, na sigla em inglês) em seus primeiros esboços legislativos./COM NYT
Os comentários são exclusivos para assinantes do Estadão.