THE WASHINGTON POST - Há muito tempo, figuras do Vale do Silício alertam sobre os perigos da inteligência artificial (IA). Agora, esses temores migraram para outras esferas do poder: sistema jurídico, líderes empresariais globais e reguladores de Wall Street.
Recentemente, a Financial Industry Regulatory Authority (Finra, na sigla em inglês), agência reguladora do setor de valores mobiliários nos EUA, classificou a IA como um “risco emergente” e o Fórum Econômico Mundial em Davos, na Suíça, divulgou uma pesquisa que concluiu que a desinformação alimentada por IA representa a maior ameaça de curto prazo para a economia global.
Leia também
Esses relatórios foram divulgados apenas algumas semanas depois que o Conselho de Supervisão da Estabilidade Financeira, em Washington, afirmou que a IA poderia resultar em “danos diretos ao consumidor” e Gary Gensler, presidente da Comissão de Valores Mobiliários (SEC), alertou publicamente sobre a ameaça à estabilidade financeira de várias empresas de investimento que dependem de modelos de IA semelhantes para tomar decisões de compra e venda.
“A IA pode desempenhar um papel central nos relatórios pós-ação de uma futura crise financeira”, disse ele em um discurso em dezembro.
No Fórum Econômico Mundial, políticos e bilionários trataram IA como um dos temas centrais das conversas. Em um relatório divulgado pouco antes do evento, o fórum afirmou que sua pesquisa com 1.500 formuladores de políticas e líderes do setor constatou que as notícias falsas e a propaganda escrita e impulsionada por chatbots de IA são o maior risco de curto prazo para a economia global.
Cerca de metade da população mundial está participando de eleições este ano em países como Estados Unidos, México, Indonésia e Paquistão, e os pesquisadores de desinformação estão preocupados com a possibilidade de a IA facilitar a disseminação de informações falsas e aumentar o conflito social.
O relatório do fórum foi publicado um dia depois que a Finra, em seu relatório anual, disse que a IA gerou “preocupações sobre precisão, privacidade, parcialidade e propriedade intelectual”, mesmo oferecendo possíveis ganhos de custo e eficiência.
E, em dezembro, o Departamento do Tesouro dos EUA disse que falhas de projeto de IA não detectadas poderiam produzir decisões tendenciosas, como negar empréstimos a candidatos qualificados.
A IA generativa, que é treinada em grandes conjuntos de dados, também pode produzir conclusões totalmente incorretas que parecem convincentes, acrescentou o conselho. O departamento recomendou que os órgãos reguladores e o setor financeiro dediquem mais atenção ao rastreamento dos possíveis riscos que surgem do desenvolvimento da IA.
Gensler, da SEC, tem sido um dos críticos mais declarados da IA. Em dezembro, sua agência solicitou informações sobre o uso de IA de vários consultores de investimento. A solicitação de informações, conhecida como “varredura”, ocorreu cinco meses depois que a comissão propôs novas regras para evitar conflitos de interesse entre os consultores que usam um tipo de IA conhecido como análise preditiva de dados e seus clientes.
“Quaisquer conflitos de interesse resultantes poderiam causar danos aos investidores de forma mais acentuada e em uma escala mais ampla do que era possível anteriormente”, disse a SEC em sua proposta de regulamentação.
As empresas de serviços financeiros veem oportunidades de melhorar as comunicações com os clientes, as operações de back-office e o gerenciamento de portfólio. Mas a IA também implica em riscos maiores. Os algoritmos que tomam decisões financeiras podem produzir decisões de empréstimo tendenciosas que negam às minorias o acesso ao crédito ou até mesmo causar um colapso do mercado global, se dezenas de instituições que dependem do mesmo sistema de IA venderem ao mesmo tempo.
“Isso é algo diferente do que já vimos antes. A IA tem a capacidade de fazer coisas sem as mãos humanas”, disse o advogado Jeremiah Williams, ex-funcionário da SEC, atualmente na Ropes & Gray, em Washington.
Suprema corte dos EUA também vê perigos
Até mesmo a Suprema Corte vê motivos para preocupação.
“Obviamente, a IA tem um grande potencial para aumentar drasticamente o acesso a informações importantes para advogados e não advogados. Mas é igualmente óbvio que ela corre o risco de invadir interesses de privacidade e desumanizar a lei”, escreveu o presidente da Suprema Corte, John G. Roberts Jr., em seu relatório de fim de ano sobre o sistema judiciário dos EUA.
Assim como os motoristas que seguem as instruções do GPS que os levam a um beco sem saída, os seres humanos podem confiar demais na IA para administrar o dinheiro, disse Hilary Allen, reitora associada da American University Washington College of Law. “Há uma grande mística sobre o fato de a IA ser mais inteligente do que nós”, diz ela.
A IA também pode não ser melhor do que os humanos na detecção de perigos improváveis ou “riscos de cauda”, diz Allen. Antes de 2008, poucas pessoas em Wall Street previram o fim da bolha imobiliária. Um dos motivos foi o fato de que, como os preços das moradias nunca haviam caído em todo o país, os modelos de Wall Street supunham que esse declínio uniforme nunca ocorreria. Mesmo os melhores sistemas de IA são tão bons quanto os dados em que se baseiam, diz Allen.
À medida que a IA se torna mais complexa e capaz, alguns especialistas se preocupam com a automação de “caixa preta” que não consegue explicar como chegou a uma decisão, deixando os humanos incertos sobre sua solidez. Sistemas mal projetados ou mal gerenciados podem minar a confiança entre comprador e vendedor, necessária para qualquer transação financeira, diz Richard Berner, professor clínico de finanças da Stern School of Business da Universidade de Nova York.
“Ninguém fez um cenário de estresse com as máquinas funcionando descontroladamente”, acrescentou Berner, o primeiro diretor do Escritório de Pesquisa Financeira do Tesouro.
No Vale do Silício, o debate sobre os possíveis perigos relacionados à IA não é novo. Mas ele se intensificou nos meses seguintes ao lançamento do ChatGPT da OpenAI, no final de 2022.
Críticas que podem cegar
Em meio a um boom de IA que impulsionou o rejuvenescimento do setor de tecnologia, alguns executivos de empresas alertaram que o potencial da IA para desencadear o caos social rivaliza com armas nucleares e pandemias letais. Muitos pesquisadores dizem que essas preocupações estão desviando a atenção dos impactos da IA no mundo real. Outros especialistas e empreendedores dizem que as preocupações com a tecnologia são exageradas e correm o risco de levar os órgãos reguladores a bloquear inovações que poderiam ajudar as pessoas e aumentar os lucros das empresas de tecnologia.
No ano passado, políticos e formuladores de políticas em todo o mundo também se esforçaram para entender como a IA se encaixará na sociedade. O Congresso realizou várias audiências. O presidente Biden emitiu uma ordem executiva dizendo que a IA era a “tecnologia mais importante de nosso tempo”. O Reino Unido convocou um fórum global de IA em que o primeiro-ministro Rishi Sunak alertou que “a humanidade poderia perder completamente o controle da IA”. As preocupações incluem o risco de que a IA “generativa” - que pode criar texto, vídeo, imagens e áudio - possa ser usada para criar desinformação, deslocar empregos ou até mesmo ajudar as pessoas a criar armas biológicas perigosas.
Críticos da área de tecnologia apontaram que alguns dos líderes que estão soando o alarme, como o CEO da OpenAI, Sam Altman, estão, no entanto, incentivando o desenvolvimento e a comercialização da tecnologia. As empresas menores acusaram os pesos pesados da IA, como a OpenAI, o Google e a Microsoft, de exagerar nos riscos da IA para desencadear uma regulamentação que dificultaria a concorrência de novos participantes.
“A questão do hype é que há uma desconexão entre o que é dito e o que é realmente possível”, diz Margaret Mitchell, cientista-chefe de ética da Hugging Face, uma startup de IA de código aberto com sede em Nova York. “Tivemos um período de lua de mel em que a IA generativa era supernova para o público e eles só conseguiam ver o lado bom, mas quando as pessoas começaram a usá-la, puderam ver todos os problemas que ela trazia.”
Este conteúdo foi traduzido com o auxílio de ferramentas de Inteligência Artificial e revisado por nossa equipe editorial. Saiba mais em nossa Política de IA.
Os comentários são exclusivos para assinantes do Estadão.