THE NEW YORK TIMES - A Casa Branca, EUA, informou na terça-feira, 12, que mais oito empresas envolvidas em inteligência artificial (IA) se comprometeram a seguir voluntariamente os padrões de segurança e proteção com a tecnologia em rápida evolução.
As empresas incluem Adobe, IBM, Palantir, Nvidia e Salesforce. Elas se juntaram à Amazon, Anthropic, Google, Inflection AI, Microsoft e OpenAI, que iniciaram um esforço liderado pelo setor sobre salvaguardas em um anúncio com a Casa Branca em julho. As empresas se comprometeram com testes e outras medidas de segurança, que não são regulamentações e não são aplicadas pelo governo.
Alcântara: o desastre espacial brasileiro
A luta por uma IA segura tornou-se fundamental desde que a OpenAI lançou o poderoso chatbot ChatGPT no ano passado. Desde então, a tecnologia tem gerado temores por afetar o trabalho das pessoas, espalhar informações errôneas e potencialmente até desenvolver sua própria inteligência. Como resultado, legisladores e reguladores em Washington, EUA, têm debatido cada vez mais sobre como lidar com a IA.
Na terça-feira, o presidente da Microsoft, Brad Smith, e o cientista-chefe da Nvidia, William Dally, testemunharam em uma audiência sobre as regulamentações de IA realizada pelo subcomitê de privacidade, tecnologia e lei do Judiciário do Senado. Na quarta-feira, Elon Musk, Mark Zuckerberg, da Meta, Sam Altman, da OpenAI, e Sundar Pichai, se reuniram com legisladores em uma cúpula de IA a portas fechadas, organizada pelo senador Chuck Schumer, líder democrata de Nova York, EUA.
“O presidente tem sido claro: aproveitar os benefícios da IA, gerenciar os riscos e agir rápido - muito rápido”, disse o chefe de gabinete da Casa Branca, Jeff Zients, em uma declaração sobre as oito empresas que se comprometeram com os padrões de segurança da IA. “E estamos fazendo exatamente isso em parceria com o setor privado e usando todas as alavancas que temos para fazer isso.”
As empresas concordaram em testar futuros produtos quanto a riscos de segurança e usar marcas d’água para garantir que os consumidores possam identificar o material gerado pela IA. Elas também concordaram em compartilhar informações sobre riscos de segurança em todo o setor e relatar quaisquer possíveis vieses em seus sistemas.
Alguns grupos da sociedade civil reclamaram do papel influente das empresas de tecnologia nas discussões sobre as regulamentações de IA.
“Elas têm recursos descomunais e influenciam os formuladores de políticas de várias maneiras”, disse Merve Hickok, presidente do Center for AI and Digital Policy, um grupo de pesquisa sem fins lucrativos. “Suas vozes não podem ser privilegiadas em detrimento da sociedade civil.” /TRADUZIDO POR ALICE LABATE
Os comentários são exclusivos para assinantes do Estadão.