CEO do ChatGPT admite que IA pode ‘dar muito errado’ se desenvolvimento sair de controle

Sam Altman foi ouvido pelo Congresso americano nesta terça-feira, 16, e reafirmou os perigos da IA em relação à desinformação

PUBLICIDADE

Por Cat Zakrzewski, Cristiano Lima e Will Oremus

THE WASHINGTON POST - O CEO da OpenAI, Sam Altman, apresentou um relato sobre como a inteligência artificial (AI) poderia “causar danos significativos ao mundo” durante seu primeiro testemunho no Congresso americano. Na sessão, realizada nesta terça, 16, o empresário se mostrou disposto a trabalhar com legisladores apreensivos para enfrentar os riscos apresentados pelo ChatGPT e outras ferramentas de IA, mas reconheceu os riscos da tecnologia.

PUBLICIDADE

Altman defendeu uma série de regulamentações, incluindo uma nova agência governamental. O órgão seria encarregado de criar padrões governamentais para a área, para lidar com as preocupações de que as IA generativas possam distorcer a realidade e criar riscos de segurança sem precedentes. O CEO elencou uma lista de comportamentos “arriscados” apresentados pela tecnologia como a ChatGPT, incluindo a disseminação de “desinformação interativa individual” e manipulação emocional. Em um momento, ele reconheceu que a IA poderia ser usada para direcionar ataques de drones.

“Se essa tecnologia der errado, pode dar muito errado”, disse Altman.

No entanto, em quase três horas de discussão sobre os danos potencialmente catastróficos da IA, Altman afirmou que sua empresa continuará a lançar a tecnologia, apesar dos prováveis perigos. Ele argumentou que a “implementação repetitiva” de modelos de IA da OpenAI dá tempo para as instituições entenderem os danos potenciais — um movimento estratégico que coloca a tecnologia “relativamente fraca” e “profundamente imperfeita” no mundo para entender os riscos de segurança associados.

Publicidade

Por semanas, Altman tem feito uma turnê global de boa vontade, encontrando-se privadamente com formuladores de políticas — incluindo a Casa Branca de Joe Biden e membros do Congresso — para abordar suas crescentes preocupações com o rápido lançamento do ChatGPT e outras tecnologias. A audiência desta terça marcou a primeira oportunidade para o público em geral ouvir sua mensagem, em um momento em que Washington está cada vez mais lutando para regular a tecnologia que já está revolucionando empregos, fortalecendo golpes e disseminando discursos falsos.

Em nítido contraste com audiências contenciosas com outros CEOs de tecnologia, incluindo Shou Zi Chew, do TikTok, e Mark Zuckerberg, da Meta, legisladores de ambos os partidos deram a Altman uma recepção relativamente calorosa. Eles pareciam estar em modo de escuta, expressando uma ampla disposição para ouvir propostas regulatórias de Altman e das duas outras testemunhas na audiência, a executiva da IBM Christina Montgomery e o professor emérito da Universidade de Nova York, Gary Marcus.

Membros do subcomitê do Senado para a Justiça expressaram profundos temores sobre a rápida evolução da inteligência artificial, sugerindo repetidamente que os avanços recentes poderiam ser mais transformadores do que o advento da internet — ou tão arriscados quanto a bomba atômica.

“Esta é a sua chance, pessoal, de nos dizer como acertar isso”, disse o senador John Kennedy (Partido Republicano) às testemunhas. “Por favor, use-a.”

Publicidade

No Congresso, Altman defendeu uma série de regulamentações, incluindo uma nova agência governamental  Foto: Patrick Semansky/AP Photo

Tentativas

Legisladores de ambos os partidos expressaram abertura à ideia de criar uma nova agência governamental encarregada de regular a inteligência artificial, embora tentativas passadas de criar um órgão específico com supervisão do Vale do Silício tenham fracassado no Congresso em meio a divisões partidárias sobre como regular a indústria.

O senador Richard Blumenthal (Partido Democrata), que preside o subcomitê que sediou a audiência, disse que o depoimento de Altman estava bem distante de outras participações de CEOs do Vale do Silício, nas quais os legisladores criticaram ao longo dos anos por às vezes recusarem endossar propostas legislativas específicas.

“Sam Altman é diferente comparado a outros CEOs, e não apenas nas palavras e na retórica, mas em ações concretas e na disposição de participar e se comprometer com ações específicas”, disse Blumenthal aos repórteres após a audiência.

Acolhida

A recepção calorosa a Altman sinaliza o sucesso de sua recente ofensiva de charme, que incluiu um jantar com legisladores na segunda-feira, 15, sobre a regulamentação da inteligência artificial e uma reunião privada após a audiência com o presidente da Câmara, Kevin McCarthy (Partido Republicano.), o líder da minoria da Câmara, Hakeem Jeffries (Partido Democrata) e membros do Caucus de Inteligência Artificial do Congresso.

Publicidade

As críticas mais severas a Altman durante a audiência não vieram dos legisladores, mas de outra testemunha sentada ao lado dele. Gary Marcus, professor emérito da Universidade de Nova York, alertou os legisladores de que eles estavam enfrentando uma “tempestade perfeita de irresponsabilidade corporativa, implantação generalizada, falta de regulamentação e inerente falta de confiabilidade”.

Marcus criticou especificamente a OpenAI, citando sua declaração de missão original para avançar a IA para “beneficiar toda a humanidade” sem restrições de pressões financeiras. Segundo Marcus, a empresa é, agora, “subserviente” ao seu investidor Microsoft, e que seu rápido lançamento de produtos está pressionando a empresa-mãe do Google, Alphabet, a lançar produtos rapidamente também.

“A humanidade foi relegada a segundo plano”, disse Marcus.

Além de criar uma nova agência reguladora, Altman propôs a criação de um novo conjunto de padrões de segurança para modelos de IA, testando se eles poderiam se desviar e começar a agir por conta própria. Ele também sugeriu que especialistas independentes poderiam realizar auditorias independentes, testando o desempenho dos modelos em várias métricas.

Publicidade

No entanto, Altman contornou outras sugestões, como requisitos para transparência nos dados de treinamento que os modelos de IA usam. A OpenAI tem sido sigilosa sobre os dados que usa para treinar seus modelos, enquanto alguns rivais estão construindo modelos de código aberto que permitem aos pesquisadores examinar os dados de treinamento.

Altman também desviou de um pedido da senadora Marsha Blackburn (Partido Republicano) para se comprometer a não treinar os modelos da OpenAI em obras protegidas por direitos autorais de artistas, ou a usar suas vozes ou semelhanças sem primeiro obter seu consentimento. E quando o senador Cory Booker (Partido Democrata) perguntou se a OpenAI algum dia colocaria anúncios em seus chatbots, Altman respondeu: “Eu não diria nunca”.

Comentários

Os comentários são exclusivos para assinantes do Estadão.