PUBLICIDADE

Hacker rouba segredos da OpenAI, mas empresa não comunica autoridades

Incidente reforça preocupações sobre IA cair em mãos erradas

PUBLICIDADE

Por Cade Metz (The New York Times )

No início do ano passado, um hacker obteve acesso aos sistemas internos de mensagens da OpenAI, dona do ChatGPT, e roubou detalhes sobre o design das tecnologias de inteligência artificial (IA) da empresa.

PUBLICIDADE

De acordo com duas pessoas familiarizadas com o incidente, o hacker obteve detalhes de discussões em um fórum online em que os funcionários falavam sobre as tecnologias mais recentes da OpenAI, mas não entrou nos sistemas em que a empresa abriga e constrói sua inteligência artificial.

Os executivos da OpenAI revelaram o incidente aos funcionários durante uma reunião geral nos escritórios da empresa em São Francisco em abril de 2023. Porém, os executivos decidiram não compartilhar a notícia publicamente porque nenhuma informação sobre clientes ou parceiros havia sido roubada. Os executivos não consideraram o incidente uma ameaça à segurança nacional porque acreditavam que o hacker era um indivíduo privado sem vínculos conhecidos com um governo estrangeiro. A empresa não informou o FBI ou qualquer outro órgão de segurança pública.

FILE- The OpenAI logo is displayed on a cell phone with an image on a computer monitor generated by ChatGPT's Dall-E text-to-image model, Dec. 8, 2023, in Boston. The European Union is escalating its scrutiny of the artificial intelligence industry, including taking a fresh look into Microsoft’s multibillion-dollar partnership with OpenAI. The bloc started reviewing the multibillion-dollar deal last year to see whether it broke EU merger rules but dropped it after concluding Microsoft hadn’t gained control of OpenAI. (AP Photo/Michael Dwyer, File) Foto: Michael Dwyer/AP

Para alguns funcionários da OpenAI, a notícia levantou o temor de que adversários estrangeiros, como a China, pudessem roubar a tecnologia de IA que, embora agora seja principalmente uma ferramenta de trabalho e pesquisa, poderia eventualmente colocar em risco a segurança nacional dos EUA. Isso também gerou dúvidas sobre a seriedade com que a OpenAI estava tratando a segurança e expôs as fraturas dentro da empresa sobre os riscos da inteligência artificial.

Após a violação, Leopold Aschenbrenner, gerente de programa técnico da OpenAI focado em garantir que as futuras tecnologias de IA não causem danos graves, enviou um memorando à diretoria da OpenAI, argumentando que a empresa não estava fazendo o suficiente para impedir que o governo chinês e outros adversários estrangeiros roubassem seus segredos.

Aschenbrenner disse que a OpenAI o demitiu neste ano por vazar outras informações fora da empresa e argumentou que sua demissão teve motivação política. Ele fez alusão à violação em um podcast recente, mas os detalhes do incidente não foram relatados anteriormente. Ele disse que a segurança da OpenAI não era forte o suficiente para proteger contra o roubo de segredos importantes se agentes estrangeiros se infiltrassem na empresa.

“Apreciamos as preocupações que Leopold levantou enquanto estava na OpenAI, e isso não levou à sua demissão”, disse a porta-voz da OpenAI, Liz Bourgeois. Referindo-se aos esforços da empresa para criar uma inteligência artificial geral (AGI, na sigla em inglês), uma máquina capaz de fazer qualquer coisa que o cérebro humano possa fazer, ela acrescentou: “Embora compartilhemos seu compromisso de criar uma AGI segura, discordamos de muitas das afirmações que ele fez desde então sobre nosso trabalho”.

Publicidade

Os temores de que uma invasão de uma empresa de tecnologia americana possa ter vínculos com a China não são irracionais. No mês passado, Brad Smith, presidente da Microsoft, testemunhou no Capitólio sobre como os hackers chineses usaram os sistemas da gigante da tecnologia para lançar um amplo ataque às redes do governo federal.

No entanto, de acordo com as leis federais e da Califórnia, a OpenAI não pode impedir que as pessoas trabalhem na empresa por causa de sua nacionalidade, e os pesquisadores de políticas afirmaram que barrar os talentos estrangeiros dos projetos dos EUA poderia impedir significativamente o progresso da IA nos Estados Unidos.

“Precisamos das melhores e mais brilhantes mentes trabalhando nessa tecnologia”, disse Matt Knight, chefe de segurança da OpenAI. “Ela vem com alguns riscos, e precisamos descobrir quais são eles.”

A OpenAI não é a única empresa que está criando sistemas cada vez mais poderosos. Algumas delas - principalmente a Meta, proprietária do Facebook e do Instagram - estão compartilhando livremente seus projetos com o resto do mundo como software de código aberto. Elas acreditam que os perigos apresentados pelas atuais tecnologias de IA são pequenos e que o compartilhamento do código permite que engenheiros e pesquisadores de todo o setor identifiquem e corrijam problemas.

CONTiNUA APÓS PUBLICIDADE

Os sistemas de IA atuais podem ajudar a disseminar desinformação online, incluindo texto, imagens estáticas e, cada vez mais, vídeos. Eles também estão começando a eliminar alguns empregos.

Empresas como a OpenAI e seus concorrentes Anthropic e Google adicionam proteções a seus aplicativos de IA antes de oferecê-los a indivíduos e empresas, na esperança de evitar que as pessoas usem os aplicativos para disseminar desinformação ou causar outros problemas.

Mas não há muitas evidências de que as tecnologias de IA atuais representem um risco significativo à segurança nacional. Estudos realizados pela OpenAI, Anthropic e outras companhias no ano passado mostraram que a IA não era significativamente mais perigosa do que os mecanismos de busca. Daniela Amodei, cofundadora da Anthropic e presidente da empresa, disse que sua mais recente tecnologia de IA não seria um grande risco se seus projetos fossem roubados ou compartilhados livremente com outras pessoas.

Publicidade

Daniela Amodei é cofundadora da Anthropic  Foto: Marissa Leshnov/NYT

“Se ela fosse propriedade de outra pessoa, isso poderia ser extremamente prejudicial para grande parte da sociedade? Nossa resposta é ‘Não, provavelmente não’”, disse ela ao The Times no mês passado. “Isso poderia acelerar algo para um mau ator no futuro? Talvez. Isso é realmente especulativo.”

Ainda assim, pesquisadores e executivos de tecnologia há muito tempo se preocupam com a possibilidade de a IA um dia alimentar a criação de novas armas biológicas ou ajudar a invadir os sistemas de computadores do governo. Alguns até acreditam que ela poderia destruir a humanidade.

Várias empresas, incluindo a OpenAI e a Anthropic, já estão bloqueando suas operações técnicas. A OpenAI criou recentemente um Comitê de Segurança e Proteção para explorar como deve lidar com os riscos apresentados por tecnologias futuras. O comitê inclui Paul Nakasone, um ex-general do Exército que liderou a Agência de Segurança Nacional e o Comando Cibernético. Ele também foi nomeado para a diretoria da OpenAI.

“Começamos a investir em segurança anos antes do ChatGPT”, disse Knight. “Estamos em uma jornada não apenas para entender os riscos e ficar à frente deles, mas também para aprofundar nossa resiliência.”

Autoridades federais e legisladores estaduais também estão pressionando por regulamentações governamentais que impediriam as empresas de liberar determinadas tecnologias de IA e multá-las em milhões se suas tecnologias causassem danos. Mas os especialistas dizem que esses perigos ainda estão a anos ou mesmo décadas de distância.

As empresas chinesas estão criando seus próprios sistemas que são quase tão poderosos quanto os principais sistemas dos EUA. De acordo com algumas métricas, a China eclipsou os Estados Unidos como o maior produtor de talentos em IA, com o país gerando quase metade dos principais pesquisadores da área do mundo.

“Não é loucura pensar que a China logo estará à frente dos EUA”, diz Clément Delangue, executivo-chefe da Hugging Face, uma empresa que hospeda muitos dos projetos de I.A. de código aberto do mundo.

Publicidade

Clément Delangue, à direita, é o executivo-chefe da Hugging Face Foto: Kenny Holston/NYT

Alguns pesquisadores e líderes de segurança nacional argumentam que os algoritmos matemáticos que estão no centro dos atuais sistemas de IA, embora não sejam perigosos hoje, podem se tornar perigosos e pedem controles mais rígidos nos laboratórios de I.A.

“Mesmo que os piores cenários sejam de probabilidade relativamente baixa, se forem de alto impacto, é nossa responsabilidade levá-los a sério”, disse Susan Rice, ex-conselheira de política interna do presidente Biden e ex-conselheira de segurança nacional do presidente Barack Obama, durante um evento no Vale do Silício no mês passado. “Não acho que seja ficção científica, como muitos gostam de afirmar.”

Este conteúdo foi traduzido com o auxílio de ferramentas de Inteligência Artificial e revisado por nossa equipe editorial. Saiba mais em nossa Política de IA.

Comentários

Os comentários são exclusivos para assinantes do Estadão.