A OpenAI, que muitas vezes é o porta-estandarte do impulso do setor de tecnologia para a inteligência artificial (IA), está fazendo mudanças substanciais em sua equipe de gerenciamento e até mesmo na forma como está organizada, enquanto corteja investimentos de algumas das empresas mais ricas do mundo.
Nos últimos meses, a OpenAI, fabricante do chatbot online ChatGPT, contratou um grupo de executivos de tecnologia, especialistas em desinformação e pesquisadores de segurança de IA. A companhia também adicionou sete membros à diretoria - incluindo um general de quatro estrelas do Exército que dirigiu a Agência de Segurança Nacional - enquanto renovava os esforços para garantir que suas tecnologias de IA não causassem danos graves.
A OpenAI também está em negociações com investidores como Microsoft, Apple, Nvidia e a empresa de investimentos Thrive para um acordo que a avaliaria em US$ 100 bilhões. E a empresa está considerando mudanças em sua estrutura corporativa que facilitariam a atração de investidores.
A startup de São Francisco, depois de anos de conflitos públicos entre a gerência e alguns de seus principais pesquisadores, está tentando parecer mais uma empresa sensata e pronta para liderar a marcha do setor de tecnologia rumo à inteligência artificial. A OpenAI também está tentando deixar em segundo plano a briga de alto nível do ano passado sobre a administração de Sam Altman, seu executivo-chefe.
Mas entrevistas com mais de 20 funcionários atuais e antigos da OpenAI e membros da diretoria mostram que a transição tem sido difícil. Os primeiros funcionários continuam a sair, mesmo com a chegada de novos funcionários e executivos. E o rápido crescimento não resolveu uma questão fundamental sobre o que a OpenAI deve ser: É um laboratório de IA de ponta criado para o benefício da humanidade ou um aspirante a gigante do setor dedicado aos lucros?
Hoje, a OpenAI tem mais de 1,7 mil funcionários, e 80% deles começaram após o lançamento do ChatGPT em novembro de 2022. Altman e outros líderes lideraram o recrutamento de contratações de executivos, enquanto o novo presidente, Bret Taylor, ex-executivo do Facebook, supervisionou a expansão do conselho.
“Embora as empresas iniciantes devam evoluir e se adaptar naturalmente à medida que seu impacto cresce, reconhecemos que a OpenAI está passando por essa transformação em um ritmo sem precedentes”, disse Taylor em uma declaração enviada por e-mail ao The New York Times. “Nosso conselho e a equipe dedicada da OpenAI continuam focados na criação segura de IA que possa resolver problemas difíceis para todos.”
Vários dos novos executivos desempenharam papéis de destaque em outras empresas de tecnologia. Sarah Friar, a nova diretora financeira da OpenAI, foi diretora executiva da Nextdoor. Kevin Weil, novo diretor de produtos da OpenAI, foi vice-presidente sênior de produtos do Twitter. Ben Nimmo liderou a batalha do Facebook contra campanhas enganosas de mídia social. Joaquin Candela supervisionou os esforços do Facebook para reduzir os riscos da inteligência artificial. Agora, os dois homens têm funções semelhantes na OpenAI.
A OpenAI também informou aos funcionários na sexta-feira, 30, que Chris Lehane, um veterano da Casa Branca de Clinton que ocupou um cargo sênior na Airbnb e ingressou na OpenAI este ano, seria seu chefe de política global.
Mas das 13 pessoas que ajudaram a fundar a OpenAI no final de 2015 com a missão de criar inteligência artificial geral, ou AGI (na sigla em inglês) - uma máquina capaz de fazer tudo o que o cérebro humano pode fazer - apenas três permanecem. Um deles, Greg Brockman, presidente da empresa, tirou uma licença até o final do ano, alegando a necessidade de um tempo livre após quase uma década de trabalho.
“É muito comum ver esses tipos de acréscimos - e também de subtrações - mas estamos sob luzes tão brilhantes”, disse Jason Kwon, diretor de estratégia da OpenAI. “Tudo fica ampliado”.
Desde seus primeiros dias como um laboratório de pesquisa sem fins lucrativos, a OpenAI tem enfrentado discussões sobre suas metas. Em 2018, Elon Musk, seu principal apoiador, saiu após uma disputa com seus outros fundadores. No início de 2022, um grupo de pesquisadores importantes, preocupados com o fato de que as forças comerciais estavam empurrando as tecnologias da OpenAI para o mercado antes que houvesse as devidas proteções, saiu para formar uma empresa de IA rival, a Anthropic.
Leia também
Motivada por preocupações semelhantes, a diretoria da OpenAI demitiu repentinamente Altman no final do ano passado. Ele foi readmitido cinco dias depois.
A OpenAI se separou de muitos dos funcionários que questionaram Altman e de outros que estavam menos interessados em criar uma empresa de tecnologia comum do que em fazer pesquisas avançadas. Fazendo eco às reclamações de outros funcionários, um pesquisador pediu demissão por causa dos esforços da OpenAI para recuperar as ações da OpenAI dos funcionários - potencialmente no valor de milhões de dólares - se eles se manifestassem publicamente contra a empresa. Desde então, a OpenAI reverteu essa prática.
A OpenAI é impulsionada por duas forças que nem sempre são compatíveis.
Por um lado, a empresa é movida por dinheiro - muito dinheiro. A receita anual já ultrapassou US$ 2 bilhões, de acordo com uma pessoa familiarizada com sua renda. O ChatGPT tem mais de 200 milhões de usuários por semana - o dobro do número de nove meses atrás. Não se sabe ao certo quanto a empresa está gastando por ano, embora uma estimativa coloque o valor em US$ 7 bilhões. A Microsoft, que já é a maior investidora da OpenAI, destinou US$ 13 bilhões para a empresa de IA.
Mas a OpenAI está pensando em fazer grandes mudanças em sua estrutura à medida que busca mais investimentos. No momento, a diretoria da OpenAI original - formada como uma organização sem fins lucrativos - controla a organização, sem a contribuição oficial dos investidores. Como parte de suas novas discussões sobre financiamento, a OpenAI está considerando mudanças que tornariam sua estrutura mais atraente para os investidores, de acordo com três pessoas familiarizadas com as negociações. Mas ainda não foi definida uma nova estrutura.
A OpenAI também é impulsionada por tecnologias que preocupam muitos pesquisadores de IA, inclusive alguns funcionários da OpenAI. Eles argumentam que essas tecnologias poderiam ajudar a disseminar a desinformação, conduzir ataques cibernéticos ou até mesmo destruir a humanidade. Essa tensão levou a uma explosão em novembro, quando quatro membros da diretoria, incluindo o cientista-chefe e cofundador Ilya Sutskever, destituíram Altman.
Depois que Altman reafirmou seu controle, uma nuvem pairou sobre a empresa. Sutskever não havia retornado ao trabalho.
Com outro pesquisador, Jan Leike, Sutskever criou a equipe de “Superalinhamento” da OpenAI, que explorou formas de garantir que suas futuras tecnologias não causassem danos.
Em maio, Sutskever deixou a OpenAI e abriu sua própria empresa de IA. Em poucos minutos, Leike também saiu, juntando-se à Anthropic. “A cultura e os processos de segurança ficaram em segundo plano em relação a produtos brilhantes”, disse ele. Sutskever e Leike não responderam aos pedidos de comentários.
Outros os seguiram até a porta de saída.
“Ainda temo que a OpenAI e outras empresas de IA não tenham um plano adequado para gerenciar os riscos dos sistemas de IA de nível humano e além do humano para os quais estão arrecadando bilhões de dólares”, disse William Saunders, pesquisador que recentemente deixou a empresa.
Com a saída de Sutskever e de Leike, a OpenAI transferiu seu trabalho para outro cofundador, John Schulman. Enquanto a equipe do Superalinhamento se concentrava em danos que poderiam ocorrer anos no futuro, a nova equipe explorou os riscos de curto e longo prazo.
Ao mesmo tempo, a OpenAI contratou Friar como diretora financeira (ela já havia ocupado o mesmo cargo na Square) e Weil como diretor de produtos. Friar e Weil não responderam aos pedidos de comentários.
Alguns ex-executivos, que falaram sob condição de anonimato por terem assinado acordos de confidencialidade, expressaram ceticismo de que o passado conturbado da OpenAI tenha ficado para trás. Três deles apontaram para Aleksander Madry, que já liderou a equipe de Preparação da OpenAI, que explorava riscos catastróficos de IA. Depois de um desentendimento sobre como ele e sua equipe se encaixariam na organização maior, Madry foi transferido para um projeto de pesquisa diferente.
Quando alguns funcionários saíram, foram solicitados a assinar documentos legais que diziam que eles perderiam suas ações da OpenAI se falassem contra a empresa. Isso gerou novas preocupações entre os funcionários, mesmo depois que a empresa revogou a prática.
No início de junho, um pesquisador, Todor Markov, publicou uma mensagem no sistema interno de mensagens da empresa anunciando sua demissão por causa do problema, de acordo com uma cópia da mensagem vista pelo The Times.
Ele disse que a liderança da OpenAI havia enganado repetidamente os funcionários sobre o assunto. Por causa disso, argumentou, não se podia confiar na liderança da empresa para construir a AGI - um eco do que a diretoria da empresa havia dito quando demitiu Altman.
“Vocês falam com frequência sobre nossa responsabilidade de desenvolver a AGI com segurança e distribuir os benefícios de forma ampla”, escreveu ele. “Como vocês esperam que essa responsabilidade lhes seja confiada?”
Dias depois, a OpenAI anunciou que Paul M. Nakasone, um general aposentado do Exército dos EUA, havia se juntado à sua diretoria. Em uma tarde recente, perguntaram a ele o que achava do ambiente em que havia entrado, já que era novo no campo da IA.
“Novo na IA? Não sou novato em IA”, disse ele em uma entrevista por telefone. “Dirigi a NSA e venho lidando com esse tipo de coisa há anos.”
No mês passado, Schulman, cofundador que ajudou a supervisionar os novos esforços de segurança da OpenAI, também se demitiu da empresa, dizendo que queria voltar ao trabalho técnico “prático”. Ele também se juntou à Anthropic.
“Dimensionar uma empresa é realmente difícil. Você precisa tomar decisões de troca o tempo todo. E algumas pessoas podem não gostar dessas decisões”, disse Kwon. “As coisas são muito mais complicadas.”
Este conteúdo foi traduzido com o auxílio de ferramentas de Inteligência Artificial e revisado por nossa equipe editorial. Saiba mais em nossa Política de IA.