A xAI, empresa de inteligência artificial (IA) de Elon Musk, levantou US$ 6 bilhões em uma rodada de capital de risco que avalia a startup, que ainda não tem nem um ano de idade, em US$ 18 bilhões. Isso coloca a xAI bem perto da Anthropic, a startup de IA que tem uma parceria estreita com a Amazon, tanto em termos de dinheiro arrecadado (cerca de US$ 8 bilhões) quanto de avaliação (também cerca de US$ 18 bilhões), e bem à frente de muitas outras startups de IA em alta. É claro que isso ainda está bem atrás dos mais de US$ 13 bilhões que a OpenAI arrecadou da Microsoft e de outras empresas, e dos US$ 80 bilhões pelos quais foi avaliada.
Musk levantou o dinheiro de um conjunto de investidores habituais que apoiaram seus outros projetos, incluindo a compra do X (ex-Twitter). Entre eles estão a Kingdom Holdings, do príncipe saudita Alwaleed Bin Talal, a Valor Equity Partners, a Vy Capital, a Andreessen Horowitz e a Sequoia Capital. Talvez esses investidores vejam a xAI, que está aproveitando os dados em tempo real da X e se integrando intimamente a ela, como uma forma de reavivar as perspectivas de negócios da rede social em dificuldades. Seja qual for a motivação deles, o mais interessante é o que isso diz sobre as intenções de Musk: o bilionário está realmente falando sério sobre a criação de um grande concorrente de IA.
Até recentemente, havia alguma dúvida sobre isso. Por um lado, o único produto da xAI até o momento, o chatbot de código aberto Grok, parecia mais uma postura política do que um esforço comercial sério. O Grok nasceu da alegação de Musk de que outras empresas de tecnologia estavam impondo muitas barreiras politicamente corretas em seus chatbots de IA.
Em contrapartida, ele se comprometeu a criar uma IA “antidesperta” e treinou o Grok com base em publicações do X e sabe-se lá o que mais (isso se encaixa na tendência libertária de Musk e em sua crença aparentemente sincera de que a IA poderia se tornar uma ferramenta perigosamente poderosa para qualquer pessoa que desejasse policiar não apenas a fala, mas o pensamento. A única maneira de se proteger contra isso, segundo ele, é cada pessoa ter sua própria IA pessoal, livre de quaisquer restrições quanto aos tipos de discurso em que ela pode se envolver).
O resultado foi o Grok, um chatbot que era um pouco mais provocativo do que seus concorrentes, mas que não estava no topo da tabela de classificação de LLMs em termos de outros recursos, como raciocínio, tradução, resumo e similares. Era apenas um chatbot ocasionalmente racista. Isso pode se adequar à política e à marca de Musk, mas dificilmente o torna um pioneiro em IA.
Além disso, havia o fato de que todo o projeto da xAI de Musk parecia ser motivado, em grande parte, por uma mágoa. Musk parecia irritado por não estar recebendo crédito suficiente por ter sido fundamental na fundação da OpenAI - e amargurado por ter se afastado da startup em 2018, depois de perder uma tentativa de obter controle mais direto sobre o laboratório.
Musk disse que está alarmado com a direção com fins lucrativos e focada em produtos na qual o cofundador Sam Altman levou a OpenAI desde a saída de Musk do conselho sem fins lucrativos da OpenAI e com o fato de que a empresa, que foi fundada para impedir que uma única grande empresa de tecnologia (o Google na época) controlasse a IA superpoderosa, agora está intimamente ligada a uma única grande empresa de tecnologia, a Microsoft.
Musk também disse que está incomodado com o fato de que a OpenAI, que antes se dedicava a ser o mais transparente possível sobre suas pesquisas, agora publica poucos detalhes sobre os modelos de IA que cria. Musk chegou a processar a OpenAI, juntamente com Altman e Greg Brockman, cofundador e presidente da OpenAI, alegando que eles não cumpriram as promessas feitas a ele quando criaram o que inicialmente era um laboratório de pesquisa de IA sem fins lucrativos.
Mas Musk está vulnerável a acusações de hipocrisia, já que parece estar interessado em que a xAI também crie produtos. E com o dinheiro de investidores externos em jogo, agora, é provável que os esforços da xAI também estejam servindo a fins comerciais, como ajudar a impulsionar novos recursos para o X e, talvez, para a Tesla também. Não se pode deixar de sentir que o que Musk realmente se ressente não é a virada comercial da OpenAI ou sua falta de abertura, mas simplesmente o sucesso de Altman, especialmente porque a maior parte desse sucesso veio de decisões que ele tomou depois que Musk se separou da OpenAI.
Leia também
Usar o enorme peso em seu ombro como base para uma empresa não é um caminho totalmente inédito para o sucesso comercial. Mas como uma missão para atrair os melhores e mais brilhantes, talvez não seja tão atraente (Google DeepMind: “Resolva a inteligência e depois use-a para resolver todo o resto”. OpenAI: “Construir AGI para o benefício de toda a humanidade”. xAI: “Ajudar a reparar o ego ferido de Elon”. Onde você preferiria trabalhar?).
Pouco depois de anunciar o novo financiamento para a xAI, Musk entrou em uma discussão no X com Yann LeCun, cientista-chefe da Meta e “padrinho da IA” ganhador do Prêmio Turing. Musk usou a notícia do anúncio para publicar uma convocação de pesquisadores de IA para participar da xAI. LeCun apontou a reputação de Musk de ser um chefe extremamente difícil e a inconsistência de Musk em ter assinado a carta de 2023 pedindo uma pausa de seis meses no desenvolvimento da IA, enquanto agora pressiona a xAI a criar modelos de IA superpoderosos.
Ele também observou que Musk havia dito que a missão da xAI era buscar a verdade, enquanto o próprio Musk endossava teorias de conspiração na X. Musk rebateu LeCun, insinuando que ele estava simplesmente cumprindo ordens do CEO da Meta, Mark Zuckerberg, e insinuando que os dias de LeCun na pesquisa de ponta em IA haviam ficado para trás.
A briga chamou muita atenção. Mas ela é boba e deixa passar um ponto importante. Todos os principais esforços de IA estão agora intimamente ligados a grandes interesses financeiros - seja a Microsoft, o Google, a Meta, a Amazon ou os novos financiadores da X e de Musk. Será que podemos realmente confiar que alguma dessas empresas tem em mente o melhor interesse da humanidade?
Esse é o ponto que as ex-membros da diretoria sem fins lucrativos da OpenAI, Helen Toner e Tasha McCauley, defenderam em um editorial publicado no fim de semana na revista The Economist. As duas usaram a controvérsia da voz de Scarlett Johansson-OpenAI da semana passada como ponto de partida para dizer que continuam convencidas de que o conselho estava certo quando tentou demitir Altman em novembro passado.
Eles disseram que toda a cadeia de eventos - que viu Altman ser reintegrado como CEO e, por fim, voltar ao conselho e, como mostra o incidente com Scarlett, continuar a ser “menos do que totalmente franco”, pelo menos com o público - demonstrou que as estruturas de governança corporativa e a autorregulação eram muito fracas para proteger o público dos riscos de IA. Havia muito dinheiro em jogo para que qualquer um dos laboratórios de IA colocasse o propósito à frente do lucro, argumentaram. Portanto, o que era necessário era a regulamentação e a supervisão do governo.
Este conteúdo foi traduzido com o auxílio de ferramentas de Inteligência Artificial e revisado por nossa equipe editorial. Saiba mais em nossa Política de IA.