THE NEW YORK TIMES - Ao longo de mais de 10 anos, a Nvidia construiu uma liderança praticamente intransponível na produção de chips que podem realizar tarefas complexas de inteligência artificial (IA), como reconhecimento e geração de texto para chatbots, como o ChatGPT. A empresa, que era mais conhecida no mundo dos games, alcançou essa dominância ao reconhecer a tendência de crescimento de IA ainda cedo - o que permitiu que adaptasse os seus chips e desenvolvesse software fundamentais para a tecnologia.
Jensen Huang, cofundador e CEO da Nvidia, foi além. Para manter sua posição de liderança, a empresa também ofereceu aos clientes acesso a computadores especializados, serviços de computação e outras ferramentas de seu comércio emergente. Isso transformou a Nvidia em uma grande loja para o desenvolvimento de IA.
Alcântara: o desastre espacial brasileiro
Embora Google, Amazon, Meta, IBM e outras também produzem chips de IA, a Nvidia responde por mais de 70% desse mercado e detém uma posição ainda maior no treinamento de modelos generativos de IA, segundo a empresa de pesquisa Omdia.
Em maio, a posição da empresa como a vencedora mais visível da revolução da IA ficou clara quando projetou um aumento de 64% na receita trimestral, muito mais do que o mercado esperava.
“Os clientes esperam 18 meses para comprar um sistema Nvidia em vez de comprar um chip disponível no mercado, seja de uma startup ou de outro concorrente”, diz Daniel Newman, analista da Futurum Group.
Reinvenção da computação
Conhecido por sua jaqueta de couro preta, Huang, 60, promove a IA há anos. Ele afirma que a computação está passando por sua maior mudança desde que a IBM definiu, há 60 anos, como a maioria dos sistemas e softwares operam. Segundo ele, GPUs e outros chips de propósito especial estão substituindo microprocessadores padrão - e os chatbots de IA estão substituindo a codificação de software complexa.
“Isso é uma reinvenção de como a computação é feita”, afirmou ele em uma entrevista. “Construímos tudo desde o início, desde o processador até o final.”
Huang ajudou a fundar a Nvidia em 1993 para fabricar chips que renderizam imagens em videogames. Enquanto os microprocessadores padrão são excelentes em realizar cálculos complexos sequencialmente, as GPUs da empresa fazem muitas tarefas simples paralelamente.
Em 2006, o executivo foi além. Ele anunciou uma tecnologia de software chamada CUDA, que ajudou a programar as GPUs para novas tarefas, transformando-as de chips de propósito único para chips de propósito geral, que poderiam assumir outros trabalhos em campos como simulações físicas e químicas.
Um grande avanço aconteceu em 2012, quando pesquisadores usaram GPUs para alcançar precisão humana em tarefas como reconhecer um gato em uma imagem - um precursor dos desenvolvimentos recentes, como gerar imagens a partir de comandos de texto.
O esforço, que a empresa estimou ter custado mais de US$ 30 bilhões ao longo de uma década, tornou a Nvidia mais do que um fornecedor de componentes. Além de colaborar com cientistas líderes e startups, a empresa construiu uma equipe que participa diretamente em atividades de IA, como criar e treinar modelos de linguagem.
Isso levou a Nvidia a desenvolver muitas camadas de software-chave além do CUDA, o que inclui centenas de partes de código pré-construídos, chamados bibliotecas, que economizam trabalho para os programadores.
Em hardware, a Nvidia ganhou uma reputação por entregar chips mais rápidos a cada dois anos. Em 2017, começou a ajustar as GPUs para lidar com cálculos específicos de IA.
Naquele mesmo ano, a Nvidia, que normalmente vendia chips ou placas de circuito para sistemas de outras empresas, também começou a vender computadores completos para realizar tarefas de IA de maneira mais eficiente. Alguns de seus sistemas agora têm o tamanho de supercomputadores, que operam usando tecnologia proprietária de rede e milhares de GPUs. Tal hardware pode levar semanas para treinar os modelos de IA mais novos.
Novos chips
Em setembro passado, a Nvidia anunciou a produção de novos chips chamados H100, que foram aprimorados para lidar com sistemas de IA batizados de Transformers. Eles são a base para serviços como o ChatGPT, que deram origem ao que Huang chama de “momento iPhone” da IA generativa.
Para fortalecer ainda mais sua influência, a Nvidia também fez parcerias com grandes empresas de tecnologia e investiu em startups de IA que usam seus chips. Uma delas foi a Inflection AI, que em junho anunciou um aporte de US$ 1,3 bilhão em rodada liderada pela Nvidia. O dinheiro foi usado para ajudar a financiar a compra de 22 mil chips H100.
Mustafa Suleyman, diretor executivo da Inflection, afirma que não havia obrigação de usar os produtos da Nvidia, mas que os concorrentes não ofereciam alternativa viável. “Nenhum deles se compara”, diz.
Disputa por chips
A Nvidia também tem direcionado dinheiro e os escassos H100 para serviços de nuvem emergentes, como o CoreWeave, que permitem às empresas alugar tempo em computadores em vez de comprar os seus próprios. O CoreWeave, que operará o hardware da Inflection e possui mais de 45 mil chips da Nvidia, levantou US$ 2,3 bilhões em dívidas para comprar mais componentes do tipo.
Dada a demanda por seus chips, a Nvidia deve passar a escolher quem recebe e quantos componentes cada um tem direito. Esse poder deixa alguns executivos de tecnologia inquietos.
“É realmente importante que o hardware não se torne um gargalo para a IA”, diz Clément Delangue, diretor executivo da Hugging Face, um repositório online para modelos de linguagem que colabora com a Nvidia e seus concorrentes.
Alguns rivais dizem que é difícil competir com uma empresa que vende computadores, software, serviços em nuvem, modelos de IA treinados e processadores.
Mas poucos clientes estão reclamando publicamente. Até o Google, que começou a criar chips de IA há mais de uma década, depende das GPUs da Nvidia para parte de seu trabalho.
A demanda pelos chips próprios do Google é “tremenda”, disse Amin Vahdat, vice-presidente do Google e gerente geral de infraestrutura de computação. Mas, ele acrescentou, “trabalhamos muito de perto com a Nvidia”.
A Nvidia não discute preços ou políticas de alocação de chips, mas executivos da indústria e analistas disseram que cada H100 custa de US$ 15 mil dólares a mais de US$ 40 mil - cerca de duas a três vezes mais do que o antecessor, o chip A100.
O preço “é um lugar onde a Nvidia deixou muito espaço para outras pessoas competirem”, diz David Brown, vice-presidente da unidade de nuvem da Amazon, argumentando que seus próprios chips de IA são uma pechincha em comparação com os chips da Nvidia que também usa.
Já Huang afirma que o maior desempenho de seus chips economiza dinheiro para os clientes. “Se você pode reduzir o tempo de treinamento pela metade em um data center de US$ 5 bilhões, a economia é maior do que o custo de todos os chips”, diz ele. “Nós somos a solução de menor custo do mundo.”