Em uma cultura do Vale do Silício conhecida por ter seus fundadores como defensores da cultura da meritocracia, Jensen Huang ainda consegue se destacar. O CEO da Nvidia disse ao CEO da Stripe, Patrick Collison, no início deste ano, que ele está trabalhando, ou pensando em trabalho, a todo momento - e que trabalha sete dias por semana.
“Se você quiser criar algo grandioso, não é fácil. Você tem que sofrer, tem que lutar, tem que se esforçar”, disse Huang. “E não existem coisas grandiosas que sejam fáceis de fazer.”
Bem, ninguém duvida que Huang construiu algo grandioso. Sob sua liderança, a Nvidia se posicionou no centro do boom da inteligência artificial (IA). Suas unidades de processamento gráfico (GPUs), especializadas em treinar e executar os modelos de IA mais poderosos, dominam esse mercado, representando a maioria esmagadora das GPUs vendidas em data centers em 2023. O preço das ações da Nvidia aumentou mais de sete vezes desde o lançamento do ChatGPT,da OpenAI em novembro de 2022, e a empresa está agora entre as mais maiores do mundo, com valor de mercado de US$ 3,4 trilhões.
A demanda pelos sistemas de GPU mais avançados da Nvidia supera rotineiramente a oferta - toda a produção de 2025 de seu chip Blackwell mais avançado, de acordo com um relatório do Morgan Stanley, já está esgotada. Elon Musk e o fundador da Oracle, Larry Ellison, levaram Huang para jantar no Nobu, em Palo Alto, para pressioná-lo pessoalmente por maiores alocações de sua produção de GPU. Essa fome ajuda a explicar por que as receitas da Nvidia para o atual ano fiscal - 2025 - são estimadas em US$ 125 bilhões, mais do que o dobro do valor do ano passado, que, por sua vez, foi mais do que o dobro do valor de 2023. E sua margem de lucro operacional está acima de 60%.
Não são apenas os CEOs da Fortune 500 que estão ansiosos para se reunir com Huang. A Casa Branca pediu sua opinião sobre IA, e ele consultou líderes mundiais, incluindo o primeiro-ministro indiano Narendra Modi e o xeque Mohammed bin Zayed, dos Emirados Árabes Unidos. Os EUA veem a liderança da Nvidia em GPUs para IA como um importante ativo de segurança nacional, e o governo Biden restringiu a venda de seus chips mais avançados para a China - uma medida que poderia ter sido mais prejudicial para as perspectivas da Nvidia se ela não estivesse vendo uma demanda tão explosiva em outros lugares.
No entanto, não é uma certeza de que a Nvidia conseguirá manter sua posição no mercado, já que enfrenta novas ameaças, não apenas de sua antiga concorrente AMD, mas de uma série de novas startups bem financiadas e ansiosas para abocanhar uma fatia do mercado de computação de IA, bem como dos esforços internos de chips de IA das grandes empresas de computação em nuvem que também são seus melhores clientes. Apesar de seu sucesso, o próprio Huang continua ciente de que a posição de liderança da Nvidia pode ser passageira, o que pode explicar sua ética de trabalho incansável. “Faço tudo o que posso para não sair do mercado”, disse ele a um repórter de uma revista no ano passado. “Faço tudo o que posso para não fracassar.”
De garçom a magnata
Foi um caminho longo e incerto que levou Huang a tais alturas. Nascido em Taiwan, ele foi para os Estados Unidos ainda criança e se formou em engenharia elétrica na Oregon State University e em Stanford. Trabalhou em software e design de chips para a LSI Logic e a AMD antes de sair para fundar a Nvidia em 1993.
Na época, a startup sediada em Santa Clara, Califórnia, era uma das dezenas que estavam surgindo para construir placas gráficas especializadas - ainda não eram chamadas de GPUs - para permitir que os computadores executassem videogames mais rapidamente. A Nvidia também fazia parte de uma nova geração de empresas de semicondutores “sem fábrica” - ela projetava os chips de computador que vendia, mas terceirizava sua fabricação para fundições de propriedade de terceiros. Nas três décadas seguintes, a Nvidia e sua rival AMD surgiram para dominar esse mercado.
Em meados dos anos 2000, os pesquisadores de inteligência artificial perceberam que as GPUs poderiam ajudá-los a treinar e executar grandes redes neurais artificiais - um tipo de IA vagamente baseado no funcionamento do cérebro humano - com muito mais eficiência do que os chips convencionais. O treinamento de grandes redes neurais exige que um chip execute muitos dos mesmos tipos de cálculos milhões ou bilhões de vezes. Os chips de computador padrão, chamados de unidades centrais de processamento, ou CPUs, só podem realizar um cálculo por vez. As GPUs, por outro lado, podem realizar muitos cálculos semelhantes em paralelo, acelerando enormemente o tempo necessário para executar modelos de IA. Huang reconheceu a importância desse mercado e começou a promover os chips da Nvidia especificamente para pesquisadores e engenheiros de IA.
A chave para o sucesso da Nvidia, no entanto, tem sido mais do que apenas projetar GPUs cada vez mais rápidas e poderosas. Há muito tempo, a empresa adota uma abordagem de “pilha completa”: Ela projeta não apenas chips, mas também o software para executá-los e o cabeamento para conectá-los. Em 2007, lançou a CUDA (Compute Unified Device Architecture), uma linguagem de programação de software de código aberto que ajudou os programadores a executar aplicativos de IA em GPUs. E investiu muito na promoção da CUDA e no treinamento de engenheiros para usá-la. Atualmente, estima-se que existam cerca de 5 milhões de desenvolvedores de CUDA em todo o mundo. Sua familiaridade com a CUDA tem sido um fator poderoso para impedir que as empresas rivais de chips de IA, que em sua maioria investiram pouco na criação de software e comunidades de desenvolvedores semelhantes, desafiem o domínio da Nvidia.
Em 2019, a Nvidia comprou a empresa israelense de redes e comutação Mellanox por US$ 7 bilhões. O acordo deu à Nvidia a tecnologia para ajudar seus clientes a criar clusters gigantes de dezenas ou centenas de milhares de GPUs, otimizados para treinar os maiores modelos de IA. E a Nvidia continuou a subir na pilha também - construindo seus próprios modelos e ferramentas de IA, em um esforço para incentivar as empresas a usar IA generativa. Em 2023, a Nvidia anunciou que, pela primeira vez, começaria a oferecer seus próprios serviços de computação em nuvem de IA diretamente para clientes corporativos, em um movimento que a coloca em concorrência direta com os gigantescos “hiperescaladores” de nuvem, como Microsoft, Google e AWS da Amazon, que estão entre seus melhores clientes.
“Se você quer construir algo grandioso, não é fácil. Você tem que sofrer, tem que lutar, tem que se esforçar. E não existem coisas grandiosas que sejam fáceis de fazer.”
Jensen Huang, CEO e fundador da Nvidia
Huang se transformou em uma “estrela do rock”, com um uniforme característico de jaqueta de couro preta, camiseta preta e jeans preto. Mas, ao contrário de muitos de seus colegas da área de tecnologia, ele se mostra autodepreciativo e piadista nas entrevistas. Ele brinca dizendo que limpava banheiros como ajudante de garçom adolescente no Denny’s e que tem o hábito de acordar às 5h da manhã e ficar na cama até as 6h porque se sente culpado por acordar seus cachorros muito cedo. Ele admitiu recentemente em um podcast com Rene Haas, CEO da empresa de design de chips Arm e ex-funcionário da Nvidia, que não tem nenhum segredo específico para contratar boas pessoas. “Nem sempre somos bem-sucedidos, veja como você se saiu”, brincou Huang com Haas. “É sempre um tiro no escuro”.
A humildade e a personalidade realista de Huang o tornaram um vendedor eficaz das GPUs da Nvidia e permitiram que ele criasse parcerias importantes com os principais executivos de empresas como a OpenAI e a Microsoft, além de fabricantes de equipamentos de rede como a Broadcom.
Isso também o ajudou a manter uma cultura de gerenciamento não convencional - especialmente para uma empresa que emprega mais de 30 mil pessoas. Huang tem 60 subordinados diretos e é conhecido, como Haas disse delicadamente, por “atingir diferentes camadas da organização” (ou, para dizer de forma menos delicada, microgerenciar). Essa estrutura plana pode tornar a Nvidia um lugar difícil de trabalhar, mas Huang a considera fundamental para garantir que a organização esteja estrategicamente alinhada e seja ágil o suficiente para permanecer na vanguarda do desenvolvimento de chips e do progresso da IA em rápida evolução.
Huang diz que é alérgico à hierarquia e aos silos corporativos. Ele não acredita em reuniões individuais. Em vez disso, ele prefere reuniões em massa de sua equipe de liderança: Ele diz que todos os executivos da Nvidia devem ser capazes de aprender com o feedback que ele fornece a qualquer um deles, e todos devem se beneficiar ao observá-lo juntos enquanto ele resolve um problema.
Desafios iminentes ao status de líder da Nvidia
Apesar de todo o seu charme às vezes folclórico, ultimamente Huang começou a soar cada vez mais profético e utópico. Em seus comentários públicos, ele postulou que o mundo está testemunhando uma nova revolução industrial na qual as “fábricas de IA” transformam dados e eletricidade em “tokens de inteligência” - e na qual há uma mudança fundamental na computação, com as GPUs ganhando em detrimento das CPUs.
Para manter a concorrência sob controle, a Nvidia aumentou o ritmo de lançamento de novas gerações de GPUs top de linha, passando de um novo modelo a cada dois anos para um cronograma de lançamento anual. Ela também está comprando a capacidade das fundições da TSMC, que fabricam todos os chips da Nvidia, para tentar impedir que os concorrentes possam usar as instalações da TSMC para produzir produtos rivais. Lançou uma ferramenta de software chamada Nvidia Inference Microservices (NIMs), que facilita aos desenvolvedores a configuração e a execução de modelos de IA existentes em GPUs Nvidia baseadas em nuvem, sem a necessidade de conhecer tanto sobre CUDA.
Alguns investidores acreditam que a Nvidia cumprirá a visão de Huang de tornar a GPU a unidade de hardware essencial de toda a computação - e justificará sua enorme capitalização de mercado. Os analistas de ações do Bank of America apresentaram recentemente um cenário de alta com base nas dezenas de bilhões de dólares que as grandes empresas de tecnologia, da Microsoft à Meta e à Apple, anunciaram que investirão em infraestrutura de computação nos próximos anos.
Os analistas observaram que essas compras poderiam se traduzir em um crescimento significativamente maior para as soluções de rede de data center da Nvidia, e apontaram que a TSMC aparentemente superou os problemas de produção que limitaram as remessas iniciais do chip Blackwell. Eles estabeleceram uma meta de preço para as ações da Nvidia de US$ 190 por ação, 30% acima de seu recorde atual de alta.
Leia também
Outros são menos otimistas. As empresas têm se esforçado para descobrir como extrair valor da IA generativa. Na verdade, a empresa de análise de tecnologia Gartner diz que a IA está entrando no que ela chama de “vale da desilusão” - em que as pessoas percebem que uma tecnologia muito badalada não consegue corresponder às expectativas infladas e reduzem drasticamente os gastos com ela. E, embora George Brocklehurst, vice-presidente de pesquisa do Gartner, diga que espera que essa desaceleração seja de curta duração, terminando em 2027, isso não seria um bom presságio para as receitas ou o preço das ações da Nvidia nesse ínterim.
Ao mesmo tempo, Brocklehurst diz que espera que a AMD comece a reduzir a participação da Nvidia no mercado de GPUs de data center e que as empresas de nuvem em hiperescala continuem a investir em sua própria alternativa aos chips da Nvidia. A AMD previu que venderá US$ 5 bilhões em tais GPUs este ano. “Isso é um passo razoável”, diz ele, e indica que, pelo preço e desempenho certos, os desenvolvedores estão dispostos a se afastar da CUDA. Ele diz que o mercado está cada vez mais intolerante com a posição de quase monopólio da Nvidia e com o controle e o poder de fixação de preços que isso lhe confere. A Nvidia diz que controla muito menos o mercado de chips de IA do que os críticos acusam quando se observa também a concorrência dos chips que as empresas de nuvem em hiperescala, como Google e AWS, projetam e produzem para seus próprios data centers.
A Nvidia também otimizou suas GPUs para treinar os maiores e mais poderosos modelos de IA. Porém, quando se trata de executar aplicativos em modelos de IA já treinados - o que é chamado de inferência -, há indicações de que vários novos tipos de chips, inclusive os de empresas iniciantes de chips de IA, como as startups Groq e Etched, bem como ofertas da AMD e, possivelmente, até da Intel, podem igualar ou superar as GPUs da Nvidia a um custo menor. Além disso, modelos menores de IA - que poderiam até ser executados em dispositivos como laptops ou smartphones equipados com aceleradores de IA criados por empresas como a Qualcomm - podem vir a ser os principais mecanismos para muitos casos de uso de IA. Atualmente, a Nvidia não tem ofertas significativas de hardware nesse mercado.
Outro desafio: A China e a geopolítica. O governo Biden impôs controles de exportação aos chips mais sofisticados da Nvidia, impedindo seu envio para a China. A Nvidia criou uma versão “sem recursos” de sua poderosa GPU H100, chamada de H20, que fica logo abaixo dos limites dessas restrições de exportação e se mostrou popular na China - tanto que as empresas chinesas de IA se tornaram adeptas do uso de H20s, bem como de suas próprias GPUs desenvolvidas internamente por empresas como a Huawei, para treinar modelos de IA que são, em muitos aspectos, tão capazes quanto aqueles treinados nas GPUs mais potentes da Nvidia.
Essas técnicas para extrair desempenho de chips aparentemente menos capazes podem, em última análise, ajudar as empresas em outros lugares a evitar ter que pagar caro para usar os produtos de ponta da Nvidia. Além disso, é provável que o novo governo Trump aumente ainda mais as restrições às vendas de chips para a China, o que pode prejudicar as vendas da Nvidia. (Atualmente, a China é responsável por cerca de 12% da receita da Nvidia.) E, é claro, sempre há o risco de a China se posicionar militarmente contra Taiwan, o que prejudicaria a cadeia de suprimentos da Nvidia, que depende muito das fundições de semicondutores da TSMC na ilha. “Ele está dando a volta por cima e tentando criar esse medo de perder [a IA] entre os clientes em potencial”, diz ele. Mas a estratégia pode funcionar apenas por algum tempo. A longo prazo, considerando todos os fatores contra ele, Nguyen diz: “Eu ficaria muito surpreso se eles conseguissem manter seu domínio”.
É claro que os concorrentes já apostaram contra Huang antes e se mostraram errados. Mas as fichas do outro lado da mesa nunca foram empilhadas tão alto.
Este conteúdo foi traduzido com o auxílio de ferramentas de Inteligência Artificial e revisado por nossa equipe editorial. Saiba mais em nossa Política de IA.
c.2024 Fortune Media IP Limited
Distribuído por The New York Times Licensing Group
Os comentários são exclusivos para assinantes do Estadão.