A Nvidia, gigante dos chips de inteligência artificial (IA), ganhou US$ 220 bilhões (cerca de R$ 1,1 trilhão) nesta quinta, 23, um dia após a companhia divulgar seu balanço. Na quarta, antes da divulgação do documento, a companhia valia US$ 2,35 trilhões, e viu seu valor saltar para US$ 2,55 trilhões após o fechamento do mercado, o que a coloca como terceira mais valiosa da Bolsa americana, atrás apenas de Apple e Microsoft.
Nesta semana, a Nvidia divulgou que teve receita de US$ 26 bilhões, quase triplicando os US$ 7,19 bilhões no ano anterior. Já o lucro líquido saltou cerca de 7 vezes em relação ao ano anterior, de US$ 2,04 bilhões para US$ 14,88 bilhões.
Hoje, as ações da empresa subiram 9,3% e alcançaram um patamar inédito para a marca. “A Nvidia domina o mercado de treinamento de IA, onde a demanda por GPUs de alto desempenho é muito alta. Além disso, a empresa está investindo em novas tecnologias, como a CPU Grace Hopper e as GPUs Blackwell, que devem manter sua liderança no mercado”, afirma Matheus Popst, sócio da Arbor Capital.
Como Nvidia ganha dinheiro
Fundada há mais de 30 anos, a companhia do CEO Jensen Huang antecipou em algumas décadas o boom atual da tecnologia - quase sem querer. Criada em 1993, a Nvidia passou a desenvolver em 1999 chips de processamento de vídeo (ou GPUs) para computadores e videogames. Essa tecnologia tornou-se essencial para processar vídeos pesados na indústria de games (abastecendo consoles como Xbox e PlayStation) e indispensável em supercomputadores — que podem ser usados em sistemas de nuvem ou de mineração de criptomoedas, duas áreas em que a Nvidia tornou-se a favorita há anos.
Para qualquer inteligência artificial funcionar, é necessária uma quantia enorme de dados. Estes, por sua vez, exigem uma infraestrutura de computadores de ponta para processar informações. É aí que entram as GPUs: criados para acelerar o processamento gráfico de forma paralela às CPUs (unidades de processamento central, que executam tarefas sequencialmente e com mais consumo de energia), esses chips evoluíram para abastecer as máquinas por onde rodam as redes neurais que turbinam a IA.
Esse processo ocorreu ao longo dos anos, quando especialistas passaram a otimizar as GPUs para algoritmos de IA. Estima-se que são necessárias apenas duas GPUs para realizar o mesmo trabalho em IA de mais de 10 mil CPUs.
Em 2012, por exemplo, a companhia foi vital para o avanço da IA. Com auxílio de GPUs da Nvidia, foi desenvolvida a AlexNet, rede de algoritmos de aprendizado profundo, considerada pedra fundamental da IA moderna. Desenvolvida por nomes muito conhecidos atualmente - Geoffrey Hinton, um dos “pais da IA moderna”, Ilya Sutskever, cofundador da OpenAI, e Alex Krizhevsky - a AlexNet estabeleceu padrões de algoritmos e de uso de hardware.
Em 2009, Hinton chegou a dizer em uma entrevista que pesquisadores de IA deveriam comprar GPUs da Nvidia, pois elas seriam o futuro da IA. A profecia se tornou realidade - em 2016, Huang admitiu que a guinada para o mundo da IA aconteceu de maneira casual e inesperada.
Atualmente, a Nvidia vende a GPU H100, que além de prometer uma experiência visual excepcional para jogadores, foi otimizada para lidar com volumes massivos de dados, o que a transformou em uma opção mais eficiente para treinar modelos de IA. Cada uma delas custa a partir de US$ 20 mil e empresas precisam de milhares de unidades. No começo deste ano, Mark Zuckerberg anunciou a compra de 350 mil GPUs H100 para desenvolver os modelos de IA da Meta.
A H100 é quatro vezes mais rápida que sua antecessora, A100, no treinamento de grandes modelos de linguagem (LLMs) e na resposta a comandos de usuários. /COLABOROU BRUNO ROMANI