Lá atrás na pré-história da inteligência artificial (IA), por volta do ano 2020, começou a ficar claro que existiam ganhos importantes de escala para os algoritmos generativos de IA. Utilizando a mesma estrutura de redes neurais artificiais, organizadas pela arquitetura Transformer, já era evidente a correlação direta entre o aumento do tamanho dos algoritmos e os ganhos recentes em performance.
Embora uma eternidade tenha se passado em termos de anos de IA, os ganhos de escala ainda são uma realidade. As diferentes versões do algoritmo Llama-3, por exemplo, possuem um ranking Elo que varia de 1.153 para a versão com 8 bilhões de parâmetros até 1.208 para a versão com 70 bilhões de parâmetros. A próxima versão do Llama-3, que terá 400 bilhões de parâmetros, está atualmente em fase de aprendizado e tudo indica que se tornará o melhor algoritmo de linguagem, superando o ranking Elo de 1.287 do GPT-4o.
No entanto, esse aumento no tamanho dos modelos tem sido acompanhado por custos energéticos crescentes. Atualmente, os data centers são responsáveis por cerca de 1% a 1,5% do consumo global de eletricidade, e esse valor deve aumentar rapidamente com o avanço das aplicações de IA. Estima-se que se todas as pesquisas do Google incorporassem IA, seu consumo anual de energia seria equivalente ao da Irlanda.
Os algoritmos de IA têm um enorme potencial para tornar o mundo mais sustentável, auxiliando em áreas como a descoberta de novas fontes de energia verde, a otimização de processos de uso energético e a identificação de áreas emergentes de desmatamento na Amazônia. No entanto, não podemos subestimar o seu próprio consumo energético, mesmo enquanto IA ajuda a reduzir desperdícios em outras áreas.
Leia também
Um caminho natural para o futuro é aumentar a eficiência das atuais arquiteturas neurais artificiais. Comparado ao cérebro humano, que é cerca de 900 milhões de vezes mais eficiente em termos de consumo energético, os algoritmos de IA ainda têm um enorme potencial para melhorias significativas.
Tudo indica que esse caminho por uma maior eficiência já tenha começado. Além do interesse dos desenvolvedores em reduzir os custos energéticos, outras áreas estão pressionando pela diminuição do tamanho dos algoritmos para conseguirem uma incorporação local em celulares e computadores.
Essa inversão da tendência de crescimento das IAs teve início com a OpenAI, que anunciou que o seu novo algoritmo mais potente, o GPT-4o, reduziu seu custo pela metade em relação à sua versão anterior. Conforme empresas e governos começam a se dar conta da real importância da IA, a pressão por arquiteturas neurais mais eficientes deve acelerar essa transição.
O futuro da IA está intrinsecamente ligado à sua eficiência energética. À medida que continuarmos a desenvolver algoritmos mais potentes e menos intensivos em energia, nos aproximaremos de uma era onde a IA poderá resolver problemas globais sem contribuir para eles.
Os comentários são exclusivos para assinantes do Estadão.