Escalada de custos expõe novo dilema financeiro das Big Techs
NVIDIA – A fabricante de GPUs vê o orçamento dedicado a inteligência artificial ultrapassar o valor pago a toda a sua equipe, conforme declarou Bryan Catanzaro em entrevista recente. O cenário ilustra como rodar modelos de IA virou a maior linha de despesa interna para empresas que, ironicamente, vendem o hardware necessário a essa revolução.
- Em resumo: Treinar e manter modelos consome mais dinheiro que remunerar os engenheiros que os criam.
Quando o compute vale mais que o talento
A equipe de Catanzaro é uma das que mais opera clusters de aceleradores Hopper e Blackwell. Cada experimento aciona centenas de GPUs 24/7, com alto gasto elétrico e de refrigeração. Uma pesquisa citada pela Forbes já alertava que, para muitos fluxos de trabalho, o preço por token de inferência torna a automação menos competitiva do que a mão de obra humana.
“Para meu time, o custo de compute está muito além do custo dos funcionários” — Bryan Catanzaro, VP de Applied Deep Learning da NVIDIA.
Efeito dominó: Uber e mercado global sentem o baque
Não é um caso isolado. O Uber queimou todo o orçamento de IA de 2026 em quatro meses ao popularizar o Claude Code, da Anthropic, entre 5.000 engenheiros. Cada profissional passou a gerar até US$ 2.000 mensais em chamadas de API. Enquanto isso, a Gartner prevê que os gastos globais de TI alcançarão US$ 6,31 trilhões neste ano, impulsionados sobretudo por data centers e memória HBM — componentes-chave para IA generativa.
A alternativa “on-premises” ganha força: companhias calculam se compensa comprar seus próprios servidores equipados com GPUs NVIDIA para ter custo previsível de depreciação e energia, em vez das cobranças variáveis por token da nuvem. Para a empresa de Jensen Huang, ambos os cenários geram demanda: seja pela venda de chips, seja pelo aluguel de capacidade em parceiros de nuvem.
Por que rodar IA ficou mais caro que pagar salários?
Modelos avançados exigem milhares de GPUs ligadas 24h e consumo energético elevado, somando hardware, energia e refrigeração.
Empresas podem reduzir esse gasto?
Sim. Otimização de modelos, inferência local e uso de chips dedicados ajudam a conter a conta por token.
O que você acha? A adoção acelerada de IA justifica custos tão altos? Para mais detalhes, acesse nossa editoria especializada.
Crédito da imagem: Divulgação / NVIDIA