Escalada de custos expõe novo dilema financeiro das Big Techs

NVIDIA – A fabricante de GPUs vê o orçamento dedicado a inteligência artificial ultrapassar o valor pago a toda a sua equipe, conforme declarou Bryan Catanzaro em entrevista recente. O cenário ilustra como rodar modelos de IA virou a maior linha de despesa interna para empresas que, ironicamente, vendem o hardware necessário a essa revolução.

  • Em resumo: Treinar e manter modelos consome mais dinheiro que remunerar os engenheiros que os criam.

Quando o compute vale mais que o talento

A equipe de Catanzaro é uma das que mais opera clusters de aceleradores Hopper e Blackwell. Cada experimento aciona centenas de GPUs 24/7, com alto gasto elétrico e de refrigeração. Uma pesquisa citada pela Forbes já alertava que, para muitos fluxos de trabalho, o preço por token de inferência torna a automação menos competitiva do que a mão de obra humana.

“Para meu time, o custo de compute está muito além do custo dos funcionários” — Bryan Catanzaro, VP de Applied Deep Learning da NVIDIA.

Efeito dominó: Uber e mercado global sentem o baque

Não é um caso isolado. O Uber queimou todo o orçamento de IA de 2026 em quatro meses ao popularizar o Claude Code, da Anthropic, entre 5.000 engenheiros. Cada profissional passou a gerar até US$ 2.000 mensais em chamadas de API. Enquanto isso, a Gartner prevê que os gastos globais de TI alcançarão US$ 6,31 trilhões neste ano, impulsionados sobretudo por data centers e memória HBM — componentes-chave para IA generativa.

A alternativa “on-premises” ganha força: companhias calculam se compensa comprar seus próprios servidores equipados com GPUs NVIDIA para ter custo previsível de depreciação e energia, em vez das cobranças variáveis por token da nuvem. Para a empresa de Jensen Huang, ambos os cenários geram demanda: seja pela venda de chips, seja pelo aluguel de capacidade em parceiros de nuvem.

Por que rodar IA ficou mais caro que pagar salários?

Modelos avançados exigem milhares de GPUs ligadas 24h e consumo energético elevado, somando hardware, energia e refrigeração.

Empresas podem reduzir esse gasto?

Sim. Otimização de modelos, inferência local e uso de chips dedicados ajudam a conter a conta por token.

O que você acha? A adoção acelerada de IA justifica custos tão altos? Para mais detalhes, acesse nossa editoria especializada.


Crédito da imagem: Divulgação / NVIDIA

Alberto Ferreira

Compartilhar
Publicado por
Alberto Ferreira

Postagens recentes

Remake de Devil May Cry vaza; veja o que esperar da Capcom

Rumor aponta retorno estiloso de Dante após 23 anos de sua estreia Devil May Cry…

1 hora atrás

Zelda: Twilight Princess chega ao Android — veja como instalar no seu Galaxy

Clássico do GameCube agora roda em smartphones Galaxy com ajustes de toque e 60 fps…

4 horas atrás

Google aperta verificação e complica ROMs no Galaxy — entenda impacto no Brasil

Ferramentas de segurança podem limitar ROMs alternativas em celulares Samsung Samsung Galaxy — Em publicação…

8 horas atrás

Mouse Logitech Pro X2 Superstrike promete 120h e clique sem ruído

Sensor cirúrgico e peso pluma desafiam os rivais premium Logitech Pro X2 Superstrike — lançado…

10 horas atrás

Rivals S2 desembarca no Disney+: tensão e erotismo logo nos 3 primeiros episódios

Clássico de Jilly Cooper ganha fôlego extra com reviravoltas políticas e paixão sem filtros Rivals…

11 horas atrás

Combo Maxsun Intel Raptor Lake custa US$200 e sacode PCs

Placa-mãe soldada ao chip oferece economia agressiva para setups compactos Maxsun – A fabricante chinesa…

11 horas atrás