Entenda por que a “corrida aos dados” pode parar por falta de chips
Samsung, SK Hynix e Micron — líderes no fornecimento de DRAM e HBM — veem a demanda por memória ultrapassar a oferta, fenômeno que recentemente fez o custo de treinar e rodar modelos de inteligência artificial saltar em até 25% segundo consultorias de mercado.
- Em resumo: os grandes data centers de IA estão disputando cada wafer, e o preço dos módulos de memória de alta largura de banda (HBM) atingiu recorde histórico.
O gargalo invisível que encarece cada prompt
Fabricantes de GPUs como a Nvidia precisam de pilhas de HBM3 para sustentar a velocidade dos seus aceleradores, mas a capacidade de empilhar várias camadas de DRAM ainda é limitada. De acordo com relatório da Tom’s Hardware, o tempo entre cada litografia e o encapsulamento 3D provoca atrasos de meses, comprimindo ainda mais o estoque.
“Mesmo com as fábricas em turnos ininterruptos, o lead time da HBM quase dobrou desde 2023”, aponta um levantamento da TrendForce citado por analistas do setor.
Quem deve sentir o impacto primeiro — e quem pode lucrar
Grandes provedores de nuvem, como AWS, Azure e Google Cloud, já repassam parte dos custos extras nas camadas premium de IA generativa. Por outro lado, empresas de semicondutores que dominam processos EUV e empilhamento TSV encontram margens mais altas. A expectativa é que novos investimentos em fábricas de 1β nm comecem a aliviar a escassez somente em 2025.
Por que a HBM é tão crítica para modelos de IA?
Ela entrega largura de banda dezenas de vezes maior que a DDR5, essencial para processar bilhões de parâmetros em tempo real.
Existe risco de faltar memória para PCs e consoles?
A prioridade das fabricantes está na HBM e na DRAM para servidores, então o varejo pode ver preços mais altos, mas não há projeção de desabastecimento total.
O que você acha? A falta de memória pode frear a próxima grande inovação em IA? Para mais análises sobre hardware e mercado, acesse nossa editoria especializada.
Crédito da imagem: Divulgação / TechRadar