GPU integrada em HBM: NVIDIA mira nova era de memória
GPU integrada em HBM é a grande aposta de nomes como NVIDIA, Meta, Samsung e SK hynix para turbinar largura de banda e eficiência energética na próxima geração de chips HBM4, revelou o jornal coreano ET News.
Por que juntar GPU e HBM no mesmo die?
Hoje, os módulos High Bandwidth Memory empilham camadas de DRAM sobre um “die base” que faz a comunicação com a placa de vídeo. No padrão HBM4, esse die já inclui um controlador avançado para distribuir dados em alta velocidade. A proposta recém-divulgada adiciona cores de GPU nesse mesmo espaço físico. Reduzindo a distância percorrida pelos bits, o sistema deve entregar um salto considerável de banda — requisito crítico para aplicações de inteligência artificial (IA) e data centers sedentos por dados.
Segundo analistas ouvidos pela The Verge, aproximar lógica e memória não só corta latência como pode baixar o consumo, já que o sinal viaja menos e exige menos energia para ser transmitido.
Desafios: área, energia e calor
Apesar do potencial, engenheiros enfrentam três obstáculos: 1) a área limitada do die HBM, 2) a entrega de energia suficiente para alimentar os núcleos gráficos e 3) a remoção do calor extra gerado. Kim Joung-Ho, professor da KAIST envolvido no estudo, destaca que “o limite entre memória e processamento está ruindo para acompanhar o ritmo da IA”.
Para contornar o aquecimento, são discutidas soluções de embalagem 3D e dissipadores direct-to-liquid — tecnologias ainda caras, mas viáveis para aceleradores de US$ 30 mil, como a série H100 da NVIDIA. Já a área do die pode ser otimizada empilhando camadas lógicas adicionais, estratégia que Samsung e SK hynix vêm prototipando desde 2023.
NVIDIA e AMD, que já aproximam memória de seus aceleradores em designs como o Grace Hopper e o Instinct MI300, enxergam na integração total uma forma de manter a escalabilidade sem depender de interposers gigantes ou de múltiplas GPU tiles.
No curto prazo, fontes do setor estimam amostras de engenharia para 2026, com produção em volume no fim de 2027 — cronograma que coincide com a previsão de esgotamento da capacidade de HBM divulgada pela SK hynix.
Com a corrida por IA ditando o ritmo da inovação, integrar GPU e HBM no mesmo pacote virou prioridade estratégica. Se a solução vingar, data centers podem ganhar placas menores, mais econômicas e com largura de banda inédita, abrindo caminho para modelos de linguagem ainda maiores. Quer saber como essas tendências afetam outras peças de hardware? Explore nossa editoria de Hardware de PC e fique por dentro dos próximos avanços.
Crédito da imagem: Adrenaline
Fonte: Adrenaline