Atualização turbina inferência de IA sem exigir placa dedicada
Intel – A versão 32.0.101.8517 do driver Arc Pro chegou recentemente com uma promessa ousada: deixar que até 93% da memória RAM do computador seja direcionada à GPU integrada, eliminando o gargalo tradicional de 50%.
- Em resumo: PCs com 64 GB agora acomodam modelos Llama 3 de 70 b, antes restritos a estações caríssimas.
Por que 93% muda o jogo para desenvolvedores
Com a nova alocação, um desktop de 32 GB já consegue rodar um Qwen 2.5 em 4 bits, tarefa que exigia GPUs dedicadas ou serviços na nuvem. Segundo a Tom’s Hardware, o particionamento agressivo coloca a Arc Pro B390 entre as soluções mais flexíveis para prototipagem local de IA.
“Em sistemas x86, saltar de 50% para 93% de RAM disponível é a diferença entre carregar um modelo médio e um gigante.” – documentação oficial do driver.
Comparativo: Intel x AMD x Apple
A rival AMD permite reservar até 96 GB em APUs Strix Halo usando a VGM, mas exige um pool de 128 GB. Já o Apple Silicon M5 Max entrega 614 GB/s de largura de banda dentro de uma arquitetura unificada, onde todo o pool é acessível por CPU e GPU sem limites artificiais. No lado azul, a Intel compensa a menor banda (150 GB/s em LPDDR5X-9600) oferecendo esse “override” que amplia a capacidade para modelos de linguagem massivos, algo vital em tempos de corrida por inferência local.
Preciso de hardware novo para aproveitar o driver?
Não. Basta ter uma GPU Arc Pro compatível e instalar a versão 32.0.101.8517.
Isso afeta jogos ou apps 3D tradicionais?
O recurso é opcional; para games, o sistema continua usando a alocação dinâmica padrão.
O que você acha? Sua máquina vai dar conta de modelos ainda maiores? Para mais detalhes, acesse nossa editoria especializada.
Crédito da imagem: Divulgação / Intel