Até bem pouco tempo, falar em hardware para inteligência artificial era quase sinônimo de citar a NVIDIA. A Sparkle resolveu desafiar esse paradigma ao apresentar o C741-6U-Dual 16P, um servidor que dispensa as tradicionais GPUs dos “verdinhos” e aposta pesado na linha Intel Arc Pro. O sistema aloja 16 placas Arc Pro B60 Dual, equivalentes a nada menos que 32 GPUs independentes, todas a serviço de workloads de aprendizado de máquina e processamento massivo de dados.
Para quem administra datacenters, cria aplicativos que dependem de inferência em tempo real ou simplesmente acompanha o mercado de anúncios e conteúdo online, a notícia tem implicações práticas: mais oferta de hardware significa pressão por custos menores, novas formas de escalar modelos e, sobretudo, competição em um território que há anos parecia fechado.
16 placas Arc Pro B60 Dual somam 768 GB de VRAM e 81.920 núcleos
Cada Arc Pro B60 Dual traz dois chips gráficos BMG-G21 e 48 GB de memória GDDR6. Multiplicando pelos 16 slots ocupados no chassi 6U, o total chega a 768 GB de VRAM dedicada ao treino ou à inferência de redes neurais — um ponto crítico, já que modelos modernos consomem memória como se não houvesse amanhã.
Em termos de poder bruto, o conjunto entrega 81.920 núcleos de GPU. O consumo elétrico também acompanha o exagero: o TBP (Total Board Power) combinado das placas fica em torno de 6.400 W.
Fontes redundantes somam 10.800 W e PCIe 5.0 x8 para cada GPU
Para alimentar esse apetite, a Sparkle incluiu cinco fontes 80 Plus Titanium de 2.700 W cada, totalizando 10.800 W. Quatro unidades operam em regime normal, enquanto a quinta funciona em modo redundante, garantindo continuidade mesmo em caso de falha — requisito habitual em missão crítica.
A comunicação interna é feita por meio de um switch Microchip que distribui 32 linhas PCIe 5.0 x8, uma para cada GPU. Na prática, isso reduz gargalos entre CPU e aceleradores, algo essencial quando se movimentam lotes gigantescos de dados e pesos de redes neurais.
No centro da placa-mãe, há suporte para processadores Intel Xeon escaláveis de 4ª ou 5ª geração, oferecendo opções de alta contagem de núcleos e instruções especializadas para IA, como o conjunto AMX.
Imagem: Internet
Versão com placas “não-Dual” reduz memória e consumo
A Sparkle também mostrou o C741-6U 16P, variante que mantém 16 placas Arc Pro B60 convencionais, sem o design de GPU dupla. Nesse caso, cada placa carrega 24 GB de VRAM, perfazendo 384 GB totais, e o subsistema de energia cai para 7.200 W. É uma alternativa para quem precisa de aceleração paralela, mas não quer (ou não pode) arcar com a conta de luz de uma fonte de 10 kW.
IA Não Vive Só de NVIDIA: o que esse servidor revela sobre o mercado de GPUs
O anúncio da Sparkle é um recado claro: estamos entrando na fase em que a demanda por GPUs para IA supera o que a NVIDIA consegue entregar sozinha. Ao colocar 32 chips Intel Arc em um único rack, a empresa mostra que a arquitetura Alchemist pode encontrar um nicho lucrativo fora do gaming, mesmo sem disputar a liderança absoluta de desempenho.
Para desenvolvedores e equipes de marketing digital, a diversificação importa por dois motivos. Primeiro, aumenta a capacidade global de processamento, acelerando projetos de geração de conteúdo, segmentação de anúncios e automação de dados que dependem de IA. Segundo, competição costuma significar queda de preço e maior disponibilidade — dois fatores que contam no ROI de qualquer operação online.
Por fim, o formato “Dual GPU por placa” levanta uma discussão sobre eficiência: é melhor escalar verticalmente a memória — 48 GB por slot — ou horizontalizar adicionando mais placas menores? A Sparkle aposta que a primeira estratégia entrega densidade de cálculo sem saturar os links PCIe, algo que veremos ser validado (ou não) nos benchmarks de produção.
Seja qual for o resultado, o movimento sinaliza que o ecossistema de IA caminha para um cenário multiforncedor. E quanto mais opções de silício houver na prateleira, maior será o leque de soluções para quem desenvolve, monetiza ou simplesmente quer entender o poder por trás dos algoritmos que moldam a internet.