Huawei Flex:ai promete 30% mais eficiência em chips IA
Huawei Flex:ai é a nova plataforma open source que, segundo a gigante chinesa, eleva em até 30% o uso efetivo de aceleradores de inteligência artificial já instalados em data centers.
Ferramenta organiza cargas de IA em tempo real
Anunciada em 21 de novembro, a solução foi desenvolvida sobre Kubernetes com apoio de pesquisadores das universidades de Xangai, Xi’An e Xiamen. O software cria instâncias virtuais de GPUs e NPUs, “fatiando” o hardware para que tarefas menores rodem simultaneamente, enquanto demandas mais pesadas são distribuídas entre vários componentes.
O coração do sistema é o Hi Scheduler, um orquestrador que redistribui as cargas em tempo real para evitar ociosidade. A promessa é extrair mais performance de placas já existentes, cenário semelhante ao que motivou a NVIDIA a comprar a Run:ai em 2024, como lembrou o Tom’s Hardware.
Aposta estratégica para o ecossistema chinês
Diferente de soluções proprietárias baseadas em CUDA, o Flex:ai foi concebido para suportar aceleradores de diversos fabricantes, com destaque para a linha Ascend da própria Huawei. A empresa acredita que essa compatibilidade pode impulsionar servidores locais que mesclam chips nacionais e importados, reduzindo a dependência de fornecedores norte-americanos.
Embora o anúncio destaque ganhos de eficiência, a Huawei ainda não divulgou benchmarks independentes nem a data de lançamento público. Até lá, o mercado aguarda testes que validem o aumento de 30% no aproveitamento dos recursos de IA.
Ferramentas que ampliam a performance sem exigir novos investimentos em hardware chamam a atenção de gestores de TI. Se você acompanha como essas inovações impactam decisões de compra, confira também nossa editoria de Análise de Tecnologia para se manter atualizado.
Crédito da imagem: Adrenaline
Fonte: Adrenaline