Google TurboQuant provocou uma queda de até 19% nas ações de gigantes do setor de memória nos últimos cinco dias, ao prometer cortar em seis vezes o consumo de RAM de modelos de IA e acelerar as inferências em até oito vezes. A notícia acende o alerta para fabricantes de DRAM, que podem ver a demanda por chips de alta capacidade diminuir caso a tecnologia se popularize.
Micron, SK Hynix e Samsung sentem o baque imediato
Desde o anúncio em 24 de março, a norte-americana Micron Technology (NASDAQ: MU) acumula recuo de 19,5% no valor de mercado. Na Coreia do Sul, SK Hynix perdeu 6% e a divisão de semicondutores da Samsung Electronics encolheu 5% no mesmo intervalo. O movimento reflete o receio de investidores de que data centers e empresas de IA passem a comprar menos memória de alta densidade, já que o algoritmo do Google promete entregar a mesma performance ocupando apenas uma fração do espaço em DRAM.
A retração ocorre em um momento em que a indústria comemorava a retomada dos preços dos chips após o excesso de estoque em 2023. Caso TurboQuant ganhe adoção rápida, analistas já falam em possíveis revisões de demanda para 2024.
O que é o TurboQuant e por que ele desafia o modelo de negócio da memória
Criado pela equipe de pesquisa do Google, o TurboQuant combina duas técnicas inéditas:
- PolarQuant: aproxima os dados em coordenadas polares, eliminando sobrecarga tradicional de memória.
- Quantized Johnson-Lindenstrauss (QJL): verificador de erro de 1 bit que mantém a precisão do modelo.
Com isso, a empresa afirma ser possível comprimir o cache “key-value” de grandes modelos de linguagem para apenas 3 bits, sem precisar de fine-tuning, e ainda ganhar até 8× em velocidade de execução em GPUs. Na prática, provedores de nuvem e startups de IA poderiam hospedar mais modelos no mesmo hardware, reduzir contas de energia e postergar upgrades de memória — fatores que pressionam o core business de quem produz DRAM.
Detalhes técnicos adicionais foram publicados pela equipe de pesquisa no blog Google AI, reforçando a credibilidade do avanço.
O que observar daqui para frente
Embora o algoritmo ainda dependa de testes em escala comercial, o interesse é alto porque não exige mudanças na arquitetura dos chips nem ajustes demorados nos modelos já treinados. Se os benchmarks se confirmarem em cenários de produção, o mercado pode assistir a uma nova onda de otimizações de IA com impacto direto na receita das fabricantes de memória e, consequentemente, nos preços pagos por consumidores finais de PCs, smartphones e servidores.
Para investidores, o próximo gatilho deve ser a divulgação de parcerias oficiais entre o Google e provedores de nuvem ou frameworks populares de machine learning. Já para desenvolvedores e empreendedores, a adoção de TurboQuant pode significar redução de custos operacionais e abertura de espaço para ampliar escopos de aplicação de LLMs.
Essa movimentação mostra como avanços em compressão de modelos podem redesenhar toda a cadeia de hardware e serviços de IA. Acompanhe nossa editoria de análise de tecnologia para seguir de perto outras mudanças que podem mexer com preços, desempenho e estratégias de mercado.
Crédito da imagem: Techpowerup Fonte: Techpowerup