Falhas em IA revelam risco em motores da Meta e Nvidia
Falhas em IA nos frameworks de inferência da Meta, Nvidia, Microsoft e projetos PyTorch — vLLM e SGLang — colocam em risco qualquer aplicação que consuma esses modelos, segundo pesquisadores de cibersegurança.
Execução remota de código via ZeroMQ e pickle
O estudo aponta vulnerabilidades de execução remota de código (RCE) derivadas do uso inseguro do middleware ZeroMQ (ZMQ) aliado à desserialização do módulo pickle em Python. Esse combo, quando exposto, permite que um invasor envie pacotes maliciosos, carregue arquivos arbitrários na memória e assuma o controle total do servidor de IA. Entre as plataformas afetadas estão o Triton Inference Server (Nvidia), ONNX Runtime (Microsoft) e o Text Generation Inference (Meta), amplamente usados por startups e infraestruturas de machine learning em nuvem.
Impacto para quem monetiza sites e apps
Para empreendedores que integram modelos de linguagem a chatbots, plugins WordPress ou fluxos de automação, a falha abre brechas graves: se um atacante comprometer o endpoint de inferência, pode injetar links de phishing, minerar criptomoeda no servidor ou até roubar credenciais de AdSense. Especialistas recomendam isolar serviços de IA em redes internas, desativar a desserialização automática e atualizar bibliotecas assim que os fornecedores liberarem correções.
Segundo reportagem da Wired, o uso indiscriminado de ZMQ em projetos open source cresce, mas raramente passa por auditorias de segurança, reforçando a urgência de boas práticas de revisão de código.
Manter seus modelos atualizados e monitorar pacotes de terceiros é hoje parte essencial da estratégia de segurança digital. Para entender outras ameaças e oportunidades no universo da inteligência artificial, visite nossa editoria de conteúdo com IA e continue protegido.
Crédito da imagem: Thehackernews
Fonte: Thehackernews