Relatório alerta para brechas de segurança criadas pelos próprios colaboradores
Relatório Setorial sobre Segurança de Dados — publicado recentemente, o estudo expõe o impacto imediato do uso de ferramentas de IA sem aprovação oficial dentro das empresas: falta de visibilidade, fluxos paralelos (“workarounds”) e risco elevado de vazamento de dados confidenciais.
- Em resumo: trabalhadores usam agentes de IA não homologados que acessam e redistribuem informações internas sem qualquer rastreio.
Ferramentas não homologadas viram “caixa-preta” de informações
Ao priorizar a produtividade, muitos funcionários recorrem a chatbots generativos e extensões de navegador que prometem agilidade. Entretanto, de acordo com o relatório citado pela Wired, esses serviços podem armazenar prompts, anexos e resultados em servidores externos, o que amplia drasticamente a superfície de ataque.
“Organizações precisam interromper esses atalhos e recuperar o controle sobre o que está sendo compartilhado”, conclui o documento.
Consequências diretas: de multas da GDPR a vazamentos estratégicos
Além do risco de espionagem corporativa, a exposição indevida pode custar até 4% do faturamento anual em sanções previstas pela GDPR. Grandes nomes do mercado já chegaram a suspender o uso de IA generativa internamente, enquanto investem em soluções de data loss prevention e zero-trust para conter a “fuga” de dados. Consultorias como Gartner prevêem que, até 2025, 30% das violações envolverão modelos de IA mal configurados.
Por que a TI não detecta o uso de IA não autorizada?
Muitos serviços trafegam via HTTPS padrão, passando despercebidos por firewalls tradicionais.
Qual é a melhor prática para evitar vazamentos?
Implantar políticas de zero-trust, criptografia e monitorar tráfego SaaS com soluções CASB.
O que você acha? Sua empresa já tem política clara para IA? Para mais detalhes, acesse nossa editoria especializada.
Crédito da imagem: Divulgação / TechRadar Pro