Movimento reacende debate sobre ética e armas autônomas
Google – Em uma iniciativa confirmada recentemente, a big tech abriu o acesso de sua inteligência artificial ao Departamento de Defesa dos EUA, permitindo uso em ambientes de máxima segurança e dados confidenciais.
- Em resumo: Google aceita cláusulas que a Anthropic recusou, habilitando aplicações militares amparadas pela lei americana.
Por que o Pentágono escolheu a nuvem do Google
O acordo prevê que modelos generativos fiquem hospedados na plataforma Google Cloud Top Secret, criada para armazenar materiais classificados. De acordo com a Wired, o órgão buscava um provedor capaz de escalar sistemas de linguagem sem comprometer velocidade de implantação.
A nova medida permite, basicamente, que todos os usos considerados lícitos pela legislação americana sejam realizados.
Impacto no mercado de IA e pressões éticas
A adesão do Google lembra o episódio do Project Maven (2018), quando engenheiros protestaram contra contratos militares. Agora, a empresa afirma ter criado revisões de segurança internas para evitar “desvios de finalidade”, mas não especificou restrições a sistemas de letalidade autônoma. Analistas apontam que o acordo pode acelerar negociações semelhantes com Microsoft e Amazon, enquanto concorrentes como Anthropic insistem em guardrails técnicos para barrar vigilância em massa e armamentos independentes.
Essa IA poderá entrar em armas autônomas?
O contrato não proíbe explicitamente, mas o Google diz que seguirá políticas internas que vetam funções letais.
Por que a Anthropic recusou o mesmo contrato?
A startup queria cláusulas contra vigilância civil e armamento autônomo, não aceitas pelo governo.
O que você acha? A abertura de IA a usos militares é avanço tecnológico ou risco ético? Para mais análises sobre inteligência artificial, acesse nossa editoria especializada.
Crédito da imagem: Divulgação / Google