Mudança na política de IA reacende debate ético dentro e fora do Google
Google – Recentemente, a gigante de Mountain View ampliou seu acordo com o Departamento de Defesa dos EUA, permitindo que o modelo de IA Gemini seja empregado “para qualquer propósito legal”, reacendendo discussões sobre ética e transparência.
- Em resumo: o DoD ganha carta-branca para explorar o Gemini enquanto críticos acusam o Google de abandonar o mantra “Don’t Be Evil”.
Por que o contrato causa tanta controvérsia?
Em 2018, milhares de funcionários protestaram contra o Projeto Maven, levando o Google a suspender trabalhos de IA militar. Seis anos depois, a empresa afirma estar “orgulhosa” de servir o Pentágono, mas especialistas alertam, em reportagem da Wired, para o risco de aplicações ofensivas disfarçadas de “uso legal”.
“Google’s contract with the Pentagon allows the DoD to use Gemini for ‘any lawful purpose’, and that is a big ethical concern.”
O que está em jogo para a Big Tech e para o mercado de IA
Além de reforçar a competitividade frente a rivais como Microsoft e Palantir — já consolidadas em contratos militares —, o acordo pode render centenas de milhões de dólares a longo prazo. Por outro lado, expõe o Google a questionamentos regulatórios em Washington e Bruxelas, onde legislações de IA exigem salvaguardas contra uso letal autônomo.
O que é o Gemini?
É a família de modelos de IA multimodal do Google, capaz de processar texto, imagem, áudio e código.
Há limites técnicos para uso militar do Gemini?
O contrato menciona somente “finalidade legal”, sem vetar cenários táticos; controles dependem das políticas internas do DoD.
O que você acha? O Google conseguiu equilibrar lucro e responsabilidade ou cruzou uma linha ética? Para mais análises sobre IA, acesse nossa editoria especializada.
Crédito da imagem: Divulgação / Google