Diretriz reforça ética e segurança em projetos de inteligência artificial
Ministério da Gestão e da Inovação em Serviços Públicos (MGI) – O órgão publicou, nesta semana, um conjunto de regras que redefine como a inteligência artificial pode ser desenvolvida, contratada e utilizada em todo o Governo Federal, colocando transparência e supervisão humana no centro do processo.
- Em resumo: IA generativa só poderá usar dados 100% públicos; qualquer exceção exigirá análise de risco prévia.
Limites claros para IA generativa
A norma proíbe alimentar modelos com informações sensíveis ou sigilosas e obriga que decisões automatizadas mantenham, obrigatoriamente, a possibilidade de revisão humana. Segundo especialistas citados pelo TechCrunch, iniciativas semelhantes têm ganhado força em governos de todo o mundo.
“O uso de IA generativa foi limitado, com permissão para utilização apenas com dados públicos”, determina o texto oficial do MGI.
Por que isso importa para o futuro digital do país
Além de espelhar boas práticas do recém-aprovado Ato de IA da União Europeia, a política brasileira cria um precedente para contratos públicos: fornecedores terão de comprovar compliance algorítmico, o que pode elevar custos, mas também impulsionar soluções mais responsáveis. Dados da OECD indicam que projetos governamentais de IA que seguem princípios de governança reduzem em até 35% o risco de vazamentos de dados.
Quem fiscaliza o uso de IA no governo?
Um comitê interno do MGI será responsável por auditorias e relatórios periódicos.
A regra afeta empresas terceirizadas?
Sim. Todos os contratos futuros deverão atender aos mesmos critérios de transparência e supervisão.
O que você acha? As novas diretrizes vão acelerar ou frear a inovação no serviço público? Para mais insights sobre IA e políticas digitais, acesse nossa editoria especializada.
Crédito da imagem: Divulgação / MGI