Banir apps de IA que geram imagens íntimas é a medida que ganhou apoio majoritário de parlamentares europeus nesta terça-feira. A proposta inclui uma proibição explícita de ferramentas capazes de criar ou “nudificar” fotos sem consentimento, reação direta aos recentes escândalos envolvendo o chatbot Grok, da xAI, e outros geradores de deepfakes. Se aprovada, a regra passará a integrar a Lei de Inteligência Artificial da União Europeia, com impacto imediato para startups, plataformas de conteúdo e usuários finais.
Pressão aumentou após polêmicas com o Grok e deepfakes
A iniciativa foi impulsionada por incidentes registrados em diversos países depois que o Grok, modelo de linguagem da empresa de Elon Musk, entregou imagens sexualmente explícitas não solicitadas. O irlandês Michael McNamara, relator das negociações, disse que a sociedade espera uma resposta firme dos legisladores contra os chamados “apps de nudificação”.
A preocupação não se restringe ao elo moral: grupos de defesa de direitos digitais alertam para riscos de chantagem, reputação e saúde mental das vítimas. Um dossiê apresentado ao Parlamento Europeu aponta que mais de 90% das vítimas de deepfakes íntimos sequer descobrem que suas imagens circulam em redes públicas ou privadas.
O debate acontece enquanto a UE busca equilibrar inovação e proteção. Na semana passada, representantes dos 27 Estados-membros já haviam sinalizado apoio ao banimento durante discussões preliminares do trilogue – fase em que Parlamento, Conselho e Comissão alinham o texto final da lei.
Fontes ligadas ao processo disseram ao The Verge que há consenso de que ferramentas de IA generativa não podem permanecer no vácuo regulatório, sob pena de normalizar abusos online.
Prazos ajustados e efeito dominó para todo o setor de IA
Além do banimento, os eurodeputados aprovaram o adiamento das regras para sistemas de “alto risco” para 2 de dezembro de 2026. A justificativa: os padrões técnicos só devem ficar prontos em agosto do mesmo ano, o que poderia gerar um intervalo de incerteza jurídica para empresas que atuam no bloco.
Na prática, isso significa que provedores de IA que atuam em áreas como saúde, crédito e transporte terão mais tempo para se adequar. Já os desenvolvedores de aplicações de imagem – inclusive aquelas usadas em filtros de redes sociais – precisarão rever processos de moderação mais cedo do que imaginavam.
Especialistas em regulação dizem que a decisão europeia deve repercutir em outros mercados. Estados Unidos, Reino Unido e Austrália acompanham o texto como modelo potencial de legislação. Plataformas globais também tendem a alinhar políticas para evitar manter versões diferentes do mesmo serviço.
A votação final do Parlamento Europeu está marcada para 26 de março. Se aprovada, a medida segue para conciliação com os governos nacionais antes de virar lei. O cronograma indica que as primeiras obrigações específicas sobre conteúdo íntimo não autorizado podem entrar em vigor já em 2025.
No curto prazo, companhias que operam geradores de imagem precisarão investir em filtros automáticos, auditorias de dados e sistemas de denúncia para evitar sanções pesadas previstas na Lei de IA. Para o usuário comum, o novo capítulo promete ambiente digital mais seguro — mas também pode encarecer ou limitar alguns serviços gratuitos.
O tema reforça como a regulamentação de inteligência artificial avança em ritmo acelerado. Para acompanhar outras tendências que podem redefinir mercado e sociedade, siga nossa editoria de Futuro e Tendências.
Crédito da imagem: Peq42 Fonte: Peq42