Quando você diz “E aí, Siri”, a última coisa que espera é que um estranho esteja do outro lado da linha ouvindo cada palavra. Pois é justamente esse cenário que a Apple volta a enfrentar na França. A promotoria especializada em cibercrime abriu um novo inquérito para apurar se a empresa guardou — e deixou terceiros ouvirem — gravações de voz de usuários sem autorização clara.
Para quem cria conteúdo, administra sites ou depende de anúncios online, o caso levanta um alerta maior que a própria polêmica: até que ponto nossos dados de voz podem ser usados para treinar inteligência artificial sem comprometer a privacidade? E, principalmente, o que isso muda na relação entre grandes plataformas e quem vive de tráfego, dados e publicidade digital?
Por que a Apple voltou ao banco dos réus na França
O novo processo foi aberto após denúncia de uma entidade de direitos humanos baseada no depoimento de Thomas le Bonniec, ex-terceirizado da Apple na Irlanda. Ele afirma ter escutado milhares de interações da Siri desde 2014, muitas contendo dados sensíveis e momentos íntimos de usuários.
• O caso original estourou em 2019, quando reportagem do The Guardian revelou que funcionários terceirizados ouviam áudios para “refinar as respostas” da assistente.
• Na época, a Apple prometeu transparência, passou a exigir opt-in do usuário e chegou a interromper temporariamente o programa de revisão de áudios.
• Mesmo assim, a promotoria francesa quer saber: quantas gravações foram feitas desde 2014? Onde e por quanto tempo ficaram armazenadas? Quantas pessoas foram afetadas?
O que dizem os investigadores e quais perguntas permanecem
A Seção de Crimes Cibernéticos do Ministério Público de Paris mira possíveis violações às leis europeias de proteção de dados (GDPR). Os promotores querem detalhes sobre:
• Volume de áudios revistos por humanos;
• Critérios de anonimização — se realmente existiram;
• Duração do armazenamento, que a Apple admite poder chegar a dois anos;
• Finalidade: treinamento de IA versus criação de perfis de marketing.
Apesar de a investigação só ter deslanchado agora, o depoimento de Bonniec foi entregue às autoridades francesas em 2020. O intervalo de cinco anos entre denúncia e processo formal gera especulação sobre novas evidências ou pressões regulatórias mais rígidas na União Europeia.
A resposta oficial da Apple
• A empresa nega qualquer irregularidade e afirma que “jamais usou gravações da Siri para publicidade, perfis de marketing ou venda a terceiros”.
• Reforça que, desde 2020, gravações só são revisadas por humanos com consentimento expresso do usuário.
• Nos EUA, a Apple pagou US$ 95 milhões (dez/2024) para encerrar ação coletiva, sem admitir culpa.
Imagem: Internet
Privacidade versus Treinamento de IA: o dilema que vai além da Siri
O ponto central não é apenas se a Apple ouviu ou não seus usuários, mas como grandes empresas conciliam a sede por dados — combustível da IA — com regulações e confiança do público.
1. Efeito dominó regulatório: Se a promotoria francesa concluir que houve violação do GDPR, outras autoridades europeias podem seguir o exemplo. Multas podem chegar a 4% do faturamento global, algo que nenhuma big tech ignora.
2. Sinal para o mercado de voz: Amazon, Google e Samsung também usam revisão humana em assistentes virtuais. Um precedente contra a Apple pressionaria todo o setor a investir mais em técnicas de edge processing (processamento local) e menos em armazenamento centralizado de áudios.
3. Impacto em desenvolvedores e criadores: WordPress, apps de podcast e projetos que integram comandos de voz devem revisar suas políticas de obtenção de consentimento. Falhas podem afastar anunciantes que temem ser associados a práticas de coleta invasiva.
4. IA generativa em xeque: Modelos de linguagem dependem de dados reais para aprender nuances de fala. Se a coleta ficar mais limitada, veremos avanços mais lentos ou custos mais altos, o que pode refletir em preços de APIs e serviços que muitos sites utilizam.
No fim das contas, o embate na França mostra que a era da “captura indiscriminada de dados” está chegando ao limite regulatório. Quem vive de tecnologia — seja codando plugins, monetizando blogs ou desenhando estratégias de mídia — precisa acompanhar cada capítulo: as regras de privacidade que nascem hoje moldarão as oportunidades (e restrições) de amanhã.