Meta substitui moderadores por IA em uma estratégia que promete reduzir custos, acelerar a remoção de golpes e aumentar a precisão na detecção de conteúdo ilegal em Facebook, Instagram e Threads. A companhia confirmou que, ao longo dos próximos anos, tarefas antes delegadas a contratados externos — como rastrear perfis falsos, terroristas e vendedores de drogas — passarão para modelos de inteligência artificial treinados internamente.
Por que a Meta está acelerando a automação
Segundo a empresa, seus novos sistemas de IA já superam o desempenho humano em atividades repetitivas de fiscalização. Em comunicado, a Meta afirma que algoritmos conseguem “responder em segundos” a publicações suspeitas e reduzir medidas excessivas, algo que dependia de equipes terceirizadas da Accenture, Teleperformance e outras parceiras.
A decisão também chega em meio à pressão por corte de despesas. Reportagem da CNBC aponta que o grupo estuda eliminar até 20 % de postos de trabalho para compensar o investimento em IA generativa e infraestrutura de data centers — informação classificada como “especulativa” pela big tech.
O que muda na prática para usuários e criadores
Na visão da Meta, a automação deve:
- remover mais rápido conteúdos ligados a exploração infantil, aliciamento sexual e terrorismo;
- identificar com maior agilidade novas táticas de golpe, como perfis clonados ou vendas ilícitas de drogas;
- diminuir falsos positivos, evitando que posts legítimos sejam derrubados por engano.
No entanto, especialistas ouvidos pelo TechCrunch alertam que, mesmo avançados, algoritmos ainda carecem de contexto cultural e nuances de linguagem. Por isso, a Meta garante que revisores humanos continuarão responsáveis por decisões sensíveis, como apelações de contas suspensas ou casos que possam envolver autoridades policiais.
Polêmica antiga, pressão renovada
A moderação sempre foi um calcanhar de Aquiles para redes sociais. Nos Estados Unidos, o grupo de Mark Zuckerberg responde a processos que o acusam de impactos negativos à saúde mental de adolescentes. Ao mesmo tempo, moderadores terceirizados relataram traumas psicológicos após anos expostos a imagens violentas; em 2020, a empresa pagou US$ 52 milhões em indenização.
Com a virada para IA, a Meta busca mitigar tanto os danos humanos quanto os custos bilionários de monitorar 3,24 bilhões de usuários ativos diários. Ainda assim, órgãos reguladores devem acompanhar de perto se a automação não abre brechas para discurso de ódio ou desinformação em larga escala.
O movimento reflete uma tendência maior de big techs que adotam IA para escalar operações críticas. Para acompanhar outras transformações impulsionadas pela inteligência artificial, visite nossa editoria dedicada a IA e produtividade.
Crédito da imagem: Tecnoblog Fonte: Tecnoblog