IAs tendenciosas: estudo revela viés por fonte de texto
IAs tendenciosas são mais comuns do que se imagina, aponta uma pesquisa da Universidade de Zurique que testou quatro grandes modelos de linguagem — OpenAI o3-mini, Deepseek Reasoner, xAI Grok 2 e Mistral — em temas como vacinação, clima e geopolítica.
Quando o autor é anônimo, os modelos concordam
Na primeira fase do experimento, os textos foram avaliados sem qualquer indicação de autoria. O resultado foi uma taxa de concordância superior a 90% entre os sistemas, sinal de que, na ausência de pistas sobre a origem, os critérios lógicos se mantêm alinhados.
Identificar a fonte dispara vieses ocultos
A segunda fase acrescentou informações de autoria — nacionalidade e, em alguns casos, a informação de que o texto teria sido escrito por outra IA. Bastou essa mudança para a concordância ruir. Em declarações sobre Taiwan, por exemplo, o Deepseek Reasoner reduziu sua aprovação em 75% quando “acreditou” que o autor era chinês. O padrão anti-China apareceu em todos os modelos, inclusive no desenvolvido no próprio país asiático.
Outro achado curioso: conteúdos atribuídos a humanos receberam notas melhores do que os mesmos textos apontados como gerados por máquina, sugerindo uma “desconfiança automática” entre inteligências artificiais. Esse comportamento reforça alertas de especialistas como os citados pela revista WIRED sobre vieses em IA.
Impacto para quem vive de conteúdo e monetização
Para empreendedores digitais, blogueiros WordPress e publishers que dependem de AdSense ou marketing de afiliados, o estudo deixa recados claros:
- Ferramentas de moderação baseadas em IA podem punir ou aprovar posts de forma desigual dependendo da “assinatura” do autor.
- Processos de curadoria automatizada, comuns em redes de anúncios, correm risco de filtrar páginas de maneira enviesada.
- Ao usar LLMs para avaliar guest posts ou resenhas de afiliados, vale cegar o modelo para qualquer informação de autor, focando em critérios objetivos (evidência, lógica, clareza).
As conclusões dos pesquisadores Federico Germani e Giovanni Spitale são diretas: mantenha o julgamento humano no circuito e trate o modelo como auxiliar — não árbitro final.
Quer aprofundar sua estratégia de IA sem cair em armadilhas de viés? Visite nossa editoria de Conteúdo com Inteligência Artificial e continue atualizado.
Crédito da imagem: Mundoconectado
Fonte: Mundoconectado