Se você costuma pedir um “resumão” das manchetes ao ChatGPT, Gemini ou Copilot para ganhar tempo na rotina de criação de conteúdo, talvez seja hora de pisar no freio. Um levantamento inédito da BBC em parceria com a União Europeia de Radiodifusão (EBU) analisou mais de 3 mil respostas produzidas pelos principais chatbots do mercado e concluiu que quase metade delas continha equívocos sérios, de dados inventados a citações sem fonte confiável.
O alerta chega em um momento em que a audiência se mostra cada vez mais disposta a consumir notícias via IA: no Reino Unido, 42% dos entrevistados já confiam nesses resumos, índice que dispara para 50% entre quem tem menos de 35 anos. A combinação de adoção acelerada e altas taxas de erro cria um cenário digno de atenção para jornalistas, profissionais de marketing e qualquer pessoa que monetize conteúdo informativo.
Como o estudo foi conduzido
A pesquisa avaliou 3.036 respostas geradas por ChatGPT (OpenAI), Copilot (Microsoft), Gemini (Google) e Perplexity. Participaram 22 emissoras públicas de 18 países europeus, tornando o levantamento o maior já realizado sobre acurácia jornalística em IA generativa. Cada assistente recebeu as mesmas perguntas baseadas em fatos recentes, e as respostas foram verificadas por especialistas humanos.
Os avaliadores classificaram as saídas em três níveis de problema: erros graves de atribuição (quando faltava ou havia fonte inadequada), imprecisões factuais (dados errados ou desatualizados) e falhas menores (omissões ou pequenas confusões de contexto).
Principais resultados e quem ficou em último lugar
Os números chamam a atenção:
- 45% das respostas apresentaram ao menos um erro grave.
- 31% falharam especificamente na atribuição de fontes.
- 20% continham dados factuais incorretos ou inventados.
- Considerando também deslizes menores, 81% dos outputs tinham algum tipo de problema.
Entre os sistemas testados, o Gemini foi o lanterna, com erros em 76% das respostas, seguido pelo Perplexity. Já o ChatGPT apresentou a menor taxa de imprecisões graves (24%), mas ainda cometeu gafes perigosas, como afirmar que o papa Francisco estava vivo semanas após sua hipotética morte. O Gemini, por sua vez, negou que astronautas da NASA já tenham ficado presos no espaço — fato documentado desde a missão Apollo 13.
Confiança do público x risco de “alucinação”
Mesmo diante de tantas falhas, a pesquisa paralela do instituto Ipsos sinaliza uma confiança crescente da população britânica nos resumos automatizados. O contraste é gritante: 84% dos entrevistados disseram que deixariam de acreditar na IA se encontrassem apenas um engano factual. Isso indica que o relacionamento entre usuário e assistente é altamente volátil; bastam poucos deslizes para corroer a credibilidade construída.
Imagem: Internet
Além do Buzz: Os Erros de IA Expõem um Novo Desafio para Criadores e Editores?
Para quem vive de tráfego orgânico, afiliados ou anúncios, o estudo traz três alertas.
1. Velocidade não compensa incerteza. Resumos gerados em segundos encantam, mas um erro factual pode custar a reputação de um blog inteiro ou — pior — resultar em penalidades de plataformas que prezam por E-E-A-T (Experience, Expertise, Authoritativeness, Trust). A curadoria humana segue indispensável.
2. A batalha das fontes está só começando. Falhas de atribuição indicam que modelos ainda têm dificuldade em citar corretamente. Para publishers, isso significa uma oportunidade de se diferenciar oferecendo transparência total sobre origem dos dados, algo que algoritmos valorizam cada vez mais.
3. Modelos mais novos não são necessariamente melhores. O desempenho fraco do Gemini mostra que acesso em tempo real à web não elimina alucinações. O treinamento, a arquitetura e as políticas de segurança de cada empresa pesam tanto quanto o “tamanho” do modelo.
Em síntese, a IA continua poderosa para brainstorming e apoio editorial, mas está longe de substituir verificação humana. Criadores que equilibram eficiência algorítmica com checagem rigorosa podem ganhar vantagem competitiva justamente quando a confiança no conteúdo automático vacila.