Ferramentas de inteligência artificial prometem transformar a forma como acessamos, produzimos e distribuímos informação. Mas, na prática, elas ainda tropeçam em aspectos fundamentais do jornalismo: precisão, transparência e respeito às fontes.
Uma análise recente do Tow Center for Digital Journalism, da Universidade de Columbia, divulgada pela Columbia Journalism Review, jogou luz sobre as limitações das plataformas de busca generativa baseadas em IA. O estudo avaliou como esses sistemas se saem ao recuperar conteúdos jornalísticos — especialmente no que diz respeito à identificação de autores, títulos e links originais.
A Rede de Jornalistas Pretos traduziu e compilou os dados do relatório, revelando um panorama preocupante: mais de 60% das respostas apresentadas pelas ferramentas estavam incorretas.
Os principais erros
Os principais resultados apontam que as ferramentas frequentemente falharam, com mais de 60% das respostas apresentadas incorretamente. As ferramentas de busca em versão premium, apresentaram uma taxa maior de erros em comparação com as versões gratuitas, mas com um nível mais alto de confiança parcial — dados não totalmente incorretos do início ao fim — em suas respostas. Duas das plataformas de pesquisa, focos do estudo, que mais demonstraram esta disparidade foram o Perplexity e o Grok 3.
Enquanto o Grok 3 apresentou uma taxa de direcionamento de artigos em erro de 94%, o Perplexity teve 37%. Um exemplo de falha significativa ocorreu quando o Perplexity conseguiu identificar corretamente 30% das consultas de artigos de um site bloqueado.Outro problema, incluso nestes sites, foi justamente a incapacidade das plataformas em respeitar os bloqueios de acesso aos crawlers — mecanismos que impedem que ferramentas automatizadas de acessarem o conteúdo de um site para coletas, sejam mais novos exclusivos para assinantes, mais antigos ou por vezes com informações desatualizadas.
O ChatGPT e Perplexity Pro conseguiram acessar artigos de sites que tinham o bloqueio, gerando respostas imprecisas. O Grok 3 e Gemini também enfrentaram problemas de links quebrados ou até falsificados, com média de 154 links errados ou indisponíveis entre 200 consultados. A pesquisa também revelou que, em várias ocasiões, as plataformas citavam não necessariamente às vezes fontes incorretas, mas versões de artigos republicadas, que não creditavam corretamente os editores originais.
Quando a autoria desaparece
Outro ponto crítico é a fragilidade na atribuição de créditos. Em muitos casos, as plataformas citam versões republicadas de textos jornalísticos sem identificar os autores originais, gerando uma cadeia de desinformação que apaga o trabalho de repórteres e veículos responsáveis.
Links quebrados, citações falsas e fontes genéricas substituem o que deveria ser a espinha dorsal da informação: a rastreabilidade e o reconhecimento. Segundo a pesquisa, entre 200 links analisados, 154 estavam indisponíveis, quebrados ou redirecionavam para páginas irrelevantes.
Os 3 pontos sensíveis para melhorias em desenvolvimento
Essas falhas todas podem ser atribuídas a três principais fatores, nos quais as empresas de pesquisa de IA deverão se atentar futuramente e já estão se aprimorando para melhor funcionamento.
• Falha na recuperação e temporalidade de fontes – As plataformas de pesquisa de IA frequentemente falham em obter informações precisas e atualizadas, comprometendo a relevância das fontes e até a funcionalidade dos links, que podem estar quebrados ou desatualizados.
•Imprecisão no crédito devido da autoria das informações coletadas: Muitas automações não conseguem identificar corretamente a autoria das fontes originais, especialmente em dados, resultando em reconhecimento inadequado de institutos ou agências responsáveis pela pesquisa.
•Desrespeito a bloqueios automatizados ou pouca filtragem a informações sensíveis: Algumas plataformas ignoram bloqueios de acesso a conteúdos exclusivos e falham em filtrar informações sensíveis, como dados relacionados a direitos ao esquecimento, desinformação e publicações proibidas judicialmente.
O que está em jogo
O avanço das tecnologias de IA não é, por si só, o problema. O que está em jogo é a forma como essas ferramentas são desenhadas, treinadas e aplicadas, sobretudo em um cenário de hiperconcentração midiática e desinformação crescente.
Nas redações, jornalistas convivem com a urgência por precisão e a pressão do tempo real. Nas plataformas, a promessa de agilidade não pode ser construída sobre o sacrifício da objetividade, da ética e da credibilidade. Esses princípios, tão caros ao jornalismo, precisam ser traduzidos em código, em arquitetura de dados, em design de sistemas.
A boa notícia: o aprimoramento já está em curso. Mas ele precisa ser impulsionado por uma visão mais ampla — que reconheça o jornalismo como infraestrutura crítica e a informação como bem público. O futuro da IA não será apenas tecnológico. Ele será também editorial, político e profundamente humano.