Orbital

A inteligência artificial generativa transformou a forma como acessamos informações. Assim, assistentes como ChatGPT, Gemini, Copilot e Perplexity tornaram-se ferramentas cotidianas para milhões de pessoas, oferecendo respostas rápidas e aparentemente confiáveis para praticamente qualquer pergunta. No entanto, um estudo internacional acaba de revelar que essas ferramentas distorcem sistematicamente o conteúdo que processam. Para empresas que utilizam IA em suas operações, comunicação ou análise de dados, entender essas limitações é essencial para preservar a credibilidade e tomar decisões assertivas.

 

O maior estudo sobre distorção de IA em notícias

Coordenado pela União Europeia de Radiodifusão (EBU) e liderado pela BBC, o estudo envolveu 22 organizações de mídia pública de 18 países, trabalhando em 14 idiomas diferentes. Jornalistas profissionais avaliaram mais de 3 mil respostas geradas pelos quatro principais assistentes de IA do mercado.

Os resultados impressionam: 45% de todas as respostas apresentavam pelo menos um problema significativo. Mais especificamente, 31% continham falhas graves de atribuição de fontes e 20% exibiam erros factuais relevantes. O desempenho do Gemini foi particularmente preocupante, com problemas significativos em 76% das respostas, mais que o dobro dos demais assistentes.

Estudo revela como assistentes de IA distorcem informações e impactam empresas

Assistentes de IA preferem fornecer uma resposta rápida à uma resposta confiável

Por que isso acontece?

Vale lembrar que assistentes de IA não “entendem” conteúdo no sentido humano. Eles processam padrões estatísticos em volumes massivos de texto e geram respostas que parecem coerentes, mas que podem conter:

  • Erros de atribuição: citar fontes incorretas ou inexistentes, misturar informações de diferentes contextos, ou apresentar dados sem referências verificáveis.
  • Imprecisões factuais: incluir informações desatualizadas, detalhes inventados (as famosas “alucinações” de IA) ou interpretações equivocadas de dados verdadeiros.
  • Confusão entre fato e opinião: apresentar análises subjetivas como se fossem fatos objetivos, ou estruturá-las de forma inadequada.
  • Falta de contextualização: omitir informações cruciais que mudam completamente o significado de um dado ou estatística.

Esses problemas não ocorrem porque a IA é “burra” ou mal-intencionada, mas porque ela opera fundamentalmente diferente da cognição humana. Ela não verifica fontes, não avalia credibilidade e não distingue contextos com a mesma sofisticação que um especialista humano.

 

O paradoxo da confiança

Um dos achados mais preocupantes do estudo está na percepção que as pessoas têm sobre essas ferramentas. Mais de um terço dos adultos no Reino Unido confia que assistentes de IA produzem resumos precisos (e esse número sobe para 50% entre menores de 35 anos).

Essa confiança é especialmente perigosa porque é passiva: muitas pessoas assumem que, por ser uma máquina, a IA é menos propensa a erros ou vieses. Respostas bem escritas e formatadas com aparência profissional são aceitas sem questionamento.

Segundo o Relatório de Notícias Digitais de 2025 do Instituto Reuters, 7% dos consumidores de notícias online já usam chatbots de IA para se informar; número que salta para 15% entre menores de 25 anos. À medida que assistentes de IA gradualmente substituem buscadores tradicionais, essa dependência deve crescer exponencialmente.

 

Quem leva a culpa?

Outro aspecto crítico revelado pela pesquisa é a distribuição de responsabilidade percebida. Quando um erro aparece em um resumo de IA:

  • 36% das pessoas responsabilizam os provedores de IA
  • 31% acreditam que governos e reguladores deveriam fiscalizar
  • 23% responsabilizam as fontes originais de notícias, mesmo quando o erro foi introduzido pela IA

Mais de um terço (35%) dos adultos britânicos instintivamente concordam que a fonte de notícias original deveria ser responsabilizada por erros em conteúdo gerado por IA que cite essa fonte. Isso significa que, para empresas, ter seu nome associado a informações distorcidas por IA pode prejudicar sua reputação, mesmo quando o erro não foi seu.

 

AI Slop: o lixo digital

Esse fenômeno de conteúdo impreciso, mal atribuído e superficial gerado por IA ganhou um nome na indústria: AI slop (algo como “lixo de IA”). Refere-se à proliferação massiva de conteúdo gerado automaticamente que parece profissional na superfície, mas carece de rigor, precisão e contextualização adequada.

Enquanto a internet é inundada por esse tipo de conteúdo, a distinção entre informação confiável e AI slop torna-se cada vez mais difícil. Buscadores retornam resultados repletos de artigos gerados por IA sem verificação, assistentes citam essas fontes questionáveis, e o ciclo vicioso se perpetua.

 

Como proteger sua empresa

Diante desse cenário, algumas práticas tornam-se essenciais:

1. Nunca confie cegamente em assistentes de IA

Use-os como ponto de partida para pesquisa, sempre verificando informações críticas em fontes primárias confiáveis.

2. Monitore como sua empresa é citada

Acompanhe regularmente como assistentes de IA representam sua marca, produtos ou comunicados. Identifique distorções e, quando possível, corrija-as nas fontes originais.

3. Seja transparente sobre uso de IA

Se sua empresa utiliza IA para gerar conteúdo ou análises, seja explícito sobre isso. Ser transparente constrói confiança e protege sua reputação caso surjam imprecisões.

4. Invista em fontes de dados confiáveis

Priorize bases de dados estruturadas, APIs oficiais e fontes verificadas em vez de depender exclusivamente de resumos gerados por IA.

6. Eduque suas equipes

Garanta que todos entendam as limitações de assistentes de IA e saibam identificar possíveis distorções, especialmente equipes de comunicação, pesquisa e atendimento.

 

Tecnologia com responsabilidade

Assistentes de IA são ferramentas que vieram para ficar, com suas capacidades de processar informações rapidamente e oferecer respostas acessíveis. No entanto, precisão e velocidade não são sinônimos.

Para empresas, o caminho é mas utilizá-las com consciência crítica, implementando processos e garantindo que a informação distorcida não comprometa decisões, comunicação ou reputação; já que em um mundo saturado de AI slop, o rigor informacional torna-se uma vantagem competitiva. Empresas que investem em verificação e qualidade destacam-se pela confiança que constroem com clientes, parceiros e stakeholders.

Precisa implementar processos de verificação de dados ou desenvolver soluções de IA mais confiáveis para seu negócio? A Orbital  combina expertise em engenharia de dados, machine learning e análise crítica para criar sistemas inteligentes e eficazes. Fale com a gente!


Posts Relacionados

Se gostou desse post
leia esses também...