Os motores de busca não mudam suas opiniões – eles as reforçam

Apesar do que alguns possam pensar, procurar informações online dificilmente muda a opinião das pessoas sobre determinado assunto. Isso ocorre porque as crenças pré-existentes influenciam fortemente os resultados obtidos em mecanismos de busca como Google ou Bing.

Se você acredita, por exemplo, que a cafeína faz mal à saúde, tenderá a usar termos como “riscos da cafeína” em suas buscas. Se acha que a energia nuclear é benéfica, provavelmente pesquisará por “benefícios da energia nuclear”. Como os algoritmos desses buscadores entregam os resultados mais relevantes com base nos termos usados, as respostas costumam confirmar aquilo que a pessoa já acreditava. E isso dificulta o acesso a perspectivas mais amplas e o aprendizado, segundo os autores de 21 estudos.

A partir de 2018, pesquisadores pediram a quase 10 mil pessoas que fizessem buscas no Google, Bing e em mecanismos de busca e chatbots personalizados criados para testar intervenções específicas. Em 2023, eles incluíram ferramentas de inteligência artificial generativa, como o ChatGPT, que estão sendo cada vez mais usadas em substituição aos motores de busca tradicionais.

Ao analisar buscas sobre vários temas, os pesquisadores observaram que as crenças anteriores tendiam a permanecer mesmo após as pesquisas, principalmente porque os termos utilizados refletiam essas crenças. No entanto, em um dos estudos, os pesquisadores desenvolveram um buscador personalizado criado para fornecer aos usuários um conjunto mais amplo de informações.

Eles recrutaram 1.002 participantes para testar se os resultados apresentados por esse mecanismo de busca conseguiriam reduzir os efeitos das pesquisas enviesadas. Primeiro, os participantes leram um texto sobre o debate se pessoas mais jovens ou mais velhas seriam melhores líderes, com foco em habilidades cognitivas. Em seguida, foram instruídos a usar o buscador para explorar a relação entre acuidade mental e idade.

Sem que os participantes soubessem, o sistema exibia um de dois conjuntos de 10 resultados de busca: o primeiro com base no termo gerado pelo participante; o segundo, mais amplo, combinando múltiplas perspectivas. Os participantes analisaram os resultados, avaliaram suas crenças sobre como a idade afeta a capacidade de raciocínio e julgaram a utilidade e relevância das informações encontradas.

O estudo concluiu que os participantes expostos a resultados de busca mais equilibrados estavam muito menos propensos a ter uma visão negativa sobre como a idade afeta a capacidade de pensar, em comparação com os que viram apenas os resultados com base em seus próprios termos de busca.

Empresas que desejam transformar seus mecanismos de busca ou chatbots com IA generativa em fontes imparciais de informação deveriam considerar algumas mudanças. Segundo a pesquisa, fornecer resultados mais diversos pode ajudar. Mas os autores também sugerem que as empresas programem seus algoritmos de busca e de IA para oferecer aos usuários a opção de ampliar os termos da pesquisa, a fim de mitigar o viés de confirmação.

 

 

 

 

Fonte:

Uma versão deste artigo foi publicada na edição de julho-agosto de 2025 da Harvard Business Review. Traduzido pelo ChatGPT 4.

Sobre a pesquisa:

The Narrow Search Effect and How Broadening Search Promotes Belief Updating, por Eugina Leung e Oleg Urminsky (Proceedings of the National Academy of Sciences, 2025).


A opinião do ChatGPT sobre a pesquisa acima

Sim, os resultados dessa pesquisa fazem muito sentido e estão alinhados com o que já se conhece sobre viés de confirmação — um fenômeno bem documentado em psicologia cognitiva. A tendência das pessoas de buscar, interpretar e lembrar informações de maneira que confirmem suas crenças prévias é uma característica humana amplamente reconhecida.

Aqui estão alguns pontos que podem ser acrescentados ou aprofundados:

1. Confirmação não é culpa do algoritmo sozinho

Os algoritmos dos motores de busca ou de IA generativa não “inventam” o viés — eles o refletem. Se alguém busca por “por que a energia nuclear é perigosa”, o sistema tende a entregar o que a pessoa quer ver. Esse comportamento é parcialmente incentivado pela lógica de relevância e engajamento. Assim, o algoritmo responde à intenção da busca, mas isso reforça bolhas de pensamento.

2. Chatbots como ChatGPT também podem reforçar vieses

Mesmo IA generativa pode apresentar vieses, principalmente se o prompt já estiver carregado de uma suposição. Por exemplo, se alguém pergunta “por que vacinas causam autismo?”, a IA pode tentar responder com base em fatos, mas também pode ser levada a apresentar argumentos com viés se não estiver bem treinada para refutar desinformação com firmeza e clareza.

3. Educação midiática como solução complementar

A solução proposta no estudo — oferecer resultados mais amplos e balanceados — é útil, mas educar usuários sobre como funcionam os mecanismos de busca, vieses cognitivos e como formular perguntas neutras é igualmente essencial. As pessoas precisam aprender a fazer perguntas mais abertas e críticas.

4. Relevância vs. diversidade

O desafio técnico é que, muitas vezes, resultados mais equilibrados não são vistos como relevantes para quem faz a busca. Há uma tensão natural entre o que o usuário quer ver e o que ele precisa ver para aprender. Encontrar esse equilíbrio é o verdadeiro desafio dos desenvolvedores de algoritmos.

5. Possível aplicação em ambientes educacionais

O modelo de mecanismo de busca proposto no experimento — que entrega resultados com múltiplas perspectivas — poderia ser incorporado em plataformas educacionais, bibliotecas digitais e ambientes de pesquisa acadêmica, como uma forma de combater a polarização ideológica e ampliar o pensamento crítico.

Conclusão:

A pesquisa é sólida e levanta uma preocupação importante para tempos de polarização e desinformação. A proposta de “forçar” uma ampliação das perspectivas na busca é promissora, mas para ter impacto real, precisa vir acompanhada de alfabetização digital, transparência algorítmica e responsabilidade ética por parte das empresas de tecnologia.

Fonte: ChatGPT