IA – Ferramentas de busca baseadas em inteligência artificial, como Google, Bing e ChatGPT, podem estar reforçando crenças e reduzindo a exposição dos usuários a diferentes perspectivas.
Um estudo das universidades de Tulane e Chicago, nos Estados Unidos, testou a interação de 9,9 mil pessoas com plataformas que geram respostas automatizadas e constatou um padrão preocupante: em vez de ampliar o repertório de informações, essas ferramentas tendem a aprofundar crenças preexistentes.
LEIA: Imposto de Renda 2025: quem deve declarar agora e quem pode aguardar pré-preenchida
Os resultados foram publicados na revista da Academia Nacional de Ciências dos Estados Unidos (PNAS) nesta segunda-feira (24). O estudo envolveu 21 experimentos que analisaram o comportamento dos usuários ao realizar buscas com IA e como os algoritmos influenciam a revisão (ou não) de crenças.
O efeito da busca enviesada
A pesquisa revelou que a polarização de opiniões em temas diversos, como a pandemia de Covid-19 ou os efeitos da cafeína na saúde, não se deve apenas aos algoritmos das plataformas, mas também à forma como os próprios usuários formulam suas buscas.
Muitos participantes utilizaram termos enviesados, que refletiam suas convicções anteriores. Por exemplo, pessoas que pesquisaram “benefícios da cafeína” receberam respostas que reforçavam esse ponto de vista, enquanto aqueles que buscaram “malefícios da cafeína” encontraram apenas informações negativas sobre a substância.
Desde o lançamento do ChatGPT, em novembro de 2022, a adoção de sistemas de IA em buscadores tem se acelerado. O Bing, da Microsoft, foi o primeiro a integrar um modelo de linguagem em seu mecanismo de busca, seguido pelo Google em 2023. Hoje, o Google exibe respostas geradas por IA no topo da página, e o próprio ChatGPT passou a incluir links nas respostas.
Viés de confirmação e bolhas de informação
Os autores do estudo, Eugina Leung e Oleg Urminsky, alertam para os riscos da chamada “busca estreita”. “À medida que a inteligência artificial evolui e o acesso à informação se torna cada vez mais mediado por algoritmos, torna-se crucial reconhecer e mitigar os efeitos do viés de confirmação”, afirmam os pesquisadores.
Em um dos experimentos, os participantes eram incentivados a buscar informações com termos opostos (como “energia nuclear é boa” e “energia nuclear é ruim”). Os resultados mostraram que aqueles que usaram termos positivos terminaram o estudo com uma visão significativamente mais favorável do que os que usaram termos negativos. O mesmo efeito foi observado em outros temas analisados.
Como mitigar o viés?
Entre as estratégias testadas para reduzir o viés de confirmação, alertar os usuários sobre seus próprios vieses teve efeito limitado. Em contrapartida, modificar os algoritmos para apresentar pontos de vista mais diversos se mostrou mais eficaz.
Os pesquisadores sugerem a ampliação do escopo das respostas geradas por IA para favorecer a revisão de crenças e promover decisões mais bem informadas. Uma das ideias apresentadas é a criação de um botão de “Busca Ampliada”, similar ao “Estou com sorte” do Google. Em um dos experimentos, 84% dos participantes afirmaram que gostariam de ter acesso a esse recurso.
“Ao incorporar diferentes pontos de vista em uma única resposta, os sistemas de IA podem fornecer tanto a informação solicitada quanto perspectivas que o usuário talvez não tivesse considerado — promovendo revisão de crenças sem reduzir a utilidade percebida”, conclui o estudo.
(Com informações de O Globo)
(Foto: Reprodução/Freepik/EyeEm)