Quem ainda pesquisa no Google aprende melhor do que quem usa IAs como o ChatGPT
Por João Melo • Editado por Melissa Cruz Cossetti |

A popularização da inteligência artificial (IA) vem provocando mudanças no comportamento das buscas por diversos assuntos na internet. O que antes era quase exclusivo de ferramentas de pesquisa como o Google, agora também é feito em plataformas de IA, como o ChatGPT.
- Mecanismos de busca com IA citam sites que não aparecem no top 100 do Google
 - Meta quer mais em inteligência artificial nos feeds — do conteúdo à recomendação
 - É VERDADE que as imagens geradas por IA têm marca d’água oculta que você não vê
 
Um estudo publicado em 28 de outubro no periódico científico PNAS Nexus (academic.oup.com), conduzido por pesquisadores da Wharton School, da Universidade da Pensilvânia (EUA), em parceria com especialistas da Universidade do Novo México, indica que buscas realizadas por modelos de linguagem de grande porte (LLMs) tendem a gerar resultados mais superficiais.
Enquanto isso, a pesquisa desenvolvida revelou que quem busca informações no Google tem acesso a conteúdos mais profundos, favorecendo maior qualidade no conhecimento.
“Embora os LLMs proporcionem ganhos óbvios de eficiência para os usuários, propomos que essa maior facilidade pode ter um custo: a redução da profundidade do conhecimento e da originalidade do pensamento obtido a partir da pesquisa em determinados contextos”, escreveram os pesquisadores no estudo.
Método da pesquisa
Shiri Melumad, da Wharton School, e Jin Ho Yun, da Universidade do Novo México, conduziram sete experimentos com mais de 10 mil participantes online, focados em diversos tópicos.
Os voluntários realizaram pesquisas sobre tarefas variadas, incluindo como plantar uma horta, adotar um estilo de vida saudável ou lidar com golpes financeiros. As buscas foram feitas por grupos que usaram modelos de IA ou a tradicional barra de pesquisa do Google.
Os experimentos avaliaram tempo de pesquisa, esforço e absorção de informações, além de pedir que os participantes escrevessem conselhos baseados no que aprenderam.
Em todas as abordagens, a mesma tendência se repetiu: apesar de buscas mais rápidas e menor tempo de interação com os resultados entre os usuários de IA, eles relataram ter desenvolvido conhecimento mais superficial em comparação com quem usou links da web.
Além disso, os participantes que recorreram à IA produziram conteúdos mais curtos, com menos referências e mais semelhantes aos conselhos de outros participantes — indicando menor originalidade nos resultados.
Experimento com avaliadores independentes
No último experimento, 1.501 avaliadores independentes analisaram os conselhos sobre como levar um estilo de vida mais saudável, sem saber quais se baseavam na Visão Geral de IA do Google e quais em buscas tradicionais.
“Os resultados confirmaram que os receptores — que desconheciam a plataforma de origem — consideraram os conselhos escritos por participantes que aprenderam com a Visão Geral de IA do Google (em comparação com links da web) menos úteis, menos informativos e acreditaram que menos esforço havia sido empregado na elaboração dos conselhos”, destacaram Melumad e Yun.
Os avaliadores também classificaram os conteúdos gerados pelo resumo de IA como menos confiáveis e menos recomendáveis para outras pessoas.
Os pesquisadores enfatizam que os resultados não indicam que se deve abandonar buscas em ferramentas de IA, mas que este modelo de pesquisa deve ser adotado com cautela, pois pode reduzir a profundidade do conhecimento adquirido.
Leia mais:
- Meta, Google e Microsoft triplicam aposta em IA — lucram, mas gastos são recorde
 - Wikipédia alfineta Grokipedia em campanha de arrecadação: "Criada por pessoas"
 - Character.AI proibe crianças e menores de 18 anos de usar seus chatbots de IA
 
VÍDEO | IA do Google contrata próprio advogado
Fonte: EurekAlert!; PNAS Nexus