Pesquisa revela que a IA é capaz de causar reviravolta no efeito Dunning-Kruger
Por Nathan Vieira • Editado por Melissa Cruz Cossetti |

Em um artigo publicado na revista Computers in Human Behavior, pesquisadores dissertam que o uso de inteligência artificial pode alterar o famoso efeito Dunning-Kruger, fenômeno psicológico no qual pessoas menos capacitadas tendem a superestimar seu conhecimento, enquanto indivíduos mais habilidosos costumam ser mais críticos e reconhecer melhor suas limitações. Com a IA, esse padrão muda de forma inesperada: todos ficam mais confiantes, mesmo sem avaliar corretamente o próprio desempenho.
- IA pode alucinar de 32 formas — e elas lembram transtornos psiquiátricos humanos
 - Advogado flagrado usando citações falsas geradas por IA é punido na Austrália
 
No estudo, participantes resolveram problemas de raciocínio lógico baseados em testes de admissão em Direito. Parte do grupo contou com o auxílio do ChatGPT; o restante, não. Os resultados mostraram que quem usou IA teve um desempenho superior, o que reforça o potencial dessas ferramentas como apoio cognitivo.
Porém, ao serem convidados a estimar suas próprias notas, os usuários da IA demonstraram uma confiança exagerada, maior do que o resultado real alcançado. Ou seja, a inteligência artificial ajudou a acertar mais, mas também fez muitos acreditarem que sabiam mais do que de fato sabiam.
Quando mais conhecimento em IA significa menos senso crítico
Tradicionalmente, o efeito Dunning-Kruger mostra que pessoas com menos habilidade tendem a se achar melhores do que realmente são, enquanto quem domina um assunto costuma ser mais autocrítico. Com o uso da IA, esse equilíbrio muda.
Pessoas com pouco conhecimento continuam superestimando suas habilidades, como já era esperado. Mas o ponto surpreendente é que usuários com mais familiaridade com IA também passaram a demonstrar confiança exagerada. A diferença é que essa segurança não vinha da compreensão do conteúdo, e sim da confiança cega na ferramenta.
Em vez de usar o conhecimento técnico para checar respostas, grande parte desses usuários simplesmente aceitou o resultado fornecido pela IA. Na prática, quem mais entende de IA acaba delegando o raciocínio para a máquina, acreditando que sempre terá sucesso, e, com isso, perde precisão na hora de avaliar o próprio desempenho.
O estudo revela um paradoxo: a IA pode melhorar o resultado final, mas reduz a consciência sobre o quanto realmente sabemos.
A tentação de desligar o cérebro
Outro dado observado pelos pesquisadores reforça essa tendência. Muitos participantes interagiram com o chatbot apenas uma vez por questão, sem revisar ou questionar a resposta. Esse comportamento reflete uma prática cada vez mais comum: abrir mão do esforço mental e confiar no algoritmo sem checagem.
Esse fenômeno, chamado de “carga cognitiva terceirizada”, indica que, conforme a tecnologia avança, nossa capacidade de refletir, validar informações e monitorar o próprio raciocínio pode ser reduzida se não houver cuidado.
O desafio para o futuro: usar IA sem perder a capacidade de pensar
O estudo sugere que novas interfaces de inteligência artificial deveriam estimular o pensamento crítico, incentivando a reflexão, a conferência de respostas e a construção da habilidade de avaliar nosso próprio conhecimento. Como menciona o estudo, o grande desafio será evitar que ela também nos torne menos conscientes sobre o que realmente sabemos.
Leia também:
- Quem ainda pesquisa no Google aprende melhor do que quem usa IAs como o ChatGPT
 - Uso da IA já é massivo, mas ler notícias não está no comportamento do usuário
 
VÍDEO | Todo mundo ODEIA a Inteligência Artificial
Fonte: Computers in Human Behavior, Futurism