Publicidade

Pesquisa afirma: chatbots de IA são bajuladores e dão péssimos conselhos

Por  | 

Compartilhe:
Aerps.com/Unsplash
Aerps.com/Unsplash

Pesquisadores da Universidade de Stanford publicaram, na quinta-feira (26), um estudo na revista científica Science que quantifica um problema já conhecido: a bajulação dos modelos de inteligência artificial (IA). Os principais chatbots de IA validam as ações dos usuários cerca de 49% mais do que humanos fariam nas mesmas situações.

O efeito vai além do conforto imediato. Quem conversa com uma IA bajuladora sai mais convicto de que está certo e menos disposto a resolver conflitos com outras pessoas.

O levantamento testou 11 modelos, entre eles o ChatGPT (OpenAI), o Claude (Anthropic), o Gemini (Google), o DeepSeek e o Llama (Meta). Todos apresentaram algum grau do comportamento descrito pelos pesquisadores como “sycophancy”, termo em inglês que pode ser traduzido como bajulação ou servilismo.

Canaltech
O Canaltech está no WhatsApp!Entre no canal e acompanhe notícias e dicas de tecnologia
Continua após a publicidade

Como o estudo foi feito

A equipe criou três conjuntos distintos de dados para avaliar os modelos. O primeiro reuniu mais de 3 mil perguntas abertas sobre situações pessoais e sociais.

O segundo usou 2 mil postagens da comunidade “r/AmITheAsshole”, do Reddit, um fórum em que usuários descrevem conflitos interpessoais e pedem ao público para julgar se agiram errado. Nos casos selecionados, a comunidade votou que o autor do post estava no caminho errado.

O terceiro conjunto incluiu mais de 6 mil declarações descrevendo ações potencialmente prejudiciais, como desonestidade e condutas ilegais.

Os resultados comprovaram a atitude bajuladora das IAs: nos casos do Reddit, os modelos validaram o usuário em 51% das situações em que os humanos não fizeram isso (a taxa humana foi 0%). Frente a declarações com condutas prejudiciais, a taxa de endosso das IAs chegou a 47%.

Para entender o impacto sobre o comportamento real, os pesquisadores recrutaram 2.405 participantes em três experimentos. Parte deles conversou com chatbots sobre dilemas interpessoais hipotéticos baseados nos posts do Reddit. Outra parte relatou conflitos reais da própria vida e os discutiu com o modelo em tempo real.

O problema de "estar sempre certo"

Continua após a publicidade

Quem interagiu com a IA bajuladora saiu da conversa mais convicto de que estava certo, um aumento de até 62% na percepção de "estar no lado certo", dependendo do experimento. A disposição para pedir desculpas ou tentar consertar o relacionamento caiu entre 10% e 28%.

O dado mais preocupante, segundo os autores, é que os efeitos foram iguais independentemente de o participante saber que estava falando com uma IA.

Mesmo quem declarou desconfiar do sistema foi igualmente afetado pela validação excessiva.

"Os usuários sabem que os modelos se comportam de forma bajuladora", afirmou o professor de linguística e ciência da computação em Stanford e autor sênior do estudo, Dan Jurafsky. "O que eles não percebem é que essa bajulação os está tornando mais egocêntricos e moralmente dogmáticos”.

Continua após a publicidade

A pesquisa aponta ainda uma dinâmica que dificulta a correção do problema: as respostas bajuladoras foram avaliadas como mais confiáveis e de melhor qualidade pelos participantes, que também demonstraram 13% mais intenção de usar o mesmo modelo novamente.

O risco se estende além das relações pessoais. A pesquisa aponta que médicos podem ter diagnósticos iniciais incorretos confirmados pela IA, e que posições políticas extremas podem se consolidar com mais facilidade quando validadas por um sistema percebido como neutro e objetivo.

A autora principal do estudo, Myra Cheng, doutoranda em ciência da computação em Stanford, disse que o comportamento da IA pode enfraquecer habilidades sociais ao longo do tempo. Segundo ela, a IA facilita que as pessoas evitem o atrito com os outros, mas esse atrito, em muitos contextos, é necessário para relações saudáveis.

Continua após a publicidade

O que o usuário pode fazer

O estudo não propõe soluções definitivas, mas os pesquisadores identificaram algumas estratégias que podem reduzir o efeito. Uma delas é começar as perguntas com uma instrução de cautela, como "espere um momento" (ou seja, que não “responsa no impulso”) — o experimento mostrou que esse comando tende a tornar o modelo mais crítico nas respostas seguintes.

Outra recomendação é evitar usar chatbots como substitutos para conversas humanas em situações de conflito ou decisões pessoais importantes. Para questões de saúde mental, buscar apoio profissional segue sendo o caminho mais indicado.

Os autores do estudo defendem que reguladores exijam auditorias comportamentais dos modelos antes de seu lançamento, com métricas específicas para medir o grau de bajulação.