5 situações em que você não deveria pedir conselho a uma IA
Por André Lourenti Magalhães • Editado por Jones Oliveira |

As IAs conseguem fazer muita coisa pelos humanos, como resolver tarefas de trabalho, resumir textos, programar, e por aí vai. Por outro lado, existe um risco ao pedir conselhos para estes chatbots sobre conflitos pessoais e outras situações muito subjetivas.
- 'Detox de IA': entenda por que pessoas estão se afastando da tecnologia
- Privacidade nas IAs: quem tem acesso ao seu histórico de conversas?
Um dos riscos é a chamada “sycophancy” (“bajulação”, em tradução livre): quando a IA decide defender e elogiar o usuário a qualquer custo, mesmo que a pessoa esteja errada ou não tenha fornecido contexto suficiente.
Um estudo da universidade de Stanford, nos EUA, publicado em março de 2026, revelou que os assistentes tendem a defender mais as ações de um usuário do que outro humano faria, por exemplo, o que pode criar uma “barreira” para os indivíduos resolverem problemas pessoalmente.
5 casos em que você não deve pedir conselho a uma IA
A seguir, confira algumas situações em que não é ideal confiar apenas na decisão de uma inteligência artificial:
- Discussões de relacionamento
- Conflitos no ambiente de trabalho
- Dilemas morais
- Saúde emocional ou crise pessoal
- Situações de culpa
1. Discussões de relacionamento
A IA não vai ajudar a resolver uma “DR”. Além de reforçar a versão que o próprio usuário conta, a ferramenta só tem acesso ao que foi comentado nos prompts e responde sem saber o contexto completo.
Esse tipo de situação precisa ser resolvido diretamente entre as partes envolvidas, então contar com uma ferramenta pode criar um certo viés ao invés de reforçar outros comportamentos.
2. Conflitos no ambiente de trabalho
Atritos e outros conflitos em ambientes de trabalho também precisam de um desfecho entre as pessoas envolvidas. Consultar um chatbot pode reforçar o ponto apenas de um dos lados, sem considerar toda a situação.
Para o gerente de relações corporativas da plataforma de educação Alun Business, Gustavo Torrente, isso é um reflexo da forma em que as IAs são criadas.
“IA é projetada para prever, não para compreender. Quando nos referimos à IA generativa, como a de modelos de linguagem, ela opera como um jogo de previsão: busca prever a palavra ou frase mais provável com base em padrões, mas não possui consciência ou entendimento genuíno da situação. Não distingue entre verdade e falsidade, só realiza cálculos”, explica.
3. Dilemas morais
O mesmo problema de bajulação é aplicado para dilemas morais. O estudo da Universidade de Stanford mencionado anteriormente comparou as respostas de IAs com respostas de usuários na plataforma Reddit para diversos dilemas, incluindo situações problemáticas.
Nesses casos, a frequência em que a IA apoia o usuário foi 49% mais comum do que o feedback positivo dos humanos, o que indica uma tendência de sempre endossar as ações de quem fez o prompt.
4. Saúde emocional ou crise pessoal
A IA não é psicóloga, então não é recomendável relatar problemas de saúde mental com as ferramentas. O ideal é procurar profissionais da área de saúde mental, como psicólogos e psiquiatras, para receber o devido aconselhamento.
Alguns chatbots, inclusive, possuem mecanismos de segurança para incentivar o contato com profissionais após receberem prompts do tipo.
5. Situações de culpa
Ao consultar um chatbot sobre uma situação de culpa, uma resposta mais amenizadora pode deixar a pessoa menos disposta a resolver o incidente de fato. Além disso, a própria criação do prompt pode ser direcionada a aliviar um pouco o “peso” da decisão.
Quando falar com uma IA?
A inteligência artificial tem outras aplicações muito úteis no dia a dia, mas não vai servir como “juíza” para decidir quem está certo ou de quem é a responsabilidade. A melhor experiência com a tecnologia surge ao usá-la para organizar pensamentos e receber informações mais diretas.
Traduções, resumos, programação e hierarquia de informações são alguns exemplos em que é possível tirar proveito dos chatbots.
“A IA é fundamentada em probabilidade e não em diagnóstico. Ela não possui responsabilidade ética e não demonstra compreensão. O risco reside em sua capacidade de soar extremamente confiante, mesmo quando não é, o que pode gerar distorções”, completa Gustavo Torrente.
Fonte: Universidade de Stanford