ChatGPT, Gemini e Claude respondem a perguntas de alto risco à sua saúde mental
Por Nathan Vieira • Editado por Melissa Cruz Cossetti |

Um estudo publicado no último dia 26 na revista Psychiatric Services analisou como ChatGPT (OpenAI), Gemini (Google) e Claude (Anthropic), três dos principais chatbots de inteligência artificial, reagem a perguntas relacionadas ao suicídio. A pesquisa teve como objetivo entender se essas ferramentas oferecem respostas seguras ou se acabam fornecendo informações que podem aumentar riscos à saúde mental, como incentivar automutilação e outros danos físicos.
- Impacto imprevisto da IA na saúde mental é um alerta sobre a ameaça existencial
- IA pode alucinar de 32 formas — e elas lembram transtornos psiquiátricos humanos
De acordo com os autores, os chatbots foram submetidos a 30 perguntas hipotéticas, classificadas em cinco níveis de risco: muito baixo, baixo, médio, alto e muito alto. Especialistas em saúde mental participaram da avaliação para garantir que a categorização fosse feita de acordo com critérios clínicos confiáveis.
Os resultados mostram que, quando o risco era considerado extremo (muito baixo ou muito alto), as três IAs apresentaram um comportamento mais previsível: ou recusavam responder diretamente ou ofereciam orientações seguras. Porém, nas situações intermediárias, especialmente nas perguntas de risco médio e alto, a distinção entre respostas seguras e perigosas foi menos clara.
O destaque ficou para o ChatGPT, que respondeu diretamente a 78% das perguntas de alto risco. Já Claude respondeu em 69% dos casos e Gemini em apenas 20%. Esse dado chamou a atenção porque indica que, mesmo com filtros de segurança, ainda existe a possibilidade de usuários receberem informações sensíveis de forma direta.
Por que isso é preocupante?
Os especialistas apontam que o problema não está apenas no conteúdo em si, mas na natureza dinâmica das conversas com chatbots. Diferente de um buscador tradicional, em que a interação é pontual, os assistentes virtuais mantêm diálogos que podem criar vínculos emocionais com os usuários.
Esse aspecto aumenta a chance de pessoas em sofrimento recorrerem a essas ferramentas como forma de apoio, o que pode ser perigoso caso as respostas não sejam cuidadosamente mediadas, algo que preocupa o Conselho de Psicologia, inclusive.
Vale lembrar que os modelos de IA podem variar suas respostas de acordo com a formulação da pergunta. Isso significa que duas pessoas podem obter resultados completamente diferentes, mesmo diante de um mesmo cenário de risco. Para pesquisadores, essa imprevisibilidade reforça a necessidade de padrões de segurança mais claros.
O grupo responsável pelo estudo pretende avançar agora para simulações de conversas mais complexas, imitando diálogos reais em que uma pessoa pode insistir ou reformular suas dúvidas. A ideia é criar padrões que ajudem empresas de tecnologia e órgãos independentes a avaliar se os chatbots como ChatGPT, Claude e Gemini estão preparados para lidar com situações delicadas envolvendo saúde mental.
Leia também:
- Tecnoespiritualidade | IA é treinada por influenciadores para ser como um guia
- A Inteligência Artificial já pode indicar como os animais estão se sentindo
VÍDEO | A IA vai SUBSTITUIR os MÉDICOS?
Fonte: Live Science