Publicidade

ChatGPT, Gemini e Claude respondem a perguntas de alto risco à sua saúde mental

Por  • Editado por Melissa Cruz Cossetti | 

Compartilhe:
Unsplash
Unsplash

Um estudo publicado no último dia 26 na revista Psychiatric Services analisou como ChatGPT (OpenAI), Gemini (Google) e Claude (Anthropic), três dos principais chatbots de inteligência artificial, reagem a perguntas relacionadas ao suicídio. A pesquisa teve como objetivo entender se essas ferramentas oferecem respostas seguras ou se acabam fornecendo informações que podem aumentar riscos à saúde mental, como incentivar automutilação e outros danos físicos.

De acordo com os autores, os chatbots foram submetidos a 30 perguntas hipotéticas, classificadas em cinco níveis de risco: muito baixo, baixo, médio, alto e muito alto. Especialistas em saúde mental participaram da avaliação para garantir que a categorização fosse feita de acordo com critérios clínicos confiáveis.

Os resultados mostram que, quando o risco era considerado extremo (muito baixo ou muito alto), as três IAs apresentaram um comportamento mais previsível: ou recusavam responder diretamente ou ofereciam orientações seguras. Porém, nas situações intermediárias, especialmente nas perguntas de risco médio e alto, a distinção entre respostas seguras e perigosas foi menos clara.

Canaltech
O Canaltech está no WhatsApp!Entre no canal e acompanhe notícias e dicas de tecnologia
Continua após a publicidade

O destaque ficou para o ChatGPT, que respondeu diretamente a 78% das perguntas de alto risco. Já Claude respondeu em 69% dos casos e Gemini em apenas 20%. Esse dado chamou a atenção porque indica que, mesmo com filtros de segurança, ainda existe a possibilidade de usuários receberem informações sensíveis de forma direta.

Por que isso é preocupante?

Os especialistas apontam que o problema não está apenas no conteúdo em si, mas na natureza dinâmica das conversas com chatbots. Diferente de um buscador tradicional, em que a interação é pontual, os assistentes virtuais mantêm diálogos que podem criar vínculos emocionais com os usuários.

Esse aspecto aumenta a chance de pessoas em sofrimento recorrerem a essas ferramentas como forma de apoio, o que pode ser perigoso caso as respostas não sejam cuidadosamente mediadas, algo que preocupa o Conselho de Psicologia, inclusive.

Vale lembrar que os modelos de IA podem variar suas respostas de acordo com a formulação da pergunta. Isso significa que duas pessoas podem obter resultados completamente diferentes, mesmo diante de um mesmo cenário de risco. Para pesquisadores, essa imprevisibilidade reforça a necessidade de padrões de segurança mais claros.

O grupo responsável pelo estudo pretende avançar agora para simulações de conversas mais complexas, imitando diálogos reais em que uma pessoa pode insistir ou reformular suas dúvidas. A ideia é criar padrões que ajudem empresas de tecnologia e órgãos independentes a avaliar se os chatbots como ChatGPT, Claude e Gemini estão preparados para lidar com situações delicadas envolvendo saúde mental.

Leia também:

Continua após a publicidade

VÍDEO | A IA vai SUBSTITUIR os MÉDICOS?

Fonte: Live Science