OpenAI | Centenas de milhares no ChatGPT apresentam sinais de crise toda semana
Por João Melo • Editado por Melissa Cruz Cossetti |

A OpenAI divulgou dados sobre interações de usuários com o ChatGPT que tiveram como foco temas relacionados à saúde mental. As informações apresentadas indicam que centenas de milhares de pessoas demonstram sinais de comportamento suicida semanalmente em conversas com a inteligência artificial (IA).
- Jovem tira a própria vida após se apaixonar por personagem criado por IA
- 1º processo por homicídio culposo envolvendo IA acusa OpenAI em caso de suicídio
- Impacto imprevisto da IA na saúde mental é um alerta sobre a ameaça existencial
Os dados foram divulgados em um relatório que aborda as melhorias nas respostas do GPT-5 em conversas voltadas à saúde mental.
Esse tipo de otimização se mostra cada vez mais necessário em um contexto em que cresce o número de pessoas que usam ferramentas de IA para consultas e conversas diárias sobre o tema — inclusive com registros de óbitos associados a essas interações.
Interações indicam ideação suicida e psicose
No comunicado, a companhia destacou que, semanalmente, 0,15% dos usuários ativos da ferramenta de IA têm conversas que incluem “indicadores explícitos de possível planejamento ou intenção suicida”. Além disso, 0,05% das mensagens apresentam menções a intenção ou ideação suicida.
Outro dado apresentado pela empresa indica que 0,07% dos usuários ativos do ChatGPT e 0,01% das mensagens exibem sinais de emergências de saúde mental relacionadas à psicose ou mania.
Sam Altman, CEO da OpenAI, afirmou no início de outubro que o ChatGPT conta com 800 milhões de usuários ativos por semana. Assim, os números apresentados indicam que cerca de 560 mil pessoas que conversam com o chatbot demonstram sinais de emergência relacionados à psicose, enquanto interações de aproximadamente 1,2 milhão de usuários apontam planejamento ou intenção suicida.
Apego emocional ao chatbot
A OpenAI também revelou dados relacionados à quantidade de pessoas que, em uma semana, apresentaram comportamentos de apego emocional ao chatbot.
“Embora essas conversas sejam difíceis de detectar e mensurar devido à sua raridade, nossa análise inicial estima que cerca de 0,15% dos usuários ativos em uma determinada semana (cerca de 1,2 milhão de pessoas) e 0,03% das mensagens indicam níveis potencialmente elevados de apego emocional ao ChatGPT”, informou a empresa.
Otimização das respostas do GPT-5
Segundo a OpenAI, foram realizadas atualizações para otimizar a forma como o modelo mais recente do ChatGPT — o GPT-5 — aborda situações relacionadas à saúde mental.
“Atualizamos a especificação do modelo para tornar alguns de nossos objetivos de longa data mais explícitos: o modelo deve apoiar e respeitar os relacionamentos reais dos usuários, evitar afirmar crenças infundadas que possam se relacionar com sofrimento mental ou emocional, responder com segurança e empatia a possíveis sinais de delírio ou mania e prestar mais atenção a sinais indiretos de risco potencial de automutilação ou suicídio”, destacou a companhia.
Para isso, a empresa afirma ter criado um grupo com cerca de 300 médicos e psicólogos para fomentar pesquisas voltadas às melhorias. Desses profissionais, 170 participaram de etapas como:
- Criação de respostas ideais para perguntas relacionadas à saúde mental;
- Análises personalizadas das respostas dos modelos;
- Avaliação da segurança das respostas da IA;
- Orientação e feedback sobre a abordagem da OpenAI nas atualizações.
“Estimamos que o modelo agora retorne respostas que não atendem totalmente ao comportamento desejado em nossas taxonomias (guias detalhados) com uma frequência de 65% a 80% menor em diversos domínios relacionados à saúde mental”, destacou a empresa.
A OpenAI pontuou ainda que avaliações finais dos especialistas constataram reduções de 39% a 52% nas respostas indesejadas da ferramenta.
A iniciativa de otimizar as respostas do chatbot diante de tópicos sensíveis — assim como a de revelar dados sobre essas conversas — representa um passo importante para tornar as ferramentas de IA um espaço mais seguro e controlado para os usuários.
Leia mais:
- IA pode alucinar de 32 formas — e elas lembram transtornos psiquiátricos humanos
- OpenAI teria relaxado proteções do ChatGPT pouco antes de morte de adolescente
-
Como vai funcionar o controle parental do ChatGPT? Conheça a nova função da IA
VÍDEO | TODO MUNDO ODEIA A INTELIGÊNCIA ARTIFICIAL
Fonte: OpenAI; Tech Crunch