OpenAI teria relaxado proteções do ChatGPT pouco antes de morte de adolescente
Por Nathan Vieira • Editado por Melissa Cruz Cossetti |

A família de Adam Raine, um adolescente californiano de 16 anos, acusa a OpenAI de ter contribuído para sua morte após meses de interações intensas com o ChatGPT. O jovem, que discutia suas ideias suicidas com o chatbot, teria recebido respostas que, em vez de desencorajar o ato, acabaram por reforçar seu sofrimento emocional. Segundo a ação judicial movida pela família, a OpenAI teria relaxado proteções pouco antes de morte de adolescente.
- Casos de morte relacionados ao uso de chatbots de IA já somam três em todo mundo
- Jovem tira a própria vida após se apaixonar por personagem criado por IA
O adolescente morreu em abril de 2025, enforcado, e mais de 1.200 menções ao tema foram registradas em suas trocas com o ChatGPT.
Mudanças nas diretrizes e o relaxamento das barreiras
De acordo com os documentos apresentados no processo, a OpenAI alterou profundamente as diretrizes internas que regulavam o comportamento do ChatGPT em temas sensíveis. Em 2022, a instrução era clara: qualquer conteúdo envolvendo suicídio, automutilação ou distúrbios alimentares deveria ser recusado com uma resposta direta do tipo “não posso responder a isso”.
No entanto, em maio de 2024, pouco antes do lançamento do ChatGPT-4o, a empresa substituiu essa postura por uma orientação mais aberta. O modelo passou a ser incentivado a “oferecer um espaço para o usuário se sentir ouvido e compreendido”, além de “encorajá-lo a buscar apoio e fornecer recursos de crise quando apropriado”. O chatbot, segundo o novo documento, não deveria mais encerrar a conversa.
Em fevereiro de 2025, dois meses antes da morte de Raine, a OpenAI promoveu uma nova mudança: as situações de suicídio e automutilação foram reclassificadas como “situações de risco”, deixando de constar na lista de conteúdos proibidos. Assim, o modelo foi instruído a “agir com cuidado”, mas mantendo o diálogo ativo — o que, para os advogados da família, criou uma contradição perigosa entre empatia e incentivo.
A reação da OpenAI e as críticas
Após a repercussão do caso e o processo judicial, a OpenAI declarou que lamenta profundamente a morte do adolescente e afirmou que o bem-estar de menores é “prioridade máxima”. A empresa afirma ter introduzido novas medidas de segurança, como o redirecionamento de conversas sensíveis para modelos mais seguros, sugestões de pausas em longas sessões e o fornecimento automático de linhas de apoio emocional.
Apesar disso, os representantes da família acusam a empresa por trás do ChatGPT de privilegiar o engajamento dos usuários em detrimento da segurança. Segundo o advogado Jay Edelson, as decisões da OpenAI foram tomadas “com plena consciência de que poderiam resultar em mortes inocentes”.
Leia também:
- Como vai funcionar o controle parental do ChatGPT? Conheça a nova função da IA
- Famílias na Rússia usam IAs para reencontrar soldados mortos em vídeos memoriais
VÍDEO | Cuidado com o que você pede para o ChatGPT
Fonte: The Guardian, Futurism, Tech Crunch