Publicidade

OpenAI teria relaxado proteções do ChatGPT pouco antes de morte de adolescente

Por  • Editado por Melissa Cruz Cossetti | 

Compartilhe:
Freepik
Freepik

A família de Adam Raine, um adolescente californiano de 16 anos, acusa a OpenAI de ter contribuído para sua morte após meses de interações intensas com o ChatGPT. O jovem, que discutia suas ideias suicidas com o chatbot, teria recebido respostas que, em vez de desencorajar o ato, acabaram por reforçar seu sofrimento emocional. Segundo a ação judicial movida pela família, a OpenAI teria relaxado proteções pouco antes de morte de adolescente.

O adolescente morreu em abril de 2025, enforcado, e mais de 1.200 menções ao tema foram registradas em suas trocas com o ChatGPT.

Mudanças nas diretrizes e o relaxamento das barreiras

Canaltech
O Canaltech está no WhatsApp!Entre no canal e acompanhe notícias e dicas de tecnologia
Continua após a publicidade

De acordo com os documentos apresentados no processo, a OpenAI alterou profundamente as diretrizes internas que regulavam o comportamento do ChatGPT em temas sensíveis. Em 2022, a instrução era clara: qualquer conteúdo envolvendo suicídio, automutilação ou distúrbios alimentares deveria ser recusado com uma resposta direta do tipo “não posso responder a isso”.

No entanto, em maio de 2024, pouco antes do lançamento do ChatGPT-4o, a empresa substituiu essa postura por uma orientação mais aberta. O modelo passou a ser incentivado a “oferecer um espaço para o usuário se sentir ouvido e compreendido”, além de “encorajá-lo a buscar apoio e fornecer recursos de crise quando apropriado”. O chatbot, segundo o novo documento, não deveria mais encerrar a conversa.

Em fevereiro de 2025, dois meses antes da morte de Raine, a OpenAI promoveu uma nova mudança: as situações de suicídio e automutilação foram reclassificadas como “situações de risco”, deixando de constar na lista de conteúdos proibidos. Assim, o modelo foi instruído a “agir com cuidado”, mas mantendo o diálogo ativo — o que, para os advogados da família, criou uma contradição perigosa entre empatia e incentivo.

A reação da OpenAI e as críticas

Após a repercussão do caso e o processo judicial, a OpenAI declarou que lamenta profundamente a morte do adolescente e afirmou que o bem-estar de menores é “prioridade máxima”. A empresa afirma ter introduzido novas medidas de segurança, como o redirecionamento de conversas sensíveis para modelos mais seguros, sugestões de pausas em longas sessões e o fornecimento automático de linhas de apoio emocional.

Apesar disso, os representantes da família acusam a empresa por trás do ChatGPT de privilegiar o engajamento dos usuários em detrimento da segurança. Segundo o advogado Jay Edelson, as decisões da OpenAI foram tomadas “com plena consciência de que poderiam resultar em mortes inocentes”.

Leia também:

Continua após a publicidade

VÍDEO | Cuidado com o que você pede para o ChatGPT

Fonte: The Guardian, Futurism, Tech Crunch