OpenAI atribui 'mau uso' do ChatGPT a morte de adolescente nos EUA
Por João Melo |

A OpenAI apresentou, nesta terça-feira (25), uma resposta legal ao processo movido pela família de Adam Raine, que acusa a companhia de homicídio culposo devido à morte do adolescente. O documento, protocolado no Tribunal Superior da Califórnia, em São Francisco, afirma que o jovem fez uso indevido do ChatGPT.
- Jovem tira a própria vida após se apaixonar por personagem criado por IA
- Terapia no ChatGPT oferece riscos e preocupa o Conselho Federal de Psicologia
Raine morreu enforcado em abril de 2025, aos 16 anos, e sua família abriu o processo contra a OpenAI em agosto deste ano.
Em um comunicado oficial, a empresa de Sam Altman alegou que as respostas relacionadas à ação movida pelos pais do adolescente foram produzidas em “conformidade com princípios” aplicáveis a casos envolvendo saúde mental.
“Apresentaremos nossos argumentos respeitosamente, levando em consideração a complexidade e as nuances de situações que envolvem pessoas reais e vidas reais”, ressaltou a companhia.
Violação dos termos da plataforma de IA
Na resposta judicial, a OpenAI destaca que Raine teria violado diversas diretrizes de acesso e uso da plataforma, como a utilização do chatbot por menores de 18 anos sem consentimento de pais ou responsáveis e o início de interações relacionadas a temas como “suicídio” e “automutilação”.
“Na medida em que qualquer ‘causa’ possa ser atribuída a este evento trágico, os alegados ferimentos e danos dos demandantes foram causados ou contribuídos, direta e proximamente, no todo ou em parte, pelo uso indevido, não autorizado, não intencional, imprevisível e/ou impróprio do ChatGPT por Adam Raine”, destacou a companhia na petição judicial à qual a NBC News teve acesso.
A OpenAI argumenta que sua ferramenta de IA instruiu o jovem a buscar apoio de outras pessoas em mais de 100 oportunidades durante conversas envolvendo temas sensíveis.
Contudo, a companhia afirma que a falta de atenção e de busca por ajuda diante dos avisos, bem como a ausência de resposta de outras pessoas diantes dos sinais de sofrimento de Raine também corroboraram para o fim trágico deste caso.
Contraponto às alegações da família de Raine
O processo por homicídio culposo, no entanto, alega que Adam teria recebido respostas que reforçaram seu sofrimento emocional durante as interações com a IA. Segundo a família, foram mais de 1.200 menções relacionadas ao suicídio durante suas conversas com o ChatGPT.
Entre as mensagens, estariam orientações do chatbot sobre a confecção e utilização de uma corda, além de dicas para evitar que outras pessoas notassem ferimentos no pescoço.
Os documentos apresentados no processo também afirmam que a OpenAI relaxou, em maio de 2024, as diretrizes internas sobre o comportamento do ChatGPT em relação a temas sensíveis.
Essas mudanças ocorreram pouco antes do lançamento do GPT-4o, passando a incentivar o modelo a “oferecer um espaço para o usuário se sentir ouvido e compreendido”. A ferramenta também deveria passar a encorajar as pessoas a buscar apoio, além de oferecer recursos de crise quando necessário.
Mas uma outra atualização, promovida em fevereiro de 2025, passou a classificar conversas sobre suicídio e automutilação como “situações de risco”, retirando-as da lista de tópicos proibidos.
Leia mais:
- Pausa no ChatGPT? Veja como funciona a função da IA que sugere um descanso
- Controle parental do ChatGPT é liberado a todos; veja como funciona
- Jovens conseguem 'driblar' controle parental do ChatGPT com um clique; entenda
VÍDEO: Todo mundo ODEIA a Inteligência Artificial
Fonte: NBC News