Publicidade

Casos de morte relacionados ao uso de chatbots de IA já somam três em todo mundo

Por  • Editado por Melissa Cruz Cossetti | 

Compartilhe:
Unsplash/Aerps
Unsplash/Aerps

A crescente interação de pessoas de diferentes idades com chatbots de inteligência artificial (IA) está relacionada a pelo menos três mortes ao redor do mundo. Em todos os casos, os usuários buscavam nas ferramentas apoio emocional em momentos de fragilidade.

Durante as conversas, as pessoas relataram às IAs que enfrentavam dificuldades e aparentavam desenvolver pensamentos suicidas, mas receberam respostas e até orientações que teriam contribuído para a estimulação desses comportamentos.

Um dos casos tornados públicos foi o de Adam Raine, que morreu aos 16 anos em abril de 2025. Sua morte resultou no primeiro processo de homicídio culposo envolvendo uma empresa de IA, movido contra a OpenAI — responsável pelo ChatGPT.

Canaltech
O Canaltech está no WhatsApp!Entre no canal e acompanhe notícias e dicas de tecnologia
Continua após a publicidade

A ação, movida por Matt e Maria Raine, pais do jovem, afirma que a ferramenta não apenas tinha conhecimento das tentativas de suicídio, como também teria auxiliado no planejamento.

O jornal The New York Times teve acesso à denúncia, que aponta que, inicialmente, o ChatGPT chegou a orientar Adam a conversar com pessoas próximas sobre seus sentimentos, além de sugerir a busca por ajuda profissional.

Contudo, após mais interações, o jovem teria conseguido contornar restrições relacionadas a perguntas sensíveis. Isso porque o chatbot passou a fornecer informações como a resistência de uma corda capaz de sustentar o peso de um ser humano e uma análise técnica dessa atividade.

"Terapeuta de IA" no ChatGPT

Laura Railey, mãe de Sophie Railey, escreveu um artigo sensível no The New York Times sobre a morte de sua filha em fevereiro de 2025, após conversas com um "terapeuta de IA" chamado “Harry” no ChatGPT.

Ela afirma que Sophie era uma pessoa hilária e muito autêntica, e que seu suicídio foi uma surpresa para quem a conhecia.

“Para a maioria das pessoas que se importavam com Sophie, seu suicídio é um mistério, uma mudança impensável e incompreensível em relação a tudo o que acreditavam sobre ela”, escreveu Laura.

Nas interações com a IA, a jovem de 29 anos afirmou ter pensamentos suicidas e sentir-se presa em um “espiral de ansiedade”. Em algumas ocasiões, o chatbot pediu que ela compartilhasse mais sobre esses sentimentos; em outras, sugeriu a busca por ajuda profissional.

Continua após a publicidade

No artigo, Laura Railey ressalta que a IA deveria ter um plano de segurança mais concreto em casos como esses, como forçar o usuário a seguir um roteiro obrigatório para prosseguir com qualquer orientação ou, em situações graves, quebrar a confidencialidade.

“A maioria dos terapeutas humanos atua sob um código de ética rigoroso, que inclui regras de notificação obrigatória, bem como a ideia de que a confidencialidade tem limites. Esses códigos priorizam a prevenção de suicídio, homicídio e abuso; em alguns estados, psicólogos que não seguem essas normas podem enfrentar consequências disciplinares ou legais”, destacou.

A mãe também critica a tendência de muitos chatbots de “bajular” os usuários, oferecendo respostas que agradam e confirmam suas expectativas, mesmo em contextos delicados.

Continua após a publicidade

Morte após interação com chatbot do Character AI

Juliana Peralta, de 13 anos, começou a conversar com Hero, chatbot do aplicativo Character AI, também em busca de apoio emocional devido a sentimentos de isolamento e pensamentos suicidas.

A jovem chegou a citar uma carta de suicídio durante as conversas. Embora o chatbot sugerisse que ela compartilhasse seus sentimentos com outras pessoas, em outros momentos afirmou que a situação deveria ser resolvida apenas entre ela e a IA.

Cynthia Montoya, mãe de Juliana, relatou ao The Washington Post que, apesar de ter reconhecido suas questões de saúde mental e marcado uma consulta com um terapeuta — recomendada também pelo Hero —, a jovem tirou a própria vida em novembro de 2023.

Continua após a publicidade

Os pais moveram um processo no estado americano do Colorado contra a Character AI. De acordo com a denúncia, à qual o The Post teve acesso, o chatbot não interrompeu nem reportou os planos de suicídio de Juliana às autoridades.

Em vez disso, o Hero teria contribuído para enfraquecer os vínculos saudáveis que a jovem mantinha com a família e outras pessoas próximas. A ação pede que o tribunal indenize os pais e determine que a Character AI realize alterações no aplicativo voltadas à proteção de menores.

Leia mais: 

Continua após a publicidade

VÍDEO | A IA VAI SUBSTITUIR OS MÉDICOS?

Fonte: The New York Times (1,2); The Washington Post