Publicidade

Dona do ChatGPT é processada por vítimas de massacre; entenda o caso

Por  | 

Compartilhe:
Viviane França/Canaltech
Viviane França/Canaltech

Familiares de vítimas de um massacre armado em Tumbler Ridge, no Canadá, processaram a OpenAI sob acusação de neglicência. A ação afirma que a pessoa atiradora discutiu o tiroteio com o ChatGPT e a empresa tinha ciência disso, mas não alertou as autoridades.

Ao todo, sete ações foram apresentadas para um tribunal federal em San Francisco, EUA. A empresa também é acusada de oferecer uma versão “perigosamente defeituosa” do ChatGPT, especialmente com o modelo GPT-4o, que permitiu que as conversas continuassem sem avisos mais incisivos.

Ação menciona negligência

Canaltech
O Canaltech está no WhatsApp!Entre no canal e acompanhe notícias e dicas de tecnologia
Continua após a publicidade

De acordo com os dados do processo, a atiradora Jesse Van Rootselaar, que tinha 18 anos, conversava com o ChatGPT sobre temas sensíveis envolvendo o ataque. O tiroteio em fevereiro deste ano teve nove vítimas fatais, incluindo a própria atiradora, e foi considerado um dos massacres mais letais do Canadá.

Uma das ações acusa que o sistema de segurança do ChatGPT sinalizou a conta da atiradora por “planejamento e atividades com violência armada” em junho de 2025, meses antes do ocorrido. Uma equipe de proteção teria avaliado o conteúdo e pedido para que a OpenAI entrasse em contato com autoridades, mas isso não aconteceu. 

A conta original foi banida, mas a jovem criou um perfil secundário logo depois. O processo ainda alerta para um “produto defeituoso” da OpenAI, visto que o modelo GPT-4o tendia a reforçar as ideias do usuário no lugar de interromper qualquer comportamento nocivo.

CEO pediu desculpas

A OpenAI enviou uma carta assinada pelo CEO, Sam Altman, ao município de Tumbler Ridge no começo da semana. Altman prestou condolências aos familiares das vítimas e pediu desculpas por não ter alertado as autoridades sobre a conta banida em junho do ano passado

A empresa ainda publicou um comunicado no site oficial para destacar algumas medidas aplicadas para aumentar a segurança da comunidade do ChatGPT. O assistente é treinado para impedir conversas quando uma interação avança para ameaças, planejamento de ações no mundo real e prejuízo em potencial para outras pessoas.

Com relação ao contato com autoridades, a companhia afirma que isso acontece quando “as conversas indicam um risco crível de prejuízo a outros”.