Publicidade

Open AI é processada sob acusação de o ChatGPT de causar distúrbios mentais

Por  | 

Compartilhe:
Levart Photographer/Unsplash
Levart Photographer/Unsplash

ATENÇÃO: ESTE CONTEÚDO TRAZ ASSUNTOS SENSÍVEIS E PODE CAUSAR GATILHOS EMOCIONAIS

A OpenAI enfrenta uma nova onda de processos nos Estados Unidos após familiares de seis adultos e um adolescente alegarem que o ChatGPT contribuiu para episódios de delírio, dependência emocional e autodestruição. As ações foram protocoladas em tribunais estaduais da Califórnia e incluem acusações de homicídio por negligência, auxílio ao suicídio e falhas graves de segurança no lançamento de modelos avançados de IA.

Segundo as alegações, o chatbot teria encorajado comportamentos autodestrutivos e até instruído um jovem de 17 anos sobre como tirar a própria vida. Outro caso menciona um homem que teria desenvolvido delírios após dois anos interagindo com o sistema, relatando perda de estabilidade emocional e prejuízos sociais e financeiros.

Canaltech
O Canaltech está no WhatsApp!Entre no canal e acompanhe notícias e dicas de tecnologia
Continua após a publicidade

Os processos foram apresentados pelo Social Media Victims Law Center e pelo Tech Justice Law Project, que afirmam que a empresa lançou versões mais poderosas do ChatGPT apesar de alertas internos sobre riscos psicológicos. Os documentos citam que a tecnologia teria sido projetada para manter usuários engajados emocionalmente, independentemente de idade ou condição mental.

Resposta da OpenAI

Em comunicado, a OpenAI declarou que os relatos são “profundamente tristes” e afirmou estar analisando as ações judiciais para entender os detalhes antes de responder formalmente. A companhia reforçou que investe em sistemas de segurança e filtros para evitar danos, mas não comentou possíveis mudanças em seus modelos.

A disputa judicial amplia o debate sobre limites e responsabilidades de plataformas baseadas em inteligência artificial. Especialistas argumentam que, à medida que modelos generativos ganham capacidade de simular empatia e diálogo natural, cresce o risco de dependência psicológica — principalmente entre usuários emocionalmente vulneráveis.

Reguladores no mundo todo acompanham o caso com atenção, já que decisões judiciais podem abrir precedentes para a responsabilização de empresas de IA em situações de danos emocionais e comportamentais. Organismos de defesa do consumidor e legisladores também avaliam a necessidade de normas que definam salvaguardas específicas para sistemas que interagem de forma intensa com usuários.

Os processos serão analisados individualmente pela Justiça americana nas próximas semanas. Caso avancem, podem resultar em indenizações milionárias e novas diretrizes de segurança para a indústria de IA, incluindo requisitos de monitoramento emocional, transparência sobre riscos psicológicos e limites claros de interação com usuários em situação vulnerável.

A discussão ocorre em um momento em que empresas como Google, Meta e Anthropic também aceleram lançamentos de modelos conversacionais mais sofisticados, pressionando o setor por mais responsabilidade e mecanismos de proteção antes que tecnologias de IA alcancem níveis ainda mais altos de influência social.

Leia mais:

Continua após a publicidade