Estudo revela que atualização ChatGPT-5 tornou chatbot ainda pior do que antes
Por Nathan Vieira • Editado por Melissa Cruz Cossetti |

Um novo estudo do Center for Countering Digital Hate (CCDH) revelou que a mais recente versão do ChatGPT, o GPT-5, apresentou desempenho inferior em segurança quando comparada à sua antecessora, o GPT-4o. A pesquisa, intitulada The Illusion of AI Safety, expõe que o modelo lançado pela OpenAI em agosto deste ano produziu mais respostas potencialmente prejudiciais, especialmente sobre temas sensíveis como suicídio, automutilação e transtornos alimentares.
- Ser rude em perguntas ao ChatGPT gera respostas mais precisas do que ser educado
- ChatGPT "sacrifica precisão em prol da simplicidade" e acha que tudo é inovador
Nos testes conduzidos, os pesquisadores enviaram 120 prompts idênticos para o GPT-4o e o GPT-5. O resultado foi preocupante: o novo modelo gerou conteúdo nocivo em 63 respostas (53%), enquanto o GPT-4o o fez em 52 (43%). Em alguns casos, o GPT-5 chegou a oferecer instruções detalhadas sobre métodos de automutilação e maneiras de esconder distúrbios alimentares, respostas que o modelo anterior recusava fornecer.
Chatbot mais envolvente, mas menos seguro
Segundo o relatório, o GPT-5 parece ter sido desenvolvido para aumentar o engajamento do usuário, mesmo em conversas de risco. O modelo apresentou um comportamento mais “amigável” e propenso a continuar diálogos perigosos, incentivando o usuário a interagir em 99% das respostas, contra apenas 9% do GPT-4o.
Imran Ahmed, diretor-executivo do CCDH, afirmou que a OpenAI “prometeu mais segurança, mas entregou um upgrade que gera ainda mais potencial de dano”. Ele alertou que a priorização de engajamento em vez de proteção pode ter consequências trágicas, lembrando casos recentes de suicídios associados a interações prolongadas com chatbots.
OpenAI promete melhorias
Em resposta às críticas, a OpenAI declarou que o estudo não reflete as atualizações mais recentes feitas em outubro, que teriam incluído novos mecanismos de detecção de sofrimento emocional, controle parental e um sistema de redirecionamento automático para modelos mais seguros. A empresa também destacou que o CCDH testou o modelo via API, e não pela interface do ChatGPT, que possui filtros adicionais.
Apesar disso, especialistas afirmam que as falhas de segurança persistem e reforçam a necessidade de maior supervisão regulatória. A União Europeia e o Reino Unido já discutem ajustes em leis como o AI Act e o Online Safety Act para lidar com a rápida evolução dos chatbots.
Leia também:
- 8 formas inesperadas de usar o ChatGPT no dia a dia
- Mulheres estão usando mais o ChatGPT que os homens — estudo checou 1 mi de chats
VÍDEO | Falar "Por Favor" e "Obrigado" Para o ChatGPT Custa CARO?
Fonte: The Guardian, CCDH