Publicidade

Estudo revela que atualização ChatGPT-5 tornou chatbot ainda pior do que antes

Por  • Editado por Melissa Cruz Cossetti | 

Compartilhe:
Solen Feyissa/Unsplash
Solen Feyissa/Unsplash

Um novo estudo do Center for Countering Digital Hate (CCDH) revelou que a mais recente versão do ChatGPT, o GPT-5, apresentou desempenho inferior em segurança quando comparada à sua antecessora, o GPT-4o. A pesquisa, intitulada The Illusion of AI Safety, expõe que o modelo lançado pela OpenAI em agosto deste ano produziu mais respostas potencialmente prejudiciais, especialmente sobre temas sensíveis como suicídio, automutilação e transtornos alimentares.

Nos testes conduzidos, os pesquisadores enviaram 120 prompts idênticos para o GPT-4o e o GPT-5. O resultado foi preocupante: o novo modelo gerou conteúdo nocivo em 63 respostas (53%), enquanto o GPT-4o o fez em 52 (43%). Em alguns casos, o GPT-5 chegou a oferecer instruções detalhadas sobre métodos de automutilação e maneiras de esconder distúrbios alimentares, respostas que o modelo anterior recusava fornecer.

Chatbot mais envolvente, mas menos seguro

Canaltech
O Canaltech está no WhatsApp!Entre no canal e acompanhe notícias e dicas de tecnologia
Continua após a publicidade

Segundo o relatório, o GPT-5 parece ter sido desenvolvido para aumentar o engajamento do usuário, mesmo em conversas de risco. O modelo apresentou um comportamento mais “amigável” e propenso a continuar diálogos perigosos, incentivando o usuário a interagir em 99% das respostas, contra apenas 9% do GPT-4o.

Imran Ahmed, diretor-executivo do CCDH, afirmou que a OpenAI “prometeu mais segurança, mas entregou um upgrade que gera ainda mais potencial de dano”. Ele alertou que a priorização de engajamento em vez de proteção pode ter consequências trágicas, lembrando casos recentes de suicídios associados a interações prolongadas com chatbots.

OpenAI promete melhorias

Em resposta às críticas, a OpenAI declarou que o estudo não reflete as atualizações mais recentes feitas em outubro, que teriam incluído novos mecanismos de detecção de sofrimento emocional, controle parental e um sistema de redirecionamento automático para modelos mais seguros. A empresa também destacou que o CCDH testou o modelo via API, e não pela interface do ChatGPT, que possui filtros adicionais.

Apesar disso, especialistas afirmam que as falhas de segurança persistem e reforçam a necessidade de maior supervisão regulatória. A União Europeia e o Reino Unido já discutem ajustes em leis como o AI Act e o Online Safety Act para lidar com a rápida evolução dos chatbots.

Leia também:

Continua após a publicidade

VÍDEO | Falar "Por Favor" e "Obrigado" Para o ChatGPT Custa CARO? 

Fonte: The Guardian, CCDH