Publicidade

GPT-4o volta ao ChatGPT depois que o GPT-5 ficou ‘muito mais burro’, diz Altman

Por  |  • 

Compartilhe:
Berke Citak/Unsplash
Berke Citak/Unsplash

A OpenAI liberou o GPT-4o novamente ao ChatGPT após uma falha que fez o GPT-5 parecer “muito mais burro”, anunciou o CEO Sam Altman nesta sexta-feira (8). Contudo, apenas alguns usuários conseguem utilizar a versão antiga do modelo de IA.

O retorno ocorreu um dia após a remoção do GPT-4o, o3 e de demais modelos mais antigos, quando foram substituídos pelo recém-lançado GPT-5. Contudo, o novo modelo se tornou alvo de críticas por não apresentar bom desempenho devido a uma falha no seletor automático.

“Ontem, o autoswitcher quebrou e ficou fora de serviço por boa parte do dia, e o resultado foi que o GPT-5 pareceu muito mais burro. Além disso, estamos fazendo algumas intervenções no funcionamento do limite de decisão que devem ajudar você a obter o modelo correto com mais frequência”, disse Altman.

Canaltech
O Canaltech está no WhatsApp!Entre no canal e acompanhe notícias e dicas de tecnologia
Continua após a publicidade

Diante desse cenário, a empresa reparou as falhas e liberou novamente o GPT-4o, mas somente no ChatGPT Plus e Team. “Monitoraremos o uso enquanto avaliamos por quanto tempo ofereceremos os modelos antigos”, afirmou.

Para usar o GPT-4o, os usuários precisam acessar a versão web do ChatGPT e, através das configurações, ativar a opção "Exibir modelos antigos". Em seguida, a versão anterior da tecnologia estará disponível no seletor dentro do menu "Legacy models".

Aumento no limite de uso

A OpenAI também aumentou os limites de uso do GPT-5 para a modalidade, agora com a possibilidade de enviar 100 mensagens a cada três horas. O acréscimo, no entanto, é temporário e estará disponível somente durante a finalização da implementação da atualização.

O GPT-5 Thinking, cabe ressaltar, ainda permanece limitado a 200 comandos por semana.

Além disso, a companhia liderada por Sam Altman tornou mais transparente qual modelo está respondendo a determinadas consultas e fez alterações na interface para facilitar o acionamento manual do “raciocínio”.

“A implementação para todos está demorando um pouco mais. É uma mudança enorme em larga escala. Por exemplo, o tráfego da nossa API praticamente dobrou nas últimas 24 horas”, explicou Altman.

Continua após a publicidade

Confira outras matérias do Canaltech:

VÍDEO: Windows era o problema esse tempo todo? SteamOS dominará os PCs para jogos de alto desempenho?