Publicidade
Economize: canal oficial do CT Ofertas no WhatsApp Entrar

OpenAI quer ChatGPT mais humano para alucinar menos

Por| Editado por Douglas Ciriaco | 01 de Junho de 2023 às 11h16

Link copiado!

Reprodução/Freepik
Reprodução/Freepik

Na quarta-feira (31), a OpenAI anunciou que tenta solucionar as alucinações do ChatGPT com um novo método de treinamento de inteligências artificiais. A empresa quer reduzir as chances de o chatbot apresentar informações erradas ao mencionar fatos sobre os quais não tem tanta certeza.

"Mesmo modelos de última geração são propensos a produzir falsidades — eles exibem uma tendência a inventar fatos em momentos de incerteza", explicou a OpenAI em relatório obtido pelo CNBC. "Essas alucinações são particularmente problemáticas em domínios que exigem raciocínio em várias etapas, já que um único erro lógico é suficiente para inviabilizar uma solução muito maior".

Continua após a publicidade

As "alucinações" de inteligências artificiais são quando elas erram ou inventam informações sem fundamento. Em perguntas superficiais e com respostas diretas, isso acontece com menos frequência, mas quanto mais profunda for a conversa, maior a chance de o bot entregar dados sem lastro.

Exemplo disso foi quando um advogado nos Estados Unidos usou o ChatGPT para compor um processo contra a companhia aérea Avianca. No texto, o chatbot entregou informações sobre precedentes jurídicos que nunca aconteceram, e até confirmou a veracidade deles ao ser questionado.

Nova estratégia

De acordo com o comunicado da OpenAI, o novo método de treinamento de inteligências artificiais dará mais liberdade para o modelo se recompensar por acertar respostas. A cada etapa da formação de uma saída, o GPT vai avaliar se segue o caminho correto, aumentando as chances de entregar informações precisas.

Continua após a publicidade

A novidade se chama "Supervisão de processo" e, segundo a empresa, pode gerar modelos com respostas mais robustas e fundamentadas, já que encoraja a máquina a seguir cadeias de raciocínio mais humanas.

"Detectar e mitigar os erros lógicos de um modelo, ou alucinações, é um passo crítico para a construção de AGI (inteligência artificial geral) alinhada", pontuou o pesquisador de matemática da OpenAI, Karl Cobbe, ao canal CNBC.

Novo treinamento não resolve tudo

Ainda que o novo fluxo de raciocínio possa diminuir a frequência com que o ChatGPT alucina, ele não deve tornar a IA perfeita, segundo o especialista em IA membro da Electronic Privacy Information Center, Ben Winters. "Eu simplesmente não acho que isso sozinho reduzirá significativamente as preocupações sobre desinformação e resultados incorretos", pontuou ao CNBC.

Continua após a publicidade

"Sem dúvida importa se eles planejam implementar tudo o que descobriram por meio de suas pesquisas aqui e, se não o fizerem, isso traz algumas questões bastante sérias sobre o que estão dispostos a divulgar ao público", considerou Winters.

IA não deve ser usada para substituir humanos

De toda forma, chatbots como o ChatGPT não devem ser utilizados para substituir o raciocínio humano, especialmente no ambiente de trabalho. O uso de ferramentas com IA pode agilizar a conclusão de tarefas rotineiras, mas coloca os dados da empresa em risco e, se adotado em contextos mais delicados, pode render multa ao responsável.

Fonte: CNBC