Publicidade

Incentivo a adivinhação | OpenAI diz ter descoberto por que o ChatGPT alucina

Por  • Editado por Melissa Cruz Cossetti | 

Compartilhe:
Pexels/Solen Feyissa
Pexels/Solen Feyissa

A OpenAI, empresa responsável pelo ChatGPT, afirma ter descoberto por que a ferramenta de inteligência artificial (IA) apresenta alucinações — e que isso tem relação com o incentivo à adivinhação. O relatório com as descobertas foi divulgado no dia 5 de setembro.

Segundo a companhia, os modelos de linguagem de grande porte (LLMs) alucinam porque os procedimentos padrão de treinamento e avaliação recompensam palpites em vez do reconhecimento da incerteza dos sistemas.

A empresa de Sam Altman define as alucinações como afirmações plausíveis, porém falsas, geradas pela inteligência artificial. O problema, segundo o relatório, começa nos métodos de avaliação atuais, que estabelecem incentivos voltados ao “chute”.

Canaltech
O Canaltech está no WhatsApp!Entre no canal e acompanhe notícias e dicas de tecnologia
Continua após a publicidade

“Pense nisso como um teste de múltipla escolha. Se você não souber a resposta, mas der um palpite, pode ter sorte e acertar. Deixar em branco garante zero. Da mesma forma, quando os modelos são avaliados apenas pela precisão — a porcentagem de perguntas respondidas corretamente —, eles são incentivados a chutar em vez de dizer ‘não sei’”, destacou a OpenAI em comunicado.

Diferentes tipos de resposta da IA

A OpenAI explica que, em perguntas com apenas uma resposta certa, há três categorias possíveis: respostas precisas, erros e abstenções — quando o modelo opta por não arriscar um palpite.

A empresa afirma que erros devem ser considerados piores que abstenções, já que é mais adequado indicar incerteza ou pedir mais informações do que fornecer uma resposta incorreta.

Uma crítica feita pela responsável pelo ChatGPT é que muitas avaliações priorizam apenas as respostas precisas, o que incentiva os modelos a arriscar palpites em vez de se abster para evitar erros.

“Essa é uma das razões pelas quais, mesmo com o avanço dos modelos, eles ainda podem apresentar alucinações, dando respostas erradas com confiança em vez de reconhecer a incerteza”, ressalta a companhia.

Ferramentas de IA não são 100% precisas

Continua após a publicidade

Outro ponto levantado no relatório é que nenhuma ferramenta de IA será 100% precisa, principalmente porque, independentemente do tamanho do modelo ou de suas capacidades de busca e raciocínio, algumas questões do mundo real são impossíveis de responder.

Por isso, uma alternativa apresentada pelos pesquisadores para reduzir as alucinações é desenvolver treinamentos e avaliações que desestimulem os palpites dos modelos de IA.

“Modificações simples nessas avaliações podem realinhar os incentivos, recompensando expressões apropriadas de incerteza em vez de puni-las. Isso pode remover barreiras à supressão de alucinações e abrir caminho para trabalhos futuros em modelos de linguagem mais sofisticados, por exemplo, com maior competência pragmática”, concluem os autores do estudo.

Confira a pesquisa na íntegra no arXiv

Continua após a publicidade

Leia mais: 

VÍDEO | TODO MUNDO ODEIA A INTELIGÊNCIA ARTIFICIAL

Continua após a publicidade

Fonte: OpenAI

Seu resumo inteligente do mundo tech!Assine a newsletter do Canaltech e receba notícias e reviews sobre tecnologia em primeira mão.
*E-mail
*