Publicidade

ChatGPT enfrenta problema matemático e surpreende cientistas — "um aprendiz"

Por  • Editado por Melissa Cruz Cossetti | 

Compartilhe:
Solen Feyissa/Unsplash
Solen Feyissa/Unsplash

Cientistas decidiram testar a capacidade do ChatGPT de resolver uma versão de um problema matemático proposto por Platão por volta de 385 a.C. O resultado mostrou que a ferramenta de inteligência artificial (IA) solucionou a questão de forma semelhante a um “aprendiz”.

A pesquisa foi conduzida por especialistas da Universidade de Cambridge (Reino Unido) e da Universidade Hebraica de Jerusalém (Israel). Os resultados foram publicados em 17 de setembro no periódico International Journal of Mathematical Education in Science and Technology.

O objetivo dos pesquisadores era investigar se a IA da OpenAI conseguiria resolver o problema apenas com base no conhecimento armazenado em seu banco de dados ou se utilizaria sua adaptabilidade para propor soluções próprias.

Canaltech
O Canaltech está no WhatsApp!Entre no canal e acompanhe notícias e dicas de tecnologia
Continua após a publicidade

A lição de Platão descreve Sócrates ensinando um garoto a dobrar a área de um quadrado. Inicialmente, o menino sugere, de maneira equivocada, dobrar o comprimento de cada lado para solucionar o problema. Contudo, Sócrates mostra que os lados do novo quadrado devem ter o mesmo comprimento da diagonal do original.

Os pesquisadores, então, apresentaram esse problema ao ChatGPT-4. Primeiro, imitaram as perguntas feitas por Sócrates ao jovem e, em seguida, incluíram algumas variantes da questão matemática.

Improviso e erro humano da IA

O ChatGPT — assim como outros modelos de linguagem de grande porte (LLMs) — é treinado com grandes bancos de texto. A partir disso, suas respostas são geradas prevendo sequências de palavras com base nos padrões aprendidos ao longo do treinamento.

Os cientistas esperavam que a IA simplesmente utilizasse a solução de Sócrates. No entanto, o sistema improvisou ao gerar a resposta e cometeu erros nitidamente humanos, “semelhantes aos de um aprendiz”, segundo os especialistas.

“Quando enfrentamos um novo problema, nosso instinto geralmente é testar soluções com base em nossa experiência passada. Em nosso experimento, o ChatGPT pareceu fazer algo semelhante. Como um aluno ou acadêmico, ele apresentou hipóteses e soluções próprias”, destacou em comunicado Nadav Marco, pesquisador da Universidade de Cambridge.

Quando solicitado a resolver o problema, a ferramenta da OpenAI usou uma abordagem algébrica — inexistente na época de Platão. Depois, resistiu às tentativas de ser induzida ao erro do menino e, apenas quando os cientistas expressaram frustração, apresentou a alternativa geométrica correta.

Continua após a publicidade

Variações do problema de Platão

Os cientistas também pediram que o ChatGPT dobrasse a área de um retângulo mantendo suas proporções. Novamente, a ferramenta recorreu à álgebra e depois afirmou, de forma incorreta, que a solução geométrica não era possível porque a diagonal de um retângulo não poderia ser usada para dobrar sua área.

Em outro teste, solicitaram que a IA dobrasse a área de um triângulo. Nesse caso, após inicialmente recorrer à álgebra e ser orientada, a ferramenta apresentou uma resposta geométrica correta.

Esse comportamento do ChatGPT foi comparado ao conceito de "zona de desenvolvimento proximal", que se refere à distância entre o que um aluno já sabe e aquilo que pode aprender com apoio e orientação adequada.

Continua após a publicidade

Confira o estudo na íntegra no International Journal of Mathematical Education in Science and Technology.

Leia mais: 

VÍDEO | Cuidado com o que você pede para o ChatGPT

Continua após a publicidade

Fonte: Universidade de Cambrigde