Publicidade

Máquinas que pensem como humanos são improváveis, diz neurocientista

Por| Editado por Douglas Ciriaco | 12 de Junho de 2022 às 19h00

Link copiado!

twenty20photos/Envato
twenty20photos/Envato

Doutorando em neurociência cognitiva pela Universidade de Melbourne, na Austrália, o pesquisador James Fodor acredita que os modelos de redes neurais artificiais que existem atualmente não são suficientes para reproduzir a capacidade humana de pensar e interagir com outros seres da mesma espécie.

Segundo ele, os sistemas de IA desenvolvidos recentemente são capazes de realizar feitos impressionantes — como reconhecimento de imagens e reprodução de uma linguagem semelhante à humana —, mas isso não significa que eles podem pensar ou entender o mundo como pessoas de verdade.

“Como pesquisador que estuda como os humanos entendem e raciocinam sobre o mundo, acho importante enfatizar que a maneira como os sistemas de IA "pensam" e aprendem é fundamentalmente diferente de como os humanos o fazem. Por isso, ainda temos um longo caminho a percorrer antes que a IA possa realmente pensar como nós”, explica Fodor.

Continua após a publicidade

Rede neural x cérebro

As redes neurais representam uma versão altamente simplificada do cérebro humano. Enquanto o órgão biológico possui bilhões de neurônios formando teias complexas de conexões entre si, o sistema artificial substitui as células cerebrais por nós simples, empilhados em camadas.

Ao serem conectados, esses nós são treinados para reconhecer padrões e generalizar estímulos semelhantes, que serão usados no processamento de novos dados. Essa generalização é fundamental para o sucesso das redes neurais na tentativa de emular as funções do cérebro, mas as diferenças ainda são muito grandes.

Continua após a publicidade

Enquanto as redes neurais necessitam ser alimentadas com dados de entrada e saída para que o sistema aprenda como se comportar, os humanos passam por um processo de aprendizagem sem supervisão, o que significa que não precisam ser instruídos explicitamente sobre qual é resposta certa para determinado estímulo.

“As crianças não recebem instruções sobre como falar, mas aprendem isso por meio da exposição à fala, imitação e feedback dos adultos. Outra diferença é a escala de dados usados ​​para treinar a IA. O modelo GPT-3, por exemplo, foi treinado com 400 bilhões de palavras. A uma taxa de 150 palavras por minuto, um humano levaria 4 mil anos para ler tanto texto. Esses cálculos mostram que as pessoas não podem aprender da mesma forma que a IA e vice-versa”, acrescenta Fodor.

Retropropagação

Para combinar um estímulo com uma resposta desejada, os sistemas artificiais usam um algoritmo chamado retropropagação, que remaneja os erros para a parte de trás da rede neural, permitindo que as informações sejam ajustadas de maneira correta durante o processo de aprendizagem.

Continua após a publicidade

Alguns pesquisadores propuseram que variações desse sistema de retropropagação poderiam ser usadas pelo cérebro, mas até agora não há evidências de que os humanos possam usar esses métodos de aprendizado, uma vez que esses sinais externos simplesmente não existem.

“Ainda há muito que não sabemos sobre como as pessoas aprendem, entendem e raciocinam. No entanto, o que compreendemos indica que os humanos realizam essas tarefas de maneira muito diferente dos sistemas de IA. Por isso, ainda é preciso ampliar a tecnologia antes de construir máquinas que realmente pensem a aprendam como os seres humanos”, encerra James Fodor.