Publicidade
Economize: canal oficial do CT Ofertas no WhatsApp Entrar

Redes neurais podem ajudar a resolver as equações mais difíceis do mundo

Por| Editado por Douglas Ciriaco | 05 de Maio de 2021 às 19h25

Link copiado!

Reprodução/Envato
Reprodução/Envato

Resolver equações matemáticas complexas, com forças múltiplas e partes móveis atuando ao longo do espaço e do tempo, pode se tornar uma tarefa mais fácil com duas novas abordagens de utilização de redes neurais propostas por cientistas do Instituto de Tecnologia da Califórnia e da Universidade Purdue, ambos nos EUA.

Os novos modelos usam redes neurais profundas para solucionar famílias inteiras de equações diferenciais parciais, deixando os sistemas complicados mais fáceis de resolver em um tempo consideravelmente mais curto.

As equações diferenciais parciais são usadas na fabricação de aviões de passageiros, para calcular o impacto de ondas sísmicas ao redor do planeta ou para prever a propagação de uma doença entre a população de uma determinada região.

Continua após a publicidade

Difíceis de solucionar

Métodos aproximados geralmente são usados para tentar resolver as equações diferenciais parciais, mas, mesmo assim, eles podem gastar milhões de horas de processamento e nem sempre chegar a um resultado satisfatório.

Na nova abordagem, os pesquisadores construíram outros tipos de redes neurais artificiais que podem aproximar essas soluções mais rapidamente do que os sistemas tradicionais. As novas redes neurais também podem ser treinadas para resolver vários tipos de equações parciais de forma autônoma.

“As novas redes profundas fazem algo dramaticamente diferente. Elas mapeiam um espaço de dimensão infinita sobre diversos horizontes possíveis, em uma velocidade impressionante", disse o matemático Siddhartha Mishra.

Continua após a publicidade

Mas as novas abordagens fazem mais do que apenas acelerar esse processo de solução. Para alguns fenômenos, os pesquisadores têm apenas alguns dados de como chegar até a sua resolução. “Existem muitos problemas em que a física não está bem definida, por isso a redes neurais profundas podem ajudar a resolver boa parte deles”, completa Mishra.

Reforço neural

O elemento básico de uma rede neural são os neurônios artificiais, que recebem um conjunto de entradas, multiplicam cada uma por um determinado peso e somam os resultados, determinando uma saída com base nesse total. Redes neurais mais modernas possuem uma camada de entrada, outra de saída e uma oculta no meio delas. Matematicamente, a entrada para essa rede é um vetor ou conjunto de números, e a saída é outro vetor com as mesmas proporções.

Continua após a publicidade

Com as novas redes neurais profundas, esse processo é otimizado, fazendo com que elas consigam aprender a aproximar não apenas funções, mas também os operadores que mapeiam essas funções.

“Elas parecem fazer isso sem sofrer a 'maldição da dimensionalidade', um problema que pode atormentar as redes neurais e outros algoritmos de computador que aprendem com os dados. Por exemplo, se você quiser que a taxa de erro de uma rede neural caia de 10% para 1%, a quantidade de dados de treinamento ou o tamanho da rede necessária para fazer isso pode explodir exponencialmente, tornando a tarefa impossível”, explica a professora Anima Anandkumar.

Segunda tentativa

Em 2019, os pesquisadores criaram o DeepOnet, uma arquitetura de rede profunda capaz de solucionar equações parciais, baseadas em operadores neurais. Construído com uma arquitetura bifurcada, que processa os dados em redes paralelas, o DeepOnet consegue combinar saídas e entradas usando um solucionador numérico para reduzir a quantidade de erros.

Continua após a publicidade

Apesar de ser rápido se comparado com seus irmãos do passado, o DeepOnet precisa realizar muitos cálculos durante a fase de treinamento e aprendizagem e isso pode ser um problema quando a rede profunda necessita de um número muito grande de dados para atingir a precisão desejada.

Com a mudança de perspectiva, os cientistas agora podem usar um operador neural conhecido como Fourier, que possui uma arquitetura muito mais rápida. Basicamente, antes de enviar os dados de treinamento em uma única camada de neurônios artificiais, eles submetem esses dados a uma transformação matemática, que decompõe uma função contínua em várias funções senoidais.

Continua após a publicidade

“Este processo acaba sendo muito mais direto do ponto de vista computacional do que o DeepONet e é semelhante a resolver um uma equação diferencial parcial, realizando uma operação matemática complicada chamada de convolução”, explica o professor Kamyar Azizzadenesheli.

Segundo os pesquisadores, esses são apenas os primeiros passos para o desenvolvimento de redes neurais mais inteligentes, capazes de resolver equações em sistemas caóticos, como modelos climáticos, ou solucionar problemas matemáticos que perseguem o intelecto humano há vários séculos.

Fonte: Quanta Magazine