Nova técnica da Nvidia traria texturas 4x melhores em tempo real com IA
Por Renan da Silva Dores • Editado por Wallace Moté |
Pesquisadores da Nvidia propuseram neste mês um novo método de compressão e descompressão de texturas para games e outras tarefas que precisam acessar os dados em tempo real, que prometeria turbinar a qualidade e reduzir as exigências de memória. A técnica basicamente combina uma compressão agressiva, que une os mipmaps (grupos de texturas com diferentes níveis de qualidade) de diferentes materiais, com Inteligência Artificial para, em teoria, oferecer 4x mais qualidade e exigir 30% menos memória.
- AMD vai anunciar novidades da linha EPYC para data centers em junho
- GPD Win Max 2 2023 estreia com novos Ryzen 7040U e eGPU especial G1
Não é segredo que as produções 3D modernas, inclusive games, têm atingido novos patamares de realismo graças a técnicas avançadas integradas aos motores de desenvolvimento, incluindo Unity e Unreal. Através de soluções como Lumen (método que simula a luz com maior precisão) e Nanite (que aumenta o nível de detalhes dos objetos conforme a câmera se aproxima), junto ao aumento do poder de processamento dos PCs e consoles, estamos atingindo um nível de detalhamento até então inimaginável.
Os avanços são grandes o suficiente a ponto de séries como O Mandaloriano estarem usando a Unreal Engine para produzir os cenários em que os capítulos são gravados, por ser uma opção mais barata em comparação a levar os atores a locais reais, por exemplo. Dito isso, também não é difícil imaginar que, para chegar a esse realismo, as exigências de processamento e, principalmente, memória, têm crescido bastante. Não são raros os casos de jogos recentes que perdem performance em GPUs com pouca RAM.
Cientes desse problema, que só tende a piorar, pesquisadores da Nvidia publicaram no início de maio um estudo propondo uma nova técnica que permitiria aumentar a qualidade das texturas de objetos 3D em até 4 vezes, ao mesmo tempo em que reduziria o consumo de memória (RAM e armazenamento) em até 30%. Chamada de Nvidia Neural Texture Compression (NTC), a solução uniria o que técnicas populares de compressão têm de melhor.
O estudo completo é complexo, mas cita justamente o aumento das exigências de hardware e as limitações das técnicas atuais como motivação para a criação da NTC. Segundo os pesquisadores, o algoritmo de Block Compression (BCx, ou compressão por blocos, em tradução livre), desenvolvido na década de 1990 e usado até hoje em games, é eficiente para acesso em tempo real, mas entrega baixa qualidade de imagem.
Por outro lado, métodos bem mais recentes, como AVIF e JPEG XL, entregam imagens de maior qualidade, mas não estão preparados para acesso aleatório em tempo real. Usando IA, a NTC conseguiria equilibrar os benefícios de ambos. Para isso, de forma bastante resumida, as texturas dos materiais de objetos 3D seriam agrupadas e fortemente comprimidas, reduzindo assim a quantidade de memória necessária para armazená-las e acessá-las.
Na hora de descomprimir esse grupo para usá-lo em uma cena do game, a placa de vídeo adotaria uma rede neural treinada para cada uma das texturas, garantindo um resultado final superior. Comparada ao BCx, a NTC exigiria mais tempo de processamento (1,15 milissegundos, contra 0,49 milissegundos), mas ofereceria maiores detalhes nos objetos e reduziria drasticamente o uso de memória. Outro benefício é que não é preciso haver hardware dedicado para essas operações.
Na prática, os games teriam melhor qualidade de imagem e maior realismo, sem necessariamente exigir mais espaço do seu SSD ou da RAM. Sendo um estudo, a NTC ainda deve demorar um bom tempo para realmente ser usada, mas é um reforço de que a Nvidia, assim como a indústria de hardware, está estudando formas de entregar gráficos melhores sem exigir tanto do seu PC ou console. Os pesquisadores trarão mais detalhes da iniciativa em agosto, durante a SIGGRAPH 2023.
Fonte: Nvidia, via VideoCardz