Há alguns anos que a Nvidia está a desenvolver um novo método para comprimir texturas e poupar memória nas placas gráficas. Embora a tecnologia permaneça em fase beta, uma demonstração divulgada recentemente mostra como as soluções baseadas em Inteligência Artificial podem ajudar a resolver as limitações de VRAM nas GPU modernas.
A Neural Texture Compression da Nvidia pode permitir grandes poupanças na quantidade de VRAM necessária para renderizar gráficos 3D complexos, mesmo que ninguém a esteja a usar (ainda). Embora ainda esteja em beta, esta tecnologia foi testada pelo canal do YouTube Compusemble, que executou a demonstração oficial num sistema de jogos moderno para chegar a um valor do seu impacto potencial no consumo de memória e do que os programadores podem alcançar quando a usarem.
Conforme explicado pela Compusemble no vídeo, a RTX Neural Texture Compression usa uma rede neuronal especializada para comprimir e descomprimir texturas dinamicamente. A demonstração da Nvidia inclui três modos de renderização: Reference Material, NTC Transcoded to BCn e Inference on Sample Reference Material.
- Reference Material: Este modo não usa NTC, o que significa que as texturas permanecem no seu estado original, levando a um alto uso de disco e VRAM.
- NTC Transcoded to BCn (formatos comprimidos em bloco): Aqui, as texturas são transcodificadas após o carregamento, reduzindo significativamente a ocupação em disco, mas oferecendo apenas economias moderadas de VRAM.
- Inference on Sample Reference Material: Esta abordagem descompacta os elementos de textura apenas quando necessário durante a renderização, conseguindo as maiores economias tanto no espaço em disco quanto na VRAM.
A Compusemble testou a demonstração em resoluções de 1440p e 4K, alternando entre DLSS e TAA. Os resultados sugerem que, embora a NTC possa reduzir drasticamente o uso de VRAM e espaço em disco, também pode afectar as taxas de actualização do ecrã. Em 1440p com DLSS, o modo NTC Transcoded to BCn da Nvidia reduziu o uso de memória de textura em 64% (de 272 MB para 98 MB), enquanto a inferência NTC na amostra reduziu drasticamente para 11,37 MB, uma redução de 95,8% em comparação com a compressão não neural.
A demonstração foi executada numa GPU GeForce RTX 4090, onde o DLSS e as resoluções mais altas impuseram carga adicional nos núcleos Tensor, afectando o desempenho até certo ponto, dependendo da configuração e da resolução. No entanto, GPU mais recentes podem fornecer taxas de actualização mais altas e tornar a diferença insignificante quando devidamente optimizadas.
A demonstração também mostra a importância dos vectores cooperativos em pipelines de renderização modernos. Conforme explicado recentemente pela Microsoft, os vectores cooperativos aceleram as tarefas de cálculo de IA para renderização em tempo real, optimizando as operações vectoriais. Esses cálculos desempenham um papel crucial no treino e ajuste fino de modelos de IA e também podem ser aproveitados para aumentar a eficiência da renderização dos gráficos em videojogos.