CES 2019 : Nvidia explique comment l'IA change tout sur le rendu graphique

Publié le : 11/01/2019 10:55:01
Catégories : Actualités APY Europe


CES 2019 : Nvidia explique comment l'IA change tout ce que vous connaissez du rendu graphique

Article complet de zdnet.fr par Rayon Tiernan

Le directeur général de Nvidia, Jensen Huang, est monté sur la scène à Las Vegas dimanche soir pour dire que l'IA, en particulier l'apprentissage profond, est en train de changer fondamentalement la façon dont son entreprise permet aux utilisateurs de créer des images plus vraies que nature.

Son idée ? Le pipeline graphique traditionnel cède la place aux approches de réseaux neuronaux, accélérées par de nouveaux circuits intégrés, de sorte que la simulation physique et l'échantillonnage de détails du monde réel prennent le pas sur la pratique traditionnelle qui conssite a peindre des polygones à l'écran pour simuler des objets et leur environnement. 

Jensen Huang a souligné à quel point beaucoup de représentations graphiques sont encore assez basiques, affirmant que "au cours des 15 dernières années, la technologie a énormément évolué, mais qu'elle ressemble encore largement à un dessin animé".

Au cœur des techniques d'infographies se trouve aujourd'hui le processus de tramage, par lequel les objets sont rendus sous forme de collections ou de triangles. Mais il est difficile d'utiliser de manière convaincante les trames pour rendre des nuances complexes de lumière et d'ombre, a fait remarquer Jensen Huang.

Trois choses, a-t-il dit, ont disparu : "Les reflets ne sont pas correctes, les ombres ne sont pas justes et les réfractions sont vraiment difficiles à faire" a dit Jensen Huang. Pour remédier à cela, l'une des technologies mises de l'avant par l'entreprise est le ray tracing, où l'ordinateur modélise la physique des photons en interaction avec le monde.

"Il est difficile de simuler les effets de la lumière à partir de la géométrie", c'est-à-dire d'essayer de "peindre" la lumière sur tous les triangles de raster, dit Jensen Huang. Essayer de "cuire" la lumière dans ces triangles n'a pas très bien fonctionné malgré des tentatives ingénieuses. Au lieu de cela, "vous devez partir de la lumière, en traçant la lumière de vos yeux vers le monde." Cette technologie de ray tracing existe depuis des décennies, mais elle n'a pas progressé assez rapidement pour créer des effets lumineux en temps réel. "Il a fallu dix ans pour trouver comment faire du ray tracing assez vite, dit Jensen Huang, et cela n'aurait pas été possible sans l'apprentissage profond (deep learning).

Pour que le ray tracing permette de rendre des effets étonnants comme l'ombre et la pénombre, les nuances des ombres, les reflets sur le verre et dans l'eau, la charge de travail est répartie entre le modèle physique et une approche réseau neuronal que l'entreprise appelle "deep learning super sample, ou "DLSS - deep learning super sample". Nvidia a dit que l'approche utilise une espèce d'autoencodeur de réseau neuronal pour déduire soixante-quatre échantillons par pixel dans chaque pixel de chaque image dans un set d’entrainement d'images rendues. En effectuant cet échantillonnage, le réseau apprend à appliquer un anticrénelage (anti-aliasing) aux images.

"Le DLSS prédit le pixel parfait, il prend une image en basse résolution et en sort une en haute résolution."  

Cette dépendance à l'IA pour l'aide au rendu est quelque chose que ZDNet a souligné dans une interview accordée le mois dernier à Bryan Catanzaro de Nvidia, qui est le responsable de la recherche appliquée sur l'apprentissage profond dans l'entreprise. De plus en plus, la programmation "basée sur modèle" prend le pas sur la programmation graphique traditionnelle, c'est-à-dire l'utilisation d'un modèle de réseau neuronal pour déduire l'apparence des scènes plutôt qu'une personne programmant les règles des polygones pour assembler la scène. 

La combinaison du ray tracing et du DLSS est une forme d'informatique hybride, que la société a baptisée "RTX".  Alors que le DLSS est entraîné sur un supercalculateur composé des puces "DGX2" de l'entreprise, le rendu en temps réel est effectué dans le périphérique client par des cartes accélératrices en plug-in. Un exemple de cette architecture est la carte "GeForce RTX 2060", une nouvelle carte plug-in que Jensen Huang a dévoilé lors du salon et qui sera vendue ce mois-ci pour 349$.

Le modèle 2060 divise le travail du ray tracing et du DLSS en deux types distincts d'éléments processeur dans la GPU, l'un étant les cœurs "RT", pour le ray tracing, l'autre étant les cœurs "tenseurs" qui effectuent le travail d'inférence DLSS qui remplit les images. La société fait valoir que la technologie RTX est capable d'atteindre un équilibre optimal dans les deux formes de calcul, en plus du travail de rendu standard de tramage, pour obtenir de meilleures images sans ralentir le rythme des images envoyées à l'écran. 

Jensen Huang a présenté plusieurs jeux qui seront livrés cette année et qui tireront partie de cette approche split-computing, notamment Battlefield V d'EA, Anthem de BioWare, et le jeu de tir à la première personne Atomic Heart du studio Mundfish (Moscou).

Il a attiré l'attention du public sur les détails de chacun des jeux, ponctuant son discours de fréquents rappels sur le fait que "ce n'est pas un film", ce qui signifie que les images des sont rendues en temps réel entre les circuits RT et tenseur.

Et Jensen Huang voit un rôle beaucoup plus large à ce type d'informatique hybride que le fait d'alimenter les jeux vidéos. Nvidia s'associe aux fabricants de caméra RED Digital Cinema pour rendre possible le montage de vidéos 8K sur des ordinateurs portables avec la technologie RTX par exemple. 

"L'IA et le ray tracing sont deux technologies fondamentales qui, selon nous, définiront la prochaine génération de graphiques" a déclaré Jensen Huang. 

processeur EPYC 7nm

Partager ce contenu

Ajouter un commentaire

 (avec http://)