EN DIRECT 2621 connexion / inscription
Connexion

Surnom/Pseudo
Mot de Passe :

[ Vous avez perdu votre mot de pass ? | Devenir membre ]

×

L'antialiasing DLSS s'invite dans le jeu Final Fantasy XV

Article
Turing, offre moi du DLSS !
Rédigé par
Publié le 21 Décembre 2018
Page: 1/4

Nous allons aborder aujourd'hui une deuxième grande étape pour l'architecture Turing de NVIDIA. En effet, après l'API DirectX RayTracing que nous avons pu tester dans le jeu Battlefield V, aujourd'hui nous allons découvrir l'antialiasing DLSS dans le jeu Final Fantasy XV. Le jeu Final Fantasy XV est initialement sorti en novembre 2016 sur les consoles de salon PS4 et Xbox One, puis a eu le droit à une sortie sur nos ordinateurs le 6 mars 2018. Le portage est loin d'être parfait, notre jeu démarre par exemple une fois sur quinze environ, et Square Enix a d'ores et déjà annoncé la fin du support de la version PC du jeu, avec l'annulation des DLC prévus Ardyn, Aranea et Luna. La nouvelle aurait pu être rude pour NVIDIA, car le jeu Final Fantasy XV a largement été mis en avant pour mettre en avant les gains obtenus grâce à l’utilisation de l’antialiasing DLSS et l'annonce de Square Enix aurait pu nous faire penser que ce dernier ne serait jamais réellement implanté dans le jeu. Toutefois, le 13 décembre, le DLSS est apparu subitement dans le jeu. Pour l'instant, il s'agit d'une implantation beta et le DLSS est uniquement utilisable avec la résolution 3840 x 2160.

Pour rappel, l'architecture Turing intègre par exemple des RT Core et des Tensor Core, absents de l'architecture Pascal, et on se trouve donc devant un die trois en un avec une partie classique, où l'on retrouve les Cuda Core, et deux nouvelles parties inconnues jusque-là du grand public, les Tensor Core et les RT Core. Les Tensor Core, également présents sur les Quadro RTX de NVIDIA, initiés par l'architecture Volta, sont très utiles pour le deep learning, primordiale pour l'intelligence artificielle, la retouche photo, la reconstitution d'images... Dans un premier temps, nous avions cru que pour le grand public les Tensor Core seraient principalement dédiés à l'utilisation d'un nouveau filtre dans les jeux, le DLSS, qui permet par exemple à une RTX 2080 d'offrir jusqu’à deux fois plus de fps par rapport à une GTX 1080 qui utiliserait le filtre TAA, mais ce n'est pas le cas puisque les développeurs de jeux pourront les utiliser pour gérer l'intelligence artificielle et nous pourrons également y voir un gain notable dans notre éventuelle utilisation des logiciels de retouche photos, par exemple, nous le savons aujourd'hui l'utilisation de nos machines de jeux n'est que très rarement dédiée à notre loisir favori, alors si notre nouveau GPU peut nous aider dans d'autres domaines on dit évidemment oui..

Avec sa nouvelle architecture Turing, NVIDIA souhaite donc repenser l'antialiasing, en le sortant de son intégration classique dans le moteur graphique, afin que les Tensor Core puissent le gérer indépendamment et ainsi que le nombre d'images par seconde soit plus élevé. La promesse est belle, une qualité visuelle quasi-identique, la différence est indécelable à l’œil nu et un gain de performances toujours utile, surtout en 4K.

L'architecture Turing de NVIDIA est actuellement la seule à pouvoir gérer cet antialiasing DLSS, elle dispose pour cela de Tensor Core, 544 Tensor core pour les RTX 2080 Ti, 368 Tensor Core pour la RTX 2080 et 288 Tensor Core pour la RT 2070.

Partagez :