Nous inaugurons une série de tests sur le thème de l'influence des barrettes sur notre loisir fétiche, le jeu vidéo. La question est simplissime, la capacité, la fréquence, la quantité de barrettes ont-elles une influence sur la moyenne de fps, in game ? Pour commencer cette série de tests, nous débutons par un article orienté sur l'impact potentiel de la capacité totale de mémoire vive. Pour se faire, nous avons convoqué trois kits, un CORSAIR Vengeance RGB 3200 MHz 16-18-18-36, et deux kits Crucial 3200 MHz 16-18-18-36. Cela nous a permis d'effectuer nos tests avec 16 Go de mémoire (deux barrettes de 8 Go), 32 Go (deux barrettes de 16 Go) et 64 Go (quatre barrettes de 16 Go).
Nous avons retenu 11 jeux pour nos benchmarks, avec diverses API et divers moteurs graphiques :
La configuration de test est la suivante :
Les jeux sont testés avec les options graphiques poussées au maximum, seules les options liées aux technologies Ray Tracing, DLSS et FSR sont écartées. Le choix des résolutions sont classiques avec 1920 x 1080, 2560 x 1440 et 3840 x 2160.
Nous vous proposons trois screenshots, chacun représente le taux d'occupation de mémoire au démarrage sous Windows, en configuration 16, 32 et 64 Go. Les screens sont réalisés sous Windows avec deux launchers lancés (Steam et Ubiconnect), on remarquera que plus notre configuration a une capacité de mémoire accrue, plus le système d'exploitation semble prendre ses aises.