Une histoire de PCI Express …

C’est la rentrée, et du coup j’ai renouvelé ma garde robe config. Je suis passé du coté obscure de la force, j’ai pris un AMD, plus précisément un Ryzen 7 3700x.

Rappel :

Pour mes besoins de stream/encodage j’utilise une seconde carte vidéo, une 1050 Ti dédié à l’encodage (via NVENC en H264) pour que le CPU et le GPU puissent bosser tranquillement pour le jeu. J’utilise aussi une Blackmagic intensity pro 4K en PCIE 2.0 4x.

Sur ma précédente config en X99, j’avais donc ma GTX 1070sur un port PCIE 16x, une GTX 1050 Ti “bridé” en PCIE 8x et ma Blackmagic.

Problème :

J’ai donc fait l’acquisition d’une AMD Ryzen 7 3700x avec une carte mère en X470. Je n’ai pas pris de X570 car le support du PCIE 4.0 c’est useless actuellement et pour encore bon un moment…. et pas de B450 car pas assez de prises PCIE. Après avoir monté et installer la machine, j’ai constaté que mon GPU principale etait en PCIE 8x et pas en 16x. Après m’être bagarré avec le bios et m’être renseigné dans le manuel, je n’ai pas eu de solutions! Du moment qu’on met 2 GPUs, même sans SLI ou crossfire, le premier port se met en 8x (manque de liens PCIE toussa … pourtant je croyais avoir vérifié).

Après avoir avalé la pilule, je me suis demandé la différence de perf entre du 8x et du 16x car je savais qu’on était loin de saturer le port PCIE 3.0 16x et après recherche et test, c’est encore pire que ce que je croyais!

J’ai trouvé un article sur un site ou ils ont tester la différence de perfs entre les différentes normes de ports PCIE et voici les resultats :

Ils ont testé avec une GTX 1080 et une RTX 2080 Ti, le resultat est clair, globalement la différence moyenne de perf est de moins de 3%, un petit chouilla plus selon les jeux et les résolutions. C’est surtout sur la dernière génération de GPU que la différence “commence” à peine à se ressentir.

Donc oui, le PCIE 4.0 ne sert STRICTEMENT à rien pour les cartes graphiques actuelles (les SSD Nvme en PCIE4.0 par contre pourquoi pas…).

Je vous invite a lire les articles en question :
https://www.techpowerup.com/review/nvidia-geforce-gtx-1080-pci-express-scaling/
https://www.techpowerup.com/review/nvidia-geforce-rtx-2080-ti-pci-express-scaling/

Test rapide:

Bon, je voulais en avoir le cœur net, j’ai donc essayer de voir la différence de perf entre du 8x et du 16x via le benchmark de Final Fantasy 15 et celui d’Assassin Creed Odyssey.

En PCIE 3.0 16x :

En PCIE 3.0 8x :

Bon aller, ça casse pas 3 pattes à un canard, je reste en 8x et je laisse ma 1050 Ti en carte secondaire. Néanmoins j’ai commandé une RTX 2070, je referais rapidement un test pour voir la différence à sa réception.

EDIT 02/09/2019

Bon, suite à des tests de streaming (avec OBS et encodage NVENC) la carte en 8x perd des FPS en capture (pas en jeu) alors qu’en 16x non, surement une saturation lors du retour d’information pour l’encodage. La mauvaise nouvelle du coup c’est que j’ai quand même viré la 1050 Ti pour laisser le GPU principale en 16x. La bonne nouvelle c’est que j’encode avec le Ryzen 7 3700x et que coté perf il en à strictement rien a foutre :D. L’encodage en 720p60 4000Kbps (ma connexion ne me permet pas plus) ne bouffe que 8-10% du CPU (contre 25-30% facile avec l’ancien 6800k). Tout est bien qui fini bien!

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.