Nvidia a-t-il fait n’importe quoi avec sa RTX 4090 ?

Nvidia a-t-il fait n’importe quoi avec sa RTX 4090 ?


Monstre physiquement très difficile à intégrer dans de nombreux châssis d’ordinateur et tirant 350 Watts à la prise, la GeForce RTX 4090 a été conspuée pour sa consommation délirante. Ce alors qu’en perdant seulement 8% de performances en la sous-voltant, la carte consomme 115 W de moins !

La nouvelle RTX 4090 de Nvidia est-elle un désastre énergétique ou au contraire un champion de l’efficacité ? La réponse tient dans la manière dont cette carte graphique très haut de gamme est utilisée, comme l’ont démontré des bidouilleurs. Rappelons le contexte : dans la nouvelle génération de puces graphiques RTX 4000 présentée par Nvidia, tout au sommet trône la RTX 4090.

A lire aussi : Nvidia annonce les GeForce RTX 4090 et 4080 : elle explosent les performances… et les prix ? (septembre 2022)

Cette carte est un monstre à tous les égards. En consommation énergétique tout d’abord : avec un TGP de 350 W et des pointes possibles à 450 W, la carte a de quoi faire trembler de nombreuses alimentations milieu de gamme. Elle a même fait fondre de nombreux connecteurs ! C’est cette soif de puissance qui a déterminé son format, proprement gigantesque. La carte de référence est tellement grande qu’elle nécessite trois emplacements PCIe dans les PC ! Et transforme toutes ses concurrentes en naines à cause de son imposant dissipateur thermique. Et puis il y a le prix finalement : à plus de 2 000 € en moyenne, c’est la carte gaming la plus chère de l’histoire. Pourtant, Nvidia aurait pu écrire l’histoire autrement.

© quasarzone.com

C’est ce que démontre un bidouilleur coréen qui a effectué une opération de sous-voltage de sa carte – une version Nvidia Founders Edition. En limitant le voltage de sa carte, notamment la fréquence de boost moyenne, le Coréen a démontré que des pertes minimes de performances permettent d’abaisser massivement la consommation de pointe de la carte. Plus précisément, en passant de 1 V (1 000 mV) à 850 mV, la carte développe déjà 92,4% de sa puissance, mais sa consommation moyenne passe de 347 Watts à seulement 232 W ! Vous allez me dire que l’opération de sous-voltage est potentiellement risquée et que les ingénieurs de Nvidia ont bien fait de faire attention à ces tensions.

A lire aussi : Nvidia RTX 4090 : les câbles peuvent fondre si vous les avez mal branchés (nov. 2022)

Oui, mais notre bidouilleur a aussi pensé à cela et a utilisé un outil permettant simplement d’abaisser la limite de puissance énergétique de boost de la carte en la faisant passer à 60%. Dans ce mode, la RTX 4090 développe 93,9% de sa puissance initiale dans les jeux et ne consomme plus que 268 W (contre 347 Watts). En clair : les 6,1 points performances supplémentaires « coûtent » 79 Watts. Une dépense énergétique qui semble clairement déraisonnable.

A lire aussi : Radeon RX 7900 XT et XTX : AMD attaque les GeForce sur la taille, l’énergie et… le prix !  (nov. 2022)

On pourrait utiliser l’argument que la RTX 4090 n’est pas une carte « normale » et qu’en tant que mètre étalon de la puissance, elle peut tout se permettre pour être « la plus rapide du monde ». Les RTX 4080 et descendantes étant là pour les « vrais » joueurs. Mais le fait est qu’en 2022, avec le contexte climatique et énergétique actuel, on a presque envie de dire « chaque watt compte » et que l’efficacité énergétique devrait être le Graal absolu – c’est déjà le cas dans les puces mobiles, souvent limitées à 4-5 W ! C’est d’autant plus stupide pour Nvidia que, une fois abaissé aux alentours de 250 W, sa carte devient alors la championne de l’efficacité énergétique en fps/watt. La compétition de la course à la puissance a du bon pour la concurrence, mais elle pousse malheureusement certains à des comportements extrêmes dont on pourrait clairement se passer. Vivement les tests des cartes à 250 W de chez Nvidia pour que ce bad buzz se transforme en justes récompenses de sa nouvelle architecture GPU.

Source :

Quasar Zone



Source link

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.