AMD dévoile des CPU et GPU impressionnants pour devenir un champion des centres de données

AMD dévoile des CPU et GPU impressionnants pour devenir un champion des centres de données


AMD va-t-il remuer le monde des puces des supercalculateurs comme il a réussi à le faire dans les consoles et les PC ? On pourrait y croire après avoir vu la conférence « Accelerated Computing », où le champion américain des CPU et GPU a dévoilé ses nouveaux produits et sa feuille de route.

Des PC professionnels aux centres de calculs jusqu’au cloud, tout le monde du « computing » semble avoir non pas un besoin, mais littéralement une « rage » de course à la puissance. Une soif que Lisa SU, PDG d’AMD, a même qualifiée de « méga cycle (des besoins) de super performances ». Pour étancher cette soif, AMD lance un gros monstre appelé EPYC Milan-X. 

Lire aussi : AMD va empiler de la mémoire cache sur ses futurs processeurs (et les joueurs vont adorer)

Une demi-génération de puce qui s’appuie sur la génération « Milan » actuelle. Mais qui fait appel à une astuce technique d’abord expérimentée sur des puces Ryzen, qui arriveront au début de l’année prochaine. Une astuce, dont nous vous avons déjà parlé, qui consiste à littéralement « coller » de la mémoire cache supplémentaire par-dessus le die du processeur Milan-X. Alors que la puce affiche déjà un nombre impressionnant de cœurs – jusqu’à 64 cœurs Zen 3 dans la version la plus haut de gamme – elle sidère tout simplement par sa mémoire cache L3.

Milan-X : déluge de cœurs, tsunami de mémoire cache

Cette mémoire ultra rapide – bien plus que la RAM, car plus proche du processeur – est toujours en quantité limitée dans les processeurs classiques, souvent faute de place – il faut faire des choix ! Sauf qu’en empilant les « chiplets », littéralement des briques de circuits logiques, AMD dépasse les limites traditionnelles et offre jusqu’à 768 Mo de mémoire cache de niveau 3 pour un total jusqu’à 804 Mo.

Vous voulez une comparaison ? Et bien la puce grand public la plus puissante d’AMD, le Ryzen 9 5950X, affiche 64 Mo de cache quand son énorme Threadripper Pro 3995WX (une gamme pour les stations de travail), une puce à 6000 euros, embarquait déjà un record de 256 Mo de cette mémoire « plus vive » que l’éclair.

Autant dire que, avec ces cœurs et cette mémoire en pagaille, et vu le public ciblé, des professionnels peu sensibles aux sirènes du marketing, il y a fort à parier que la majeure partie des promesses de puissance d’AMD soient bien réelles.
Si on ajoute à cela le nombre de contrats toujours plus importants que remporte AMD dans le domaine du calcul intensif – sa progression est très importante dans le Top 500 des supercalculateurs – on peut bel et bien dire que le petit AMD est devenu un vrai concurrent d’Intel dans ce domaine où le géant de Santa Clara, il y a peu, en maître absolu.

AMD ne compte pas s’arrêter là, puisque le Dr Lisa SU en a profité pour rappeler la feuille de route à venir de la prochaine génération qui utilisera le futur cœur « Zen 4 ».
Non pas un nouveau processeur, mais deux distincts : Genoa, un CPU, destiné aux gros méchants calculs complexes. Un gros monstre de 96 cœurs (ce qui donne 192 threads !). Et une seconde puce appelée Bergamo, totalement compatible avec les technologies de Genoa (DDR5, PCIe 5.0, même socket), mais profitant d’un cœur appelé « Zen 4c » modifié pour offrir plus de densité de cœurs (128 coeurs et 256 threads !), et plus d’efficacité énergétique pour les applications cloud. Des puces prévues pour 2022, qui seront, atout supplémentaire, gravées en 5 nm (lire plus loin).

Instinct MI200 : la fin de la domination de Nvidia dans les GPU ?

Ne cherchez pas trop : dans le Top 500 des supercalculateurs, s’il y a bien de la concurrence dans les CPU (Intel Xeon qui domine, mais aussi AMD EPYC, IBM Power, Fujitsu A64FX, etc.), il n’y en a quasiment aucune dans le domaine des GPU. Car Nvidia ne domine pas, ce marché, il l’a totalement phagocyté !
Un état de fait qui a conduit AMD à changer de stratégie il y a quelques années en séparant la R&D de ses GPU en deux branches : plutôt que de développer un GPU à tout faire qu’il décline en version grand public et pro comme ce fut le cas par le passé, AMD a laissé GCN, puis RDNA aux gamers et autres graphistes, et a développé une nouvelle architecture pour le calcul intensif appelée CDNA, qui prend ses fonctions dans une gamme appelée « Instinct ».

Lire aussi : AMD dévoile Instinct MI100, sa carte pro pour les calculs intensifs

La première mouture CDNA « marketée » intégrée dans la puce MI100 s’appuyait sur un vieux cœur graphique de type GCN, il s’agissait d’une version de transition. Mais aujourd’hui, AMD lance Instinct MI200, son GPU à architecture CDNA. Et sur le papier, ce n’est même pas un monstre, mais un titan du calcul.

Gravé en 6 nm par TSMC, ce gros GPU est un tour de force. Il est le premier GPU à ne pas être monolithique. En lieu et place d’un gros monstre, gros et cher à fabriquer, AMD a créé une puce composée de deux GPU indépendants interconnectés entre eux par une véritable autoroute de communication entre composants, l’« Infinity Fabric ».
Cette conception en MCM (Multi-Chip Module) permettrait d’obtenir de très bonnes performances, mais à un coût réduit par rapport à la production d’une grosse puce (plus une puce est grande, plus le taux de rendement est faible ce qui fait exploser les coûts).

Selon AMD, son GPU est plus que performant : ce serait un monstre. Dans certains calculs, il serait de x1,5 à x5 plus rapide que la meilleure puce de Nvidia, la A100. Ces dires, c’est à l’industrie des supercalculateurs de les vérifier et AMD de les démontrer. Il n’empêche que pour l’histoire, c’est bien la première fois qu’AMD publie des slides de GPU professionnels où il se positionne devant Nvidia.

La confiance semble donc grande. Il reste à voir si AMD va jouer un atout qui semblerait logique vu la conception en « chiplets » de son GPU : le prix. AMD a de longue date prouvé qu’il maîtrise les coûts grâce à son savoir-faire en empilement de « morceaux » de puces.
Si AMD arrive à casser les prix comme il l’a fait dans le monde des CPU, l’Américain pourrait rapidement se créer une part de marché nécessaire à sa montée en puissance dans le segment.

Atout TSMC, futur en 5 nm

Les fins connaisseurs pourront débattre à loisir de la structure des puces et de l’organisation de l’architecture interne de telles parties du CPU ou GPU, mais cela reste du très haut niveau.
En revanche, un élément peut être compris par tous : outre la qualité intrinsèque des puces et des outils logiciels, un des atouts majeurs d’AMD pour ces générations de puces est la nature de la fabrication. Plus précisément la maîtrise des procédés de 7 nm à 5 nm avec son partenaire, le Taïwanais TSMC.

Aussi bonnes soient les puces d’Intel (CPU) et de Nvidia (GPU), ils sont tous fabriqués selon des procédés de fabrication moins avancés. Les meilleurs Xeon d’Intel profitent tout juste de la gravure en 10 nm d’Intel, presque aussi dense que le 7 nm de TSMC. Un 7 nm utilisé par TSMC justement pour graver les supers GPU de Nvidia, destinés aux calculs intensifs, les A100.

À découvrir aussi en vidéo :

A découvrir aussi en vidéo :

Sauf qu’en face du 10 nm d’Intel, AMD aligne du 7 nm, et en face du 7 nm de Nvidia, AMD s’apprête à mettre du 6 nm. Et les CPU de l’an prochain profiteront du 5 nm.
Une donne qui est autant à mettre au crédit de TSMC, que des équipes d’AMD, qui ont non seulement su maîtriser la conception de puces à ces finesses, mais aussi négocier des bons prix et l’accès aux volumes de fabrication auprès de TSMC. Une vraie performance puisque toute la planète « semiconducteurs » s’arrache un accès aux usines du Taïwanais.

Lire aussi : Renaissance d’AMD, une réussite à base de leadership, d’architecture et de consoles

Il reste maintenant à garder un œil sur le Top 500 des supercalculateurs et de voir si, d’ici 18-24 mois (c’est un marché plus lent), les parts de marché CPU, mais surtout GPU d’AMD évoluent positivement. Vu la trajectoire de l’entreprise emprunté sous le règne de Lisa Su, il y a fort à parier que cela soit le cas. Intel et Nvidia n’ont pas intérêt de dormir…



Source link

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.