Le groupe Nvidia profite de l’essor de la demande pour des accélérateurs graphiques et autres composants permettant d’animer des intelligences artificielles toujours plus performantes.
La firme fait tout pour adapter ses produits aux restrictions imposées à la Chine et garder le contact avec ce marché qui lui assure d’immenses revenus, quitte à s’attirer des critiques pour cette constance à vouloir contourner des mesures prises au nom de la sécurité nationale.
Son concurrent AMD a moins d’emprise sur le segment mais il veut s’en donner les moyens et il vient d’annoncer que ses propres produits IA qui sont désormais disponibles et doivent aussi lui assurer de très solides revenus.
La CEO d’AMD Lisa Su a indiqué que le marché des composants IA pour datacenters représentait environ 45 milliards de dollars (sa précédente estimation était de 30 milliards il y a quelques mois) et que son enteprise comptait bien générer au moins 2 milliards de dollars de revenus en 2024 avec ses nouveaux produits et son orientation renforcée en faveur de l’IA.
AMD Instinct MI300X, le GPU qui veut faire mieux que le Nvidia H100
L’offre désormais disponible d’AMD repose sur le GPU IA Instinct MI300X présenté un peu plus tôt dans l’année s’appuyant sur l’architecture graphique CDNA 3, équivalent de RDNA 3 mais avec des fonctionnalités supplémentaires pour les entreprises.
Lors de son annonce, AMD revendiquait une performance x1,6 par rapport à l’accélérateur Nvidia H100 en inférence IA mais les verts ont depuis annoncé l’évolution Nvidia H200 encore plus puissante, peut-être d’ailleurs en réaction à l’arrivée d’AMD sur ce terrain.
Gravé en 6 nm, doté de 192 Go de mémoire HBM3 assurant 5,3 To/s de bande passante, le tout avec une puissance de 750W, le GPU MI300X est une solide alternative aux produits de Nvidia.
AMD Instinct MI300A, le combo CPU et GPU pour l’intelligence artificielle
Parallèlement, AMD annonce également la disponibilité de son APU Instinct MI300A qui combine CPU Zen 4 et GPU CDNA 3. Là encore, il pourra se positionner face à la solution Grace Hopper (CPU ARM et GPU Hopper) de Nvidia.
L’APU exploite 128 Go de mémoire rapide HBM3 maintient la bande passante à 5,3 To/s grâce à un plus grand bus mémoire, tandis que son TDP est de 350W, avec possibilité de grimper jusqu’à 760W.
Le site Tom’s Hardware indique que cette configuration pour ce type de composant est ainsi mieux adaptée aux charges de travail IA et HPC (calcul haute performance).
La solution profite en outre d’un cache mémoire partagée entre CPU et GPU facilitant les transferts de données de l’un à l’autre pour gagner en performance et en efficacité énergétique.
Avec le GPU Instinct MI300X et l’APU Instinct MI300A, AMD renforce ainsi son offre de façon cohérente et de manière à pouvoir aller chercher des parts de marché chez Nvidia, qui domine outrageusement le secteur avec 80% de présence.
Il reste à voir si les grands groupes du cloud ne finiront pas par se détourner de ces solutions en étant capables de produire leurs propres composants custom, comme le font déjà Google (TPU), Amazon (Graviton4 et Trainium2) et et plus récemment Microsoft (Maia 100 et Cobalt 100).
Toutefois, chacun affirme qu’il y a toujours de la place pour les accélérateurs graphiques standard de Nvidia et désormais AMD dans leurs datacenters, au moins jusqu’à nouvel ordre.