Initialement prévue pour 2026, Rubin – la prochaine génération de puces dédiée à l’IA de NVIDIA – pourrait finalement faire son apparition sur le marché dès le milieu de l’année 2025, marquant ainsi une accélération significative dans la feuille de route technologique de l’entreprise.
Baptisée Rubin et destinée à prendre la relève des puces Blackwell lancées en mars dernier, cette architecture promet – au moins sur le papier – des performances accrues et une amélioration de l’efficacité énergétique, pour des applications d’IA toujours plus puissantes et sophistiquées. Cette décision stratégique d’avancer le lancement des puces Rubin à la mi-2025 vise surtout à consolider la position dominante de NVIDIA sur le marché de l’intelligence artificielle, un secteur en pleine expansion.
Rubin R100 : une puissance sans précédent pour l’intelligence artificielle
Au cœur de cette nouvelle architecture se trouve la gravure en 3 nm de TSMC (FinFET EUV 3nm), le plus grand fondeur de puces au monde. Cette meilleure finesse de gravure permet de créer des transistors plus petits et plus denses, augmentant ainsi la puissance de calcul tout en réduisant la consommation d’énergie par rapport aux GPU Blackwell B100 et B200, actuellement gravés en 4 nm (N4P) par TSMC.
L’utilisation de mémoire empilée HBM4 offrira en outre une augmentation de la bande passante, permettant de traiter plus rapidement des ensembles massifs de données. Ces avancées technologiques placent Rubin à l’avant-garde de l’innovation en matière d’intelligence artificielle, pour des applications allant des véhicules autonomes aux systèmes d’IA de santé en passant par la finance et bien d’autres domaines. Les cartes graphiques grand public sont en revanche écartées : comme Hopper en son temps, l’architecture Rubin n’a pas vocation à être utilisée par les GeForce RTX.
A lire aussi : NVIDIA obligée de brader ses GPU en Chine
Un lancement stratégique pour dominer le marché de l’IA
La décision de NVIDIA d’accélérer le lancement de Rubin s’inscrit dans une stratégie offensive visant à maintenir sa position de leader dans le secteur de l’IA face à une concurrence croissante venant d’autres acteurs du marché comme AMD ou Intel. En devançant ses rivaux, NVIDIA espère au passage imposer ses propres normes technologiques et s’emparer d’une part importante de ce marché en pleine croissance.
Ce lancement anticipé témoigne également d’une volonté de proposer des solutions de pointe à un rythme accéléré, en rupture avec les cycles de développement historiques du constructeur. Ce dernier compte bien profiter de la disponibilité des technologies et composants tels que la mémoire HBM4, désormais produite en masse, pour prendre une longueur d’avance sur ses concurrents.
GPU | R100 | B200 | B100 | H200 | H100 |
Architecture | Rubin | Blackwell | Blackwell | Hopper | Hopper |
Nœud de gravure | TSMC N3 | TSMC 4NP | TSMC 4NP | TSMC 4N | TSMC 4N |
Date de lancement | S2 2025 | 2024 / 2025 | 2024 | 2024 | 2023 |
Mémoire | HBM4 | 192 Go HBM3e | 192 Go HBM3e | 96 Go HBM3 144 Go HBM3e |
80 Go HBM3 |
Max TDP | À déterminer | 1000W | 700W | 700W | 700W |
🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.
Source :
ITHome