NVIDIA GTC (San Jose, Californie) – En janvier, l’émergence du programme d’intelligence artificielle R1 de DeepSeek a provoqué une chute des marchés boursiers. Sept semaines plus tard, le géant des puces Nvidia, force dominante dans le traitement de l’IA, tente de rattraper le coup.
Mardi, Jensen Huang, cofondateur et PDG de Nvidia, a expliqué comment ses puces Blackwell peuvent accélérer considérablement DeepSeek R1.
Nvidia affirme que ses puces GPU peuvent traiter 30 fois le débit que DeepSeek R1 aurait normalement dans un centre de données. Et ce mesuré par le nombre de jetons par seconde. Comment ? En utilisant un nouveau logiciel open-source appelé Nvidia Dynamo. « Dynamo peut fournir 30 fois plus de performances avec le même nombre de GPU dans la même architecture pour des modèles de raisonnement comme DeepSeek », a déclaré Ian Buck, responsable HPC chez Nvidia.
Accomplir plus de travail par seconde de temps machine en divisant le travail pour l’exécuter en parallèle
Le logiciel Dynamo, disponible aujourd’hui sur GitHub, répartit le travail d’inférence entre 1 000 puces GPU Nvidia. Il est possible d’accomplir plus de travail par seconde de temps machine en divisant le travail pour l’exécuter en parallèle.
Résultat : Pour une tâche d’inférence dont le prix est fixé à 1 dollar par million de jetons, un plus grand nombre de jetons peut être exécuté chaque seconde. Ce qui augmente le revenu par seconde pour les services fournissant les GPU.
Selon M. Buck, les fournisseurs de services peuvent alors décider d’exécuter davantage de requêtes de clients sur DeepSeek. Ou de consacrer plus de traitement à un seul utilisateur afin de facturer davantage pour un service « premium ».
Vers des services d’IA Premium
« Les usines d’IA peuvent ainsi offrir un service premium », a déclaré Buck, « et également augmenter le volume total de jetons de l’ensemble de leur usine. » Le terme « usine d’IA » est une expression utilisée par Nvidia pour désigner les services à grande échelle qui exécutent un volume important de travaux d’IA en utilisant les puces, les logiciels et les équipements en rack de la société.
Nvidia DGX Spark et DGX Station. Nvidia
La perspective d’utiliser plus de puces pour augmenter le débit (et donc l’activité) pour l’inférence de l’IA est la réponse de Nvidia aux inquiétudes des investisseurs. Avec la déflagration DeepSeek, ils se sont mis à penser que moins de calcul serait utilisé pour l’IA. Pourquoi ? Parce que DeepSeek peut réduire la quantité de traitement nécessaire pour chaque requête.
En utilisant Dynamo avec Blackwell, le modèle actuel du GPU d’IA haut de gamme de Nvidia, les centres de données d’IA peuvent produire 50 fois plus de revenus qu’avec l’ancien modèle, Hopper, a déclaré M. Buck.
Travail sur la virgule flottante quatre bits
Nvidia a aussi publié sa propre version modifiée de DeepSeek R1 sur HuggingFace.
La version Nvidia réduit le nombre de bits utilisés par R1 pour manipuler les variables à ce que l’on appelle « FP4 », ou virgule flottante quatre bits. Cela représente une fraction du calcul nécessaire pour la virgule flottante standard 32 ou le B-float 16.
« Cela augmente considérablement les performances de Hopper à Blackwell », a déclaré M. Buck. « Nous l’avons fait sans perte de précision ».
Nouvelle version de Blackwell, « Ultra »
Outre Dynamo, Huang a dévoilé la nouvelle version de Blackwell, « Ultra ». La nouvelle version améliore divers aspects du Blackwell 200, comme l’augmentation de la mémoire DRAM de 192 Go de mémoire HBM3e à large bande passante jusqu’à 288 Go.
Associé à la puce CPU Grace de Nvidia, un total de 72 Blackwell Ultras peut être assemblé dans l’ordinateur en rack NVL72 de la société.
Le système augmentera les performances d’inférence en FP4 de 50 % par rapport au NVL72 basé sur les puces Grace-Blackwell 200.
Des ordinateurs pour faire de l’IA à la maison annoncés par NVIDIA
Toutes ces annonces ont été effectuées en ouverture de la conférence GTC 2025 de NVIDIA. Et d’autres annonces ont suivi. Le minuscule ordinateur personnel destiné aux développeurs d’IA, dévoilé au CES en janvier sous le nom de Project Digits, a reçu sa marque officielle sous le nom de DGX Spark. L’ordinateur utilise une version du combo Grace-Blackwell appelée GB10. Nvidia prend les réservations pour le Spark à partir d’aujourd’hui.
Une nouvelle version de l’ordinateur de bureau DGX « Station », présenté pour la première fois en 2017, a été dévoilée. Le nouveau modèle utilise le Grace-Blackwell Ultra et sera livré avec 784 gigaoctets de DRAM.
C’est un grand changement par rapport à la DGX Station originale, qui s’appuyait sur des CPU Intel en tant que processeur hôte principal. L’ordinateur sera fabriqué par Asus, BOXX, Dell, HP, Lambda et Supermicro. Et il sera disponible « plus tard cette année ».
Adaptation de Llama par NVIDIA
Huang a aussi parlé d’une adaptation des modèles de langage Llama de Meta, appelés Llama Nemotron, avec des capacités de « raisonnement ».
Il s’agit en fait de la production d’une chaîne de résultats détaillant les étapes menant à une conclusion. Nvidia affirme que les modèles Nemotron « optimisent la vitesse d’inférence de 5 fois par rapport à d’autres modèles de raisonnement ».
Les développeurs peuvent accéder aux modèles sur HuggingFace.
Nouveaux commutateurs réseau Spectrum-X
Comme prévu, Nvidia a proposé pour la première fois une version de son commutateur réseau « Spectrum-X » qui place l’émetteur-récepteur à fibre optique dans le même boîtier que la puce du commutateur au lieu d’utiliser des émetteurs-récepteurs externes standard.
Selon Nvidia, ces commutateurs, dont les vitesses de port sont de 200 ou 800 Go/s, offrent « une efficacité énergétique 3,5 fois supérieure, une intégrité des signaux 63 fois supérieure, une résilience du réseau 10 fois supérieure et un déploiement 1,3 fois plus rapide ».
Les commutateurs ont été développés avec Taiwan Semiconductor Manufacturing, les fabricants de lasers Coherent et Lumentum, le fabricant de fibres Corning et l’assembleur sous contrat Foxconn.
NVIDIA se penche aussi sur l’informatique quantique
Nvidia construit à Boston un centre de recherche sur l’informatique quantique qui intégrera du matériel quantique à des superordinateurs d’intelligence artificielle en partenariat avec Quantinuum, Quantum Machines et QuEra.
Cette installation permettra aux partenaires de Nvidia d’accéder aux baies Grace-Blackwell NVL72.
Du neuf pour Omniverse et Cosmos
Huang a annoncé de nouveaux partenaires intégrant le logiciel Omniverse de l’entreprise pour la collaboration en matière de conception virtuelle de produits, notamment Accenture, Ansys, Cadence Design Systems, Databricks, Dematic, Hexagon, Omron, SAP, Schneider Electric avec ETAP et Siemens.
Nvidia a dévoilé Mega, un « modèle » de conception logicielle qui se branche sur le logiciel Cosmos de Nvidia pour la simulation, la formation et l’essai de robots. Parmi les premiers clients, Schaeffler et Accenture utilisent Meta pour tester des flottes de mains robotisées pour des tâches de manutention.
General Motors travaille actuellement avec Nvidia sur « la prochaine génération de véhicules, d’usines et de robots » en utilisant Omniverse et Cosmos.
De nouvelles cartes graphiques
Nvidia a aussi mis à jour sa gamme de cartes graphiques RTX.
La RTX Pro 6000 Blackwell Workstation Edition offre 96 Go de DRAM et peut accélérer de 20 % les tâches d’ingénierie telles que les simulations dans le logiciel Ansys.
Une deuxième version, Pro 6000 Server, est destinée à fonctionner dans les racks des centres de données. Une troisième version met à jour RTX dans les ordinateurs portables.
Des modèles de base pour la robotique
Poursuivant l’accent mis sur les « modèles de base » pour la robotique, dont Huang a parlé pour la première fois au CES lorsqu’il a dévoilé Cosmos, il a révélé mardi un modèle de base pour les robots humanoïdes appelé Nvidia Isaac GROOT N1.
Les modèles GROOT sont pré-entraînés par Nvidia pour atteindre la pensée du « Système 1 » et du « Système 2 », une référence au livre Thinking Fast and Slow du scientifique cognitif Daniel Kahneman. Le logiciel peut être téléchargé sur HuggingFace et GitHub.
Le géant de l’équipement médical GE est l’un des premiers à utiliser la version Isaac for Healthcare de Nvidia Isaac. Le logiciel fournit un environnement médical simulé qui peut être utilisé pour former des robots médicaux. Les applications pourraient inclure l’exécution de tests aux rayons X et aux ultrasons dans les régions du monde qui manquent de techniciens qualifiés pour ces tâches.
Nvidia a déclaré qu’il s’agissait de l’événement GTC le plus important à ce jour, avec 25 000 participants attendus en personne et 300 000 en ligne.