Nvidia a tenu à mettre les choses au clair : l’entreprise a « une génération d’avance » sur le reste de l’industrie en matière de puces IA. Une mise au point qui intervient après une rumeur voulant que Meta choisisse du silicium de Google pour certains de ses centres de données.
Nvidia n’a pas l’intention de se faire distancer. Le géant américain des GPU et des puces IA qui surfe sur l’incroyable boom (bulle ?) de l’IA a manifestement mal pris une indiscrétion du site The Information. Meta, un des principaux clients de l’entreprise, aurait jeté son dévolu sur des puces Tensor de Google pour équiper des data-centers.
Nvidia devant, les autres derrière
Si Nvidia n’a pas grand chose à craindre de la concurrence — car après tout, ses semi-conducteurs représentent plus de 90 % du marché des puces IA —, pas question de laisser penser que des puces rivales peuvent faire mieux ou qu’elles sont plus attractives. Ce d’autant que les investisseurs surveillent tout cela de très près et que le cours de Bourse a été chahuté.
C’est ce qui a valu une mise au point très claire de Nvidia sur les réseaux sociaux : l’entreprise se dit « ravie » du succès de Google dans le secteur de l’IA, mais n’oublie pas de rappeler que les centres de données du moteur de recherche sont équipés en puces de Nvidia. Qui se paie au passage un petit tacle condescendant, en se réjouissant des « grands progrès » réalisés par Google dans l’IA…
Et afin d’enfoncer le clou, Nvidia affirme avoir « une génération d’avance » sur le reste du secteur. « C’est la seule plateforme capable d’exécuter tous les modèles d’IA et de le faire partout où s’effectue le calcul.» Les puces du groupe offrent « de meilleures performances et davantage de polyvalence », et elles peuvent être réutilisées « pour à peu près n’importe quelle tâche », contrairement aux puces ASIC… comme les Tensor de Google, conçues pour un usage spécifique.
Pour le moment, Google ne commercialise pas ses Tensor en direct, mais les entreprises qui le souhaitent peuvent les louer via Google Cloud. Et ces puces montent en puissance : le nouveau modèle Gemini 3 a été entraîné sur les TPU maison, pas sur des GPU de Nvidia.
Un porte-parole de Google n’a pas manqué de confirmer une « accélération de la demande » des entreprises pour exploiter non seulement les puces Nvidia installées dans ses centres de données, mais aussi pour ses propres Tensor.
👉🏻 Suivez l’actualité tech en temps réel : ajoutez 01net à vos sources sur Google Actualités, abonnez-vous à notre canal WhatsApp ou suivez-nous en vidéo sur TikTok.
Source :
CNBC