Pourquoi votre prochain ordinateur portable sera conçu par une IA

Pourquoi votre prochain ordinateur portable sera conçu par une IA


C’est un phénomène a étudier de près. Les principaux fabricants de puces pour PC travaillent sur la coordination du fonctionnement des CPU et GPU dans les ordinateurs portables. De quoi obtenir de meilleures performances et une meilleure efficacité énergétique.

Les derniers travaux de Nvidia dans ce domaine sont dignes d’intérêt, non seulement parce que l’entreprise doit collaborer avec ses concurrents pour atteindre ses objectifs, mais aussi parce que ces travaux font partie d’un ensemble plus large d’initiatives appelé Max-Q, soit une « suite de technologies destinées aux ordinateurs portables » qui utilise désormais l’IA pour optimiser la conception des systèmes. Si l’on a beaucoup écrit sur la façon dont l’IA devient plus habile à développer des logiciels (comme les récents progrès d’AlphaCode de DeepMind), on s’est moins intéressé à l’utilisation de l’IA pour optimiser les architectures informatiques où il reste des problèmes épineux à résoudre.

Max Q s’est d’abord concentré sur les ordinateurs portables de jeu, une catégorie qui est passée de quelques centaines de milliers d’unités par an il y a dix ans à plus de 20 millions d’unités par an, éclipsant même les ventes de consoles comme la PlayStation. Au cours de cette période, nous avons vu l’épaisseur d’un ordinateur portable de gaming passer de 30 mm ou plus à 20 mm ou moins. Et même si beaucoup d’entre eux pèsent aujourd’hui près de deux kilos, ils offrent des expériences de jeu haut de gamme, avec une résolution de 1440p et des fréquences d’images élevées.

Qui travaille le mieux entre le CPU et le GPU ?

Par ailleurs, les progrès réalisés dans la réduction de l’épaisseur et du poids des ordinateurs ont conduit à atténuer les styles agressifs et imposants au profit d’une approche plus transversale. Cela est particulièrement évident avec des marques telles que Omen et Victus de HP et Legion de Lenovo.

Enfin, on note des améliorations de l’efficacité énergétique, permettant des durées de jeu plus longues grâce à l’amélioration des performances par watt. Si une grande partie de ces améliorations est possible grâce aux progrès de la technologie des processus, elles peuvent être considérablement améliorées par l’optimisation de l’architecture du système.

C’est là que l’IA entre en jeu. Selon Mark Aevermann, directeur de la gestion et du marketing des produits chez Nvidia, la première version de la fonction Dynamic Boost de Max Q, dans laquelle la puissance et la chaleur sont basculées dynamiquement entre le CPU et le GPU pour améliorer l’efficacité du système, était gérée par un code qui reflétait les prédictions des ingénieurs sur la meilleure façon de compenser ces charges.

La révolution Tensor

Cependant, lorsque Nvida a ajouté des cœurs Tensor (pour l’IA) à son architecture GPU, l’entreprise a réalisé que l’IA pouvait faire un bien meilleur travail en pesant des centaines d’entrées en temps réel pour déterminer où déplacer la puissance du système pour la meilleure efficacité possible. Et contrairement aux algorithmes statiques développés par l’homme, l’IA s’améliore au fil du temps dans cet arbitrage thermique. Il en va de même pour les nouvelles architectures de processeurs telles que Alder Lake, récemment annoncée par Intel. En fait, Nvidia dit avoir travaillé en étroite collaboration avec Intel pour que les GPU de Nvidia puissent gérer à la fois les cœurs de performance et d’efficacité de l’architecture Core 12-gen d’Intel.

Cela conduit à une autre question : Pourquoi AMD et Intel poursuivraient-ils une telle collaboration étant donné qu’ils sont tous deux en concurrence avec Nvidia ? Alors que ces deux sociétés de processeurs aimeraient voir leurs activités GPU se développer, Nvidia a une présence tellement forte sur le marché des GPU embarqué aujourd’hui que, si les autres sociétés lui tournaient le dos, cela se traduirait par une baisse des performances sur les marchés importants ordinateurs de gaming et des stations de travail, cédant un avantage à leur principal concurrent ou, pire encore, à Apple.

En d’autres termes, AMD ne veut pas perdre le marché des processeurs au profit d’Intel (et vice versa) parce que ses puces ne fonctionnent pas aussi bien avec les GPU de Nvdia.





Source link

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.