L’IA pourrait bientôt consommer autant d’électricité qu’un pays tout entier, selon un chercheur

4 GPT puce


L’intelligence artificielle générative, un gouffre énergétique ? Un chercheur montre que cette technologie pourrait augmenter sensiblement la consommation d’énergie et l’empreinte carbone des centres de données. Pour éviter tout gaspillage énergétique éventuel, il faudrait veiller à réfléchir à son utilisation, préconise ce spécialiste.

L’intelligence artificielle générative est aujourd’hui vue comme « un eldorado ». Mais on oublie souvent qu’elle nécessite énormément d’énergie pour fonctionner. C’est ce que rappelle Alex de Vries, un économiste néerlandais auteur d’un article paru mardi 10 octobre dans la revue Joule. Le chercheur, connu pour avoir travaillé sur l’impact environnemental des bitcoins, souligne que l‘IA derrière ChatGPT, Dall-E ou Midjourney pourrait bientôt avoir besoin d’autant d’énergie qu’un pays tout entier. 

Jusqu’à présent, les développeurs d’IA comme OpenAI et son partenaire Microsoft, Google ou Meta communiquent peu sur la consommation réelle d’énergie ou sur l’impact environnemental de leurs systèmes. Les chercheurs parviennent néanmoins à travailler sur des estimations, en utilisant des moyens détournés. Alex de Vries, qui est doctorant à l’université libre d’Amsterdam, et fondateur de la société Digiconomist s’est, pour sa part, basé sur le nombre de puces graphiques qui seraient nécessaires au bon fonctionnement de ce type de technologie.

Des estimations faites grâce aux puces de Nvidia

Car dans le secteur de l’IA, la majorité des entreprises utilisent des puces graphiques conçues par Nvidia, le champion américain des semi-conducteursConcrètement, Alex de Vries s’est appuyé sur les prévisions de ventes des Nvidia A100 et H100, ces processeurs graphiques devenus indispensables à l’entraînement des IA génératives. Ce sont eux qui devraient être utilisés par 95 % du marché de l’I.A. Or, « chacune (de ses puces) est très gourmande en énergie », a expliqué l’économiste à nos confrères du New York Times

Ce dernier s’est servi d’une projection selon laquelle Nvidia pourrait livrer 1,5 million de ses serveurs d’ici 2027, des ensembles qui comprennent chacun plusieurs puces A100 ou H100. Il s’est ensuite penché sur les chiffres de consommation d’électricité de ces serveurs, à savoir les DGX A100 et les DGX H100. Son résultat : l’économiste estime que sur une année, ces serveurs d’IA pourraient consommer, au total, entre 85 et 134 térawattheures, d’ici à 2027. Ce qui correspondrait à la consommation annuelle de l’Argentine, des Pays-Bas ou même de la Suède, soit 0,5 % de la consommation mondiale actuelle d’électricité, écrivent nos confrères.

Bien sûr, il s’agit d’une évaluation : les entreprises pourraient ne pas utiliser les serveurs à 100 %, ce qui réduirait de fait l’électricité utilisée, mais l’énergie nécessaire au refroidissement des serveurs pourrait faire monter les chiffres.

Dans le secteur de l’IA, pas de recherche d’économie d’énergie pour l’instant

En 2022, on estime que les data centers ont consommé entre 1 et 1,3 % de l’électricité mondiale. Ce chiffre pourrait donc être plus important cette année, avec l’IA – de même que leur impact sur l’environnement. Ces centres de données fonctionnent grâce à des énergies fossiles ou renouvelables. Conséquence, l’électricité nécessaire au fonctionnement de l’I.A. pourrait augmenter les émissions de carbone dans le monde, écrivent nos confrères du New York Times. Cette augmentation pourrait même être exponentielle. Car dans la course à l’IA, la recherche d’économie d’énergie n’est clairement pas la priorité.

Pourtant, il faudrait tenir compte de la consommation d’électricité lors de la conception de la prochaine génération de puces et de logiciels d’intelligence artificielle, plaident certains experts. « Peut-être devrions-nous idéalement ralentir un peu pour commencer à appliquer les solutions que nous avons », avance Roberto Verdecchia, professeur adjoint au laboratoire des technologies logicielles de l’université de Florence, interrogé par nos confrères. « Ne créons pas un nouveau modèle pour améliorer uniquement la précision et la vitesse. Mais aussi, prenons une grande respiration et regardons à quel point nous brûlons de ressources environnementales », ajoute-t-il.

Ces chiffres pourraient donner matière à réflexion, explique Alex de Vries, interrogé par The Verge. De nombreuses entreprises se sont lancées dans cette course à l’IA, comme de nombreux internautes se sont essayés à ces nouveaux outils. On sait désormais que cette technologie consomme beaucoup d’énergie. Dans son article, l’économiste invite d’ailleurs les régulateurs à imposer davantage de transparence aux développeurs d’IA quant à l’impact environnemental de leurs systèmes. Mais il ne faudrait pas non plus « utiliser l’IA pour des choses dont nous n’avons pas réellement besoin ».

Source :

Alex de Vries, The growing energy footprint of artificial intelligence, Joule (2023)



Source link

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.