L’IA semble inéluctable. Elle est partout. Dans votre smartphone, dans Google, dans vos outils de travail. Et les fonctionnalités de l’IA promettent de rendre la vie plus facile et plus productive. Mais quel est exactement l’impact environnemental d’une requête sur un chatbot ?
Ce qui est certains, c’est que si l’adoption de l’IA ne cesse de croître, les coûts énergétiques de cette technologie également. Composée de systèmes de calcul intensif, l’IA nécessite beaucoup de données, qui doivent être stockées sur des serveurs dans des « centres de données ». Ces datacenters gigantesques ont besoin d’électricité, tout comme le processus d’entraînement d’un modèle d’IA, qui repose sur une plus grande quantité de calcul que les fonctions informatiques traditionnelles.
Mais comment comparer et mesurer cette consommation réellement ? Le temps que l’IA est censée faire gagner vaut-il cette consommation supplémentaire ? Et que devriez-vous savoir sur votre empreinte personnelle en matière d’IA ?
Nous nous sommes entretenus avec des experts et des chercheurs pour expliquer combien l’IA consomme réellement d’énergie.
Qu’est-ce qu’un centre de données ?
L’IA a besoin de plus de ressources pour fonctionner que d’autres types de technologies numériques. La quantité de données ingérées par les systèmes d’IA et la puissance de calcul requise pour les faire fonctionner les distinguent des tâches informatiques plus simples. Un système d’IA est en fait un cerveau synthétique qui doit être alimenté par des milliards de données. C’est pourquoi les LLM tendent à être meilleurs pour certaines tâches : un modèle d’image entraîné sur quatre milliards d’images de chats, par exemple, devrait produire une image plus réaliste d’un chat qu’un modèle entraîné sur seulement 100 millions d’images.
Mais toutes ces connaissances doivent être stockées quelque part. Le cloud computing n’est en rien un nom aérien pour le stockage. Il s’agit d’un centre de données physique, qui abrite de vastes réseaux d’ordinateurs qui traitent et stockent d’énormes quantités de données et exécutent des requêtes complexes.
Bien que ces grandes fermes informatiques aient toujours existé, elles sont plus demandées que jamais à mesure que la course à l’IA s’intensifie – et que les outils eux-mêmes deviennent moins chers et plus accessibles.
« Les grandes entreprises les gèrent comme des actifs immobiliers », explique John Medina, vice-président de Moody’s. « Jusqu’à présent, tout le monde n’en avait besoin que d’un petit peu ». Aujourd’hui, dit-il, la pression est forte pour servir une base de clients en croissance rapide.
Plus un modèle a de paramètres, plus il utilise de calcul
Cette demande entraîne une augmentation de la consommation d’énergie. Et plus un modèle a de paramètres, plus il utilise de calcul, explique Vijay Gadepally, du Lincoln Laboratory du MIT. « Vous avez besoin de plus de puissance de calcul rien que pour stocker le modèle et être en mesure de le traiter ».
Et la croissance des centres de données ne montre aucun signe d’arrêt. Par exemple, Donald Trump a annoncé le projet Stargate, une initiative de 500 milliards de dollars soutenue par des entreprises telles qu’OpenAI, Softbank et Oracle pour construire des centres de données « colossaux ». Ces entreprises sont connues sous le nom d’hyperscalers, un groupe restreint mais dominant d’entreprises telles que Microsoft, Google, Meta et AWS qui construisent la plus grande partie de l’infrastructure.
Toutefois, M. Medina fait remarquer que le battage médiatique pourrait gonfler l’ampleur de la croissance des centres de données liée à l’IA. « Lorsque nous parlons d’hyperscalers, de grands centres de données, de centres de données d’IA, nous créons de la confusion. La plupart de ces centres sont destinés au cloud », dit-il, faisant référence à des services tels que le stockage et le traitement des données. Il fait remarquer que malgré tout ce qui se dit, les centres de données ne traitent qu’un nombre relativement faible de tâches liées à l’IA.
Cela dit, l’essor de l’IA modifie les normes. « Dans le passé, les besoins n’étaient pas aussi importants. 4 mégawatts étaient considérés comme de l’hyperscale », explique M. Medina. « Aujourd’hui, 50 ou 100 mégawatts constituent le minimum ».
Combien d’énergie l’IA consomme-t-elle ?
Comme l’a admis Sasha Luccioni, Ph.D., responsable de l’IA et du climat chez Hugging Face, dans un récent article d’opinion, nous ne savons toujours pas quelle quantité d’énergie l’IA consomme. Et ce parce que très peu d’entreprises publient des données sur leur utilisation.
Toutefois, plusieurs études indiquent que la consommation d’énergie est en hausse, stimulée par la demande croissante d’IA. Une analyse du Berkeley Lab de 2024 montre que la consommation d’électricité a augmenté de manière exponentielle en même temps que l’IA au cours des dernières années.
Selon l’Agence Internationale de l’Energie, les data centers consomment entre 2 et 3 % de l’électricité mondiale. En 2023, ces infrastructures ont consommé environ 350 TWh. Cela représente une augmentation significative par rapport aux années précédentes. Et la demande d’électricité des centres de données dans le monde devrait plus que doubler d’ici à 2030 pour atteindre environ 945 térawattheures (TWh), soit un peu plus que la consommation totale d’électricité du Japon aujourd’hui.
Certains pays comme l’Irlande et les Pays-Bas sont particulièrement impactés. En Irlande, les data centers pourraient représenter 30 % de la consommation électrique d’ici 2028. La France, avec ses 264 data centers, consomme environ 8,5 TWh par an, soit 2 % de sa consommation totale.
Pour certains, c’est une raison de s’inquiéter. « Si nous augmentons la production d’électricité, cela va très vite poser un problème de carbone », averti M. Gadepally.
Même si les centres de données se multiplient, leur courbe de consommation pourrait se stabiliser grâce aux technologies modernes
D’autres relativisent. S’il est évident que l’IA fait grimper les coûts de l’énergie, la consommation mondiale d’énergie est globalement en hausse. Les centres de données et les GPU récents sont également plus efficaces sur le plan énergétique que leurs prédécesseurs. Cela signifie qu’ils génèrent relativement moins de carbone. « Ces constructions massives de 100 ou 200 mégawatts utilisent les technologies les plus efficaces. Ce ne sont pas de vieilles machines gourmandes en énergie comme le sont les plus anciennes », dit M. Medina. Même si les centres de données se multiplient, leur courbe de consommation prévue pourrait commencer à se stabiliser grâce aux technologies modernes.
En ce qui concerne la consommation d’énergie de l’IA, tous les types d’IA n’ont pas la même empreinte. Nous n’avons pas accès aux données de consommation d’énergie pour les modèles propriétaires d’entreprises comme OpenAI et Anthropic (par opposition aux modèles libres). Cependant, tous modèles confondus, l’IA générative – en particulier la génération d’images – semble utiliser plus de calculs (et donc créer plus d’émissions) que les systèmes d’IA standard.
Une étude d’octobre 2024 de Hugging Face portant sur 88 modèles montre que la génération et le résumé de texte utilisent plus de 10 fois l’énergie nécessaire à des tâches plus simples telles que la classification d’images et de textes. L’étude montre également que les tâches multimodales, dans lesquelles les modèles utilisent des images, des sons et des vidéos, se situent « à l’extrémité supérieure du spectre » en ce qui concerne la consommation d’énergie.
Une requête ChatGPT utilise-t-elle vraiment une bouteille d’eau ?
Lorsqu’il s’agit de comparaisons spécifiques, les recherches sur les ressources utilisées par l’IA sont très disparates. Une étude a déterminé que demander à ChatGPT de rédiger un courriel de 100 mots utilisait une bouteille d’eau entière. Cette affirmation a ensuite rapidement circulé sur les médias sociaux.
Mais est-ce vrai ? « C’est possible » dit M. Gadepally. Il souligne que les GPU génèrent beaucoup de chaleur. Même lorsqu’ils sont refroidis par d’autres méthodes, ils ont toujours besoin d’être refroidis à l’eau. « Si vous utilisez 16 à 24 GPU pour un modèle qui peut fonctionner pendant 5 à 10 minutes, avec la quantité de chaleur qui est générée, vous pouvez commencer à faire le calcul ».
Ces systèmes n’utilisent pas non plus n’importe quel type d’eau. Ils ont besoin d’une eau propre, de haute qualité et potable. « Ces tuyaux ne doivent pas être obstrués par quoi que ce soit », explique M. Gadepally. « De nombreux centres de données se trouvent dans des zones où les bassins hydrographiques sont soumis à des pressions, il faut donc en tenir compte ».
La comparaison d’une requête IA avec la charge d’un smartphone
De nouvelles méthodes comme le refroidissement par immersion, dans lequel les processeurs sont immergés dans un liquide comme l’huile, sont prometteuses pour réduire l’utilisation d’eau et la consommation d’énergie par rapport à d’autres méthodes de refroidissement comme les ventilateurs. Mais la technologie est encore en développement et devrait être largement adoptée pour avoir un impact.
Les données propriétaires étant encore floues, il existe plusieurs autres comparaisons sur la quantité d’énergie consommée par les requêtes des chatbots. Jesse Dodge, un chercheur de l’institut Ai2, a comparé une requête ChatGPT à l’électricité utilisée pour alimenter une ampoule pendant 20 minutes.
L’étude Hugging Face note que « la charge d’un smartphone moyen nécessite 0,022 kWh d’énergie. Cela signifie que le modèle de génération de texte le plus efficace utilise autant d’énergie que 9 % d’une charge complète de smartphone pour 1 000 inférences. Le modèle de génération d’images le moins efficace utilise autant d’énergie que 522 charges de smartphone (11,49 kWh), soit environ la moitié d’une charge par génération d’image ».
La consommation d’énergie varie beaucoup en fonction du prompt utilisé
Selon M. Gadepally, un modèle d’IA traitant un million de jetons (token) – soit environ un euro en coûts de calcul – émet à peu près autant de carbone qu’une voiture à essence parcourant entre 8 et 16 kilomètres. Mais la consommation d’énergie varie également beaucoup en fonction de la complexité du prompt utilisé. Dire « Je veux une histoire courte sur un chien » utilisera probablement moins de calcul que « Je voudrais une histoire sur un chien assis sur une licorne écrite en vers shakespeariens », dit-il.
Si vous êtes curieux de savoir comment vos requêtes individuelles de chatbot consomment de l’énergie, Hugging Face a conçu un outil qui estime la consommation d’énergie des requêtes adressées à différents modèles open-source. Green Coding, une organisation qui travaille avec des entreprises pour suivre l’impact environnemental de leur technologie, a conçu un outil similaire.
Comment la consommation d’énergie de l’IA se compare-t-elle à celle des autres technologies ?
S’il est vrai que la consommation globale d’énergie semble augmenter en partie en raison des investissements dans l’IA, les chercheurs invitent les utilisateurs à considérer la consommation d’énergie comme relative.
La métrique selon laquelle une requête ChatGPT consomme 10 fois plus d’énergie qu’une recherche Google est devenue la norme. Mais elle est basée sur une estimation de Google faite en 2009, aujourd’hui dépassée. L’idée était alors que une recherche Google consomme 0,3 wattheure (Wh) d’énergie. Il est difficile de dire si ce chiffre a augmenté ou diminué aujourd’hui en raison de changements dans la complexité des recherches Google ou de l’amélioration de l’efficacité des puces.
Quoi qu’il en soit, comme l’a souligné Hannah Ritchie, spécialiste des données et chercheuse en climatologie, ces 0,3 Wh d’énergie doivent être mis en perspective : c’est relativement peu. En France, la consommation quotidienne moyenne d’électricité par personne est d’environ 23 KWh par personne. Si l’on utilise la métrique obsolète de Google, une requête ChatGPT ne représente que 3 Wh; même avec plusieurs requêtes par jour, ce n’est pas un pourcentage énorme.
Les chercheurs comparent les coûts énergétiques de l’utilisation de ChatGPT par rapport à la consommation d’énergie quotidienne individuelle, ici aux Etats-Unis et au Royaume-Uni.
L’intégration de l’IA dans le cloud rend le calcul de plus en plus délicat à réaliser
De plus, les technologies qui n’utilisent pas explicitement l’IA utilisent déjà une grande partie de la bande passante des centres de données.
« Quelles sont les applications numériques les plus en vogue aujourd’hui ? TikTok, Instagram Reels, les recherches sur YouTube, le streaming, les jeux – toutes ces applications sont hébergées dans le cloud », explique Raj Joshi, SVP chez Moody’s.
A mesure que les fonctions d’IA s’intègrent dans tous les domaines, des jeux aux technologies d’entreprise, il devient de plus en plus difficile d’attribuer des demandes d’énergie spécifiques à des applications d’IA ou non.
Au sein de l’IA, cependant, les besoins en modèles évoluent. « L’augmentation de la consommation d’énergie par rapport au début de l’histoire de la technologie est assez importante », dit M. Gadepally. Il fait remarquer que l’inférence – lorsqu’un modèle fait des prédictions après avoir été entraîné – représente aujourd’hui une part beaucoup plus importante du coût de la durée de vie d’un modèle. « Ce n’était pas le cas avec certains des modèles originaux, où l’on pouvait consacrer beaucoup d’efforts à l’entraînement de ce modèle, mais où l’inférence était en fait assez facile – il n’y avait pas beaucoup de calculs à faire ».
L’utilisation de ChatGPT est-elle mauvaise pour l’environnement ?
L’IA étant devenue inextricablement liée aux technologies existantes, les experts estiment qu’il est difficile de déterminer son impact spécifique. La décision de l’utiliser ou non peut dépendre davantage du jugement de chacun que de chiffres précis.
« Du point de vue de la durabilité, il faut trouver un équilibre entre les résultats de l’IA et l’utilisation qui en est faite », explique M. Medina. « Si vous écrivez sur votre ordinateur quelque chose qui vous prend une heure, alors que l’IA peut le faire en cinq minutes, quel est le compromis ? Avez-vous utilisé plus d’énergie en prenant du temps pour écrire quelque chose que ce que peut faire l’IA ? »
Et l’IA peut également être utilisée pour faire avancer la recherche pour suivre l’évolution du changement climatique. Ai2 a lancé plusieurs outils d’IA qui aident à collecter des données planétaires, à améliorer la modélisation du climat, à préserver les espèces menacées et à restaurer les océans.
Se référant aux données de la Sustainable Production Alliance, la société vidéo Synthesia affirme que les vidéos générées par l’IA produisent moins de carbone que les méthodes traditionnelles de production vidéo, qui reposent sur les déplacements, l’éclairage et d’autres infrastructures à forte intensité de ressources.
Quoi qu’il en soit, certains acteurs du secteur réagissent aux préoccupations exprimées. En février, Hugging Face a lancé le AI Energy Score Project, qui propose des évaluations énergétiques normalisées et un classement public de la consommation estimée de chaque modèle.
Existe-t-il des solutions plus écologiques pour l’IA ?
Dans l’ensemble du secteur, les organisations étudient les moyens d’améliorer la durabilité de l’IA. Au Lincoln Lab du MIT, l’équipe de M. Gadepally expérimente le « power-capping« , qui consiste à limiter la puissance utilisée par chaque processeur à moins de 100 % de sa capacité, ce qui réduit à la fois la consommation et la température du GPU. La société chinoise DeepSeek, spécialisée dans l’IA, est parvenue à un résultat similaire en améliorant l’efficacité de l’exécution et de l’entraînement de ses modèles, bien qu’ils soient encore assez volumineux.
Cette approche n’a toutefois qu’une portée limitée. « Personne n’a encore trouvé comment faire pour qu’un modèle plus petit soit soudainement plus performant dans la génération d’images de haute qualité à grande échelle », dit M. Gadepally.
Parce qu’il ne voit pas la demande d’IA diminuer – en particulier avec la multiplication des fonctions d’IA sur les smartphones, M. Gadepally dit que l’efficacité et l’optimisation sont des solutions pour l’instant. « Je peux améliorer ma précision de 1,5 % au lieu de 1 % pour le même kilowattheure d’énergie que j’injecte dans mon système » dit-il.
Certaines zones peuvent être plus économes en énergie que d’autres
Il ajoute qu’il n’est pas facile de faire fonctionner les centres de données uniquement à l’aide d’énergies renouvelables. Mais en ralentissant la courbe de croissance de la consommation de l’IA grâce à des tactiques telles que le plafonnement de la puissance, il devient plus facile de remplacer les sources d’énergie carbonées par des sources renouvelables, tout comme on remplace les ampoules classiques de la maison par des LED.
Pour tendre vers la durabilité, il suggère aux entreprises d’être flexibles quant à l’endroit où elles effectuent leurs calculs. Certaines zones peuvent être plus économes en énergie que d’autres. Mais aussi d’entraîner les modèles pendant les saisons froides, lorsque la demande sur le réseau énergétique local est plus faible. Un autre avantage de cette approche est qu’elle permet d’abaisser la température des processeurs sans affecter de manière significative les performances des modèles.
De quoi rendre leurs résultats plus fiables. Elle réduit également le besoin de refroidissement à l’aide d’eau potable. De tels avantages, ainsi que le rapport coût-efficacité qui en découle, incitent les entreprises à opérer des changements.
Faut-il utiliser l’IA si l’on se soucie de l’environnement ?
Si vous vous inquiétez de l’impact de votre utilisation de l’IA sur votre empreinte carbone, les choses ne sont pas si simples à démêler. Le fait d’éviter les outils d’IA ne contribuera peut-être pas à réduire votre empreinte carbone de la même manière que si vous décidez par exemple de ne plus prendre l’avion.
Andy Masley, directeur de l’association Effective Altruism DC, a comparé l’impact d’une réduction de 50 000 questions posées à ChatGPT (10 questions par jour pendant 14 ans) à d’autres actions en faveur du climat menées par le réseau philanthropique Founders Pledge.
Les résultats sont plutôt minuscules. « Si les émissions individuelles sont ce qui vous préoccupe, se passer de ChatGPT n’est pas la bonne solution », écrit Masley. « C’est comme si l’on disait aux gens qui dépensent trop d’argent qu’ils devraient acheter un chewing-gum de moins par mois ».
« En clair, se passer de ChatGPT permet d’économiser moins que les « petites choses » que nous pouvons faire, comme recycler, réutiliser les sacs en plastique et remplacer nos ampoules », dit M. Ritchie dans un billet Substack faisant référence à M. Masley.
Dans l’ensemble, Masley et Ritchie craignent que le fait de se concentrer sur la consommation d’énergie de l’IA ne détourne l’attention d’utilisateurs bien intentionnés de facteurs de stress climatique plus importants et plus urgents.
M. Gadepally dit que s’abstenir d’utiliser l’IA n’a qu’un effet limité. À notre époque, c’est presque comme dire « je n’utiliserai pas d’ordinateur » dit-il. Il a néanmoins quelques suggestions pour améliorer l’utilisation de l’énergie par l’IA et créer plus de transparence sur le sujet. Voici quelques approches que vous pouvez essayer :
Exiger la transparence de la part des fournisseurs
Avec les bonnes données, des entreprises comme celle de Gadepally peuvent au moins produire des estimations de la quantité d’énergie consommée par l’IA.
Les utilisateurs peuvent s’organiser pour demander aux entreprises d’IA de rendre ces informations publiques. Le terrain de jeu de l’IA devient de plus en plus concurrentiel.
En théorie, comme pour toute autre valeur sociale, si un nombre suffisant d’utilisateurs indiquent qu’ils se soucient de la durabilité de leurs outils, cela pourrait devenir un moteur du marché.
S’exprimer au cours des processus de passation de marchés
La durabilité est souvent déjà prise en compte dans de nombreuses décisions au niveau de l’entreprise, en particulier lorsque les entreprises évaluent les fournisseurs et les services.
Gadepally croit au pouvoir de l’application de cette culture à l’IA. Si votre entreprise octroie des licences pour des outils d’IA, il suggère de demander des données sur l’utilisation de l’énergie et le développement durable pendant les négociations.
« Si les grandes entreprises l’exigent pour des contrats de plusieurs millions de dollars à des responsables de comptes, cela peut aller très loin », souligne-t-il, comme elles le font déjà pour d’autres postes comme les voyages d’affaires. « Pourquoi ne pas poser des questions à ce sujet ? »
Utiliser le plus petit modèle possible
Soyez attentif à la qualité du modèle que vous choisissez pour une requête par rapport à vos besoins. « Presque tous les fournisseurs ont plusieurs versions du modèle – nous avons tendance à utiliser probablement le modèle de la plus haute qualité auquel nous avons accès », ce qui peut être un gaspillage, noté M. Gadepally. « Si vous pouvez vous en sortir avec quelque chose de plus petit, faites-le ».
Dans cette optique, M. Gadepally encourage les utilisateurs à accepter d’obtenir plus souvent des résultats imparfaits. Une fois que vous avez perfectionné votre prompt, vous pouvez l’essayer avec un modèle plus coûteux et aux paramètres plus élevés afin d’obtenir la meilleure réponse.
Outre ces objectifs, Michelle Thorne, directrice de la stratégie de The Green Web Foundation – une organisation à but non lucratif « œuvrant pour un internet sans énergie fossile » – exhorte les entreprises technologiques à éliminer progressivement les combustibles fossiles de leurs chaînes d’approvisionnement et à prendre des mesures pour réduire les dommages lors de l’extraction des matières premières, de l’énergie et de l’eau, afin de réduire les émissions de gaz à effet de serre.
Quelle est la prochaine étape ?
L’industrie répond aux questions de durabilité par des initiatives telles que le Frugal AI Challenge, un hackathon organisé dans le cadre du 2025 AI Action Summit, qui s’est tenu à Paris en février dernier. Google a déclaré dans ses objectifs de développement durable qu’il entendait reconstituer 120 % de l’eau douce qu’il consomme dans ses bureaux et ses centres de données d’ici à 2030.
Certains affirment que l’approche « plus c’est gros, mieux c’est » dans le domaine de l’IA pourrait ne pas apporter plus de valeur ou de meilleures performances, en invoquant des rendements décroissants.
En fin de compte, toutefois, la réglementation s’avérera probablement plus efficace pour normaliser les attentes et les exigences des entreprises technologiques en matière de gestion de leur impact environnemental.
À long terme, l’expansion de l’IA (et les coûts qui l’accompagnent) ne montre aucun signe d’arrêt. « Nous avons une sorte d’appétit insatiable pour construire de plus en plus de technologies, et la seule chose qui nous limite est le coût », dit M. Gadepally – un clin d’œil au paradoxe de Jevons, ou à l’idée que l’efficacité ne fait qu’engendrer plus de consommation, plutôt que de la satisfaction.