La COP28 a intronisé l’intelligence artificielle (IA) comme instrument de lutte contre le changement climatique, en lançant le « grand défi de l’innovation en matière d’IA » dont l’objectif est d’identifier et de soutenir des solutions alimentées par l’IA dans les pays en développement.
Dans le même temps, les géants de l’IA ont cessé de communiquer sur la consommation d’énergie et de ressources naturelles de leurs data centers depuis que les usages des IA génératives ont explosé (100 millions d’utilisateurs [actifs toutes les semaines] de ChatGPT). Or nous savons, selon les rares études publiques disponibles, qu’une discussion avec ChatGPT consommerait l’équivalent d’une bouteille d’eau, et que le seul entraînement de GPT-3.5 aurait coûté l’équivalent carbone de 136 allers-retours Paris – New-York !
Silence des géants sur leurs consommations
Alors, l’intelligence artificielle est-elle l’alliée incontournable, ou l’ennemie incontestable, de nos préoccupations environnementales ?
On compare souvent la data avec le pétrole, et la révolution de l’IA générative avec celle du moteur à explosion. C’est assez vrai, par la valeur qu’elles créent déjà et qu’elles promettent de générer demain, comme en témoigne la valorisation financière des acteurs de l’IA. C’est hélas vrai aussi en termes d’externalités négatives, comme l’illustre par exemple le projet de data center de Meta à Talavera de la Reina, en Espagne, qui devrait prélever 665 millions de litres d’eau par an dans une région en plein stress hydrique.
Relevons néanmoins deux différences de taille : d’une part, on ne peut plus dire que l’on ne sait pas et, dans ce contexte, on est en droit d’être surpris et démuni face au silence des géants de l’IA sur leurs consommations ; d’autre part, à la différence du pétrole, il n’y a aucun horizon de pénurie en data, bien au contraire. L’Internet des objets, les réseaux sociaux, l’e-commerce en produisent exponentiellement, infiniment plus vite que notre bonne Terre n’arrive à transformer les roches mères en pétrole.
L’IA consomme des ressources pour la production de puces, pour le stockage de données, pour l’entraînement des modèles, pour chaque utilisation, et enfin pour les données qu’elle génère, alimentant ainsi le cycle.
Une vraie rupture
La plupart des IA actuelles (antifraude, marketing, maintenance) utilisent des modèles simples nécessitant des ressources proches d’autres usages numériques. Le traitement du langage naturel et de l’image avait déjà eu des impacts plus significatifs en raison de la complexité pour une machine à comprendre ces productions humaines, nécessitant souvent l’utilisation de réseaux de neurones.
Il vous reste 55% de cet article à lire. La suite est réservée aux abonnés.