Le patron d’OpenAI dévoile la consommation d’eau de ChatGPT

Le patron d’OpenAI dévoile la consommation d’eau de ChatGPT


L’intelligence artificielle représenterait déjà près de 20 % de l’électricité utilisée dans les centres de données, et devrait bientôt atteindre 70 %. En conséquence, les besoins en électricité et en eau (pour refroidir les serveurs) explosent. Le patron d’OpenAI Sam Altman a donné son estimation de consommation, par requête sur ChatGPT.

Sam Altman, le PDG d’OpenAI, vient de publier un article de blog dans lequel il a donné une idée précise de la consommation d’eau moyenne par requête sur ChatGPT. Sans préciser de sources, l’homme a affirmé que chaque question posée à l’agent conversationnel nécessiterait 0,000085 gallon d’eau, soit « environ un quinzième de cuillère à café ». L’article de blog intitulé « The Gentle Singularity » visait à parler des avancées de l’intégration de l’intelligence artificielle dans la société et les perspectives vers une « superintelligence numérique » aux multiples gains pour la qualité de vie.

Parmi les autres informations sur la consommation moyenne d’une requête sur ChatGPT, Sam Altman avançait le chiffre de 0,34 wattheure, « soit l’équivalent d’un four en un peu plus d’une seconde, ou d’une ampoule à haut rendement en quelques minutes », ajoutait-il. Un moyen de rassurer, en quelque sorte, et annoncer aussi qu’avec « l’automatisation de la production des centres de données, le coût de l’intelligence devrait à terme converger vers un niveau proche de celui de l’électricité ». 

Rappelons tout de même que les requêtes textuelles ne sont pas les seules effectuées sur les modèles d’IA d’OpenAI. Une génération d’image nécessite davantage de ressources. Selon une étude de Hugging Face et de l’Université Carnegie Mellon de 2023, créer une seule image pourrait représenter l’équivalent d’une recharge entière d’un smartphone.

Pertes d’exploitation

À ce jour, le coût économique par requête préoccupe autant ou peut-être davantage OpenAI que le coût environnemental. La société indiquait en début de semaine qu’elle avait atteint 10 milliards de dollars de revenus annuels, contre environ 5,5 milliards l’année dernière, mais qu’il lui faudrait atteindre 125 milliards d’ici 2029, année où OpenAI espère atteindre la rentabilité. Pourquoi ? Car ses datacenters lui coûtent très cher, que ce soit en achat de machines ou de fonctionnement. Si l’entreprise ne communique pas sur ses pertes d’exploitation, elle donnait comme indication le nombre de 200 milliards de dollars brûlés d’ici la fin de la décennie.

Le grand absent des coûts de l’entreprise concerne l’utilisation de ses données. En effet, avec l’arrivée de ChatGPT mais aussi des autres modèles d’IA chez Microsoft et Google, les données sur le web ont été récupérées pour l’entraînement des modèles sans la moindre contrepartie financière. Un vol de données, le plus gros au monde, encore sous-estimé aujourd’hui.

Lire aussi On a testé ChatGPT Plus : que vaut la version payante de l’IA ?

100 mots sur ChatGPT, une bouteille d’eau ? L’étude du WSJ

Les chercheurs en IA ne sont pas forcément d’accord avec les chiffres communiqués par Sam Altman. Dans un article publié l’année dernière dans le Washington Post, un email de 100 mots généré par un agent conversationnel sous GPT-4 se rapportait à la consommation d’une bouteille d’eau aux États-Unis. L’étude du journal soulignait que la consommation d’eau par requête dépendait grandement de l’emplacement géographique du datacenter en question. Ceux situés dans l’État de Washington, où l’eau est disponible en quantité, utilisent davantage d’eau.

D’autres États, comme le Texas, possèdent des datacenters davantage refroidis par des climatiseurs électriques, car l’eau est moins disponible.

🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.



Source link

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.