<i class='fa fa-lock' aria-hidden='true'></i> La véritable consommation d’énergie de l’IA, un secret bien gardé

26 juin 2025

Temps de lecture : 3 minutes
Photo :
Abonnement Conflits
Abonnement Conflits

La véritable consommation d’énergie de l’IA, un secret bien gardé

par

L’intelligence artificielle (IA) est la nouvelle frontière du progrès technologique. Elle suscite dans le même temps de grands espoirs et de grandes craintes. On mesure encore à peine son impact potentiel sur une multitude d’activités humaines allant des technologies de l’information à la santé, l’industrie ou l’agriculture. Elle offre l’accès à une puissance de calcul permettant de manipuler et de traiter presque instantanément des quantités considérables de données ce qui se traduit par la multiplication de data centers très gros consommateurs d’énergie. Mais les entreprises qui dominent cette activité se gardent bien de fournir des informations précises sur leurs besoins en énergie actuels et surtout à venir.

Depuis plusieurs mois maintenant, études et prises de parole d’experts mettent en garde contre l’augmentation exponentielle de la consommation d’énergie provenant du développement de l’IA (intelligence artificielle) et plus particulièrement de ses centres de données. L’IA est construite sur la manipulation et le traitement d’un nombre considérable de données.

« Plus ils recueillent d’informations, plus ils sont intelligents, mais plus ils recueillent d’informations pour devenir intelligents, plus ils ont besoin d’énergie ». Voilà comment Rene Haas, le directeur général d’Arm, une société de conception de puces électroniques, résume la situation « Cette quantité d’énergie, au total, pourrait représenter entre un cinquième et un quart de la demande totale d’électricité aux États-Unis d’ici 2030 », affirme-t-il au Wall Street Journal. Aux États-Unis aujourd’hui, les « data centers » utilisent environ 4% de la production d’électricité. Un chiffre qui devrait atteindre 6% d’ici 2026… dans seulement un an.

Flou volontaire

En Europe, la consommation des data centers pourrait quasiment tripler d’ici à 2030 selon le cabinet McKinsey, passant de 62 TWh aujourd’hui à 150 TWh. A cet horizon, les data centers pourraient consommer 5% de l’électricité européenne, contre 2% aujourd’hui. Pour le cabinet ICIS, leur consommation pourrait même atteindre 237 TWh en 2035. Des chiffres à prendre avec beaucoup de précautions.

Les évaluations des besoins énergétiques des centres de données sont sujettes à caution car les entreprises qui dominent l’IA se gardent bien de fournir des informations précises sur leurs besoins en énergie actuels et à venir. Quand vous achetez une voiture, un appareil électronique ou un équipement électroménager, vous avez une idée assez précise de sa consommation d’énergie. Dans le monde de l’intelligence artificielle, le flou est total… et entretenu.

Les contradictions de Sam Altman

Sam Altman, le Pdg d’OpenAI, l’un des leaders de l’IA au monde, reconnaissait l’an dernier lors du World Economic Forum à Davos : « que nous ne mesurons toujours pas les besoins énergétiques de cette technologie ». Plus préoccupant encore, il ne voyait pas comment ses besoins pourraient être satisfaits « sans une percéeNous avons besoin de la fusion nucléaire ou nous avons besoin, par exemple, d’une énergie solaire radicalement moins chère et d’un système de stockage, ou de quelque chose d’autre, à une échelle massive, une échelle que personne ne prévoit vraiment ».

Le même Sam Altman se voulait pourtant rassurant quand il écrivait il y a quelques jours dans un billet de blog : « les gens sont souvent curieux de savoir combien d’énergie consomme une requête ChatGPT ». La requête moyenne, écrit Altman, consomme 0,34 wattheure d’énergie : « À peu près ce qu’un four utiliserait en un peu plus d’une seconde, ou une ampoule à haute efficacité énergétique en quelques minutes ».

Quel Sam Altman faut-il croire ? Pour une entreprise qui compte 800 millions d’utilisateurs actifs hebdomadaires, un nombre qui ne cesse de grandir, la question de la quantité d’énergie consommée par ces recherches n’est pas anodine. Mais le chiffre donné par Sam Altman n’a pas grande valeur. On ne sait pas comment OpenAI l’a calculé. On ne sait pas ce qu’est une requête « moyenne », si elle inclut ou non la génération d’images et si elle prend en compte ou pas la consommation d’énergie venant de l’entraînement des modèles d’intelligence artificielle et du refroidissement des serveurs.

Légendes urbaines

On est dans le monde des légendes urbaines. Les médias reprennent en permanence cette affirmation selon laquelle une requête ChatGPT moyenne consomme dix fois plus d’énergie qu’une recherche Google moyenne. Une estimation faite publiquement en 2023 par John Hennessy, le président d’Alphabet, la société mère de Google. Il s’agit donc d’un chiffre donné par un dirigeant d’une entreprise (Google) sur le produit d’une autre entreprise concurrente avec laquelle il n’a aucun lien (OpenAI).

Certains géants de la technologie, comme OpenAI et Anthropic, conservent la propriété de leurs modèles, ce qui signifie que les chercheurs extérieurs ne peuvent pas vérifier de manière indépendante leur consommation d’énergie. En revanche, d’autres entreprises de l’IA mettent certaines parties de leurs modèles à la disposition du public ce qui permet d’en tirer quelques conclusions.

Systèmes de refroidissement, équipements de réseau

Une étude publiée le 19 juin dans la revue Frontiers of Communication évalue ainsi 14 grands modèles ouverts. Elle a constaté que certains d’entre eux consommaient jusqu’à 50% d’énergie sz plus que d’autres. Cela dépend de la complexité des modèles et du nombre de requêtes qu’ils génèrent. La rapidité avec laquelle un modèle répond à une question a aussi logiquement un impact important sur sa consommation d’énergie.

Mais les deux paramètres clés sont l’infrastructure physique des data centers et la phase d’apprentissage des modèles. Les grands centres de données ont besoin de systèmes de refroidissement, d’éclairage et d’équipements de réseau, qui par définition consomment de l’énergie. Une donnée importante est aussi la façon dont l’électricité qui les alimente est produite.

Enfin, la construction d’un modèle et son perfectionnement nécessitent de traiter des quantités massives de données et donc d’utiliser des quantités massives d’énergie. Un modèle d’IA génératif doit être « appris ». Pour cela des données (textes, images, sons, etc.) lui sont présentées à maintes reprises afin d’ajuster ses paramètres. Plus il y a de paramètres, plus la phase d’apprentissage est coûteuse en données, en temps et… en énergie.

À propos de l’auteur

La rédaction

La rédaction

Newsletter

Voir aussi

Share This
.et_pb_column_1_4 { display:none !important; } .wp-image-13628 { display:none !important; }