Depuis plusieurs mois maintenant, études et prises de parole d’experts mettent en garde contre l’augmentation exponentielle de la consommation d’énergie provenant du développement de l’IA (intelligence artificielle) et plus particulièrement de ses centres de données. L’IA est construite sur la manipulation et le traitement d’un nombre considérable de données.
« Plus ils recueillent d’informations, plus ils sont intelligents, mais plus ils recueillent d’informations pour devenir intelligents, plus ils ont besoin d’énergie ». Voilà comment Rene Haas, le directeur général d’Arm, une société de conception de puces électroniques, résume la situation « Cette quantité d’énergie, au total, pourrait représenter entre un cinquième et un quart de la demande totale d’électricité aux États-Unis d’ici 2030 », affirme-t-il au Wall Street Journal. Aux États-Unis aujourd’hui, les « data centers » utilisent environ 4% de la production d’électricité. Un chiffre qui devrait atteindre 6% d’ici 2026… dans seulement un an.
Flou volontaire
En Europe, la consommation des data centers pourrait quasiment tripler d’ici à 2030 selon le cabinet McKinsey, passant de 62 TWh aujourd’hui à 150 TWh. A cet horizon, les data centers pourraient consommer 5% de l’électricité européenne, contre 2% aujourd’hui. Pour le cabinet ICIS, leur consommation pourrait même atteindre 237 TWh en 2035. Des chiffres à prendre avec beaucoup de précautions.
Les évaluations des besoins énergétiques des centres de données sont sujettes à caution car les entreprises qui dominent l’IA se gardent bien de fournir des informations précises sur leurs besoins en énergie actuels et à venir. Quand vous achetez une voiture, un appareil électronique ou un équipement électroménager, vous avez une idée assez précise de sa consommation d’énergie. Dans le monde de l’intelligence artificielle, le flou est total… et entretenu.
Les contradictions de Sam Altman
Sam Altman, le Pdg d’OpenAI, l’un des leaders de l’IA au monde, reconnaissait l’an dernier lors du World Economic Forum à Davos : « que nous ne mesurons toujours pas les besoins énergétiques de cette technologie ». Plus préoccupant encore, il ne voyait pas comment ses besoins pourraient être satisfaits « sans une percée… Nous avons besoin de la fusion nucléaire ou nous avons besoin, par exemple, d’une énergie solaire radicalement moins chère et d’un système de stockage, ou de quelque chose d’autre, à une échelle massive, une échelle que personne ne prévoit vraiment ».
Le même Sam Altman se voulait pourtant rassurant quand il écrivait il y a quelques jours dans un billet de blog : « les gens sont souvent curieux de savoir combien d’énergie consomme une requête ChatGPT ». La requête moyenne, écrit Altman, consomme 0,34 wattheure d’énergie : « À peu près ce qu’un four utiliserait en un peu plus d’une seconde, ou une ampoule à haute efficacité énergétique en quelques minutes ».
Quel Sam Altman faut-il croire ? Pour une entreprise qui compte 800 millions d’utilisateurs actifs hebdomadaires, un nombre qui ne cesse de grandir, la question de la quantité d’énergie consommée par ces recherches n’est pas anodine. Mais le chiffre donné par Sam Altman n’a pas grande valeur. On ne sait pas comment OpenAI l’a calculé. On ne sait pas ce qu’est une requête « moyenne », si elle inclut ou non la génération d’images et si elle prend en compte ou pas la consommation d’énergie venant de l’entraînement des modèles d’intelligence artificielle et du refroidissement des serveurs.
Légendes urbaines
On est dans le monde des légendes urbaines. Les médias reprennent en permanence cette affirmation selon laquelle une requête ChatGPT moyenne consomme dix fois plus d’énergie qu’une recherche Google moyenne. Une estimation faite publiquement en 2023 par John Hennessy, le président d’Alphabet, la société mère de Google. Il s’agit donc d’un chiffre donné par un dirigeant d’une entreprise (Google) sur le produit d’une autre entreprise concurrente avec laquelle il n’a aucun lien (OpenAI).
Certains géants de la technologie, comme OpenAI et Anthropic, conservent la propriété de leurs modèles, ce qui signifie que les chercheurs extérieurs ne peuvent pas vérifier de manière indépendante leur consommation d’énergie. En revanche, d’autres entreprises de l’IA mettent certaines parties de leurs modèles à la disposition du public ce qui permet d’en tirer quelques conclusions.
Systèmes de refroidissement, équipements de réseau
Une étude publiée le 19 juin dans la revue Frontiers of Communication évalue ainsi 14 grands modèles ouverts. Elle a constaté que certains d’entre eux consommaient jusqu’à 50% d’énergie sz plus que d’autres. Cela dépend de la complexité des modèles et du nombre de requêtes qu’ils génèrent. La rapidité avec laquelle un modèle répond à une question a aussi logiquement un impact important sur sa consommation d’énergie.
Mais les deux paramètres clés sont l’infrastructure physique des data centers et la phase d’apprentissage des modèles. Les grands centres de données ont besoin de systèmes de refroidissement, d’éclairage et d’équipements de réseau, qui par définition consomment de l’énergie. Une donnée importante est aussi la façon dont l’électricité qui les alimente est produite.
Enfin, la construction d’un modèle et son perfectionnement nécessitent de traiter des quantités massives de données et donc d’utiliser des quantités massives d’énergie. Un modèle d’IA génératif doit être « appris ». Pour cela des données (textes, images, sons, etc.) lui sont présentées à maintes reprises afin d’ajuster ses paramètres. Plus il y a de paramètres, plus la phase d’apprentissage est coûteuse en données, en temps et… en énergie.