L’information ne vous aura pas échappé, de nombreux médias s’en sont emparés : la consommation d’électricité des datacenters, tirée par l’IA, va plus que doubler d’ici 2030. L’information provient d’un rapport de l’AIE (Agence internationale de l’énergie) sur les implications énergétiques de l’IA. Il existe cependant plusieurs façons de l’interpréter…
Un rapport de l’AIE confirme qu’en 2024, les datacenters ont représenté environ 1,5% de la consommation mondiale d’électricité. Ce chiffre n’est pas une nouveauté, il est connu depuis longtemps. Ce que le rapport vient également rappeler, c’est que la consommation énergétique des datacenters a augmenté au rythme de 12% par an au cours des cinq dernières années, alors que sur la même période le nombre des datacenters a plus que doublé, avec en particulier une surface et une densité beaucoup plus fortes. Cela n’a rien d’une menace, mais une nouvelle fois, c’est l’engagement des opérateurs de datacenters dans l’efficience de leurs équipements qui est démontrée, puisque la consommation énergétique augmente deux fois moins rapidement que le nombre des datacenters.
Pour autant, l’arrivée de l’IA change la donne. Aujourd’hui, l’IA principalement générative nécessite une puissance de calcul massive dans des datacenters hors norme pour accueillir l’informatique nécessaire à la création des bases et à l’apprentissage. Et demain, une partie de cette puissance sera transférée dans les infrastructures d’inférence et d’usages de l’IA. Au cumul, l’AIE estime que la consommation des datacenters, emportée par l’IA, va plus que doubler d’ici à 2030. Elle devrait alors atteindre environ 945 TWH (térawattheures), tandis que le nombre de datacenters d’IA devrait quadrupler. 80% de cette électricité sera consommée par des datacenters américains (50 %) et chinois.
L’agence a également estimé la proportion de serveurs dédiés à l’IA dans les datacenters : en 2024, les serveurs dédiés à l’IA représentaient 24 % de la demande d’électricité des serveurs et 15 % de la demande énergétique totale des datacenters.
Il n’y a pas à remettre en question ces chiffres, ni l’implication de l’IA dans cette explosion. D’ailleurs, tous les DSI et les opérateurs de datacenters sont confrontés à la même problématique : les infrastructures d’IA avec des GPU très gourmands vont changer profondément les paradigmes de l’urbanisation de leurs salles informatiques en faisant basculer la puissance à la baie d’une dizaine de KW à plus d’une centaine de KW, et le refroidissement du free cooling (air) au DLC (direct liquid cooling)… La facture d’électricité de l’IA dans les organisations va être salée.
Par contre, même en étant doublé, le chiffre de la consommation mondiale des datacenters demeure presque marginal par rapport aux autres consommations, puisque comme l’indique l’AIE, ils devraient représenter 3 % de la consommation globale mondiale d’énergie en 2030. Il s’agit bien d’un doublement, mais il est loin des autres activités, numérique (nos usages), automobile, transport, agriculture, industrie, etc.
Dans un monde de migration des énergies fossiles et polluantes vers l’énergie électrique et propre, certes le datacenter et plus généralement le numérique peuvent faire figure de vilain petit canard, mais la cible est facile alors c’est tout un secteur qui travaille à être toujours plus efficient, n’en déplaise à ses détracteurs.
L’augmentation des émissions carbone liée à la consommation électrique des datacenters – selon l’AIE elle va passer de 180 millions de tonnes de CO2 aujourd’hui à 300 millions de tonnes d’ici 2035 – est mathématiquement directement liée aux infrastructures d’AI. Mais à y regarder de près, elle est encore plus marginale : en 2024, elle a représenté moins de 0,5 % du total mondial des émissions de CO2 (41,6 milliards de tonnes). Et malgré une consommation d’électricité plus élevée, l’impact global de l’IA sur les émissions pourrait potentiellement être compensé par la technologie qui permettra des réductions d’émissions plus larges dans tous les secteurs…
Cela dit, il y a en effet une vraie problématique liée aux datacenters, mais elle est moins liée à la consommation des datacenters et de l’IA, qu’à notre capacité à les alimenter. La vitesse de déploiement des ruptures technologiques ne cesse de s’accélérer, et celle de l’IA générative nous a tous pris par surprise. Cela mérite-t-il les critiques portées aux datacenters ? Ces derniers ne sont que le support sur lequel reposent les technologies incriminées.
Et n’oublions que la transformation nécessaire du secteur de l’énergie attendue dans les années à venir ne se fera pas sans l’IA et donc les datacenters. Qu’il s’agisse de répondre aux équations de la production au transport de l’énergie, de réduire les coûts et de réduire les émissions, les datacenters d’IA seront sources d’opportunités, d’innovations et de valeur ajoutée, ainsi que de régulation sur les grid qu’il serait dommageable de ne pas saisir. Et il sera certainement nécessaire de remettre en cause notre tendance à construire des datacenters en grappes concentrées, afin de limiter le stresse imposé aux réseaux électriques locaux.
Tout en restant vigilant, cela va sans dire, et demeurer attentifs à la quantité d’énergie consommée par tous ces datacenters, mais pas en rejetant l’incroyable et innovant voyage qui nous est proposé.