Tribune – La barre de l’hyperscale au gigawatt est en vue

Avec la multiplication des infrastructures d’Intelligence Artificielle (IA), nous entrons dans l’ère des méga-campus de datacenters à l’échelle du gigawatt. Plus précisément les futurs projets se situeront entre 1 et 2 GW ! Ce qui impose de maintenir la course à l’innovation pour les rendre supportables.

Petit rappel historique : qu’est-ce qui a permis le développement de l’immense cluster cloud de la Virginie du Nord ? Il exploite l’énorme infrastructure électrique de l’ancienne fonderie Alcoa Eastalco Works. Dès sa création, la Data Center Alley d’Ashburn a reposé sur une incroyable et presque unique disponibilité d’énergie. Cette histoire qualifie les grands projets de datacenters d’aujourd’hui : de la surface et de l’électricité, au-delà de ce que nous avons connu jusqu’à présent.

Depuis quelques mois, afin de faire face à l’explosion de l’actualité des datacenters dans le monde, DCmag a recentré la couverture de cette actualité sur la France, l’Europe et l’Afrique francophone, tout en suivant les grandes évolutions du marché au niveau mondial mais sans nous pencher sur les projets locaux. Et pourtant, ils méritent notre attention, en particulier aux Etats-Unis qui donnent le ‘la’ des tendances.

Que constatons-nous ? Les campus hyperscale, qu’ils soient associés aux géants du cloud ou asservis par leurs supporters (à l’image de Compass Datacenters ou QTS Data Centers), sont désormais annoncés dans 300 à 400 MW. Mais la tendance vient à l’échelle du gigawatt. Concrètement, aux Etats-Unis le marché retient son souffle dans l’attente des premières annonces entre 1 et 2 GW.

L’histoire que nous avons évoquée plus haut trouve son prolongement : les géants de l’hyperscale recherchent de la surface et de la puissance électrique disponible. Si les Etats-Unis ne manquent pas du premier, le second est soit rare soit erratique. C’est pourquoi nous assistons à l’émergence de projets situés soit à proximité soit directement dans l’enceinte des sources d’électricité qui semblent les plus puissantes et les plus fiables : les centrales nucléaires.

Et peu importe que les énergies renouvelables peinent à suivre, la capacité de créer et contrôler la donnée prime sur tout autre considération ! Nous attendons que soit franchie la barre du gigawatt dans les campus de datacenters destinés à accueillir les infrastructure d’IA, et probablement dans le datacenter lui-même lorsqu’il s’agit d’une ferme de crypto-monnaie. Mais cela crée aujourd’hui un vrai hiatus entre les acteurs du marché qui ne cessent d’avancer et les autorités qui doivent désormais légiférer pour protéger leurs sources d’énergies.

C’est ainsi qu’un choix stratégique va très vite s’imposer : le datacenter va devoir produire sa propre énergie, et non pas seulement s’associer à des projets de production d’énergies renouvelables en garantissant la ressource par des PPA. Un choix qui pourra également s’imposer au reste du monde. Ce qui ne va pas sans poser quelques questions, dont celle du grid énergétique et de l’évolution du statut du datacenter vers le producteur d’énergie.

Si cette vision est acceptable dans les grands espaces américains ou sous les plans économiques chinois à long terme, elle risque fort de se révéler difficile à accepter dans nos contrées. De plus, si la demande de l’IA pourrait bien imprimer un nouveau rythme à la construction comme à l’exploitation des datacenters, la donnée et l’énergie placées sous la seule coupe des géants du cloud est-elle acceptable ? Là encore le réglementaire pourrait imposer ses règles.

On imagine cependant de nouvelles voies, et l’industrie doit impérativement adopter voire accélérer l’innovation pour proposer de nouveaux axes alternatifs. Ainsi, la mise en cluster de petits et moyens datacenters capables de s’intégrer dans les grids énergétiques sans imposer des pics de charge pourrait bien être un axe de réflexion à suivre. Certes, on ne pourra éviter le gigantisme des usines d’IA qui engloutiront et s’attribueront la majorité des nos données, mais des solutions alternatives devraient permettre de disposer d’un traitement raisonné de nos données dans les limites d’une production d’énergie tout aussi raisonnable.

Les années à venir s’annoncent riches d’investissements, d’expériences et d’innovations…

à lire