Les exigences de l’IA bousculent le modèle traditionnel des datacenters

Les datacenters à l’heure de l’IA généralisée, tel pourrait être le titre de notre article de synthèse des tendances du datacenter détectées sur Data Center World 2026 qui vient de se tenir à Washington. En 2026, l’intelligence artificielle ne se contente plus de charger les datacenters, elle force une refonte complète de leur architecture, de leur alimentation électrique et de leur mode de construction.

  • Article dérivé des échanges entre les dirigeants infrastructures d’Oracle Cloud Infrastructure, de Nvidia et de Google Technologies & Systems sur Data Center World 2026.

Les acteurs du marché décrivent désormais deux profils d’usage majeurs : le training (apprentissage massif) et l’inference (inférence distribuée). Le training exige des clusters de dizaines de milliers de GPU extrêmement couplés, avec une production sensible à la latence et à la proximité, tandis que l’inference vise la disponibilité et la réactivité à grande échelle, ce qui oblige les opérateurs à concevoir des infrastructures capables de gérer ces deux schémas en parallèle.

– Vers le rack « mégawatt »

La densité de rack explose : là où 10 kW, puis 30–40 kW suffisaient encore récemment, les systèmes IA culminent désormais à plusieurs centaines de kilowatts, avec des prototypes approchant le megawatt par rack.

Cette évolution crée un environnement bimodal : une partie du datacenter reste sur une trajectoire de densité modérée, tandis que la surface IA suit une courbe beaucoup plus abrupte, ce qui pousse les opérateurs à repenser les schémas d’alimentation en énergie, le routage réseau et la façon même dont le rack est conçu comme un système intégré. Il faut désormais concevoir un système, et non plus une baie, avec des modèles de distribution à plus haute tension, et une intégration plus poussée entre les systèmes de calcul et les réseaux.

– Énergie, la contrainte de la puissance

La puissance devient le principal goulet d’étranglement : ce n’est plus la capacité de calcul, mais l’accès à l’électricité qui limite la croissance.

Les grandes plateformes multiplient les solutions de génération sur site et les systèmes de stockage de l’énergie pour amortir les pics – les charges de travail de l’IA sont de plus en plus volatiles, les clusters d’entraînement génèrent des variations de charge importantes et dynamiques qui se répercutent bien au-delà du datacenter –, mais les experts soulignent que ces arrangements ne sont que des palliatifs, et que le vrai défi est la synchronisation avec les réseaux de distribution, déjà sous pression.

– Refroidissement liquide, la nouvelle norme

Le refroidissement liquide, jusqu’ici considéré comme optionnel ou de niche, devient une obligation de base pour les systèmes IA de haute densité, qui s’impose en standard sur tous les nouveaux projets.

Les opérateurs doivent maintenant gérer des environnements hybrides, où des infrastructures refroidies par air côtoient des baies entièrement liquides, tandis que la consommation en eau et les contraintes de durabilité deviennent des préoccupations majeures. On notera cependant que les tensions sur les chaînes d’approvisionnement en composants ou le nombre de connexions nécessaires dans les racks haute densité s’amplifient.

– Industrialisation de la construction : priorité à la vitesse

Pour accélérer les déploiements, on sort les phases de construction de l’usine : utilisation massive de modules préfabriqués, architecture modulaire et standardisation poussée des designs afin de gagner en vitesse tout en gardant de la flexibilité face aux évolutions rapides des GPU.

Le modèle est de finaliser le design en amont, puis de livrer des blocs déjà pré‑intégrés sur le site, ce qui réduit le temps de mise en service et permet de déployer des capacités à grande échelle en quelques mois plutôt qu’en plusieurs années.

– La nouvelle unité de conception : le campus

À l’échelle hyperscale, l’unité de conception change, ce n’est plus le bâtiment qui est le produit, mais l’ensemble du campus, un système intégré où l’infrastructure électrique, le refroidissement, le réseau et le déploiement des équipements sont conçus comme un unique produit.

Contrairement aux phases de construction traditionnelles, les campus IA sont désormais déployés en gros blocs, avec l’infrastructure et le compute qui arrivent presque en parallèle, ce qui impose une coordination très fine, voire une synchronisation entre fabrication, transport, installation et mise en service.

Système en tension réclame réingénierie

Derrière ces évolutions se profile un message fort : le modèle de datacenter hérité des années 2000 arrive à bout de souffle face aux exigences de l’IA. Les contraintes de puissance, de densité, de refroidissement et de délais imposent non pas de simples améliorations, mais une réingénierie systémique de l’ensemble de la chaîne, de la conception jusqu’à l’exploitation au quotidien.

à lire