Les annonces se sont multipliées ces derniers mois, Vertiv, Schneider Electric, ABB ont dévoilé leurs offres, ils se sont même rapprochés de Nvidia pour les adapter aux infrastructures d’IA du géant des GPU. Et Eaton va les rejoindre avec l’acquisition de Boyd Thermal. Derrière ce mouvement se cache une nouvelle approche étendue de l’infrastructure bout à bout du datacenter : le chip-to-grid.
Par Yves Grandmontagne, rédacteur en chef de DCmag
Ce n’est pas une surprise si ce sont principalement les équipementiers électrique du datacenter qui ont pris position sur le chip-to-grid : ce concept structurant recouvre l’ensemble des approches qui cherchent à rendre le parcours de l’énergie — du réseau électrique jusqu’à la puce — plus coordonné, flexible et instrumenté.
Il prend place dans le contexte d’une explosion des besoins électriques portés par l’IA (Intelligence Artificielle) et le HPC (calcul), et devient une feuille de route opérationnelle : instrumentation fine côté processeur, électronique de puissance rack-to-chip, unités de stockage d’énergie locales et interface volontaire avec les services système (demand response, VPP).
Pourquoi le « chip-to-grid » devient incontournable
La montée en puissance des charges AI/HPC — plus d’instances GPU par rack, des régimes d’utilisation variables et des profils de consommation très élevés — place une contrainte nouvelle sur la capacité des infrastructures réseaux et des datacenters. Les opérateurs cherchent à réduire le coût de l’électricité, à sécuriser l’acceptation par les GRD (gestionnaires de réseau), offrir de la flexibilité (réponse à la demande, services auxiliaires) et à optimiser l’efficacité énergétique de bout en bout, depuis l’onduleur jusqu’au voltage-regulator et au cœur du SoC.
Les technologies clés, du silicium au réseau, répondent d’ailleurs à cette nouvelle approche :
- Instrumentation et contrôle côté composants – Télémétrie intégrée (on-die power telemetry) permettant aux systèmes de connaître la consommation instantanée, les variations de tension et les possibilités de throttling au niveau des cœurs, avec des suites logicielles et des agents pour piloter ces réglages à l’échelle des plateformes de datacenters.
- Électronique de puissance avancée – Des blocs d’alimentation plus efficaces, modulaire et proches du composant, réduisent les pertes et augmentent la capacité à fournir des profils de courant rapides nécessaires aux accélérateurs d’AI. Les fournisseurs de blocs d’alimentation et modules DC travaillent à optimiser la chaîne grid => facility => rack => chip.
- Distribution DC et architectures facility => rack => chip – Approches DC-centric (400 VDC ou architectures à bus HVDC locales) pour limiter les conversions multiples et les gains d’efficacité. Les intégrateurs cherchent la « fungibilité » entre sources (réseau, stockage, génération locale) et entre charges.
- Stockage local et dispositifs de buffer – Batteries rack-level, systèmes de stockage au lithium-ion, supercondensateurs et thermiques (stockage froid/chaud) peuvent agir comme buffers pour lisser la demande ou offrir des services de réponse à la demande. L’intégration logicielle avec l’orchestration applicative permet d’optimiser la valeur de ce stockage, tant économique que sur le services réseau.
Interfaces réseaux et marchés – Les datacenters deviennent des « consommateurs actifs », capables d’ajuster consommation/charge, voire d’injecter via le stockage, en échange de revenus. Le marché de la demande-response, VPP, services auxiliaires, et de la flexibilité pour les datacenters est en croissance.
Impacts et enjeux pour les infrastructures de datacenters
Le mouvement chip-to-grid est principalement porté par les acteurs des infrastructures d’IA, qui sont d’ailleurs les mêmes que les géants de l’hyperscale et du cloud, leurs partenaires de la colocation, et leurs équipementiers. C’est pourquoi cette approche structurante de l’électrique et du refroidissement (liquide) va se généraliser et se standardiser.
- Pour répondre aux attentes de leurs grands clients, les équipementiers se doivent d’investir dans PMICs modulaires, les solutions DC distribué, l’intégration télémetrie/secure APIs, et proposer des offres convergées puissance + refroidissement.
- De leur côté, les opérateurs de datacenters doivent intégrer des agents de contrôle au niveau OS/mesher (par exemple faire communiquer et interagir les orchestrateurs de virtualisation et le power manager), tester leur participation aux marchés de flexibilité, et planifier le stockage rack-level pour l’arbitrage énergétique.
- Enfin régulateurs et utilities doivent définir des signaux tarifaires et des mécanismes de marché clairs pour capter la flexibilité des datacenters et financer projets public-privé.
Quels en sont les perspectives ?
- Efficacité énergétique et empreinte carbone : le chip-to-grid accompagné du passage au refroidissement liquide permettent des dissipations plus efficaces, un PUE (Power Usage Effectiveness) réduit, et répondent aux contraintes croissantes de durabilité.
- Densification des racks : les racks sont poussés à 100 kW, 200 kW voire davantage (Google à présenté à l’OCP un rack de 1 MW !), les systèmes traditionnels ne suffisent plus. L’intégration de l’électrique et du refroidissement devient critique.
- Chaîne d’approvisionnement et fabrication globale : les équipementiers s’adaptent et développent des solutions d’infrastructures globales et standardisées. L’intégration logistique, la gestion des talents et la standardisation sont des défis.
- Concentration et concurrence : C’est un mouvement général. Par exemple, afin de renforcer leur offre de refroidissement liquide, Eaton vient d’annoncer l’acquisition de Boyd Thermal pour 9,5 milliards $, et Vertiv a annoncé l’achat de PurgeRite Intermediate pour environ 1 milliard $.
Le « chip-to-grid » est devenu plus qu’une idée, c’est une exigence opérationnelle dictée par l’essor des charges d’IA, par la nécessité d’une gestion plus efficiente et plus flexible de l’énergie, et par le refroidissement liquide. Les briques technologiques existent. Même si le terrain reste à normaliser et à sécuriser, La chaîne « chip => rack => facility => grid » va devenir un cas d’usage central des datacenters de la nouvelle génération de datacenters (modern data center).

