Réchauffement climatique : les opérateurs de datacenters doivent garder la tête froide

L’année 2022 a été marquée par des records de température aux quatre coins du globe et nous n’avons pas encore totalement conscience de toutes les conséquences engendrées par ce réchauffement. Malheureusement pour les opérateurs des datacenters, cette menace ne fera que s’intensifier.

Expert - Cindy Ryborz, responsible marketing DC EMEA, Corning Optical Communications

Le marché des Data Centers a été particulièrement impacté et des centres de Google Cloud et Oracle ont dû fermer suite à des problèmes de refroidissement provoqués par une vague de chaleur extrême au Royaume-Uni. Malheureusement cette menace ne fera que s’intensifier, d’abord en raison de l’impact grandissant du changement climatique, mais également, et surtout, à cause de la consommation d’énergie des datacenters pour répondre à la demande croissante en bande passante.

Dans leur évolution pour faire face à des vitesses plus élevées (400 ou 800G), les datacenters devront déployer des émetteurs-récepteurs plus rapides, généralement plus énergivores. Cependant, selon ce que l’on sait des émetteurs-récepteurs enfichables, une vitesse accrue impliquera davantage de chaleur produite et par conséquent, un système de refroidissement encore plus important.

Bien que ces vitesses puissent paraître futuristes, les pressions liées au changement climatique s’intensifient et la résilience des opérateurs de Data Centers face à la hausse des températures est devenue indispensable. Voici quelques pistes à étudier pour y parvenir.

Choisir une localisation adaptée

En cas de déménagement, d’investissement dans un datacenter neuf ou existant, le lieu choisi peut avoir un réel impact. Il est surtout important d’éviter les lieux où les infrastructures énergétiques rencontrent déjà des difficultés et où il existe un risque de coupure. Bien que ce ne soit pas possible pour tous les déploiements, il est intéressant d’étudier les exemples les plus parlants de refroidissement naturel grâce à l’environnement du Data Center.

Il y a quelques années, Green Mountain a construit un Data Center dans la montagne, sur une île d’un fjord norvégien isolé. Cette structure de 21 000 m² dotée de six tunnels et de plusieurs salles consacrées à ses clients fonctionne grâce à l’énergie hydroélectrique 100 % renouvelable et s’appuie sur le fjord adjacent pour le refroidissement, des solutions qui lui confèrent un indicateur de consommation énergétique (PUE) de 1,2, bien inférieur à la moyenne du secteur à ce moment-là.

Facebook dispose même d’un Datacenter à Luleå, au pôle Nord, qui utilise l’air et l’eau à température négative des environs pour le refroidissement et présente ainsi un PUE de 1,07. À l’extrême opposé, certains opérateurs ont construit leur datacenter dans des environnements désertiques, à l’instar d’eBay à Phoenix. Les systèmes de refroidissement intelligent associés aux avantages de l’air sec du désert rendent ses endroits étonnamment adaptés, tout en préservant les structures de catastrophes naturelles telles que les inondations.

Parvenir à une meilleure densité

Il existe évidemment d’autres solutions moins radicales et plus accessibles pour assurer le refroidissement des datacenters. Il est par exemple possible de bien choisir les produits pour renforcer la circulation de l’air et minimiser le recours aux systèmes de refroidissement, ou de sélectionner l’équipement en fonction de la densité de port pour maximiser l’efficacité énergétique des baies.

Une densité accrue peut être obtenue grâce à la connectivité à très faible encombrement (VSFF). Par exemple, les formats de connecteurs MDC et SN ouvrent la voie à une connexion directe entre les émetteurs-récepteurs à grande vitesse, ce qui simplifierait l’insertion de connecteurs individuels dans différents commutateurs et permettrait de passer de 400G à 4 x 100G. Par ailleurs, un LC duplex peut contenir jusqu’à trois connecteurs MDC ou SN duplex, la promesse d’une bien meilleure densité.

Pour les opérateurs disposant de peu d’espace dans les baies serveur, la connectivité LC duplex composée de câbles de raccordement LC ou MDC et associée à un équipement compatible est une alternative efficace. De plus, cette solution peut être employée pour des équipements existants ou pour élargir la connectivité pour de nouveaux clients et créer de nouvelles sources de revenus. Cette approche ne permet pas seulement de garder l’encombrement du LC duplex du côté de l’émetteur-récepteur, la densité de port peut également être jusqu’à 3 fois supérieure avec un MDC module ou cassette de la même taille – laissant entrevoir la possibilité d’avoir 432 fibres au lieu de 144 par rack unit.

En ce qui concerne une meilleure circulation de l’air, Altice Portugal est un bon exemple. Cet opérateur téléphonique rencontrait des difficultés face à la densité grandissante des câbles, due à un élargissement de son réseau, qui engendrait un réchauffement dans les baies serveur. Le changement climatique n’arrangeant rien, ces zones se réchaufferaient encore davantage et auraient un impact dévastateur sur les opérations si aucune solution n’était trouvée. Heureusement, lorsque l’équipe a remplacé le système duplex par un système de câblage basé sur une structure 12 fibres, ces problèmes de réchauffement ont disparu. Le datacenter a même vu son efficacité et son adaptabilité renforcées et est désormais prêt pour de futures mises à niveau.

Les applications Port breakout

Outre l’optimisation de l’infrastructure de câblage, l’utilisation du port breakout peut avoir un impact positif sur la consommation d’énergie des composants du réseau et des émetteurs-récepteurs. Dans un module QSFP-DD, un émetteur-récepteur 100G duplex consomme environ 4,5 watts, alors qu’un émetteur-récepteur optique parallèle 400G fonctionnant en mode breakout, avec 4 ports 100G, ne consomme que trois watts par port. Cela équivaut à des économies allant jusqu’à 30 %, sans compter les économies supplémentaires réalisées sur la climatisation et la consommation électrique des châssis de commutation, ainsi que les économies d’espace engendrées.

Grâce aux applications du port breakout, les opérateurs de datacenters peuvent également tripler la capacité de port d’une carte de commutation sur un réseau 10G ou 25Gb, sans aucun module de conversion ni harnais, ce qui n’implique aucune autre paire de connecteurs et aucun affaiblissement d’insertion.

Mieux vaut prévenir que guérir

Il existe une multiplicité d’outils et de solutions de gestion thermiques pour les datacenters, tels que l’organisation air froid/air chaud, des pompes pour fluides frigorigènes, le refroidissement par liquide, ainsi que les technologies Edge et Cloud. Toutefois, suffiront-ils pour faire face au changement climatique ? En tous cas, l’innovation va bon train dans ce domaine et d’autres technologies de refroidissement, qui utiliseraient l’intelligence artificielle et des capteurs robotiques, sont à l’étude.

Cependant, le temps est compté car les pressions climatiques sont bien présentes et s’intensifient face à la demande croissante pour une bande passante plus élevée. Les opérateurs de datacenters ne doivent pas attendre de subir une panne liée à la chaleur pour prendre des mesures. Comme le dit l’adage, il vaut toujours mieux prévenir que guérir, et les opérateurs de datacenters peuvent agir dès maintenant en effectuant des changements plus ou moins importants.

à lire