Inauguration du campus hyperscale CloudHQ, visite du datacenter (part 2)

A l’occasion de l’inauguration officielle du campus de datacenters CDG de CloudHQ aux Lisses, DCmag a pu enfin visiter ce datacenter hyperscale d’exception, le plus grand en cours de construction en France.

Cet article fait suite à : « Inauguration du campus hyperscale CloudHQ, plus gros projet de datacenters en construction en France (part 1)« .

Plan d’ensemble du campus CloudHD des Lisses

Le campus CloudHQ des Lisses prend place sur un terrain de 13 ha. Deux bâtiments principaux occupent une surface de 83 613 m² et proposeront 48 salles informatiques sur deux étages. La charge critique informatique est de 74,4 MW, alimentés par une nouvelle sous-station sur site de 225 kV. Une seconde sous-station à construire portera la charge critique à 150 MW. Diverses infrastructures de conduits de fibre optique ont été construites entre le campus et deux points d’interconnexion.

Vue arrière du campus. Le datacenter CDG1 s’affiche en face, CDG2 prend place à gauche.

De l’extérieur, le bâtiment est gigantesque. L’image ci-dessus affiche le datacenter CDG1 du campus. Le bâtiment à droite correspond aux locaux techniques, sur trois étages. Les groupes électrogènes prennent place dans la partie haute (en noir).

22 salles informatiques prennent place sur deux étages de grande hauteur, à partir du décrochement des locaux techniques et jusqu’à la partie noire à gauche de la photo, qui correspond au datacenter CDG2, également prolongé de locaux techniques. La partie refroidissement prend place en toiture des datacenters.

Notre visite a démarré de l’autre côté du campus. Ci-dessus, on retrouve les locaux techniques sur trois étages, dont on repère plus facilement les niveaux. Les salles informatiques sont situées derrière les échafaudages (à droite), précédées par des espaces d’accueil et de bureaux (vitrés sur la droite).

La troisième photo ci-dessous offre une perspective étonnante sur la hauteur des locaux techniques (23 m). La hauteur des deux étages de salles informatiques est nettement marquée. La partie haute, destinée aux groupes électrogènes, montre un espace vide mais aéré. L’ouverture attend la livraison d’un groupe, qui sera chargé avec une grue.

Des dimensions exceptionnelles

La suite de la visite n’est pas documentée de photographies, qu’il nous a été interdit de prendre. Le datacenter n°1 (CDG1) inauguré est destiné à un client unique, un des trois géants du cloud public. Une première salle est en cours de déploiement. Nous avons cependant pu accéder à une seconde salle en cours de commissioning.

Nous avons également échangé avec Alex Reid, du cabinet d’architecture RBA (Reid Brewin Architects), à gauche sur la photo ci-dessous, qui a conçu la partie bâtimentaire du projet, et Benoît Martin, d’Eiffage, qui en assure la construction en contractant général.

Voici ce que nous avons retenu de notre visite :

  • Le datacenter répond aux normes de l’hyperscale. Les volumes des salles sont exceptionnels, avec une hauteur sous plafond peu commune, destinée à favoriser les flux de refroidissement, mais aussi les volumes de câbles qui accompagneront l’IT.
  • Le sol est en béton lissé, sans poussière. Un béton spécifique, selon une technique pratiquée jusqu’à présent uniquement aux Etats-Unis, que l’architecte comme les équipes d’Eiffage ont du apprivoiser. Il s’agit d’un béton additionné d’autres matières et fibres, qui est lissé longuement, ce qui lui permet de ne pas produire de poussière et donc de ne pas nécessiter d’être nettoyé. La pose du sol a été un véritable casse-tête à maîtriser.
  • Les dimensions exceptionnelles des salles, quelles soient informatiques, techniques ou des couloirs, reprise dans la hauteur des montes-charges également, sont proportionnelles à l’évolution des équipements IT. En particulier la norme OCP est désormais sur des racks 21 pouces, et une hauteur qui peut atteindre 52 U, ce qui change l’échelle des équipements, des résistances (poids au m²), de la puissance électrique jusqu’au rack, du refroidissement, et plus globalement de l’urbanisation des salles serveurs. La hauteur des salles se justifie également par les volumes d’air en refroidissement, mais surtout par la multiplication des couches de câbles avec leurs chemins, qui tous ici adoptent des codes de couleur qui transforment les plafonds en arc en ciel.
  • Energie et refroidissement classiques. Concernant les équipements électriques et de refroidissement, nous sommes en terrain connu. Simplement, avancerons-nous, ils sont sur-dimensionnés. Le refroidissement est par air. La conception du datacenter date de la fin des années 2010, destinée aux infrastructures de cloud, IA et DLC n’étaient pas d’actualité. Ce qui pourrait changer sur les parties futures du projet, mais cela n’a rien d’officiel encore…

Et c’est ici que se termine la visite sous contrôle du datacenter. A suivre…

à lire