Pour affronter l’augmentation de la consommation énergétique des datacenters, de l’ordre de 40%, de nouveaux systèmes de refroidissement s’imposent afin de réduire cette consommation, de l’ordre de 40%.
Les opérateurs de datacenters sont confrontés à un phénomène qui ne cesse de grandir : embarqués dans le cloud, l’IA et les services numériques, les datacenters ont besoin d’électricité, pour fonctionner bien sûr, mais surtout pour dissiper la chaleur générée par les processeurs. Cette consommation d’énergie peut dépasser 40%. C’est le premier élément d’une nouvelle équation, au coût opérationnel et à l’impact environnemental considérables, que nous avons nommée loi du refroidissement à 40%.
Concrètement, ce phénomène se traduit pour les opérateurs de datacenters par la nécessité de réaliser des économies substantielles sur les coûts d’exploitation, qui s’accompagnent d’une réduction significative de l’empreinte carbone de l’infrastructure numérique. Une réduction de la consommation énergétique des datacenters de l’ordre de 40%.
Nous venons d’énoncer une loi simple, que nous avons nommée loi de refroidissement des 40%. Comme toute loi – nous sommes également adeptes de la loi de Pareto, aussi appelée loi des 20/80 – elle se vérifie mais ne peut se démontrer, ce qui nous convient bien.
Revenons à notre phénomène : comme le savent tous les opérateurs, si la génération de chaleur provient principalement non pas de l’infrastructure du datacenter lui-même mais des serveurs et de leurs processeurs, ces derniers relèvent de leurs clients. A l’exception de quelques entreprises et de leurs DSI engagés, essayez d’obtenir d’un client d’augmenter la température dans une salle… vous comprendrez combien cette mission peut se révéler délicate.
L’opérateur du datacenter doit donc se tourner en priorité vers ses équipes, ses équipementiers et ses partenaires pour à la fois refroidir et optimiser le refroidissement. A savoir supporter la hausse de la consommation et la réduire, une sacrée équation !
Quant à sa résolution, l’un des intérêts de cette nouvelle loi est qu’elle s’accompagne d’une autre nécessité, celle de développer l’innovation. En effet, pour rendre aux opérateurs le service de réduire la consommation, donc le coût de l’énergie consommée, il faut s’engager sur plusieurs voies et les certainement les cumuler.
Ainsi, le refroidissement liquide s’impose, les liquides offrant une conductivité thermique supérieure. Une option plus radicale consiste à immerger les serveurs dans un fluide diélectrique, très efficace avec les composants générateurs de chaleur directement en contact avec le fluide. Pour autant, le refroidissement par air continue de s’imposer. Pour des infrastructures à faible densité ; pour refroidir les équipements de réseaux et annexes, ceux qui ne sont pas immergés par exemple ; voire pour refroidir les équipements de refroidissement !
L’innovation doit porter sur l’hybridation du refroidissement, sur la combinaison refroidissement liquide et refroidissement par air en cours de développement. Par exemple, le refroidissement liquide direct sur puce pour les composants nécessitant une puissance de refroidissement élevée, comme les GPU, tandis que le refroidissement par air pourrait être utilisé pour les composants générant moins de chaleur.
L’innovation dans le refroidissement des datacenters doit s’inscrire dans un cadre ou opérateurs et clients sont gagnants. La loi de refroidissement des 40% peut aider à fixer les objectifs pour limiter la casser de débordements mal contrôlés. Jusqu’à ce qu’une nouvelle vague d’innovation vienne bouleverser les modèles. L’IA au service du datacenter par exemple est une piste à ne pas négliger…