En lançant Project Houdini, Amazon veut faire sauter l’un des verrous les plus coûteux de la course à l’IA, le temps de construction des datacenters. En déplaçant une grande partie de l’assemblage en usine, AWS promet des délais plus courts, des milliers d’heures de main-d’œuvre en moins et une montée en puissance plus rapide. Mais le vrai goulot d’étranglement reste ailleurs : l’électricité, les raccordements et la capacité physique du réseau.
Nos commentaires : Project Houdini raconte moins une innovation spectaculaire qu’un changement d’époque. Amazon ne se contente plus de construire des datacenters : il tente d’industrialiser leur production, comme on standardiserait une chaîne d’assemblage pour suivre le rythme de l’IA. Le message est puissant, presque brutal : dans la course aux modèles d’IA, l’avantage ne se joue plus seulement sur les puces ou les algorithmes, mais sur la capacité à livrer des bâtiments entiers plus vite que les autres. Reste que même la meilleure magie a ses limites ; chez Amazon, la construction peut disparaître dans un nuage de modules, mais l’électricité, elle, ne s’illusionne pas.
Amazon ne cache plus l’ampleur du problème. Dans sa lettre aux actionnaires 2025, le CEO Andy Jassy affirme que l’entreprise reste confrontée à des “capacity constraints” qui laissent de la demande non servie, tandis qu’Amazon prévoit environ 200 milliards de dollars de Capex en 2026, une part importante étant destinée à l’infrastructure d’IA.
Cette pression est cohérente avec le développement accéléré de Project Rainier, le cluster IA d’AWS, déjà opérationnel avec près d’un demi-million de puces Trainium2, ce qui donne une idée de l’échelle à laquelle Amazon bâtit son arsenal de calcul. Dans ce contexte, Houdini n’est pas un gadget d’ingénierie, mais une tentative de transformer la cadence industrielle d’AWS.
Le cœur de Houdini
Selon les documents internes cités par Business Insider, Houdini déplace vers l’usine une large part de la construction du “data hall”, la salle serveur centrale, sous forme de modules préassemblés appelés “skids”. Chaque module arrive déjà équipé de racks, distribution électrique, câblage, éclairage, sécurité incendie et systèmes de sûreté, puis est simplement assemblé sur site. Le gain annoncé est spectaculaire : AWS espère passer d’environ 15 semaines avant l’installation des serveurs à 2 à 3 semaines, tout en supprimant jusqu’à 50 000 heures de travail d’électricien sur site.
Les documents évoquent aussi un chantier habituellement très lourd, avec 60 000 à 80 000 heures de travail pour un data hall classique, ce qui illustre pourquoi Amazon cherche à basculer vers une logique de production standardisée. Les modules pèsent environ 9 tonnes et mesurent à peu près un peu plus de 13 m de long, soit la taille d’une remorque semi-industrielle, ce qui montre qu’on ne parle plus d’une simple préfabriquée mais d’une mini-usine mobile de calcul. Amazon vise un lancement du système en août et un pipeline capable, à terme, de soutenir plus de 100 datacenters par an, selon les documents internes.
Un saut industriel, pas une solution miracle
La logique de Houdini est claire : standardiser, tester plus tôt, réduire les erreurs et moins dépendre des marchés locaux du bâtiment. Il faut cependant rappeler que le principal frein aux datacenters IA n’est pas toujours la construction elle-même, c’est l’alimentation électrique, les sous-stations et les délais de raccordement au réseau, qui se comptent souvent en années. Autrement dit, Amazon peut raccourcir la phase “béton-câbles-racks”, sans forcément résoudre la vraie guerre du “speed to power”.
Houdini s’inscrit donc dans un mouvement plus large de modularisation du secteur, déjà porté par des acteurs comme Schneider Electric, Vertiv ou Crusoe, mais Amazon pousse l’approche plus loin en l’appliquant au cœur même de l’environnement serveur d’un hyperscaler. Là où certains systèmes modulaires visent surtout la flexibilité, Amazon cherche l’industrialisation à grande échelle, avec une maîtrise plus stricte du design, de la fabrication et de l’intégration. C’est aussi une façon de verrouiller un avantage compétitif : qui construit plus vite peut capter plus vite les revenus liés à l’IA.
Les gains environnementaux à relativiser
AWS met en avant ses efforts sur l’efficacité énergétique et l’eau, en rappelant que la consommation électrique de ses opérations a été compensée à 100% par des énergies renouvelables en 2023 et 2024, et que ses nouveaux composants de datacenter peuvent réduire la consommation mécanique jusqu’à 46%. L’entreprise affirme aussi que sa consommation d’eau est mesurée à 0,15 litre par kWh, soit plus de deux fois mieux que la moyenne sectorielle citée à 0,375 litre par kWh. Mais ces chiffres n’effacent pas l’essentiel : la multiplication des datacenters IA reste un pari massif sur l’infrastructure, avec des besoins gigantesques en cuivre, transformateurs, terrain, réseau et énergie.

