Tribune – Vers un changement de paradigme chez les hyperscalers ? Et peut-être une chance pour les territoires…

Les hyperscalers occupent le terrain du cloud. Ils se tournent désormais vers l’IA, qui leur impose de revoir leurs modèles technologiques mais aussi stratégiques. Si les datacenters géants ‘hyperscale’ restent leur apanage, ils doivent désormais raisonner en puissance de calcul, en proximité et en réglementaire. Et en hausse des prix des datacenters…

Tribune par Yves Grandmontagne, Rédacteur en chef de DCmag

Le cloud est là, et bien installé. Plus de 80% des entreprises et des organisations y sont présentes et consomment du nuage. Très majoritairement chez les géants, AWS, Microsoft et Google qui ont su déployer infrastructures et services, sans cesser de s’affronter sur les prix en misant sur des infrastructures concentrées et sur-dimensionnées, l’hyperscale.

Mais aujourd’hui, en poussant sur l’exploitation de la donnée et sur l’IA, les conditions d’exécution évoluent. L’IA en particulier réclame de la puissance de calcul et de la proximité. On ne peut imaginer par exemple une IA qui pilote un véhicule, mais qui nécessite 1 à 2 secondes pour réagir et lancer une action. La latence est devenue une contrainte essentielle, et tous les clients des IA attendent de leurs datacenters des résultats au plus proche du temps réel.

Les hyperscalers en sont conscients. A commencer par offrir des services de calcul dans leurs infrastructures. Mais ils sentent également le danger, car derrière l’IA et la data se cache un danger, celui de la proximité souveraine. Et bien sûr ils ont commencé à réagir. Aux Etats-Unis, comme à leur habitude, en se lançant dans une course à la proximité avec les datacenters Edge. En France, avec les clouds qualifiés de confiance…

Revenons sur le Edge, qui se décline à la dimension américaine : les géants du cloud multiplient leurs implantations hors des hubs qu’ils ont créés. Ils s’implantent dans des Etats qu’ils désertaient jusqu’à présent, à proximité des grands centres urbains jusqu’ici oubliés. Bien évidemment, ils n’abandonnent pas le modèle de l’hyperscale qui fait leur fortune, et qui emporte leurs process. Mais par touches ils modifient le paradigme de l’hyperscale.

De quoi s’agit-il ? De créer des datacenters plus petits pour être plus localisés et adaptés aux contraintes locales. De respecter de nouveaux usages en matière de développement durable, d’efficacité énergétique et de consommation d’eau. En fait de continuer de moderniser les infrastructures de datacenter tout en évitant de tendre le dos aux critiques politiques et environnementales trop souvent infondées.

Mais cette stratégie, qui commence également à émerger en Europe et dans le reste du monde, à une contrepartie : le prix des datacenters. Construire en approche hyperscale permet de réaliser des économies d’échelles et de mieux maîtriser l’ensemble des processus de la conception à la construction, de l’exploitation au ROI.

Avec une stratégie d’implantation de proximité, il faut intégrer des contraintes réglementaires plus nombreuses et localisées, dimensionner les infrastructures au plus juste, aborder une plus grande complexité avec des compétences à trouver et former, déployer des technologies plus puissantes, anticiper des consommations d’énergies plus lourdes et irrégulières, et satisfaire des clients plus sensibles sur leurs données et sur les résultats attendus.

S’ils souhaitent pousser leurs offres de calcul et d’IA, les hyperscalers vont devoir revoir leur stratégie tarifaire. Pour simplifier, ils vont augmenter leurs tarifs sur les nouveaux services. Mais sauront-ils également répondre aux attentes de souveraineté ? Certes, moins de 10% des données des organisations sont critiques… mais elles sont essentielles, et focalisent l’attention des DSI et des directions. C’est certainement une chance pour des offres alternatives, et territorialisées. Ça l’est aussi pour maintenir une part ‘on prem’ des infrastructures physiques.

Pour conquérir ces nouveaux marchés en croissance, les hyperscalers doivent investir dans de nouveaux datacenters, plus performants, mais surtout plus coûteux. Ils en ont la volonté et les moyens. Mais la concurrence pourrait également être rude et retrouver du souffle en s’imposant sans doute en intermédiaires entre l’usage et le stockage de la donnée. Chacun y aura sa place, à la condition que les acteurs de proximité sachent saisir les opportunités qui s’offrent à eux.

à lire