Nicolas Guillaume, CEO de Nasca Group et Netalis, a accepté de jouer le jeu des trois questions après l’annonce du développement d’un pôle d’IA en région Bourgogne-Franche-Comté, Alsace et Provence-Alpes-Côte d’Azur (Lire Netalis développe un nouveau pôle IA régional en partenariat avec Gcore et nLighten).
DCmag – Quelle est la demande régionale d’infrastructures d’IA et pour quels usages ?
Nicolas Guillaume – Tout d’abord, notre choix de nous positionner sur ce sujet est né d’un pivot stratégique lancé en septembre 2024 après des mois de réflexions. Nous étions très focalisés sur le développement (très cash intensive) de notre réseau fibre dans plusieurs régions et pas assez sur les demandes croissantes de nos clients TPE, PME et ETI pour l’accompagnement autour de la connectivité. C’est pourquoi nous avons initié la scission de nos activités services et infras réseau puis la recherche d’un partenaire industriel et financier pour poursuivre notre métier d’origine, la connectivité Très Haut Débit, en agrémentant ce métier de nouvelles offres de cybersécurité, de VoIP/UCaaS, de Cloud et d’IA récemment au sein de notre plateforme de services.
En Région, comme dans les métropoles françaises qui concentrent les grandes entreprises, l’adoption des usages numériques tels que l’IA est en forte croissance. Nos clients PME et ETI en particulier, soumises à des tensions en RH et coûts, se questionnent pour savoir comment améliorer ou optimiser leurs process, rendre plus fluides, plus autonomes ou plus sécurisées l’exécution de certaines tâches pour focaliser les personnels sur des tâches critiques qu’une IA ne pourrait pas réaliser.
Nous avons également des collectivités qui se demandent comment rendre plus agiles leurs agents, délivrer des services publics plus modernes ou répondre aux demandes des citoyens plus rapidement. L’un des usages de l’IA particulièrement demandé dans les collectivités réside dans la gestion mieux coordonnée des flux routiers (anticipation ou détection précoce d’embouteillages par analyse du trafic en temps réel issu de caméras intelligentes ou capteurs au sol, etc.), car de cette gestion découle aussi l’amélioration de l’environnement (moins de pollution sonore ou carbone générée par les véhicules à l’arrêt, etc.) devenu LE sujet majeur au sein de nos sociétés. L’IA peut être présente dans une immensité de cas d’usage désormais et c’est notre rôle d’accompagner les clients dans leurs réflexions et projets.
Quels sont les apports de valeur de l’association d’un acteur des solutions d’IA (Gcore), d’un opérateur de services numérique (Netalis), et d’un opérateur régional de datacenters (nLighten) ?
C’est le mix de trois compétences totalement complémentaires dans la chaîne technique. GCore construit et opère des plateformes d’hébergement hautement disponibles, réparties dans de nombreux data centers en Europe et dans le Monde, avec un excellent réseau mondial. Netalis connecte des clients finaux grâce à de nombreuses boucles locales et transporte ces flux de données depuis plusieurs régions françaises vers l’internet ou vers des data centers locaux comme ceux de nLighten qui hébergent historiquement aussi nos propres équipements (hébergement client, SI/outils internes et réseau) ou ceux de GCore qui seront positionnés au sein même de nos baies et interconnectés à notre réseau pour optimiser la latence pour nos clients.
Nous connaissons donc l’excellente fiabilité de notre partenaire de colocation pour ce qui est des sites de Besançon et d’Antibes. Enfin, nous interconnectons Strasbourg grâce à une nouvelle autoroute numérique longue distance en cours de construction depuis le nord Franche-Comté et nous ouvrons au passage une présence commerciale alsacienne, nous aurons donc l’occasion de pouvoir nous héberger aussi dans ce site nLighten récemment mis en production.
Comment les problématiques d’enveloppes énergétiques et thermiques liées à l’hébergement d’une solution d’IA reposant sur des GPU Nvidia est-elle traitée ? Qu’est-ce que cela change pour les clients de la solution ?
Nos clients sont assurés que nous sélectionnons des data centers de colocation aptes à accueillir ces machines assez gourmandes en ressources électriques et nécessitant un refroidissement adapté. Si nous ne connaissons pas le site, nous en auditons les spécificités et nous nous assurons avec son gestionnaire de ses capacités à disposer des ressources nécessaires (refroidissement, énergie secourue, etc.) pour héberger les machines dans les meilleures conditions et revaloriser la chaleur dégagée au besoin.
Comme l’a dit notre confrère Anwar Saliba de nLighten France dans vos colonnes, le fait de se fonder sur des data centers de proximité dits « edge » pour des besoins liés à l’hébergement de capacités IA permet une meilleure distribution des capacités techniques au plus près des usagers et des ressources électriques au plus près des sites de production (centrales, barrages, champs éoliens ou solaires, etc.). Les « pods » de serveurs d’IA sont ainsi plus petits et dès lors moins gourmands en ressources électriques que les très grandes salles techniques dédiées que l’on peut trouver principalement chez les hyperscalers.
C’est la raison pour laquelle à l’avenir, nous viserons toujours une stratégie d’hébergement de proximité avec des ressources régionalisées, proche de notre ADN d’opérateur télécoms de proximité. Nous restons bien entendu clients de data centers majeurs (Digital Realty, Telehouse) pour nos besoins d’interconnexions réseau, notamment vers d’autres Cloud providers ou points d’échange (IXP) par exemple.