OpenAI confie 38 milliards $ de workloads à AWS

Que ne ferait Amazon (AWS) pour rattraper son retard dans l’IA ? Amazon Web Services a annoncé un accord pluriannuel de 38 milliards de dollars avec OpenAI pour héberger et exécuter les charges d’intelligence artificielle à très grande échelle de ChatGPT. Une alliance stratégique qui redessine la carte mondiale du cloud et des infrastructures IA.

Un contrat colossal et inédit

Ce partenariat, conclu pour une durée de sept ans, permettra à OpenAI de s’appuyer sur les ressources massives d’AWS pour l’entraînement et l’exploitation de ses modèles d’IA. OpenAI aura accès à des milliers de GPU Nvidia de dernière génération (GB200 et GB300) via l’offre Amazon EC2 UltraServers, ainsi qu’à des dizaines de millions de processeurs pour ses workloads d’agents autonomes. L’ensemble de la capacité prévue devrait être déployé d’ici fin 2026, avec des extensions possibles au-delà de cette date.

AWS affirme avoir bâti pour l’occasion une architecture spécifique, combinant puissance de calcul, réseau à faible latence et gestion énergétique optimisée. Les UltraServers interconnectent des grappes homogènes de GPU via un tissu réseau conçu pour la performance et la cohérence des traitements distribués.

OpenAI utilisera cette infrastructure pour l’entraînement de ses futurs modèles (successeurs de GPT-5) ; pour l’inférence à grande échelle, nécessaire à ChatGPT et aux outils dérivés ; pour les workloads d’agentique, les nouveaux agents logiciels capables de dialoguer, planifier et exécuter des tâches complexes.

Les enjeux techniques : du calcul massif à la sobriété énergétique

  • Une montée en puissance vertigineuse – AWS a déjà prouvé sa capacité à gérer des clusters de plus de 500 000 puces. Mais le défi OpenAI est d’un autre ordre : il exige une orchestration parfaite entre GPU, CPU, stockage et réseau pour absorber des charges fluctuantes et des entraînements longs.
  • Une consommation énergétique hors norme – Des fermes de GPU à cette échelle nécessitent une alimentation électrique et un refroidissement colossaux. AWS prévoit d’exploiter ses récents investissements dans les 3,8 GW de capacité électrique ajoutée en un an, en intégrant des sources renouvelables et de nouveaux datacenters plus efficients.
  • Sécurité, fiabilité, performance – L’accord inclut des engagements de sécurité avancée, avec chiffrement des données, isolation stricte et redondance multi-zone. La fiabilité et la disponibilité seront clés, tant pour les modèles critiques d’OpenAI que pour les futurs services d’agents autonomes.

Mais dans le même temps, les défis sont nombreux :

  • Logistique : construire ou étendre des dizaines de datacenters d’ici 2026.
  • Énergie : gérer la hausse de la demande électrique tout en maintenant les engagements RSE.
  • Optimisation : équilibrer les coûts d’inférence et d’entraînement pour un usage économiquement viable.
  • Régulation : répondre aux exigences de souveraineté et de localisation des données (Europe, Asie).
  • Modèle économique : quel modèle pour un cloud aussi intensif ?

AWS rattrape son retard dans la course à l’IA

Le contrat marque un virage stratégique pour AWS et OpenAI. Jusqu’ici, AWS semblait en retrait face à Microsoft Azure et Google Cloud dans la fourniture d’infrastructures d’IA. Il change la donne : AWS devient la colonne vertébrale d’une partie des opérations d’OpenAI, renforçant sa légitimité sur le marché du cloud d’IA hyperscale. Et OpenAI, historiquement lié à Azure, se libère un peut plus de sa dépendance à Microsoft en diversifiant ses partenaires. Ce choix stratégique réduit les risques de dépendance, tout en lui garantissant une flexibilité accrue pour déployer ses modèles dans différents environnements.

L’ère des « agentic workloads » : l’IA qui agit

Dans un communiqué, AWS insiste sur la notion de « workloads d’agentique », autrement dit des charges dédiées aux agents autonomes. Ces IA ne se contentent plus de répondre, elles planifient, exécutent et collaborent. Pour AWS, ces agents représentent un nouveau type de consommation cloud : distribuée, continue, et extrêmement dépendante du CPU. Et peut-être les prémices de l’“agentic commerce”, où des agents logiciels pourraient effectuer des transactions ou conseiller des utilisateurs en toute autonomie.

à lire