Traditionnellement spécialiste des semi-conducteurs mobile et sans fil, Qualcomm entame un virage vers les infrastructures d’IA dans les datacenters. Avec le lancement de ses accélérateurs AI200 et AI250 , elle vise à concurrencer les géants Nvidia et AMD dans un marché en plein essor, celui de l’inférence IA avec optimisation énergétique.
Le marché des puces pour datacenters est dominé depuis des années par Nvidia, particulièrement sur les workloads d’entraînement IA. Nnvidia contrôlerait environ 92 % de parts de marché dans les serveurs IA pour datacenters. Mais le basculement vers des modèles d’IA de plus en plus complexes — multilingues, multimodaux, génératifs — fait de l’inférence, l’utilisation des modèles une fois entraînés, un segment stratégique.
Qualcomm mise sur cette transition pour se faire une place sur un marché déjà très riche. Le marché global des infrastructures IA pour datacenters, estimé à 236 milliards de dollars en 2025, pourrait dépasser 933 milliards de dollars d’ici 2030, selon MarketsandMarkets.
Qualcomm annonce deux nouvelles générations d’accélérateurs IA
Qualcomm a annoncé deux nouvelles générations d’accélérateurs IA pour datacenters : les puces AI200 dont la commercialisation est prévue en 2026, et AI250 prévues pour 2027. Puces et racks seront compatibles avec les principaux frameworks d’IA, afin de simplifier l’intégration des modèles pré-entraînés.
- L’architecture Qualcom AI2xx repose sur la combinaison de CPU Oryon, NPU (Neural Processing Unit) Hexagon, mémoire LPDDR – avec une capacité de mémoire jusqu’à 768 Go pour certaines configurations de rack -, refroidissement liquide, et interconnexion rack niveau PCIe etEthernet.
- De conception « rack-scale AI inference », la technologie de Qualcomm adhère aux préconisations de l’Open Compute Project pour les racks, point central des infrastructures d’IA : refroidissement liquide, forte densité, interconnexion rapide.
- Qualcomm ajoute la compatibles logicielle de ses puces avec les frameworks IA (TensorFlow, PyTorch, etc.) pour une inférence « plug-and-play ».
Un premier client majeur est également annoncé : Humain, startup saoudienne spécialisée IA, qui prévoit de déployer 200 MW de racks Qualcomm dès en 2026.
Qualcomm cible les architectures de datacenter
La proposition de Qualcomm a le mérite de répondre à deux enjeux des datacenters : disposer de performances élevées et maîtriser la consommation électrique, le refroidissement, la densité au rack. Elle vient également confirmer que l’inférence est de plus en plus ciblée.
L’annonce de Qualcomm est importante pour le marché. En offrant une nouvelle alternative à Nvidia et AMD, elle pourrait permettre de diversifier les fournisseurs, et de réduire les risques liés à la dépendance unique. Et cela avec un meilleur ratio performance/watt ou un coût total d’exploitation (TCO) plus compétitif, ce qui pourrait influencer la conception des racks IA.
Enfin, le fait que l’inférence soit ciblée ouvre de nouvelles perspectives de datacenters d’IA non plus seulement gigantesques fermes d’entraînement, mais infrastructures de production au service de modèles de type chatbots, multimédia ou services automatisés, à décliner sur des sites plus réduits et de proximité, comme les datacenters edge.

 

 
                                     
                                    