L’IA sera-t-elle à l’origine d’une grave crise énergétique ?

Quel sera l’impact de l’IA sur la consommation énergétique des datacenters ? Les avertissements se multiplient alors que l’Intelligence Artificielle s’annonce comme une révolution au moins aussi grande que l’avènement de l’Internet et surtout beaucoup plus rapide à envahir les marchés et notre quotidien. Et la consommation d’énergie des datacenters risque fort d’augmenter considérablement.

La percée de l’IA a un prix, qui se mesure en énergie et en eau.

  • Des recherches de l’Université de Washington montrent que des centaines de millions de requêtes sur ChatGPT peuvent consommer environ 1 gigawattheure par jour, soit l’équivalent de l’énergie consommée par 33 000 foyers américains.
  • En comparant une requête sur votre messagerie à une requête sur ChatGPT, il apparaît que cette dernière est de 10 à 100 fois plus consommatrice d’énergie.

Une étude de EY Fabernovel, “AIpocalypse ou AIvolution ?”, montre que le coût d’opération d’une requête sur OpenAI (ChatGPT) est de l’ordre de $0,07. Le prix sera donc extrêmement élevé à l’usage pour les entreprises, représentant un nouveau centre de coûts important. Pour une entreprise de 10 000 salariés où 5 000 salariés feraient 10 requêtes par jour, cela représenterait un coût de plus de $100 000 par mois.

Le datacenter une nouvelle fois au cœur de la polémique

Souvenez-vous, il y a un peu plus d’une décennie, avec un PUE de l’ordre de 2,5 les datacenters étaient pointés du doigt. L’industrie a su relever le défi, et aujourd’hui le PUE moyen mondial des datacenters est légèrement supérieur à 1,5, tandis que les nouveaux datacenters annoncent 1,3 et visent en dessous. L’industrie du datacenter a démontré à la fois sa résilience lors de la crise Covid, mais également sa capacité à relever le défis énergétique.

Avec l’IA, la problématique est différente. Ce ne devrait plus être le datacenter qui est à pointer du doigt, mais l’IT. Pour autant, ce sera au datacenter d’essuyer les critiques et d’affronter des opposants qui ne manqueront pas de s’attaquer à notre industrie. Ne le font-ils pas déjà, avec parfois de la mauvaise foi et en manipulant des données ?

Le coût des infrastructures de l’IA

Plus de CPU, plus de GPU, plus d’énergie semble être le leitmotiv de cette rentrée sous le signe de l’IA. Les GPU sont au cœur de l’infrastructure de l’IA. Très gourmands en énergie, ils consomment 10 à 15 fois plus d’électricité par cycle de traitement que les CPU. Et cela va se répercuter sur à la fois le design et la consommation énergétique des datacenters (lire notre précédente tribune : « La densité des racks explose… jusqu’où ira-t-elle dans le datacenter ?« ).

Le coût des infrastructures IT comme celui des datacenters risque fort d’être énorme. Sur l’énergie, il se cumule avec la hausse des prix, et avec les interrogations sur la production. Et le rythme d’augmentation de la production d’énergies renouvelables ne suffira pas à éponger l’explosion de la demande. L’échéance où le datacenter devra produire lui même une partie de son énergie approche. Ce n’est pas pour rien que Microsoft lorgne du côté des mini centrales nucléaires.

Les clients du datacenter vont continuer de demander à leur fournisseur de limiter leurs coûts. Les exploitants doivent continuer de se montrer toujours plus vertueux. Mais il faut que la DSI mette elle aussi la main à la poche. Et que le datacenter l’accompagne pour aller vers plus d’efficacité de la couche IT.

Bien sûr, nous sommes au début d’une technologie qui va aller dans le sens d’une meilleure maîtrise de ses outils et donc vers toujours plus de sobriété. Mais il faut prendre conscience que dans les deux à trois prochaines années nous ne franchirons probablement que 1% du niveau d’adoption de l’IA. Concrètement, le rythme de la sobriété énergétique risque fort de ne pas suivre celui de l’adoption de l’IA. Nous ne sommes qu’au début d’une nouvelle crise énergétique emportée par l’IA.

à lire