L'intelligence artificielle a décuplé non seulement le traitement de l'information, mais aussi la consommation d'énergie et la production de chaleur. Pour absorber les volumes croissants de données et ne pas entrer en surchauffe, les centres de données vont devoir subir des adaptations majeures. Ces travaux de modernisation vont constituer, pour les entreprises qui fournissent des équipements à haut rendement énergétique et des systèmes de gestion de l'énergie, un moteur de croissance ainsi qu'une source de revenus à l'abri de la menace d'une récession.
Résumé
-
Les puces qui alimentent l'IA chauffent beaucoup et sont gourmandes en énergie
-
Les centres de données actuels sont mal équipés et ont besoin d'être rénovés
-
Ces rénovations vont être favorables aux stratégies axées sur l'énergie intelligente
Le rythme auquel les logiciels d'intelligence artificielle (IA) sont adoptés par les utilisateurs est l'un des plus rapides que les marchés aient jamais connus. Les grands modèles de langage (LLM), qu'utilisent ChatGPT et d'autres bots du même type pour générer des conversations semblables à celles des humains, ne sont que l'une des nombreuses nouvelles applications d'IA qui s'appuient sur le « calcul parallèle », un terme qui désigne le volume colossal de calculs effectués de façon simultanée par des réseaux de puces.
Au cœur de l'infrastructure de l'IA se trouvent les GPU (processeurs graphiques) qui excellent dans le type de calculs parallèles que nécessite l'IA, à savoir des calculs spécialisés et de haute performance. Toute cette puissance de traitement entraîne une consommation d'énergie plus élevée et génère donc plus de chaleur qu'une unité centrale (CPU) équivalente équipant un PC. Voir figure 1.
Figure 1 - Comparaison entre CPU et GPU
Des puces minuscules, mais un impact énorme sur les centres de données
Les GPU haut de gamme sont environ quatre fois plus gourmands en énergie que les CPU. Voilà qui soulève des problèmes de taille pour les centres de données, car l'alimentation électrique calculée à l'origine ne représente plus que 25 % de ce qui est nécessaire pour faire fonctionner les centres de données modernes servant à l'IA. Même les centres de données hyperscale à la pointe de la technologie utilisés par Amazon, Microsoft et Alphabet pour l'informatique basée sur le cloud sont encore alimentés par des CPU. À titre d'exemple, la puce IA A100 que propose actuellement Nvidia a une consommation unitaire constante d'environ 400 W, alors sa dernière puce, la H100, consomme pratiquement le double, soit 700 W, l'équivalent d'un four à micro-ondes. Si un centre de données hyperscale complet, qui abrite en moyenne un million de serveurs, remplaçait chacun de ses serveurs équipé d'une CPU par des serveurs à GPU, l'électricité nécessaire serait multipliée par 4 ou 5 (1 500 MW), soit l'équivalent d'une centrale nucléaire !
Les GPU sont environ quatre fois plus gourmands en énergie que les CPU
En raison de leur densité de puissance supérieure, ces puces génèrent beaucoup plus de chaleur. Par conséquent, il faut également s'équiper de systèmes de refroidissement plus puissants. Pour réaliser des changements d'une telle ampleur en matière de puissance et de refroidissement, il va falloir repenser entièrement la conception des centres de données pilotés par l'IA. Il en résulte un déséquilibre énorme entre l'offre et la demande, qu'il s'agisse des puces ou de l'infrastructure des centres de données. Compte tenu du temps nécessaire à la construction des centres de données, les experts du secteur sont d'avis que nous sommes au tout début d'une décennie de modernisation de ces centres afin de les rendre plus intelligents.
Pour lire l'article dans son integralité, cliquez ICI.
Par Michael Studer PhD, Co-Portfolio Manager Smart Energy
Pour accéder au site, cliquez ICI.