On sait que l’IA ingère les kilowattheures avec gourmandise, on sait moins qu’elle entraîne des fluctuations de puissance susceptibles de déstabiliser le réseau électrique en amont, notamment la fréquence à laquelle opère ce réseau en courant alternatif. « La puissance d’une puce graphique (GPU) qui exécute des calculs liés à l’IA peut varier de 10% à 140% de sa valeur nominale, ce qui correspond, à l’échelle d’un datacenter, à des oscillations entre 20 mégawatts et 200 mégawatts en quelques millisecondes », lance David Arsenault, vice-président senior des solutions de stockage d’énergie pour datacenter, à Skeleton Technologies.
Cette entreprise estonienne, spécialisée dans le stockage d’énergie dans les secteurs du transport et du réseau électrique, s’apprête à lancer un produit, GrapheneGPU, dont l’objectif est de remédier à cette situation problématique susceptible de faire défaillir un réseau électrique. GrapheneGPU incorpore ce qui fait la réputation de l’entreprise : des supercondensateurs au graphène, hérités de travaux universitaires réalisés en Estonie par l’un des cofondateurs de la société.
Un équipement au format 1U
« Nos cellules bénéficient de la plus faible résistance électrique interne aujourd’hui, ce qui permet d’atteindre des puissances élevées sans générer trop de chaleur », indique David Arsenault. Un supercondensateur emmagasine et libère son énergie de façon très rapide grâce à l’action de forces électrostatiques entre des surfaces chargées électriquement, alors que le principe de fonctionnement d’une batterie est fondé sur des réactions chimiques et de longs cycles de charge/décharge.
Accompagnées d’un convertisseur DC/DC en nitrure de gallium (GaN) avec une sortie 48 V, ces cellules s’intègrent dans une unité au format standard 1U, prête à équiper une baie de serveurs IA. « Cette unité se connecte à la busbar (qui assure la distribution électrique, ndlr) et filtre les variations de puissance induites par les GPU, explique David Arsenault. Ces variations sont particulièrement présentes durant la phase d’entraînement des LLM (les grands modèles de langage façon ChatGPT, ndlr). Ce type d’algorithme synchronise en effet tous les GPU, qui opèrent alors en phase comme les instruments de musique dans un orchestre, tandis que dans un datacenter classique, les GPU sont répartis sur plusieurs tâches. Il y a donc beaucoup d’amplitude de puissance. »
En test aux Etats-Unis et en France
GrapheneGPU est conçu pour alimenter ces pics de puissance et, au contraire, absorber de la puissance quand il détecte un creux, nivelant ainsi la courbe de puissance. Pour ce faire, le système est piloté par un algorithme de contrôle. « Il est principalement réactif, avec un temps de réponse très rapide, précise David Arsenault, mais il a aussi une part prédictive, car le phénomène montre une certaine répétitivité qui peut être observée. » Actuellement, les opérateurs utilisent les « dummy loads » - une fonction mise à disposition par les fabricants de puces pour produire une charge fictive – afin de compenser les creux. Mais un gaspillage d’énergie s’ensuit, auquel GrapheneGPU est censé mettre fin. « L’économie d’énergie peut atteindre 40%, estime David Arsenault, cela dépendant beaucoup de l’algorithme IA utilisé. » Des gains seraient aussi possibles durant l’inférence.
Le produit de Skeleton Technologies a un autre effet bénéfique plus inattendu. « On s’est rendu compte qu’on pouvait améliorer de 40% la performance des GPU, développe David Arsenault. Etant donné qu’on réduit leur température moyenne, on peut les pousser un peu plus haut. Une amélioration bienvenue quand on pense qu’une baie GB200 de Nvidia coûte deux millions de dollars. » GrapheneGPU est en cours de test sur le territoire américain, ainsi qu’au Danemark et en France, d’après Skeleton Technologies, qui travaille avec tout l’écosystème du datacenter. « Le retour sur investissement peut être aussi court que trois mois », conclut David Arsenault.



