Sans cryogénie, pas de qubit, qui exige une température de 20 mK à 4 K, selon la technologie, pour fonctionner avec un minimum de perturbations. Et sans des centaines de milliers voire des millions de qubits, pas d’ordinateur quantique tolérant aux fautes, à même de résoudre des problèmes industriels concrets…
Mais a-t-on idée de la consommation énergétique nécessaire au refroidissement d’un ordinateur quantique d’un million de qubits ? « Elle équivaudrait à celle du plus gros système cryogénique que nous ayons conçu pour refroidir les aimants d’Iter (le réacteur à fusion français, ndlr), soit trois unités cryogéniques en parallèle de 25 kW à 4 K », répond Simon Crispel, responsable de l’innovation en cryogénie à Air Liquide Advanced Technologies. Implantée à Grenoble, il s’agit du plus gros site du groupe français.
Bref, c’est possible, mais ce n’est pas rien. Il est donc « important de réfléchir dès maintenant à la conception des futurs systèmes cryogéniques pour le quantique », affirme cet expert du domaine. C’est le message qu’il a souhaité transmettre, alors qu’il intervenait à un séminaire dont le thème était le passage à l’échelle du quantique (ou « quantum scaling »). L’évènement était organisé par Teratec et IBM le jeudi 5 septembre 2024, au siège français de Big Blue.
Selon lui, l’expérience de la filiale d’Air Liquide dans les grandes installations scientifiques – dont le grand accélérateur de hadrons au CERN aussi, entre autres exemples – pourrait être bénéfique à l’industrie émergente du calcul quantique, qui aspire à grandir.
Les grands systèmes sont plus efficaces
Les techniques de cryogénie employées pour les premiers ordinateurs quantiques actuels ont en effet des limitations. La plus populaire repose sur le tube pulsé, plongé dans un cryostat pour refroidir les qubits. Or, « la puissance de refroidissement est directement proportionnelle à la quantité de qubits physiques, indique Simon Crispel. Elle va devoir augmenter d’un facteur 10 voire 100 et le nombre de tubes pulsés va devenir prohibitif. »
Lui plaide pour un système centralisé qui distribuerait le « froid » à des unités de calcul quantique interconnectées, « plus efficace » d’un point de vue thermodynamique et dont l’efficacité, par ailleurs, « croît avec la taille ».
La deeptech américaine PsiQuantum, qui développe des qubits photoniques, en prend le chemin pour préparer l’avènement de ses ordinateurs quantiques à grande échelle. En septembre 2023, elle a noué un partenariat avec le grand accélérateur linéaire de Stanford (Slac) pour profiter de ses installations cryogéniques, qui délivrent plusieurs kilowatts.
L'impact de la complexité du réseau de froid
« La fiabilité de ces systèmes cryogéniques centralisés est en plus démontrée », argumente Simon Crispel, s’appuyant sur les références d’Iter ou encore du Cern.
Cependant, l’efficacité du réseau de distribution du froid dépend de la complexité de son architecture. Simon Crispel prend ainsi les exemples de deux infrastructures équipées par Air Liquide Advanced Technologies : l’accélérateur linéaire Tarla, en Turquie, et un autre accélérateur linéaire, Spiral2, implanté à Caen.
La première exploite deux cryomodules, reliés à une unité centrale, et offre une efficacité de distribution de 80%. Avec ses 19 cryomodules, la seconde n’atteint que 33%. Là encore, cela donnera du grain à moudre aux ingénieurs qui vont œuvrer au développement des ordinateurs quantiques.



