Longue vie au qubit ! On entendrait presque la clameur s’élever de la communauté scientifique qui étudie et exploite les bits quantiques, au fondement du calcul quantique… Car si les chercheurs formulent un vœu, c’est bien celui de voir apparaître un qubit à longue durée de vie. Ce temps, propre à un qubit matériel donné, correspond à la durée de conservation de son information quantique, cette superposition d’états 0 et 1 (souvent des niveaux d’énergie distincts), moteur de sa puissance.
On l’appelle aussi temps de cohérence, et la route vers l’ordinateur quantique tolérant aux fautes passe par sa maximisation. Un temps de cohérence plus élevé permet de réaliser des calculs plus longs et complexes, ce qui est une condition pour obtenir des applications utiles. Les erreurs de calcul induites par la perte de cohérence se font aussi plus rares, permettant d’utiliser des codes de correction d’erreurs moins contraignants.
Éviter la décohérence a cependant tout du casse-tête. Un qubit est par nature très sensible et, même en l’isolant le plus possible de son environnement, il reste soumis en permanence à des perturbations thermiques, électromagnétiques, mécaniques… Ces bruits provoquent des changements indésirables de son état, qui peuvent aller jusqu’à la décohérence. Cette menace est valable pour tous les types de qubits. Dont le qubit supraconducteur, le plus mature, que développent des géants du numérique (Google, Amazon, IBM) et nombre de start-up deeptechs (Rigetti, IQM, Alice&Bob).
Un premier qubit supraconducteur en 1999
Schématiquement, un qubit supraconducteur est une boucle de métal (aluminium, tantale…) fermée par une jonction de Josephson : une interface métal-isolant-métal dont la couche d’isolant – un oxyde du même métal – ne mesure que quelques dizaines de nanomètres d’épaisseur. Refroidi à quelques millikelvins, le système devient supraconducteur : les électrons du métal s’apparient, formant des paires de Cooper qui peuvent franchir la couche d’isolant par effet tunnel.
Deux niveaux d’énergie de la jonction peuvent être distingués, le fondamental et l’excité. Deux états qui permettent d’encoder et de contrôler l’information quantique, par l’intermédiaire de photons micro-ondes envoyés dans le circuit. Le tout premier qubit supraconducteur a été démontré expérimentalement par le japonais NEC en 1999. Il ne survivait que 2 nanosecondes… Vingt-cinq ans plus tard, les meilleurs qubits supraconducteurs de processeurs quantiques restent cohérents plus de 100 microsecondes. Dans les laboratoires, des spécimens dépassent même la milliseconde.
Réduire les pertes diélectriques
Si les très basses températures suppriment le risque de fluctuations thermiques pouvant exciter le qubit de façon accidentelle, d’autres mécanismes continuent de restreindre le temps de cohérence, indique Patrice Bertet, directeur de recherche à l’Institut rayonnement-matière de Saclay (Iramis), une unité de recherche du CEA : «Ce sont les pertes diélectriques [propres aux matériaux isolants, ndlr] : l’énergie du qubit est absorbée et sa durée de vie est réduite. Une partie vient de systèmes microscopiques résonants présents dans la couche isolante de la jonction de Josephson, ainsi que dans les oxydes qui recouvrent les électrodes supraconductrices et entourent le circuit. On ne connaît pas bien leur nature…» Ces défauts sont nommés two-level systems (TLS) dans la littérature. Si les travaux théoriques se poursuivent pour mieux les caractériser, les acteurs du qubit supraconducteur adoptent déjà des stratégies pour atténuer leur impact, d’autant plus important quand le qubit est de moins bonne qualité.
«Il arrive que les fréquences de certains qubits et des TLS coïncident, détaille Oliver Dial, le directeur technique d’IBM Quantum. Comme la fréquence des TLS varie au cours du temps, un qubit peut être bon un jour et très mauvais un autre jour. Dans notre nouvelle puce quantique Heron, sortie en 2023, nous pouvons changer la fréquence de ces défauts. Le temps de cohérence moyen de nos qubits augmente alors de 120 à 165 millisecondes.» IBM y a par ailleurs intégré des coupleurs réglables. «On peut ainsi arrêter les interactions entre qubits voisins quand elles ne sont pas nécessaires, ce qui réduit grandement leur parasitage mutuel [ou diaphonie, ndlr]», complète Oliver Dial. Un principe suivi depuis par Google.
Les rayons cosmiques, causes d'erreurs
D’autres fauteurs de troubles interviennent à un degré moindre, selon Patrice Bertet : «On constate qu’une fraction des électrons ne sont pas appariés dans le circuit supraconducteur, dissipant son énergie. La radioactivité ambiante et les rayons cosmiques peuvent aussi déposer beaucoup d’énergie dans le substrat en silicium ou en saphir du qubit. Les phonons qui en résultent [des quasi-particules associées aux vibrations des atomes d’un cristal, ndlr] cassent également les paires de Cooper.»
Les rayons cosmiques provoquant ces mini-séismes sont particulièrement problématiques car ils provoquent des erreurs interdépendantes sur les qubits, impossibles à rectifier. En 2021, une expérience réalisée dans le laboratoire italien du Gran Sasso, enfoui sous 1,4 km de roche, avait cerné leur effet. La fréquence des particules à haute énergie diminuant d’un facteur 30 à cette profondeur, les qubits supraconducteurs dissipaient quatre fois moins d’énergie. On n’imagine guère devoir se placer dans des conditions aussi extrêmes pour utiliser couramment un ordinateur quantique…
Nettoyer les impuretés
Des solutions sont plus simples à mettre en œuvre, heureusement. Dans un article scientifique paru en décembre dernier, des chercheurs de Google Quantum AI ont montré que l’amincissement des couches d’aluminium du qubit suffisait à éliminer les conséquences nocives de ces rayons cosmiques. La preuve qu’il existe encore «une marge de progression concernant la qualité des qubits», souligne Patrice Bertet. Comme le montre l’étude précédente de Google, l’ingénierie des matériaux y participe, tout comme les méthodes de nettoyage des impuretés et autres «recettes de cuisine» – secrètes pour certaines. La propreté est bien sûr essentielle. Pour s’assurer de la qualité de sa puce Willow, qui a fait l’actualité fin 2024, Google a par exemple choisi une salle blanche dédiée, et non plus mutualisée comme auparavant. Le gage d’un environnement et d’un outillage mieux contrôlés.
C’est aussi l’intention du français Alice & Bob, qui fabrique actuellement ses qubits en partenariat avec le Centre de nanosciences et de nanotechnologies (C2N) : construire sa propre salle blanche, grâce aux 100 millions d’euros levés en janvier, pour maîtriser la chaîne de fabrication. Les techniques de fabrication elles-mêmes semblent appelées à évoluer. Fondé en 2022, l’américain Qolab a noué un partenariat avec l’équipementier Applied Materials, un spécialiste de la filière microélectronique.
L’idée est notamment de remplacer le procédé actuel du lift-off (dépôt des électrodes métalliques), responsable de certains défauts des qubits supraconducteurs. Le temps de cohérence y gagnerait, veut croire la deeptech. L’Imec, haut lieu international de la recherche en microélectronique, a même réussi à fabriquer des qubits supraconducteurs à l’état de l’art sur des wafers de 300 millimètres, avec les procédés industriels standard de l’électronique. Les performances ne font pas un bond spectaculaire, mais le résultat semble rassurant pour le passage à l’échelle du qubit supraconducteur.
À CHAQUE FAMILLE DE QUBITS SES DÉFIS POUR PASSER À L’ÉCHELLE
F.R.
F.R.
F.R.
F.R.
F.R. Source : Industrie & Technologies



