La correction d’erreurs quantiques fait ses preuves et donne le cap pour l'ordinateur quantique

Face à la fragilité des qubits physiques, les codes de correction d’erreurs sont indispensables pour bâtir les qubits logiques dont l’algorithmie quantique a besoin. Google vient de prouver leur potentiel.

Réservé aux abonnés
Image d'illustration de l'article
Avec sa puce Willow, Google a démontré le potentiel du code correcteur d’erreurs dit «de surface» pour obtenir un qubit logique, manipulable par les algorithmes quantiques.

La correction d’erreurs quantiques, ça marche ! À l’aide de Willow, leur dernière puce quantique, des chercheurs de Google Quantum AI ont publié dans Nature en décembre dernier des travaux qui ont fait grand bruit. Ils ont montré pour la première fois que la fiabilité des calculs quantiques s’améliore avec l’augmentation du nombre de qubits (ou bits quantiques) physiques utilisés pour encoder l’information et corriger les erreurs. Prévue par la théorie, cette amélioration est la clé du passage à l’ordinateur quantique tolérant aux fautes, seul à même de faire tourner ces algorithmes quantiques prometteurs.

Pour mesurer l’avancée réalisée par les chercheurs de Google, il faut se rappeler que le bit quantique dont les algorithmes quantiques ont besoin pour exprimer leur puissance doit conserver ses indispensables propriétés tout au long de l’exécution des multiples opérations logiques de l’algorithme. C’est ce qu’on appelle un qubit logique. Les qubits réels en sont bien loin. Qualifiés de «physiques», ils sont très fragiles, quelle que soit leur forme. Déjà, leur caractère quantique, en premier lieu leur cohérence, c’est-à-dire le fait d’être dans un état de superposition des états 0 (fondamental) et 1 (excité), s’évanouit à la moindre perturbation, entraînant la perte de l’information quantique. Voici une erreur. Mais ce n’est pas tout : les opérations logiques demandées par les algorithmes passent par la manipulation des qubits physiques avec des impulsions micro-ondes ou des lasers. Ces manipulations sont imparfaites et l’état du qubit obtenu ne correspond pas toujours au résultat souhaité. Voilà une autre erreur.

Si le taux d’erreur est de 1 pour 100 et si plusieurs centaines de portes quantiques sont nécessaires à un algorithme, alors il se produira forcément une ou plusieurs erreurs.

—  Anthony Leverrier, chercheur à l’Inria

À quelle fréquence se produisent ces erreurs ? Beaucoup trop souvent ! Les opérations impliquant un qubit – les portes à un qubit – ont aujourd’hui un taux d’erreur de 1 pour 1 000 (dit autrement, une ­fidélité de 99,9%), et celles impliquant deux ­qubits – les portes à deux qubits – entre 1 pour 100 et 1 pour 1 000. «Un taux de 1 pour 100 signifie qu’une porte sur 100 ne produit pas le résultat escompté, souligne Anthony Leverrier, chercheur à l’Inria. Si plusieurs centaines de portes quantiques sont nécessaires à un algorithme, alors il se produira forcément une ou plusieurs erreurs.»

Corriger avec le code de surface

Sans oublier que les mesures pour vérifier l’état du qubit ont un degré d’inexactitude, autre source d’erreurs. «Toutes ces erreurs sont intrinsèquement continues, à tel point que la communauté scientifique théorisant le calcul quantique dans les années 1990 craignait de ne jamais parvenir à les corriger», rappelle ­Anthony ­Leverrier. Mais le mathématicien Peter Shor a montré qu’elles pouvaient être décomposées en deux erreurs «discrètes» dans un système quantique : le «bit flip» (retournement de bit) et le «phase flip» (retournement de phase).

Image d'illustration de l'article
Infographie correction d'erreurs quantiques Sphe?re de Bloch Infographie correction d'erreurs quantiques Sphe?re de Bloch

Le bit flip est l’équivalent, dans le calcul classique, d’un bit à l’état 0 qui se transforme en 1 ou d’un bit à l’état 1 qui se transforme en 0. Dans la sphère de Bloch, qui permet de représenter l’état d’un ­qubit par un vecteur, le bit flip se matérialise par le renversement du qubit d’un pôle à l’autre de la sphère. L’erreur sur la phase est quant à elle sans analogie classique puisque la phase est relative à la fonction d’onde du ­qubit. Un retournement complet de la phase peut s’illustrer par une rotation à 180 degrés sur le plan de l’équateur.

L’amélioration des qubits physiques ne suffira pas à réduire suffisamment les taux d’erreur, tout l’enjeu est donc de parvenir à détecter et corriger ces deux types d’erreurs. De nombreux codes de correction d’erreurs sont développés dans ce but depuis une vingtaine d’années. Dans son expérience, Google emploie le code de surface, particulièrement adapté à l’architecture 2D des puces à qubits supraconducteurs.

Le principe, connu dans le calcul et les télécommunications classiques, repose sur la redondance : l’information quantique est encodée sur plusieurs qubits physiques pour réduire la probabilité qu’une erreur touchant un qubit détruise cette information. L’ensemble forme un qubit logique, qu’opéreront les algorithmes. Comment préserver son intégrité ? Idéalement, on mesurerait l’état de chaque qubit pour identifier ceux en erreurs et les corriger. Mais le monde quantique proscrit la mesure directe d’un qubit puisque celle-ci détruit son caractère quantique. L’astuce consiste à intercaler des qubits auxiliaires, jouant le rôle de gardiens, dans le maillage des qubits de données, la moitié servant à détecter les bit flips, l’autre moitié les phase flips. Chaque qubit auxiliaire est intriqué successivement avec quatre qubits de donnée adjacents, grâce à une porte spécifique.

Tests de parité

La mesure régulière des qubits auxiliaires permet, par des tests de parité, de déterminer si les qubits de donnée auquel ils sont rattachés contiennent toujours la bonne information quantique ou si une erreur est intervenue. Les mesures de parité extraites des qubits auxiliaires, appelées des syndromes, sont ensuite analysées par un algorithme classique (voire par une IA), qui localise les qubits physiques «fautifs». Une grande rapidité est nécessaire – quelques microsecondes –, faute de quoi les erreurs s’accumulent au-delà des capacités de décodage. La correction des qubits survient enfin grâce à des portes ad hoc, avant que le cycle ne recommence, plusieurs centaines de milliers de fois par seconde. En théorie, le nombre d’erreurs que l’on peut corriger simultanément croît avec le nombre de qubits physiques. C’est-à-dire que la tolérance aux erreurs, désignée par le paramètre d [voir le schéma ci-contre], augmente avec ce nombre. C’est précisément ce qu’a montré Google avec sa puce Willow.

Mais les portes, rappelons-le, sont elles-mêmes légèrement imprécises. «Si elles sont trop soumises au bruit, elles ne réussissent pas à corriger les erreurs et vont en introduire de nouvelles», fait remarquer Jérémie Guillaud, le responsable de la théorie d’Alice & Bob, deeptech française du quantique. Ce taux d’erreur, calculé par simulation numérique, doit descendre sous un certain seuil, «qui dépend du code correcteur, du système physique et de la nature de ses erreurs, ainsi que de l’algorithme de décodage», détaille-t-il. Pour le code de surface, le seuil est d’environ 1 pour 100, l’un des meilleurs qui existe. Les portes à un qubit de la puce Willow profitent, elles, d’un taux d’erreur cent fois plus faible, de l’ordre de 1 pour 10 000. C’est grâce à cela que Google a pu démontrer que la probabilité d’une erreur logique diminuait de façon exponentielle, d’un code de surface de distance 5 (puce à 72 qubits) à un code de surface de distance 7 (puce à 105 qubits). De facto, la durée de vie du qubit logique obtenu s’allonge jusqu’à 291 microsecondes, contre 85 microsecondes en moyenne pour un qubit physique pris isolément.

Image d'illustration de l'articleSource : Google Quantum AI, «Nature», déc. 2024
Infographie code de surface correction d'erreurs quantiques Infographie code de surface correction d'erreurs quantiques

D’autres approches à l’étude

Une bonne nouvelle pour le futur du calcul quantique, mais qui est à nuancer. Certaines erreurs, comme les erreurs corrélées qui touchent plusieurs qubits simultanément, en cas d’incidence d’un rayon cosmique par exemple, demeurent impossibles à corriger, quel que soit le code employé. D’autre part, d’après l’article scientifique de Google, un taux d’erreur logique de 1 pour 1 million, qui ne serait pas encore suffisant pour de vraies applications pratiques, réclamerait… 1 457 qubits physiques ! L’analyse des syndromes, pour identifier et corriger les erreurs, se compterait en centaines de térabits par seconde.

Face au «surcoût» du code de surface, soit le nombre très élevé de qubits physiques par qubit logique, certains acteurs explorent d’autres approches. Alice&Bob, dont les qubits de chat (un autre type de qubit supraconducteur) sont nativement protégés contre le bit flip, envisage de mettre en œuvre en 2030 le code LDPC (low density parity check), connu dans les télécommunications. Ce qui diviserait par 200 le nombre de qubits physiques pour un qubit logique.

Pour ses puces à qubits supraconducteurs, IBM travaille de son côté sur le «gross code», un code de contrôle de parité qui demande à chaque qubit d’être connecté à six de ses pairs. «On aurait dix fois plus de qubits logiques pour un même nombre de qubits physiques [par rapport à la puce de Google, ndlr], estime Oliver Dial, le directeur technique d’IBM Quantum. Nous avons besoin d’une couche supplémentaire sur notre puce pour router ces signaux. Ce n’est pas tout à fait nouveau pour nous, mais cela reste un défi.»

« Nous visons des calculs quantiques plus tolérants aux erreurs »

Daniel Stilck França, chercheur à l’université de Copenhague

Votre projet Gifneq a obtenu en septembre 2024 une subvention de 1,5 million d’euros du Conseil européen de la recherche, pour une durée de cinq ans. En quoi consiste-t-il ?
Les codes de correction d’erreurs quantiques réclament beaucoup de qubits physiques et un décodage qui n’est pas trivial. Notre intention est de mieux comprendre et de modéliser les effets du bruit sur le calcul, puis de trouver les moyens de réaliser des calculs quantiques tolérant un taux d’erreur plus élevé. Si un algorithme demande un taux d’erreur de 1 pour mille milliards, on espère descendre à 1 pour 100 millions, par exemple. Le besoin en correction d’erreurs baisserait de facto.

Comment procéderez-vous ?
Une séquence d’opérations dans un calcul quantique peut se comparer à des dominos qui chutent l’un après l’autre. Si une seule opération échoue – on retire un domino –, on empêche toute la ligne de tomber. C’est séquentiel et déterministe. Imaginons maintenant un jeu de cartes. Si un tricheur, comparable au bruit provoquant une erreur, pose un as sur la pile avant le mélange des cartes, il n’y a aucun impact. Mais s’il agit après, cela fait une grande différence. Cette métaphore nous enseigne que dans un tel processus, l’importance de la triche dépend du moment où elle se produit. En conséquence, si le calcul quantique est conçu de façon à ressembler à un mélange de cartes, il sera intrinsèquement plus résistant aux erreurs. C’est la première partie du projet Gifneq.

Et la seconde partie ?
Dans notre cas, la manière dont on mélange les cartes est un peu tributaire du bruit, alors qu’aujourd’hui, le calcul quantique et le bruit sont traités de façon indépendante, en supposant que la correction d’erreurs rend ce dernier négligeable. Si l’on sait comment le bruit perturbe le calcul, et à condition que ce ne soit pas trop compliqué, on pourrait ajuster l’exécution de l’algorithme quantique en fonction. Peut-être que cela ne fonctionnera pas toujours, peut-être est-ce même impossible. Ce projet permettra de savoir jusqu’où on peut pousser l’idée.

Newsletter La Quotidienne
Nos journalistes sélectionnent pour vous les articles essentiels de votre secteur.
Les webinars
Les services L'Usine Nouvelle
Détectez vos opportunités d’affaires
28 - 3F CENTRE VAL DE LOIRE
Date de réponse 11/05/2026
Trouvez des produits et des fournisseurs