L’ordinateur quantique se prépare-t-il à entrer dans une nouvelle ère qui débouchera sur des avancées en chimie, science des matériaux ou médecine ? La percée de chercheurs de Google Quantum AI, parue dans Nature en décembre 2024, le suggère. Ils ont prouvé expérimentalement que la correction des erreurs quantiques, dont les premières théories remontent au milieu des années 1990, est suffisamment efficace pour que le calcul quantique résistant aux erreurs puisse devenir une réalité. «Il n’y a plus de doute conceptuel», salue Patrice Bertet, directeur de recherche à l’Institut rayonnement-matière de Saclay (Iramis), une unité de recherche du CEA. Grâce à cet accomplissement, on peut envisager de mettre en œuvre les algorithmes quantiques longs et complexes que réclament les applications intéressant l’industrie.
Pour mesurer l’importance de l’article scientifique de Google, qui s’appuie sur sa nouvelle puce Willow, un rembobinage de la brève histoire du calcul quantique s’impose. En 2018, le physicien américain John Preskill émet une hypothèse : les puces quantiques qui font alors leur apparition pourraient, malgré leur petitesse et leurs imperfections, résoudre certains problèmes inaccessibles en pratique aux ordinateurs classiques. L’avantage quantique, qui désigne la supériorité supposée du calcul quantique sur le calcul classique, semble à portée de main.
Au commencement était le "Nisq"
Il suffirait de machines de 50 à 100 qubits (bits quantiques, l’équivalent des bits en informatique classique), lesquelles sortiront un peu plus tard. En outre, le calcul quantique serait réalisable en dépit du taux d’erreur élevé de ces qubits (ou de leur faible fidélité) – plus d’une erreur toutes les 100 opérations, ce qui ferait blêmir tout ingénieur en microélectronique. Des erreurs auxquelles il est impossible de couper, du fait de la fragilité extrême des systèmes physiques composant ces qubits (boucles supraconductrices, ions ou atomes uniques piégés…) et la part d’imprécision des opérations (ou portes) mises en œuvre pour contrôler et lire leur état.
John Preskill invente l’acronyme Nisq (noisy intermediate-scale quantum) pour qualifier ce type de machine, dite «bruitée», qui donnerait tout de même des résultats intéressants en attendant l’arrivée de machines plus sophistiquées et moins vulnérables à ces erreurs. Aujourd’hui encore, tous les ordinateurs quantiques, qu’ils comptent quelques dizaines ou quelques centaines de qubits de tout type, appartiennent à cette famille. Accessibles via le cloud ou livrés dans les laboratoires et les entreprises, ils offrent l’opportunité aux chercheurs et ingénieurs de se former à la programmation quantique.
Des résultats encore insuffisants
Leur greffe sur des supercalculateurs est même en cours, une configuration dans laquelle ils feraient office d’accélérateurs très spécifiques. Le Très Grand Centre de calcul (TGCC) du CEA, par exemple, accueille déjà une machine du français Pasqal, fondée sur des qubits à atomes froids, et bientôt un ordinateur photonique de Quandela, autre deeptech française. Les partisans de cette hybridation quantique-classique caressent l’espoir de trouver des cas d’usage intéressants grâce à des algorithmes variationnels : deux boucles d’optimisation, l’une sur l’unité de calcul quantique, l’autre sur celle de calcul classique, se nourrissent mutuellement avant de produire un résultat, tel le minimum d’énergie d’un système. Mais force est de reconnaître que les premières machines quantiques n’ont pas matérialisé les espoirs de John Preskill. «On ne peut pas en faire grand-chose, faute d’avoir découvert des algorithmes utiles dans ce régime Nisq», admet Anthony Leverrier, chercheur à l’Inria.
Dans le domaine de la correction d’erreurs quantiques, on constate une réelle accélération depuis quatre à cinq ans.
— Anthony Leverrier, chercheur à l’Inria
L’heure est aujourd’hui à un changement de paradigme. Un nombre croissant d’acteurs impliqués dans l’ordinateur quantique, de la deeptech au géant du numérique, met le cap vers le calcul tolérant aux fautes (ou tolérant aux pannes), appelé FTQC (fault-tolerant quantum calculation). L’objectif est maintenant de neutraliser les erreurs trop préjudiciables affectant les qubits afin de prolonger la durée de vie de l’information quantique et de fiabiliser les calculs qui en découlent. «Dans le domaine de la correction d’erreurs quantiques, on constate une réelle accélération depuis quatre à cinq ans», indique Anthony Leverrier. Dans son rapport sur ce sujet présenté l’été dernier, la start-up anglaise Riverlane, dont c’est la spécialité, révèle qu’un peu plus de la moitié des 29 deeptechs qu’elle a interrogées a adopté une stratégie de correction d’erreurs pour améliorer les performances de ses machines quantiques.
Diminution du taux d’erreur
La correction d’erreurs quantiques convoque le principe bien connu de la redondance : l’information quantique est encodée sur plusieurs qubits. Si une erreur survient sur un qubit, elle peut être détectée puis réparée grâce à l’application d’une technique de correction d’erreurs (un code, dans le jargon), en se fiant à l’information stockée sur les qubits voisins. Le qubit physique s’efface en quelque sorte au profit du qubit logique, une notion plus abstraite : un ensemble de qubits physiques mieux protégé contre les erreurs que chaque qubit qui le compose. Impossible de faire autrement. Le taux d’erreur sur les qubits physiques a certes bien diminué depuis 2018, atteignant une erreur toutes les 1 000 opérations, voire toutes les 10 000, pour les qubits à ions piégés, les plus résistants. Mais c’est encore bien trop peu pour espérer répondre à des applications industrielles. Comme des qubits physiques aussi résistants n’existent pas, l’idée est que le qubit logique prenne le relais pour réduire le taux d’erreur jusqu’à un niveau acceptable dans un cadre applicatif.
La démonstration de correction d’erreurs de Google est la seule vraiment sous le seuil du taux d’erreur, avec une diminution exponentielle du taux d’erreur logique.
— Jérémie Guillaud, chef de la théorie à Alice&Bob
Restait le passage de la théorie à la pratique. Si d’autres expériences en 2024 ont été convaincantes, notamment de la part de Microsoft en partenariat avec Quantinuum (ordinateurs quantiques à ions piégés), puis d’Amazon, celle de Google, en décembre, se révèle «la plus impressionnante, selon Jérémie Guillaud, le responsable de la théorie à Alice & Bob. C’est la seule vraie démonstration de correction d’erreurs sous le seuil du taux d’erreur, avec une diminution exponentielle du taux d’erreur logique.» La correction d’erreurs ne fonctionne pas au-dessus du seuil en question, un paramètre qui dépend notamment de la technique de correction employée : même quand on multiplie les qubits physiques pour augmenter la redondance, on introduit plus d’erreurs que l’on n’en corrige, en quelque sorte, à cause d’une fidélité insuffisante des opérations pour détecter et corriger les qubits physiques.
La nécessaire adaptation des technos habilitantes
Les technologies habilitantes désignent tous les dispositifs périphériques opérant un ordinateur quantique. Accompagneront-elles ou freineront-elles son ascension, quand les qubits se compteront par milliers, voire millions ? La question se pose en particulier pour la cryogénie. Si l’on s’en tient aux qubits supraconducteurs ou sur silicium, requérant les plus basses températures (de 10 mK à 1 K), le choix actuel – un cryostat autonome pour refroidir une puce – sera intenable quand plusieurs puces devront être interconnectées pour former un calculateur quantique plus puissant. L’enjeu est de repenser l’architecture cryogénique, en optant pour un refroidissement centralisé, et d’améliorer son efficacité pour éviter que la facture énergétique n’explose. Ce sera la mission du projet de recherche Cryonext, qui implique le CEA, le CNRS, Air Liquide, Thales, ainsi que les deeptechs Alice & Bob (qubits supraconducteurs) et Quobly (qubits sur silicium).
Concernant l’électronique de contrôle, les défis d’ingénierie sont variables selon la famille de qubits. Mais Sébastien Jezouin, le responsable du design des puces quantiques d’Alice & Bob, se veut rassurant : «Les boîtiers électroniques se densifient sans cesse et les gammes de fréquences sont semblables à celles de la 5G.» Reste une autre difficulté : pour chaque qubit, ce sont trois à six câbles de contrôle qui doivent plonger de l’extérieur vers le cœur du cryostat. Des labos, des deeptechs, ainsi que le projet européen Arctic, lancé en 2024, s’activent pour concevoir une cryoélectronique capable de fonctionner à 4 K, plus proche de la puce, afin de faciliter l’ingénierie. Les détracteurs de cette solution objectent cependant que le problème n’est que déplacé, puisque de nombreux câbles subsisteront entre la zone à 4 K et l’extérieur à température ambiante.
Améliorer la fidélité du calcul
Google, qui avait échoué en 2023, a cette fois réussi : le taux d’erreur de son qubit logique est 2,4 fois plus faible que celui d’une porte réalisée sur deux qubits physiques – ce type d’opération servant de référence car plus sujet aux erreurs qu’une porte impliquant un seul qubit. Un «ouf» de soulagement se ferait presque entendre dans toute la communauté. Mais le calcul quantique a encore du chemin à parcourir. Déjà, la démonstration de Google ne vaut que pour des qubits supraconducteurs, les plus matures. Pour d’autres familles de qubits, le qubit logique n’est pas attendu avant 2026, voire encore plus tard.
Autre écueil, et de taille : en extrapolant ses résultats, l’équipe de Google Quantum AI conclut qu’environ 1 500 qubits physiques seraient nécessaires pour que le taux d’erreur du seul qubit logique ainsi formé soit de 1 pour 1 million. Un ratio élevé, alors même que la fidélité du calcul demeure très insuffisante pour assumer n’importe quel cas d’usage concret – les algorithmes Nisq actuels pourraient cependant en tirer bénéfice. Il ne faut pas oublier les centaines, voire les milliers, de qubits logiques nécessaires pour pouvoir traiter ces cas d’usage ! Pour rappel, on ne dénombre qu’une centaine de qubits physiques pour les machines les plus évoluées.
Sources : Olivier Ezratty, Understanding Quantum Technologies D'autres techniques moins coûteuses à l'étude
Pour remédier au surcoût de cette correction d’erreurs, les chercheurs étudient donc d’autres techniques, moins contraignantes. En parallèle, ils ont aussi l’ambition de continuer à améliorer la qualité du qubit physique [lire page 30], c’est-à-dire sa capacité à conserver plus longtemps l’information quantique, à répondre précisément aux opérations de contrôle… «Plus les qubits physiques sont bons, plus on s’éloigne du seuil, meilleure sera la diminution du taux d’erreur logique», souligne Patrice Bertet.
Nul doute que le calcul quantique progresse, mais une immense montagne de défis se profile toujours à l’horizon. «Le calcul quantique est un sujet plus compliqué que d’aller sur la Lune», renchérit le consultant spécialisé Olivier Ezratty. À tel point que des physiciens doutent de sa faisabilité ou dénoncent le décalage entre les attentes, notamment des investisseurs, et l’état de la recherche. Les deux à trois prochaines années s’annoncent cruciales pour les deeptechs du quantique.
La simulation analogique, autre voie d’avenir
En complément du calcul quantique reposant sur des portes, il existe la simulation analogique. «On établit des relations quantiques entre les qubits pour essayer de reproduire un problème réel, comme le fait de trouver le niveau d’énergie fondamental d’une molécule, précise Silvano de Franceschi, physicien expérimentateur à l’Institut de recherche interdisciplinaire de Grenoble (Irig), qui dépend du CEA. Ensuite, on laisse évoluer le système de son état initial vers un état final qui serait la solution.»
Les atomes neutres de Pasqal sont particulièrement adaptés à ce mode de simulation. «Avec 300 à 400 qubits de bonne qualité, bien que la fidélité n’ait pas vraiment de sens ici, on pense atteindre un petit avantage quantique en prédisant les propriétés magnétiques des matériaux, ce qui serait utile à la spintronique», explique Loïc Henriet, le directeur général délégué de Pasqal. La future machine Orion à 200 qubits que la deeptech livrera au groupe pétrolier saoudien Aramco sera utilisée d’abord de cette manière, puis dans un mode hybride numérique-analogique qui apporterait davantage de puissance.



