Teratec 2025 : l’Académie des technologies a présenté son rapport sur le calcul quantique tolérant aux fautes

L’Académie des technologies a planché durant deux ans sur un rapport dressant l’état des lieux du calcul quantique tolérant aux fautes, qui aboutirait à des applications industrielles concrètes. Une présentation en avant-première a eu lieu au Forum Teratec, ce 21 mai. Elle a souligné les immenses défis qui attendent ce secteur émergent.

Réservé aux abonnés
Teratec 2025 - FTQC
Olivier Ezratty, consultant spécialisé, le 21 mai 2025 à Teratec. Il expose les grands thèmes du rapport de l'Académie des technologies sur le calcul quantique tolérant aux fautes.

Où se situe aujourd’hui le calcul quantique dit tolérant aux fautes, le seul capable de surmonter les erreurs affectant les bits quantiques (ou qubits) et donc de potentiellement accélérer de façon exponentielle des algorithmes utiles à l’industrie ? C’est sur cette question que s'est penchée l’Académie des technologies, à l’initiative du Secrétariat général pour l’investissement (SGPI). Une synthèse du rapport a été présentée en avant-première à la vingtième édition du Forum Teratec, le rendez-vous annuel de la communauté du calcul intensif qui s'est tenu les 21 et 22 mai au Parc floral de Vincennes.

Ce rapport, qui sera rendu public le 12 juin prochain à l’occasion du salon Vivatech, est le fruit de deux années d’auditions de l’écosystème quantique français. Outre l’établissement d’un état des lieux, l’objectif était d’identifier les défis et les perspectives du FTQC (fault-tolerant quantum computing). Celui-ci adviendra-t-il un jour ? Le groupe de travail, qui a réuni une petite vingtaine de personnes, n’a pas d’avis tranché, bien qu’il se veuille plutôt optimiste.

Une chose est sûre, et ce n’est guère surprenant : les défis scientifiques et techniques qui attendent les deeptechs et la recherche académique sont colossaux. Ainsi le consultant spécialisé Olivier Ezratty, parmi les auteurs du rapport, a-t-il souligné le décalage entre les capacités actuelles des ordinateurs quantiques, prompts à commettre des erreurs (ils sont « bruités »), et les besoins applicatifs, de la finance à la simulation de la dynamique de fluides incompressibles.

Des défis matériels et logiciels

« La fidélité des opérations sur les qubits doit être au minimum de 10-8 (une erreur toutes les 100 millions d’opérations, ndlr) à 10-20 et au-delà, a-t-il dit. Or, les feuilles de route de la plupart des fabricants de puces quantiques prévoient, dans un intervalle de 2 ans à 7 ou 8 ans, une centaine de qubits logiques (un ensemble de qubits physiques mieux protégé contre les erreurs grâce à de la correction d’erreurs, ndlr) avec une fidélité de 10-6, ce qui correspond à un million d’opérations sans erreur. » Un schéma montrant ce grand écart est visible dans notre dossier sur le FTQC, paru il y a quelques mois.

La correction d’erreurs fait donc partie des nécessités, qu’elle soit logicielle ou en partie matérielle grâce à des architectures spécifiques – par exemple les qubits de chat d’Alice&Bob. Mais le rapport liste d’autres problématiques à résoudre, qui ont trait à l’aspect économique et énergétique, à l’ingénierie pour opérer les ordinateurs quantiques (cryogénie, électronique…) ou encore à l’interconnexion possiblement hétérogène des puces quantiques. Car une seule puce, quelle que soit sa famille technologique, ne renfermera a priori jamais les centaines de milliers de qubits – voire les millions – nécessaires à l'exécution d'algorithmes dignes d’intérêt.

Ce qui pose une autre difficulté d’ordre logiciel, soulevée par Olivier Ezratty : « On a besoin de compilateurs qui tiendront compte de cette topologie pour optimiser la distribution du code sur plusieurs processeurs, tout en conservant l’intrication quantique. Cela a un coût, estimé dans le rapport. »

Pour Cyril Allouche, à la tête de la R&D en calcul quantique à Eviden, il est également temps de se préoccuper de la programmation pour le FTQC : « Le NISQ (ou calcul sur ordinateur quantique bruité), c’est une heuristique pour minimiser une fonction qu’on intègre sous forme de circuit quantique. Ce sont des algorithmes variationnels. La tolérance aux fautes permettra de faire de la programmation. On pourra encoder des chaînes de caractères, demander le calcul d’un entier, d’un nombre flottant… Mais les fabricants de QPU devront savoir compiler ces instructions et ils n’en sont pas à ce niveau de maturité. On ne pourra pas compter sur une puce classique pour générer le circuit quantique. Malgré tout, les puces quantiques devront embarquer des capacités de calcul classique pour gérer la correction d’erreurs, les flux de travail… »

Un Quantum Act européen en préparation

Ce qui réclamera beaucoup de puissance de calcul, raison pour laquelle Nvidia s’intéresse de plus en plus à l’ordinateur quantique. «Pour préparer un calcul quantique, par exemple une simulation chimique, il est possible qu’on ait besoin des supercalculateurs les plus puissants, a observé Olivier Ezratty. C’est un travail d’intégration qui sera extrêmement important. »

Afin d’approfondir toutes ces questions, le groupe de travail va enclencher une seconde phase, qui s’élargira à l'écosystème européen. «La France ne peut pas y arriver toute seule mais on peut être compétitif si on travaille au niveau européen, a justifié Loïc Le Loarer, coordinateur de la stratégie nationale quantique. On s’est mis en route pour avoir une stratégie européenne, un Quantum Act avec des financements en 2027. » Un règlement qui s’accompagnerait d’un Quantum Chips Act, inspiré par le Chips Act appliqué aux semi-conducteurs électroniques, et suggéré par le rapport Draghi de septembre dernier sur la compétitivité européenne. La Commission européenne a lancé une consultation dans ce sens, ce qui permettrait notamment de réviser la trajectoire imprimée par le Quantum Flagship en 2018.

Newsletter La Quotidienne
Nos journalistes sélectionnent pour vous les articles essentiels de votre secteur.