Des réponses et encore beaucoup d’inconnues. Le premier rapport de l’Académie des technologies sur l’informatique quantique, publié jeudi 12 juin à l’occasion du salon VivaTech, est «un point de départ», assure sa co-autrice Catherine Lambert, présidente du Centre européen de recherche et de formation avancée en calcul scientifique (Cerfacs). «Le but est de faire un état des lieux, en France, de ce qu’est le calcul quantique tolérant aux fautes (CQTF) et des défis qu’il reste pour l’atteindre», précise-t-elle.
Face aux allégations parfois optimistes, Catherine Lambert précise : «Aujourd’hui, il n’y a pas de CQTF utilisable pour des applications industrielles.» Le calcul quantique est encore à la génération précédente, celle des calculateurs bruités de taille intermédiaire (NISQ), «qui permet déjà d’utiliser le calcul quantique, mais de manière expérimentale, très limitée en termes d’usage», rappelle-t-elle. «Il est difficile de donner une date d’arrivée d’un CQTF, souligne la co-autrice. On dit souvent aux alentours de 2030, mais cela dépendra des avancées de chaque start-up et de leurs financements.»
Approche modulaire pour atteindre la taille critique
Entre ces deux ères, «la problématique majeure est la correction d’erreurs, c’est elle qui permettra d’atteindre un avantage quantique et l’utilisation d’un calculateur pour nos besoins industriels», assure-t-elle. Les calculateurs NISQ ont longtemps porté l’espoir de trouver des applications intéressantes, «par exemple par la mise en oeuvre d’algorithmes d’optimisation», est-il rappelé dans le rapport. Mais «cet espoir, poursuivi depuis quelques années par une grande partie de la communauté, est aujourd’hui largement déçu», observent les auteurs du rapport.
En cause, donc, le taux d’erreur des qubits actuels bien trop élevé pour mener à bien suffisamment d’opérations sans faute. «Il semble peu probable que l’on puisse gagner les 9 ordres de grandeur [de taux d'erreur, ndlr] nécessaires simplement en améliorant les dispositifs expérimentaux que sont les qubits physiques et leurs systèmes de contrôle, est-il remarqué dans le document. La solution heureusement est bien connue et repose sur la correction d’erreur quantique et la tolérance aux fautes.»
Et si le rapport fait état des progrès récents réalisés ces dernières années dans le domaine – «permettant de réduire le surcoût de la correction d’erreurs d’au moins un ordre de grandeur par rapport au traditionnel code de surface qui était privilégié auparavant» – ce n’est pas une solution miracle. «Le passage à des applications qui mettent en évidence un avantage quantique de manière irréfutable nécessite d’assembler un nombre de qubits logiques de plusieurs ordres de grandeur supérieur à ce qui est possible actuellement», tranchent les experts. En d’autres termes : l’ordinateur quantique utile n’est pas pour demain.
Mais l’Académie des technologies remarque l’émergence d’une nouvelle approche, à rebours de «l’intégration monolithique de qubits dans un seul système physique» choisie au départ par les entreprises du secteur. Il serait ainsi plus simple d’interconnecter plusieurs systèmes de taille inférieure, dans «une approche modulaire», afin d’associer leurs capacités de calcul. Mais «cette association de petits calculateurs modulaires va demander des technologies habilitantes spécifiques», souligne Catherine Lambert. «Des liens de communication quantique, avec des photons micro-ondes et/ou optiques» sont notamment cités dans le rapport.
Le quantique face au HPC
«Une fois que l’on a dit tout cela, ça ne suffit pas», concède l’experte. Il reste de nombreux aspects à explorer pour faire le tour du sujet : les technologies habilitantes indispensables pour faire fonctionner les machines, les algorithmes quantiques, pour exploiter leur plein potentiel, le benchmarking pour les comparer, «et évidemment l’humain, les compétences et le financement du secteur», ajoute Catherine Lambert.
Ce travail, qui fera l’objet d’un nouveau rapport en 2026, ne pourrait être complet sans prendre en compte l’avancement des autres technologies de calcul. «Y aura-t-il toujours un avantage quantique face à des technologies qui évoluent elles aussi ?», s’interroge Catherine Lambert. «Le calcul haute performance (HPC) a été fortement modifié par l’intelligence artificielle, remarque-t-elle. Et nous ne sommes pas à l’abri de nouvelles technologies silicium, comme le neuromorphique, qui peuvent elles aussi doper le HPC.»
Un contexte qui renforce une vision déjà bien établie du calcul quantique, davantage vu comme une entité de calcul isolée mais comme une brique, vouée à s’intégrer dans une architecture globale aux côtés d’autres modes de calcul.



