Etude

Où en est vraiment l'arrivée d'un ordinateur quantique utile ? L'Académie des technologies fait le point

Dans un rapport publié jeudi 12 juin, l'Académie dresse un état des lieux du développement d'ordinateurs quantiques en France. Il observe notamment les obstacles qui se dressent sur la voie vers des machines utiles. 

Réservé aux abonnés
Quantique IBM
Le rapport de l'Académie des technologies fait état d'un changement d'approche, privilégiant l'interconnexion de petits calculateurs.

Des réponses et encore beaucoup d’inconnues. Le premier rapport de l’Académie des technologies sur l’informatique quantique, publié jeudi 12 juin à l’occasion du salon VivaTech, est «un point de départ», assure sa co-autrice Catherine Lambert, présidente du Centre européen de recherche et de formation avancée en calcul scientifique (Cerfacs). «Le but est de faire un état des lieux, en France, de ce qu’est le calcul quantique tolérant aux fautes (CQTF) et des défis qu’il reste pour l’atteindre», précise-t-elle.

Face aux allégations parfois optimistes, Catherine Lambert précise : «Aujourd’hui, il n’y a pas de CQTF utilisable pour des applications industrielles.» Le calcul quantique est encore à la génération précédente, celle des calculateurs bruités de taille intermédiaire (NISQ), «qui permet déjà d’utiliser le calcul quantique, mais de manière expérimentale, très limitée en termes d’usage», rappelle-t-elle. «Il est difficile de donner une date d’arrivée d’un CQTF, souligne la co-autrice. On dit souvent aux alentours de 2030, mais cela dépendra des avancées de chaque start-up et de leurs financements

Approche modulaire pour atteindre la taille critique

Entre ces deux ères, «la problématique majeure est la correction d’erreurs, c’est elle qui permettra d’atteindre un avantage quantique et l’utilisation d’un calculateur pour nos besoins industriels», assure-t-elle. Les calculateurs NISQ ont longtemps porté l’espoir de trouver des applications intéressantes, «par exemple par la mise en oeuvre d’algorithmes d’optimisation», est-il rappelé dans le rapport. Mais «cet espoir, poursuivi depuis quelques années par une grande partie de la communauté, est aujourd’hui largement déçu», observent les auteurs du rapport.

En cause, donc, le taux d’erreur des qubits actuels bien trop élevé pour mener à bien suffisamment d’opérations sans faute. «Il semble peu probable que l’on puisse gagner les 9 ordres de grandeur [de taux d'erreur, ndlr] nécessaires simplement en améliorant les dispositifs expérimentaux que sont les qubits physiques et leurs systèmes de contrôle, est-il remarqué dans le document. La solution heureusement est bien connue et repose sur la correction d’erreur quantique et la tolérance aux fautes.»

Et si le rapport fait état des progrès récents réalisés ces dernières années dans le domaine – «permettant de réduire le surcoût de la correction d’erreurs d’au moins un ordre de grandeur par rapport au traditionnel code de surface qui était privilégié auparavant» – ce n’est pas une solution miracle. «Le passage à des applications qui mettent en évidence un avantage quantique de manière irréfutable nécessite d’assembler un nombre de qubits logiques de plusieurs ordres de grandeur supérieur à ce qui est possible actuellement», tranchent les experts. En d’autres termes : l’ordinateur quantique utile n’est pas pour demain.

Mais l’Académie des technologies remarque l’émergence d’une nouvelle approche, à rebours de «l’intégration monolithique de qubits dans un seul système physique» choisie au départ par les entreprises du secteur. Il serait ainsi plus simple d’interconnecter plusieurs systèmes de taille inférieure, dans «une approche modulaire», afin d’associer leurs capacités de calcul. Mais «cette association de petits calculateurs modulaires va demander des technologies habilitantes spécifiques», souligne Catherine Lambert. «Des liens de communication quantique, avec des photons micro-ondes et/ou optiques» sont notamment cités dans le rapport.

Le quantique face au HPC

«Une fois que l’on a dit tout cela, ça ne suffit pas», concède l’experte. Il reste de nombreux aspects à explorer pour faire le tour du sujet : les technologies habilitantes indispensables pour faire fonctionner les machines, les algorithmes quantiques, pour exploiter leur plein potentiel, le benchmarking pour les comparer, «et évidemment l’humain, les compétences et le financement du secteur», ajoute Catherine Lambert.

Ce travail, qui fera l’objet d’un nouveau rapport en 2026, ne pourrait être complet sans prendre en compte l’avancement des autres technologies de calcul. «Y aura-t-il toujours un avantage quantique face à des technologies qui évoluent elles aussi ?», s’interroge Catherine Lambert. «Le calcul haute performance (HPC) a été fortement modifié par l’intelligence artificielle, remarque-t-elle. Et nous ne sommes pas à l’abri de nouvelles technologies silicium, comme le neuromorphique, qui peuvent elles aussi doper le HPC.»

Un contexte qui renforce une vision déjà bien établie du calcul quantique, davantage vu comme une entité de calcul isolée mais comme une brique, vouée à s’intégrer dans une architecture globale aux côtés d’autres modes de calcul. 

Newsletter La Quotidienne
Nos journalistes sélectionnent pour vous les articles essentiels de votre secteur.
Les webinars
Les services L'Usine Nouvelle
Détectez vos opportunités d’affaires
28 - 3F CENTRE VAL DE LOIRE
Date de réponse 11/05/2026
Trouvez des produits et des fournisseurs