« L’année 2021 pourrait être celle de l’avantage quantique commercial. L’enjeu majeur, aujourd’hui, pour les acteurs du calcul quantique est de démontrer sa supériorité sur l’informatique classique dans des applications commerciales», affirme Christophe Jurczak, le directeur général de Quantonation. Celui qui a soutenu une thèse en 1996 sous la direction d’un grand nom français de la physique quantique, Alain Aspect, avant de mener une carrière dans la Silicon Valley, a tout intérêt à ce que son vœu se réalise : Quantonation, le fonds d’investissement dédié aux technologies de rupture qu’il a cofondé fin 2018, finance une douzaine de start-up, dont cinq françaises. « Elles ne sont pas là pour faire de la recherche, mais bien pour créer un produit qui réponde à un besoin », insiste-t-il.
L’investisseur ne s’y trompe pas. La démonstration de la « suprématie quantique » théorisée par le physicien John Preskill en 2012, soit la supériorité écrasante d’un processeur quantique sur un ordinateur classique, n’est plus la priorité. Et pour cause : elle a été réalisée par Google à l’automne 2019 avec Sycamore, sa puce à 54 bits quantiques (qubits) supraconducteurs qui a procédé à l’échantillonnage d’un circuit quantique aléatoire en deux cents secondes.
Démontrer l'avantage du quantique dans des applications réelles
« Une tâche qui prendrait dix mille ans au meilleur supercalculateur de la planète », clamait la firme de Mountain View dans un article publié sur le site de la Nasa en octobre 2019. Certes, cette annonce a fait polémique. D’abord parce qu’IBM, son grand rival dans le domaine, a rétorqué que « l’émulation de cette même tâche peut être réalisée sur un système classique en deux jours et demi ». Surtout, cette tâche n’est d’aucune utilité concrète. Pourtant, avec Sycamore, Google a fait sauter un verrou, démontrant qu’il est possible de manipuler des dizaines de qubits pour réaliser un calcul donné beaucoup, beaucoup plus vite qu’un ordinateur classique.
Depuis, la course à l’ordinateur quantique s’est accélérée. Avec un nouveau cap : la démonstration qu’il permet d’obtenir un avantage dans des applications réelles. C’est l’objectif visé par IBM, qui a dévoilé, en septembre 2020, sa feuille de route sur trois ans, lors de l’inauguration de Hummingbird (colibri), sa puce à 65 qubits supraconducteurs. Big Blue compte dépasser les 100 qubits dès 2021 et atteindre 1 221 qubits avec son processeur Condor en 2023. « Nous avons besoin d’entre 200 et 500 qubits physiques pour démontrer un avantage quantique avec un intérêt commercial », estime Olivier Hess, le responsable de l’informatique quantique chez IBM France. En novembre, la firme a refondé toute l’architecture de ses applications dédiées à la chimie moléculaire et les a intégrées dans son infrastructure logicielle Qiskit, l’une des plus utilisées pour expérimenter le calcul quantique. Google lui-même semble se concentrer sur des applications concrètes, comme en témoigne la simulation, en août 2020, d’une réaction chimique avec une version réduite de Sycamore de 12 qubits, soit le double du record accompli par IBM en 2017.
Investissements des start-up
Si les deux géants font la course en tête, il serait prématuré de les déclarer vainqueurs. Des start-up lèvent des sommes très importantes : 79 millions de dollars en 2020 pour l’américain Rigetti et son calculateur à 32 qubits, en plus des 119 millions déjà acquis ; 84 millions de dollars cumulés pour le finlandais IQM. Comme Google et IBM, toutes deux font le pari des qubits réalisés avec des supraconducteurs.
Mais d’autres technologies prétendent aussi à la réalisation des qubits. Ces équivalents quantiques des bits classiques peuvent en effet prendre la forme de bien des sortes d’objets physiques, pour peu que ces derniers expriment leurs précieuses propriétés quantiques de superposition et d’intrication. Les investisseurs misent sur des alternatives aux qubits supraconducteurs : l’américain IonQ avec son calculateur quantique à base d’ions piégés a déjà récolté 84 millions de dollars. PsiQuantum, la spin-off de l’université de Bristol, en Angleterre, aujourd’hui sise à Palo Alto, a levé 230 millions de dollars pour son calculateur à qubits photoniques. Sans compter Intel, qui planche à la fois sur les supraconducteurs et la filière silicium, et Honeywell, géant industriel arrivé plus tard dans la bataille, mais qui a sorti le H1 en octobre dernier, un calculateur quantique à 10 qubits à ions piégés, « de la meilleure qualité à l’heure actuelle », reconnaît Denise Ruffner, la vice-présidente d’IonQ. D-Wave, enfin, électron libre et pionnier, dont la technologie adiabatique n’est pas toujours considérée comme complètement quantique, a déjà plus de 200 millions de dollars de financement à son actif et vient de dévoiler l’Advantage, une machine à plus de 5 000 qubits.
Atteindre la mise à l’échelle
« Contrairement aux autres machines quantiques, le processeur de D-Wave n’utilise pas la programmation à portes quantiques universelles, mais le recuit quantique. C’est-à-dire qu’on relie les qubits avec des poids pour trouver un état énergétique minimum d’un système – un peu comme des réseaux de neurones », détaille Olivier Ezratty, auteur du livre en accès libre Comprendre l’informatique quantique. Particulièrement adapté aux tâches d’optimisation combinatoire, le processeur de D-Wave est plus limité pour d’autres usages. « Très mal perçue par les physiciens, la société D-Wave est pourtant beaucoup plus sérieuse qu’elle n’y paraît», juge le consultant. Avec d’ores et déjà une grosse poignée d’expérimentateurs (Volkswagen, Lockheed Martin…), c’est « le fabricant de hardware quantique le plus proche de l’industrie, avec IBM. »
À l’heure de démontrer l’avantage quantique dans des applications réelles, les partenariats industriels deviennent cruciaux. De plus en plus de spécialistes du calcul quantique emboîtent le pas à IBM et D-Wave en s’alliant aux fournisseurs de hardware, aux spécialistes des logiciels et aux clients finaux. Honeywell s’est ainsi rapproché de la banque JPMorgan Chase et du pétrolier britannique BP. La start-up française Pasqal, qui fabrique des qubits à atomes froids, collabore, elle, avec EDF et Total. La course à l’ordinateur quantique reste très ouverte en termes de technologies de qubits. Car les qubits qui animent les puces quantiques disponibles actuellement souffrent de nombreuses limites (notamment un taux d’erreur important) et incertitudes quant à leurs marges de progression. « L’enjeu majeur est la mise à l’échelle, indique Olivier Ezratty, soit la capacité de créer des ordinateurs quantiques avec un grand nombre de qubits aussi faiblement bruités que possible pour que les calculs soient fiables, ce qui implique énormément de défis en termes d’ingénierie, qui varient en fonction de la technologie adoptée. »
Pas d’ordinateur quantique universel à l’horizon
Les partisans de la filière supraconductrice, qui font la course en tête, peuvent revendiquer détenir le plus grand nombre de qubits. « Mais ils ont besoin de près de deux semaines rien que pour lancer leur machine, qui ne fonctionne qu’à des températures extrêmement basses, de l’ordre du millikelvin [0 kelvin, le zéro absolu, étant égal à - 273,15 °C, ndlr] », note Valérian Giesz, le PDG de la start-up française Quandela, qui fabrique des sources de photons pour de futurs ordinateurs quantiques optiques. Un frein à la mise à l’échelle qu’IBM veut balayer avec Goldeneye, un cryostat géant pour accompagner ses envies de grandeurs, mais « qui ne suffira pas », selon Olivier Ezratty. « Les qubits à base d’ions piégés, qui font beaucoup parler d’eux en ce moment grâce à IonQ et Honeywell, sont parmi les plus fiables, avec les taux d’erreur les plus faibles. Mais on ne sait pas s’il est possible d’obtenir plus de 100 qubits avec cette technologie », pointe le consultant.
Une chose est sûre : quelle que soit la technologie, elle devra être capable de prouver un véritable « avantage quantique commercial » sans attendre l’ordinateur quantique universel, encore mythique. La priorité du monde du hardware quantique est de démontrer rapidement l’utilité des machines qui existent aujourd’hui, avec leurs défauts et leurs limites, afin d’éviter un « hiver quantique », soit un gel des investissements et des efforts, comme cela a été le cas pour l’intelligence artificielle dans les années 1970, puis au début des années 1990. Les géants de la tech et les start-up travaillent donc sur des accélérateurs quantiques baptisés « noisy intermediate-scale quantum computers » (Nisq), soit des machines bruitées capables de prendre en charge seulement certains types de calculs, pendant que le reste serait confié à des machines classiques.
Dans ce sprint pour démontrer un avantage quantique commercial, la France a des armes redoutables. Elle possède en effet des laboratoires de physique quantique parmi les meilleurs du monde. À titre d’exemple, l’équipe de Daniel Estève, au CEA Saclay, a été l’une des premières à fabriquer un qubit supraconducteur en 2002. De plus, certains chercheurs sont directement impliqués dans les entreprises françaises, comme le physicien Serge Haroche, prix Nobel 2012, qui fait partie du conseil scientifique d’Atos, un acteur majeur du quantique, ou Alain Aspect, également membre de ce comité et conseiller de Pasqal.
Les ambitions françaises
Deuxième puissance européenne des technologies quantiques, derrière le Royaume-Uni, la France compte une quinzaine de start-up positionnées dans presque toutes les filières du calcul quantique : supraconducteurs (Alice & Bob), silicium (C 12), atomes froids (Pasqal), photons (Quandela). Plusieurs fois reporté, le très attendu plan quantique français a été enfin lancé le 21 janvier. Sur un budget annoncé de 1,8 milliard d'euros sur 5 ans (dont 1 milliard d'argent public), il doit consacrer quelque 430 millions au développement d'un calculateur quantique français.
Rien n’est joué dans la course au calcul quantique, insiste Théau Péronnin, le PDG d’Alice & Bob, qui parie sur des qubits supraconducteurs auto-correcteurs d’erreurs. « La prochaine Quantum Valley se dessinera au cours des cinq prochaines années autour des leaders. Si elle s’installe en France, les acteurs industriels dans les secteurs pharmaceutiques, manufacturiers, ou les spécialistes de l’IA à proximité, auront un avantage certain. » Reste à faire venir des start-up du software, qui manquent cruellement en France, selon Christophe Jurczak. Le premier projet du Lab quantique, une association qu’il a cofondée en 2020 afin de rassembler l’ensemble de la communauté française du quantique, doit faire venir des spécialistes étrangers du software quantique au Qampus, à Massy, où sont déjà installés Pasqal et Quandela. Et si la future Quantum Valley européenne était à portée de RER de la capitale française ?
Philippe Duluc, directeur technique d’Atos
« Un QPU pour accélérer les algorithmes quantiques dès 2023 »
Quelles sont vos activités dans le quantique ?
Nous avons lancé le programme Atos Quantum en 2016, avec une équipe d’une vingtaine de personnes dans notre centre de R & D aux Clayes-sous-Bois (Yvelines) [qui sera inauguré en février, ndlr]. Nous n’avons pas opté pour le hardware, mais pour ce que nous savons faire : de gros systèmes informatiques. Dès 2017, nous avons lancé l’Atos Quantum learning machine (QLM), une plate-forme de programmation classique qui permet de programmer un algorithme quantique, d’en émuler l’exécution et de l’optimiser. C’est la seule machine de ce genre commercialisée aujourd’hui. Nous en avons vendu une trentaine dans le monde.
Vous visez aussi un accélérateur quantique…
Nous ne croyons pas à l’ordinateur quantique universel (LSQ), parce qu’il y a peu d’applications accélérables par le calcul quantique. Mais pour celles qui le sont, le calcul quantique peut faire des miracles. Notre ambition est de commercialiser un vrai accélérateur quantique dès 2023. À l’image des GPU pour accélérer les applications d’intelligence artificielle, nous aurons bientôt des QPU pour les algorithmes quantiques.
Quelle technologie utilisera-t-il ?
Cela reste à déterminer. Nous sommes agnostiques au hardware et nous collaborons avec plusieurs fabricants : le finlandais IQM (qubits supraconducteurs), l’université d’Innsbruck en Autriche et sa spin-off Alpine Quantum Technologies (ions piégés), et le français Pasqal (atomes froids).
À la recherche du test de performance idéal
Q-score, le test de performance quantique dévoilé en décembre par Atos, « mesure la capacité d’un processeur quantique à résoudre un vrai problème algorithmique », détaille Élie Girard, son directeur général. Un peu à l’image de Linpack, qui sert à classer les plus puissants superordinateurs du monde dans le top 500. « Nous manquons d’une métrique qui puisse juger de la capacité de calcul des processeurs quantiques afin d’évaluer les annonces des constructeurs », regrette Élie Girard. Début 2020, IBM avait lancé le volume quantique, « un indicateur chiffré s’appuyant sur une quinzaine de paramètres », précise Olivier Hess, le responsable du quantique chez IBM France. Mais celui-ci est « trop simplificateur », selon Olivier Ezratty, spécialiste du calcul quantique. D’autres tentatives ont récemment vu le jour, comme la méthode fondée sur la simulation chimique, publiée dans « Nature » en 2019 par l’équipe du chercheur Raphael Pooser, à l’Oak Ridge national laboratory, ou celle de la Nasa, qui compare les performances des ordinateurs quantiques à celles de supercalculateurs classiques.




