L'Usine Nouvelle. - Sur quelles découvertes scientifiques repose le calcul quantique ?
Julien Bobroff. - Toutes ces nouvelles révolutions quantiques reposent sur de nouveaux savoir-faire. On est désormais capable de manipuler en laboratoire des objets à très petite échelle, ce que l’on ne pouvait pas faire auparavant : manipuler un seul atome, un seul photon, une seule molécule… C’est ça qui a ouvert la deuxième révolution quantique, car on s’est rendu compte que l’on avait accès à de nouveaux comportements de la matière. Cela se base sur des progrès technologiques et beaucoup sur des astuces techniques de physiciens, comme par exemple fabriquer des pièges à atomes avec des lasers. Ils n’ont pas seulement eu à brancher de nouveaux outils, il y a un échange constant entre les laboratoires de pointe et leurs fournisseurs pour concevoir les équipements dont ils avaient besoin.
La physique a permis d’énormes développements technologiques : toute l’informatique et l’électronique actuelles reposent déjà sur de la physique quantique. Votre ordinateur existe grâce à la physique quantique – les transistors ont été inventés par des physiciens quantiques lors de la première révolution quantique, entre la seconde guerre mondiale et les années 1970 – mais il fonctionne de manière non-quantique.
Quelles limites scientifiques reste-t-il à dépasser pour faire du calcul quantique une réalité ?
Sur le papier, au niveau théorique ou scientifique, on sait comment le faire fonctionner et le programmer pour qu’il soit utile. Les verrous sont technologiques, mais cela ne veut pas dire qu’ils seront simplement résolus grâce à de l’argent ou des usines. Ce sont des problèmes liés à la physique, profonds, que l’on n’est pas sûr de dépasser. Les objets manipulés dans un ordinateur quantique sont extrêmement sensibles au moindre bruit ou à la moindre instabilité : en faisant grossir le système, en ajoutant des qubits, on augmente les possibilités d’erreurs. Il existe trois pistes pour répondre à ces erreurs : les améliorer pour qu’ils n’en fassent plus – certaines personnes pensent qu’on n’y arrivera jamais ; les utiliser malgré les erreurs, ce qui n’est pas simple, c’est la voie actuellement suivie par IBM ; et la troisième est d’arriver à les corriger. Pour cela il existe différentes solutions éventuelles, mais cela implique d’ajouter un nombre vertigineux de qubits à la machine… ce que l’on ne sait pas encore faire de manière viable.
Est-il possible de donner un horizon de temps probable pour dépasser ces limites ?
Non seulement il est impossible de donner un horizon, mais c’est pire que ça : on ne sait même pas si ces problèmes seront résolus un jour. On n’est pas sûr de faire un ordinateur capable d’exécuter de manière fiable les algorithmes quantiques qui existent déjà. Mais même si l’ordinateur quantique ne devait pas arriver, il faut se rappeler que ces mêmes technologies quantiques ont permis de développer plein d’autres choses, comme les communications et les capteurs, pour lesquels certaines applications fonctionnent et sont déjà commercialisées.
Autre point important : ces ordinateurs ont une autre façon de faire – différente des calculs basés sur des algorithmes – qui est d’utiliser le fait que cet ordinateur est une machine de laboratoire qui suit les lois de la physique quantique. Cela permet de faire des simulations, pas dans le sens d’une simulation numérique, mais celui de reproduire un système physique et d’observer son fonctionnement en laissant faire les lois de la nature. C’est l’un des usages les plus prometteurs pour deux raisons : il fonctionne malgré les erreurs, car c’est la physique elle-même qui mène le calcul. Et on s’est rendu compte que la physique quantique peut répondre à des problèmes qui ne sont pas quantiques, comme des problèmes d’optimisation, de finance, de mouvements des populations… Des équipes comme celle de la start-up Pasqal le font très bien. Les deux approches du calcul quantique utilisent les mêmes ingrédients, mais dans l’une, analogique, on laisse faire la physique et l’autre, numérique, on utilise des algorithmes.
Les technologies habilitantes sont-elles aussi le sujet de recherches fondamentales ? Peuvent-elles ralentir les progrès sur le calcul ?
Ce sont des questions très technologiques : les câbles, la cryogénie, l’électronique de contrôle… La physique, on la connait. Mais dès qu’on entre dans le détail, on touche à des questions fondamentales. Il y a par exemple des travaux pour faire communiquer entre eux deux processeurs quantiques à travers de la lumière ou des ondes acoustiques, où l’on essaie donc d’envoyer des signaux quantiques. On est dans un va et vient où il est difficile de distinguer la recherche de l’industrie. C’est vrai dans les technos habilitantes, et encore davantage dans les technologies de calcul. Les ordinateurs quantiques sont encore des équipements de laboratoire, nous sommes à un moment où il est difficile de distinguer la recherche fondamentale de l’appliquée et de l’industrie. On est dans un entre deux où le cap de l’industrie n’est pas encore franchi, où les start-up sont au même niveau que les grands groupes et où on a encore besoin de la recherche fondamentale.
Vous êtes titulaire de la Chaire “La Physique Autrement” de la Fondation Paris-Saclay soutenue par le groupe Air Liquide et le Crédit Agricole CIB – la vulgarisation scientifique peut-elle bénéficier à l’industrie ?
Pour que les choses soient claires, j’ai une équipe de recherche qui travaille sur la vulgarisation scientifique, nous sommes soutenus par des mécènes mais nous ne travaillons pas pour eux. Cela dit, les enjeux technologiques actuels rassemblent des physiciens, des ingénieurs et des informaticiens qui doivent travailler ensemble. Ils ont des cultures et des langages très différents. Mon enjeu n’est pas de réinventer la manière dont on explique l’informatique quantique – d’autres le font déjà très bien. Moi j’aide à franchir la porte d’entrée, avec des images et des démonstrations pour faire comprendre les enjeux et sensibiliser à la question. Je fais souvent des interventions dans les entreprises pour leur ouvrir cette porte d’entrée vers ces mondes-là.
Quel accueil recevez-vous dans l’industrie ?
Je constate une grande curiosité et beaucoup de FOMO [fear of missing out, la peur de passer à côté de quelque chose, ndlr]. Toutes les entreprises se demandent si elles sont menacées par l’avènement futur de l’informatique quantique. Chacun se demande quand s’y mettre et comment : faut-il juste sensibiliser les équipes ou vraiment investir ? Ils ont besoin d’une première vision pour comprendre les échéances – je leur apporte sans enjeu personnel, car je n’ai rien à défendre. Mon point de vue un peu extérieur me permet de trier le "bullshit" quantique des annonces sérieuses, pour qu’ils puissent se placer dans ce milieu-là.
Je prends l’exemple d’une entreprise du big data qui s’interroge si elle doit s’y mettre dans six mois, un an, cinq ans ? Je dis : il n’y a aucune urgence, les algorithmes quantiques pour le big data sont massifs et font encore beaucoup d’erreurs. C’est l’un des derniers usages qui sera adressé par le calcul quantique. L’enjeu est ailleurs, par exemple autour des capteurs quantiques. Il n’y a pas non plus d’urgence au niveau de la cryptographie, dont on parle souvent : l’algorithme de Shor qui menace les solutions de chiffrement actuelles est un des plus inaccessibles et ne sera pas mis en œuvre peut-être avant des dizaines d’années. Pour ce qui est des cas d’usages à court ou moyen terme, il faut se pencher sur la simulation. Là, des machines peuvent aider à des gains significatifs.
Quelle stratégie conseillez-vous ?
Certaines entreprises américaines investissent et recrutent dans le secteur uniquement pour avoir des gens formés sur le sujet, qui sont là pour identifier une percée et ne pas être à la traîne si, soudain, quelque chose se passe. Ça me semble être une bonne logique : suivre le domaine en interne, en veille, et avoir les armes pour se réveiller au bon moment. Aux Etats-Unis, comme en Allemagne, il y a une tradition où, quand un étudiant a fait sa thèse, il va en entreprise. C’est moins vrai en France. Pourtant, un docteur en physique quantique a les outils nécessaires pour suivre les domaines et être là si besoin.
Vous avez écrit un livre sur « La nouvelle révolution quantique ». Pourquoi est-il important d’expliquer ce qui se joue autour de ces nouveaux progrès scientifiques et technologiques ?
Nous sommes à un moment charnière où les technos sont en train de sortir des laboratoires pour entrer dans le monde de l’industrie. Tous les grands groupes industriels s’y intéressent. On est sortis de l’expérimentation purement fondamentale, mais on n’est pas encore à grande échelle. C’est le moment du basculement, le bon moment pour trier le vrai du faux, comprendre l’histoire et l’échelle de temps dans laquelle ça s’inscrit. Il est important de savoir comment ça se développe, que c’est une histoire de physiciens qui devient une histoire industrielle. Pour les curieux qui se demandent où on en est et où on va, c’est le bon moment. Ecrire ce livre à ce moment m’a permis d’interroger des acteurs, qui sont des collègues chercheurs pour la plupart, et de discuter librement avec eux pour identifier ce qui est solide et ce qui tient de l’effet de mode, de la hype. Plus tard ils seront peut-être moins libres de s’exprimer, car il y aura davantage d’intérêts économiques.
Verdict : l’effet de mode a-t-il pris le pas sur la réalité des progrès scientifiques ?
Il y a un vrai mélange : il faut distinguer les publications scientifiques et la communication. On survend un peu les algorithmes, et on passe un peu à côté de ce qui fonctionne déjà, sur les capteurs et les simulateurs. Il y a beaucoup de communication – comme les affirmations disant que le calcul quantique va résoudre le réchauffement climatique – mais aussi beaucoup de publications scientifiques de très haut niveau, même venant des GAFAM. On a besoin de gens qui nous aident à faire le tri dans tout ce bruit médiatique.



