Entretien

[L'instant tech] «Notre objectif est de rassembler les calculs quantique et classique», estime Jay Gambetta, vice-président d’IBM Quantum

Le physicien Jay Gambetta, responsable de la stratégie quantique d’IBM, présente à L’Usine Nouvelle les travaux du géant américain dans le calcul quantique : hybridation, communication, matériaux, usages… Tour d’horizon.

Réservé aux abonnés
Jay Gambetta, IBM Fellow & VP IBM Quantum
Jay Gambetta, vice-président d'IBM Quantum, dans un laboratoire quantique d'IBM.

L’Usine Nouvelle. - Quels sont les prochains objectifs d’IBM dans le calcul quantique ?

Jay Gambetta. - Notre but est de progresser continuellement, au niveau matériel et logiciel, pour parvenir à faire des choses avec nos systèmes que nous ne pouvons pas faire classiquement. Je ne vais pas dire que nous y sommes parvenus à l’heure actuelle, mais nous avons progressé. Nous avons une vision de ce que nous souhaitons faire, et comment : rassembler le calcul quantique et classique. Nous avons entamé un prototype précoce de logiciel, dans le but de mêler les deux approches pour étendre ce qu’il est possible de faire avec un ordinateur quantique. Comprendre exactement comment vont fonctionner ensemble calcul quantique et classique est un défi qui va nous occuper pour les prochaines années.

Vous envisagez donc le quantique comme un accélérateur du calcul haute-performance ?

Il y a deux choses. Comment nous pensons le processeur quantique comme un accélérateur pour un calculateur classique, pour permettre de pousser plus loin la computation. Et additionner classique et quantique pour permettre à un utilisateur qui n’est pas un physicien d’en tirer un bénéfice, cela a toujours été notre vision.

L’idée est de cacher aux développeurs le côté quantique d’un calculateur ?

Je ne dirais pas cacher, mais faire qu’ils n’aient pas besoin d’être experts en physique quantique pour faire du calcul quantique. Prenez un GPU [processeur graphique] : tous les développeurs ne connaissent pas les algorithmes de matrices de multiplication qui tirent leurs performances, pourtant ils savent comment l’utiliser. Donc plutôt simplifier pour ne pas avoir à connaître toute la physique du dispositif et pouvoir réfléchir de manière plus abstraite sur ce que le processeur peut faire. Il faut pour cela un logiciel intermédiaire pour rassembler le classique et le quantique. Il va y avoir beaucoup à faire pour le créer. Comment va-t-il découper un problème ? Orchestrer l’interaction entre les deux types de calcul ? Ce sont des questions ouvertes. Nous avons réalisé et publié en open source un premier code capable de découper un problème, de le résoudre d’un côté en classique, de l’autre en quantique, et de rassembler un résultat. Nous espérons l’améliorer d’ici la fin de l’année pour le rendre plus simple à utiliser.

Avez-vous déjà mis en pratique cette approche ?

Des recherches encore récentes nous amènent à envisager de remplacer des noyaux logiciels, semblables aux transformers, par des circuits quantiques. Ce n’est pas encore mis en pratique, mais nous pouvons montrer une séparation mathématique formelle entre un problème classique et un problème quantique sur différents types de structures de données. Donc nous essayons de voir s’il est possible d’utiliser des extensions quantiques pour identifier des structures ou des corrélations dans des jeux de données complexes, pour les exploiter d’une manière qui n’aurait pas été possible avec une IA classique.

Cette cohabitation de différents modes de calcul demande-t-elle des améliorations matérielles ?

Cela suggère de construire un ordinateur comprenant de multiples processeurs en parallèle, reliés grâce à des communications classiques, avec des algorithmes de découpage des problèmes adaptés. Aujourd’hui nous avons des processeurs isolés. La prochaine étape est de relier deux processeurs avec des communications classiques : c’est notre objectif de cette année. Celui de l’année prochaine sera de lier deux processeurs avec des communications quantiques, par micro-ondes, sur environ un mètre de distance. Au-delà, nous souhaitons relier les processeurs par des connexions optiques. Cela prendra des années.

La conversion d’un état quantique en information classique n’entraine-t-elle pas une perte d’information ?

C’est pour cela qu’au long terme, nous visons les communications quantiques. En attendant, cela permet toujours d’échanger des informations utiles. Nous avons montré théoriquement que deux processeurs quantiques peuvent traiter 9 fois plus vite un problème scindé en deux. Chaque division du problème augmente d’un facteur 9 la vitesse de résolution. Avec des communications classiques, ce facteur baisse à 4. Cela reste un gain important. C’est pour cela qu’à court terme, nous misons là-dessus. Au long terme, bien sûr, nous visons le tout-quantique.

Pourquoi les micro-ondes sont-elles une option plus simple que la fibre optique ?

Nos qubits supraconducteurs émettent de l’énergie sous forme de fréquences micro-ondes. Il n’y a pas grand-chose à changer pour communiquer par ce biais. Passer des micro-ondes à un signal optique demande d’opérer ce que l’on appelle une transduction. C’est très coûteux en énergie. C’est un problème à trois facteurs : le processeur, l’interconnexion et la communication. Le processeur est plus simple à manipuler en micro-ondes. La communication est plus simple en optique et permet d’envoyer des informations sur de plus longues distances. L’interconnexion, elle, sera plus simple à réaliser à court terme en micro-ondes. Mais elle ne permet pas de créer des liaisons de plus d’un mètre. Pour aller plus loin, il faudra nécessairement passer par des fibres optiques.

Une publication controversée dans Nature fait état d’un matériau supraconducteur à température ambiante. Explorez-vous de nouveaux matériaux pour la fabrication de vos qubits ?

Je ne m’exprimerai pas sur ces travaux, dont je ne connais pas le détail. L’amélioration des temps de cohérence de nos qubits repose essentiellement sur la compréhension des matériaux. Pour le quantique, vous voulez les matériaux les plus simples possibles. Un silicium de haute qualité, un matériau supraconducteur de haute qualité, des surfaces de haute qualité… C’est différent des matériaux exotiques utilisés dans d’autres dispositifs. Nous menons nos travaux sur les matériaux, mais ils portent sur leur simplification et sur la volonté de comprendre parfaitement leur comportement. Cela dit, pour des dispositifs de transduction – pour convertir les micro-ondes en signal optique – nous aurons peut-être à utiliser des matériaux exotiques. Nous faisons des expériences pour comprendre le phénomène, mais cela demande beaucoup de recherches. Il est encore tôt pour en parler.

Où en êtes-vous au niveau industriel de la fabrication de vos qubits ? Pouvez-vous fabriquer une puce de plusieurs centaines de milliers de qubits ?

Notre limite se situe actuellement autour d’un millier de qubits. Les gens pensent que les qubits supraconducteurs sont gros et que c’est une limite, mais le problème réside dans l’entrée-sortie. C’est elle qui limite le nombre de qubits. Il faut faire entrer des signaux et en faire sortir d’autres. Si ces signaux sont des micro-ondes, il y a un problème d’échelle fondamentale. Si nous voulions juste déposer des qubits sur un morceau de silicium, nous pourrions en mettre un million, sans problème. Mais si vous voulez les connecter, envoyer des signaux… Résoudre l’entrée-sortie, la rétrécir, développer de meilleures connecteurs, ce sont de grands défis. Et au-delà de la taille, il faut comprendre la physique pour éliminer les interférences. A chaque fois qu’un signal entre dans le système, cela va créer un courant électrique, un champ magnétique, des ondes… Toutes les autres approches technologiques du calcul quantique devront résoudre ce problème.

Comment intégrez-vous l’incertitude scientifique dans votre feuille de route ?

Notre feuille de route nous permet d’être sûrs de lancer une technologie suffisamment tôt pour y parvenir. Il faut voir chacune des puces que nous avons présentées jusque-là comme une technologie : d’abord une puce simple, puis un système de lecture en multiplex pour limiter le nombre de connexions d’entrée-sortie, une connectique sur plusieurs substrats... Nous nous intéresserons ensuite à la modularité, à la communication entre les puces – des recherches que nous avons déjà commencées. Le nombre de qubits importe moins que la technologie qui le permet. Si nous ne pensions pas au passage à l’échelle, nous n’aurions pas développé ces différentes architectures. Nous nous compliquons le travail pour être sûrs de pouvoir aller plus loin. Il est difficile de prévoir le temps de la R&D, car c’est de la science. On ne sait jamais quand on trouvera ce que l’on cherche. C’est le cas de la transduction : nous sommes encore au stade d’exploration de la science, nous ne sommes pas prêts à mettre le sujet sur une feuille de route.

Parvenez-vous malgré tout à anticiper des usages concrets de vos futures machines ?

Nous avons lancé quatre groupes de travail pour identifier des applications auprès de nos clients clés : la physique de la haute-énergie, notamment avec le CERN qui a une stratégie ambitieuse sur le sujet ; la finance et la banque ; les sciences de la vie, avec la Cleveland Clinic ; les matériaux. Nous cherchons à établir des feuilles de routes sur ces domaines, pour identifier des applications et développer des outils utiles à chacun. Nous voulons construire des applications sur des technologies qui arriveront d’ici deux ans. Même si nous ne les avons pas encore, il faut commencer à y travailler dès maintenant. Leurs retours nous permettront peut-être d’améliorer certaines caractéristiques de nos processeurs… Cela risque d’être difficile au départ, car nous n’avons pas les machines. Mais c’est toujours mieux d’essayer de construire quelque chose que de s’asseoir et attendre.

Newsletter La Quotidienne
Nos journalistes sélectionnent pour vous les articles essentiels de votre secteur.
Les webinars
Les services L'Usine Nouvelle
Détectez vos opportunités d’affaires
Trouvez des produits et des fournisseurs