Calcul quantique : Google parie sur l’IA pour détecter plus précisément les erreurs affectant ses qubits supraconducteurs

Alphaqubit : cette intelligence artificielle développée par Google peut détecter avec une excellente précision les erreurs qui modifient de façon non désirée l’état d’un qubit. Une avancée décrite dans une étude publiée dans Nature, le 20 novembre dernier.

Réservé aux abonnés
Image d'illustration de l'article
L'ordinateur quantique Sycamore de Google a fourni des données expérimentales pour le fine-tuning d'Alphaqubit.

L’intelligence artificielle appelée à la rescousse pour fiabiliser le calcul quantique ? Fruit de l’expertise croisée de Google Deepmind dans l'IA et de Google Quantum AI dans l'ordinateur quantique, Alphaqubit s'attaque aux erreurs des qubits, ces équivalents quantiques des bits de l'informatique classique. Le 20 novembre dernier dans Nature, les deux équipes de l’entreprise américaine ont présenté leurs travaux décrivant leur nouvelle création et ses performances.

Fondé sur une architecture Transformer, une invention de Google Deepmind, Alphaqubit est un décodeur capable de débusquer les erreurs affectant des qubits supraconducteurs sur lesquels mise Google (très fragiles comme tous les qubits), et donc le calcul quantique. Mieux, il le fait avec une précision supérieure à celle des algorithmes actuellement utilisés, dont les réseaux de tenseurs.

Décoder le code de surface

Alphaqubit a appris à décoder plus précisément le code de surface, le code de correction d’erreurs quantiques le plus populaire aujourd’hui. Ce code repose sur une grille 2D de qubits de données et de qubits auxiliaires intercalés, lesquels servent à réaliser des tests de parité entre les qubits de données les plus proches.

Si, entre deux mesures successives d’un qubit auxiliaire, un qubit de donnée auquel il est connecté se renverse (bit flip) par exemple, la parité change, signifiant qu’une erreur s’est produite. Un algorithme classique écrit « à la main » – le décodeur - est ensuite mis à contribution pour analyser ces nombreuses données, discerner les erreurs, rétablir les qubits dans leur état d’origine, etc.

L’enjeu du code de surface, et de tous les codes de correction d’erreur en général, est d’aboutir à un qubit logique : un ensemble de qubits physiques dont les erreurs peuvent être détectées et corrigées, une étape nécessaire vers l’ordinateur quantique tolérant aux fautes. En août dernier, le même Google avait démontré expérimentalement un premier qubit logique, grâce au code de surface. 

Simulations par millions et fine-tuning

Comme toute IA, Alphaqubit, une fois entraînée, prévoit un résultat à partir de données. Dans le cas présent, les entrées sont les tests de parité. En sortie, ce modèle prédit si le qubit logique, à la fin de l’expérience, est resté ou non dans son état initial. D’après l’étude publiée dans Nature, Alphaqubit serait 6% plus précis qu’un réseau de tenseurs, considéré comme l’état de l’art.

Pour l’apprentissage, les équipes de Google ont d’abord produit des millions d’exemples à partir d’un émulateur quantique, en modifiant des paramètres à chaque itération. Puis elles ont ajusté (fine-tuned) le modèle avec le concours de données expérimentales provenant d’une puce quantique Sycamore dotée de 49 qubits.

L’apprentissage automatique employé pour le calcul quantique, y compris le décodage des erreurs, vit une « explosion », selon cette étude. Ces résultats prometteurs ne risquent pas d’inverser la tendance.

Toutefois, les auteurs rappellent eux-mêmes qu’il y encore loin de la coupe aux lèvres : pour factoriser un nombre codé sur 2000 bits, il faudrait un taux d’erreur logiques de 10-12 au maximum. Les qubits physiques actuels atteignent péniblement 10-3

Newsletter La Quotidienne
Nos journalistes sélectionnent pour vous les articles essentiels de votre secteur.
Les webinars
Les services L'Usine Nouvelle
Détectez vos opportunités d’affaires
28 - 3F CENTRE VAL DE LOIRE
Date de réponse 11/05/2026
Trouvez des produits et des fournisseurs