[L’instant tech] Les défis logiciels à relever pour faire passer le supercalcul à l’ère exaflopique

Lancé le 24 février, le programme de recherche (PEPR) NumPEx vise à développer des briques logicielles et applications adaptées à la future génération de supercalculateurs, dits exaflopiques. Une étape nécessaire pour préparer la communauté à un changement de paradigme.

Réservé aux abonnés
Frontier, le supercalculateur de l'Oak Ridge National Laboratory
Aux Etats-Unis, le supercalculateur Frontier est le seul à avoir passé le cap de l'exaflop - soit une puissance de 1 milliard de milliards d'opérations par seconde.

Passer de 10 puissance 15 à 10 puissance 18. Posée de la sorte, la différence ne semble pas immense. C’est pourtant un saut générationnel majeur que s’apprête à effectuer le monde du calcul haute-performance, en passant de l’ère des petaflops à celle des exaflops. Soit d’un million de milliards d’opérations par secondes à un milliard de milliards d’opérations par seconde. « Ce n’est pas juste une incrémentation, assure Jean-Yves Berthou, directeur de l'Inria Saclay. L’exascale offre des opportunités extraordinaires mais les verrous scientifiques et technologiques pour y parvenir sont importants. »

Pour le moment, seul un supercalculateur a passé cette barrière dans le monde. Installé au laboratoire américain d’Oak Ridge, Frontier affiche une puissance de 1,1 exaflop. Un autre doit être installé en Allemagne, d’ici 2023, par la société commune européenne de supercalcul EuroHPC. La France, elle, est en lice pour obtenir le second calculateur exaflopique de l’entreprise. Elle s’est dotée, pour maximiser ses chances, d’un programme de recherche (PEPR) de 40,8 millions d’euros, baptisé NumPEx. Son lancement a été l’occasion, le 24 février, de présenter les défis auxquels devront s’attaquer les porteurs du projet – le CEA, le CNRS et l’Inria – lors d’une table ronde hébergée au Très Grand Centre de Calcul (TGCC), à Bruyères-le-Châtel (Essonne).

Concevoir un socle commun

Le premier et plus important des verrous est dû à l’architecture des nouvelles générations de supercalculateurs, qui basent plus de 90% de leur puissance de calcul sur des processeurs graphiques (GPU), quand les précédentes utilisaient majoritairement des processeurs généralistes (CPU). « Leur utilisation est différente des machines scalaires habituelles, observe Jérôme Bobin, directeur de recherche au CEA et responsable du PEPR, auprès de L’Usine Nouvelle. Cela demande de reconcevoir les applications et les bibliothèques logicielles de base pour pouvoir exploiter le plein potentiel des GPU. »

Près d’un quart de l’enveloppe du programme NumPEx sera fléché vers la collaboration avec les communautés vouées à utiliser l’éventuel futur calculateur exaflopique français. « Ces communautés applicatives ont développé des bibliothèques logicielles propres à leur activité : les chercheurs du projet Iter ont par exemple conçu un programme de simulation de la fusion qui fonctionne très bien sur des CPU, mais mal sur un GPU, relate Jérôme Bobin. Repartir de zéro pour faire un nouveau programme optimisé demanderait 5 à 10 ans de travail. »

D’où la volonté de créer « des briques génériques qui puissent être utilisées par les communautés applicatives pour limiter le temps et les coûts de développement », continue-t-il. « Ce travail a commencé avec l’objectif d’identifier des besoins communs entre différentes communautés, comme la simulation, qui trouve des usages dans la fusion nucléaire comme les réacteurs d’avions », illustre le responsable.

Ces travaux viseront aussi à « masquer le plus possible la technologie aux utilisateurs », rappelle Jacques-Charles Lafoucrière, responsable du programme HPC au CEA. « Il n’y a pas une seule manière standard d’utiliser les GPU aujourd'hui : un programme développé pour une carte graphique Nvidia ne peut pas forcément être exécuté tel quel sur un GPU AMD, développe-t-il. NumPEx va chercher à masquer ces différences aux utilisateurs pour faciliter leur utilisation de la technologie, en créant un environnement de programmation agnostique et pérenne. »

Cette interopérabilité sera cruciale lorsque de nouvelles générations de calculateurs exaflopiques arriveront, aux alentours de 2030 en France, estime-t-il. « Il faut la capacité de développer des logiciels qui ne soient pas dépendants des particularités technologiques », insiste Jacques-Charles Lafoucrière.

En lien avec les grands instruments scientifiques

Qui dit capacités de calcul titanesques dit flux de données colossaux. D’où la nécessaire création d’un continuum numérique autour des machines exaflopiques. « Il faut mettre en liaison les centres de données, le cloud, les grands instruments scientifiques et la machine exaflopique », souligne François Bodin, professeur à l'université de Rennes, lors de la table ronde. Pour cela, « il faut mettre en place une vraie logistique de la donnée », insiste le scientifique. Qui rappelle que « déplacer 1 petaoctet d’un datacenter à un autre prend en moyenne 45 jours ».

Une question d’autant plus importante que de nouveaux grands instruments scientifiques produisent une masse de données inédite. C’est l’exemple du Square kilometer array (SKA), télescope colossal composé de 197 paraboles et de 130 000 antennes, qui génère 2 petaoctets… par seconde. Soit autant que les données produites chaque année par le synchrotron européen de Grenoble.

Car le calcul exaflopique est présenté comme un outil majeur pour augmenter la connaissance. « Les modèles numériques permettent de mieux comprendre les différents éléments du système terre, rappelle Jean-Pierre Vilotte, chercheur en simulation géophysique au CNRS. L'enjeu est d’atteindre des modèles plus proches de la réalité de la physique. »

Il cite en exemple la modélisation de la production de nuages – un élément majeur pour comprendre et anticiper les précipitations et sécheresses. « Cela demande une précision de l’ordre du kilomètre carré, estime-t-il. Une modélisation de ces phénomènes sur plusieurs années exige de multiplier par 5 000 la puissance de calcul actuelle. » La technologie est aussi présentée comme clé dans le développement de l’intelligence artificielle, les larges modèles d’apprentissage à la ChatGPT ayant besoin de jeux de données d’entrainement gigantesques.

Rassembler la communauté scientifique

S’attaquant à un sujet aussi prisé par des industriels comme TotalEnergies, EDF ou Safran, le PEPR lancé fin janvier, pour six ans, doit permettre de « rassembler la communauté française » autour de ce sujet, argue Jean-Yves Berthou. « Il doit contribuer à l’émergence d’une pile logicielle et d’applications stratégiques françaises et européennes », ajoute-t-il. La collaboration intra-européenne, notamment avec le centre de calcul allemand de Jülich, est d’ailleurs déjà bien établie.

Doté de près de 41 millions d’euros – près de 61 en comptant les salaires des 650 personnes par an mobilisées sur le sujet – il est découpé en cinq projets : développement de nouveaux modèles mathématiques ; développement de briques logicielles ; données et intelligence artificielle ; continuum digital ; préparation des grandes applications cibles. Le programme entretiendra aussi « des liens très forts » avec d’autres grands programmes de recherche, rappelle Jean-Yves Berthou : le cloud, l’intelligence artificielle, les matériaux, le climat… Qui ont tous recours au calcul haute-performance dans leurs travaux.

Tous ces efforts doivent permettre de tenir tête à la concurrence internationale. « Le Japon et les Etats-Unis ont préparé leurs applications en avance de phase, il faut que l’on accélère », insiste le scientifique. Mais ces pays sont aussi des partenaires, avec lesquels les responsables du PEPR échangent pour établir des coopérations, notamment pour mettre sur pied des systèmes de comparaison entre les supercalculateurs de classe exaflopique.

La France, en lice pour accueillir le second calculateur exaflopique d’EuroHPC, attend la décision de la société commune européenne. Le gouvernement avait déjà promis un financement de 260 millions d’euros, auxquels s’ajoute une participation de 8 millions d’euros des Pays-Bas. Le montant total du projet, cofinancé par EuroHPC, est de 540 millions d’euros. D’où l’appel aux industriels de la ministre de l’Enseignement supérieur et de la Recherche, Sylvie Retailleau, « à monter à bord ».

Rappelant l’enjeu stratégique du projet – « il y aura les nations exascale et les autres » – elle a même invité à « voir plus loin ». « L’exaflopique est une étape importante, mais une étape, a-t-elle observé. Arrivera ensuite l’ère des zetaflops, il faut s’y préparer. » Mais là encore, ce saut générationnel passera obligatoirement par le temps long de la recherche. 

Newsletter La Quotidienne
Nos journalistes sélectionnent pour vous les articles essentiels de votre secteur.
Les webinars
Les services L'Usine Nouvelle
Détectez vos opportunités d’affaires
28 - 3F CENTRE VAL DE LOIRE
Date de réponse 11/05/2026
Trouvez des produits et des fournisseurs