Comment avance votre processeur Rhea, qui doit équiper le futur supercalculateur Jupiter, en Allemagne ?
Ça avance ! Le processeur fonctionne en émulation, c’est-à-dire virtuellement, dans un datacenter, avec un système d’exploitation Linux qui tourne, un BIOS [micrologiciel offrant un ensemble de fonctions de base à l’allumage, ndlr], des cœurs de calcul qui travaillent bien ensemble, des accès à la mémoire conformes… Après cette phase de tests et de correctifs en émulation viendront les tests sur la puce réelle. Nous préparons la production avec notre fondeur TSMC, et plus généralement avec tout l’écosystème. Nous avons déjà conçu et fait réaliser les cartes mères qui nous permettront de tester la puce. Le but est d’avoir un premier allumage en fin d’année, pour une production en volume en 2025. En parallèle, nous continuons à développer la société : nous lançons une filiale en Italie, qui démarrera à Bologne, où se trouve un grand pôle de calcul intensif – les utilisateurs finaux de nos puces –, mais aussi une université qui représente un bon vivier de compétences. Il y a une pénurie mondiale d’ingénieurs en hardware, nous devons aller les chercher !
Les spécifications de Rhea ont-elles évolué ? Quelles seront celles de son successeur, Rhea2 ?
Rhea contient 80 cœurs ARM Neoverse V1, équipés chacun de deux accélérateurs vectoriels et connectés en réseau maillé, ainsi qu’une mémoire à haute bande passante de 64 gigaoctets, placée au plus près des cœurs de calcul pour limiter les pertes énergétiques et dont le débit atteindra plusieurs téraoctets par seconde. Rhea sera fabriqué par TSMC en technologie 6 nanomètres [valeur du «nœud technologique» qui a succédé à la finesse de gravure, ndlr]. Quant à Rhea2, que nous espérons voir dans le futur supercalculateur Jules Verne, en France, il aura encore plus de cœurs et une finesse de gravure nettement plus élevée.
Vous avez annoncé en avril 2023 une levée de fonds d’environ 90 millions d’euros. Une autre est-elle prévue ?
Si l’on additionne nos deux tours de table et les subventions reçues, notre financement dépasse 130 millions d’euros. Beaucoup disaient que lever autant d’argent était mission impossible. Cela nous a pris dix-huit à vingt-quatre mois, bien plus que prévu, mais nous l’avons fait. Nous préparons la suite, car le semi-conducteur est une industrie qui coûte cher. Développer des processeurs pour le calcul intensif nécessite plusieurs centaines de millions d’euros. C’est un milieu très sélectif, composé principalement des américains Intel et AMD et de Fujitsu pour le marché japonais.
SiPearl est souvent présenté comme le champion de l’Europe. Quels sont vos liens avec Bruxelles ?
SiPearl émane d’une ambition européenne de souveraineté dans le calcul. Bruxelles a discuté dès 2011 avec le britannique ARM [filiale du japonais Softbank depuis 2016, ndlr] de la création d’une alternative aux processeurs d’Intel et AMD. Surtout, en 2018, l’entreprise commune EuroHPC a été lancée et dotée de 8 milliards d’euros pour rééquiper l’Europe en supercalculateurs de pointe. Et en particulier une famille de processeurs à basse consommation d’énergie pour le calcul haute performance (HPC). Un appel d’offres, lancé fin 2018, a été remporté par le consortium European processor initiative (EPI), que j’ai monté en quittant Atos. EPI compte 30 organismes de recherche publics et privés et entreprises partenaires, représentant à peu près toute la chaîne du calcul intensif, des utilisateurs finaux aux fournisseurs de technologies en passant par les intégrateurs. Ce consortium a travaillé dans une démarche de codesign afin de définir un cadre technique logiciel et matériel pour cette famille de processeurs. SiPearl, créé en juin 2019, est devenu en janvier 2020 membre de l’EPI, qui a été notre incubateur. Et c’est un financement européen Horizon 2020 de 6,2 millions d’euros qui nous a lancés, en février 2020. Notre parcours est assez unique dans la tech. Il n’a d’ailleurs pas toujours été facile parce que nous ne venions pas du sérail de la french tech. Mais d’autres start-up devraient émaner de l’EPI.
Les supercalculateurs intègrent de plus en plus d’accélérateurs pour l’IA, comme les processeurs graphiques (GPU) de Nvidia. Quelle place reste-t-il aux processeurs centraux (CPU) comme le vôtre ?
Le rôle du CPU dans un supercalculateur est essentiel. C’est lui qui réalise l’orchestration des accélérateurs et qui exécute tous les codes non accélérés.
Le calcul haute performance se transforme et gagne en popularité. Tout le monde en parle aujourd’hui, alors que le terme était assez confidentiel il y a moins de dix ans. Au HPC traditionnel, qui utilise des CPU pour un usage scientifique, essentiellement de la simulation, s’est ajouté l’entraînement de modèles de machine learning, qui est accéléré par des puces spécialisées comme les GPU. Lors de la conception d’un supercalculateur, il faut donc décider de la part de chaque usage – c’est-à-dire arbitrer entre les utilisateurs finaux –, ce qui détermine les parts respectives de CPU et GPU. Le rôle du CPU est essentiel. C’est lui qui réalise l’orchestration des accélérateurs. Il organise leur travail et assure la ventilation des données. C’est lui aussi qui exécute tous les codes qui ne sont pas accélérés, et il y en a beaucoup ! Par ailleurs, les fournisseurs de services cloud ne font pas de supercalcul proprement dit, mais ils rencontrent des problématiques similaires et peuvent bénéficier des technologies HPC classiques, dont les CPU, notamment pour réduire leur consommation d’énergie.
Qu’est-ce qui a changé avec l’irruption des grands modèles de langage (LLM) ?
Cela a déclenché une explosion des besoins en puces. Alors que l’on pensait que le marché mondial des semi-conducteurs atteindrait 1 000 milliards de dollars en 2030, l’industrie prévoit désormais que l’IA représentera à elle seule 400 milliards de dollars de ventes de semi-conducteurs en 2027, presque dix fois plus qu’aujourd’hui. Et une grande partie de ce marché sera dédiée à l’inférence, c’est-à-dire à l’exécution de grands modèles d’IA – par exemple lorsque ChatGPT répond à un prompt. Ces dernières années, tout le monde voyait le futur de l’inférence dans l’edge [en périphérie du réseau, ndlr] avec de petites puces spécialisées. Mais même optimisés pour l’inférence, les nouveaux modèles restent trop gros pour être exécutés sur ces puces. Il faut des processeurs puissants, comme on en trouve dans les datacenters et le HPC. Et il s’avère que Rhea, par son architecture, son accélération vectorielle et sa mémoire, est très performant pour l’inférence. La vague des LLM nous ouvre un nouveau et énorme marché qui s’ajoute à notre cible initiale, le supercalcul.
Pourquoi préférer un CPU à un GPU pour cette inférence ?
Les GPU sont conçus pour l’entraînement et ne sont pas du tout optimisés pour l’inférence. Il est temps de révolutionner tout cela !
Quand l’emballement actuel se sera un peu calmé, la question du coût de traitement d’une requête à un grand modèle se posera. Du point de vue financier, mais aussi énergétique. Les cartes à base de GPU que l’on utilise aujourd’hui, faute d’alternative, sont très chères et énergivores. Elles sont conçues pour l’entraînement et ne sont pas du tout optimisées pour l’inférence. Il est temps de révolutionner tout cela ! Beaucoup de monde s’intéresse aux CPU pour cette inférence. Et ce d’autant plus que l’intelligence artificielle évolue très vite alors que le hardware est beaucoup plus lent. On ne sait pas de quels types de calcul aura besoin l’IA dans le futur proche, or une puce d’accélération est par définition spécialisée dans certains calculs. La polyvalence du CPU est un atout majeur dans ce contexte.
Vous avez opté pour une architecture ARM. Qu’est-ce qui la différencie de l’architecture x86 d’Intel et AMD ?
Il s’agit d’architecture du jeu d’instructions, c’est-à-dire de l’ensemble des opérations que le processeur peut exécuter, en incluant leur codage, leur complexité, l’accès aux arguments des instructions. ARM est une architecture de type RISC – jeu d’instructions réduit –, opposée à celles de type CISC – jeu d’instructions étendu – dont fait partie le x86 créé par Intel et que l’on trouve dans quasiment tous les PC. L’idée générale de RISC est de simplifier les instructions élémentaires, ce qui apporte de nombreux avantages. L’architecture ARM permet de réaliser des processeurs moins coûteux, moins consommateurs d’énergie et qui chauffent moins que les puces x86. D’où les très fortes parts de marché de l’écosystème ARM dans les smartphones. Il y a déjà eu par le passé des tentatives de création de CPU à base d’ARM pour des serveurs et du HPC, mais le software n’était pas prêt. L’écosystème logiciel n’était pas suffisant pour développer des applications sans avoir à partir d’une page blanche. Dans l’embarqué, ce n’est pas gênant, l’utilisateur final s’occupe généralement de la partie logicielle. Mais ce n’est pas possible dans le HPC et les serveurs : la pile logicielle est énorme et cumule des centaines de contributions open source. Aujourd’hui, l’écosystème logiciel d’ARM est très riche et travailler avec cette entreprise nous permet d’en bénéficier directement et de nous focaliser principalement sur les technologies de semi-conducteurs. C’est fondamental.
Come Sittler © Côme Sittler
Vous n’êtes pas les seuls à miser sur ARM…
Cette architecture a le vent en poupe. Et je ne le dis pas parce que c’est l’un de nos principaux investisseurs ! ARM est partout. Nvidia et Ampere Computing développent des CPU fondés sur ARM. Amazon, après avoir racheté une start-up, dispose d’une famille de CPU sur ARM, Graviton. Microsoft a récemment annoncé la sienne, Cobalt, et celle de Google se nomme Axion… Les géants du cloud ont besoin de puces plus compétitives pour leurs opérations. Ils les fabriquent pour leur propre usage, mais cela contribue à développer l’écosystème. Nous en sommes ravis. En revanche, les acteurs européens du cloud n’ont pas les moyens de développer leurs propres puces et risquent de perdre en compétitivité. C’est pour cela que nous leur proposons de le faire avec nous !
Le Chips act européen s’inscrit-il dans ce mouvement ?
Si l’on regarde où va l’argent du Chips act, le constat est simple : 90% vont vers les grands acteurs, entreprises ou centres de recherche publics, et très peu vers les start-up. Autrement dit, on se contente de renforcer ou d’étendre un peu ce qui existe déjà en Europe. Il est normal de soutenir les grandes entreprises, mais il ne faut pas oublier que ce que l’on sait concevoir et fabriquer en France, par exemple, ne représente que 10% du marché des semi-conducteurs. Il faut penser à ce que l’on ne fait pas aujourd’hui. Si l’Europe ne veut pas rester dépendante à 100% d’Intel, Nvidia ou AMD, il faut soutenir plus fortement les nouveaux entrants.
[Objectif puce]
«Prenez la carte, vous verrez, c’est de l’or en barre ! Il y a 26 couches sur le circuit imprimé pour les interconnexions.» Ce n’est pas encore son processeur haute performance que Philippe Notton peut faire toucher, mais la carte maison sur laquelle il compte «allumer», comme il dit, le prototype physique de Rhea d’ici à la fin de l’année. Le PDG devra encore patienter un peu, lui qui a déjà été ralenti par une levée de fonds plus longue qu’espéré. Il faut dire que cet ingénieur sorti de Supélec en 1993 pense à cet allumage depuis presque dix ans. C’est pour cela qu’il quitte, en 2017, la tête d’une division de 2 400 personnes chez STMicroelectronics pour Atos et la formation du consortium European processor initiative, dont SiPearl est la première émanation privée. Lui qui a passé près d’un tiers de sa carrière entre Londres, les États-Unis et Taïwan – notamment dans la start-up MStar Semiconductor, rachetée par MediaTek en 2012 – surfe désormais sur l’ambition européenne de souveraineté dans le supercalcul.



