L'essor de l’intelligence artificielle fait exploser la demande en puissance de calcul. Ceux qui la fournissent à la recherche publique et privée en témoignent. «De 72 projets en IA soutenus en 2019, nous sommes passés à 1400 en 2024», chiffre Stéphane Requena, le directeur technique et innovation au Grand Équipement national de calcul intensif (Genci). Cette structure gère les trois supercalculateurs français, dont Jean Zay, dans lequel l’État a investi 40 millions d’euros l’an passé afin de l’optimiser pour l’IA. Il «dispose désormais de presque 4000 GPU, dont celles des dernières générations», fait valoir Stéphane Requena, en référence aux cartes graphiques qui offrent les capacités de calcul nécessaires à l’IA, un marché sur lequel l’Américain Nvidia est en situation de quasi-monopole.
Pour augmenter sa puissance de calcul, l’Europe a annoncé la création de 13 AI Factories, avec de nouveaux supercalculateurs à la clé. La France aura la sienne, avec le supercalculateur Alice Recoque prévu pour 2026 dans l’Essonne, le second d’Europe d’une capacité de 1 exaflops, après Jupiter, en construction en Allemagne. Mais une entreprise ne peut utiliser ces machines publiques que pour des travaux visant une publication scientifique. Pas pour un usage commercial. «Nous dopons l’innovation, mais le secteur privé doit prendre le relais», souligne Stéphane Requena. Car la puissance de calcul ne sert pas qu’à l’entraînement des modèles. Elle est aussi requise pour l’adaptation aux données du client, puis leur utilisation, appelée l’inférence. Or, pour ces deux dernières étapes, mieux vaut avoir une puissance localisée en Europe et en France. «Certains clients demandent une localisation précise des infrastructures qui font tourner nos modèles d’IA générative, en particulier ceux sensibles à la confidentialité de leurs données», confie Laurent Daudet, le cofondateur de la start-up LightOn.
La France doit aller vite
Dans la perspective d’une adoption massive de l’IA, il s’agit aussi d’assurer «la résilience et l’autonomie stratégique» de la France, estime la Commission de l’IA. Dans un rapport remis à Emmanuel Macron en mars 2024, elle rappelait qu’on peut détecter, quantifier... et interdire l’usage de la puissance de calcul. Une menace tout sauf fictive sous l’ère Trump, alors que les États-Unis sont en guerre commerciale avec l’Europe.
Le rapport donnait pour objectif à la France de «sécuriser au minimum l’installation de 30000 GPU par des acteurs privés» fin 2024, reconnaissant «une projection à court terme, tant les besoins croissent rapidement». «On doit en être à peine à la moitié», indique Damien Lucas, le directeur du fournisseur de services cloud Scaleway. La filiale du groupe Iliad revendique la première place avec ses 5 000 GPU, suivie par la start-up marseillaise Sesterce, qui en déclare 4 500 sur le sol français. Viennent ensuite de plus petites quantités, principalement chez Orange, OVH, Outscale. Par comparaison, «les achats cumulés de Meta, Microsoft, Alphabet [maison mère de Google] et Amazon s’élèveraient à 400000 GPU pour la seule année 2023», note le rapport.

- 47515.45-2.38
Mars 2026
Cours mensuel de l'étain - settlement$ USD/tonne
- 7.9495-0.35
2 Avril 2026
Yuan chinois (CNY) - quotidien¥ CNY/€
Adapter les infrastructures
Dans cette course aux GPU, les fournisseurs historiques de services cloud font face à une nouvelle vague de protagonistes, ceux dont le cloud est entièrement dédié à l’IA. Parmi eux, Sesterce, le hollandais Nebius, l’allemand Genesis Cloud, les américains Lambda Labs et CoreWeave, dans lequel OpenAI a investi 12 milliards de dollars. Le marché des GPU est tendu et les tarifs élevés – une H100 est estimée à 30000 dollars et une Blackwell à 50 000 dollars, selon la presse spécialisée. Mais surtout, acheter des GPU ne suffit pas à fournir de la puissance de calcul. Il faut aussi une expertise, une couche logicielle sophistiquée et une infrastructure adaptée en termes de connectivité, de réseaux télécoms et d’hébergement.
Or «aucun datacenter aujourd’hui en opération sur le sol français n’est adapté», concède Jérôme Totel, le directeur de la stratégie du constructeur français Data4. La raison : une baie remplie de GPU consomme jusqu’à 20 fois plus d’électricité qu’une baie de serveurs classiques. Un chiffre qui devrait augmenter avec les futures générations. D’où la nécessité de se doter de datacenters de haute densité, capables d’évacuer les immenses quantités de chaleur dégagées. Fini les systèmes actuels de refroidissement par air, place au refroidissement liquide, dit DLC.
Autrement dit : les infrastructures de calcul à l’échelle ne peuvent pas s’intégrer dans l’existant. «On a fait du DLC dans l’un de nos datacenters, sur 70 m², mais les aménagements sont complexes et le coût astronomique», témoigne Fabrice Coquio, le directeur général de Digital Realty France. D’où la frénésie autour de la construction, en France, de datacenters adaptés aux nouveaux besoins. Et les 109 milliards d’euros d’investissements privés annoncés par l’Élysée lors du Sommet sur l’IA. Le groupe Iliad promet ainsi 3 milliards d’euros, Digital Realty, qui prévoit 13 nouveaux sites, 5 milliards d’euros… De quoi financer plutôt des datacenters de taille moyenne dédiés à l’inférence. D’autres projets sont plus conséquents. Les Émirats arabes unis devraient investir 30 à 50 milliards d’euros dans un datacenter de 1 gigawatt – soit l’équivalent d’une centrale nucléaire ! La presse a aussi évoqué un projet de la même ampleur à Cambrai (Nord) parmi les 15 milliards d’euros d’investissements annoncés par le fonds canadien Brookfield, sans que l’intéressé ne confirme.
Une course contre la montre
Sesterce, qui a démarré la construction d’un datacenter de 45 mégawatts à Valence (Drôme), dit chercher un site dans le Grand Est pour créer un campus de 1 gigawatt. C’est aussi l’intention de Fluidstack, dans les Hauts-de-France. Cette start-up britannique, cofondée par le Niçois César Maklary, a été choisie par la star française de l’IA générative Mistral AI pour opérer son supercalculateur à Bruyères-le-Châtel (Essonne), hébergé par un nouvel acteur du datacenter, Eclairion [lire page suivante]. Si Fluidstack vend aujourd’hui de la puissance de calcul détenue par d’autres, il entend maîtriser toute la chaîne de valeur de la puissance de calcul, en acquérant ses propres GPU (20000 d’ici à la fin de l’année) et en construisant ses datacenters, dont un de 1 gigawatt en France. L’investissement émirati va-t-il financer le projet de Sesterce, celui de Fluidstack ou un autre ?
Tous ces acteurs se sont lancés dans une chasse aux terrains et une course contre-la-montre, les délais de construction et de raccordement électrique se chiffrant en années. La tension est telle que chacun garde bien secret le nom des sites prospectés. À la clé, un marché immense à saisir. Car avec son énergie compétitive et décarbonée, la France veut devenir le premier hub européen pour la puissance de calcul.
Lexique
Puissance de calcul
C’est la capacité d’une machine à calculer, qui se mesure en flops, soit le nombre d’opérations en virgule flottante par seconde. Les machines les plus performantes atteignent 1 exaflops, soit un milliard de milliards d’opérations par seconde. Mais dans l’IA, la puissance de calcul se mesure de plus en plus en nombre de cartes graphiques (GPU). Avec un équivalent : chaque GPU Nvidia a sa capacité flopique. Celle-ci varie selon l’usage : l’entraînement du modèle ou l’inférence (son déploiement).
Datacenter
C’est un centre d’hébergement pour infrastructures numériques. Parmi leurs constructeurs, on trouve Digital Realty, Equinix, Equans, Idec, Data4... Ils livrent l’équivalent d’un immeuble, soit un bâtiment vide doté d’une architecture, d’une capacité électrique et d’une connectique. C’est ensuite aux opérateurs ou clients finaux, propriétaires ou locataires de salles, de l’aménager avec leur matériel. Différents usages sont possibles : stocker des données et des applications, ou faire du calcul pour l’IA.
Supercalculateur
C’est un très grand ordinateur, qui réunit plusieurs dizaines de milliers de processeurs pour être en capacité de réaliser un très grand nombre d’opérations de calcul ou de traitement de données simultanées. Selon qu’on fasse du calcul intensif (dit HPC), de l’informatique quantique ou de l’IA, les processeurs diffèrent. Les supercalculateurs pour l’IA sont de plus en plus équipés de cartes graphiques (GPU) de Nvidia ou, plus rarement, d’AMD.

Vous lisez un article du numéro 3742 de L'Usine Nouvelle - Mai 2025



