Des scientifiques français ont développé deux modèles de simulation climatique. Leurs projections contribueront au prochain rapport du Giec, prévu en 2021.

Réservé aux abonnés
Image d'illustration de l'article
Modèle développé par le Cerfacs reproduisant le comportement de l’atmosphère et des océans sur une grande échelle temporelle, afin d’établir des projections climatiques.

Il n’y a pas de plan B car il n’y a pas de planète B », affirmait Emmanuel Macron en juin 2017, après l’annonce du retrait des États-Unis de l’accord de Paris sur le climat. C’est une évidence dans le monde réel... mais pas dans le monde virtuel. La simulation informatique permet ainsi de créer des jumeaux numériques de la Terre pour mieux comprendre comment elle fonctionne et réagit. Cette approche a été lancée il y a plus de vingt ans par le Programme mondial de recherche sur le climat. Et la France en est l’un des moteurs.

Les prévisions des scientifiques et ingénieurs français réalisées dans le cadre du nouveau cycle de simulation (la génération 6 du CMIP, le programme d’intercomparaison des modèles de climat) serviront de base au sixième rapport d’évaluation du Groupe d’experts intergouvernemental sur l’évolution du climat (Giec), attendu en février 2021 [lire l’encadré]. Elles sont le fruit de quatre années de travail mobilisant une centaine d’experts. Et ont nécessité 500 millions d’heures de calcul intensif.

Les deux modèles de simulation développés en France, parmi la trentaine dans le monde, sont celui de l’Institut Pierre-Simon Laplace (IPSL) de Guyancourt (Yvelines) et celui du Centre national de recherches météorologiques du CNRS et de Météo-France, à Toulouse (Haute-Garonne). Ces deux pôles concentrent les recherches de dizaines d’autres laboratoires spécialisés.

20 petaoctets de données

Leurs modèles sont « des planètes virtuelles dans lesquelles on peut faire une grande variété d’échantillonnages pour traiter de multiples questions scientifiques », résume Pascale Braconnot, climatologue et directrice de recherche au CEA. Ces simulateurs reproduisent les paramètres du « système Terre » : atmosphère, océans, surface continentale, végétation, biogéochimie marine, chimie de la troposphère et de la stratosphère, glaces de mer. Chacun de ces composants bénéficie d’un développement propre par des laboratoires français. Par exemple, le modèle de Météo-France inclut le simulateur d’atmosphère Arpege (le même que celui utilisé pour réaliser les prévisions météo), le modèle de surfaces continentales Surfex, le simulateur d’océans développé par le consortium Nemo, le modèle de glaces Gelato... Il faut aussi créer des coupleurs pour simuler les interactions entre deux milieux. Oasis, un outil conçu par le Centre européen de recherche et de formation avancée en calcul scientifique (Cerfacs) de Toulouse, est employé pour simuler les échanges entre l’océan et l’atmosphère. D’autres briques sont intégrées, comme le cycle du carbone et les aérosols (particules liquides et solides). On obtient alors environ 3 000 données (température, humidité, vent...) par fragment de globe, plus ou moins gros selon la résolution choisie, pour chaque « pas de temps » (un quart d’heure, une heure, trois heures, en fonction des ressources de calcul disponibles). C’est l’interaction entre tous ces systèmes qui permet de simuler le climat passé et actuel et de créer des projections futures.

Pour le modèle de l’IPSL, il a fallu un an d’essais et une quinzaine de versions intermédiaires avant de lancer les simulations du cycle 6. Cette phase de réglage a nécessité 32 simulations de la période passée (1850-2014) pour calibrer le modèle. Au total, quatre-vingt mille ans cumulés d’évolution du climat ont été recréés, à l’aide de calculateurs tournant 24 heures sur 24 et sept jours sur sept pendant plus d’un an, soit 20 petaoctets (1 petaoctet représente 1 million de milliards d’octets) de données générées. Cinq scénarios socio-économiques (du statu quo à la neutralité carbone assortie de captage de CO2) ont été « injectés » dans le système et ont interagi avec la multitude de paramètres intégrés. Les cinq projections générées ont abouti à des estimations d’élévation de la température moyenne allant de 2 à 7 °C, en fonction des politiques climatiques mises en œuvre.

Réchauffement, sécheresse, canicule ne sont qu’un début

L’épisode de sécheresse observé en France l’été dernier, avec des nappes phréatiques au plus bas, est-il amené à devenir la norme ? Les canicules vont-elles se multiplier ? C’est ce que suggèrent les résultats des modèles de simulation climatique français. Dans le scénario le plus alarmiste, la canicule de 2003, exceptionnelle par sa durée et son intensité, pourrait devenir normale à la fin du siècle. « Quoi que l’on fasse, le nombre de jours de canicule augmentera jusqu’en 2040-2050, et les pics de température également, précise Olivier Boucher, directeur de recherche au CNRS, responsable du Centre de modélisation du climat de l’Institut Pierre-Simon Laplace. Ce n’est qu’à partir de 2050 qu’il sera possible de stabiliser, dans le meilleur des cas, ces phénomènes. » Dans le scénario le plus pessimiste des chercheurs français (qui envisage le maintien de la consommation d’énergies fossiles au niveau actuel), la hausse de la température moyenne globale pourrait atteindre 6 à 7 degrés en 2100. Dans le scénario le plus optimiste, le réchauffement estimé reste au-dessus de l’objectif de l’accord de Paris sur le climat, fixé à 1,5 degré : les experts français tablent sur une hausse de 2 à 2,5 degrés.

Une modélisation plus précise

De génération en génération, les modèles gagnent en précision et en robustesse. L’IPSL a mobilisé 1 000 cœurs de calcul par simulation, contre 32 pour la génération précédente. Les nouveaux modèles ont gagné en pertinence sur certains aspects, comme la physique de l’atmosphère, et se sont affinés. Il est possible de « zoomer » sur des zones, avec une résolution pouvant aller jusqu’à 50 km pour les continents et 25 km pour les océans. Cela permet de simuler plus précisément des phénomènes régionaux, comme les cyclones autour de l’île de la Réunion et de Mayotte. On peut ainsi calculer, afin de mieux s’y préparer, la probabilité que des phénomènes extrêmes surviennent. Mais pas les prédire finement dans le temps et l’espace. Pour aller encore plus loin, il est nécessaire d’engranger de nouvelles données, toujours plus fines. « Pour comprendre comment les nuages interagissent avec le changement climatique, il faudra faire des campagnes d’observation très précises partout sur le globe, avec des études sur le terrain, des avions, des satellites », explique Marie-Alice Foujols, l’ex-directrice adjointe de l’IPSL, chargée du calcul intensif. Observation de terrain et simulation resteront indissociables pour faire avancer la recherche. « Seuls les modèles numériques permettent d’avoir une image intégrale de la Terre, même s’il existe de bons systèmes d’observation. Car certaines zones sont tout simplement inaccessibles en chacun de leurs points, comme les profondeurs des océans », rappelle Sébastien Denvil, ingénieur de recherche à l’IPSL, chargé de la gestion des données de modélisation du climat.

Les chercheurs devront en tout cas tenir compte d’une contrainte essentielle, en plus du tassement du nombre de spécialistes du climat : la puissance de calcul et l’espace de stockage ne sont pas illimités. Il faut donc gérer ces ressources intelligemment pour ne pas faire exploser les coûts financiers et... énergétiques.

Newsletter La Quotidienne
Nos journalistes sélectionnent pour vous les articles essentiels de votre secteur.