La recherche s'attaque au casse-tête de la mesure de l’impact environnemental de l’IA

Face au manque de transparence des géants de la tech sur la consommation énergétique de l’intelligence artificielle générative, les initiatives se multiplient pour calculer son impact sur toute la chaîne de valeur. 

Réservé aux abonnés
Datacenter de calcul intensif
Développé par l’équipe de l’institut d’IA de Grenoble, l'outil Alumet permet d'estimer la consommation énergétique d'un code informatique. Il est déployé sur les supercalculateurs d'Eviden depuis 2024.

Apparue en novembre 2022 avec le robot conversationnel ChatGPT, l’intelligence artificielle (IA) générative est utilisée deux ans plus tard par environ un demi-milliard de personnes dans le monde, selon la Banque Mondiale. Avec, à la clé, une consommation énergétique et un impact environnemental considérables... qui restent difficile à mesurer précisément. 

La consommation énergétique des datacenters pourrait tripler d’ici 2030

En 2023, les centres de données, qui stockent les données et fournissent les énormes capacités de calcul requises par l'IA, ont représenté près de 1,4% de la consommation électrique mondiale, selon une étude de Deloitte. Avec la croissance rapide des usages liés à l'IA générative, ce chiffre devrait presque tripler d'ici à 2030, pour atteindre 3% de la consommation électrique mondiale, soit 1000 térawattheures (TWh). Soit l'équivalent des consommations électriques annuelles de la France et de l'Allemagne cumulées, d'après le cabinet britannique.

Face à ce constat, le directeur exécutif de l’Agence internationale de l'énergie (AIE) Fatih Birol a annoncé lors du Sommet de Paris sur l'IA le lancement en avril 2025 d’un observatoire pour mesurer l'impact de la technologie sur la consommation d'énergie dans le monde. L’objectif de l’organisation intergouvernementale : travailler avec les entreprises détentrices des centres de données pour suivre au plus près l'évolution de leur consommation en énergie, afin d'obtenir «des données objectivées», rapporte l’Elysée. Et ainsi mieux orienter les choix de localisation des futurs centres de données. En parallèle de ce projet, plusieurs initiatives portées par le monde de la recherche, parfois en partenariat avec des entreprises, cherchent à se structurer dans le but de mesurer l’impact de l’IA sur toute la chaîne de valeur.

A l’ENS, un observatoire mondial sur l’impact environnemental de l’IA

Parmi elles, un Observatoire mondial sur l'impact environnemental de l'intelligence artificielle, lancé par l’Ecole normale supérieure (ENS) de Paris en février 2025 en partenariat avec l'entreprise de services du numérique Capgemini. L’objectif affiché de l’ENS : établir «une méthodologie solide et partagée pour mesurer l'impact environnemental des technologies d'IA» et créer «une base de données mondiale» sur le sujet.

L'observatoire vise notamment à soutenir et à donner de la visibilité aux travaux menés depuis plusieurs années par les chercheuses Aurélie Bugeau et Anne-Laure Ligozat. Professeure en informatique au LISN (Laboratoire Interdisciplinaire des Sciences du Numérique) et à l'ENSIIE (École nationale supérieure d'informatique pour l'industrie et l'entreprise), cette dernière a notamment travaillé sur la mesure de l’impact du modèle open source BLOOM. Non sans faire face à de vrais défis dans ce domaine.

Des fabricants peu communicatifs

«Pour l’entraînement d’un modèle comme BLOOM, 20% de l’empreinte carbone est liée à la fabrication des équipements. Or, les fabricants, au premier lieu desquels figurent Nvidia [le principal concepteur des puces d’IA pour les centres de données, ndlr], ne communiquent pas sur l’impact environnemental lié à la fabrication de leurs puces», pointe Anne-Laure Ligozat, qui s’appuie donc sur les travaux de l’Arcep et de l’Ademe autour de l’analyse des cycles de vie des équipements. Plus largement, estime la chercheuse, «la difficulté du numérique est qu’il est très distribué, puisqu’il fait appel à des serveurs situés partout dans le monde et partagés».  

L’observatoire veut également mettre en valeur les recherches menées par des experts internationaux, comme celles Sasha Luccioni, qui occupe une chaire à l’ENS, et travaille chez Hugging Face. Avec Salesforce, Meta, Cohere et l’université Carnegie Mellon, la licorne franco-américaine a développé un outil de benchmarking, l'AI energy score, permettant de mesurer et comparer l’efficacité énergétique des modèles d’IA.

Cet outil, destiné prioritairement aux entreprises, entend leur permettre de comparer la consommation énergétique de différents modèles d’intelligence artificielle lors de leur usage. Afin d’identifier les modèles les plus efficients «tâche par tâche», précise Boris Gamazaychikov, responsable IA durable chez Salesforce.

Green algorithms, un outil pour les chercheurs

Porté par deux chercheurs de l’université de Cambridge, Loïc Lannelongue et Michael Inouye, Green algorithms (algorithmes verts) est un calculateur en ligne dont l’objectif est de permettre aux scientifiques d’évaluer facilement l'empreinte carbone d'un calcul. Un projet en source ouverte initié en 2020 et qui, à l’origine, n’a pas été crée pour mesurer les modèles d’intelligence artificielle, mais plutôt «les modèles de simulation destinés à la bio-informatique, à l’astronomie ou à la physique, qui peuvent consommer des dizaines de tonnes de CO2 pour certaines analyses» rapporte Loïc Lannelongue. L'objectif : permettre aux scientifiques «de suivre facilement leur consommation d'énergie» et, le cas échéant, de décider de mettre en balance la nécessité d’effectuer un test et sa consommation énergétique.  

Face à l’essor rapide de l’intelligence artificielle générative pour des usages récréatifs et à la course à des modèles toujours plus gros, un onglet supplémentaire dédié a été ajouté. L’utilisateur du calculateur peut ainsi indiquer les infrastructures sur lesquelles il travaille, dans quel pays elles sont hébergées, si son modèle utilise des CPU (unité centrale de traitement, destinées plutôt à la simulation) ou des GPU (unité de carte graphique, destinée davantage aux cryptomonnaies et à l’IA), combien et pendant combien de temps. Des infos que les chercheurs doivent déjà renseigner lorsqu’ils lancent une tâche. 

Des marges d'erreur de moins de 10%

Reste là aussi des défis dans l’obtention de certaines informations, «notamment la consommation des centres de données», mais aussi «l’intensité carbone» de l’énergie utilisée en fonction des pays, certains se montrant peu transparents. Mais, assure Loïc Lannelongue, les relevés comparatifs effectués dans des centres de données indiquent des marges d’erreur «de moins de 10%».

Prochaine étape pour le calculateur, qui se targue de compter quelque 200 utilisateurs par semaine et de plus de 25000 utilisateurs à date : inclure la consommation d’eau et l’impact environnemental lié à la fabrication des équipements. Dans cette optique, l’équipe de recherche de Green algorithms collabore étroitement avec celle d’Anne-Laure Ligozat et d’Aurélie Bugeau. Et là encore, ce n’est pas une mince affaire. «Une des difficultés liée à l’évaluation de la consommation d’eau est que cette dernière est très dépendante de l’endroit où se situent les centres de données», pointe Anne-Laure Ligozat.  

Alumet, une mesure en temps réel de la consommation énergétique des équipements

Egalement destiné en priorité aux chercheurs, Alumet est développé depuis un an et demi par l’équipe de l’institut d’IA de Grenoble. «Alumet consiste en un ensemble de modules destinés à mesurer la consommation énergétique d’un code donné», explique l’un des ses créateurs Denis Trystram. Un outil de mesure qui suit les principes de convivialité théorisé par Ivan Ilitch et que le chercheur au sein de l’équipe Inria DataMove résume ainsi : «transparent, résilient, modulable et simple à utiliser».

L'une des difficultés majeures dans le développement d'Alumet: «la grande diversité de situations à prendre en compte en lien avec l'hétérogénéité des systèmes d'exploitation» déplore le chercheur, membre du groupe de travail Ecoinfo. «Les informations disponibles varient selon le modèle de serveur, le système d'exploitation, etc. Or, un même service peut utiliser plusieurs machines en même temps. Dans certains cas, comme le cloud, il est même impossible d'obtenir une mesure de l'énergie consommée par les serveurs, on doit se contenter d'estimations», précise t-il. A terme, l'objectif est là aussi de pouvoir évaluer, en plus de l'impact carbone facilement déductible de la consommation énergétique, la consommation d'eau, «ce qui nécessite de savoir sur quel serveur les algorithmes ont tourné, ce qui est plus compliqué» précise Denis Trystram. 

En revanche, Alumet ne nécessite pas de compétence particulière de l’utilisateur, «c'est le logiciel, qui, tout en tournant, effectue en temps réel l’évaluation» précise le chercheur. Déjà déployé sur les supercalculateurs d’Eviden (Atos) depuis 2024, il doit à terme équiper toutes les suites logicielles du groupe informatique français.

Newsletter La Quotidienne
Nos journalistes sélectionnent pour vous les articles essentiels de votre secteur.