Enquête

Le succès de l'intelligence artificielle fait bondir l'empreinte carbone des acteurs du secteur

Dans un rapport publié mardi 2 juillet, Google indique que l’explosion de ses besoins en intelligence artificielle et donc en capacité de calcul compromet son objectif d’atteindre la neutralité carbone d’ici 2030. Un problème qui concerne l’ensemble des Gafam et des acteurs de l'IA générative, alors que l’impact global du numérique reste encore mal évalué.

Réservé aux abonnés
Image d'illustration de l'article
.De nouvelles. .technologies. de refroidissement sont étudiées pour réduire la consommation d’eau des serveurs.

Les émissions de gaz à effet de serre de Google ont atteint 14,3 millions de tonnes de CO2 en 2023, soit une augmentation de 48% par rapport à 2019, selon le rapport environnemental annuel du géant de la recherche en ligne. En cause, une hausse de la consommation d'énergie des centres de données, ces infrastructures qui abritent les serveurs informatiques hébergeant sites web, applications mobiles et services en ligne. Mais aussi les nouveaux outils d’IA générative comme ChatGPT, dont l’utilisation a explosé depuis son lancement grand public en novembre 2022. L’application conversationnelle d’OpenAI, qui permet de résumer un texte ou écrire une présentation, a atteint 100 millions d’utilisateurs en seulement deux mois. Depuis, d’autres applications d’IA générative sont arrivées sur le marché, à l’image de Midjourney, qui permet de créer des photographies.

Une requête ChatGPT consomme dix fois PLUS d’électricité qu’une recherche Google

La généralisation de cette technologie, qui repose sur des processeurs graphiques (GPU) ultra-gourmands en énergie, n’est pas sans rapport avec l’explosion de l’empreinte carbone de Google et des autres Gafam, les émissions de Microsoft ayant également augmenté de 29% en 2023 par rapport à 2020 selon l’AFP. Dans son rapport, Google confirme qu’à mesure que l’IA est intégrée dans ses produits, «la réduction des émissions pourrait s’avérer difficile». La multinationale californienne cite les besoins accrus en énergie, car l'IA nécessite plus de puissance informatique.

En moyenne, une requête à ChatGPT consommerait en effet dix fois plus d’électricité que sur un moteur de recherche classique.

Google mentionne également les émissions liées à ses investissements dans l'infrastructure, c'est-à-dire la construction de nouveaux centres de données ou la modernisation de ceux existants.

Actuellement, l’IA représente 3% de la consommation de ces datacenters, un chiffre qui devrait monter à 10% d’ici à 2030, estime le concepteur et fabricant de serveurs 2CRSI. Selon le livre blanc sur l’IA générative du collectif Data for Good, la fabrication d’un serveur dédié à l’entraînement de modèles d’IA émet environ 3,7 tonnes d’équivalent CO2 (CO2eq), pour une durée de vie moyenne de six ans. Une mesure partielle qui demande à être complétée. Anne Yvrande-Billon, la directrice économie, marchés et numérique de l’Arcep (l’autorité de régulation des télécoms), appelle à une évaluation globale de l’impact de l’intelligence artificielle, qui intégrerait la consommation d’eau, d’énergie, mais aussi de ressources minérales et métalliques pour la fabrication des puces.

La consommation énergétique des IA génératives est liée à deux tâches principales : l’entraînement préalable des modèles de langage et la phase d’inférence, c’est-à-dire leur utilisation face à un problème réel. La première, sur laquelle la majorité de la littérature se concentre à ce jour, voit ses besoins énergétiques croître à mesure que les modèles grossissent pour gagner en performance. «Le premier modèle GPT contenait 120 millions de paramètres, contre 175 milliards pour ­GPT-3. Aujourd’hui, l’architecture exacte de GPT-4 est inconnue, mais il pourrait être dix fois supérieur à son prédécesseur, selon certaines estimations», souligne Samuel Rincé, coauteur du livre blanc de Data for Good. Quand on sait qu’entraîner ChatGPT-3 a consommé 700000 litres d’eau douce et émis 552 tonnes de CO2eq, on peut imaginer l’impact de ChatGPT-4. Malgré ces quelques chiffres, aucune évaluation complète et détaillée méthodologiquement n’est disponible. En cause notamment la communication lacunaire des géants du numérique. «Il y a un réel problème de transparence des Gafam, mais aussi des start-up comme OpenAI, qui ne fournissent aucune information sur leur consommation énergétique. Seul Meta a rendu publics des chiffres sur l’impact carbone et la consommation d’énergie liée à l’entraînement de ses quatre modèles Llama, à savoir 2,6 millions de kilowattheures d’électricité et 1000 tonnes de CO2», pointe Samuel Rincé.

Les tâches simples, «trente fois moins gourmandes»

Pour réduire cet impact, l’une des pistes consiste à utiliser des modèles de langage plus petits et spécialisés, puisque ces derniers, entraînés sur un plus petit nombre de données, consomment moins d’énergie. Mais cela n’a rien d’une solution miracle, nuance Denis Trystram, chercheur au sein de l’équipe Inria DataMove et membre du groupe de travail Ecoinfo : «Si leur entraînement peut s’avérer moins énergivore, le risque se pose d’une démultiplication de ces modèles spécialisés, avec, à la clé, une consommation très importante due à l’inférence.»Des chercheurs de la start-up franco-américaine Hugging Face et de l’université Carnegie-Mellon (Pennsylvanie) ont publié en novembre 2023 l’une des premières études sur l’inférence. Ils estiment que la consommation en phase d’usage des IA génératives est appelée à peser de plus en plus lourd par rapport à leur phase d’entraînement. Dans cette étude, Sasha Luccioni, la responsable IA et climat de Hugging Face, affirme toutefois que les tâches simples des modèles spécialisés sont beaucoup plus efficaces, tout en étant «trente fois moins gourmandes en énergie».

Autre piste pour réduire l’empreinte de l’IA générative : améliorer l’efficacité énergétique des centres de données. En 2022, ils ont consommé environ 460 térawattheures (TWh) d’électricité. Un chiffre qui pourrait atteindre 1000 TWh à l’horizon 2026, selon l’Agence internationale de l’énergie, soit l’équivalent de la consommation électrique du Japon. Au point que les États-Unis, qui comptent 33% des quelque 8000 datacenters mondiaux, s’inquiètent de pénuries d’électricité qui pourraient contrecarrer les objectifs de l’administration Biden en matière de fermeture de centrales à charbon, selon le Washington Post. De son côté, Microsoft a indiqué que ses centres de données avaient utilisé 6,4 milliards de litres d’eau en 2022, en hausse de 34% par rapport à 2021. Mais, selon Joseph Gonnachon, le directeur marketing de 2CRSI, l’innovation dans les méthodes de refroidissement et de réutilisation de la chaleur permettront de réaliser, dans les prochaines années, jusqu’à 51% d’économies d’énergie par rapport aux centres de données classiques.

«S’il est indéniable que l’efficacité énergétique du numérique, qui double tous les deux ans, progresse très rapidement, la multiplication des usages fait qu’à ce jour, la consommation globale ne baisse pas», alerte Denis Trystram. C’est ce qu’on appelle l’effet rebond. Pour de nombreux chercheurs, la solution se trouve avant tout dans une utilisation plus sobre de l’IA générative. «Pour 90% des recherches, l’IA générative n’apporte pas de valeur ajoutée. Or aujourd’hui, chaque entreprise veut avoir son ChatGPT interne», estime Hugues Ferreboeuf, directeur de projet au sein du think tank The Shift Project. Denis Trystram invite, pour chaque cas, «à s’interroger sur la balance entre bénéfice et impact environnemental». Une préconisation à l’encontre de la tendance actuelle d’intégration de l’IA générative dans tous les logiciels. À l’image de ce que fait Microsoft avec sa suite bureautique.

D’énormes besoins en électricité et en eau

Une requête ChatGPT exige dix fois plus d’électricité qu’une requête Google

Entraîner ChatGPT-3 a consommé 700000 litres d’eau douce et émis 552 tonnes de CO2eq

La consommation électrique de l’IA pourrait se situer entre 85 et 134 TWh par an d’ici à 2027, soit l’équivalent de celle de l’Argentine

SOURCES : « The Growing Energy Footprint of AI », A. de Vries ;« The Carbon Footprint of Machine Learning Training Will Plateau, Then Shrink », D. Patterson et al.

 

Couv 3721

Vous lisez un article de L'Usine Nouvelle 3731 - Juin 2024

Lire le sommaire

Newsletter La Quotidienne
Nos journalistes sélectionnent pour vous les articles essentiels de votre secteur.