Les géants de la technologie, tels que Meta et Microsoft, admettent que l’essor de l’intelligence artificielle (IA) a entraîné une augmentation significative de leurs émissions de gaz à effet de serre. La demande énergétique pour ces projets ne cesse de croître, et l’Union européenne fait face à un manque d’électricité renouvelable pour y répondre. Selon une étude de McKinsey, la consommation d’électricité liée à l’IA pourrait presque tripler d’ici 2030, représentant environ 5 % de la consommation totale en Europe, exacerbant ainsi les défis climatiques actuels.
Des géants technologiques comme Meta et Microsoft reconnaissent que le boom de l’IA a entraîné une augmentation significative de leurs émissions de gaz à effet de serre. De plus, les besoins énergétiques pour les projets d’intelligence artificielle continueront également d’augmenter. Or, l’Europe manque d’énergie propre pour répondre à cette demande.
L’intelligence artificielle, avec son appétit insatiable pour l’énergie, est-elle en train de devenir un destructeur climatique majeur ? La consommation d’énergie des centres de données dédiés à l’IA et aux projets de numérisation devrait fortement croître en Europe d’ici 2030, ne pouvant probablement pas être entièrement satisfaite par des sources renouvelables. Une étude de McKinsey prévoit que la demande en électricité atteindra plus de 150 térawattheures, presque tripler à l’horizon 2030. ‘Cela représenterait environ cinq pour cent de la consommation totale d’électricité en Europe’, a déclaré Diego Hernandez Diaz, partenaire chez McKinsey & Company. Actuellement, ce chiffre n’est que de deux pour cent.
Selon l’étude de McKinsey, la hausse des besoins énergétiques liés à l’IA pourrait accélérer le changement climatique s’ils ne sont pas alimentés par des énergies renouvelables. À l’heure actuelle, une grande partie de l’électricité utilisée par les centres de données provient encore de combustibles fossiles, bien que de nombreux grands opérateurs de centres de données, y compris des géants de l’industrie comme Amazon (AWS), Microsoft et Google, se soient engagés à fonctionner avec des énergies renouvelables.
Récemment, les entreprises technologiques ont dû admettre que le boom de l’IA avait considérablement augmenté leurs émissions de gaz à effet de serre. D’après le dernier rapport environnemental de Google, publié en juillet dernier, les émissions de CO2 ont augmenté de 13 % pour dépasser 14,3 millions de tonnes au cours de l’année écoulée, ‘principalement en raison de l’augmentation de la consommation d’énergie des centres de données et des émissions dans la chaîne d’approvisionnement.’
Pourquoi l’IA consomme-t-elle tant d’énergie ?
Les raisons de cette forte consommation d’énergie sont illustrées par les équipements techniques d’un nouveau centre de données pour l’IA, ouvert cet été par l’entreprise xAI d’Elon Musk. Ce centre utilise simultanément 100 000 des derniers puces spécialisées (les H100 GPU de Nvidia), comme l’a fièrement annoncé Musk sur X.
‘Chaque processeur Nvidia consomme 700 watts, ce qui équivaut à la consommation d’un four moderne et économe en énergie’, explique Ralf Herbrich, responsable du domaine ‘Intelligence Artificielle et Durabilité’ à l’Institut Hasso-Plattner (HPI) à Potsdam. Lorsque ce centre de données entraîne un modèle, il nécessite 70 mégawatts uniquement pour ces calculs. ‘En ajoutant la consommation d’énergie pour la transmission des données, cela double encore, correspondant à la production d’énergie de 25 éoliennes.’
À l’échelle mondiale, cela s’accumule : Herbrich estime que les centres de données représentent quatre à cinq pour cent de la consommation d’énergie mondiale. ‘Si l’on inclut l’utilisation des technologies numériques telles que les ordinateurs portables et les smartphones, on atteint huit pour cent de la consommation d’énergie mondiale.’ Une part considérable de cette énergie est utilisée pour l’entraînement des modèles d’IA.
Un image générée par l’IA équivaut à une demi-charge de téléphone
Lorsque l’on utilise des modèles d’IA modernes pour créer des textes ou des images, la consommation d’énergie est comparable à celle de l’entraînement de l’IA : générer une image à partir d’une requête textuelle consomme autant d’énergie qu’une demi-charge de téléphone. ‘Même si les modèles d’IA sont moins entraînés à l’avenir, l’utilisation de ces modèles continuera d’augmenter la consommation d’énergie.’ Le nombre d’opérations nécessaires pour les modèles d’IA les plus précis a presque augmenté d’un facteur de un million depuis 2018.
Cependant, Herbrich voit aussi des possibilités de réduire la consommation d’énergie des méthodes d’IA : diminuer le nombre d’opérations et réduire l’énergie par opération de manière significative. Cela nécessiterait d’employer des méthodes mathématiques plus efficaces. Une approche alternative serait de limiter la consommation d’énergie de chaque opération. Il est essentiel que la simplification des formules entraîne