Titre : Des études récentes révèlent que ChatGPT utilise potentiellement 10 fois moins d’énergie que prévu, rivalisant ainsi avec la recherche sur Google.

Titre : Des études récentes révèlent que ChatGPT utilise potentiellement 10 fois moins d'énergie que prévu, rivalisant ainsi avec la recherche sur Google.

Une réévaluation récente de la consommation énergétique de l’IA par Epoch AI révèle que ChatGPT consomme environ 0,3 Wh, soit dix fois moins que l’estimation précédente. Cette nouvelle donnée suggère que l’énergie utilisée par les interactions avec GPT-4o est comparable à celle d’une recherche Google. Malgré des incertitudes persistantes, il est essentiel de contextualiser la consommation d’énergie de l’IA en tenant compte de ses bénéfices potentiels pour la productivité et la réduction de la consommation dans divers secteurs.

Une Réévaluation de la Consommation Énergétique de l’IA

Il est facile de critiquer l’intelligence artificielle (IA) dans toutes ses dimensions. Je le fais souvent moi-même. Toutefois, des études récentes d’Epoch AI indiquent que nous pourrions être un peu trop rapides à dénigrer sa consommation d’énergie. Epoch AI, qui a récemment introduit un nouveau benchmark mathématique pour l’IA, révèle que ChatGPT consomme probablement seulement 0,3 Wh d’électricité, soit « dix fois moins » que l’estimation antérieure de 3 Wh.

Pour mettre cela en perspective, une recherche sur Google utilise environ 0,0003 kWh d’énergie. En se basant sur l’ancienne estimation de 3 Wh, le président d’Alphabet, John Hennessey, avait affirmé qu’une interaction avec un modèle de langage (LLM) coûterait probablement dix fois plus en énergie qu’une recherche Google. Si la nouvelle estimation d’Epoch AI est correcte, il semble qu’une interaction avec GPT-4o consomme en réalité une quantité d’énergie similaire à celle d’une recherche Google.

Les Implications de la Consommation Énergétique de l’IA

La consommation d’énergie des serveurs est souvent négligée lors de l’utilisation de services cloud, car le « cloud » semble éloigné et intangible. Personnellement, j’oublie fréquemment les coûts énergétiques associés à l’utilisation de ChatGPT, en plus de la consommation de mon propre appareil. Bien que les interactions LLM nécessitent effectivement de l’énergie, la réalité est que leur consommation pourrait être moins élevée que ce que l’on pensait initialement.

Pour illustrer cela, 0,3 watt-heure correspond à moins d’énergie que celle qu’une ampoule LED ou un ordinateur portable utilise en quelques minutes. Même pour un utilisateur intensif de ChatGPT, l’impact énergétique serait négligeable par rapport à la consommation totale d’énergie d’un résident d’un pays développé.

Epoch AI explique que sa nouvelle estimation repose sur des calculs plus réalistes concernant le nombre de tokens produits lors d’une interaction typique de chatbot. Contrairement à l’estimation initiale, qui prenait environ 1 500 mots en moyenne, la nouvelle approche considère une utilisation plus courante. De plus, elle tient compte d’une utilisation à 70 % de la puissance maximale du serveur et de calculs sur une puce plus récente, la H100 de Nvidia.

Malgré ces ajustements, Epoch AI souligne qu’il reste beaucoup d’incertitudes concernant le nombre de paramètres et d’autres facteurs influents. Par exemple, des requêtes plus longues pourraient faire grimper la consommation d’énergie à des niveaux variant de 2,5 à 40 watt-heures.

Nous devons également considérer les bénéfices de l’IA en matière de consommation d’énergie. Par exemple, l’IA comme ChatGPT pourrait catalyser des avancées dans la production d’énergie, réduisant ainsi la consommation dans divers domaines. De plus, l’IA peut accroître la productivité dans des secteurs qui, à leur tour, diminuent la consommation d’énergie.

Cependant, il est important de ne pas ignorer le coût de la formation des modèles d’IA. Avec l’évolution des LLM, il est possible que les exigences de formation à grande échelle diminuent à l’avenir. De plus, il existe toujours d’autres variables à prendre en compte. Prenons l’exemple de la recherche Google, qui implique non seulement l’interaction de recherche mais aussi le coût de l’indexation continue du web.

En somme, la situation est complexe. Comme pour toute technologie, l’IA ne doit pas être évaluée isolément. La consommation d’énergie est une variable qui doit être examinée dans un contexte plus large, prenant en compte la santé et la productivité de l’ensemble du système économique et sociétal. Les débats autour de ces questions nécessitent une analyse approfondie des coûts et des bénéfices, et il peut être difficile de dresser un tableau complet, surtout lorsque l’avenir reste incertain.

Bien que cette nouvelle estimation de 0,3 Wh soit un développement positif, il s’agit néanmoins d’une estimation. Epoch AI précise que « plus de transparence de la part d’OpenAI et d’autres grandes entreprises d’IA aiderait à produire une meilleure estimation. » Bien que la transparence serait bienvenue, je ne m’attends pas à ce qu’elle arrive immédiatement.