Customize this title in frenchChatGPT consomme 17 000 fois plus d’énergie qu’un foyer américain moyen : rapport

Make this article seo compatible,Let there be subheadings for the article, be in french, create at least 700 words

L’intégration généralisée des technologies d’intelligence artificielle (IA) dans les systèmes technologiques existants contribue à une augmentation substantielle de la consommation d’énergie, entraînant de graves conséquences environnementales.

Selon un rapport du New Yorker, ChatGPT, le chatbot largement utilisé développé par OpenAI, dévore plus d’un demi-million de kilowattheures d’électricité par jour, car il traite près de 200 millions de demandes d’utilisateurs dans le monde. Pour mettre cela en perspective, le ménage américain moyen consomme environ 29 kilowattheures par jour. La consommation d’énergie de ChatGPT dépasse donc de plus de 17 000 fois celle d’un ménage moyen.

Qu’est-ce que ça veut dire?

Les projections de ces consommations d’énergie par les sociétés d’intelligence artificielle montrent que si les grandes entreprises technologiques intégraient la technologie d’IA générative dans chaque recherche, cela pourrait entraîner une consommation annuelle d’électricité d’environ 29 milliards de kilowattheures.

Cela dépasse la consommation énergétique annuelle de pays entiers comme le Kenya, le Guatemala et la Croatie, a rapporté le New Yorker.

Regardez aussi | L’impact croissant de l’IA sur Wall Street et la consommation d’énergie

Selon un rapport de Interne du milieu des affaires, étant donné la nature énergivore de l’IA, les serveurs d’IA individuels peuvent égaler ou dépasser la consommation électrique de plusieurs foyers combinés. D’ici 2027, l’ensemble du secteur de l’IA pourrait consommer annuellement entre 85 et 134 térawattheures, soit l’équivalent d’un demi pour cent de la consommation mondiale d’électricité, ajoute le rapport.

Malgré l’impact sur la consommation d’énergie, quantifier avec précision la consommation d’électricité du secteur de l’IA reste un défi en raison de la variabilité des opérations des modèles d’IA et du manque de transparence de la part des grandes entreprises technologiques.

Mais les estimations basées sur les données de Nvidia, le principal fabricant de puces sur le marché de l’IA, suggèrent une augmentation significative de la consommation d’énergie au sein du secteur dans les années à venir.

Cependant, les modèles IA ne sont pas les seuls à consommer beaucoup d’énergie. Par exemple, Samsung utilise près de 23 térawattheures d’énergie par an. Les géants de la technologie tels que Google et Microsoft utilisent respectivement plus de 12 et 10 térawattheures.

(Avec la contribution des agences)

Source link -57