Besoins en électricité équivalents à la consommation de l’Espagne en 2022, accaparement des ressources en eau et des minerais précieux, l’impact de l’intelligence artificielle sur les ressources naturelles et énergétiques pose question.
L’essor de l’intelligence artificielle entraîne une augmentation significative de la consommation énergétique et des ressources naturelles. En France, où l’électricité est majoritairement décarbonée, l’impact est moindre comparé aux États-Unis, encore fortement dépendants des énergies fossiles. Les géants de l’IA ont cessé de communiquer sur la consommation d’énergie et de ressources naturelles de leurs data centers depuis que les usages des IA génératives ont explosé : 100 millions d’utilisateurs actifs toutes les semaines de ChatGPT. On estime toutefois qu’actuellement l’IA représente environ 10 à 20 % de l’électricité utilisée dans les data centers, un chiffre qui pourrait croître de 70 % par an dans les prochaines années. D’ici 2027, l’IA générative pourrait consommer autant d’électricité que l’Espagne en 2022, selon une étude de Morgan Stanley.
Des minerais trop précieux
L’IA nécessite des composants fabriqués à partir de minerais dont l’extraction pollue l’eau, déforeste et conduit parfois à violer les droits humains. Et ce sont autant de matériaux qui ne pourront pas être utilisés dans des secteurs critiques de la transition énergétique, comme la fabrication de voitures électriques ou la production d’énergies renouvelables.
Des programmes assoiffés
De plus, les programmes d’IA sont gourmands en eau, prélevée pour produire et refroidir les serveurs mais aussi évaporée dans le processus. Par exemple, ChatGPT-3 consommait un demi litre d’eau pour quelques dizaines de requêtes, un chiffre probablement dépassé avec ChatGPT-4. Des chiffres qui deviennent vertigineux lorsqu’ils sont multipliés par le nombre de requêtes. Mais les volumes nécessaires sont plus importants encore car une partie de l’eau est ensuite rejetée par les fermes de serveur, tout en y laissant des traces de polluants éternels potentiellement dangereux pour l’écosystème.
Une empreinte carbone qui s’aggrave
L’empreinte carbone de l’IA est également préoccupante. Quelques interactions dans le cadre d’une requête à ChatGPT-4 émet 272 grammes de CO2, ce qui correspond à une tonne par an pour dix requêtes quotidiennes, soit la moitié des émissions de CO2 qu’il ne faudrait pas dépasser chaque année pour respecter l’Accord de Paris sur le climat et limiter le réchauffement à moins de deux degrés avant la fin du siècle (deux tonnes par personne et par an). Cette empreinte augmente avec l’évolution des modèles, ChatGPT-4 émettant cent fois plus de CO2 que ChatGPT-3,5. L’usage quotidien de ChatGPT, préféré à Google par de nombreux internautes, consomme entre six et dix fois plus d’énergie qu’une recherche traditionnelle sur internet.
La demande d’électricité liée à l’IA pourrait doubler d’ici 2026 et passer de 1,7 % à jusqu’à 3,5 % de la demande mondiale, selon les estimations de l’AIE, qui y inclut les cryptomonnaies. Elle croitrait plus vite que le développement des énergies renouvelables. Cette expansion fait craindre des pénuries locales d’électricité, un risque d’accaparement des ressources limitées en énergies renouvelables ou des conflits d’usages, par exemple avec les voitures électriques, risquant de ralentir la transition énergétique nécessaire pour atteindre la neutralité carbone en 2050. Amazon, Meta, Google et Microsoft ont, à eux seuls, acheté 29 % des nouveaux contrats d’éolien et de solaire dans le monde, en 2023, selon Bloomberg. Les émissions de CO2 de Microsoft ont augmenté de 30 % entre 2020 et 2024, et celles de Google de 48 % entre 2019 et 2023.
Vers une IA frugale ?
Lou Welgryn de Data for good propose de mettre en place un «DPE» (diagnostic de performance énergétique), sur le même principe que celui utilisé pour évaluer l’impact écologique des bâtiments et logements, appliqué aux différents modèles d’IA. Cela obligerait les entreprises du secteur à améliorer leurs pratiques et permettrait aux utilisateurs de faire des choix éclairés.
En parallèle il s’agirait aussi de questionner les usages de l’IA, notamment générative. Et même d’y renoncer dans certains cas. Le référentiel publié fin juin par l’organisme de certification Afnor propose ainsi de préférer, si possible, une autre solution moins consommatrice pour répondre au même objectif ». Et à privilégier une « IA frugale ». Le principe est là de recourir à des modèles d’IA moins puissants ou moins généralistes pour traiter les requêtes les plus simples ou des usages plus spécifiques.