Radio JS06EXX – Radio J – Chronique Tech IA : l’industrie invisible qui consomme notre énergie… et notre eau
S06E23 – Radio J – Chronique Tech
IA : l’industrie invisible qui consomme notre énergie… et notre eau
Ilana (introduction)
Bonjour Stéphane. Cette semaine, vous voulez parler d’un angle mort de l’intelligence artificielle : ce qu’elle consomme réellement. Pas en « pixels », mais en ressources physiques.
Stéphane
Exactement. On continue à parler de l’IA comme d’un logiciel. En réalité, c’est devenu une industrie lourde, avec des usines : les data centers. Et ces usines ont deux besoins critiques : l’électricité… et l’eau.
Commençons par l’électricité.
L’IA moderne, ce sont des grappes de GPU qui tournent 24h/24. Ça ne ressemble pas à un PC plus puissant : ça ressemble à une sidérurgie numérique, avec des besoins de puissance continus, des systèmes redondants, des groupes électrogènes, et des contraintes réseau.
Les ordres de grandeur ont changé.
En 2024, plusieurs analyses situent déjà les data centers autour de 4% de la consommation électrique américaine. Et les projections convergent : d’ici 2030, on parle de chiffres pouvant monter jusqu’à ~9% dans certains scénarios.
Et au niveau mondial, l’Agence internationale de l’énergie projette un doublement de la consommation électrique des data centers d’ici 2030, autour de 945 TWh dans son scénario de référence.
Pourquoi c’est important ? Parce que le débat public parle « innovation », alors que les opérateurs de réseau, eux, parlent « risque de tension », surtout l’hiver, quand la demande explose déjà. Les autorités de fiabilité électrique en Amérique du Nord alertent d’ailleurs sur des marges qui se réduisent, dans un contexte où les data centers deviennent un moteur majeur de la hausse.
Ilana (relance 1)
Et c’est là qu’arrivent les méga-projets d’infrastructures, type « Stargate », dont on entend beaucoup parler ?
Stéphane
Oui. Et il faut remettre les chiffres au bon niveau.
Dans plusieurs enquêtes, « Stargate » est décrit comme l’idée d’un supercalculateur distribué, un réseau de très gros sites, avec une puissance électrique qui se compterait en gigawatts. Une estimation marquante parle d’environ 5 GW pour l’ensemble — ce qui correspond grosso modo à la production de plusieurs centrales nucléaires.
Ce qui est frappant, c’est que ce n’est pas un sujet « tech ». C’est un sujet de politique énergétique et industrielle : où produire, comment raccorder, avec quelles sources, et qui paie les renforcements de réseau. Et quand la demande accélère, on voit aussi des effets secondaires : par exemple une ruée vers des capacités pilotables, parfois fossiles, pour sécuriser l’alimentation de ces sites.
Mais l’électricité n’est que la partie visible.
Le vrai angle mort, c’est l’eau.
Ilana (relance 2)
Pourquoi l’eau devient un sujet aussi central, alors qu’on parle de « cloud » et d’immatériel ?
Stéphane
Parce qu’un data center ne s’arrête pas sur un bug : il s’arrête sur une surchauffe.
Et refroidir des salles pleines de serveurs haute densité, ce n’est pas un détail. Selon les technologies, on utilise des systèmes où l’eau sert directement ou indirectement à évacuer la chaleur. Et plus on densifie pour l’IA, plus le refroidissement devient une contrainte majeure.
Là aussi, les ordres de grandeur sont concrets : des organismes et synthèses américaines rappellent que la consommation d’eau des data centers, agrégée, devient significative, et surtout très problématique localement.
Le point clé : ce n’est pas “l’eau mondiale”, c’est l’eau d’un territoire, d’un bassin, d’une ville.
Et sur ce plan, plusieurs enquêtes récentes sont brutales : une part importante des data centers — ou des nouveaux projets — se retrouve dans des zones déjà sous stress hydrique. Par exemple, des analyses citées ces derniers mois évoquent que deux tiers des nouveaux data centers américains depuis 2022 sont situés dans des zones à fort stress hydrique.
D’autres travaux, basés sur de grands échantillons, trouvent des niveaux comparables d’exposition : autour de 40% dans des zones très stressées, selon des cartographies et permis analysés.
Et il y a des cas emblématiques : en Oregon, autour de The Dalles, la question de l’eau et de la transparence sur les volumes liés aux extensions de sites a cristallisé des tensions.
À l’international, la polémique existe aussi, comme en Uruguay, où un projet a été vivement contesté dans un contexte de sécheresse.
Ilana (relance 3)
Est-ce que tous les pays suivent la même trajectoire : toujours plus gros, toujours plus énergivore ? On entend souvent que la Chine miserait davantage sur l’optimisation.
Stéphane
Il y a deux logiques qui s’affrontent.
La logique « Occident » aujourd’hui, c’est souvent : échelle, capex, gigawatts, et course à la puissance brute, parce que les modèles géants donnent un avantage produit et un avantage de plateforme.
Et puis il y a une logique « sobriété relative » : modèles plus petits, spécialisés, compression, efficacité, et optimisation de l’inférence. Ce n’est pas une posture morale : c’est une stratégie de contrainte. Parce que l’eau et l’électricité deviennent des variables géopolitiques, et même des variables d’acceptabilité sociale.
La conclusion est simple : l’intelligence artificielle n’est pas virtuelle. Elle est matérielle, territoriale, et elle a un coût physique par requête. Tant qu’on parlera d’IA sans parler d’électricité, de refroidissement, d’eau, et d’infrastructures, on fera un débat incomplet — et on laissera les choix structurants se faire hors micro.
A la semaine prochaine !