700 milliards investis dans l'IA, les Américains ont d'abord goûté à la douleur de l'inflation

robot
Création du résumé en cours

null

Le 1er avril, les économistes de la Réserve fédérale de Saint-Louis Miguel Faria-e-Castro et Serdar Ozkan ont publié un billet de blog. Le titre est très sobre, mais la conclusion est percutante : l’optimisme lié à l’IA est, en soi, un moteur d’inflation. Non pas parce que les factures d’électricité augmentent, ni parce que les puces manquent, mais parce que tout le monde croit que l’IA rendra l’avenir meilleur — et cette conviction pousse les gens à dépenser davantage dès maintenant.

Le même jour, Fortune a révélé une expérience menée par la Deutsche Bank : ils ont fait évaluer par trois modèles d’IA l’« impact de l’IA sur l’inflation ». La conclusion est que même l’IA elle-même estime qu’elle fait monter les prix.

Sur les réseaux sociaux, les publications concernant la flambée des prix aux États-Unis sont très nombreuses

En réunissant ces deux éléments, on pointe vers un cercle qui n’est pas très rassurant : plus on investit dans l’IA, plus l’inflation est élevée, plus les baisses de taux s’éloignent, plus les coûts de financement augmentent — mais les investissements continuent de s’accélérer.

Course aux armements qu’on n’arrive pas à stopper

D’abord, l’argent. D’après les résultats financiers de chaque entreprise, les quatre géants — Amazon, Microsoft, Google et Meta — ont totalisé environ 152 milliards de dollars d’investissements en capital en 2023. En 2024, ce chiffre grimpe à 251 milliards de dollars, soit une hausse de 65 %. En 2025 sur l’année entière, il retombe à 416 milliards de dollars, encore +66 %.

Les indications des entreprises pour 2026 sont encore plus agressives. D’après la synthèse de Wolf Street, Amazon prévoit 200 milliards de dollars, Google 175 à 185 milliards, Microsoft 145 à 150 milliards, Meta 135 milliards. À eux quatre, cela représente environ 663 milliards de dollars. Si l’on y ajoute les 42 milliards de dollars d’Oracle, les cinq totalisent près de 700 milliards de dollars.

En quatre ans, les investissements en capital des quatre entreprises ont été multipliés par quatre. Ce rythme n’a pas d’équivalent dans l’histoire des entreprises américaines. D’après Fortune, cette ampleur dépasse même le PIB annuel de la Suède.

Un centre de données qui vaut l’électricité de tout un État

La plus grande partie de ces sommes s’oriente vers les centres de données. Or, le principal goulot d’étranglement de ces centres n’est pas le terrain, mais l’électricité. D’après les données de l’EIA, la consommation annuelle d’électricité du Vermont est d’environ 5 364 gigawattheures, soit une charge moyenne de 0,61 gigawatt. Le Rhode Island est un peu plus élevé, environ 0,83 gigawatt.

Voyons maintenant ce que font les centres de données. D’après les annonces des entreprises, le projet Stargate, mené par OpenAI avec Oracle et SoftBank, prévoit une capacité électrique totale de 10 gigawatts, soit l’équivalent de toute l’électricité consommée par 16 Vermont. Meta prévoit 5 gigawatts pour son parc Hyperion en Louisiane, avec un investissement de 27 milliards de dollars. Le xAI de Musk, dans le Colossus de Memphis (Tennessee), étend la capacité à 2 gigawatts ; selon Introl, 555 000 GPU Nvidia y sont déployés, pour environ 18 milliards de dollars. Amazon et Anthropic construisent ensemble Project Rainier en Indiana, qui prévoit 2,2 gigawatts.

D’après les données de S&P Global, la consommation électrique totale des centres de données américains en 2024 atteint 183 térawattheures, soit plus de 4 % de la consommation nationale. D’ici 2030, ce chiffre devrait être multiplié par trois.

Ces besoins en électricité ne relèvent pas d’histoires lointaines prévues dans les plans : ils commencent à comprimer le réseau électrique existant. D’après le rapport de CBRE, le taux de vacance des centres de données en Amérique du Nord est passé de 3,3 % sur le semestre 1 2023 à 1,6 % sur le semestre 1 2025, soit la valeur la plus basse jamais enregistrée. D’après les données de Cushman & Wakefield, le taux de vacance remonte légèrement à 3,5 % sur le semestre 2 2025, mais uniquement parce que de grosses capacités nouvellement construites convergent vers la livraison — le niveau absolu reste donc historiquement bas, et un vrai soulagement de l’offre avant 2030 est difficile à envisager.

Même l’IA dit elle-même qu’elle fait monter l’inflation

Pendant que ces investissements stimulent la demande, font grimper les prix de l’électricité et aggravent les pénuries de puces, il existe aussi un canal d’inflation plus discret.

D’après un article de Fortune daté du 1er avril, l’équipe menée par le principal économiste américain de la Deutsche Bank, Matthew Luzzetti, a réalisé une expérience : faire évaluer séparément par la Deutsche Bank son modèle interne dbLumina, le Claude d’Anthropic et le ChatGPT-5.2 d’OpenAI la « probabilité que l’IA fasse monter l’inflation au cours de la prochaine année ».

Résultat : dbLumina donne 40 %, Claude 25 %, ChatGPT-5.2 20 %. Les trois modèles s’accordent sur la probabilité que l’IA « réduise significativement l’inflation » : seulement 5 %.

Les trois modèles citent des moteurs d’inflation très cohérents : les centres de données se développent en masse, la demande en semi-conducteurs explose, la consommation d’électricité des charges de travail liées à l’IA augmente rapidement — autant de pressions sur les prix tirées par la demande.

Cela va exactement à l’encontre du consensus de certains investisseurs de Wall Street. Dans une note de recherche, l’équipe de la Deutsche Bank écrit : « L’IA deviendra-t-elle la principale force déflationniste ? Même l’IA ne le pense pas. »

Sur un horizon de cinq ans, les modèles se tournent effectivement vers davantage de scénarios déflationnistes. Mais la probabilité d’une « déflation à grande échelle provoquée par l’IA » reste cantonnée à la zone de risques en queue de distribution.

L’optimisme, c’est de l’inflation

Le papier de la Réserve fédérale de Saint-Louis fournit un cadre théorique pour expliquer tout cela.

Faria-e-Castro et Ozkan utilisent un modèle macroéconomique standard et définissent l’effervescence des investissements dans l’IA comme un « choc d’actualité » (news shock). Selon le billet de blog de la Fed, la logique du modèle est la suivante : lorsque les ménages voient l’IA décrite comme une technologie révolutionnaire, ils s’attendent à une hausse de leurs revenus futurs et augmentent leur consommation par anticipation. Les entreprises s’attendent à des gains de productivité, ce qui les incite à accroître leurs investissements. La combinaison des deux fait que la demande dépasse rapidement l’offre. Le papier écrit : « Ensemble, ces forces produisent un brusque emballement inflationniste de la demande globale — et c’est une caractéristique centrale de la phase initiale du choc d’actualité. »

Le modèle donne deux trajectoires. Si l’IA entraîne bel et bien un bond de productivité, l’inflation à court terme est absorbée par la croissance de la production sur le long terme et l’économie entre dans une boucle vertueuse. En revanche, si la productivité ne se matérialise pas — le terme utilisé dans le papier est « une faible croissance persistante et une inflation élevée, tenace », c’est-à-dire de la stagflation.

D’après les données citées par le billet de blog de la Fed, depuis la publication de ChatGPT, le taux de croissance annualisé de la productivité totale des facteurs (TFP) aux États-Unis s’élève à 1,11 %, en dessous de la moyenne historique de 1,23 %. À ce stade, l’IA n’a encore laissé aucune trace dans les données de productivité.

Dans le même temps, selon les données du BLS, en février 2026, le CPI américain affiche 2,4 % en glissement annuel et le CPI core 2,5 %, et les deux ne sont pas encore revenus à l’objectif de 2 % de la Réserve fédérale. Le graphique en points du mois de mars montre une médiane des taux en fin d’année à 3,4 %, ce qui implique qu’il n’y aurait qu’une seule baisse des taux cette année.

700 milliards de dollars affluent vers l’infrastructure de l’IA. Cet argent est-il une cause de l’inflation, ou bien le prélude à une révolution de la productivité ? Cela dépend d’une question encore sans réponse : les modèles exécutés dans ces centres de données rendront-ils réellement l’économie plus efficace.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler