Cerebras Systems, fabricant de puces IA partenaire stratégique d'OpenAI, vise une valorisation de 26,6 milliards de dollars pour son introduction en Bourse. L'entreprise exige des ordres limites des investisseurs — un mécanisme rare qui signale une demande largement supérieure à l'offre disponible. Cette IPO n'est pas une introduction en Bourse ordinaire : c'est la première cotation d'un fabricant de puces spécialisé dans l'entraînement de grands modèles de langage, et la demande excédentaire révèle que le marché considère les puces IA comme un goulot d'étranglement structurel à forte valeur.
Le succès anticipé de l'IPO Cerebras n'est pas seulement une validation de l'entreprise : c'est une validation de la thèse que le marché des puces IA est en expansion suffisante pour accueillir plusieurs acteurs majeurs. Nvidia domine le marché des GPU avec une part estimée à plus de 80%, mais cette domination repose en partie sur l'écosystème CUDA — une barrière logicielle plus que matérielle. Cerebras, avec son architecture wafer-scale, propose une alternative matérielle radicalement différente. La question structurelle est de savoir si la différenciation architecturale suffit à surmonter l'avantage écosystémique de Nvidia.
Demande de compute IA en croissance exponentielle→ Capacité de production Nvidia contrainte (délais, prix)→ Hyperscalers et labs IA cherchent des alternatives→ Cerebras capte une part du marché via différenciation wafer-scale→ IPO à 26,6 Md$ = marché valide la thèse de diversification→ Mais la domination CUDA reste la barrière structurelle ultime
Larry Fink, CEO de BlackRock (11 500 milliards de dollars d'actifs sous gestion), prédit l'émergence d'un marché à terme sur la puissance de calcul, qu'il qualifie de "nouvelle classe d'actifs". Cette déclaration n'est pas une prédiction abstraite : elle émane du plus grand gestionnaire d'actifs au monde, dont l'intérêt direct est que ce marché émerge pour offrir de nouveaux instruments à ses clients. La qualification du compute comme "classe d'actifs" signale une transition définitionnelle : la puissance de calcul n'est plus un intrant technique, elle devient une matière première financiarisable.
Quand Fink parle de "nouvelle classe d'actifs", il décrit un marché que BlackRock veut structurer
Si le compute devient un actif financier avec des contrats à terme, les implications sont multiples : les entreprises pourront sécuriser leur accès à la puissance de calcul à un prix fixe pour une date future (couverture), exactement comme une compagnie aérienne couvre son kérosène. Cela crée un marché spéculatif parallèle où des acteurs financiers sans activité de compute pourront prendre des positions sur le prix futur de la puissance de calcul. Cela crée un mécanisme de price discovery indépendant de l'offre et de la demande physiques, avec les mêmes dynamiques que les matières premières traditionnelles : contango, backwardation, et potentiel de manipulation.
Compute reconnu comme ressource rare et critique→ Marché à terme créé (contrats futures sur puissance de calcul)→ Acteurs financiers entrent sur le marché (spéculation, arbitrage)→ Prix du compute devient partiellement décorrélé de l'offre/demande physique→ Nouvelle couche de pouvoir : ceux qui contrôlent le marché financier du compute
La financiarisation du compute reproduit une séquence historique déjà observée deux fois au XXe siècle : l'électricité (d'abord une ressource technique, puis une matière première régulée, puis un actif négociable sur les marchés de l'énergie) et le pétrole (du brut physique aux contrats futures du NYMEX). Dans les deux cas, la financiarisation a créé de nouveaux intermédiaires (traders, market makers, hedge funds) qui ont capté une part de la valeur sans posséder l'infrastructure physique sous-jacente. BlackRock, en tant que plus grand gestionnaire d'actifs, est structurellement positionné pour être le premier market maker de cette nouvelle classe d'actifs.
Alphabet émet 8,5 milliards de dollars canadiens d'obligations au Canada — un record — pour financer ses investissements dans l'infrastructure IA. Dans le même temps, Southern Company voit ses ventes d'électricité bondir de 42% grâce à la croissance des data centers, et AMD est qualifiée de "priced for perfection" après son meilleur mois boursier en 25 ans. Ces trois signaux, apparemment déconnectés, révèlent une dynamique de financement unique : l'infrastructure IA mobilise simultanément les marchés obligataires, les marchés actions et l'infrastructure physique, dans une boucle de capital auto-renforçante.
La boucle de financement de l'infrastructure IA est circulaire : les marchés obligataires et actions fournissent le capital (Alphabet émet de la dette, Cerebras et AMD lèvent en Bourse), ce capital finance la fabrication de puces (Cerebras, Nvidia, AMD) et la construction de data centers (hyperscalers), ces data centers consomment de l'électricité (Southern Co., AEP), dont la fourniture nécessite des équipementiers électriques (Eaton), dont la croissance justifie des relèvements de valorisation, qui attirent plus de capital. Chaque maillon justifie le suivant dans une circularité qui fonctionne tant que la demande de compute IA continue de croître.
Cipher Digital, mineur de Bitcoin, perd 114 millions de dollars au T1 2026 mais accélère sa transition vers les data centers IA. Ce pivot illustre une dynamique de substitution structurelle : le minage crypto, qui consomme de l'électricité pour produire un actif numérique à valeur spéculative, se reconvertit en infrastructure IA, qui consomme de l'électricité pour produire du compute à valeur enterprise démontrable. La différence fondamentale est que le compute IA a une demande vérifiable (contrats enterprise, backlogs), contrairement au Bitcoin dont la valeur repose sur un consensus de marché. La transition des mineurs Bitcoin vers l'IA est un signal que l'infrastructure physique existante (data centers, connexions électriques) est redéployée vers l'usage ayant la plus forte valeur ajoutée par kilowattheure.
American Electric Power (AEP) menace de quitter les réseaux électriques PJM et SPP — deux des plus grands réseaux américains — en raison de la pression exercée par la croissance des data centers. Cette menace est structurellement révélatrice : l'infrastructure IA consomme plus d'électricité que les réseaux ne peuvent en fournir dans le cadre régulatoire existant, créant un conflit entre deux infrastructures critiques qui n'avait pas été anticipé à cette échelle.
La croissance des data centers crée une tension entre le cadre régulatoire et la réalité physique
Le problème est physique avant d'être économique. Un data center hyperscale consomme l'équivalent électrique d'une ville moyenne. Quand plusieurs de ces data centers sont déployés simultanément dans une même région (Virginie du Nord, Ohio, Texas), le réseau électrique local — conçu pour une demande résidentielle et industrielle traditionnelle — atteint sa capacité maximale. La contrainte n'est pas la production totale d'électricité : c'est la capacité de transport et de distribution locale, qui nécessite des investissements d'infrastructure (lignes haute tension, transformateurs, sous-stations) dont le délai de déploiement est de 3 à 7 ans.
AEP, en tant qu'utility régulée, est structurellement coincée : elle doit fournir de l'électricité à un prix régulé à ses clients résidentiels et industriels traditionnels, tout en répondant à la demande massive et concentrée des data centers qui nécessite des investissements d'infrastructure massifs non prévus dans le cadre régulatoire existant. La menace de quitter les réseaux PJM et SPP est une négociation : AEP demande une refonte du cadre régulatoire pour que le coût de l'expansion du réseau soit supporté par les data centers (via des tarifs dédiés ou des contributions d'infrastructure) plutôt que réparti sur l'ensemble des clients. Si cette refonte n'a pas lieu, le coût de l'électricité pour les data centers augmentera structurellement, réduisant le rendement du CAPEX IA des hyperscalers.
Croissance data centers→ Demande électrique locale dépasse la capacité du réseau→ Utility (AEP) doit investir dans l'expansion du réseau→ Cadre régulatoire actuel ne permet pas de facturer ce coût aux data centers→ AEP menace de quitter les réseaux→ Négociation pour un nouveau cadre tarifaire→ Si échec : coût électrique data centers augmente, rendement CAPEX IA baisse
L'écosystème IA forme désormais une chaîne de valeur complète en trois couches, de la fabrication des puces à la consommation d'électricité. Chaque couche a sa propre structure de concentration, ses propres barrières à l'entrée et ses propres dynamiques de pouvoir. La superposition de ces trois couches crée des interdépendances dont la rupture à un seul point peut propager des effets systémiques.
Dans une chaîne de valeur en expansion simultanée sur toutes les couches, la contrainte la plus faible détermine le débit total. Actuellement, la contrainte s'est déplacée : elle n'est plus dans la fabrication de puces (l'offre augmente via Cerebras, AMD, et l'expansion Nvidia), mais dans l'infrastructure électrique. Les data centers sont construits plus vite que les réseaux électriques ne peuvent être étendus. Cette asymétrie temporelle (construction d'un data center : 18–24 mois, extension d'un réseau électrique : 3–7 ans) crée un goulot d'étranglement qui pourrait limiter la croissance du compute IA avant même que la demande ne plafonne.
Jensen Huang (Nvidia) déclare que l'IA "crée un nombre énorme d'emplois". Cette déclaration, faite alors que l'anxiété sociale sur l'IA augmente, révèle une réalité structurelle souvent négligée : la construction de l'infrastructure IA (fabrication de puces, construction de data centers, déploiement électrique) est elle-même une industrie lourde qui mobilise des centaines de milliers de travailleurs dans la construction, l'ingénierie électrique, le génie civil et la fabrication de précision. L'IA ne supprime pas seulement des emplois de bureau — elle en crée massivement dans l'infrastructure physique nécessaire à son fonctionnement. Cette dualité (destruction d'emplois cognitifs, création d'emplois infrastructurels) est une asymétrie qui n'est pas encore intégrée dans le débat public sur l'IA.
Modéliser les fragilités de l'infrastructure IA ne consiste pas à prédire un effondrement. C'est identifier les points où la pression est maximale, où les dépendances sont les plus fortes, et où une rupture — même partielle — produirait les effets de second ordre les plus significatifs.
- Dépendance Cerebras–OpenAI : la valorisation de 26,6 Md$ repose en partie sur le partenariat avec OpenAI. Si OpenAI diversifie ses fournisseurs au-delà de Cerebras, ou si la dépendance s'inverse (OpenAI devient le client unique), la thèse d'investissement s'affaiblit. Le risque de concentration-client est élevé pour une entreprise dont le produit est spécialisé sur un segment étroit (entraînement de LLM).
- Endettement des hyperscalers : Alphabet émet de la dette record pour financer le CAPEX IA. Microsoft prévoit 190 Md$ de CAPEX annuel. Si les taux d'intérêt restent élevés ou si la croissance des revenus IA ralentit, le coût de la dette comprime les marges et la rentabilité des investissements. Le financement par dette plutôt que par cash-flow introduit un risque de refinancement structurel.
- Conflit data centers / réseaux électriques : si AEP quitte effectivement les réseaux PJM et SPP, ou si le cadre régulatoire ne s'adapte pas assez vite, le coût de l'électricité pour les data centers augmente structurellement. L'asymétrie temporelle entre construction de data centers (18–24 mois) et extension des réseaux électriques (3–7 ans) crée un goulot d'étranglement qui pourrait limiter la croissance du compute.
- Financiarisation du compute : si le compute devient un actif financier avec des marchés à terme, il sera soumis aux mêmes dynamiques spéculatives que les matières premières : volatilité, manipulation de marché, bulles spéculatives. La décorrélation potentielle entre le prix financier du compute et sa valeur économique réelle introduit un risque systémique nouveau dans la chaîne de valeur IA.
Cipher Digital et d'autres mineurs Bitcoin reconvertissent leur infrastructure électrique vers les data centers IA. Cette transition repose sur l'hypothèse que la demande de compute IA est structurellement supérieure et plus stable que la demande de minage crypto. Si cette hypothèse se vérifie, la transition est rationnelle. Si la demande de compute IA se normalise ou si le minage Bitcoin redevient plus rentable (via une hausse du cours), les infrastructures pourraient basculer à nouveau, créant une volatilité de capacité qui n'existe pas dans les data centers traditionnels.