01 — Cerebras IPO
26,6 milliards de dollars : le compute entre en Bourse avec une demande excédentaire

Cerebras Systems, fabricant de puces IA partenaire stratégique d'OpenAI, vise une valorisation de 26,6 milliards de dollars pour son introduction en Bourse. L'entreprise exige des ordres limites des investisseurs — un mécanisme rare qui signale une demande largement supérieure à l'offre disponible. Cette IPO n'est pas une introduction en Bourse ordinaire : c'est la première cotation d'un fabricant de puces spécialisé dans l'entraînement de grands modèles de langage, et la demande excédentaire révèle que le marché considère les puces IA comme un goulot d'étranglement structurel à forte valeur.

Mécanique de l'IPO Cerebras — structure de la demande
01 Cerebras fabrique les puces les plus grandes du monde (WSE-3) : contrairement à Nvidia qui assemble des milliers de petits GPU, Cerebras produit des wafers entiers comme accélérateurs uniques. Cette architecture est optimisée pour l'entraînement de LLM — le segment à plus forte croissance de la demande de compute.
02 Partenariat stratégique avec OpenAI — dépendance réciproque : Cerebras a besoin d'OpenAI comme client de référence pour crédibiliser sa technologie face à Nvidia. OpenAI a besoin d'alternatives à Nvidia pour diversifier son approvisionnement et réduire sa dépendance à un fournisseur unique. Cette dépendance croisée est un levier de valorisation tant qu'elle dure, et une fragilité si elle se rompt.
03 Ordres limites exigés = enchère implicite : en exigeant des ordres limites, Cerebras force les investisseurs à déclarer leur prix maximal. Ce mécanisme révèle une conviction d'acheteur supérieure au prix d'offre — le marché est prêt à payer plus, et Cerebras le sait.
Ce que l'IPO Cerebras révèle sur le marché des puces IA
La thèse implicite : le marché est assez vaste pour plusieurs acteurs majeurs au-delà de Nvidia

Le succès anticipé de l'IPO Cerebras n'est pas seulement une validation de l'entreprise : c'est une validation de la thèse que le marché des puces IA est en expansion suffisante pour accueillir plusieurs acteurs majeurs. Nvidia domine le marché des GPU avec une part estimée à plus de 80%, mais cette domination repose en partie sur l'écosystème CUDA — une barrière logicielle plus que matérielle. Cerebras, avec son architecture wafer-scale, propose une alternative matérielle radicalement différente. La question structurelle est de savoir si la différenciation architecturale suffit à surmonter l'avantage écosystémique de Nvidia.

Demande de compute IA en croissance exponentielle Capacité de production Nvidia contrainte (délais, prix) Hyperscalers et labs IA cherchent des alternatives Cerebras capte une part du marché via différenciation wafer-scale IPO à 26,6 Md$ = marché valide la thèse de diversification Mais la domination CUDA reste la barrière structurelle ultime

02 — Le compute comme nouvelle classe d'actifs
Larry Fink, BlackRock et la financiarisation de la puissance de calcul

Larry Fink, CEO de BlackRock (11 500 milliards de dollars d'actifs sous gestion), prédit l'émergence d'un marché à terme sur la puissance de calcul, qu'il qualifie de "nouvelle classe d'actifs". Cette déclaration n'est pas une prédiction abstraite : elle émane du plus grand gestionnaire d'actifs au monde, dont l'intérêt direct est que ce marché émerge pour offrir de nouveaux instruments à ses clients. La qualification du compute comme "classe d'actifs" signale une transition définitionnelle : la puissance de calcul n'est plus un intrant technique, elle devient une matière première financiarisable.

11 500 Md$
Actifs sous gestion de BlackRock — le plus grand gestionnaire mondial
Quand Fink parle de "nouvelle classe d'actifs", il décrit un marché que BlackRock veut structurer
Implications structurelles d'un marché à terme du compute
Couverture, spéculation et nouvelle couche de pouvoir financier

Si le compute devient un actif financier avec des contrats à terme, les implications sont multiples : les entreprises pourront sécuriser leur accès à la puissance de calcul à un prix fixe pour une date future (couverture), exactement comme une compagnie aérienne couvre son kérosène. Cela crée un marché spéculatif parallèle où des acteurs financiers sans activité de compute pourront prendre des positions sur le prix futur de la puissance de calcul. Cela crée un mécanisme de price discovery indépendant de l'offre et de la demande physiques, avec les mêmes dynamiques que les matières premières traditionnelles : contango, backwardation, et potentiel de manipulation.

Compute reconnu comme ressource rare et critique Marché à terme créé (contrats futures sur puissance de calcul) Acteurs financiers entrent sur le marché (spéculation, arbitrage) Prix du compute devient partiellement décorrélé de l'offre/demande physique Nouvelle couche de pouvoir : ceux qui contrôlent le marché financier du compute

Parallèle historique
Le compute suit la trajectoire de l'électricité et du pétrole

La financiarisation du compute reproduit une séquence historique déjà observée deux fois au XXe siècle : l'électricité (d'abord une ressource technique, puis une matière première régulée, puis un actif négociable sur les marchés de l'énergie) et le pétrole (du brut physique aux contrats futures du NYMEX). Dans les deux cas, la financiarisation a créé de nouveaux intermédiaires (traders, market makers, hedge funds) qui ont capté une part de la valeur sans posséder l'infrastructure physique sous-jacente. BlackRock, en tant que plus grand gestionnaire d'actifs, est structurellement positionné pour être le premier market maker de cette nouvelle classe d'actifs.

03 — Financement de l'infrastructure IA
Alphabet émet 8,5 Md$ CAD de dette : le CAPEX IA ne se finance plus sur le cash-flow

Alphabet émet 8,5 milliards de dollars canadiens d'obligations au Canada — un record — pour financer ses investissements dans l'infrastructure IA. Dans le même temps, Southern Company voit ses ventes d'électricité bondir de 42% grâce à la croissance des data centers, et AMD est qualifiée de "priced for perfection" après son meilleur mois boursier en 25 ans. Ces trois signaux, apparemment déconnectés, révèlent une dynamique de financement unique : l'infrastructure IA mobilise simultanément les marchés obligataires, les marchés actions et l'infrastructure physique, dans une boucle de capital auto-renforçante.

Alphabet obligations Canada
8,5 Md$ CAD
Record d'émission
Southern Co. électricité
+42%
Croissance data centers
AMD performance
Record 25 ans
Priced for perfection
Eaton price target
Relevé
Équipementier électrique
La boucle de financement IA
Argent → Puces → Data centers → Électricité → Revenus → Argent

La boucle de financement de l'infrastructure IA est circulaire : les marchés obligataires et actions fournissent le capital (Alphabet émet de la dette, Cerebras et AMD lèvent en Bourse), ce capital finance la fabrication de puces (Cerebras, Nvidia, AMD) et la construction de data centers (hyperscalers), ces data centers consomment de l'électricité (Southern Co., AEP), dont la fourniture nécessite des équipementiers électriques (Eaton), dont la croissance justifie des relèvements de valorisation, qui attirent plus de capital. Chaque maillon justifie le suivant dans une circularité qui fonctionne tant que la demande de compute IA continue de croître.

Boucle de financement de l'infrastructure IA
01 Marchés obligataires : Alphabet émet 8,5 Md$ CAD de dette — les hyperscalers empruntent massivement pour financer le CAPEX IA, signalant que le cash-flow opérationnel ne suffit plus à couvrir l'investissement.
02 Marchés actions : Cerebras IPO 26,6 Md$, AMD record 25 ans — les fabricants de puces lèvent du capital sur les marchés actions, validant la thèse de croissance du compute.
03 Infrastructure physique : Southern Co. +42% ventes électricité, Eaton price target relevé — la demande de compute se traduit en consommation électrique réelle, créant une contrainte physique en aval.
Cipher Digital — le pivot du minage Bitcoin vers l'IA
114 M$ de pertes au T1, mais la transition data center IA est lancée

Cipher Digital, mineur de Bitcoin, perd 114 millions de dollars au T1 2026 mais accélère sa transition vers les data centers IA. Ce pivot illustre une dynamique de substitution structurelle : le minage crypto, qui consomme de l'électricité pour produire un actif numérique à valeur spéculative, se reconvertit en infrastructure IA, qui consomme de l'électricité pour produire du compute à valeur enterprise démontrable. La différence fondamentale est que le compute IA a une demande vérifiable (contrats enterprise, backlogs), contrairement au Bitcoin dont la valeur repose sur un consensus de marché. La transition des mineurs Bitcoin vers l'IA est un signal que l'infrastructure physique existante (data centers, connexions électriques) est redéployée vers l'usage ayant la plus forte valeur ajoutée par kilowattheure.

04 — Data centers vs réseaux électriques
American Electric Power menace de quitter les réseaux : le compute heurte la contrainte physique

American Electric Power (AEP) menace de quitter les réseaux électriques PJM et SPP — deux des plus grands réseaux américains — en raison de la pression exercée par la croissance des data centers. Cette menace est structurellement révélatrice : l'infrastructure IA consomme plus d'électricité que les réseaux ne peuvent en fournir dans le cadre régulatoire existant, créant un conflit entre deux infrastructures critiques qui n'avait pas été anticipé à cette échelle.

2
Réseaux électriques menacés de départ par AEP (PJM et SPP)
La croissance des data centers crée une tension entre le cadre régulatoire et la réalité physique
Le conflit structurel
Data centers = demande massive et concentrée / Réseaux = offre régulée et distribuée

Le problème est physique avant d'être économique. Un data center hyperscale consomme l'équivalent électrique d'une ville moyenne. Quand plusieurs de ces data centers sont déployés simultanément dans une même région (Virginie du Nord, Ohio, Texas), le réseau électrique local — conçu pour une demande résidentielle et industrielle traditionnelle — atteint sa capacité maximale. La contrainte n'est pas la production totale d'électricité : c'est la capacité de transport et de distribution locale, qui nécessite des investissements d'infrastructure (lignes haute tension, transformateurs, sous-stations) dont le délai de déploiement est de 3 à 7 ans.

La position d'AEP
Une utility régulée prise entre deux obligations contradictoires

AEP, en tant qu'utility régulée, est structurellement coincée : elle doit fournir de l'électricité à un prix régulé à ses clients résidentiels et industriels traditionnels, tout en répondant à la demande massive et concentrée des data centers qui nécessite des investissements d'infrastructure massifs non prévus dans le cadre régulatoire existant. La menace de quitter les réseaux PJM et SPP est une négociation : AEP demande une refonte du cadre régulatoire pour que le coût de l'expansion du réseau soit supporté par les data centers (via des tarifs dédiés ou des contributions d'infrastructure) plutôt que réparti sur l'ensemble des clients. Si cette refonte n'a pas lieu, le coût de l'électricité pour les data centers augmentera structurellement, réduisant le rendement du CAPEX IA des hyperscalers.

Croissance data centers Demande électrique locale dépasse la capacité du réseau Utility (AEP) doit investir dans l'expansion du réseau Cadre régulatoire actuel ne permet pas de facturer ce coût aux data centers AEP menace de quitter les réseaux Négociation pour un nouveau cadre tarifaire Si échec : coût électrique data centers augmente, rendement CAPEX IA baisse

05 — Chaîne de valeur de l'infrastructure IA
Puces, cloud, électricité : trois couches de pouvoir, trois concentrations asymétriques

L'écosystème IA forme désormais une chaîne de valeur complète en trois couches, de la fabrication des puces à la consommation d'électricité. Chaque couche a sa propre structure de concentration, ses propres barrières à l'entrée et ses propres dynamiques de pouvoir. La superposition de ces trois couches crée des interdépendances dont la rupture à un seul point peut propager des effets systémiques.

Couche 1 — Amont
Fabrication de puces
Acteurs : Nvidia, AMD, Cerebras. Concentration extrême : un acteur (Nvidia) contrôle ~80% du marché GPU IA via l'écosystème CUDA. Cerebras et AMD tentent de briser cette concentration par différenciation architecturale (wafer-scale) ou par montée en gamme. Barrière : l'écosystème logiciel (CUDA) est plus difficile à répliquer que le hardware.
Couche 2 — Milieu
Cloud et data centers
Acteurs : Microsoft, Google, Amazon. Concentration modérée : trois hyperscalers dominent, mais sont en compétition active. Barrière : le CAPEX (190 Md$ annuels pour Microsoft seul) rend l'entrée impossible pour tout nouvel acteur. Le compute est déployé dans des data centers dont l'empreinte double tous les deux ans.
Couche 3 — Aval
Réseaux électriques
Acteurs : AEP, Southern Co., Eaton. Structure régulée et fragmentée par région. Barrière : le réseau électrique est un monopole naturel régulé, mais le cadre régulatoire n'a pas été conçu pour la demande des data centers. La contrainte est physique (capacité des lignes) et régulatoire (qui paie l'expansion).
Effet de système
La contrainte la plus faible détermine la capacité totale de la chaîne

Dans une chaîne de valeur en expansion simultanée sur toutes les couches, la contrainte la plus faible détermine le débit total. Actuellement, la contrainte s'est déplacée : elle n'est plus dans la fabrication de puces (l'offre augmente via Cerebras, AMD, et l'expansion Nvidia), mais dans l'infrastructure électrique. Les data centers sont construits plus vite que les réseaux électriques ne peuvent être étendus. Cette asymétrie temporelle (construction d'un data center : 18–24 mois, extension d'un réseau électrique : 3–7 ans) crée un goulot d'étranglement qui pourrait limiter la croissance du compute IA avant même que la demande ne plafonne.

Jensen Huang — l'IA crée des emplois
La construction de l'infrastructure IA est elle-même une industrie massive

Jensen Huang (Nvidia) déclare que l'IA "crée un nombre énorme d'emplois". Cette déclaration, faite alors que l'anxiété sociale sur l'IA augmente, révèle une réalité structurelle souvent négligée : la construction de l'infrastructure IA (fabrication de puces, construction de data centers, déploiement électrique) est elle-même une industrie lourde qui mobilise des centaines de milliers de travailleurs dans la construction, l'ingénierie électrique, le génie civil et la fabrication de précision. L'IA ne supprime pas seulement des emplois de bureau — elle en crée massivement dans l'infrastructure physique nécessaire à son fonctionnement. Cette dualité (destruction d'emplois cognitifs, création d'emplois infrastructurels) est une asymétrie qui n'est pas encore intégrée dans le débat public sur l'IA.

06 — Fragilités structurelles
Quatre points de tension dans la chaîne infrastructure IA

Modéliser les fragilités de l'infrastructure IA ne consiste pas à prédire un effondrement. C'est identifier les points où la pression est maximale, où les dépendances sont les plus fortes, et où une rupture — même partielle — produirait les effets de second ordre les plus significatifs.

  • Dépendance Cerebras–OpenAI : la valorisation de 26,6 Md$ repose en partie sur le partenariat avec OpenAI. Si OpenAI diversifie ses fournisseurs au-delà de Cerebras, ou si la dépendance s'inverse (OpenAI devient le client unique), la thèse d'investissement s'affaiblit. Le risque de concentration-client est élevé pour une entreprise dont le produit est spécialisé sur un segment étroit (entraînement de LLM).
  • Endettement des hyperscalers : Alphabet émet de la dette record pour financer le CAPEX IA. Microsoft prévoit 190 Md$ de CAPEX annuel. Si les taux d'intérêt restent élevés ou si la croissance des revenus IA ralentit, le coût de la dette comprime les marges et la rentabilité des investissements. Le financement par dette plutôt que par cash-flow introduit un risque de refinancement structurel.
  • Conflit data centers / réseaux électriques : si AEP quitte effectivement les réseaux PJM et SPP, ou si le cadre régulatoire ne s'adapte pas assez vite, le coût de l'électricité pour les data centers augmente structurellement. L'asymétrie temporelle entre construction de data centers (18–24 mois) et extension des réseaux électriques (3–7 ans) crée un goulot d'étranglement qui pourrait limiter la croissance du compute.
  • Financiarisation du compute : si le compute devient un actif financier avec des marchés à terme, il sera soumis aux mêmes dynamiques spéculatives que les matières premières : volatilité, manipulation de marché, bulles spéculatives. La décorrélation potentielle entre le prix financier du compute et sa valeur économique réelle introduit un risque systémique nouveau dans la chaîne de valeur IA.
Fragilité additionnelle — transition des mineurs Bitcoin
La reconversion du minage crypto en infrastructure IA suppose une demande de compute IA durable

Cipher Digital et d'autres mineurs Bitcoin reconvertissent leur infrastructure électrique vers les data centers IA. Cette transition repose sur l'hypothèse que la demande de compute IA est structurellement supérieure et plus stable que la demande de minage crypto. Si cette hypothèse se vérifie, la transition est rationnelle. Si la demande de compute IA se normalise ou si le minage Bitcoin redevient plus rentable (via une hausse du cours), les infrastructures pourraient basculer à nouveau, créant une volatilité de capacité qui n'existe pas dans les data centers traditionnels.