Cerebras vise 26 milliards de valorisation à son IPO : la première fissure dans le monopole NVIDIA
Cerebras Systems prépare l'IPO la plus attendue de 2026 : 3,5 milliards levés à une valorisation de 26,6 milliards. La startup vend une puce IA grosse comme une assiette qui menace pour la première fois la mainmise de NVIDIA sur l'inférence.

Cerebras Systems prépare le coup d'éclat de Wall Street pour 2026. La startup de puces IA basée à Sunnyvale a confirmé le 4 mai son intention de lever 3,5 milliards de dollars lors de son introduction en bourse, à une valorisation cible de 26,6 milliards au haut de la fourchette. Et selon Bloomberg, la demande des investisseurs est si forte que la fourchette de prix devrait être relevée avant la date d'IPO prévue le 14 mai 2026 (ticker : CBRS).
Le carnet d'ordres est sursouscrit 20 fois. C'est le niveau d'engouement qu'on n'avait plus vu depuis l'IPO de Snowflake en 2020. Et l'enjeu est gigantesque : Cerebras est le premier challenger sérieux à NVIDIA depuis cinq ans.
La puce qui fait la taille d'une assiette
L'argument technique de Cerebras tient en un objet : la WSE-3 (Wafer Scale Engine, troisième génération). C'est une puce IA gravée sur un wafer entier de silicium — soit environ 462 cm². À titre de comparaison, une puce NVIDIA Blackwell B200 fait environ 813 mm². La WSE-3 est donc plusieurs dizaines de fois plus grande.
Pourquoi ça compte ? Parce que dans une puce monolithique, toutes les communications entre les cœurs se font à la vitesse de la lumière sur le silicium — sans passer par les interconnexions externes (PCIe, NVLink, etc.) qui sont le goulot d'étranglement des clusters NVIDIA classiques. La WSE-3 embarque :
- 900 000 cœurs IA sur une seule puce
- 44 gigaoctets de SRAM sur le die (la mémoire la plus rapide qui existe)
- Une bande passante mémoire interne d'environ 21 péta-octets par seconde
Pour l'inférence de gros LLMs, l'effet est spectaculaire. Cerebras affiche des temps de réponse 10 à 20 fois supérieurs à un cluster H100 équivalent pour servir Llama-3.1 405B ou DeepSeek-V3. C'est exactement ce dont les agents IA agentiques ont besoin pour maintenir des latences inférieures à 50 ms.
OpenAI, le client qui change tout
Le détail qui fait basculer l'IPO de "intéressant" à "majeur", c'est OpenAI. Sam Altman a annoncé un partenariat avec Cerebras portant sur 750 mégawatts de compute basse latence. Concrètement, OpenAI utilise Cerebras pour servir une partie de l'inférence ChatGPT et Codex.
Pourquoi OpenAI mise sur Cerebras alors qu'elle pourrait simplement acheter plus de GPU NVIDIA ? Trois raisons :
- Latence : pour les flux temps réel comme la voix et les agents, le wafer-scale fait gagner des centaines de millisecondes par requête.
- Diversification : OpenAI veut réduire sa dépendance à NVIDIA. Stargate, Microsoft, et maintenant Cerebras forment un patchwork stratégique.
- Coût : Cerebras affirme un coût par token 30 à 40 % inférieur à un cluster H100 équivalent pour l'inférence de modèles 100B+.
Le contrat OpenAI-Cerebras est l'élément le plus cité dans les documents S-1 déposés à la SEC. C'est aussi ce qui justifie le multiple de valorisation : avec 510 millions de dollars de revenus 2025, Cerebras se négocie à environ 52x revenus. Stratosphérique pour un fabricant de hardware — sauf que ce n'est pas comparable à Intel ou AMD. Cerebras est positionnée plus près d'NVIDIA, qui se négocie à 25x revenus mais avec une croissance bien plus mature.
L'arithmétique de l'IPO
| Métrique | Détail |
|---|---|
| Date prévue | 14 mai 2026 |
| Ticker | CBRS (NASDAQ) |
| Actions émises | 28 millions |
| Fourchette de prix initiale | 115–125 USD |
| Fourchette de prix révisée | 125–135 USD (Bloomberg) |
| Capital levé | 3,5 milliards USD |
| Valorisation au top de la fourchette | 26,6 milliards USD |
| Valorisation potentielle | ~35 milliards USD (selon GuruFocus) |
| Sursouscription | 20x |
| Revenus 2025 | 510 millions USD |
| Multiple revenus | ~52x |
| Investisseurs ancres | OpenAI partner, fonds souverains |
Le passage de 23 milliards (tour privé de février 2026) à 26,6 milliards (IPO de mai) représente une hausse de 15 % en trois mois. Et si la fourchette est effectivement révisée à la hausse, on pourrait franchir les 30 milliards dès la première journée de cotation.
Pourquoi c'est important pour la course à l'IA
L'IPO de Cerebras est un baromètre stratégique pour trois raisons.
1. Premier challenger crédible à NVIDIA. Depuis cinq ans, NVIDIA tient un quasi-monopole sur le silicium IA — plus de 90 % de parts de marché. AMD avec ses MI300X, Intel avec Gaudi, Google avec ses TPU et Amazon avec Trainium ont tous tenté une percée sans bouger les lignes. Cerebras attaque sur un angle différent : pas en faisant des GPU concurrents, mais en proposant une architecture radicalement différente. Si l'IPO réussit, ça envoie un signal clair aux investisseurs : il y a de la place pour autre chose que des GPU NVIDIA.
2. Validation de l'inférence comme marché distinct. Pendant longtemps, le marché du hardware IA confondait entraînement et inférence. Cerebras se positionne explicitement sur l'inférence — le marché qui va exploser au fur et à mesure que les LLMs sont intégrés partout. Selon les estimations McKinsey, le marché inférence sera supérieur à celui de l'entraînement dès 2027.
3. Signal pour la consolidation hardware. Si Cerebras vaut 26 milliards en bourse, alors Groq, SambaNova, Tenstorrent, Etched, MatX et les autres startups inférence vont voir leurs valorisations exploser. C'est exactement le scénario qui s'était joué après l'IPO de Snowflake en 2020 — une vague d'introductions et de levées tardives. Préparez-vous à voir Groq dans le pipeline IPO d'ici 12 mois.
Le contexte concurrentiel
| Acteur | Architecture | Force principale | Faiblesse |
|---|---|---|---|
| NVIDIA | GPU (H100, H200, GB200) | Écosystème CUDA, scale | Latence multi-GPU |
| Cerebras | Wafer-scale | Latence ultra-faible | Coût unitaire élevé |
| Google TPU | ASIC custom | Intégré à Google Cloud | Pas vendu en standalone |
| AMD MI300 | GPU | Prix agressif | Software immature |
| Groq | LPU (Language Processing Unit) | Latence record | Mémoire embarquée limitée |
| AWS Trainium | ASIC custom | Intégré à AWS, coût bas | Pas vendu en standalone |
Cerebras occupe une niche très spécifique : le gros modèle servi à grande vitesse. Tant que les LLMs continueront à grossir et que les agents auront besoin de réponses sub-secondes, cette niche va s'étendre.
En résumé
- Cerebras Systems prépare son IPO à Wall Street pour le 14 mai 2026 sous le ticker CBRS
- Levée visée : 3,5 milliards de dollars à une valorisation de 26,6 milliards (potentiellement 30+ milliards si fourchette révisée)
- Sursouscription du carnet d'ordres à 20x, un niveau historique
- Puce phare : WSE-3, plus grosse puce IA jamais fabriquée (462 cm², 900 000 cœurs, 44 Go SRAM)
- Client stratégique : OpenAI avec un contrat de 750 MW de compute basse latence
- Revenus 2025 : 510 millions USD, multiple de valorisation ~52x
- Positionnement : premier challenger crédible à NVIDIA sur l'inférence IA
Cerebras n'est pas le futur remplaçant de NVIDIA — Jensen Huang dort tranquille. Mais c'est la première fois depuis 2018 qu'un acteur hardware IA arrive sur les marchés publics avec une thèse cohérente, des revenus solides, et un client ancre du calibre d'OpenAI. Pendant que Anthropic empile les GPU NVIDIA via SpaceX, OpenAI parie sur la diversification. Et Wall Street récompense les paris contrariens. Le 14 mai, si l'IPO de Cerebras dépasse les 30 milliards de valorisation à la clôture, on entrera officiellement dans la deuxième phase de la guerre du silicium IA — celle où NVIDIA n'a plus le monopole du discours.


