Amazon remet 25 milliards dans Anthropic — et verrouille 100 milliards de compute AWS sur dix ans
Le 20 avril 2026, Amazon annonce un investissement additionnel jusqu'à 25 Md$ dans Anthropic et un engagement de 100 Md$ sur AWS Trainium/Graviton. Le deal sécurise 5 GW de compute pour Claude et porte le total des investissements Amazon à 33 Md$. Anthropic a franchi 30 Md$ de run-rate.

Le 20 avril 2026, Amazon et Anthropic annoncent une expansion massive de leur partenariat. Amazon investit 5 milliards de dollars supplémentaires immédiatement, avec un engagement jusqu'à 20 milliards additionnels conditionnés à des milestones commerciaux — soit un ticket total qui pousse l'investissement Amazon dans Anthropic à 33 milliards de dollars en cumulé, depuis les premiers 8 Md$ de 2023-2024. En contrepartie, Anthropic s'engage à dépenser plus de 100 milliards sur dix ans en services AWS, incluant les puces Trainium et Graviton. Le deal sécurise jusqu'à 5 gigawatts de capacité de compute pour entraîner et servir Claude — un niveau qui place Anthropic au même étage que Microsoft/OpenAI et Google/Alphabet en matière d'infrastructure. Anthropic confirme avoir franchi 30 milliards de dollars de run-rate revenue, contre environ 9 Md$ fin 2025.
Le chiffre qui structure le deal : 5 gigawatts
Le montant qui compte le plus dans ce communiqué n'est pas les 25 Md$, c'est 5 GW. Pour donner un ordre de grandeur, un gigawatt équivaut à la consommation instantanée d'environ 750 000 foyers américains. Cinq gigawatts dédiés à un seul acteur IA, c'est l'équivalent d'une centrale nucléaire entière allouée à Claude. À titre de comparaison, Microsoft annonçait en mars 2026 un partenariat équivalent à 6 GW avec OpenAI, et Google disposait d'environ 4 GW pour Gemini.
Dans le détail, l'annonce précise un déploiement par vagues. Près d'un gigawatt total de capacité Trainium2 et Trainium3 sera en ligne d'ici fin 2026. Le reste viendra sur 2027-2028 à mesure qu'Amazon construit ses nouveaux datacenters IA dédiés. Ce phasage explique la structure conditionnelle des 20 Md$ : l'argent suit le compute, pas l'inverse.
| Indicateur | Anthropic | OpenAI | Google DeepMind |
|---|---|---|---|
| Compute sécurisé 2026 | 5 GW (AWS) | 6 GW (Azure) | 4 GW (TPU interne) |
| Investissement hyperscaler | 33 Md$ (Amazon) | 13 Md$ + (Microsoft) | Interne Alphabet |
| Run-rate revenue | 30 Md$ | 25 Md$ | non communiqué |
| Stack compute | Trainium + H100/Blackwell | Nvidia + Microsoft custom | TPU v6/v7 + Nvidia |
Anthropic à 30 Md$ de run-rate — la trajectoire devient vertigineuse
Le chiffre le plus frappant du communiqué est ailleurs : le run-rate revenue d'Anthropic a triplé en quatre mois, passant de 9 Md$ fin décembre 2025 à plus de 30 Md$ en avril 2026. Ce n'est pas une croissance linéaire. C'est une inflexion. Elle s'explique par trois facteurs convergents : la montée en charge de Claude Opus 4.7, l'adoption entreprise de Claude Code, et la contribution des nouvelles surfaces produits — Claude Design, Claude Dispatch, Cowork.
Pour situer, Anthropic avait dépassé OpenAI sur le revenu entreprise en avril 2026. Le différentiel s'est creusé. OpenAI est à 25 Md$ de run-rate, Anthropic à 30 Md$. Côté valorisation privée, Anthropic a refusé des offres à 800 milliards de dollars — un ratio prix/revenu de 26x qui reste inférieur à celui pratiqué pour OpenAI (32x).
Pourquoi Trainium, et pas seulement Nvidia
Un point clé du deal : Amazon pousse Anthropic à consommer massivement Trainium, sa puce IA maison. C'est là que se joue la logique industrielle. Les Trainium2 et Trainium3 sont conçus par Annapurna Labs (filiale Amazon) pour un objectif précis — matcher les performances Nvidia H100/B200 sur l'inférence à un coût de fabrication inférieur. Amazon économise des dizaines de milliards en n'achetant pas des H100 à Nvidia ; Anthropic obtient du compute à prix préférentiel.
La contrepartie : Anthropic doit investir de l'ingénierie pour porter ses modèles sur l'architecture Trainium. Les Trainium utilisent un ISA custom (Neuron), un stack logiciel parallèle à CUDA. Cela signifie réécrire les kernels de bas niveau, adapter les pipelines d'entraînement, tester chaque release sur deux hardwares. C'est un coût en R&D significatif, mais Anthropic récupère en échange une exclusivité de fait sur un silicon optimisé pour sa famille de modèles.
Le parallèle est direct avec ce que fait Google en interne avec ses TPU. La différence, c'est qu'Anthropic n'a pas de fonderie ni de design d'ASIC — Amazon joue ce rôle pour elle. Le deal de co-développement entre Annapurna et Anthropic est le chaînon qui rend crédible l'hypothèse "OpenAI + Nvidia vs Anthropic + Amazon vs Google + TPU" en termes de stack verticalement intégrée.
Le contexte financier : AWS récupère la mise en usage
Les 100 Md$ promis sur AWS ne sont pas un chèque en blanc. Ils se transforment en revenus récurrents pour Amazon Web Services — autour de 10 Md$ par an sur dix ans. À ce rythme, Anthropic devient l'un des trois ou quatre plus gros clients AWS en absolu, et probablement le plus gros client compute IA de l'histoire d'AWS.
La mécanique financière est élégante : Amazon prête 33 Md$ à Anthropic (en equity), et Anthropic rend 100 Md$ sous forme de cloud spending. Multiple de retour théorique 3x, mais surtout, Amazon bloque la relation. Anthropic ne peut plus partir chez Google Cloud ou Azure sans coûts de migration colossaux. Le lock-in est mutuel — Amazon a besoin d'Anthropic pour justifier ses capex Trainium, Anthropic a besoin d'Amazon pour ne pas être étranglée par le coût compute.
Même Broadcom s'invite à la table : l'accord d'avril annoncé entre Broadcom et Anthropic pour 3,5 GW de TPU Google complète la stratégie multi-fournisseurs. En clair, Anthropic opère désormais sur trois architectures simultanées : Trainium (AWS), TPU (Google via Broadcom) et Nvidia H100/Blackwell. Redondance maximale, risque de rupture compute minimisé.
Le signal macro : la guerre compute est entrée en phase capex
Le deal Amazon-Anthropic valide un mouvement plus large. Meta a annoncé 115 à 135 milliards de capex IA pour 2026, soit quasiment le double des 72 Md$ de 2025. OpenAI a bouclé ses propres accords compute pour 2026 autour de 6 GW Azure. Google continue de déployer TPU v7 à un rythme qu'il ne communique pas publiquement.
Ce que cela signifie pour l'écosystème : les barrières à l'entrée du frontier model se sont déplacées. En 2024, le problème était l'accès à Nvidia H100. En 2026, le problème est l'accès à des gigawatts de puissance électrique et à des terrains pour construire des datacenters. Les hyperscalers sont les seuls joueurs capables de mobiliser ces ressources à échelle. Anthropic a choisi Amazon plutôt que d'essayer de construire seule — c'est un choix stratégique qui limite les futures options IPO mais élimine le risque capacitaire.
Pour les startups IA de deuxième ligne, le message est dur : entraîner un modèle frontier à partir de zéro en 2026 coûte plus de 10 milliards en compute seul. Les alternatives sont soit d'acheter du compute au prix fort (modèle Mistral), soit de ne pas entraîner du tout et d'appeler les APIs des trois labs dominants. Le middle ground disparaît.
Ce qu'Anthropic finance avec ces 25 milliards
Anthropic n'a pas donné de breakdown officiel, mais les indices suffisent pour reconstituer les postes. Training du prochain modèle frontier (nom de code probable : successor de Claude Mythos annoncé pour début mai 2026) : probablement 8 à 10 Md$. Inférence Trainium à grande échelle pour servir les 30 Md$ de run-rate : 10 à 12 Md$. R&D avancée — équipes safety, interp, capability research : 3 à 5 Md$.
À cela s'ajoute une enveloppe pour les surfaces produits. Cowork, Claude Dispatch, Claude Design, et le prochain app builder natif intégré à Claude consomment tous de l'infrastructure dédiée. La croissance de l'utilisateur final sur les produits web et mobile force Anthropic à redimensionner ses clusters d'inférence plus vite que ses concurrents.
Ce qu'il faut surveiller dans les 60 prochains jours
Le deal déclenche une série de questions ouvertes qu'il faudra regarder de près. Premièrement, la réaction antitrust. La FTC et la Commission Européenne ont chacune une enquête ouverte sur les "partenariats cloud + investissement equity" entre hyperscalers et labs IA. Microsoft-OpenAI a ouvert la voie, Amazon-Anthropic pourrait subir un examen similaire. L'argument antitrust est que ces deals verrouillent l'accès au compute et cristallisent le duopole Azure/AWS sur l'IA.
Deuxièmement, la stratégie IPO d'Anthropic. Avec 30 Md$ de run-rate et un actionnaire Amazon désormais largement majoritaire en poids économique, l'option IPO devient complexe. Une introduction en bourse obligerait à clarifier la relation Amazon-Anthropic dans le prospectus, et potentiellement à démanteler certaines clauses d'exclusivité. Plus probable : Anthropic reste privée jusqu'en 2027-2028.
Troisièmement, la réponse de Google. Alphabet n'a pas de partenariat "equity + cloud" comparable avec un lab externe. Gemini reste un produit 100% Google. Avec Anthropic verrouillée par Amazon et OpenAI par Microsoft, Google se retrouve isolée — ou obligée d'acquérir un lab IA externe pour rééquilibrer. Les candidats naturels seraient Mistral, Cohere ou xAI, mais aucun n'est sur le marché.
En résumé :
- Amazon investit 5 Md$ immédiatement + jusqu'à 20 Md$ conditionnés dans Anthropic (total 33 Md$ cumulés)
- Anthropic s'engage à 100 Md$ de spending AWS sur 10 ans
- 5 GW de compute sécurisés (Trainium2, Trainium3, Graviton)
- Run-rate Anthropic à 30 Md$, triplé en 4 mois
- ~1 GW Trainium opérationnel d'ici fin 2026
- Le deal verrouille Anthropic sur AWS et finance le prochain modèle frontier
- Question antitrust probable — la FTC surveille les "equity + cloud" deals
Le 20 avril 2026 restera comme la date où la course à l'IA est entrée dans sa phase industrielle. Plus question de parler en dizaines de millions de dollars pour un round de Série C — on parle maintenant en gigawatts, en engagements décennaux, en pactes de co-développement silicon. Anthropic a choisi son camp : Amazon, Trainium, et une croissance explosive à condition d'accepter un lock-in structurel. Le pari est que 5 GW de compute propriétaire vaut plus qu'une exit-freedom théorique. Vu la trajectoire de revenu, ça a l'air de fonctionner.
Pour les entreprises qui construisent sur Claude — qu'elles utilisent Claude Code, l'API, ou des intégrations comme Idlen pour monétiser leurs apps IA avec des ads natives — le message est positif : Anthropic a désormais la capacité opérationnelle pour encaisser leur charge et continuer à faire progresser les modèles. La guerre du compute est loin d'être terminée, mais pour une fois, un lab annonce un deal qui finance cinq ans de roadmap en une signature.
Sources : CNBC — Amazon invests up to $25 billion in Anthropic, Anthropic — Expand Amazon collaboration 5 GW, About Amazon — Strategic collaboration expansion, PYMNTS — Deepen ties investment hardware pact.


