Anthropic engage 200 milliards de dollars sur Google Cloud et les TPU : le plus gros contrat compute jamais signé par un AI lab
Le 5 mai 2026, The Information révèle qu'Anthropic s'est engagé à dépenser 200 milliards de dollars sur cinq ans avec Google Cloud, en s'appuyant notamment sur 3,5 GW de capacité TPU Broadcom à partir de 2027. Le contrat représente plus de 40 % du backlog cloud annoncé par Alphabet et redessine la carte des dépendances compute des frontier labs.

Le 5 mai 2026, The Information révèle qu'Anthropic s'est engagé à dépenser 200 milliards de dollars sur cinq ans avec Google Cloud. C'est, à notre connaissance, le plus gros engagement compute jamais signé par un AI lab. À titre de comparaison, l'engagement représente plus de 40 % du backlog cloud divulgué par Alphabet à ses investisseurs la semaine précédente, et fait basculer Anthropic dans une dépendance Google quasiment équivalente à celle d'OpenAI envers Microsoft Azure.
Ce que recouvre exactement le deal
L'engagement de 200 milliards combine plusieurs briques contractuelles signées entre avril et mai 2026.
| Brique | Volume / Montant | Mise en service |
|---|---|---|
| TPU v8 / TPU v9 (Google Cloud) | Confidentiel | 2026 — en service |
| TPU Broadcom (custom design) | 3,5 GW de capacité | 2027 |
| Services Google Cloud (stockage, réseau) | Inclus | Continu |
| Engagement total sur cinq ans | 200 Md$ | 2026 → 2031 |
Le détail de la capacité TPU Broadcom a été confirmé par Anthropic dans un billet officiel en marge de l'annonce, et corroboré par Engadget et TECHi. Pour mettre 3,5 GW en perspective : c'est l'équivalent énergétique de trois réacteurs nucléaires dédiés à un seul client.
L'engagement vient prolonger deux annonces précédentes que nous avions couvertes :
- L'investissement de Google jusqu'à 40 milliards en deux phases dans Anthropic, qui posait déjà les bases d'un rapprochement compute
- L'enveloppe symétrique Amazon-Anthropic à 25 milliards et 100 milliards d'AWS Trainium, preuve qu'Anthropic refuse une dépendance unique
Pourquoi 200 milliards : la trajectoire compute d'Anthropic
L'enveloppe est massive mais cohérente quand on remet bout à bout la trajectoire revenue / compute du laboratoire.
L'ARR run rate d'Anthropic, qui flirte désormais avec les 40 milliards selon plusieurs sources internes citées dans notre analyse de la valorisation à 900 milliards et de l'IPO d'octobre, implique une croissance compute proche de 3x par an. Pour entraîner Claude Opus 5 et Claude Mythos sans rupture d'inférence sur Cowork et Claude Code, Anthropic doit pré-réserver de la capacité jusqu'en 2028 minimum.
| Année | ARR run rate (estim.) | Compute spend (estim.) | Ratio compute / revenue |
|---|---|---|---|
| 2025 | 8 Md$ | 4-5 Md$ | ~55 % |
| 2026 | 30-40 Md$ | 25-30 Md$ | ~75 % |
| 2027 | 70-100 Md$ (proj.) | 60-80 Md$ (proj.) | ~80 % |
| 2028 | 130-180 Md$ (proj.) | 90-110 Md$ (proj.) | ~65 % |
Le ratio compute/revenue reste élevé mais redescend à mesure que les workloads basculent du training-dominant vers l'inference-dominant, où chaque dollar de revenue requiert ~10x moins de FLOPS que l'entraînement.
La stratégie multi-cloud d'Anthropic : trois fournisseurs pour un seul lab
Anthropic est désormais le premier AI lab à opérer sur trois architectures de calcul majeures simultanément.
- AWS Trainium 3 — Cœur du partenariat avec Amazon, focalisé sur l'inférence à très haut volume
- Google TPU v8 + Broadcom 3,5 GW — Cœur du nouveau deal, focalisé sur le training et les jobs très parallèles
- NVIDIA H300 / Blackwell B300 — Gardé pour la R&D, le fine-tuning custom et certains workloads enterprise
Cette triple dépendance compute est inédite. OpenAI dépend essentiellement de Microsoft Azure (avec des extensions Oracle/CoreWeave), xAI dépend d'Oracle et de son propre Colossus 2, Mistral dépend de Microsoft. Anthropic est seul dans ce club.
L'avantage opérationnel est triple : pas de single-point-of-failure, levier de négociation continu sur les prix unitaires, et capacité à orchestrer les workloads chez le fournisseur le plus performant pour chaque tâche. Le coût en revanche est une complexité de stack ingénierie — Anthropic a publiquement confirmé recruter des infrastructure engineers spécialisés sur chaque pile depuis le tour de 40 milliards de Google d'avril.
L'impact sur Alphabet : 200 milliards qui pèsent sur la valuation
Coté Google, l'effet du deal est immédiat. Le contrat représente plus de 40 % du backlog cloud publié par Alphabet — un chiffre qui a fait monter le titre Alphabet de +6,2 % le 5 mai sur les volumes les plus forts de l'année. Bloomberg estime que la marge brute d'Alphabet sur ce contrat avoisine 45-50 %, contre 35 % en moyenne sur les contrats cloud entreprise classiques, parce que l'allocation TPU custom Broadcom a un coût de revient dégressif.
Plus structurellement, le deal cimente Google Cloud comme AI-first cloud face à AWS (jusqu'ici leader mais maintenant challengé par sa propre dépendance à Anthropic via Trainium) et Azure (qui reste lié à OpenAI). C'est aussi une réponse à l'enjeu de souveraineté décrit dans notre analyse Google Cloud Next 2026 et la plateforme agent A2A : dans la guerre des plateformes agentiques, le compute est le nouveau pétrole.
Les risques que ce contrat introduit
Aussi colossal que soit le deal, il introduit aussi quatre risques sérieux.
1. Concentration de revenus pour Google
Si Anthropic représente >40 % du backlog cloud, Alphabet entre dans une logique de risque client sur lequel les analystes vont rapidement réagir. Une rupture du contrat (renégociation, pivot d'Anthropic vers AWS, IPO ratée) impacterait directement le trimestriel d'Alphabet. C'est un schéma déjà vu chez Microsoft avec OpenAI.
2. Dépendance d'Anthropic à Broadcom
Les 3,5 GW de TPU custom dépendent d'une roadmap silicium contrôlée par Broadcom, dont le calendrier de mise en service en 2027 reste à valider. Tout retard de fab (TSMC) ou de yield impacterait directement la trajectoire produit d'Anthropic. La dépendance Trainium chez AWS présente un risque comparable mais moins concentré sur un unique fournisseur silicium.
3. Pression réglementaire antitrust
L'enveloppe ravive le débat sur le vertical lock entre cloud providers et frontier labs. La FTC sous Lina Khan avait déjà ouvert une enquête sur les contrats cloud-AI lab en 2024. La nouvelle administration n'a pas formellement clos le dossier, et cette annonce risque de relancer l'examen.
4. Risque énergétique réel
3,5 GW dédiés à un seul client posent une question d'infrastructure énergétique territoriale. Google a signalé chercher activement des PPA (power purchase agreements) supplémentaires sur l'éolien, le solaire et le nucléaire SMR. La pénurie d'électricité en Virginie, en Iowa et en Oregon pour les data centers est déjà un sujet politique aux États-Unis.
Ce que ça change pour les développeurs et les startups IA
Le deal n'a pas qu'un impact macro. Plusieurs conséquences pratiques émergent côté développeurs, ISV et startups qui construisent au-dessus de Claude.
1. Stabilité d'inférence renforcée pour Claude Code et Cowork. Les rate limits et latences observées en mars/avril 2026 sur les pics — un point sensible décrit dans notre couverture du déploiement Claude Code chez NEC Japon (30 000 employés) — devraient s'estomper progressivement à mesure que la capacité TPU monte en puissance. Pour les équipes qui industrialisent Claude en production, c'est un signal fort sur la SLA disponibilité.
2. Pression à la baisse sur le prix par token. Avec une marge compute qui devrait s'améliorer côté Anthropic à mesure que l'allocation TPU Broadcom remplace les GPU H300 plus coûteux, on peut s'attendre à des baisses tarifaires sur Claude Sonnet et Haiku d'ici fin 2026. C'est cohérent avec la trajectoire prix du marché LLM décrite dans notre analyse vibe coding outils agentic AI dev 2026.
3. Multi-cloud par défaut sur les apps IA. Les développeurs qui construisent sur Claude doivent désormais composer avec un Anthropic présent sur AWS, GCP et Azure. Cela rend la portabilité applicative plus simple, mais pose la question de l'optimisation latence selon le cloud d'hébergement de l'app.
4. Opportunité pour les ISV indépendants. Les SDK monétisation qui s'appuient sur des modèles multiples — comme @idlen/chat-sdk qui orchestre Claude, GPT et Gemini — gagnent de la pertinence : les apps IA n'ont pas à se vendre à un seul provider compute pour rentabiliser leurs conversations.
Conclusion : la fin de l'illusion d'AI labs sans dette compute
Ce deal de 200 milliards confirme une réalité que les analystes pressentaient depuis 12 mois : les AI labs frontier ne sont plus des entreprises logiciel, mais des opérateurs d'infrastructure énergétique. Le ratio capex/opex d'Anthropic ressemble désormais davantage à celui d'AT&T ou d'Equinix qu'à celui de Salesforce ou de Stripe.
Pour les fondateurs qui construisent au-dessus, la leçon est claire : il faut bâtir des couches vraiment additionnelles au modèle de base. Les apps qui se contentent d'envelopper un appel API ne survivront pas — elles n'ont aucune marge à protéger une fois les LLM commoditisés. À l'inverse, les couches qui apportent monétisation native, distribution, ou contexte propriétaire survivront. C'est exactement la thèse de notre guide complet pour monétiser une app IA et le moteur derrière les outils developer-first comme Cursor, Claude Code et le SDK chat d'Idlen.
À surveiller dans les six prochains mois : le rythme de mise en service du programme Broadcom, la réaction d'Amazon (probable contre-engagement Trainium 4), et la position de la FTC sur ces vertical locks AI–cloud.
Pour creuser le sujet, voir nos analyses Anthropic à 900 milliards et l'IPO d'octobre 2026, Google Cloud Next 2026 et la plateforme agent A2A, et le partenariat AWS Trainium à 100 milliards.


