Meta MTIA 300/400/450/500 : la roadmap puces IA qui veut tuer la dépendance Nvidia — 115 à 135 Md$ de capex 2026
Meta dévoile une cadence MTIA inédite : une nouvelle puce custom AI tous les six mois (MTIA 300, 400, 450, 500), partenariat 1 GW avec Broadcom, dépendance Nvidia en chute. La capex 2026 atteint 115 à 135 Md$, soit le double de 2025. L'inférence devient le champ de bataille principal pour Llama 5 et Muse Spark.

Meta a publié une roadmap MTIA (Meta Training and Inference Accelerator) qui change l'équation pour Nvidia. Quatre générations de puces custom — MTIA 300, MTIA 400, MTIA 450 et MTIA 500 — vont se succéder à raison d'une nouvelle puce tous les six mois. La MTIA 300 est déjà déployée en production, la MTIA 400 entre en data center mi-2026, et le partenariat Broadcom structure une production en gravure 2 nm atteignant 1 GW de capacité d'inférence. Côté finances, Meta confirme un capex 2026 entre 115 et 135 Md$, soit le double des 72,2 Md$ de 2025. C'est le pari le plus agressif de l'histoire de Meta sur l'infrastructure IA, et il vise un objectif clair : réduire la dépendance Nvidia sur l'inférence pour Llama 5 et Muse Spark.
La roadmap MTIA en un coup d'œil
| Puce | Statut | Cible workload | Co-design partner |
|---|---|---|---|
| MTIA 300 | Déployée en data center (semaines récentes) | Inférence ranking, recommandation, ads | Broadcom (1ère génération volume) |
| MTIA 400 | Tests terminés, déploiement H1 2026 | Inférence LLM (Llama 5, Muse Spark) | Broadcom 2 nm |
| MTIA 450 | Roadmap, opérationnel 2027 | Inférence multimodale + entraînement partiel | Broadcom + interconnect Meta |
| MTIA 500 | Roadmap, opérationnel 2027-2028 | Entraînement frontier-scale | Broadcom + co-packaging optique |
Une nouvelle puce tous les six mois : c'est une cadence inédite pour un hyperscaler. Google publie un nouveau TPU tous les 18-24 mois, AWS Trainium / Inferentia tournent sur 24 mois, et Microsoft Maia n'a pas encore atteint la maturité volume. Meta s'aligne en pratique sur la cadence NVIDIA Hopper → Blackwell → Rubin, mais en interne et sur ses propres workloads.
Pourquoi 115 à 135 milliards de capex en 2026
Les 115-135 Md$ de capex 2026 décomposent à peu près ainsi (estimations consolidées presse + analystes) :
- ~70-80 Md$ sur les GPU Nvidia (H200, B100, B200) et les data centers associés
- ~25-30 Md$ sur les MTIA et les fabs Broadcom / TSMC
- ~10-15 Md$ sur l'énergie, refroidissement, fibre, terrain
- ~5-10 Md$ sur le réseau intra-DC (NVLink, Infiniband, custom interconnect)
Comparé aux 72,2 Md$ de 2025, c'est un saut de +59% à +87% sur un seul exercice. Aucun hyperscaler n'a annoncé une telle accélération en 2026 — Microsoft tourne autour de 90-100 Md$, Amazon 80-90 Md$, Google 75-85 Md$. Meta dépasse ses pairs sur la capex pure, ce qui valide la thèse Mark Zuckerberg de "superintelligence labs first", déjà visible avec le pivot Muse Spark en frontier-fermé.
L'objectif réel : casser la dépendance Nvidia sur l'inférence
Meta opère parmi les plus grandes flottes d'inférence au monde — newsfeed, Reels, ads ranking, Instagram, WhatsApp Meta AI, et désormais Llama 5 et Muse Spark consommer interne. Selon les estimations, plus de 60% du compute Meta est aujourd'hui de l'inférence, pas de l'entraînement. Or :
- Nvidia margin sur la couche inférence est élevé (~70% gross margin sur H100/B100)
- Les workloads d'inférence sont prévisibles (forme des modèles connue, batchs réguliers), donc parfaits candidats pour ASIC dédiés
- Les coûts d'opération à long terme justifient un investissement custom : sur 5 ans, MTIA réduit le coût par token d'environ 35-50% selon les premiers benchmarks Meta
C'est exactement la même logique qui a conduit Google à développer les TPU dès 2015. Meta est en retard de ~10 ans sur cette stratégie, mais comble l'écart à un rythme remarquable. Le partenariat Broadcom apporte le co-design ASIC + l'expertise sérialisation packaging, sans laquelle Meta ne pourrait pas tenir cette cadence.
Le rôle stratégique de Broadcom
Broadcom est devenu le co-pilote ASIC silencieux des hyperscalers. Le partenariat Meta s'inscrit dans une trajectoire qui inclut déjà :
- Google : TPU v6/v7 co-design (depuis 2018, élargi en 2024)
- OpenAI : custom inference chip (en discussion 2025-2026)
- AWS : Trainium 3 et Inferentia 3 (annoncés)
- Apple : on-device silicon AI (Neural Engine, indirect)
Broadcom devient ainsi le "deuxième choix Nvidia" pour les hyperscalers qui veulent réduire leur dépendance. Sa capitalisation boursière a explosé corrélativement (1,5 T$ en avril 2026, derrière Nvidia 4,8 T$ et Microsoft 4,2 T$). Le deal Meta-Broadcom 1 GW de capacité dédiée est le plus important annoncé à ce jour.
L'impact sur Nvidia : pas de panique, mais une érosion
Nvidia perdra-t-il sa hégémonie ? Non. L'entraînement frontier-scale (modèles 1-10 T paramètres) reste verrouillé par CUDA, NVLink et l'écosystème. Les MTIA 500 prévues 2027-2028 seront le premier vrai test sur l'entraînement.
Mais sur l'inférence, l'érosion commence :
- Aujourd'hui, Meta achète encore 60-70% de ses GPU à Nvidia
- Fin 2026, MTIA 400 absorbera 30-40% de la charge inférence
- Fin 2027, MTIA 450 + 500 pourraient absorber 60% ou plus
Si tous les hyperscalers répliquent ce mouvement, Nvidia perd 15-25% de son TAM inférence d'ici 2028. La marge sera maintenue mais le mix change. C'est une dynamique parallèle à ce que Google avait commencé avec TPU v8 sur Gemini Enterprise, mais à plus grande échelle.
Pourquoi cette annonce maintenant
Plusieurs facteurs convergent en avril 2026 :
- Course aux modèles frontier. GPT-5.5 (OpenAI), Opus 4.7 (Anthropic), Gemini 3 (Google), DeepSeek V5 — Meta doit servir Llama 5 et Muse Spark à l'échelle sans attendre des allocations Nvidia.
- Pression actionnariale. La capex 2025 (~72 Md$) a fait débat. La transparence sur la roadmap MTIA donne un cadre rationnel aux 115-135 Md$ de 2026 : ce n'est pas une dérive, c'est un plan.
- Géopolitique. La production Broadcom passe par TSMC Taiwan et Arizona. La diversification fournisseurs réduit le risque US-Chine sur les approvisionnements.
- Talent superintelligence. Meta Superintelligence Labs recrute massivement (offres dépassant 50 M$ pour les seniors). La promesse "compute infini" vaut autant que les salaires.
Pour les développeurs et éditeurs : ce qui change
1. Llama 5 hostera moins cher en interne — pas forcément moins cher en API. Meta optimise ses coûts d'opération. Cela peut accélérer la sortie d'un Llama 5 plus performant, mais ne garantit pas une baisse des prix d'API publique (qui dépend de la stratégie commerciale, pas du coût marginal).
2. La fragmentation hardware s'accentue. Si chaque hyperscaler a son ASIC propriétaire, les frameworks doivent abstraire (PyTorch + XLA + MTIA toolchain + Trainium SDK + TPU XLA + CUDA). Les éditeurs d'outils ML (Modal, Replicate, Together AI) gagnent en valeur en mutualisant cette complexité.
3. L'inférence régionale devient un argument commercial. Avec MTIA déployées dans des data centers Meta (US, Europe, Asie), Meta peut proposer des SLA d'inférence régionaux compétitifs. Les apps IA qui ont besoin de latence < 50 ms sur des charges Llama trouveront ici un nouveau fournisseur.
4. Les solutions de monétisation natives prennent de l'épaisseur. Si Meta opère ses propres modèles à coût marginal réduit, l'écosystème des publishers d'apps IA (chatbots, assistants verticaux, navigateurs IA) gagne mécaniquement en attractivité — d'où l'importance croissante de SDKs comme Idlen pour la monétisation native chat IA.
Les zones d'incertitude
Le yield sur 2 nm Broadcom. La gravure 2 nm chez TSMC reste en montée en puissance. Un retard yield de 6 mois pourrait décaler MTIA 450 et MTIA 500 de manière significative.
La compatibilité Llama 5 avec MTIA. Llama 5 n'est pas encore sorti. Si l'architecture finale (mixture of experts, attention long contexte) ne map pas bien sur MTIA 400, Meta gardera des achats Nvidia massifs en 2026.
La pression réglementaire. La FTC US et la Commission européenne surveillent les deals exclusifs hyperscaler-fab. Un deal 1 GW Broadcom pourrait déclencher une enquête anti-concentration.
En résumé :
- Meta confirme 4 puces custom MTIA (300, 400, 450, 500) sur 24 mois
- Une nouvelle puce tous les 6 mois — cadence inédite hyperscaler
- Capex 2026 : 115-135 Md$ (vs 72 Md$ en 2025)
- Partenariat Broadcom sur 1 GW, gravure 2 nm
- Cible : casser la dépendance Nvidia sur l'inférence
- MTIA 300 déjà en production, MTIA 400 H1 2026, 450 et 500 en 2027-2028
- Implication directe sur Llama 5 et Muse Spark
Le pari MTIA n'est pas seulement une question de coûts. C'est un réalignement stratégique qui rapproche Meta du modèle Google (TPU vertical intégré) et l'éloigne du modèle Microsoft (achat massif Nvidia). À 115-135 Md$ de capex, Meta ne peut plus se permettre une roadmap incertaine. Si MTIA 400 atteint 80% de la performance H200 sur l'inférence Llama 5 d'ici fin 2026, le calcul économique bascule définitivement. Si elle plafonne en dessous, Meta restera contraint d'acheter chez Nvidia en 2027 — ce qui justifierait un dérapage capex à 150 Md$+. Le marché regardera le premier benchmark MTIA 400 vs B200 comme l'événement infrastructure le plus déterminant de l'année.
Sources : Meta AI Blog — Four MTIA Chips in Two Years: Scaling AI Experiences for Billions, CNBC — Meta rolls out in-house AI chips weeks after massive Nvidia, AMD deals, Data Center Dynamics — Meta estimates 2026 capex to be between $115-135bn, Oplexa — Meta Broadcom AI Chip Deal 2026: 1GW MTIA, 2nm, Futurum — AI Capex 2026: The $690B Infrastructure Sprint.


