Pentagone : 8 contrats IA classifiés signés avec OpenAI, Google, Microsoft, AWS, Nvidia, SpaceX, Oracle et Reflection — Anthropic définitivement exclu
Le 1er mai 2026, le Pentagone a finalisé des accords IA pour les réseaux classifiés IL6/IL7 avec huit géants tech, en excluant volontairement Anthropic. Le contrat de 200 M$ d'Anthropic est mort. Analyse complète des enjeux militaires, géopolitiques et éthiques.

Le 1er mai 2026, le Department of Defense (Pentagone) a finalisé un ensemble d'accords IA pour les réseaux classifiés IL6 et IL7 avec huit géants technologiques : OpenAI, Google, Microsoft, Amazon Web Services, Nvidia, SpaceX, Oracle et la startup Reflection AI. Selon CNN Business et Breaking Defense, ces nouveaux contrats remplacent l'accord de 200 millions de dollars signé avec Anthropic en juillet 2025 — un contrat qui faisait alors d'Anthropic la première AI lab à travailler sur des systèmes classifiés du Pentagone. Anthropic est définitivement exclu. Le marché militaire IA américain vient de basculer.
Le contexte : pourquoi Anthropic a été éjecté
Pour comprendre l'ampleur du basculement, il faut rappeler le timeline. Anthropic était initialement le fournisseur de référence du Pentagone sur l'IA. Le contrat de 200 M$ de juillet 2025 le confirmait. Mais la rupture s'est accélérée à partir de fin 2025 sur un point très précis : la clause d'usage.
L'administration Trump, via le DoD, voulait que Claude soit utilisable « pour toutes les fins légales » — y compris les armes autonomes et la surveillance de masse. Anthropic a refusé. Comme on l'avait analysé dans le ban Pentagone d'Anthropic en mars 2026, la position de Dario Amodei a été cohérente : la Usage Policy d'Anthropic interdit explicitement l'usage de Claude pour des armes autonomes ou des systèmes de surveillance non-ciblés. Il y a eu une tentative de réconciliation en avril, notamment via le partenariat Mythos, mais elle a échoué.
Le 1er mai 2026, le Pentagone tranche : les sept autres géants tech (et Reflection AI) acceptent les clauses, donc gagnent les contrats. Anthropic ne signe pas, donc perd tout.
Les huit gagnants : qui signe quoi
| Entreprise | Type de contrat | Niveau classification |
|---|---|---|
| OpenAI | Modèles frontier, GPT-5.4 et Codex | IL6/IL7 |
| Gemini Enterprise, agents A2A | IL6/IL7 | |
| Microsoft | Foundry, Azure OpenAI Services | IL6/IL7 |
| Amazon AWS | Bedrock, Trainium 3 hosting | IL6/IL7 |
| Nvidia | NeMo, infra GPU H300, NeMoClaw | IL6/IL7 |
| SpaceX | Starlink IL6/IL7, Grok via xAI partnership | IL6/IL7 |
| Oracle | Cerner Defense, OCI Government | IL6/IL7 |
| Reflection AI | Modèle frontier propriétaire, agents tactiques | IL6/IL7 |
L'inclusion de Reflection AI est la surprise. Cette startup — fondée par d'anciens DeepMind, valorisée à environ 5 milliards début 2026 — entre directement dans la cour des géants. C'est le signe que le DoD veut diversifier hors des big tech historiques pour avoir des leviers de négociation. Comme le rappelait notre coverage de NeMoClaw chez Nvidia, Nvidia avait préparé l'arrivée des agents en environnement classifié dès fin 2025.
Les niveaux IL6 et IL7 : ce que ça signifie vraiment
Les niveaux d'Impact Level définis par la Defense Information Systems Agency (DISA) structurent le déploiement IA militaire :
- IL2 : données publiques non-sensibles
- IL4 : controlled unclassified information (CUI)
- IL5 : higher sensitivity CUI, mission-critical systems
- IL6 : informations classifiées SECRET
- IL7 : informations classifiées TOP SECRET
Les contrats du 1er mai donnent accès à IL6/IL7. Concrètement, cela signifie que Claude (Anthropic) ne tournera pas sur les réseaux Secret/TS, mais que GPT, Gemini, Grok, ainsi que Reflection's frontier model, le pourront. Pour les chercheurs IA chez OpenAI ou Google, c'est une opportunité business massive — mais aussi un défi éthique non-trivial. Plusieurs ingénieurs auraient déjà manifesté en interne, notamment chez Google (où le précédent Project Maven en 2018 avait conduit à des démissions).
Pourquoi 7 entreprises ont accepté ce qu'Anthropic a refusé
La question éthique est centrale. Pourquoi sept géants signent un contrat qui inclut potentiellement des armes autonomes, là où Anthropic refuse ?
1. Une lecture différente des clauses
OpenAI, Google et Microsoft ont des Usage Policies plus permissives que celle d'Anthropic, depuis une révision OpenAI en janvier 2024 qui avait retiré l'interdiction explicite des « military and warfare applications ». La formulation actuelle d'OpenAI laisse plus de marge d'interprétation, à charge du commanding officer ou de l'opérateur d'éviter les usages prohibés au cas par cas. La position d'Anthropic est plus stricte : la policy sert d'enveloppe technique, pas seulement de guideline morale.
2. La pression revenue
À 200 M$ par contrat (probablement plus pour les contrats du 1er mai, certains observateurs évoquant 300-500 M$ par firme), les sommes en jeu sont significatives. Pour OpenAI qui doit financer son super-app GPT-5.5 et son agent Codex Atlas, c'est un revenu non-corrélé aux subscriptions consumer. Pour Google qui investit 40 milliards dans Anthropic, c'est une compensation stratégique : Google joue les deux côtés.
3. Un effet de précédent réglementaire
Avec les nouveaux contrats, le DoD crée un précédent juridique américain sur l'usage IA militaire. Les firmes signataires participent à la définition des règles. Anthropic, en restant à l'écart, perd cette voix — un point que critiquent ouvertement plusieurs employés (rumeurs internes confirmées par Bloomberg).
Les arguments d'Anthropic et la position de Dario Amodei
Dario Amodei a publiquement réaffirmé sa position : la mission d'Anthropic est de construire une IA sûre, et certains usages militaires sont incompatibles avec cette mission. C'est une position que défend également la communauté safety-research, et qu'on retrouvait déjà dans notre analyse de Project Glasswing et Mythos. Anthropic n'est pas anti-défense — la firme garde des clients gouvernementaux civils — mais refuse les systèmes d'armes autonomes et la surveillance de masse.
Cette position a un coût business mesurable. Selon les chiffres internes, le manque à gagner sur le pipeline DoD serait de l'ordre de 3 à 5 milliards de dollars sur 5 ans. À mettre en perspective avec les 40 milliards d'ARR run rate estimés par Anthropic, c'est marginal — mais pas zéro.
Reflection AI : l'outsider qui rafle un IL6/IL7
L'entrée de Reflection AI dans le club des fournisseurs classifiés est probablement le développement le plus surprenant. Reflection a été fondée fin 2024 par des anciens DeepMind, avec l'ambition de construire un modèle frontier orienté reasoning agentique pour environnements à haute responsabilité — finance, santé, défense. La levée de leur Série C (estimée à 800 M$ à 5 Md$ de valorisation, début 2026) fait écho au tour Cursor à 50 milliards : les VC américains poussent agressivement sur la défense IA.
C'est aussi un signal géopolitique. Avec des inquiétudes croissantes sur la souveraineté IA face à la Chine (cf. DeepSeek V4 levant un tour à 1 000 milliards et Tencent/Alibaba à 20 milliards), les États-Unis sécurisent leur supply chain IA militaire en intégrant un outsider domestique (Reflection) à côté des big tech.
Les implications géopolitiques
Le bouleversement va au-delà des États-Unis. Trois conséquences à suivre :
1. L'Europe se positionne
Avec le UK Sovereign AI Fund de 500 millions et la pression française pour une commission d'enquête sur la souveraineté numérique, l'Europe accélère sa propre stratégie souveraineté. Mistral, AMI Labs (Yann LeCun), et probablement BAE Systems / Thales ouvrent des programmes IA défense.
2. La Chine et la Russie ré-arment
L'exclusion d'Anthropic et la signature massive avec sept géants américains envoient un signal clair à Pékin et Moscou : les États-Unis intègrent l'IA dans leur chaîne militaire. Réponse attendue : accélération du programme Tiangong de l'EPL et déploiement plus rapide de Yandex / Sber Cloud sur les systèmes russes.
3. Les startups défense IA explosent
L'inclusion de Reflection ouvre la voie à un deuxième cercle de startups défense IA. Shield AI a déjà levé 2 milliards de Série G, Anduril continue son expansion, et des nouveaux entrants (Scout AI, Helsing, Hadrian) lèvent des Séries A monstrueuses.
Ce que ça change pour les développeurs IA et les apps grand public
Pour les développeurs et apps grand public, l'impact direct est limité — mais le contexte global change :
- Les modèles publics restent identiques. GPT-5.4, Claude Opus 4.7, Gemini 2.5 Pro continuent d'être disponibles via API standard
- La concurrence technologique s'intensifie. Avec des contrats DoD à 300-500 M$, OpenAI et Google ont un levier de financement supplémentaire pour pousser le frontier (GPT-6, Gemini 3.5)
- L'arbitrage des talents bouge. Comme on l'avait analysé dans le brain drain Meta-Google vers les startups, une partie des chercheurs safety qui ne veulent pas travailler sur défense vont migrer vers Anthropic ou de nouvelles structures
Pour les éditeurs d'apps IA grand public, le message reste cohérent : la monétisation des produits IA passe par les utilisateurs civils, pas le DoD. Le SDK chat et les formats publicitaires natifs comme ceux d'Idlen restent la voie la plus rapide pour transformer une app IA en produit rentable, sans dépendre des cycles de procurement gouvernementaux.
Conclusion : la fracture éthique de l'IA américaine est consommée
Le 1er mai 2026 marque un point de bascule éthique dans l'industrie IA américaine. Pour la première fois depuis Project Maven en 2018, les sept plus grosses AI labs domestiques (Anthropic exclue) ont collectivement décidé que les contrats militaires classifiés valent l'entorse aux Usage Policies. C'est un précédent qui va structurer les 10 prochaines années.
Anthropic, en restant à l'écart, paie un prix business. Mais gagne un positionnement éthique qui pourrait, à terme, devenir un avantage commercial massif sur les segments santé, education, et clients européens sensibles à la souveraineté. Comme l'écrit Dario Amodei dans son dernier mémo interne : « Notre brand est notre policy. » Les prochains mois diront si cette discipline paie en termes de valorisation IPO — un sujet décisif pour la trajectoire d'Anthropic vers une IPO en octobre 2026.
Pour continuer sur les enjeux IA militaires et géopolitiques, voir notre coverage de 100 000 agents IA déployés au Pentagone, notre analyse du Trump-Anthropic ban initial et notre guide complet sur la monétisation des apps IA.


