IA5 min de lecturePar Paul Lefizelier

Trump menace Anthropic d'un décret : l'IA « woke » bannie du Pentagone, OpenAI récupère le contrat

Après avoir qualifié Anthropic de risque pour la sécurité nationale, l'administration Trump prépare un décret exécutif pour bannir la startup de toutes les agences fédérales. OpenAI hérite du contrat militaire. Anthropic contre-attaque en justice.

Trump menace Anthropic d'un décret : l'IA « woke » bannie du Pentagone, OpenAI récupère le contrat

Le bras de fer entre l'administration Trump et Anthropic vient de franchir un seuil critique. Après le ban d'Anthropic par le Pentagone et la menace d'un décret exécutif présidentiel, la startup de Dario Amodei a saisi la justice fédérale entre le 9 et le 11 mars 2026. En toile de fond : le contrat militaire IA le plus stratégique de la décennie — récupéré par OpenAI une heure après l'éviction de son rival. Le conflit Trump-Anthropic redessine les rapports de force entre Washington et la Silicon Valley sur la gouvernance de l'intelligence artificielle.

Du ban Truth Social au décret exécutif : comment s'est envenimé le conflit

Tout s'accélère le 27 février 2026. Le département de la Défense désigne officiellement Anthropic comme « supply-chain risk » — un risque pour la chaîne d'approvisionnement de défense. Le même jour, Donald Trump publie sur Truth Social un message sans ambiguïté, ordonnant à « CHAQUE agence fédérale » de « CESSER IMMÉDIATEMENT » l'utilisation des produits Anthropic. Le président qualifie la startup de « woke » et « leftwing ».

Les termes de l'ultimatum sont clairs : application immédiate pour les agences civiles, période de transition de six mois pour le DoD. Trump ajoute qu'il utilisera « le plein pouvoir de la Présidence pour assurer la conformité, avec des conséquences civiles et pénales importantes ».

Deux semaines plus tard, entre le 9 et le 11 mars 2026, Anthropic passe à l'offensive judiciaire et attaque le ban du Pentagone devant un tribunal fédéral. En parallèle, la Maison-Blanche prépare un décret exécutif qui formaliserait l'exclusion à l'ensemble de l'appareil fédéral.

Le coeur du désaccord : que refusait Anthropic ?

Derrière la rhétorique politique se cache un désaccord technique et éthique profond. Claude 4, le modèle phare d'Anthropic, est utilisé par plusieurs agences de renseignement américaines et des milliers de sous-traitants militaires. Le Pentagone souhaitait élargir cet usage à des cas opérationnels sensibles : désactivation des garde-fous éthiques du modèle, utilisation pour des capacités de surveillance autonome, et intégration dans des systèmes pouvant servir à l'armement.

Dario Amodei, CEO d'Anthropic, a refusé. Sa position : lever ces restrictions exposerait la technologie à des usages de surveillance de masse et d'armes autonomes incompatibles avec la charte de sécurité de l'entreprise. Un refus qui a transformé un partenariat commercial en crise politique.

OpenAI en embuscade : le grand gagnant du bras de fer

Le timing parle de lui-même. Le 27 février, une heure après la désignation d'Anthropic comme risque sécuritaire, OpenAI annonce un accord avec le Pentagone. Sam Altman, qui avait accepté les conditions du département de la Défense plus tôt en 2026, affirme que son entreprise maintiendra ses propres garde-fous de sécurité — tout en répondant aux besoins opérationnels du DoD.

La stratégie d'Altman pourrait se résumer en deux mots : alignement commercial. Là où Anthropic trace une ligne rouge sur l'usage militaire offensif, OpenAI choisit la coopération encadrée. Un pari qui lui offre aujourd'hui un quasi-monopole sur le marché fédéral de l'IA générative — et les milliards de dollars de contrats qui vont avec.

La question que pose ce transfert : les garde-fous promis par OpenAI résisteront-ils à la pression d'un client qui vient de démontrer qu'il n'hésite pas à évincer ceux qui lui disent non ?

Les enjeux pour l'Europe et la France

Le conflit américain résonne directement de ce côté de l'Atlantique. Si Washington peut bannir du jour au lendemain un fournisseur d'IA pour des raisons politiques, quelle garantie ont les gouvernements européens qui dépendent de ces mêmes modèles ?

La France est particulièrement exposée. Des administrations et des entreprises stratégiques utilisent Claude d'Anthropic ou GPT d'OpenAI dans leurs workflows. Le précédent Trump-Anthropic illustre le risque d'une dépendance technologique à des acteurs soumis aux aléas de la politique intérieure américaine.

Pour Mistral AI, le champion français de l'IA, cette crise représente un argument de vente inédit. La startup d'Arthur Mensch, qui vise 1 milliard d'euros de revenus en 2026, pourrait capitaliser sur la demande de souveraineté numérique — à condition de prouver que ses modèles atteignent le niveau opérationnel des géants américains. Plusieurs sources proches du ministère des Armées indiquent que des discussions exploratoires sur l'usage de modèles souverains se sont intensifiées ces dernières semaines.


Anthropic peut-il survivre sans l'État fédéral américain comme client ? La startup, valorisée à plus de 60 milliards de dollars, conserve une base commerciale solide dans le privé. Mais le signal envoyé aux entreprises est redoutable : travailler avec Anthropic, c'est désormais risquer de déplaire à la Maison-Blanche. Le précédent que pose cette affaire dépasse le cas Anthropic. Il pose la question fondamentale de 2026 : qui décide des limites éthiques de l'IA — les ingénieurs qui la construisent, ou les gouvernements qui l'achètent ?

#trump #anthropic #openai #pentagone #droit-numerique #geopolitique #ia-militaire #dario-amodei #sam-altman