Pentagone : Anthropic toujours blacklisté, OpenAI, Google, xAI raflent les contrats militaires
Sept géants tech décrochent les contrats classifiés du Pentagone le 1er mai. Anthropic, désigné "supply chain risk" depuis mars, reste exclu malgré sa procédure judiciaire. Décryptage du bras de fer.
- 7 contrats classifiés attribués par le Pentagone le 1er mai 2026.
- Bénéficiaires : OpenAI, Google, Microsoft, AWS, NVIDIA, SpaceX, Reflection AI.
- Anthropic toujours désigné "supply chain risk" depuis mars 2026.
- Le bras de fer porte sur l usage de Claude pour armes autonomes et surveillance de masse.
Refuser les armes autonomes coûte aujourd hui à Anthropic plusieurs milliards de dollars de contrats. C est sans doute la décision éthique la plus chère jamais prise par un laboratoire d IA.
Le Département de la Guerre (rebaptisé ainsi par l administration Trump en septembre 2025) a confirmé jeudi 1er mai l attribution de sept contrats AI classifiés à OpenAI, Google, Microsoft, Amazon Web Services, NVIDIA, SpaceX et Reflection AI. Le montant cumulé de ces contrats est estimé entre 15 et 20 milliards de dollars sur trois ans.
Anthropic, pourtant pionnier des modèles IA grand public, est explicitement exclu de cette répartition pour la quatrième fois consécutive depuis février 2026.
Anthropic refuse depuis octobre 2025 d accorder au Pentagone un accès Claude "pour tout usage légal", incluant les systèmes d armes létales autonomes et la surveillance de masse domestique. La société argue que sa Constitution AI Policy interdit explicitement ces deux usages, sans exception.
Trois actes en 6 mois
Les chiffres du blackout
Les sept contrats portent sur : assistance IA aux opérations classifiées, analyse de renseignement signalisé (SIGINT), modélisation prédictive de menaces, automatisation de cyber-défense, simulation de scénarios géopolitiques. Plusieurs incluent explicitement le développement de systèmes d aide au ciblage pour des plateformes d armes.
La position d Anthropic
Le laboratoire dirigé par Dario Amodei a publié un communiqué détaillé en réponse, défendant trois principes :
Dario Amodei, dans une interview à Bloomberg : "Si être interdit du Pentagone est le prix de notre Constitution AI Policy, alors c est un prix que nous payons consciemment."
L impact économique
L exclusion représente un coût considérable pour Anthropic :
Pour autant, la situation financière d Anthropic reste solide : valorisée 183 milliards de dollars, avec un run-rate revenu de 70 milliards à fin 2026, et le contrat Google Cloud de 200 milliards annoncé hier confirme que la trajectoire civile reste robuste.
Le pari Reflection AI
L attribution la plus surprenante est celle de Reflection AI, jeune laboratoire fondé en 2024 par d anciens DeepMind, qui décroche son premier gros contrat fédéral. Reflection est connu pour avoir publiquement accepté les conditions Pentagone sur les usages militaires, là où Anthropic avait refusé.
Laboratoire fondé en 2024 par Misha Laskin et Ioannis Antonoglou (ex-DeepMind). Levée de 130 millions de dollars en mars 2025 menée par Sequoia. Modèles spécialisés en agents autonomes et raisonnement multi-étapes. Premier contrat Pentagone signé en mars 2026, élargi le 1er mai.
L axe géopolitique
Le différend Pentagone-Anthropic dépasse largement le cadre commercial. Il pose la question fondamentale : une entreprise privée peut-elle imposer ses limites éthiques à un État souverain ?
Les positions s organisent en deux camps :
Cette affaire fera jurisprudence. Si Anthropic gagne en appel, elle légitime un droit de veto privé sur les usages militaires. Si elle perd définitivement, elle ouvre la voie à une co-traitance armée généralisée des grands modèles IA.
Et la France dans tout ça ?
L exclusion d Anthropic crée une opportunité indirecte pour Mistral et les acteurs européens. Plusieurs agences fédérales américaines, frileuses sur l étiquette "supply chain risk", regardent désormais Mistral comme alternative viable pour les usages civils sensibles où Anthropic était dominant.
Mistral n a pas commenté, mais des sources internes confirment des "discussions exploratoires" avec deux agences fédérales US sur des contrats potentiels en 2026-2027.
Questions fréquentes
- Pourquoi Anthropic refuse-t-il vraiment les contrats Pentagone ?
- Anthropic refuse spécifiquement deux usages : les systèmes d'armes autonomes (Claude prenant des décisions de tir sans validation humaine) et la surveillance de masse domestique (profilage systématique de la population). La Constitution AI Policy de l'entreprise interdit ces deux usages explicitement. Anthropic accepte en revanche les usages militaires défensifs : cybersécurité, analyse documentaire, formation, médecine militaire.
- Que signifie la désignation 'supply chain risk' ?
- C'est une étiquette administrative du Département de la Défense historiquement réservée aux fournisseurs liés à des puissances étrangères hostiles (Huawei, ZTE, certains fabricants chinois). Son application à Anthropic, entreprise américaine, est une première. Elle permet d'exclure Anthropic non seulement des contrats militaires mais potentiellement de tous les contrats fédéraux par effet de contamination.
- Combien Anthropic perd-il financièrement ?
- Les analystes estiment le manque à gagner entre 4 et 6 milliards de dollars sur 2026-2028. Les contrats fédéraux représentent environ 20 pourcent des revenus IA enterprise des concurrents OpenAI et Google. Toutefois, la valorisation Anthropic à 183 Md$ et le run-rate de 70 Md$ fin 2026 montrent que la trajectoire civile reste solide.
- Reflection AI est-il vraiment un challenger sérieux ?
- Reflection est jeune mais son positionnement est stratégique. Fondée en 2024 par des ex-DeepMind, financée par Sequoia (130 M$ en mars 2025), elle a explicitement accepté les conditions Pentagone là où Anthropic refusait. Le contrat de mai 2026 est son premier gros deal fédéral mais valide un modèle de business : être le 'dernier challenger' acceptant les usages militaires sensibles.
- L'Europe peut-elle profiter de cette situation ?
- Indirectement, oui. L'exclusion d'Anthropic crée une fenêtre pour les agences fédérales américaines civiles cherchant des alternatives en usages sensibles. Mistral notamment serait en discussions exploratoires avec deux agences fédérales US selon plusieurs sources. C'est une opportunité commerciale mais surtout un signal politique : la souveraineté IA européenne devient un asset international.
Source : www.cnn.com