NewsIA
En direct
Régulation & Éthique

Pentagone : Anthropic toujours blacklisté, OpenAI, Google, xAI raflent les contrats militaires

Sept géants tech décrochent les contrats classifiés du Pentagone le 1er mai. Anthropic, désigné "supply chain risk" depuis mars, reste exclu malgré sa procédure judiciaire. Décryptage du bras de fer.


PartagerXLinkedInEmail
Pentagone : Anthropic toujours blacklisté, OpenAI, Google, xAI raflent les contrats militaires
À retenir
  • 7 contrats classifiés attribués par le Pentagone le 1er mai 2026.
  • Bénéficiaires : OpenAI, Google, Microsoft, AWS, NVIDIA, SpaceX, Reflection AI.
  • Anthropic toujours désigné "supply chain risk" depuis mars 2026.
  • Le bras de fer porte sur l usage de Claude pour armes autonomes et surveillance de masse.

Refuser les armes autonomes coûte aujourd hui à Anthropic plusieurs milliards de dollars de contrats. C est sans doute la décision éthique la plus chère jamais prise par un laboratoire d IA.

Le Département de la Guerre (rebaptisé ainsi par l administration Trump en septembre 2025) a confirmé jeudi 1er mai l attribution de sept contrats AI classifiés à OpenAI, Google, Microsoft, Amazon Web Services, NVIDIA, SpaceX et Reflection AI. Le montant cumulé de ces contrats est estimé entre 15 et 20 milliards de dollars sur trois ans.

Anthropic, pourtant pionnier des modèles IA grand public, est explicitement exclu de cette répartition pour la quatrième fois consécutive depuis février 2026.

⚔️
Le différend

Anthropic refuse depuis octobre 2025 d accorder au Pentagone un accès Claude "pour tout usage légal", incluant les systèmes d armes létales autonomes et la surveillance de masse domestique. La société argue que sa Constitution AI Policy interdit explicitement ces deux usages, sans exception.

Le bras de ferChronologie d une exclusion

Trois actes en 6 mois

  • Octobre 2025 : Anthropic refuse les conditions Pentagone sur l usage Claude.
  • Février 2026 : Trump annonce publiquement la fin de toute relation avec Anthropic.
  • Mars 2026 : le Pentagone désigne Anthropic "supply chain risk", étiquette historiquement réservée aux fournisseurs liés à des puissances étrangères.
  • Avril 2026 : un juge fédéral de Californie bloque temporairement la décision.
  • Avril 2026 : la cour d appel fédérale rejette la demande de relief d Anthropic, la désignation reste effective.
  • 1er mai 2026 : 7 contrats attribués sans Anthropic.
  • Les chiffres du blackout

    7Contrats attribués
    ~18Md$Cumulé estimé
    3 ansDurée moyenne
    0Pour Anthropic
    📋
    Que couvrent les contrats ?

    Les sept contrats portent sur : assistance IA aux opérations classifiées, analyse de renseignement signalisé (SIGINT), modélisation prédictive de menaces, automatisation de cyber-défense, simulation de scénarios géopolitiques. Plusieurs incluent explicitement le développement de systèmes d aide au ciblage pour des plateformes d armes.

    La position d Anthropic

    Le laboratoire dirigé par Dario Amodei a publié un communiqué détaillé en réponse, défendant trois principes :

  • Refus catégorique des armes autonomes : Claude ne peut pas être utilisé pour décider d engager une cible létale sans validation humaine.
  • Refus de la surveillance de masse domestique : Anthropic ne fournira pas Claude pour profiler systématiquement la population américaine.
  • Acceptation des autres usages militaires : Claude reste autorisé pour la cybersécurité défensive, l analyse documentaire, la formation, et la médecine militaire.
  • Dario Amodei, dans une interview à Bloomberg : "Si être interdit du Pentagone est le prix de notre Constitution AI Policy, alors c est un prix que nous payons consciemment."

    L impact économique

    L exclusion représente un coût considérable pour Anthropic :

  • Les contrats fédéraux représentent environ 20 % des revenus des concurrents OpenAI et Google sur l IA enterprise.
  • Anthropic était projeté à 4 à 6 milliards de dollars de contrats fédéraux US sur 2026-2028 selon les analystes.
  • L étiquette "supply chain risk" peut contaminer les contrats civils : plusieurs agences gouvernementales hésitent désormais à renouveler avec Anthropic même hors défense.
  • Pour autant, la situation financière d Anthropic reste solide : valorisée 183 milliards de dollars, avec un run-rate revenu de 70 milliards à fin 2026, et le contrat Google Cloud de 200 milliards annoncé hier confirme que la trajectoire civile reste robuste.

    Le pari Reflection AI

    L attribution la plus surprenante est celle de Reflection AI, jeune laboratoire fondé en 2024 par d anciens DeepMind, qui décroche son premier gros contrat fédéral. Reflection est connu pour avoir publiquement accepté les conditions Pentagone sur les usages militaires, là où Anthropic avait refusé.

    🚀
    Reflection AI

    Laboratoire fondé en 2024 par Misha Laskin et Ioannis Antonoglou (ex-DeepMind). Levée de 130 millions de dollars en mars 2025 menée par Sequoia. Modèles spécialisés en agents autonomes et raisonnement multi-étapes. Premier contrat Pentagone signé en mars 2026, élargi le 1er mai.

    L axe géopolitique

    Le différend Pentagone-Anthropic dépasse largement le cadre commercial. Il pose la question fondamentale : une entreprise privée peut-elle imposer ses limites éthiques à un État souverain ?

    Les positions s organisent en deux camps :

  • Camp "souveraineté étatique" (administration Trump, faucons républicains) : un fournisseur ne peut pas dicter au Pentagone ce qu il a le droit de faire avec un outil acheté.
  • Camp "responsabilité corporate" (Anthropic, plusieurs ONG, l UE) : les acteurs privés de l IA ont une responsabilité directe sur les usages de leurs modèles, y compris vis-à-vis des États.
  • Cette affaire fera jurisprudence. Si Anthropic gagne en appel, elle légitime un droit de veto privé sur les usages militaires. Si elle perd définitivement, elle ouvre la voie à une co-traitance armée généralisée des grands modèles IA.

    Et la France dans tout ça ?

    L exclusion d Anthropic crée une opportunité indirecte pour Mistral et les acteurs européens. Plusieurs agences fédérales américaines, frileuses sur l étiquette "supply chain risk", regardent désormais Mistral comme alternative viable pour les usages civils sensibles où Anthropic était dominant.

    Mistral n a pas commenté, mais des sources internes confirment des "discussions exploratoires" avec deux agences fédérales US sur des contrats potentiels en 2026-2027.

    ComputeAnthropic boucle 200 Md$ avec Google Cloud

    SouverainetéMistral × La Banque Postale, le pari souverain

    Questions fréquentes

    Pourquoi Anthropic refuse-t-il vraiment les contrats Pentagone ?
    Anthropic refuse spécifiquement deux usages : les systèmes d'armes autonomes (Claude prenant des décisions de tir sans validation humaine) et la surveillance de masse domestique (profilage systématique de la population). La Constitution AI Policy de l'entreprise interdit ces deux usages explicitement. Anthropic accepte en revanche les usages militaires défensifs : cybersécurité, analyse documentaire, formation, médecine militaire.
    Que signifie la désignation 'supply chain risk' ?
    C'est une étiquette administrative du Département de la Défense historiquement réservée aux fournisseurs liés à des puissances étrangères hostiles (Huawei, ZTE, certains fabricants chinois). Son application à Anthropic, entreprise américaine, est une première. Elle permet d'exclure Anthropic non seulement des contrats militaires mais potentiellement de tous les contrats fédéraux par effet de contamination.
    Combien Anthropic perd-il financièrement ?
    Les analystes estiment le manque à gagner entre 4 et 6 milliards de dollars sur 2026-2028. Les contrats fédéraux représentent environ 20 pourcent des revenus IA enterprise des concurrents OpenAI et Google. Toutefois, la valorisation Anthropic à 183 Md$ et le run-rate de 70 Md$ fin 2026 montrent que la trajectoire civile reste solide.
    Reflection AI est-il vraiment un challenger sérieux ?
    Reflection est jeune mais son positionnement est stratégique. Fondée en 2024 par des ex-DeepMind, financée par Sequoia (130 M$ en mars 2025), elle a explicitement accepté les conditions Pentagone là où Anthropic refusait. Le contrat de mai 2026 est son premier gros deal fédéral mais valide un modèle de business : être le 'dernier challenger' acceptant les usages militaires sensibles.
    L'Europe peut-elle profiter de cette situation ?
    Indirectement, oui. L'exclusion d'Anthropic crée une fenêtre pour les agences fédérales américaines civiles cherchant des alternatives en usages sensibles. Mistral notamment serait en discussions exploratoires avec deux agences fédérales US selon plusieurs sources. C'est une opportunité commerciale mais surtout un signal politique : la souveraineté IA européenne devient un asset international.

    Source : www.cnn.com

    À lire aussi