Anthropic signe le plus gros contrat cloud de l'histoire de l'IA : 200 milliards de dollars avec Google
Anthropic engage 200 Md$ sur 5 ans pour louer des TPU Google. Un pari sans précédent qui scelle la dépendance compute du laboratoire et redessine la carte des hyperscalers IA.
- 200 milliards de dollars engagés par Anthropic chez Google Cloud sur 5 ans.
- Plusieurs gigawatts de capacité TPU réservés, premières unités fin 2027.
- Le plus gros contrat cloud jamais signé, devant Microsoft / OpenAI.
- Anthropic devient structurellement dépendant de Google sur 60% de son compute.
200 milliards, c est l équivalent de la valorisation d Airbus. Anthropic vient d engager autant pour louer des puces. La nouvelle économie de l IA se chiffre désormais en gigawatts.
Anthropic a confirmé hier, via un communiqué relayé par The Information, l engagement de 200 milliards de dollars sur cinq ans auprès de Google Cloud. Le contrat, dont les premières unités entreront en service fin 2027, porte sur plusieurs gigawatts de capacité TPU et représente le plus gros engagement compute jamais signé par un laboratoire d IA.
Laboratoire IA fondé en 2021 par d anciens d OpenAI (Dario et Daniela Amodei). Édite Claude, modèle concurrent direct de GPT et Gemini. Valorisée 183 milliards de dollars à sa dernière levée. 5 000 employés.
Puce IA propriétaire conçue par Google depuis 2016, alternative aux GPU NVIDIA. Optimisée pour l entraînement et l inférence de grands modèles. La génération v6 (Trillium) sortie en 2025 atteint 4,7 PFLOPS par puce.
Un engagement sans précédent
Le précédent record était détenu par OpenAI avec son contrat Microsoft Azure de 250 milliards (révélé en janvier 2026), mais celui-ci s étalait sur 7 ans et incluait une participation au capital. L engagement Anthropic est plus pur, et plus bref : 5 ans de location pure, sans equity échangé.
Pourquoi maintenant ?
Anthropic boucle son virage hardware après 18 mois de négociations parallèles avec Amazon (qui détient déjà 8 milliards au capital) et Google (3 milliards). Le deal annoncé hier scelle une répartition tripartite du compute du laboratoire :
Cette diversification est un compromis. Anthropic évite la dépendance unique à un cloud (le scénario OpenAI / Microsoft des débuts), tout en consolidant son accès aux TPU Google qui se sont montrés 30 à 40 % plus efficients que les GPU NVIDIA sur l entraînement des modèles Claude depuis Opus 4.5.
Pour Sundar Pichai, c est un hold-up stratégique : les TPU Google deviennent l infrastructure de référence du concurrent direct de Gemini. Pour Dario Amodei, c est de l oxygène pour 5 ans.
Ce que finance ce contrat
L engagement de 200 milliards dépasse de très loin les besoins immédiats d Anthropic. Selon plusieurs analystes consultés, le calcul se décompose ainsi :
Le revers du deal
Les 200 milliards engagés représentent environ trois fois le chiffre d affaires annuel actuel d Anthropic (estimé à 70 Md$ run-rate fin 2026). Le pari est explicite : la croissance du marché doit absorber cet engagement. Si elle ralentit, Anthropic se retrouve avec des coûts fixes massifs.
Le deal lie Anthropic à l écosystème logiciel TPU (XLA, JAX, Pathways). Migrer vers un autre fournisseur sur 5 ans deviendrait techniquement et économiquement quasi impossible. C est exactement la situation que Microsoft a réussi à imposer à OpenAI en 2023.
L impact sur l Europe
Bruxelles regarde ce deal avec inquiétude. Le commissaire européen au numérique Henna Virkkunen a réagi en marge du Conseil européen : "L Europe doit se doter de capacités compute autonomes, sinon notre souveraineté IA restera théorique."
Côté français, l effet immédiat est d accélérer la pression sur le gouvernement pour finaliser le projet de cluster IA européen annoncé par Emmanuel Macron au sommet AI for Action de février. Mistral, Kyutai et plusieurs labos publics demandent une enveloppe d au moins 20 milliards d euros sur 5 ans, équivalente à 10 % du deal Anthropic-Google, pour bâtir une infrastructure GPU/TPU souveraine.
Questions fréquentes
- Pourquoi Anthropic choisit Google TPU plutôt que NVIDIA GPU ?
- Les TPU Google se sont montrés 30 à 40 pourcent plus efficients que les GPU NVIDIA sur l'entraînement des modèles Claude depuis Opus 4.5, principalement grâce à l'optimisation logicielle JAX et XLA pour l'architecture Anthropic. Le ratio coût-performance penche aujourd'hui en faveur du TPU pour les charges Anthropic spécifiques, même si NVIDIA reste utilisé pour 10 pourcent des workloads.
- Le deal donne-t-il une participation Google au capital d'Anthropic ?
- Non, contrairement au deal Microsoft-OpenAI, ce contrat est purement commercial. Google détient déjà environ 14 pourcent d'Anthropic via ses 3 milliards de dollars investis en 2023-2024, mais cette participation est indépendante du nouveau contrat compute.
- Anthropic peut-il vraiment dépenser 200 milliards en 5 ans ?
- Avec un run-rate revenu estimé à 70 Md$ fin 2026 et une croissance de plus de 180 pourcent par an, l'engagement représente environ 3 fois le chiffre d'affaires actuel mais devrait être absorbable si la croissance se maintient. Le pari est précisément que l'inférence Claude continue d'exploser à mesure que les agents IA se déploient en entreprise.
- Quel est l'impact sur Mistral et les acteurs européens ?
- Le deal accentue la pression sur les pouvoirs publics européens pour financer un cluster compute souverain. Mistral, Kyutai et les laboratoires publics demandent au moins 20 milliards d'euros sur 5 ans pour rivaliser. Sans cette infrastructure, l'écart compute Europe-USA continuera de se creuser.
Source : ca.finance.yahoo.com
