IA : Washington et Pékin discutent d'un protocole commun de garde-fous
Le 14 mai 2026, le ministre américain des Finances annonce des échanges entre les États-Unis et la Chine pour encadrer l'IA. Objectif partagé : empêcher des acteurs non étatiques de mettre la main sur les modèles les plus puissants.

Washington et Pékin discutent d'un protocole commun sur l'IA
Le 14 mai 2026, le ministre américain des Finances Scott Bessent a révélé que les États-Unis et la Chine échangent sur la mise en place de garde-fous communs pour l'intelligence artificielle. Une annonce inattendue, dans un contexte de tensions technologiques persistantes entre les deux puissances.
Selon le ministre, les deux pays partagent une même crainte : que l'IA facilite des cyberattaques d'une ampleur inédite. Et veulent mettre au point un protocole définissant la voie à suivre, notamment pour s'assurer que des acteurs non étatiques ne mettent pas la main sur les modèles les plus avancés.
Une convergence rare entre rivaux
Washington et Pékin s'affrontent depuis des années sur les semi-conducteurs, les restrictions à l'export de puces, l'accès aux modèles de pointe. Voir les deux capitales évoquer un cadre commun sur l'IA tranche avec cette logique de confrontation.
Le point de bascule, c'est la sécurité. Quand il s'agit de modèles capables d'aider à concevoir des cyberattaques, des armes biologiques ou des campagnes de désinformation à grande échelle, l'intérêt des deux États converge : éviter que ces capacités tombent entre les mains de groupes criminels, de cellules terroristes ou d'acteurs non étatiques incontrôlables.
Ce que pourrait contenir le protocole
Le ministre américain est resté évasif sur le contenu exact. Mais la logique d'un tel protocole impliquerait probablement :
| Axe possible | Objectif |
|---|---|
| Contrôle de l'accès aux modèles de pointe | Empêcher la diffusion non maîtrisée des modèles les plus capables |
| Standards de sécurité partagés | Aligner les pratiques de red teaming et d'évaluation des risques |
| Mécanismes d'alerte | Signaler les usages malveillants détectés |
| Restrictions sur les acteurs non étatiques | Encadrer qui peut entraîner ou déployer des modèles frontières |
Rien n'est encore formalisé. L'annonce relève pour l'instant de la déclaration d'intention, pas du traité signé.
Le contexte : une régulation IA fragmentée
Cette discussion bilatérale s'ajoute à un paysage réglementaire déjà morcelé. L'Union européenne a son AI Act, entré progressivement en application avec des obligations renforcées pour les modèles à risque systémique. Les États-Unis avancent en ordre dispersé, entre décrets fédéraux et législations d'États. La Chine applique ses propres règles sur les algorithmes et les contenus générés par IA.
Un protocole sino-américain, même limité à la sécurité, créerait un troisième pôle normatif , et soulèverait immédiatement la question de la place de l'Europe dans ces négociations.
Pourquoi ça compte pour la France
Pour l'écosystème français et européen, cette annonce envoie deux signaux.
D'abord, la sécurité de l'IA s'impose comme le terrain où même les rivaux acceptent de discuter. C'est une validation de l'approche européenne, qui a fait de la gestion des risques systémiques le cœur de l'AI Act.
Ensuite, le risque d'être spectateur. Si Washington et Pékin définissent à deux les règles du jeu sur les modèles frontières, l'Europe , et la France avec sa championne Mistral , doit veiller à ne pas se retrouver à appliquer des standards négociés sans elle. La souveraineté en IA ne se joue pas seulement sur le compute et les modèles, mais aussi sur la table des négociations normatives.
En résumé
L'annonce de Scott Bessent reste préliminaire : pas de protocole signé, pas de calendrier. Mais elle acte une idée forte , sur la question des usages malveillants de l'IA, États-Unis et Chine estiment avoir plus à gagner à coopérer qu'à s'ignorer. Reste à savoir si cette convergence se traduira en cadre concret, et si l'Europe saura s'y inviter.
Questions fréquentes
- Que veulent faire les États-Unis et la Chine sur l'IA ?
- Le 14 mai 2026, le ministre américain des Finances Scott Bessent a annoncé que les États-Unis et la Chine échangent pour mettre au point un protocole commun de garde-fous sur l'intelligence artificielle. L'objectif principal est d'empêcher que des acteurs non étatiques mettent la main sur les modèles d'IA les plus avancés.
- Pourquoi les États-Unis et la Chine coopèrent-ils alors qu'ils sont rivaux ?
- Sur la question des usages malveillants de l'IA, les intérêts des deux puissances convergent. Toutes deux craignent que l'IA facilite des cyberattaques de grande ampleur. Quand il s'agit d'éviter que des modèles dangereux tombent entre les mains de groupes criminels ou terroristes, la coopération l'emporte sur la rivalité.
- Le protocole IA USA-Chine est-il déjà signé ?
- Non. À ce stade, il s'agit d'une déclaration d'intention. Aucun protocole n'a été signé, aucun calendrier n'a été communiqué et le contenu exact n'a pas été détaillé. Les deux pays sont seulement en phase de discussion.
- Quel impact pour l'Europe et la France ?
- Si Washington et Pékin définissent à deux les règles sur les modèles frontières, l'Europe risque de devoir appliquer des standards négociés sans elle. Cela renforce l'enjeu de souveraineté en IA pour la France et l'Union européenne, qui disposent déjà de l'AI Act mais doivent veiller à peser dans les négociations normatives internationales.
- Quel rapport avec l'AI Act européen ?
- L'AI Act est le cadre réglementaire de l'Union européenne, centré sur la gestion des risques systémiques. Un protocole sino-américain créerait un troisième pôle normatif aux côtés de l'AI Act et des règles chinoises. La convergence USA-Chine sur la sécurité valide en partie l'approche européenne par les risques, mais pose la question de la coordination entre ces cadres.
À lire aussi

Pentagone : Anthropic toujours blacklisté, OpenAI, Google, xAI raflent les contrats militaires

Project Glasswing : Anthropic dévoile Mythos, le modèle qui trouve des milliers de "zero-days"
