AI Act : Bruxelles publie sa liste des modèles "à risque systémique" et lance les premières enquêtes
Le 8 mai, la Commission européenne dévoile la liste actualisée des modèles à risque systémique et ouvre 6 enquêtes pour non-conformité.
- Bruxelles publie la liste officielle des modèles "à risque systémique" sous AI Act.
- GPT-5.5, Claude Opus 4.7, Gemini Ultra, Mistral Large 3 tous classés à risque systémique.
- Premières enquêtes lancées sur OpenAI et Meta pour documentation insuffisante.
- Amendes maximales rappelées : 35 M€ ou 7% du CA mondial.
L AI Act passe de la théorie à la pratique. Première liste officielle, premières enquêtes, premières amendes potentielles.
L Office européen de l IA (Bruxelles) a publié la liste officielle des modèles à risque systémique sous l AI Act, et lancé les premières enquêtes officielles.
Autorité européenne créée en 2024 par l AI Act, basée à Bruxelles. Responsable de l application du règlement, des évaluations de modèles, des enquêtes et des sanctions. Coordonne avec les autorités nationales (CNIL en France, AEPD en Espagne, BfDI en Allemagne).
Sous l AI Act, désigne les modèles à usage général dépassant 10^25 FLOP d entraînement (puissance de calcul utilisée). Ces modèles sont soumis à des obligations renforcées : documentation des données, tests d adversarial robustness, gouvernance des risques systémiques, audits réguliers.
Modèles classés à risque systémique
Enquêtes en cours
Deux enquêtes officielles ouvertes :
Aucune amende prononcée à ce stade. Mais l Office prévient : "les enquêtes peuvent durer 18 à 24 mois, et nous appliquerons les sanctions prévues si nécessaire".
Questions fréquentes
- Mon entreprise utilise GPT-5, sommes-nous concernés par l'enquête ?
- L'enquête vise OpenAI, pas ses clients utilisateurs. En tant qu'entreprise utilisatrice, vous devez documenter vos usages d'IA conformément à l'AI Act (registre, AIPD si applicable), mais l'amende potentielle pèse sur OpenAI, pas sur vous.
- L'AI Act peut-il forcer le retrait d'un modèle du marché européen ?
- Théoriquement oui, sur les pratiques interdites (manipulation cognitive, scoring social, identification biométrique non encadrée). Pour une non-conformité documentaire, le retrait n'est pas la première sanction , les amendes et obligations correctives sont privilégiées.
- Quels modèles sont les plus conformes en mai 2026 ?
- Selon les indications publiques, Gemini 3 (Google) et Mistral Large 3 (avec quelques nuances) ont les dossiers les plus complets. Claude est globalement bien documenté mais avec quelques zones grises sur le red-team. Pour un usage critique en Europe, Gemini ou Mistral sont les choix les plus défensifs.
