NewsIA
En direct
Régulation & Éthique

AI Act : Bruxelles publie sa liste des modèles "à risque systémique" et lance les premières enquêtes

Le 8 mai, la Commission européenne dévoile la liste actualisée des modèles à risque systémique et ouvre 6 enquêtes pour non-conformité.


PartagerXLinkedInEmail
AI Act : Bruxelles publie sa liste des modèles "à risque systémique" et lance les premières enquêtes
À retenir
  • Bruxelles publie la liste officielle des modèles "à risque systémique" sous AI Act.
  • GPT-5.5, Claude Opus 4.7, Gemini Ultra, Mistral Large 3 tous classés à risque systémique.
  • Premières enquêtes lancées sur OpenAI et Meta pour documentation insuffisante.
  • Amendes maximales rappelées : 35 M€ ou 7% du CA mondial.

L AI Act passe de la théorie à la pratique. Première liste officielle, premières enquêtes, premières amendes potentielles.

L Office européen de l IA (Bruxelles) a publié la liste officielle des modèles à risque systémique sous l AI Act, et lancé les premières enquêtes officielles.

🇪🇺
Office européen de l IA

Autorité européenne créée en 2024 par l AI Act, basée à Bruxelles. Responsable de l application du règlement, des évaluations de modèles, des enquêtes et des sanctions. Coordonne avec les autorités nationales (CNIL en France, AEPD en Espagne, BfDI en Allemagne).

Modèle à risque systémique

Sous l AI Act, désigne les modèles à usage général dépassant 10^25 FLOP d entraînement (puissance de calcul utilisée). Ces modèles sont soumis à des obligations renforcées : documentation des données, tests d adversarial robustness, gouvernance des risques systémiques, audits réguliers.

La listeLes modèles concernés

Modèles classés à risque systémique

  • GPT-5.5 (OpenAI)
  • Claude Opus 4.7 (Anthropic)
  • Gemini 2 Ultra (Google)
  • Mistral Large 3 (Mistral)
  • Llama 5 405B (Meta)
  • Grok 4 (xAI)
  • DeepSeek V4 (DeepSeek, sous réserve d enregistrement EU)
  • Enquêtes en cours

    7Modèles classés
    35M€Amende max
    7%du CA mondial
    2Enquêtes ouvertes

    Deux enquêtes officielles ouvertes :

  • OpenAI : documentation jugée insuffisante sur les données d entraînement et le respect du droit d auteur
  • Meta : transparence limitée sur les évaluations adversariales de Llama 5
  • Aucune amende prononcée à ce stade. Mais l Office prévient : "les enquêtes peuvent durer 18 à 24 mois, et nous appliquerons les sanctions prévues si nécessaire".

    Le guide completAI Act : le guide complet du règlement européen

    L acteur EUMistral AI, le champion français

    Questions fréquentes

    Mon entreprise utilise GPT-5, sommes-nous concernés par l'enquête ?
    L'enquête vise OpenAI, pas ses clients utilisateurs. En tant qu'entreprise utilisatrice, vous devez documenter vos usages d'IA conformément à l'AI Act (registre, AIPD si applicable), mais l'amende potentielle pèse sur OpenAI, pas sur vous.
    L'AI Act peut-il forcer le retrait d'un modèle du marché européen ?
    Théoriquement oui, sur les pratiques interdites (manipulation cognitive, scoring social, identification biométrique non encadrée). Pour une non-conformité documentaire, le retrait n'est pas la première sanction , les amendes et obligations correctives sont privilégiées.
    Quels modèles sont les plus conformes en mai 2026 ?
    Selon les indications publiques, Gemini 3 (Google) et Mistral Large 3 (avec quelques nuances) ont les dossiers les plus complets. Claude est globalement bien documenté mais avec quelques zones grises sur le red-team. Pour un usage critique en Europe, Gemini ou Mistral sont les choix les plus défensifs.

    À lire aussi