NewsIA
En direct
Régulation & Éthique

AI Act : le guide complet du règlement européen sur l IA

Genèse, calendrier, niveaux de risque, obligations entreprises, sanctions, articulation avec le RGPD. Tout sur l AI Act, expliqué clairement en français.


PartagerXLinkedInEmail
AI Act : le guide complet du règlement européen sur l IA
L essentiel en 30 secondes
  • L AI Act est le règlement européen qui encadre l intelligence artificielle, entré en vigueur en 2024.
  • 4 niveaux de risque : inacceptable (interdit), haut, limité (transparence), minimal (libre).
  • Application progressive : interdictions depuis février 2025, sanctions activées en août 2027.
  • Amendes max : 35 millions € ou 7% du CA mondial. Calquées sur le RGPD, en plus salé.

Adopté en 2024, entré en application progressive depuis 2025, l AI Act est devenu le texte de référence mondial pour encadrer l intelligence artificielle. Aucune entreprise européenne ou voulant vendre en Europe ne peut désormais l ignorer. Voici un décryptage clair, sans jargon juridique.

🇪🇺
L AI Act

Règlement européen 2024/1689 sur l intelligence artificielle, premier cadre juridique transversal au monde. Proposé par la Commission européenne en avril 2021, négocié pendant 3 ans, adopté définitivement en mai 2024. Application progressive sur 2 ans.

Le calendrierQuand chaque obligation entre en vigueur

Le calendrier d application

  • Février 2025 : interdiction des pratiques jugées inacceptables (notation sociale, manipulation comportementale)
  • Août 2025 : obligations pour les modèles IA à usage général (ChatGPT, Claude, Gemini, Mistral)
  • Août 2026 : obligations pour les systèmes à haut risque (santé, éducation, RH, justice)
  • Août 2027 : application complète, sanctions activées
  • L Europe est la première grande zone économique à se doter d un cadre transversal. Comme le RGPD avant lui, l AI Act fait office de standard mondial de facto.

    La classificationLes 4 niveaux de risque

    Les 4 niveaux de risque

    Risque inacceptable (interdit)

    Notation sociale, identification biométrique en temps réel dans l espace public (sauf exceptions police), manipulation subliminale, exploitation de vulnérabilités. Tout simplement interdit en Europe.

    Haut risque (très encadré)

    Tri de CV, scoring de crédit, diagnostic médical, conduite autonome, contrôle d accès aux services publics, justice prédictive. Obligations lourdes : analyse d impact, supervision humaine, registre.

    Risque limité (transparence)

    Chatbots, deepfakes, contenu généré par IA. Obligation principale : informer l utilisateur qu il interagit avec une IA.

    Risque minimal (libre)

    Filtres anti-spam, recommandations e-commerce simples, jeux vidéo IA. Aucune obligation spécifique.

    90% des usages IA tombent dans la catégorie risque limité ou minimal. Les obligations lourdes ne concernent qu une fraction des systèmes.

    Obligations pour les fournisseurs de modèles

    Les éditeurs (OpenAI, Anthropic, Google, Mistral, Meta) doivent depuis août 2025 :

  • Documenter les données d entraînement utilisées
  • Publier un résumé du contenu protégé par le droit d auteur ingéré
  • Démontrer le respect des règles européennes sur la propriété intellectuelle
  • Mettre en place une gouvernance de risque systémique (au-delà de 10^25 FLOP d entraînement)
  • FLOP (Floating Point Operations)

    Unité de mesure de la puissance de calcul utilisée pour entraîner un modèle. Au-delà de 10^25 FLOP, un modèle est jugé "à risque systémique" et soumis à des obligations renforcées. Concerne GPT-5, Claude Opus, Gemini Ultra, Mistral Large.

    Obligations pour les déployeurs en entreprise

    Si vous déployez un système IA, vos obligations dépendent de la catégorie. Pour le haut risque :

  • Réaliser une analyse d impact sur les droits fondamentaux
  • Garantir une supervision humaine effective
  • Tenir un registre des décisions prises par l IA
  • Informer les personnes concernées qu elles interagissent avec un système IA
  • Garantir l explicabilité des décisions (notamment en RH)
  • Pour les chatbots et contenus générés, l obligation se résume à un étiquetage clair ("ce contenu a été généré par IA").

    SanctionsCombien ça coûte de se planter

    Les amendes prévues

    35M€ou 7% CA mondial
    15M€ou 3% CA
    7,5M€ou 1% CA
    • 35 millions € ou 7% CA mondial pour les pratiques interdites
    • 15 millions € ou 3% pour les manquements aux obligations modèles
    • 7,5 millions € ou 1% pour fourniture d informations inexactes

    Les autorités nationales (CNIL en France) sont chargées du contrôle, sous coordination de l Office européen de l IA basé à Bruxelles.

    Impact pour ChatGPT, Claude, Mistral

    Les 4 grands éditeurs ont publié leur système card AI Act en 2025. Mistral, en tant que champion européen, applique le texte sans surcoût notable. Anthropic a obtenu une approbation pour Claude Opus 4.7 en mars 2026. OpenAI a renforcé son équipe de conformité européenne et propose un mode "EU Mode" qui restreint certaines fonctionnalités. Google a déployé Gemini en région européenne dédiée.

    Aucun grand modèle n a été interdit en Europe à ce jour.

    Articulation avec le RGPD

    L AI Act ne remplace pas le RGPD, il s y ajoute :

    • Le RGPD régit le traitement des données personnelles
    • L AI Act régit le système IA lui-même

    Une entreprise utilisant un chatbot doit respecter les deux. La CNIL a publié en 2025 un guide pratique consolidé.

    Pour les PMELa checklist conformité

    Checklist pour les PME françaises

  • Avez-vous identifié tous les usages IA dans votre organisation (y compris ChatGPT utilisé en douce) ?
  • Pour chaque usage, à quel niveau de risque appartient-il ?
  • Si haut risque : avez-vous l analyse d impact, la supervision humaine, le registre ?
  • Vos chatbots clients sont-ils correctement étiquetés "IA" ?
  • Vos contrats avec les fournisseurs IA mentionnent-ils la conformité AI Act ?
  • Avez-vous formé vos équipes RH aux règles spécifiques du tri de CV automatisé ?
  • Coût moyen de mise en conformité

    Pour une PME de 50 à 200 salariés : entre 15 000 et 80 000 euros selon les usages. Largement moins coûteux que la première amende.

    Le champion françaisMistral AI : tout savoir sur le champion français de l IA

    L impact socialIA et emploi : quels métiers vont vraiment disparaître

    SouverainetéIA open source vs propriétaire : que choisir en 2026

    Questions fréquentes

    Qu est-ce que l AI Act ?
    L AI Act est le règlement européen sur l intelligence artificielle, adopté en mai 2024, qui classe les systèmes IA en quatre niveaux de risque (inacceptable, haut, limité, minimal) et impose des obligations proportionnées.
    Quand l AI Act entre-t-il en vigueur ?
    Application progressive : interdictions depuis février 2025, obligations modèles depuis août 2025, obligations haut risque dès août 2026, application complète et sanctions en août 2027.
    Quelles sont les sanctions de l AI Act ?
    Jusqu à 35 millions d euros ou 7 pourcent du chiffre d affaires mondial pour les pratiques interdites. Jusqu à 15 millions ou 3 pourcent pour les obligations modèles. Calquées sur le RGPD.
    Mon entreprise PME doit-elle se mettre en conformité ?
    Oui si vous utilisez de l IA dans des cas haut risque (RH, santé, crédit, justice). Pour les usages standards (chatbot client, ChatGPT en interne), seules quelques règles de transparence s appliquent. Coût moyen 15 000 à 80 000 euros.
    AI Act ou RGPD : lequel s applique ?
    Les deux. Le RGPD régit les données personnelles, l AI Act régit le système IA lui-même. Une entreprise doit se conformer aux deux textes en parallèle.
    Modèles cités

    À lire aussi