Guide complet AI Act

Tout comprendre sur l'AI Act

Le premier règlement mondial sur l'IA expliqué simplement. Classifications, obligations et échéances — devenez expert en quelques minutes.

4 niveaux de risque
Vos obligations
Exemples concrets
Applications pratiques

Qu'est-ce que l'AI Act ?

L'AI Act (Artificial Intelligence Act) est le premier règlement mondial complet sur l'Intelligence Artificielle, adopté par l'Union européenne le 13 mars 2024. Il établit un cadre juridique harmonisé pour le développement, la mise sur le marché et l'utilisation des systèmes d'IA dans l'UE.

En chiffres

Pays concernés27
Articles180+
Années de préparation4

Protection

Droits fondamentaux et sécurité des citoyens européens

Innovation

Stimuler l'adoption de l'IA de confiance

Harmonisation

Règles cohérentes au niveau européen

Compétitivité

Renforcer la position européenne dans l'IA

Champ d'application

L'AI Act s'applique aux fournisseurs qui mettent des systèmes d'IA sur le marché de l'UE, aux déployeurs qui les utilisent dans l'UE, et aux utilisateurs de systèmes d'IA situés dans l'UE, indépendamment de leur lieu d'établissement.

Classification des risques

L'AI Act adopte une approche basée sur les risques, classant les systèmes d'IA en 4 catégories.
Cliquez sur chaque carte pour découvrir les détails.

Risque inacceptable

Systèmes d'IA considérés comme une menace claire pour les droits fondamentaux.

Exemples :
  • Manipulation comportementale subliminale
  • Scoring social généralisé par les autorités publiques
  • Identification biométrique en temps réel dans l'espace public
  • Classification biométrique selon des caractères sensibles
Interdiction totale

Haut risque

Systèmes d'IA susceptibles d'affecter négativement la sécurité ou les droits fondamentaux.

Exemples :
  • Emploi et gestion des travailleurs
  • Éducation et formation professionnelle
  • Services publics essentiels
  • Dispositifs médicaux
  • Sécurité des produits
Obligations strictes de conformité

Risque limité

Systèmes d'IA avec des risques spécifiques de manipulation ou de tromperie.

Exemples :
  • Chatbots et assistants conversationnels
  • Systèmes de génération ou manipulation de contenu (deepfakes)
  • Systèmes de reconnaissance d'émotions
  • Systèmes de classification biométrique
Obligations de transparence

Risque minimal

Systèmes d'IA avec des risques faibles pour les droits et libertés.

Exemples :
  • Jeux vidéo utilisant l'IA
  • Filtres anti-spam
  • Systèmes de recommandation simples
  • Outils de détection d'inventaire
Aucune restriction particulière

Vos obligations selon l'AI Act

Les obligations varient selon votre rôle et le niveau de risque de votre système d'IA.
Explorez chaque catégorie pour comprendre vos responsabilités.

Selon votre rôle dans la chaîne de valeur

Fournisseur (Provider)

Vous développez ou concevez le système d'IA

  • Gestion des risques
  • Documentation technique
  • Marquage CE
  • Tests de performance

Déployeur (Deployer)

Vous utilisez le système dans votre organisation

  • Évaluation d'impact (AIIA)
  • Supervision humaine
  • Formation des utilisateurs
  • Surveillance continue

Distributeur

Vous commercialisez ou revendez le système

  • Vérification conformité
  • Traçabilité
  • Information clients
  • Signalement incidents

Importateur

Vous importez depuis un pays tiers

  • Conformité UE
  • Marquage CE
  • Documentation
  • Responsabilité produit

Obligations critiques (systèmes haut risque)

Gestion des risques

Article 9Critique

Système continu d'identification et d'atténuation des risques

Gouvernance des données

Article 10Critique

Qualité, complétude et représentativité des datasets

Supervision humaine

Article 14Critique

Mesures appropriées de contrôle humain effectif

Transparence

Article 13Critique

Information claire et compréhensible des utilisateurs

Précision & robustesse

Article 15Critique

Niveaux appropriés de performance et cybersécurité

Journalisation

Article 12Critique

Enregistrement automatique des événements

Échéances clés à retenir

2 août 2024
Déjà en vigueur

Interdiction des pratiques à risque inacceptable

2 février 2025
À venir

Obligations pour les modèles d'IA générative (GPAI)

2 août 2026
À venir

Application complète pour tous les systèmes haut risque

Ressources pratiques CNIL

Complétez votre compréhension de l'AI Act avec les guides pratiques officiels de la CNIL sur l'IA et la protection des données.

GUIDE PRINCIPAL

Comment se mettre en conformité ?

Le guide essentiel pour comprendre comment assurer la conformité RGPD lors de la collecte et de l'utilisation de données par vos systèmes d'IA.

Ce que vous y trouverez :

  • Principes RGPD appliqués aux systèmes d'IA
  • Obligations de transparence et d'information
  • Gestion des droits des personnes concernées
  • Cas pratiques et exemples concrets
Consulter le guide CNIL

Ressources complémentaires

DÉFINITIONS

Glossaire IA

Définitions des concepts clés de l'intelligence artificielle et du machine learning

Consulter
INTRODUCTION

Intelligence artificielle, de quoi parle-t-on ?

Introduction aux concepts fondamentaux et aux enjeux de l'IA au quotidien

Consulter

AI Act + RGPD : Une approche complémentaire

L'AI Act se concentre sur les risques liés aux systèmes d'IA, tandis que le RGPD régit le traitement des données personnelles. Les guides CNIL vous aident à naviguer entre ces deux réglementations pour une conformité complète.

AI Act : Classification des risques, obligations techniques
RGPD : Protection des données, droits des personnes

Prêt à auditer votre conformité ?

Notre audit automatisé vous guide pas à pas pour déterminer vos obligations et établir votre plan d'action.

Résultats en 15 minutes
Rapport PDF personnalisé
Gratuit et sans engagement