AI Act : le cadre européen qui encadre l’intelligence artificielle

chatgpt image 3 nov. 2025, 14 07 43

AI Act : définition et objectifs

L’AI Act (Artificial Intelligence Act – Règlement européen sur l’intelligence artificielle), publié le 13 mars 2024 et entré en vigueur en France le 1er août 2024, est le premier texte de l’UE qui encadre juridiquement les usages de l’IA pour protéger la santé, la sécurité et les droits fondamentaux.
Son ambition : protéger les citoyens, réguler les systèmes à risque et imposer des règles de transparence aux entreprises qui conçoivent, intègrent ou utilisent des systèmes d’IA.

Champ d’application : qui est concerné ?

L’AI Act s’applique à tous les acteurs de la chaîne IA : fournisseurs (et leurs mandataires), distributeurs, fabricants de produits, intégrateurs et utilisateurs, dès lors qu’un système est mis sur le marché européen.
Sont exclus : usages militaires ou de sécurité nationale, recherche pure, usages strictement personnels non professionnels et, dans certains cas, les logiciels open source non classés à haut risque.

Une réglementation fondée sur le niveau de risque

Le texte classe les systèmes d’intelligence artificielle en quatre niveaux de risque, avec des obligations graduées :

  • Risque inacceptable (interdit) : atteintes aux droits fondamentaux (ex. reconnaissance faciale en temps réel, notation sociale, manipulation émotionnelle). Interdiction applicable depuis le 2 février 2025.
  • Risque élevé : IA dans des domaines sensibles (santé, justice, recrutement, éducation, crédit…). Exigences renforcées : audits, supervision humaine, traçabilité. Entrée en vigueur : à compter du 2 août 2026 pour les règles relatives aux systèmes listés à l’annexe III, et du 2 août 2027 pour celles de l’annexe I.
  • Risque limité : chatbots, deepfakes, assistants virtuels. Transparence obligatoire : l’utilisateur doit savoir qu’il interagit avec une IA.
  • Risque minimal : usages courants (filtres anti-spam, algorithmes de jeux). Pas d’obligation spécifique, mais codes de bonnes pratiques encouragés.

Focus sur les IA à usage général (GPAI / modèles fondamentaux)

Les IA “générales” (grands modèles de langage, IA génératives, etc.) sont également encadrées : documentation des données d’entraînement, sécurité, conformité éthique et technique et coopération avec les autorités.

Droits et protections pour les utilisateurs

L’AI Act renforce la confiance et la capacité d’agir des internautes :

  • Interdiction des pratiques intrusives (manipulation émotionnelle, surveillance biométrique non consentie).
  • Transparence : information claire lorsqu’un utilisateur interagit avec une IA, et communication des limites du système.
  • Signalement des incidents graves : en cas de dommage (erreur, discrimination, perte financière), notification obligatoire aux autorités.
  • Responsabilité accrue : fournisseurs et utilisateurs peuvent être tenus juridiquement responsables en cas de manquement.

Sanctions prévues par l’AI Act

Des amendes dissuasives sont prévues :

  • Jusqu’à 35 M€ ou 7 % du CA mondial (le montant le plus élevé s’applique) pour les pratiques interdites.
  • Jusqu’à 15 M€ ou 3 % du CA mondial pour les manquements des fournisseurs de GPAI (refus d’informations, non-respect de mesures).
  • Jusqu’à 1,5 M€ pour les manquements commis par des institutions de l’UE.

Gouvernance, contrôles et calendrier

  • À l’échelle européenne : création d’un Bureau de l’IA chargé du suivi des GPAI, de la gouvernance et de la réception des déclarations de conformité des IA à haut risque.
  • Au niveau national : chaque État membre désignera une autorité de contrôle (en France, probablement la CNIL ou une autorité dédiée).
  • Les autorités de surveillance du marché peuvent exiger la documentation complète, accéder aux jeux de données et, sous conditions, au code source pour évaluer la conformité et imposer des mesures.
  • Application progressive jusqu’en 2027, selon la criticité des systèmes. Les prochains enjeux porteront sur l’articulation avec le RGPD, le droit de la consommation et la responsabilité civile.

Pourquoi consulter un avocat en droit de l’IA

Un avocat en droit de l’intelligence artificielle peut vous aider à :

  • déterminer si un système relève de l’AI Act et dans quelle catégorie de risque ;
  • auditer la conformité (documentation, transparence, supervision humaine, gestion des incidents) ;
  • engager la responsabilité du fournisseur ou de l’exploitant en cas de manquement ;
  • vous représenter devant les juridictions et autorités ;
  • établir une étude juridique précisant les contours et limites d’un système IA.

Maître Younes et Maître Willm accompagnent particuliers et entreprises dans leurs études juridiques et litiges liés à l’IA.

Besoin d’un avis rapide ?

Contactez-nous : premier appel gratuit.


Mini-glossaire SEO (AI Act)

  • AI Act / Artificial Intelligence Act : règlement européen encadrant l’IA.
  • GPAI / modèles fondamentaux : IA à usage général (ex. LLM, génératives).
  • Approche par les risques : obligations proportionnées au niveau de risque.
  • Transparence / supervision humaine / traçabilité : piliers de la conformité.
Share the Post: