Voir tous les articles

IA

Newsletter

10 min de lecture

EU AI Act Compliance Checker : comprendre et appliquer le AI Act

Publié le :

26 janv. 2026

Découvrez la solution QARA PULSE All-In-One :

Un système intégré complet pour réduire vos cycles réglementaires, fluidifier vos processus et obtenir votre marquage CE plus vite.

30 min • Sans engagement

Partager

Copier le lien de l'article

Copier le lien de l'article

Copier le lien de l'article

Contexte

Entre enthousiasme et complexité, l’Intelligence Artificielle est en train de redessiner les règles du jeu. Mais pour les entreprises, une question persiste : comment rester innovant tout en restant conforme ?

Publié le 12 juillet 2024 au JOUE et en vigueur depuis le 1er août 2024, le règlement européen sur l’Intelligence Artificielle (AI Act) établit le premier cadre réglementaire mondial consacré à l’IA. Son ambition : garantir que les systèmes d’IA utilisés dans l’Union européenne soient sûrs, transparents et éthiques.

Sur le papier, tout est clair :
- quatre niveaux de risque,
- des obligations proportionnées,
- un cadre harmonisé.

Mais sur le terrain, la réalité est tout autre.

Les frontières entre les niveaux de risque restent floues.
Un même système peut être classé différemment selon son usage, son niveau d’autonomie ou la revendication du fabricant.
Et quand s’ajoutent le MDR, l’IVDR, le RGPD, l’EHDS ou le HTAR, les équipes se retrouvent vite perdues dans les textes.

Ce constat rejoint les conclusions de la Commission européenne dans son étude Study on the deployment of AI in healthcare (2024) :

« Les entreprises du secteur santé, en particulier les PME, peinent à naviguer entre les cadres réglementaires existants.
La fragmentation des exigences et l’absence de lignes directrices intégrées freinent la mise sur le marché et la confiance dans les systèmes d’IA. »
(European Commission, 2024, pp. 40–42)

Pour répondre à cette difficulté, la Commission européenne a lancé la plateforme AI Act Single Information Platform : une nouvelle plateforme unique dédiée à l’information, à la pédagogie et aux outils pratiques de conformité.

Elle rassemble :
- des guides explicatifs et FAQ actualisés pour comprendre les exigences de l’AI Act ;
- des ressources pratiques sur les obligations selon les catégories de risque ;
- et surtout l’accès direct au EU AI Act Compliance Checker : un outil interactif pour identifier son chemin réglementaire.

Cette plateforme constitue désormais le point d’entrée officiel pour tous les acteurs concernés par l’AI Act, et s’impose comme une référence pour structurer la conformité dès les premières étapes du projet.

Faisons le focus sur ce nouvel outil : EU AI Act Compliance Checker.


Objectifs du EU AI Act Compliance Checker

Développé par la Commission européenne dans le cadre de la Single Information Platform, le Compliance Checker vise à rendre la conformité IA accessible.

Il a une double mission :
- aider les entreprises à se positionner dans le cadre du AI Act ;
- poser les premières briques d’une stratégie de conformité structurée et documentée.

En moins de 5 minutes, il permet d’évaluer si un système relève du AI Act, de confirmer son niveau de risque et de clarifier les obligations potentielles associées, à travers une série de questions simples.
C’est un socle de structuration, pas une certification mais un moyen de passer de la théorie à l’action.

Voyons concrètement comment cet outil fonctionne et ce qu’il apporte.


Fonctionnement du EU AI Act Compliance Checker

Accessible directement depuis la plateforme officielle, le Compliance Checker se présente comme un questionnaire interactif.

L’utilisateur y renseigne :
- le type de dispositif évalué (par exemple : modèle ou système d’IA
- son rôle au regard du règlement (fournisseur, déployeur, importateur, distributeur, ou fabricant d’un produit intégrant une IA) ;
- le contexte d’utilisation (mise sur le marché et/ou usage dans l’Union européenne) ;
- les cas d’exclusion éventuels (usage militaire, recherche, activité personnelle,…) ;
- et si le système figure dans l’une des annexes II ou III du AI Act, listant les domaines considérés comme à haut risque

L’outil génère ensuite les résultats de façon synthétique :
- si le système relève du champ d’application du AI Act ;
-le niveau de risque
le rôle réglementaire de l’acteur
et les articles du règlement applicables.

En pratique : le Compliance Checker fournit un cadre initial de structuration utile pour amorcer la démarche de conformité IA sans attendre l’entrée en application complète du règlement.


Limites, précautions d’usage et zones non couvertes

Avant de s’y plonger, il faut savoir ce que le Compliance Checker n’est pas.

❌ Ce qu’il ne fait pas / Ce qu’il n’est pas :

Le EU AI Act Compliance Checker ne valide pas la conformité
-
Il ne s’agit pas d’un audit, ni d’une évaluation officielle.
- Il ne délivre pas de certificat, d’avis juridique ou de reconnaissance par une autorité.
- Il ne remplace pas une analyse réglementaire approfondie
- Aucune donnée saisie n’est transmise à la Commission à des fins d’évaluation.

Il ne détermine pas la classe de risque officielle
-
Il peut suggérer un niveau de risque mais il ne le confirme pas juridiquement.
- La classification reste à la charge du fabricant ou du fournisseur, sur la base d’une analyse approfondie (article 6 du AI Act).

Il ne couvre pas tous les cas d’usage
Par exemple, il ne prend pas en compte les interactions détaillées entre le AI Act et d’autres cadres réglementaires (MDR, IVDR, RGPD, cybersécurité, etc…).

Il ne propose pas de plan d’action ni de documentation
-
L’outil ne fournit pas de rapport téléchargeable complet ni de liste des documents à constituer.
- Il n’oriente pas vers des templates ou bonnes pratiques concrètes.

Il ne vérifie pas la conformité technique des modèles d’IA
Aucun contrôle de qualité des données, de performance algorithmique ou de robustesse logicielle n’est effectué. Ces aspects restent à documenter selon les normes (ISO/IEC 42001, 23894, 62304, etc.).


💡 Ce qu’il fait / Ce qu’il est :

Le EU AI Act Compliance Checker aide à se situer, pas à se conformer.
Il oriente, mais ne certifie rien.
C’est une porte d’entrée pédagogique, pas un outil d’évaluation réglementaire avec pour finalité une certification.


L’approche “risk-based” du AI Act appliquée au secteur santé

L’étude de la Commission européenne sur le déploiement de l’IA en santé (2024) propose une synthèse claire des catégories de risque et des obligations correspondantes pour les systèmes d’IA liés à la santé :

Catégorie de risque

Exemples

Obligations du déployeur (articles AI Act)

Risque inacceptable

Social scoring des individus pour l’accès à des prestations de santé

Interdiction de mise sur le marché et d’usage (Art. 5)

Risque élevé

Dispositifs médicaux basés sur l’IA relevant du MDR 2017/745 ou IVDR 2017/746 (ex. systèmes d’aide à la décision clinique)

IA pour la tarification d’assurance santé

IA pour l’évaluation ou le triage d’appels d’urgence

IA utilisée par les autorités publiques pour déterminer l’éligibilité à des aides ou services de santé

Mesures de littératie en IA (Art. 4)

Utilisation conforme aux instructions (Art. 26(1))

Supervision humaine qualifiée (Art. 26(2))

Données représentatives et pertinentes (Art. 26(4))

Suivi des incidents graves (Art. 26(5), Art. 72)

Conservation des journaux d’événements (Art. 26(6))

Enregistrement de certains déployeurs (Art. 26(8), Art. 49)

Évaluation d’impact RGPD et droits fondamentaux (Art. 26(9), Art. 27)

Risque de transparence

Chatbots IA prodiguant des conseils de bien-être

“Deepfakes” médicaux générés par IA

Détecteurs de mouvement basés sur l’IA en établissements de soins

Capteurs d’ingestion automatisés

Mesures de littératie en IA (Art. 4)

Obligations de transparence (Art. 50)

Risque minimal à nul

IA utilisée en recherche pharmaceutique

Systèmes d’administration en santé

Aucune exigence spécifique au titre du AI Act

Source : European Commission – Study on the Deployment of AI in Healthcare, 2024, p. 63.


Ce tableau illustre bien la structure du AI Act : plus le risque associé au système est élevé, plus les exigences de conformité sont strictes.
Mais il présente une vision “macro” — centrée sur les grandes familles d’applications (bien-être, diagnostic, etc.) — sans distinguer les nuances entre dispositifs médicaux de classe I et IIa.

Or, c’est précisément dans ces zones grises que les fabricants ont besoin d’un cadre plus précis.

Un logiciel compagnon de classe I sans fonction de diagnostic n’a pas les mêmes obligations qu’un dispositif d’aide à la décision clinique de classe IIa.
Pourtant, tous deux relève du AI Act.
C’est là qu’intervient le EU AI Act Compliance Checker : un outil pratique conçu pour transposer cette logique “risk-based” à des cas d’usage réels, en tenant compte du rôle de l’acteur (fabricant, fournisseur, distributeur), du contexte d’utilisation et du niveau d’évaluation réglementaire (avec ou sans organisme notifié).

Alors, j’ai testé l’outil Compliance Checker, pour vous !


Cas d’usage pour les dispositifs médicaux

Le EU AI Act Compliance Checker agit comme un outil de positionnement réglementaire : il permet de vérifier si le dispositif relève du AI Act, de caractériser le rôle du fabricant en tant que fournisseur de système d’IA, et de prévisualiser les obligations susceptibles de s’appliquer (transparence, supervision humaine, documentation, évaluation de conformité, etc.).

Dispositif médical de Classe I

Prenons le cas d’un fabricant qui met sur le marché de l’UE un logiciel compagnon qualifié comme un dispositif médical de classe I, sans fonction de diagnostic. Même sans prise de décision clinique, il peut proposer des contenus personnalisés à partir des interactions ou des données collectées, grâce à l’IA.

Lors de la simulation sur le Compliance Checker, j’indique que :
- Le dispositif est considéré comme un système d’IA au sens de l’article 3 du règlement.
- L’acteur a le rôle du fabricant d’un produit (qui renvoit à celui de fournisseur “provider”)
- L’acteur met sur le marché son dispositif au sein de l’UE.

J’exclue toutes les situations pour lesquelles le logiciel pourrait être de risque inacceptable, et donc il n’entre pas dans les systèmes interdits.

Enfin, j’indique que le dispositif médical n’est pas évalué par un organisme notifié (classe I).

En revanche, j’indique que le logiciel interagit directement avec des personnes physiques et qu’il peut générer des images, des vidéos, du texte.


Résultat du EU AI Act Compliance Checker : Cas d’usage avec un DM de Classe I

Le Compliance Checker confirme que le logiciel relève du AI Act, n’est pas à haut risque, et qu’il est soumis aux obligations de transparence (Art. 50) et de littératie en IA (Art. 4).
J’ai décidé de retranscrire ces obligations sous forme de tableau pour faciliter la lecture :

Domaine

Obligation principale

Référence AI Act

Transparence

Informer l’utilisateur qu’il interagit avec une IA ou un contenu généré artificiellement

Art. 50

Culture de l’IA

Assurer un niveau suffisant de compréhension et de formation interne sur l’IA

Art. 4

Selon l’article 50 du AI Act, les systèmes d’IA qui interagissent directement avec des personnes doivent informer clairement les utilisateurs qu’ils interagissent avec une intelligence artificielle.
- informer explicitement les utilisateurs : “Vous interagissez avec un système d’intelligence artificielle” ;
- signaler à l’utilisateur les contenus générés artificiellement (icône, mention dans l’interface, ou notice, texte, image, voix) ;
- conserver une traçabilité de ces informations dans la documentation technique MDR.

L’article 4 du AI Act introduit une exigence de “AI literacy” :
- former ou sensibiliser les équipes internes (qualité, développement, clinique) aux bases de l’IA et de la transparence ;
- inclure dans la notice utilisateur des informations claires sur la nature et les limites du système d’IA ;
- documenter ces actions de sensibilisation dans le système qualité ou le rapport de gestion des risques.

Ce résultat permet au fabricant de poser un premier cadre clair en parfaite cohérence avec le AI Act qui consiste à s’assurer que les utilisateurs savent qu’ils interagissent avec un système d’IA, et que les équipes internes comprennent son fonctionnement et ses limites.

Pour un dispositif médical de classe I, le Compliance Checker confirme donc bien que :
- le produit relève du AI Act ;
- il n’est pas classé à haut risque ;
- les obligations portent uniquement sur la transparence et la sensibilisation à l’IA.

L’outil permet ainsi de valider rapidement le positionnement réglementaire du dispositif et de poser les premières bases d’une conformité AI Act, cohérente avec le MDR.


Dispositif médical de Classe IIa

Prenons maintenant le cas d’un dispositif médical de classe IIa, intégrant un module d’aide à la décision clinique. Dans cet exemple, le fabricant du dispositif est toujours considéré comme fournisseur (provider) du système d’IA au sens du AI Act.

Lors de la simulation du EU AI Act Compliance Checker, contrairement à l’exemple du dispositif médical de classe I, j’indique cette fois-ci que le logiciel est évalué par un organisme tiers (l’organisme notifié) car le dispositif est de classe IIa.


Résultat du EU AI Act Compliance Checker : Cas d’usage avec un DM de Classe IIa

Le logiciel est bien considéré comme à haut risque au sens de l’article 6 du AI Act, car :
- il est réglementé par le MDR 2017/745 (Annexe II du AI Act) ;
- et il fait l’objet d’une évaluation de conformité par un organisme notifié.

L’outil affiche une liste beaucoup plus complète d’exigences (en complément de celles déjà citées pour les systèmes à risque limité) et renvoit à un ensemble d’obligations et articles clés.

J’ai décidé de les résumer dans un tableau pour faciliter la lecture :

Domaine

Obligation

Référence (AI Act)

Gestion du risque

Établir un système de gestion du risque couvrant la conception, le développement et le suivi du système

Art. 9

Gouvernance des données

Garantir une gouvernance et une gestion adéquate des données d’entraînement, de validation et de test

Art. 10

Documentation technique

Rédiger et maintenir une documentation technique complète démontrant la conformité

Art. 11

Traçabilité (enregistrement)

Assurer la traçabilité via l’enregistrement et la conservation des logs produits par le système

Art. 12 & 19

Transparence et interprétabilité

Permettre aux utilisateurs/déployeurs d’interpréter correctement les résultats produits par l’IA

Art. 13

Supervision humaine

Garantir une supervision humaine permettant de corriger, interrompre ou désactiver le système si nécessaire

Art. 14

Robustesse, exactitude et cybersécurité

Assurer un niveau approprié de fiabilité, précision et cybersécurité du système

Art. 15

Identification du fournisseur

Indiquer le nom, la marque et les coordonnées du fournisseur sur le système, l’emballage ou la documentation

Art. 16(2)

Système de management de la qualité (SMQ)

Mettre en place un SMQ conforme à l’article 17 pour encadrer la conception, la production et la surveillance

Art. 17

Tenue de la documentation

Conserver la documentation prévue à l’article 18 et la maintenir à jour

Art. 18

Journalisation et logs

Conserver les journaux d’événements (logs) générés automatiquement par le système

Art. 19

Actions correctives

Prendre les mesures correctives nécessaires et fournir les informations requises aux autorités

Art. 20

Coopération avec les autorités

Coopérer avec les autorités compétentes nationales en cas de demande ou d’incident

Art. 21

Évaluation de conformité

Soumettre le système à la procédure d’évaluation de conformité appropriée

Art. 43

Déclaration UE de conformité

Rédiger une déclaration de conformité attestant du respect des exigences du AI Act

Art. 47

Marquage CE

Apposer le marquage CE sur le système conformément au AI Act

Art. 48

Enregistrement

Enregistrer le système d’IA à haut risque dans la base de données européenne dédiée

Art. 49

Accessibilité

Garantir la conformité aux directives d’accessibilité applicables (UE 2016/2102, UE 2019/882)

Art. 16(1)(l)

Le EU AI Act Compliance Checker place toutes les obligations (conception et performance, organisationnelles ou complémentaires) au même niveau, confirmant qu’ils constituent un ensemble cohérent d’obligations cumulatives pour tout système d’IA à haut risque.

Cette approche cumulative des obligations est cohérente avec les constats de la Commission européenne. Dans son étude sur le déploiement de l’IA en santé (2024), elle rappelle que si le AI Act, le MDR et l’IVDR partagent un objectif commun de sécurité, de performance technique et de conformité, leurs mécanismes de suivi restent distincts. L’étude recommande ainsi de renforcer les dispositifs de surveillance post-déploiement pour favoriser la confiance et l’adoption des technologies d’IA dans le secteur médical.


Regard critique et stratégique QARA

Le EU AI Act Compliance Checker n’est pas seulement un outil d’information : c’est une invitation à structurer sa conformité IA avant qu’elle ne devienne une contrainte et rend la conformité IA plus accessible.
Pour les responsables QARA, l’intérêt de l’outil réside surtout dans sa capacité à anticiper les exigences documentaires et à structurer la réflexion avant l’audit.
En quelques minutes, il aide à clarifier si un système relève du AI Act, à identifier les articles applicables et à se repérer dans les premières obligations comme la transparence (article 50) pour l’exemple du dispositif médical de classe I.

Cependant :

  1. Lorsque de nombreuses exigences deviennent applicables, comme c’est le cas pour un système d’IA à haut risque, il serait encore plus lisible de présenter les résultats sous forme de tableau en catégorisant la nature des obligations (documentaire, technique, réglementaire, etc.). Aujourd’hui, le Compliance Checker ne distingue pas clairement les obligations “techniques” (Art. 8–15) des obligations “organisationnelles” (Art. 16–20) : elles apparaissent au même niveau, comme un socle cumulatif pour le haut risque.

  2. Certains intitulés peuvent prêter à confusion. Dans notre exemple du dispositif médical de classe I, la section “Risk level assessment” ne fournit pas une évaluation du niveau de risque (”limité”). Elle indique simplement si le système d’IA entre dans le champ d’application du AI Act, en se référant à l’article 3(1), qui définit ce qu’est un système d’intelligence artificielle. Autrement dit, il s’agit d’une vérification d’applicabilité, pas d’une classification du risque. Ce point mérite d’être précisé dans l’outil pour éviter les confusions entre applicabilité et classification du risque.


Conformité IA et dispositifs médicaux : une lecture croisée MDR/IVDR x AI Act

Si ces exigences se recoupent largement avec celles du MDR/IVDR, le EU AI Act Compliance Checker ne fait pas de parallèle avec les textes réglementaires sectoriels.
L’outil EU AI Act Compliance Checker a donc le mérite de clarifier les obligations applicables au titre du AI Act, mais il reste sectoriellement neutre.

Pour le secteur des dispositifs médicaux, il serait particulièrement intéressant qu’il établisse des correspondances avec les exigences des règlements MDR 2017/745 ou IVDR 2017/746, notamment sur la gestion du risque, la documentation technique, la traçabilité et la surveillance post-market. Une telle approche permettrait d’éviter les redondances entre cadres réglementaires, de favoriser la cohérence documentaire dans les démarches de conformité, et de renforcer la lisibilité du périmètre de responsabilité entre fabricants, fournisseurs et organismes notifiés.

Cette réflexion rejoint le Position Paper “Artificial Intelligence in Medical Devices” (Team-NB & IG-NB, version 1, 14 novembre 2024), qui reconnaît « un chevauchement considérable entre les exigences du AI Regulation (UE 2024/1689) et le cadre réglementaire et normatif existant pour les logiciels et dispositifs médicaux ».
Cette complémentarité est désormais reconnue au niveau européen.

De manière complémentaire, le MDCG 2025-6 “Interplay between the Medical Devices Regulation & In Vitro Diagnostic Medical Devices Regulation and the Artificial Intelligence Act” (juin 2025), va plus loin en confirmant la coexistence et la complémentarité des deux cadres. Il précise notamment que les fabricants peuvent, conformément à l’article 8(2) du AI Act, intégrer les exigences spécifiques du AI Act (gestion du risque, documentation, données, supervision humaine, etc.) au sein du SMQ déjà établi sous le MDR/IVDR, afin de garantir cohérence et proportionnalité des obligations.

Cette analyse rejoint également les conclusions de la Commission européenne dans son étude Study on the Deployment of AI in Healthcare (2024) :

« Si le AI Act, le MDR et l’IVDR visent tous la sécurité, la performance et la conformité, leur application gagnerait à être mieux articulée.
Des mécanismes complémentaires de suivi post-déploiement seraient nécessaires pour renforcer la confiance et l’adoption de l’IA en santé — un enjeu central pour les fabricants de dispositifs médicaux intégrant de l’intelligence artificielle. »
(European Commission, 2024, p. 65)


Conclusion & perspectives

Le EU AI Act Compliance Checker ne répond pas à tout, mais il offre enfin un premier cadre pour rester innovant tout en restant conforme.
Il permet de comprendre rapidement où l’on se situe dans le cadre du AI Act, sans se perdre dans la complexité du texte.
Il ne remplace pas une analyse réglementaire complète : il oriente, il structure, il guide.

Véritable boussole de la conformité IA, il aide à poser les bases d’une démarche claire et cohérente, en particulier pour les acteurs du secteur santé. Le EU AI Act Compliance Checker n’est pas une fin, mais un bon point de départ pour bâtir le cadre. Il aide les entreprises à organiser leur démarche et préparer la documentation.

Dans l’exemple des dispositifs médicaux, il ne prend pas en compte les exigences sectorielles propres au MDR 2017/745 ou IVDR 2017/746. Il aide à situer le périmètre d’applicabilité, sans détailler l’ensemble des exigences de conformité.
Mais il est amené à évoluer et à s’améliorer avec la pratique, et chacun peut contribuer à son amélioration.

En version beta, vous pouvez participer à son développement. Pour ce faire : écrivez vos commentaires via le formulaire de contact de la Commission européenne.

Il permet déjà de transformer une lecture réglementaire complexe en une démarche de conformité accessible et proactive.
Le défi des prochaines années sera d’intégrer les exigences du AI Act dans les démarches MDR existantes, sans alourdir inutilement les processus.

L’avenir de la conformité IA sera collaboratif, et il commence par des outils simples, accessibles et co-construits — comme ce premier Compliance Checker. En testant, commentant et partageant des outils comme le EU AI Act Compliance Checker, nous contribuons tous à construire une IA européenne responsable, compréhensible et maîtrisée.



Ressources utiles pour aller plus loin



ℹ️ L’article est diffusé à titre informatif et ne constitue pas une référence normative ou réglementaire.

Article rédigée par Sophie Colliot

Faites confiance à QARA PULSE

Découvrez la

Découvrez la

Découvrez la

solution All-in-One

solution All-in-One

solution All-in-One

pour une conformité rapide et sans failles.

pour une conformité rapide et sans failles.

pour une conformité rapide et sans failles.

30 min • Sans engagement

Avis clients

Ils ont choisi QARA PULSE

Ils ont choisi QARA PULSE

Des acteurs de la santé numérique nous font confiance pour structurer leurs systèmes, accélérer leurs cycles et obtenir leur marquage CE plus vite.  

Des acteurs de la santé numérique nous font confiance pour structurer leurs systèmes, accélérer leurs cycles et obtenir leur marquage CE plus vite.  

+15

Clients accompagnés

6 à 12

mois économisés

100%

de clients satisfaits

6

marquages CE obtenus

Newsletter

Prêt à transformer la conformité en moteur de croissance ?

QARA PULSE

© 2025 QARA PULSE. Tous droits réservés. Site réalisé par Lime Studio

Newsletter

Prêt à transformer la conformité en moteur de croissance ?

QARA PULSE

© 2025 QARA PULSE. Tous droits réservés. Site réalisé par Lime Studio