La classification des risques est la décision la plus déterminante en matière de conformité au règlement européen sur l'IA. Une classification correcte vous oriente vers un parcours de conformité défini, assorti d'exigences claires. Une classification erronée entraîne des défaillances en cascade — soit un gaspillage de ressources sur des obligations superflues, soit, bien pire, la découverte d'une exposition aux mesures d'exécution après le déploiement. Les exigences complètes applicables aux systèmes à haut risque entrant en vigueur le 2 août 2026, les organisations doivent maîtriser ce cadre de classification dès maintenant.
L'architecture fondamentale : deux voies de classification à haut risque
L'article 6 du règlement européen sur l'IA établit deux voies indépendantes par lesquelles un système d'IA devient à haut risque. Comprendre ces voies est essentiel, car elles déclenchent des calendriers de conformité et des procédures d'évaluation de la conformité différents.
- Voie 1 (Article 6(1)) : Systèmes d'IA destinés à être utilisés comme composants de sécurité de produits couverts par la législation d'harmonisation de l'annexe I nécessitant une évaluation de conformité par un tiers
- Voie 2 (Article 6(2)) : Systèmes d'IA déployés dans huit catégories de cas d'usage spécifiques de l'annexe III où le potentiel de préjudice est intrinsèquement élevé
Voie 1 : composants de sécurité dans les produits réglementés
Un système d'IA est automatiquement classé à haut risque lorsque deux conditions cumulatives sont remplies. Premièrement, le système d'IA doit être destiné à être utilisé comme composant de sécurité d'un produit, ou le système d'IA doit lui-même constituer un produit, couvert par la législation d'harmonisation de l'Union européenne figurant à l'annexe I. Deuxièmement, le produit doit être soumis à une évaluation de conformité par un tiers en vertu de cette législation.
L'annexe I englobe plus de trente directives et règlements couvrant les machines, les jouets, le règlement relatif aux dispositifs médicaux, les dispositifs de diagnostic in vitro, l'aviation civile, les véhicules à moteur, les équipements marins, les systèmes ferroviaires, et bien d'autres.
- Robots chirurgicaux pilotés par l'IA couverts par le règlement relatif aux dispositifs médicaux
- IA de véhicules autonomes pour le maintien de voie et le freinage d'urgence au titre des réglementations sur la sécurité des véhicules
- Systèmes de vol contrôlés par l'IA soumis aux règles de sécurité aérienne de l'UE
- Systèmes d'IA surveillant la pression dans les installations industrielles au titre de la législation sur la sécurité des machines
Voie 2 : les huit catégories de l'annexe III
La seconde voie concerne les systèmes d'IA déployés dans huit catégories de cas d'usage spécifiques où le potentiel de préjudice pour la santé, la sécurité ou les droits fondamentaux est considéré comme intrinsèquement élevé. Ces catégories s'appliquent indépendamment du fait que le système d'IA soit intégré ou non dans un produit réglementé.
- Catégorie 1 — Biométrie : Identification biométrique à distance, catégorisation biométrique inférant des attributs sensibles, reconnaissance des émotions
- Catégorie 2 — Infrastructures critiques : Composants de sécurité dans les infrastructures numériques, la circulation routière, l'approvisionnement en eau, gaz, chauffage et électricité
- Catégorie 3 — Éducation : Détermination de l'accès ou de l'admission, évaluation des résultats d'apprentissage, surveillance des examens
- Catégorie 4 — Emploi : Recrutement, sélection, promotion, licenciement, attribution des tâches, suivi des performances
- Catégorie 5 — Services essentiels : Éligibilité aux prestations publiques, évaluation de la solvabilité, tarification du risque d'assurance, triage des appels d'urgence
- Catégorie 6 — Maintien de l'ordre : Évaluation du risque pour les victimes, évaluation de la fiabilité des preuves, évaluation du risque de récidive, profilage criminel
- Catégorie 7 — Migration : Évaluation des risques à l'entrée aux frontières, évaluation des demandes d'asile ou de visa, détection et identification des personnes
- Catégorie 8 — Justice et démocratie : Assistance à la recherche judiciaire, outils d'influence sur les élections et référendums
Le cadre d'exception : quand les systèmes de l'annexe III échappent au haut risque
L'article 6(3) crée une soupape de sécurité étroite pour les systèmes qui relèvent nominalement des catégories de l'annexe III mais qui, de manière démontrable, ne présentent aucun risque significatif de préjudice. Cette dérogation s'applique uniquement lorsque le système d'IA ne présente pas de risque significatif de préjudice pour la santé, la sécurité ou les droits fondamentaux, notamment en n'influençant pas matériellement le résultat de la prise de décision.
- Condition 1 : Le système d'IA exécute une tâche procédurale étroite — des fonctions administratives limitées et bien définies, sans jugement discrétionnaire
- Condition 2 : Le système d'IA améliore le résultat d'une activité humaine préalablement accomplie — des analyses aidant les personnes à revoir leur propre travail antérieur
- Condition 3 : Le système d'IA détecte des schémas décisionnels sans remplacer ni influencer l'évaluation humaine sans examen approprié
- Condition 4 : Le système d'IA exécute une tâche préparatoire à une évaluation pertinente — collecte préliminaire de données alimentant un jugement humain ultérieur
La clause de neutralisation par le profilage : l'exception qui élimine toutes les exceptions
C'est ici que de nombreuses organisations commettent des erreurs de classification catastrophiques. L'article 6(3) contient une clause de neutralisation absolue : indépendamment du fait que les conditions d'exception soient remplies ou non, un système d'IA visé à l'annexe III est toujours considéré comme à haut risque lorsqu'il effectue un profilage de personnes physiques.
Le profilage désigne toute forme de traitement automatisé de données à caractère personnel consistant à évaluer certains aspects personnels relatifs à une personne physique — notamment pour analyser ou prédire les performances professionnelles, la situation économique, la santé, les préférences, les intérêts, la fiabilité, le comportement, la localisation ou les déplacements.
Cette clause a des implications considérables. Un outil de recrutement pourrait n'exécuter qu'une tâche procédurale étroite d'analyse de CV — mais s'il évalue les candidats pour prédire leurs performances professionnelles, il profile des personnes physiques et est automatiquement à haut risque. Un outil de pré-qualification de crédit pourrait simplement effectuer des évaluations préparatoires — mais s'il analyse des données personnelles pour prédire la solvabilité, il profile et est automatiquement à haut risque.
Méthodologie de classification étape par étape
Compte tenu de la complexité du cadre de classification, les organisations ont besoin d'une approche systématique qui documente chaque étape analytique en vue d'une classification prête pour l'audit.
- Étape 1 — Détermination du champ d'application : Confirmer que le système répond à la définition de système d'IA de l'article 3(1)
- Étape 2 — Vérification des pratiques interdites : S'assurer que le système n'est pas interdit au titre de l'article 5
- Étape 3 — Analyse de la voie 1 : Évaluer le statut de composant de sécurité au titre de la législation de l'annexe I
- Étape 4 — Analyse de la voie 2 : Confronter la finalité prévue aux huit catégories de l'annexe III
- Étape 5 — Analyse des exceptions : Si l'annexe III s'applique, évaluer les conditions de l'article 6(3)
- Étape 6 — Vérification de la clause de profilage : Déterminer si le système profile des personnes physiques (élimine toutes les exceptions)
- Étape 7 — Documentation : Consigner l'intégralité de l'analyse de classification avec le raisonnement justificatif
Erreurs de classification courantes à éviter
L'expérience en matière de recherche et de conseil révèle des schémas récurrents d'erreurs de classification contre lesquels les organisations doivent activement se prémunir.
- Analyse centrée sur la technologie : La classification dépend de la finalité prévue, et non des capacités technologiques sous-jacentes
- Sous-estimation du champ du profilage : Tout système traitant des données personnelles pour formuler des prédictions sur des individus déclenche vraisemblablement la clause de neutralisation
- Présomption que l'intervention humaine élimine le haut risque : Si les résultats de l'IA influencent fortement les décisions humaines, le système reste à haut risque
- Ignorer l'évolution des cas d'usage : Les ajouts de fonctionnalités et l'élargissement du déploiement peuvent franchir les seuils de classification
- Mauvaise application des dérogations sectorielles : Les exceptions étroites (ex. : détection de fraude) peuvent ne pas s'appliquer lorsque la clause de profilage est déclenchée
- Présomption que le B2B réduit le risque : Le déploiement en contexte professionnel n'affecte pas la classification — les personnes concernées restent protégées
Ce que déclenche la classification à haut risque
La classification à haut risque active l'intégralité du cadre de conformité du chapitre III : systèmes de gestion des risques en continu, exigences de gouvernance des données pour les jeux de données d'entraînement, documentation technique de l'annexe IV, systèmes de gestion de la qualité, obligations de contrôle humain, procédures d'évaluation de la conformité, enregistrement dans la base de données de l'UE, surveillance après commercialisation et signalement des incidents graves.
La charge de conformité est substantielle mais définie. Les organisations qui classifient correctement leurs systèmes peuvent mettre en place des programmes de conformité ciblés. Celles qui commettent des erreurs de classification s'exposent soit à un gaspillage de ressources en conformité superflue, soit à une exposition aux mesures d'exécution pour conformité insuffisante.
Foire aux questions
Que faire si mon système ne correspond que partiellement à une catégorie à haut risque ?
Pour les cas limites où la classification demeure incertaine, l'approche conservatrice consiste à traiter le système comme à haut risque. Les conséquences d'une sur-classification — des coûts de conformité superflus mais gérables — sont bien moins graves que celles d'une sous-classification : des sanctions pouvant atteindre 15 millions d'EUR ou 3 % du chiffre d'affaires mondial.
L'ajout d'une vérification humaine supprime-t-il la classification à haut risque ?
Non. Le contrôle humain ne réduit pas automatiquement la classification. Si les résultats de l'IA influencent fortement les décisions humaines — si les opérateurs suivent habituellement les recommandations de l'IA sans analyse indépendante — le système influence matériellement les résultats et reste à haut risque.
Un système peut-il passer de non haut risque à haut risque ?
Oui. Des systèmes initialement déployés pour des applications à risque limité peuvent évoluer vers des cas d'usage à haut risque. Les ajouts de fonctionnalités, l'élargissement des contextes de déploiement et l'intégration avec d'autres systèmes peuvent franchir les seuils de classification. Les organisations doivent mettre en place une surveillance continue de la classification, et non se limiter à une évaluation ponctuelle.
Quand la Commission fournira-t-elle des orientations en matière de classification ?
La Commission européenne s'est engagée à publier des lignes directrices assorties d'exemples pratiques de systèmes d'IA à haut risque et non à haut risque d'ici février 2026. Toutefois, les organisations ne peuvent pas attendre — l'analyse de classification doit commencer dès maintenant pour respecter l'échéance d'août 2026.
Points clés à retenir
La classification n'est pas un exercice ponctuel. À mesure que les systèmes d'IA évoluent, que les contextes de déploiement changent et que les orientations réglementaires se précisent, les organisations doivent maintenir une surveillance continue de la classification. Développer cette capacité dès maintenant — avant l'échéance d'août 2026 — permet aux organisations d'aborder les exigences du règlement européen sur l'IA en toute confiance. En cas de doute, optez pour la prudence : les contrôles exigés pour les systèmes à haut risque constituent également de bonnes pratiques de gouvernance.
