KLA Digital Logo
KLA Digital
Hub de la loi européenne sur l'IA

EU AI Act Compliance Hub : niveaux de risque, obligations, preuves

Déterminez ce qui s’applique à vous. Générez des checklists et des artefacts prêts pour audit à partager avec auditeurs, juristes et direction.

À titre d’orientation uniquement. Pas un avis juridique.

Sélection :Pas sûr · Agent conversationnel
Chronologie

Ce qui a changé et quand

Dates clés en langage clair, avec signal de fraîcheur.

Dernière mise à jour : 3 févr. 2026
12 juil. 2024
Publié au Journal officiel
Début du compte à rebours. Utilisez cette date pour vérifier les échéances d’application progressive.
1 août 2024
Entrée en vigueur
Le règlement est en vigueur, avec des obligations qui s’appliquent plus tard.
2 févr. 2025
Pratiques interdites applicables (article 5)
Haut risque ou non, les cas interdits doivent être retirés ou repensés.
2 août 2025
Début des obligations GPAI
Les obligations côté fournisseur commencent pour les modèles GPAI et à risque systémique.
2 août 2026
La plupart des obligations s’appliquent
Les programmes opérationnels doivent être en production, pas « en planification ».
2 août 2027
Certaines règles haut risque s’appliquent pleinement
Les exigences tardives et spécifiques par catégorie entrent en vigueur.
Carte de liens internes

Bibliothèque conformité

Liens piliers reliant obligations à artefacts, guides et outils.

Classification des risques

Déterminez si votre système est interdit, à haut risque ou à risque limité.

Exigences + documentation

Traduire les articles en documentation technique et artefacts auditables.

Guides parties prenantes

Obligations fournisseur, déployeur et GPAI en langage clair.

Mise en œuvre + preuves

Construire le chemin de preuves attendu par régulateurs et auditeurs.

Guides sectoriels

Feuilles de route adaptées aux secteurs réglementés.

Interdit · Haut risque · Limité · Minimal

Niveaux de risque (vue opérationnelle)

Juste ce qu’il faut pour s’orienter.

Interdit

Risque inacceptable (interdit)

Risques stop‑ship. Retirer ou refondre et conserver les preuves de remédiation.

Exemples typiques

  • Pratiques interdites (article 5)
  • Certains usages biométriques ou manipulateurs

Ce qu’il faut en place

  • Un gate « fail‑closed » (bloque les chemins interdits)
  • Un historique de décisions de remédiation (tickets, validations, releases)
  • Preuves de suppression/refonte et tests de régression
Haut risque

Haut risque (annexe III)

Opérationnaliser les contrôles et constituer un dossier prêt pour audit.

Exemples typiques

  • Décisions RH / recrutement
  • Décisions crédit/assurance
  • Biométrie sensible
  • Opérations santé

Ce qu’il faut en place

  • Gestion des risques + preuves de vérification
  • Documentation technique alignée annexe IV
  • Logs/traçabilité et preuves de supervision humaine
  • Processus QMS + cadence de monitoring
Limité

Risque limité (transparence)

Ajouter des disclosures et conserver les preuves.

Exemples typiques

  • Chatbots et agents conversationnels
  • Contenu IA généré ou manipulé

Ce qu’il faut en place

  • Disclosures dans le flux utilisateur
  • Preuves de disclosure (captures + événements télémétrie)
  • Change control pour mises à jour modèle/policy
Minime

Risque minimal

Gouvernance de base pour prouver ce qui a tourné et pourquoi.

Exemples typiques

  • Outils internes et automatisation à faible enjeu (souvent)

Ce qu’il faut en place

  • System card + revue de risque légère
  • Logging de base (quoi/quand) et rétention
  • Monitoring + gestion d’incident
3 min

Checker risques + obligations

Orientation rapide avec résumé des obligations et étapes recommandées.

Vérificateur
Étape 1 sur 9

EU AI Act – check risques + obligations

Orientation uniquement. Résultats immédiats ; export protégé par e‑mail pour partage.

Ce checker de 3 minutes estime votre niveau de risque probable et les obligations à opérationnaliser, ainsi que les preuves à conserver.

  • Résultats accessibles sans friction
  • Export verrouillé par e‑mail
  • Liens vers modèles et deep dives par rôle

Pas un avis juridique.

Répertoire

Deep dives populaires

Spokes à forte intention : étapes opérationnelles et checklists de preuves.

Liste des systèmes à haut risque (annexe III) avec exemples

Fournisseurs et déployeurs qui cartographient les cas d’usage aux catégories à haut risque

Checklist pratique « est‑ce annexe III ? » avec indications de preuves.

7 minutesLire

Pratiques interdites (article 5) – checklist opérationnelle

Toute équipe mettant des fonctionnalités IA sur le marché de l’UE

Filtre rapide des risques « stop‑ship » et documentation de la remédiation.

6 minutesLire

Obligations de transparence (article 50) – langage clair

Chatbots, agents conversationnels, deepfakes et génération de contenu

Quels avis ajouter et quelles preuves conserver.

7 minutesLire

Obligations GPAI et modèles de fondation (orientation)

Équipes qui utilisent, fournissent ou déploient des modèles d’IA généralistes

Obligations fournisseur vs déployeur et demandes à adresser aux vendeurs.

8 minutesLire

Évaluation de conformité expliquée

Équipes à haut risque préparant audits et mise en production

Ce que signifie « évaluation » au quotidien et quels artefacts réunir.

7 minutesLire

Checklist documentation technique (alignée annexe IV)

Équipes d’ingénierie et conformité rédigeant les dossiers

Un squelette pour bâtir un dossier défendable.

9 minutesLire

Essentiels du QMS (système de management de la qualité)

Fournisseurs qui industrialisent la conformité

Processus QMS minimum et preuves à conserver.

8 minutesLire

Amendes et sanctions (sans alarmisme)

Dirigeants et responsables risques qui budgétisent la conformité

Lecture claire des signaux d’application et réduction de l’exposition.

6 minutesLire
Ressource à télécharger

Modèles + artefacts

Outputs transférables qui facilitent l’adhésion interne.

Starter Pack conformité

  • Modèle AI System Card
  • Plan d’évaluation des risques (style registre)
  • Checklist plan de supervision humaine
  • Squelette de documentation technique
  • Checklist due diligence fournisseurs (déployeur)
  • Checklist logging/audit events (evidence‑ready)

Besoin de la structure complète annexe IV ? Prenez le pack de modèles annexe IV.

Exemples fictifs. Pas un avis juridique.

Besoin d’un chemin de preuves ?

KLA Digital transforme les obligations en contrôles, les contrôles en mesures et les mesures en preuves défendables exportables.

Plan de contrôle

Opérationnaliser la conformité

Des obligations → contrôles. Des contrôles → mesures. Des mesures → preuves défendables.

Gouverner

Des checkpoints policy‑as‑code stoppent les étapes risquées, imposent les disclosures et bloquent les chemins interdits.

  • Checkpoints + règles d’escalade
  • Change control lié aux releases
  • Approbations d’exception avec expiration

Mesurer

Échantillonnages pour précision/grounding, suivi des quasi‑incidents et dérive visible.

  • Évaluations par échantillonnage + seuils
  • Tendances quasi‑incidents et violations
  • Alerting + preuves d’escalade

Prouver

Audit trail append‑only infalsifiable avec exports Evidence Room pour les auditeurs.

  • Audit trail infalsifiable
  • Bundles d’export Evidence Room
  • Preuves d’intégrité pour la défense
Pas un avis juridique

FAQ

Réponses rapides aux questions de périmètre et de mise en œuvre.

Prochaine étape

Prêt à transformer la confusion en preuves ?

Lancez le checker, téléchargez des modèles ou réservez un appel de préparation.