Glossaire de la conformité IA
Définitions des termes clés de la gouvernance de l'IA, de la conformité à l'EU AI Act et des cadres réglementaires, pour les responsables conformité et les praticiens.
Conformité
Processus de conformité et exigences en matière de documentation
Dossier de preuves
Un ensemble structuré de documentation, journaux et artefacts qui démontre la conformité d'un système d'IA à destination des auditeurs.
Fiche modèle
Un document standardisé décrivant l'usage prévu d'un modèle d'IA, ses performances, ses limites et ses considérations éthiques.
Fiche système
Une documentation décrivant un système d'IA complet, y compris son architecture, ses composants, ses flux de données et son contexte opérationnel.
Surveillance après commercialisation
La surveillance continue des performances et de la conformité d'un système d'IA après déploiement afin d'identifier et traiter les problèmes.
EU AI Act
Termes et concepts clés du règlement européen sur l'IA (EU AI Act)
Annexe III
L'annexe de l'EU AI Act qui liste des catégories de systèmes d'IA à haut risque soumis à des exigences strictes de conformité.
Annexe IV
L'annexe de l'EU AI Act qui précise les exigences de documentation technique pour les systèmes d'IA à haut risque.
Déployeur
Une organisation qui utilise un système d'IA sous sa propre autorité, à l'exception d'un usage personnel non professionnel.
Évaluation de la conformité
Le processus visant à vérifier qu'un système d'IA satisfait à l'ensemble des exigences applicables de l'EU AI Act avant sa mise sur le marché.
Fournisseur
Une entité qui développe (ou fait développer) un système d'IA et le met sur le marché ou le met en service.
FRIA
Fundamental Rights Impact Assessment : une évaluation de la manière dont un système d'IA peut affecter les droits fondamentaux.
Marquage CE
Une marque de certification indiquant qu'un système d'IA respecte les exigences de l'UE en matière de santé, de sécurité et de protection de l'environnement.
Organisme notifié
Une organisation désignée par un État membre de l'UE pour évaluer la conformité de certains systèmes d'IA à haut risque.
Système d'IA à haut risque
Un système d'IA soumis à des exigences strictes au titre de l'EU AI Act en raison de son impact potentiel sur la santé, la sécurité ou les droits fondamentaux.
Gouvernance de l'IA
Concepts et cadres fondamentaux de gouvernance de l'IA
Gouvernance de l'IA
Le cadre de politiques, de processus et de contrôles qui garantit que les systèmes d'IA fonctionnent de manière sûre, éthique et conforme aux réglementations.
Supervision humaine
Des mécanismes garantissant que des humains peuvent surveiller, intervenir et outrepasser le fonctionnement d'un système d'IA lorsque nécessaire.
Technique
Concepts techniques pour la surveillance et le contrôle des systèmes d'IA
Détection de dérive
La surveillance des performances d'un système d'IA dans le temps afin d'identifier une dégradation ou une dérive par rapport au comportement attendu.
Détection des biais
Le processus consistant à identifier et mesurer des schémas injustes ou discriminatoires dans les sorties d'un système d'IA ou dans les données d'entraînement.
Explicabilité
La capacité à comprendre et à communiquer la manière dont un système d'IA produit ses sorties ou prend ses décisions.
Garde-fous
Des mécanismes techniques et procéduraux qui maintiennent un système d'IA dans des limites acceptables et empêchent des sorties nuisibles ou non conformes.
Piste d'audit
Un enregistrement chronologique des activités, décisions et interactions humaines d'un système d'IA, permettant la traçabilité et la redevabilité.
Prêt à mettre en œuvre la gouvernance de l'IA ?
Découvrez comment KLA Digital aide les organisations réglementées à rendre ces concepts opérationnels grâce à des points de contrôle des politiques, des pistes d'audit et des exports de preuves.
