Détection de dérive
La surveillance des performances d'un système d'IA dans le temps afin d'identifier une dégradation ou une dérive par rapport au comportement attendu.
Définition
La détection de dérive consiste à surveiller en continu des systèmes d'IA en production afin d'identifier les écarts par rapport aux baselines attendues. Les systèmes d'IA peuvent se dégrader au fil du temps lorsque les données réelles rencontrées divergent des données d'entraînement, lorsque les comportements des utilisateurs évoluent ou lorsque les relations sous-jacentes modélisées changent. Sans détection de dérive, les organisations peuvent ne pas se rendre compte que leurs systèmes produisent des sorties non fiables ou biaisées jusqu'à ce qu'un préjudice significatif survienne.
L'article 72 du EU AI Act impose aux fournisseurs de systèmes à haut risque d'établir des systèmes de surveillance après commercialisation qui collectent, documentent et analysent activement des données de performance tout au long de la durée de vie. La détection de dérive est une capacité technique centrale pour satisfaire cette exigence. Il est impossible de surveiller si un système continue à se comporter comme prévu sans mécanismes permettant de détecter quand il ne le fait plus. Le règlement reconnaît que les systèmes d'IA ne sont pas statiques : contrairement à un logiciel traditionnel qui se comporte de manière identique à entrée identique, un système d'IA peut présenter des changements de comportement émergents lorsque les patterns de données de production évoluent. Une évaluation de conformité au moment de la mise sur le marché ne garantit pas une conformité durable ; il faut démontrer une surveillance continue.
Une détection de dérive efficace couvre plusieurs formes d'écarts : la dérive des données (changement de la distribution statistique des entrées par rapport à l'entraînement), la dérive de concept (changement de la relation entre entrées et sorties correctes), la dérive de performance du modèle (dégradation de métriques comme l'exactitude, la précision ou le rappel) et la dérive des prédictions (changement de la distribution des sorties, même si l'exactitude reste stable).
La détection de dérive implique d'établir des baselines lors de la validation, de mettre en place une surveillance statistique en production (par exemple population stability index, tests de Kolmogorov-Smirnov ou mesures de divergence de distribution), de définir des seuils d'alerte et de prévoir des procédures de réponse lorsque la dérive est détectée.
Termes connexes
Détection des biais
Le processus consistant à identifier et mesurer des schémas injustes ou discriminatoires dans les sorties d'un système d'IA ou dans les données d'entraînement.
Surveillance après commercialisation
La surveillance continue des performances et de la conformité d'un système d'IA après déploiement afin d'identifier et traiter les problèmes.
Garde-fous
Des mécanismes techniques et procéduraux qui maintiennent un système d'IA dans des limites acceptables et empêchent des sorties nuisibles ou non conformes.
