Supervision humaine
Des mécanismes garantissant que des humains peuvent surveiller, intervenir et outrepasser le fonctionnement d'un système d'IA lorsque nécessaire.
Définition
La supervision humaine regroupe les structures organisationnelles, les mécanismes techniques et les garde-fous procéduraux qui permettent à des personnes qualifiées de surveiller le comportement d'un système d'IA, d'intervenir en cas de problème et d'outrepasser ou d'inverser des décisions pilotées par l'IA si nécessaire. Une supervision efficace garantit que l'IA reste un outil sous contrôle humain plutôt qu'un acteur autonome échappant à la responsabilité.
L'article 14 du EU AI Act fait de la supervision humaine une exigence obligatoire pour les systèmes à haut risque. Le règlement précise que ces systèmes doivent être conçus pour permettre à des personnes physiques de superviser efficacement leur fonctionnement, notamment en comprenant les capacités et limites du système, en restant conscientes du biais d'automatisation, en interprétant correctement les sorties et en décidant quand et comment intervenir ou outrepasser. Il reconnaît trois niveaux de supervision, adaptés à des contextes de risque différents. Human-in-the-loop (HITL, « humain dans la boucle ») exige une approbation humaine pour chaque décision avant exécution. Human-on-the-loop (HOTL) permet au système d'opérer tandis que des humains surveillent et peuvent intervenir en temps réel. Human-in-command (HIC) donne aux humains l'autorité de définir des politiques, de revoir des échantillons et de gérer des exceptions sans examiner chaque décision. Les systèmes à haut risque doivent implémenter des mesures de supervision proportionnées au niveau de risque et au contexte opérationnel. Point crucial : l'article 14 exige aussi que les personnes responsables de la supervision soient compétentes, formées et dotées de l'autorité et des ressources nécessaires. La supervision n'est pas une simple fonctionnalité technique, mais un engagement organisationnel avec des responsabilités documentées.
Mettre en œuvre une supervision conforme nécessite à la fois une infrastructure technique et des processus opérationnels. Côté technique, il faut des mécanismes qui exposent les décisions pour revue humaine, mettent en file les actions en attente d'approbation, permettent l'intervention et l'override, et capturent la documentation des activités de supervision. Côté opérationnel, il faut définir des rôles, établir des procédures d'escalade, former les équipes et allouer des ressources suffisantes pour éviter que la supervision ne devienne un goulot d'étranglement.
La charge documentaire est importante. Pour chaque action de supervision, les organisations devraient enregistrer qui a revu la décision, quelles informations étaient disponibles, quelle action a été prise et pourquoi. Ces preuves montrent que la supervision n'était pas seulement théorique mais exercée en pratique. Il faut équilibrer exhaustivité et efficacité : revoir chaque décision à faible risque n'est ni requis ni praticable, mais les décisions à haut risque affectant les droits fondamentaux exigent un jugement humain attentif. La clé est d'adapter l'intensité de la supervision au risque via des workflows d'approbation et des critères d'escalade bien conçus.
Termes connexes
Gouvernance de l'IA
Le cadre de politiques, de processus et de contrôles qui garantit que les systèmes d'IA fonctionnent de manière sûre, éthique et conforme aux réglementations.
Système d'IA à haut risque
Un système d'IA soumis à des exigences strictes au titre de l'EU AI Act en raison de son impact potentiel sur la santé, la sécurité ou les droits fondamentaux.
Piste d'audit
Un enregistrement chronologique des activités, décisions et interactions humaines d'un système d'IA, permettant la traçabilité et la redevabilité.
