Supervisione umana
Meccanismi che garantiscono che le persone possano monitorare, intervenire e sovrascrivere l'operatività di un sistema di IA quando necessario.
Definizione
La supervisione umana comprende strutture organizzative, meccanismi tecnici e salvaguardie procedurali che permettono a persone qualificate di monitorare il comportamento di un sistema di IA, intervenire quando emergono problemi e sovrascrivere o invertire decisioni guidate dall'IA quando necessario. Una supervisione efficace garantisce che l'IA resti uno strumento sotto controllo umano e non un attore autonomo senza responsabilità.
L'articolo 14 del EU AI Act rende la supervisione umana un requisito obbligatorio per i sistemi ad alto rischio. Il regolamento specifica che tali sistemi devono essere progettati per consentire alle persone fisiche di supervisionare efficacemente l'operatività, comprendendo capacità e limiti, restando consapevoli dell'automation bias, interpretando correttamente gli output e decidendo quando e come intervenire o sovrascrivere. Riconosce tre livelli di supervisione. Human-in-the-loop (HITL) richiede approvazione umana per ogni decisione prima che produca effetti. Human-on-the-loop (HOTL) consente al sistema di operare mentre gli umani monitorano e possono intervenire in tempo reale. Human-in-command (HIC) attribuisce agli umani autorità di impostare policy, rivedere campioni e gestire eccezioni senza rivedere ogni singola decisione. Le misure devono essere proporzionate al rischio e al contesto. Inoltre, l'articolo 14 richiede che le persone responsabili siano competenti, formate e dotate di autorità e risorse. La supervisione non è solo una feature tecnica, ma un impegno organizzativo.
Implementare supervisione conforme richiede infrastruttura tecnica e processi operativi. Sul lato tecnico: meccanismi che portano le decisioni a revisione, code di approvazione, intervento e override, e tracciamento delle attività. Sul lato operativo: ruoli, procedure di escalation, formazione e risorse per evitare colli di bottiglia.
Il carico di documentazione è significativo. Per ogni azione di supervisione, registrate chi ha revisionato, quali informazioni erano disponibili, quale azione è stata intrapresa e perché. Questa evidenza dimostra che la supervisione è stata esercitata in pratica. Serve bilanciare profondità ed efficienza: rivedere ogni decisione a basso rischio non è necessario, ma le decisioni che impattano diritti fondamentali richiedono giudizio umano. La chiave è collegare l'intensità della supervisione al rischio con workflow di approvazione e criteri di escalation ben progettati.
Termini correlati
Governance dell'IA
Il quadro di politiche, processi e controlli che garantisce che i sistemi di IA operino in modo sicuro, etico e conforme alle normative.
Sistema di IA ad alto rischio
Un sistema di IA soggetto a requisiti stringenti nell'EU AI Act per il suo potenziale impatto su salute, sicurezza o diritti fondamentali.
Traccia di audit
Un record cronologico delle attività, decisioni e interazioni umane di un sistema di IA che abilita tracciabilità e responsabilità.
