KLA Digital Logo
KLA Digital
Governance dell'IA
Aggiornato: 13 gen 2026

Supervisione umana

Meccanismi che garantiscono che le persone possano monitorare, intervenire e sovrascrivere l'operatività di un sistema di IA quando necessario.

Definizione

La supervisione umana comprende strutture organizzative, meccanismi tecnici e salvaguardie procedurali che permettono a persone qualificate di monitorare il comportamento di un sistema di IA, intervenire quando emergono problemi e sovrascrivere o invertire decisioni guidate dall'IA quando necessario. Una supervisione efficace garantisce che l'IA resti uno strumento sotto controllo umano e non un attore autonomo senza responsabilità.

L'articolo 14 del EU AI Act rende la supervisione umana un requisito obbligatorio per i sistemi ad alto rischio. Il regolamento specifica che tali sistemi devono essere progettati per consentire alle persone fisiche di supervisionare efficacemente l'operatività, comprendendo capacità e limiti, restando consapevoli dell'automation bias, interpretando correttamente gli output e decidendo quando e come intervenire o sovrascrivere. Riconosce tre livelli di supervisione. Human-in-the-loop (HITL) richiede approvazione umana per ogni decisione prima che produca effetti. Human-on-the-loop (HOTL) consente al sistema di operare mentre gli umani monitorano e possono intervenire in tempo reale. Human-in-command (HIC) attribuisce agli umani autorità di impostare policy, rivedere campioni e gestire eccezioni senza rivedere ogni singola decisione. Le misure devono essere proporzionate al rischio e al contesto. Inoltre, l'articolo 14 richiede che le persone responsabili siano competenti, formate e dotate di autorità e risorse. La supervisione non è solo una feature tecnica, ma un impegno organizzativo.

Implementare supervisione conforme richiede infrastruttura tecnica e processi operativi. Sul lato tecnico: meccanismi che portano le decisioni a revisione, code di approvazione, intervento e override, e tracciamento delle attività. Sul lato operativo: ruoli, procedure di escalation, formazione e risorse per evitare colli di bottiglia.

Il carico di documentazione è significativo. Per ogni azione di supervisione, registrate chi ha revisionato, quali informazioni erano disponibili, quale azione è stata intrapresa e perché. Questa evidenza dimostra che la supervisione è stata esercitata in pratica. Serve bilanciare profondità ed efficienza: rivedere ogni decisione a basso rischio non è necessario, ma le decisioni che impattano diritti fondamentali richiedono giudizio umano. La chiave è collegare l'intensità della supervisione al rischio con workflow di approvazione e criteri di escalation ben progettati.