Rilevamento della deriva
Il monitoraggio delle performance di un sistema di IA nel tempo per individuare degradazioni o deviazioni dal comportamento atteso.
Definizione
Il rilevamento della deriva è la pratica di monitorare continuamente sistemi di IA in produzione per identificare quando il comportamento si discosta dai baselines attesi. I sistemi possono degradarsi nel tempo quando i dati reali differiscono dai dati di training, cambiano i comportamenti degli utenti o si spostano le relazioni sottostanti che il modello cattura. Senza rilevamento della deriva, le organizzazioni potrebbero non accorgersi che i sistemi producono output inaffidabili o biasati fino a quando non si verifica un danno significativo.
L'articolo 72 del EU AI Act richiede ai fornitori di sistemi ad alto rischio di istituire sistemi di monitoraggio post-commercializzazione che raccolgano, documentino e analizzino dati di performance lungo la vita utile. Il rilevamento della deriva è una capacità tecnica centrale per soddisfare tale requisito: non potete monitorare se un sistema continua a funzionare come previsto senza meccanismi per rilevare quando non lo fa. Il regolamento riconosce che i sistemi di IA non sono statici: a differenza del software tradizionale, possono mostrare cambiamenti emergenti quando cambiano i pattern di dati in produzione. La valutazione di conformità al momento dell'immissione sul mercato non garantisce conformità continua; serve monitoraggio durante il ciclo di vita.
Un rilevamento efficace affronta diverse forme di deviazione: data drift (cambiamento della distribuzione statistica degli input), concept drift (cambiamento della relazione tra input e output corretti), model performance drift (degradazione di metriche come accuracy, precision e recall) e prediction drift (cambiamento della distribuzione degli output anche se le metriche restano stabili).
Il rilevamento della deriva richiede baselines definiti in validazione, monitoraggio statistico in produzione (ad esempio population stability index, test di Kolmogorov-Smirnov o misure di divergenza), soglie di alert adeguate e procedure di risposta quando la deriva viene rilevata.
Termini correlati
Rilevamento dei bias
Il processo di identificare e misurare pattern ingiusti o discriminatori negli output di un sistema di IA o nei dati di training.
Monitoraggio post-commercializzazione
La sorveglianza continua di performance e conformità di un sistema di IA dopo il deployment per identificare e risolvere problemi.
Barriere di sicurezza
Meccanismi tecnici e procedurali che vincolano il comportamento dell'IA entro limiti accettabili e prevengono output dannosi o non conformi.
