FRIA
Fundamental Rights Impact Assessment: una valutazione di come un sistema di IA possa incidere sui diritti fondamentali.
Definizione
Una valutazione d'impatto sui diritti fondamentali (Fundamental Rights Impact Assessment, FRIA) è un processo strutturato che identifica, analizza e documenta gli impatti potenziali di un sistema di IA sui diritti fondamentali tutelati dal diritto UE, inclusi non discriminazione, privacy, dignità e accesso a servizi essenziali. La FRIA va oltre il rischio tecnico per esaminare come il deployment dell'IA possa influire su individui e gruppi.
L'articolo 27 del EU AI Act impone che gli utilizzatori di alcuni sistemi ad alto rischio conducano una FRIA prima di mettere il sistema in uso. Il requisito si applica in particolare a enti pubblici e a soggetti privati che forniscono servizi essenziali come sanità, istruzione o servizi finanziari. L'obbligo di FRIA rappresenta un'estensione rispetto alle tradizionali valutazioni d'impatto sulla protezione dei dati (DPIA) previste dal GDPR. Mentre una DPIA si concentra soprattutto sul trattamento dei dati personali e sui rischi per la privacy, una FRIA considera impatti sociali più ampi: discriminazione, dignità e accesso ai servizi. Le organizzazioni soggette a entrambe dovrebbero coordinarle riconoscendo scope distinti.
Una FRIA conforme richiede un approccio sistematico. Innanzitutto, identificate quali diritti fondamentali potrebbero essere impattati, considerando effetti diretti e indiretti. Documentate rischi specifici, probabilità e severità, e misure di mitigazione. Elementi chiave: diritti interessati (non discriminazione, privacy, libertà di espressione), analisi di come design e deployment possano impattarli, valutazione di barriere e mitigazioni e documentazione dei rischi residui. Stabilite anche processi di revisione continua mentre il sistema opera e il contesto cambia.
La FRIA deve essere completata prima del deployment del sistema ad alto rischio e aggiornata in caso di cambiamenti significativi.
Termini correlati
Sistema di IA ad alto rischio
Un sistema di IA soggetto a requisiti stringenti nell'EU AI Act per il suo potenziale impatto su salute, sicurezza o diritti fondamentali.
Utilizzatore
Un'organizzazione che usa un sistema di IA sotto la propria autorità, salvo uso personale non professionale.
Supervisione umana
Meccanismi che garantiscono che le persone possano monitorare, intervenire e sovrascrivere l'operatività di un sistema di IA quando necessario.
