Spiegabilità
La capacità di comprendere e comunicare come un sistema di IA arrivi ai suoi output o decisioni.
Definizione
La spiegabilità si riferisce al grado con cui le persone possono comprendere e articolare il ragionamento dietro output, predizioni o decisioni di un sistema di IA. Include sia l'interpretabilità tecnica (comprendere i meccanismi interni del modello) sia la trasparenza pratica (comunicare decisioni alle persone interessate in modo accessibile).
Il EU AI Act rende la spiegabilità un pilastro dell'IA affidabile tramite i requisiti di trasparenza dell'articolo 13. I sistemi ad alto rischio devono essere progettati per consentire agli utenti di interpretare gli output e comprendere il comportamento in modo appropriato. Non è solo un requisito tecnico, ma abilita la supervisione umana: non si può supervisionare in modo efficace ciò che non si capisce. Per sistemi che prendono decisioni con impatti significativi (credito, selezione del personale), la spiegabilità è sia requisito regolatorio sia imperativo etico. Il regolamento riconosce che una "trasparenza sufficiente" non richiede interpretabilità completa di ogni peso; richiede spiegazioni proporzionate al rischio e comprensibili per l'audience prevista.
Le organizzazioni devono implementare la spiegabilità a più livelli. A livello di modello, tecniche come SHAP values, LIME o attention visualization aiutano a capire importanza delle feature e percorsi decisionali. A livello di decisione, i sistemi dovrebbero generare spiegazioni leggibili da umani per output individuali, rivedibili nei workflow di supervisione o fornibili alle persone interessate su richiesta.
La sfida è bilanciare spiegabilità, performance e efficienza operativa. Documentate l'approccio come parte della documentazione tecnica dell'Allegato IV: metodi usati, informazioni catturate per decisione e accessibilità per gli stakeholder rilevanti.
Termini correlati
Supervisione umana
Meccanismi che garantiscono che le persone possano monitorare, intervenire e sovrascrivere l'operatività di un sistema di IA quando necessario.
Rilevamento dei bias
Il processo di identificare e misurare pattern ingiusti o discriminatori negli output di un sistema di IA o nei dati di training.
Scheda modello
Un documento standardizzato che descrive l'uso previsto di un modello di IA, performance, limiti e considerazioni etiche.
