La classificazione del rischio è la decisione più determinante in assoluto ai fini della conformità al Regolamento UE sull'Intelligenza Artificiale. Una classificazione corretta consente di seguire un percorso di conformità definito, con requisiti chiari. Una classificazione errata genera conseguenze a catena: risorse sprecate per obblighi non necessari o, ben più grave, la scoperta di un'esposizione sanzionatoria solo dopo il deployment. Con l'entrata in vigore dei requisiti completi per i sistemi ad alto rischio il 2 agosto 2026, le organizzazioni devono padroneggiare questo quadro di classificazione fin da ora.
L'Architettura Fondamentale: Due Percorsi verso la Classificazione ad Alto Rischio
L'Articolo 6 del Regolamento UE sull'IA stabilisce due percorsi indipendenti attraverso i quali un sistema di IA diventa ad alto rischio. Comprendere questi percorsi è essenziale poiché attivano tempistiche di conformità e procedure di valutazione della conformità differenti.
- Percorso 1 (Articolo 6(1)): Sistemi di IA destinati a essere utilizzati come componenti di sicurezza di prodotti disciplinati dalla legislazione di armonizzazione dell'Allegato I che richiede una valutazione della conformità da parte di terzi
- Percorso 2 (Articolo 6(2)): Sistemi di IA impiegati in otto categorie specifiche di casi d'uso dell'Allegato III in cui il potenziale di danno è intrinsecamente elevato
Percorso 1: Componenti di Sicurezza nei Prodotti Regolamentati
Un sistema di IA viene automaticamente classificato come ad alto rischio quando sono soddisfatte due condizioni cumulative. In primo luogo, il sistema di IA deve essere destinato a essere utilizzato come componente di sicurezza di un prodotto, oppure il sistema di IA deve esso stesso costituire un prodotto, disciplinato dalla legislazione di armonizzazione dell'UE elencata nell'Allegato I. In secondo luogo, il prodotto deve essere soggetto a una valutazione della conformità da parte di terzi ai sensi di tale legislazione.
L'Allegato I comprende oltre trenta direttive e regolamenti che coprono macchinari, giocattoli, Regolamento sui Dispositivi Medici, dispositivi diagnostici in vitro, aviazione civile, veicoli a motore, equipaggiamento marittimo, sistemi ferroviari e altro ancora.
- Robot chirurgici basati sull'IA disciplinati dal Regolamento sui Dispositivi Medici
- IA per il mantenimento della corsia e la frenata di emergenza nei veicoli autonomi ai sensi della normativa sulla sicurezza dei veicoli
- Sistemi di volo controllati dall'IA soggetti alle norme UE sulla sicurezza dell'aviazione
- Sistemi di IA per il monitoraggio della pressione negli impianti di produzione ai sensi della legislazione sulla sicurezza dei macchinari
Percorso 2: Le Otto Categorie dell'Allegato III
Il secondo percorso riguarda i sistemi di IA impiegati in otto categorie specifiche di casi d'uso in cui il potenziale di danno alla salute, alla sicurezza o ai diritti fondamentali è considerato intrinsecamente elevato. Queste categorie operano indipendentemente dal fatto che il sistema di IA sia integrato in un prodotto regolamentato.
- Categoria 1 - Biometria: Identificazione biometrica remota, categorizzazione biometrica che inferisce attributi sensibili, riconoscimento delle emozioni
- Categoria 2 - Infrastrutture Critiche: Componenti di sicurezza nelle infrastrutture digitali, traffico stradale, approvvigionamento idrico, gas, riscaldamento, energia elettrica
- Categoria 3 - Istruzione: Determinazione dell'accesso/ammissione, valutazione dei risultati dell'apprendimento, sorveglianza degli esami
- Categoria 4 - Occupazione: Assunzione, selezione, promozione, licenziamento, assegnazione delle mansioni, monitoraggio delle prestazioni
- Categoria 5 - Servizi Essenziali: Ammissibilità alle prestazioni pubbliche, valutazione del merito creditizio, determinazione del prezzo del rischio assicurativo, triage delle emergenze
- Categoria 6 - Attività di Contrasto: Valutazione del rischio per le vittime, valutazione dell'affidabilità delle prove, valutazione del rischio di recidiva, profilazione criminale
- Categoria 7 - Migrazione: Valutazione del rischio per l'ingresso alle frontiere, valutazione delle domande di asilo/visto, individuazione e identificazione delle persone
- Categoria 8 - Giustizia e Democrazia: Assistenza alla ricerca giudiziaria, strumenti di influenza su elezioni e referendum
Il Quadro delle Eccezioni: Quando i Sistemi dell'Allegato III Non Sono ad Alto Rischio
L'Articolo 6(3) prevede una clausola di esclusione limitata per i sistemi che rientrano nominalmente nelle categorie dell'Allegato III ma che dimostrano di non comportare rischi significativi di danno. Questa deroga si applica esclusivamente quando il sistema di IA non presenta un rischio significativo di danno alla salute, alla sicurezza o ai diritti fondamentali, anche in virtù del fatto che non influenza materialmente l'esito del processo decisionale.
- Condizione 1: Il sistema di IA svolge un compito procedurale limitato — funzioni amministrative circoscritte e ben definite, prive di discrezionalità decisionale
- Condizione 2: Il sistema di IA migliora il risultato di un'attività umana precedentemente completata — analisi che aiuta gli esseri umani a riesaminare il proprio lavoro pregresso
- Condizione 3: Il sistema di IA rileva schemi decisionali senza sostituire o influenzare la valutazione umana in assenza di un adeguato riesame
- Condizione 4: Il sistema di IA svolge un compito preparatorio rispetto a una valutazione pertinente — raccolta preliminare di dati destinata a confluire nel successivo giudizio umano
La Clausola di Prevalenza della Profilazione: L'Eccezione che Elimina Tutte le Eccezioni
È su questo punto che molte organizzazioni commettono errori di classificazione catastrofici. L'Articolo 6(3) contiene una clausola di prevalenza assoluta: indipendentemente dal soddisfacimento di qualsiasi condizione di eccezione, un sistema di IA di cui all'Allegato III è sempre considerato ad alto rischio quando effettua la profilazione di persone fisiche.
La profilazione è qualsiasi trattamento automatizzato di dati personali finalizzato a valutare determinati aspetti personali relativi a una persona fisica — in particolare l'analisi o la previsione del rendimento professionale, della situazione economica, della salute, delle preferenze, degli interessi, dell'affidabilità, del comportamento, dell'ubicazione o degli spostamenti.
Questa clausola di prevalenza ha implicazioni di vasta portata. Uno strumento di reclutamento potrebbe svolgere esclusivamente il compito procedurale limitato di analizzare curricula — ma se valuta i candidati per prevederne il rendimento professionale, effettua la profilazione di persone fisiche ed è automaticamente ad alto rischio. Uno strumento di pre-qualifica creditizia potrebbe limitarsi a svolgere valutazioni preparatorie — ma se analizza dati personali per prevedere il merito creditizio, effettua la profilazione ed è automaticamente ad alto rischio.
Metodologia di Classificazione Passo dopo Passo
Data la complessità del quadro di classificazione, le organizzazioni necessitano di un approccio sistematico che documenti ogni passaggio analitico per una classificazione pronta per l'audit.
- Fase 1 - Determinazione dell'Ambito: Confermare che il sistema soddisfa la definizione di sistema di IA di cui all'Articolo 3(1)
- Fase 2 - Verifica delle Pratiche Vietate: Accertarsi che il sistema non sia vietato ai sensi dell'Articolo 5
- Fase 3 - Analisi del Percorso 1: Valutare lo status di componente di sicurezza ai sensi della legislazione dell'Allegato I
- Fase 4 - Analisi del Percorso 2: Verificare la corrispondenza della finalità prevista con le otto categorie dell'Allegato III
- Fase 5 - Analisi delle Eccezioni: Se l'Allegato III si applica, valutare le condizioni dell'Articolo 6(3)
- Fase 6 - Verifica della Clausola di Prevalenza della Profilazione: Determinare se il sistema effettua la profilazione di persone fisiche (elimina tutte le eccezioni)
- Fase 7 - Documentazione: Registrare l'analisi completa della classificazione con le motivazioni a supporto
Errori di Classificazione Comuni da Evitare
L'esperienza nella ricerca e nella consulenza rivela schemi ricorrenti di errori di classificazione contro i quali le organizzazioni devono attivamente premunirsi.
- Analisi incentrata sulla tecnologia: La classificazione dipende dalla finalità prevista, non dalle capacità tecnologiche sottostanti
- Sottovalutazione della portata della profilazione: Qualsiasi sistema che tratta dati personali per formulare previsioni sulle persone attiva verosimilmente la clausola di prevalenza
- Presunzione che la supervisione umana elimini l'alto rischio: Se gli output dell'IA influenzano fortemente le decisioni umane, il sistema resta ad alto rischio
- Mancata considerazione dell'evoluzione dei casi d'uso: L'aggiunta di funzionalità e l'ampliamento del deployment possono superare le soglie di classificazione
- Applicazione errata delle esclusioni settoriali: Le eccezioni limitate (ad es. rilevamento delle frodi) potrebbero non applicarsi quando si attiva la clausola di prevalenza della profilazione
- Presunzione che il B2B riduca il rischio: Il deployment in ambito aziendale non incide sulla classificazione — le persone interessate restano tutelate
Cosa Comporta la Classificazione ad Alto Rischio
La classificazione ad alto rischio attiva l'intero quadro di conformità del Capo III: sistemi di gestione del rischio continui, requisiti di governance dei dati per i dataset di addestramento, documentazione tecnica dell'Allegato IV, sistemi di gestione della qualità, obblighi di supervisione umana, procedure di valutazione della conformità, registrazione nella banca dati dell'UE, sorveglianza post-commercializzazione e segnalazione degli incidenti gravi.
L'onere di conformità è significativo ma definito. Le organizzazioni che classificano accuratamente i propri sistemi possono costruire programmi di conformità mirati. Le organizzazioni che commettono errori di classificazione affrontano o lo spreco di risorse per conformità non necessarie o l'esposizione sanzionatoria per conformità inadeguata.
Domande frequenti
Cosa fare se il mio sistema rientra solo parzialmente in una categoria ad alto rischio?
Per i casi borderline in cui la classificazione rimane incerta, l'approccio conservativo consiste nel trattare il sistema come ad alto rischio. Le conseguenze di una sovra-classificazione — costi di conformità non necessari ma gestibili — sono di gran lunga meno gravi rispetto alla sotto-classificazione: sanzioni che possono raggiungere 15 milioni di EUR o il 3% del fatturato globale.
L'aggiunta della revisione umana elimina la classificazione ad alto rischio?
No. La supervisione umana non riduce automaticamente la classificazione. Se gli output dell'IA influenzano fortemente le decisioni umane — se gli esseri umani tendono a seguire le raccomandazioni dell'IA senza un'analisi indipendente — il sistema influenza materialmente gli esiti e resta ad alto rischio.
Un sistema può passare da non ad alto rischio ad alto rischio?
Sì. I sistemi inizialmente impiegati per applicazioni a rischio limitato possono evolvere verso casi d'uso ad alto rischio. L'aggiunta di funzionalità, l'ampliamento dei contesti di deployment e l'integrazione con altri sistemi possono superare le soglie di classificazione. Le organizzazioni necessitano di un monitoraggio continuo della classificazione, non di valutazioni una tantum.
Quando fornirà la Commissione indicazioni sulla classificazione?
La Commissione Europea si è impegnata a fornire linee guida con esempi pratici di sistemi di IA ad alto rischio e non ad alto rischio entro febbraio 2026. Tuttavia, le organizzazioni non possono attendere: l'analisi della classificazione deve iniziare ora per rispettare la scadenza di agosto 2026.
Punti chiave
La classificazione non è un esercizio da svolgere una sola volta. Con l'evoluzione dei sistemi di IA, il mutare dei contesti di deployment e l'emergere di indicazioni normative, le organizzazioni devono mantenere un monitoraggio continuo della classificazione. Costruire questa capacità ora — prima della scadenza di agosto 2026 — consente alle organizzazioni di affrontare i requisiti del Regolamento UE sull'IA con fiducia. In caso di dubbio, adottate un approccio prudente: i controlli richiesti per i sistemi ad alto rischio rappresentano anche buone pratiche di governance.
