Il Regolamento UE sull'IA definisce percorsi di conformità distinti a seconda che un'azienda SaaS sia classificata come fornitore o deployer — una determinazione che condiziona l'intero carico normativo. Per la maggior parte dei fornitori SaaS che sviluppano funzionalità di IA, la risposta è chiara: sono fornitori ai sensi dell'Articolo 3(3), il che attiva gli obblighi più stringenti del Regolamento, tra cui valutazioni di conformità, documentazione tecnica, marcatura CE e monitoraggio successivo all'immissione sul mercato. Questa guida fornisce una roadmap completa per orientarsi tra questi requisiti, con particolare attenzione alla scadenza di agosto 2026, quando le norme sui sistemi di IA ad alto rischio diventeranno applicabili.
Fornitore vs. deployer: la classificazione che definisce i vostri obblighi
Il Regolamento UE sull'IA stabilisce quadri di conformità fondamentalmente diversi per fornitori e deployer. Comprendere quale ruolo occupa la vostra azienda SaaS — e quando tale classificazione potrebbe cambiare — è il primo passo essenziale nella pianificazione della conformità.
Un fornitore ai sensi dell'Articolo 3(3) è qualsiasi soggetto che sviluppa un sistema di IA (o ne commissiona lo sviluppo) e lo immette sul mercato o lo mette in servizio con il proprio nome o marchio, a titolo oneroso o gratuito. Un deployer ai sensi dell'Articolo 3(4) è qualsiasi soggetto che utilizza un sistema di IA sotto la propria autorità a fini professionali. Per le aziende SaaS, ciò significa tipicamente che il fornitore del software è il fornitore ai sensi del Regolamento e il cliente è il deployer.
Il fattore determinante è il nome o marchio con cui appare il sistema di IA. Un'azienda SaaS che propone uno strumento di selezione del personale basato sull'IA con il proprio marchio è inequivocabilmente un fornitore, mentre il dipartimento HR che acquista e utilizza quello strumento è un deployer. Questo vale anche quando l'azienda SaaS integra modelli di IA di terze parti come GPT-4 o Claude — incapsulare un'API e offrirla con il proprio marchio vi rende il fornitore di quel sistema di IA.
Diversi scenari possono rendere ambigua o modificare questa classificazione. Gli accordi in white-label sono particolarmente rilevanti: ai sensi dell'Articolo 25(1)(a), se un cliente appone il proprio nome o marchio su un sistema di IA ad alto rischio già immesso sul mercato, diventa il fornitore ed eredita tutti gli obblighi corrispondenti. Le modifiche sostanziali rappresentano un altro elemento di attivazione — l'Articolo 3(23) le definisce come modifiche non previste nella valutazione di conformità iniziale che incidono sulla conformità o modificano la finalità prevista.
Il fine-tuning e la personalizzazione presentano casi limite sfumati. La semplice aggiunta di dati personalizzati o la regolazione degli iperparametri non costituisce tipicamente una modifica sostanziale — i clienti rimangono deployer. Tuttavia, se un cliente riaddestra significativamente un modello, ne altera sostanzialmente le capacità o utilizza un sistema non ad alto rischio per una finalità ad alto rischio, può essere considerato fornitore ai sensi dell'Articolo 25. I fornitori SaaS dovrebbero disciplinare esplicitamente questi scenari nei contratti per prevenire ambiguità.
Classificazione ad alto rischio: quando le vostre funzionalità SaaS attivano la piena conformità
Il Regolamento UE sull'IA adotta un quadro normativo basato sul rischio, con i sistemi di IA ad alto rischio soggetti ai requisiti più stringenti. L'Articolo 6 stabilisce due percorsi verso la classificazione ad alto rischio: componenti di sicurezza in prodotti regolamentati (Allegato I) e casi d'uso specifici elencati nell'Allegato III.
L'Articolo 6(3) prevede eccezioni — i sistemi dell'Allegato III non sono ad alto rischio se eseguono compiti procedurali limitati, migliorano i risultati di attività umane precedentemente completate, rilevano schemi decisionali senza sostituire la valutazione umana o svolgono attività preparatorie. Tuttavia, i sistemi che effettuano la profilazione di persone fisiche sono sempre ad alto rischio, indipendentemente da tali eccezioni.
I fornitori SaaS dovrebbero condurre un'analisi di classificazione accurata per ciascuna funzionalità di IA. Un chatbot generico per il servizio clienti rappresenta un rischio limitato che richiede esclusivamente obblighi di trasparenza. Un motore di raccomandazione è tipicamente a rischio minimo. Ma nel momento in cui la stessa tecnologia viene applicata alla selezione di candidati per un impiego o alla valutazione del merito creditizio, diventa ad alto rischio con pieni requisiti di conformità. È la finalità prevista — non la tecnologia sottostante — a determinare la classificazione.
- Occupazione e gestione dei lavoratori (Categoria 4): IA per il reclutamento, la selezione dei candidati, gli annunci di lavoro mirati, le decisioni in materia di impiego, l'assegnazione dei compiti e il monitoraggio delle prestazioni
- Accesso a servizi essenziali (Categoria 5): credit scoring, valutazione del merito creditizio, valutazione del rischio e determinazione dei prezzi per le assicurazioni vita e malattia
- Istruzione (Categoria 3): IA per determinare l'ammissione, valutare i risultati dell'apprendimento, valutare il livello di istruzione, monitorare il comportamento degli studenti durante gli esami
- Biometria (Categoria 1): sistemi di identificazione biometrica remota, categorizzazione biometrica e riconoscimento delle emozioni ove consentiti
Obblighi del fornitore: il quadro di conformità completo per l'IA ad alto rischio
I fornitori di sistemi di IA ad alto rischio sono soggetti a un quadro normativo completo che comprende requisiti pre-commercializzazione, valutazione di conformità e obblighi continuativi di monitoraggio successivo all'immissione sul mercato. Per le aziende SaaS, questi requisiti devono essere integrati nei processi di sviluppo del prodotto sin dall'inizio.
L'Articolo 9 impone un sistema di gestione dei rischi continuo e iterativo lungo l'intero ciclo di vita dell'IA. I fornitori devono identificare e analizzare i rischi noti e ragionevolmente prevedibili, stimare e valutare i rischi sulla base dell'uso previsto e dell'uso improprio ragionevolmente prevedibile, implementare misure di mitigazione appropriate e documentare i rischi residui.
L'Articolo 10 stabilisce i requisiti di governance dei dati per i sistemi addestrati con dati. I dataset di addestramento, validazione e test devono essere pertinenti, rappresentativi e privi di errori nella misura del possibile. I fornitori devono documentare la provenienza dei dati, implementare meccanismi di rilevamento e correzione dei bias e stabilire pratiche appropriate per il trattamento di eventuali categorie particolari di dati personali utilizzati esclusivamente ai fini del rilevamento dei bias.
Requisiti di documentazione tecnica ai sensi dell'Allegato IV
L'Allegato IV specifica requisiti di documentazione completi direttamente applicabili ai prodotti SaaS. La documentazione deve coprire la descrizione generale (finalità prevista, identificazione del fornitore, cronologia delle versioni, tutte le forme di immissione sul mercato incluse le API, requisiti hardware e descrizione dell'interfaccia utente), il processo di sviluppo (specifiche di progettazione, architettura del sistema, risorse computazionali utilizzate, scelte progettuali principali e relative motivazioni) e i requisiti relativi ai dati (metodologie di addestramento, descrizioni dei dataset e relativa provenienza, metodi di acquisizione dei dati, procedure di etichettatura).
Per i sistemi SaaS ad aggiornamento continuo, la documentazione delle modifiche predeterminate è fondamentale — una documentazione dettagliata di tutte le modifiche previste e delle soluzioni tecniche che garantiscono la conformità continuativa. Ciò è essenziale per evitare valutazioni di conformità ripetute. L'Articolo 11 prevede che le PMI e le startup possano utilizzare un modulo di documentazione semplificato stabilito dalla Commissione Europea.
- La documentazione deve essere conservata per 10 anni dopo l'immissione sul mercato del sistema
- I test e la validazione devono includere metriche di accuratezza, robustezza e conformità con registri dei test datati e firmati
- Le misure di sorveglianza umana devono essere documentate conformemente ai requisiti dell'Articolo 14
- Le modifiche predeterminate devono essere documentate per evitare valutazioni di conformità ripetute
Percorsi di valutazione della conformità
L'Articolo 43 stabilisce due percorsi per la valutazione della conformità. Il controllo interno (Allegato VI) consente l'autovalutazione quando il fornitore ha applicato norme armonizzate o specifiche comuni che coprono tutti i requisiti pertinenti. La valutazione da parte di terzi ad opera di un organismo notificato (Allegato VII) è obbligatoria per i sistemi di identificazione biometrica remota e per i sistemi che traggono inferenze sulle caratteristiche personali da dati biometrici, con certificazione valida per quattro anni.
Per i prodotti SaaS ad aggiornamento continuo, l'Articolo 43(4) offre una flessibilità fondamentale: le modifiche che erano state predeterminate al momento della valutazione di conformità iniziale e documentate nelle specifiche tecniche non costituiscono modifiche sostanziali che richiedono una nuova valutazione. Ciò consente ai sistemi ad apprendimento continuo di operare senza valutazioni ripetute — a condizione che le modifiche siano state previste e documentate in anticipo.
Marcatura CE: il contrassegno digitale di conformità per i prodotti software
I requisiti di marcatura CE si applicano ai sistemi di IA ad alto rischio prima dell'immissione sul mercato. L'Articolo 48(2) disciplina specificamente i prodotti SaaS e digitali, richiedendo una marcatura CE digitale facilmente accessibile tramite l'interfaccia da cui si accede al sistema o tramite un codice leggibile da macchina o altri mezzi elettronici facilmente accessibili.
L'implementazione pratica per i prodotti SaaS include la visualizzazione della marcatura CE digitale all'interno dell'interfaccia software, la sua accessibilità tramite codici leggibili da macchina (codici QR o endpoint API) o la fornitura di altri mezzi elettronici che garantiscano un facile accesso. La marcatura deve essere visibile, leggibile e permanente, includendo il numero di identificazione dell'organismo notificato nel caso in cui sia stata condotta una valutazione da parte di terzi.
I fornitori devono inoltre redigere una Dichiarazione UE di conformità (Articolo 47) per ciascun sistema di IA, da conservare e rendere disponibile alle autorità nazionali per dieci anni dopo l'immissione sul mercato. La registrazione nella banca dati UE (Articoli 49 e 71) impone ai fornitori di registrare sé stessi e i propri sistemi di IA ad alto rischio prima dell'immissione sul mercato.
Monitoraggio successivo all'immissione sul mercato e segnalazione degli incidenti
Gli obblighi del fornitore si estendono per l'intera durata del ciclo di vita del sistema di IA. L'Articolo 72 impone un sistema di monitoraggio successivo all'immissione sul mercato proporzionato alla natura e ai rischi della tecnologia. Il sistema deve raccogliere, documentare e analizzare attivamente e sistematicamente i dati sulle prestazioni per tutta la vita del sistema, valutare la conformità continuativa e analizzare le interazioni con altri sistemi di IA ove pertinente.
I requisiti di registrazione dei log ai sensi dell'Articolo 12 impongono che i sistemi ad alto rischio consentano tecnicamente la registrazione automatica degli eventi per l'intera durata del loro funzionamento. I log devono identificare le situazioni che presentano rischi, facilitare il monitoraggio successivo all'immissione sul mercato e consentire il controllo da parte del deployer. I fornitori devono conservare i log per un minimo di sei mesi.
La segnalazione degli incidenti (Articolo 73) impone ai fornitori di segnalare gli incidenti gravi — definiti come decesso, danni gravi alla salute, danni materiali, danni ambientali, interruzione di infrastrutture critiche o violazione dei diritti fondamentali — alle autorità di vigilanza del mercato. Il termine standard è di 15 giorni dall'accertamento del nesso causale; gli incidenti gravi che incidono sulla vita o sulla salute richiedono la segnalazione entro due giorni.
Obblighi del deployer e come i fornitori SaaS devono supportare i clienti
Sebbene i deployer siano soggetti a un minor numero di requisiti normativi diretti, i deployer di sistemi di IA ad alto rischio hanno obblighi significativi ai sensi dell'Articolo 26. I fornitori SaaS devono consentire e supportare la conformità dei propri clienti.
La sorveglianza umana rappresenta l'obbligo centrale del deployer. I deployer devono affidare la sorveglianza umana a persone fisiche dotate della competenza, della formazione, dell'autorità e del supporto necessari. I sorveglianti devono comprendere le capacità e i limiti del sistema, essere consapevoli del rischio di distorsione dell'automazione, interpretare correttamente gli output e mantenere l'autorità di ignorare o interrompere il sistema. Per i sistemi di identificazione biometrica, è richiesta la verifica da parte di almeno due persone fisiche prima di intraprendere qualsiasi azione.
La trasparenza nei confronti delle persone interessate impone ai deployer di sistemi ad alto rischio che prendono decisioni riguardanti persone fisiche di informare tali persone dell'uso del sistema di IA. Ai sensi dell'Articolo 86, le persone interessate hanno il diritto di ricevere spiegazioni chiare e comprensibili sul ruolo del sistema di IA e sugli elementi principali delle decisioni.
Le Valutazioni d'impatto sui diritti fondamentali (Articolo 27) sono richieste per deployer specifici: enti pubblici, soggetti privati che forniscono servizi pubblici e qualsiasi deployer che utilizzi IA per la valutazione del merito creditizio o del rischio assicurativo. La FRIA deve documentare i processi del deployer, la durata e la frequenza d'uso, le categorie di persone interessate, i rischi specifici per i diritti fondamentali, le misure di sorveglianza umana e le azioni di mitigazione dei rischi.
- Fornire istruzioni per l'uso complete conformi ai requisiti dell'Articolo 13
- Consentire la sorveglianza umana attraverso una progettazione appropriata dell'interfaccia
- Fornire accesso ai log e strumenti di interpretazione
- Mettere a disposizione documentazione tecnica ai fini della DPIA
- Offrire formazione per i sorveglianti umani e metriche di accuratezza
- Istituire canali di segnalazione degli incidenti
Requisiti contrattuali: cosa devono includere gli accordi SaaS basati sull'IA
L'Articolo 13 impone informazioni specifiche che i fornitori devono comunicare ai deployer. Gli accordi SaaS dovrebbero incorporare sistematicamente tali requisiti, con clausole contrattuali chiare che disciplinino ciascun elemento.
Le informazioni obbligatorie includono l'identità e i recapiti del fornitore, la finalità prevista e le caratteristiche dettagliate delle prestazioni, il livello di accuratezza, robustezza e metriche di cybersecurity, le circostanze note che possono generare rischi, le specifiche dei dati di input, le caratteristiche attese degli output e le indicazioni per la loro interpretazione, le modifiche predeterminate e il loro impatto sulla conformità, le misure di sorveglianza umana, i requisiti computazionali, la durata di vita prevista e i meccanismi di registrazione dei log.
Gli elementi del quadro contrattuale dovrebbero includere chiare clausole di classificazione che confermino lo status di fornitore/deployer, limitazioni dell'ambito d'uso previsto con esplicite clausole di uso vietato, garanzie del fornitore relative alla conformità agli Articoli 9-15, garanzie del deployer relative alla conformità all'Articolo 26, obblighi di condivisione delle informazioni, requisiti di cooperazione per il monitoraggio successivo all'immissione sul mercato e la segnalazione degli incidenti, e clausole risolutive per inadempimenti sostanziali o modifiche della classificazione.
IA per finalità generali: obblighi aggiuntivi nell'integrazione di modelli fondazionali
Le aziende SaaS che integrano modelli di IA per finalità generali come GPT-4, Claude o Gemini sono soggette a un quadro normativo specifico. L'Articolo 3(63) definisce i modelli GPAI come modelli che presentano una generalità significativa, in grado di svolgere un'ampia gamma di compiti distinti e integrabili in una varietà di sistemi a valle.
Distinzione fondamentale: le aziende SaaS che integrano modelli GPAI sono tipicamente fornitori di sistemi di IA o fornitori a valle — non fornitori di modelli GPAI. Non sono soggette agli obblighi previsti dagli Articoli 53-55 per i modelli GPAI, che ricadono su OpenAI, Anthropic, Google e altri sviluppatori di modelli fondazionali. Le aziende SaaS devono invece conformarsi ai requisiti per i sistemi di IA appropriati alla propria classificazione di rischio.
I fornitori di modelli GPAI devono fornire documentazione che consenta ai fornitori a valle di comprendere capacità e limiti. Ai sensi dell'Articolo 53(1)(b), ai fornitori di GPAI può essere richiesto di fornire informazioni aggiuntive entro 14 giorni su richieste rilevanti per l'integrazione. I modelli GPAI a rischio sistemico — quelli addestrati con una potenza di calcolo cumulativa superiore a 10^25 FLOPS — sono soggetti a requisiti aggiuntivi tra cui valutazioni del modello, test avversariali e protezioni di cybersecurity.
Cronologia: date critiche per la pianificazione della conformità SaaS
A gennaio 2026, diverse disposizioni importanti sono già applicabili, mentre la scadenza più significativa si avvicina tra sette mesi.
Già in vigore: Pratiche di IA vietate (2 febbraio 2025), inclusi il social scoring, l'IA manipolativa e la biometria non autorizzata. Requisiti di alfabetizzazione in materia di IA (2 febbraio 2025), che impongono alle organizzazioni di garantire che il personale disponga di un'adeguata alfabetizzazione in materia di IA. Obblighi per i modelli GPAI (2 agosto 2025) a carico dei fornitori di modelli fondazionali. Strutture di governance (2 agosto 2025) con regime sanzionatorio attivo fino a 35 milioni di EUR o il 7% del fatturato globale.
La scadenza critica imminente è il 2 agosto 2026: i requisiti per i sistemi di IA ad alto rischio si applicano alle categorie dell'Allegato III, gli obblighi di trasparenza ai sensi dell'Articolo 50 diventano applicabili e l'attività di enforcement nazionale diventa pienamente operativa.
- 2 febbraio 2025: pratiche di IA vietate applicabili con sanzioni massime
- 2 agosto 2025: obblighi per i modelli GPAI in vigore; autorità nazionali designate
- 2 agosto 2026: piena applicazione dei requisiti per i sistemi di IA ad alto rischio ai sensi dell'Allegato III
- 2 agosto 2027: requisiti applicabili all'IA ad alto rischio incorporata in prodotti regolamentati
Strategie pratiche di conformità per lo sviluppo SaaS
L'integrazione dei requisiti del Regolamento UE sull'IA nei processi di sviluppo prodotto richiede quadri di governance sistematici e integrazione nei processi aziendali.
Priorità immediate (Q1 2026): completare un inventario dei sistemi di IA su tutti i prodotti e le funzionalità, classificare ciascun sistema per categoria di rischio, identificare le responsabilità di fornitore e deployer per ciascuno scenario di deployment, condurre un'analisi delle lacune rispetto ai requisiti applicabili e valutare la postura di conformità dei fornitori di IA terzi.
Costruzione delle fondamenta (Q1-Q2 2026): istituire un comitato di governance dell'IA con chiara attribuzione di responsabilità, sviluppare una policy sull'IA allineata all'approccio basato sul rischio, implementare programmi di formazione sull'alfabetizzazione in materia di IA, creare modelli di documentazione per la documentazione tecnica e le valutazioni dei rischi e aggiornare i Termini di Servizio e gli accordi SaaS con le informative previste dall'Articolo 13.
Conformità per i sistemi ad alto rischio (Q2-Q3 2026): implementare i sistemi di gestione dei rischi previsti dall'Articolo 9, stabilire le procedure di governance dei dati previste dall'Articolo 10, redigere la documentazione tecnica ai sensi dell'Allegato IV, progettare meccanismi di sorveglianza umana conformi ai requisiti dell'Articolo 14, implementare i sistemi di registrazione dei log previsti dall'Articolo 12 e prepararsi alla valutazione di conformità.
Classificazione dei casi d'uso: come sono regolamentate le funzionalità IA più comuni nei SaaS
I chatbot per il servizio clienti rappresentano un rischio limitato che richiede informative di trasparenza ai sensi dell'Articolo 50. Gli utenti devono essere informati che stanno interagendo con un sistema di IA, a meno che ciò non risulti evidente dalle circostanze. Non è richiesta alcuna valutazione di conformità né documentazione obbligatoria oltre all'obbligo di trasparenza.
I motori di raccomandazione sono tipicamente a rischio minimo per le raccomandazioni di prodotto di base o la personalizzazione dei contenuti. Tuttavia, diventano ad alto rischio se utilizzati per la profilazione di persone ai fini di decisioni in materia di impiego o per determinare l'accesso a servizi essenziali.
L'IA per le risorse umane e il reclutamento è esplicitamente ad alto rischio ai sensi dell'Allegato III, Categoria 4. Ciò include l'IA per il reclutamento e la selezione, la selezione dei candidati, gli annunci di lavoro mirati, le decisioni in materia di impiego, l'assegnazione dei compiti basata sul comportamento individuale e il monitoraggio delle prestazioni. Si applicano i requisiti di conformità completi.
Gli strumenti di valutazione creditizia e finanziaria sono esplicitamente ad alto rischio ai sensi dell'Allegato III, Categoria 5, per la valutazione del merito creditizio, il credit scoring e la valutazione del rischio per le assicurazioni vita e malattia. L'eccezione: l'IA utilizzata esclusivamente per il rilevamento di frodi finanziarie non è ad alto rischio.
Domande frequenti
Siamo fornitore o deployer ai sensi del Regolamento UE sull'IA?
Se avete sviluppato il sistema di IA o lo immettete sul mercato con il vostro nome o marchio, siete un fornitore con pieni obblighi di conformità. Se utilizzate un sistema di IA di terze parti sotto la vostra autorità a fini professionali, siete un deployer con obblighi meno gravosi ma comunque sostanziali. Molte aziende SaaS sono fornitori per le proprie funzionalità di IA e al contempo deployer dell'IA di terze parti integrata. Il fattore determinante è il marchio con cui appare il sistema di IA.
È necessaria la marcatura CE per le funzionalità IA del nostro SaaS?
Sì, se il vostro SaaS include funzionalità di IA ad alto rischio e siete il fornitore. L'Articolo 48(2) disciplina specificamente i prodotti digitali, richiedendo una marcatura CE digitale accessibile tramite l'interfaccia software, codici leggibili da macchina o altri mezzi elettronici. Dovete inoltre effettuare la registrazione nella banca dati UE sull'IA prima dell'immissione sul mercato.
Cosa succede se un nostro cliente utilizza la nostra IA per una finalità ad alto rischio?
Se un cliente destina la vostra IA a un caso d'uso ad alto rischio non coperto dalla vostra valutazione di conformità, può essere considerato fornitore ai sensi dell'Articolo 25 ed ereditare gli obblighi del fornitore. Condizioni generali di servizio chiare con esplicite clausole di uso vietato, controlli tecnici che limitino le applicazioni ad alto rischio e clausole contrattuali che disciplinino le modifiche di classificazione possono limitare la vostra esposizione.
Come gestiscono la valutazione di conformità i sistemi SaaS ad aggiornamento continuo?
L'Articolo 43(4) offre una flessibilità fondamentale: le modifiche che erano state predeterminate al momento della valutazione di conformità iniziale e documentate nelle specifiche tecniche non costituiscono modifiche sostanziali che richiedono una nuova valutazione. Ciò consente ai sistemi ad apprendimento continuo di operare senza valutazioni ripetute — ma solo se le modifiche erano state previste e documentate in anticipo.
Quali informazioni dobbiamo fornire ai clienti ai sensi dell'Articolo 13?
Le informazioni obbligatorie includono: identità e recapiti del fornitore, finalità prevista e caratteristiche delle prestazioni, metriche di accuratezza e robustezza, circostanze di rischio note, specifiche dei dati di input, indicazioni per l'interpretazione degli output, modifiche predeterminate, misure di sorveglianza umana, requisiti computazionali e meccanismi di registrazione dei log. Queste informazioni dovrebbero essere incorporate sistematicamente nei vostri accordi SaaS.
Punti chiave
Il Regolamento UE sull'IA rappresenta il quadro normativo sull'intelligenza artificiale più completo a livello globale, con portata extraterritoriale che interessa qualsiasi azienda SaaS che serva clienti nell'UE o produca effetti su residenti dell'UE. I sette mesi che ci separano dall'applicazione di agosto 2026 rappresentano il periodo critico per istituire processi conformi. La classificazione determina tutto — investite in un'analisi rigorosa di ciascuna funzionalità di IA rispetto alle categorie dell'Allegato III. La documentazione è difesa — i requisiti dell'Allegato IV dovrebbero essere integrati nei flussi di lavoro di sviluppo anziché essere trattati come adeguamenti di conformità retroattivi. I contratti sono strumenti di conformità — gli accordi SaaS devono evolversi per incorporare le informative dell'Articolo 13, gli obblighi di supporto al deployer e chiare clausole di classificazione dei ruoli. Le aziende che tratteranno la conformità al Regolamento UE sull'IA come una disciplina di sviluppo prodotto anziché come un onere giuridico saranno nella posizione migliore sia per la conformità normativa che per la fiducia dei clienti.
