Il Regolamento (UE) 2024/1689, noto come AI Act, è stato recentemente introdotto con l’obiettivo di favorire uno sviluppo dell’intelligenza artificiale in modo sicuro e rispettoso dei diritti fondamentali. Questo regolamento stabilisce linee guida specifiche per la gestione e il controllo dei sistemi di IA, concentrandosi in particolare sui sistemi ad alto rischio, che richiedono un’attenzione mirata per garantire sicurezza, trasparenza e tutela dei diritti degli utenti. Tuttavia, l’applicazione di queste normative si prospetta complessa e pone sfide significative, soprattutto per i sistemi già in uso.

L’AI Act suddivide i sistemi di IA in quattro categorie principali: sistemi proibiti, sistemi ad alto rischio, sistemi con regolamentazione speciale e altri sistemi non rientranti nelle categorie precedenti. Per quanto riguarda i sistemi ad alto rischio, il regolamento stabilisce una serie di requisiti che i fornitori e altri operatori devono soddisfare, comprendendo, tra gli altri, standard elevati di robustezza, trasparenza, sicurezza informatica e accuratezza. Tali requisiti mirano a prevenire potenziali rischi, proteggere i diritti umani e garantire una supervisione continua sui sistemi in uso.

Un aspetto critico riguarda i sistemi ad alto rischio già presenti sul mercato. L’articolo 111, paragrafo 2, stabilisce che tali sistemi dovranno adeguarsi ai nuovi requisiti solo se, dal 2 agosto 2026, subiranno “modifiche significative”. Tuttavia, il regolamento non fornisce una definizione chiara di cosa costituisca una “modifica significativa”, rendendo difficoltoso per i fornitori determinare con certezza quando un aggiornamento richieda un nuovo processo di conformità.

Il termine “modifica significativa” è solo vagamente definito nel Considerando 177 dell’AI Act come equivalente alla “modifica sostanziale” di un sistema ad alto rischio. Tale modifica viene definita nell’articolo 3, punto 23, come un cambiamento non previsto che incide sulla conformità del sistema rispetto ai requisiti di sicurezza e alle finalità per cui era stato originariamente valutato. Questa definizione copre due situazioni: un cambiamento che altera i requisiti di conformità oppure modifica la finalità prevista del sistema. La mancanza di dettagli più specifici crea ambiguità interpretative, complicando l’identificazione dei casi in cui un aggiornamento comporta nuovi obblighi di conformità.

Al fine di esplorare questa ambiguità, possiamo immaginare vari scenari. Ad esempio, un sistema ad alto rischio già immesso sul mercato prima dell’agosto 2026 e privo di modifiche successive non richiederebbe ulteriori adeguamenti. Tuttavia, se questo sistema subisse un cambiamento sostanziale non previsto, che altera la conformità rispetto ai requisiti di sicurezza, allora l’operatore sarebbe obbligato ad adeguarsi al regolamento. Nel caso di una modifica non prevista ma che non impatta sulla conformità, vi è incertezza su come procedere, poiché il regolamento non specifica chiaramente se questa situazione implichi nuovi obblighi.

Un altro problema riguarda le modifiche programmate che si realizzano senza impatto sulla conformità: il regolamento non chiarisce se tali modifiche comportino o meno l’obbligo di conformità. Questa ambiguità genera incertezze significative per gli operatori, i quali potrebbero trovarsi in una situazione di difficoltà nell’interpretazione delle disposizioni. In sintesi, la questione delle “modifiche significative” e delle sue implicazioni è destinata a diventare un tema centrale nel dibattito sull’attuazione dell’AI Act, soprattutto per quanto riguarda i sistemi IA ad alto rischio. Senza una guida chiara, i fornitori e gli altri operatori del settore potrebbero trovarsi a navigare in una zona grigia, dove la mancanza di chiarezza sulle normative rischia di ostacolare lo sviluppo tecnologico, contrariamente agli intenti del legislatore.