Dopo aver ricevuto il via libera dal Comitato dei rappresentanti permanenti (COREPER) il 2 febbraio, si veda che il Regolamento sull’Intelligenza Artificiale (“AI Act” o “Regolamento“) ha ottenuto l’approvazione dalla commissione per il mercato interno e la protezione dei consumatori (IMCO) e dalla commissione per le libertà civili, la giustizia e gli affari interni (LIBE) del Parlamento europeo il 13 febbraio. Questi passaggi aprono la strada verso la conclusione del processo di approvazione, con l’ultimo passo previsto per aprile, quando il Parlamento voterà in sessione plenaria seguito dall’approvazione del Consiglio. Di fatto, il cammino verso il risultato positivo della votazione è stato complesso, con momenti in cui le trattative hanno subito delle pause, fino all’accordo politico raggiunto nel dicembre 2023. L’accordo politico si configura come il culmine di un processo di mediazione laborioso, necessario per superare le differenze tra gli Stati membri riguardo ai modelli fondamentali dell’intelligenza artificiale e alle questioni di sicurezza.
Questo sottolinea l’impegno e la determinazione necessari per conciliare le varie prospettive e interessi coinvolti e l’attenzione posta sul fatto che i diritti e le libertà delle persone siano stati salvaguardati nella versione del testo dell’AI Act resa pubblica evidenzia l’importanza della tutela dei diritti individuali nel contesto dell’intelligenza artificiale. Ciò sottolinea che, nonostante le complessità e le sfide affrontate nel processo decisionale, l’obiettivo principale di proteggere i diritti fondamentali è stato mantenuto al centro del dibattito e delle negoziazioni.
Dalla versione del testo dell’AI Act resa pubblica emerge che sono stati preservati i diritti e le libertà delle persone: si introducono diverse novità significative, prima di tutto, l’articolo 1, paragrafo 1, stabilisce la protezione della salute, della sicurezza e dei diritti fondamentali, conformemente alla Carta dei diritti fondamentali dell’Unione Europea, focalizzandosi esclusivamente su questi ambiti specifici in termini di rischi. Inoltre, la sicurezza nazionale è esclusa dall’ambito di applicazione del Regolamento. La definizione di sistema di intelligenza artificiale è stata riformulata per allinearla a quella fornita dall’OCSE, escludendo i sistemi software tradizionali più semplici o gli approcci di programmazione basati solo su regole definite da persone fisiche.
Sussiste il divieto di diverse pratiche di intelligenza artificiale, come l’identificazione biometrica in tempo reale da parte delle autorità di contrasto in spazi pubblici, lo scraping non mirato di immagini facciali per creare database di riconoscimento facciale, il riconoscimento delle emozioni sul posto di lavoro e nelle scuole, e la categorizzazione biometrica basata su opinioni o caratteristiche specifiche. Tuttavia, sono previste eccezioni a tali divieti in alcuni casi.
In conclusione, vi sono ulteriori sistemi di categorizzazione biometrica, riconoscimento delle emozioni e identificazione biometrica a distanza sono inclusi nell’Elenco dei sistemi di IA ad alto rischio. Il compromesso introduce salvaguardie per l’uso di sistemi di identificazione biometrica da remoto e stabilisce l’obbligo per alcuni deployer di effettuare una valutazione semplificata dell’impatto sui diritti fondamentali. Sono altresì presenti obblighi per i modelli di AI per scopi generali, come l’aggiornamento e la messa a disposizione della documentazione tecnica e vengono definiti criteri per individuare i sistemi di AI che presentano rischi sistemici e si stabiliscono obblighi specifici per gli stessi. Infine, viene concesso un termine dilatorio di quattro anni per adeguarsi ai requisiti del Regolamento per i sistemi di intelligenza artificiale ad alto rischio già in circolazione o in servizio presso le autorità pubbliche.
Scrivi un commento
Devi accedere, per commentare.