Definendo le applicazioni dell’intelligenza artificiale nel contesto giuridico, è opportuno focalizzarsi sullo scenario delle decisioni, al fine di discernere le differenze rispetto alle decisioni prese da giudici umani e le prospettive future. Nel campo dell’AI Law, è ormai una realtà consolidata che la decisione umana, in svariati settori come la giustizia, l’amministrazione, la sanità e lo scoring creditizio, possa essere integrata o sostituita da decisioni basate su processi computazionali. La questione centrale è determinare cosa e quanto debba rimanere nell’ambito delle decisioni umane.
In questa vasta cornice, uno dei settori maggiormente approfonditi riguarda l’applicazione di sistemi di intelligenza artificiale e procedure algoritmiche nelle decisioni giuridiche ed oltre cinquant’anni fa, fu definito il campo della giurimetria: in quegli anni pionieristici, gli elaboratori elettronici erano principalmente strumenti per la raccolta e la catalogazione della giurisprudenza. Tuttavia, già allora si intravedevano possibili evoluzioni della cibernetica verso una maggiore interazione con le attività umane. Oggi, l’intelligenza artificiale è diventata un fenomeno sociale totale, permeando molteplici settori. Nel campo della giustizia, non è solo il risultato o la rapidità che contano, ma anche il processo attraverso un confronto pieno e effettivo delle difese. La qualità della decisione giurisdizionale deve riflettere la capacità del giudice di rivelare la singolarità dei fatti e dei contesti umani, calibrando la decisione su questioni eticamente sensibili o rivendicazioni concrete difficili da classificare statisticamente.
Non tutto può essere ridotto ai binari della computazione algoritmica, poiché il diritto è chiamato a considerare una varietà irriducibile di fatti che richiedono ragionevolezza e proporzionalità. La combinazione di logica razionale ed esperienza umana non è ancora completamente alla portata delle macchine, soprattutto quando si tratta di decisioni che coinvolgono direttamente le persone e la loro libertà, come nel processo penale. La giustizia penale richiede uno sguardo umano, uno scambio di empatia tra il giudice e l’imputato o la vittima. Ad oggi, il tema del giusto processo in relazione all’utilizzo dell’intelligenza artificiale nei contesti giurisdizionali è stato esplorato sia a livello internazionale che in Italia, dove la dottrina legale ha riflettuto sull’impiego di algoritmi nei processi giurisdizionali. Attualmente, l’utilizzo di algoritmi nelle decisioni giudiziarie in Italia è vietato dall’articolo 8 del Decreto Legislativo 51 del 2018, a meno che non sia consentito dal diritto dell’Unione o dello Stato membro. Tuttavia, il rischio di un’eventuale evoluzione legislativa e l’adozione di decisioni automatizzate sono argomenti di dibattito.
La sentenza numero 881 del 2020 del Consiglio di Stato ha affrontato il diritto di accesso dell’interessato riguardo all’utilizzo di algoritmi, sostenendo che l’articolo 15 del GDPR garantisce il diritto dell’individuo di conoscere la base algoritmica delle decisioni automatizzate. La Carta etica europea sull’utilizzo dell’IA nei sistemi giudiziari, emanata dalla CEPEJ, ha definito cinque principi: rispetto dei diritti fondamentali, non-discriminazione, qualità e sicurezza, trasparenza, imparzialità ed equità, e controllo da parte dell’utilizzatore. Questi principi mirano a garantire che l’IA utilizzata nei sistemi giudiziari rispetti i diritti umani, eviti discriminazioni, assicuri la qualità e la sicurezza dei dati, sia trasparente e controllata dagli utenti.
In conclusione, sembra inevitabile che le tecnologie di intelligenza artificiale assumano un ruolo sempre più rilevante nelle attività sociali orientate a ottimizzare l’efficienza funzionale. Tuttavia, con l’avanzare della tecnologia, l’implementazione di tali sistemi, specialmente nel contesto giudiziario e, in particolare, nel settore penale, potrebbe rappresentare un’opportunità per migliorare i processi giuridici, ma allo stesso tempo solleva preoccupazioni in merito ai principi fondamentali del giusto processo. Se tali sistemi evolvessero come nuovi strumenti di supporto alle attività investigative o giudiziarie, senza un adeguato controllo umano nel processo di valutazione del giudice, potrebbero costituire una minaccia. In generale, è la regolamentazione europea che cerca di affrontare preventivamente le criticità significative derivanti dall’uso futuro di queste tecnologie, focalizzandosi sulla necessità di controlli umani graduati e, in alcuni casi, sull’esclusione totale dei sistemi ad alto rischio, specialmente quando coinvolgono diritti fondamentali. Inoltre, si sottolinea l’intenzione del legislatore europeo di vietare strumenti di controllo massivo come il credito sociale o il monitoraggio facciale in tempo reale su larga scala sul suolo europeo
Scrivi un commento
Devi accedere, per commentare.