Le tecniche automatizzate di elaborazione dei dati, come gli algoritmi, non solo consentono agli utenti di Internet di cercare e accedere alle informazioni, ma sono anche sempre più utilizzate nei processi decisionali, che in precedenza erano interamente di competenza degli esseri umani.
In certi ambiti di utilizzo quotidiano, come ad esempio la ricerca di un argomento in un browser, i confini tra il processo decisionale umano e quello automatico sono spesso offuscati, tanto che si parla ormai di “processo decisionale semi-automatizzato”.
L’uso degli algoritmi solleva notevoli sfide non solo per il settore politico specifico in cui sono gestiti, ma anche per la società nel suo insieme.
Come tutelare i diritti umani e la dignità umana di fronte alle tecnologie in rapido cambiamento? Il diritto alla vita, il diritto a un processo equo e la presunzione di innocenza, il diritto alla privacy e alla libertà di espressione, i diritti dei lavoratori, il diritto a libere elezioni, anche lo stato di diritto stesso sono tutti influenzati. Rispondere alle sfide associate agli “algoritmi” utilizzati dal settore pubblico e privato, in particolare dalle piattaforme Internet, è attualmente una delle domande più dibattute.
La tendenza verso l’utilizzo di tecniche e algoritmi di elaborazione automatizzata nella prevenzione della criminalità e nel sistema di giustizia penale sta infatti crescendo. In effetti, potrebbero esserci alcuni vantaggi dall’utilizzo della semi-automazione decisionale in tale ambito, poiché enormi set di dati possono essere elaborati più rapidamente o i rischi valutati in modo più accurato. Inoltre, l’uso di tecniche di elaborazione automatizzata per la determinazione della durata di una pena detentiva può consentire approcci più uniformi a casi comparabili. Tuttavia, le crescenti preoccupazioni per la sicurezza nazionale in vari stati occidentali stanno contribuendo ad applicazioni sempre più ambiziose delle nuove tecnologie.
A seguito di una serie di attacchi terroristici negli Stati Uniti e in Europa, i politici hanno chiesto alle piattaforme di social media online di poter utilizzare i loro algoritmi per identificare potenziali terroristi e agire di conseguenza.
Alcune di queste piattaforme stanno già utilizzando algoritmi per identificare account che generano contenuti estremisti. Oltre all’impatto significativo che tale applicazione degli algoritmi ha sulla libertà di espressione, solleva anche preoccupazioni per gli standard di equità processuale contenuti nell’articolo 6 della CEDU, in particolare la presunzione di innocenza, il diritto di essere informati tempestivamente della causa e della natura di un’accusa, il diritto a un processo equo e il diritto di difendersi di persona. Potrebbero sorgere preoccupazioni anche riguardo all’articolo 5 della CEDU, che protegge dalla privazione arbitraria della libertà, e all’articolo 7.
Nel campo della prevenzione della criminalità, i principali dibattiti politici sull’uso degli algoritmi riguardano la sorveglianza preventiva. Questo approccio va oltre la capacità degli esseri umani di trarre conclusioni da reati passati per prevedere possibili futuri modelli di criminalità.
Vi è una crescente preoccupazione a livello politico e pubblico a livello globale per quanto riguarda il crescente uso di algoritmi e tecniche di elaborazione automatizzata e il loro notevole impatto sull’esercizio dei diritti umani.
Di conseguenza, si stanno facendo appelli per introdurre un controllo e una regolamentazione più rigorosi.
Esistono già numerosi casi in cui i governi e i revisori indipendenti si impegnano in una qualche forma di regolamentazione dello sviluppo algoritmico, di solito prima dell’inizio delle operazioni.
I software e i sistemi di elaborazione dei dati, inclusi gli algoritmi, utilizzati nelle “slot machine” in Australia e Nuova Zelanda devono, per regolamento governativo, essere “equi, sicuri e verificabili”. Gli sviluppatori di tali macchine sono tenuti a presentare i propri sistemi algoritmici ai regolatori prima che possano essere presentati ai consumatori.
La nozione di “elaborazione algoritmica e processo decisionale” è interpretata in modo diverso e compreso nei circoli delle scienze legali, tecnologiche e sociali, e di nuovo in modo diverso tra il pubblico.
La consapevolezza degli impatti per l’esercizio dei diritti umani e per un più ampio sviluppo della società è cresciuta solo recentemente e deve ancora tradursi in un dibattito di politica pubblica più ampio e inclusivo circa le possibili implicazioni normative.
Scrivi un commento
Devi accedere, per commentare.