L’utilizzo delle intelligenze artificiali nell’erogazione dell’assistenza sanitaria continua ad evolversi rapidamente: in considerazione dell’incremento degli scambi di informazioni tra pazienti, medici e team di assistenza attraverso i prodotti di intelligenza artificiale, la protezione delle informazioni e della privacy di un individuo diventa ancora più importante. Il continuo utilizzo dell’IA nell’assistenza sanitaria ha generato un’attenzione significativa circa per la medicina, portando a un maggiore controllo e applicazione. L’effettivo sviluppo che il settore della robotica sta attraversando permette oggi di avvalersi dell’ausilio delle intelligenze artificiali per un novero sempre più ampio di utilizzi ed attualmente le intelligenze artificiali oggi si rivelano di grande ausilio anche in ambito sanitario.
Queste, infatti, vengono sempre più spesso utilizzate sia nella fase dello screening medico che in quella di esecuzione di interventi chirurgici, garantendo livelli di precisione e accuratezza delle prestazioni che non ci si potrebbe aspettare dagli esseri umani: tale circostanza sta tuttavia imponendo una riflessione sul piano giuridico.
Le macchine infatti, malgrado siano strumenti di massima precisione, non possono essere considerate infallibili e proprio l’eventualità di un loro fallimento impone una di interrogarsi a fondo sul regime di responsabilità da adottare nel caso in cui si verifichino dei danni: tale pensiero rende tanto più necessaria quanto più passa il tempo; dal momento che è inevitabile immaginare che l’impiego delle intelligenze artificiali in campo sanitario sia destinato ad evolversi sempre di più.
La natura delle intelligenze artificiali, infatti, rende complessa l’individuazione di un regime di responsabilità applicabile nel caso in cui dalle loro azioni discenda il verificarsi di un danno: le A. I., infatti, operano seguendo degli iter il cui funzionamento non è sempre del tutto intellegibile dall’essere umano, neppure dal soggetto che le ha programmate.
Si parla, a tal proposito, di “opacità” dello strumento caratteristica che rende piuttosto difficile individuare il nesso di causalità tra il danno e il fatto: tale scenario rende difficile l’applicazione del regime di responsabilità di cui alla legge n. 24/2017 (Legge Gelli-Bianco in materia di responsabilità medica) la quale prevede la responsabilità extracontrattuale del medico il quale, avvalendosi dell’opera dei robot, arrechi un danno al paziente e impone al danneggiato la prova del nesso di causalità tra il danno stesso e il fatto (prova estremamente difficile da fornire, come appena detto) ai fini dell’ottenimento del risarcimento.
Anche l’ipotesi di una incorporazione di simili fattispecie nell’ambito della responsabilità da cose in custodia (ex. art 2051 c.c.), pur comportando la liberazione del danneggiato dall’onere di provare il nesso di causalità e spostando il focus sulla struttura sanitaria (la quale è detentrice del totale controllo sulla macchina) non risolverebbe del tutto le possibili criticità, lasciando aperto lo spiraglio del caso fortuito.
Al fine di armonizzare le discipline degli Stati membri in materia di intelligenze artificiali e di promuovere lo sviluppo di detto tipo di sistemi garantendo al contempo uno standard di sicurezza e tutela dei diritti dei cittadini europei uniforme ed elevato, il 21 aprile del 2021 la Commissione europea ha reso nota la proposta di Regolamento “Regulation on a European approach for Artificial intelligence” e con la proposta in esame, la Commissione ha sottolineato le necessità di prevenire la frammentazione del mercato; incoraggiare gli investimenti nel campo delle A. I.; garantire la certezza del diritto e l’applicazione effettiva della disciplina vigente in materia di diritti fondamentali e requisiti di sicurezza delle intelligenze artificiali.
Scrivi un commento
Devi accedere, per commentare.