Intelligenza artificiale al servizio della giustizia penale?
L’esigenza di celerità e di contenimento del carico processuale ha determinato per la giustizia crescenti pressioni provenienti dal mondo politico, da parte degli addetti ai lavori e degli stessi utenti. Se un processo equo e giusto deve necessariamente essere anche un processo celere, non tutti i mezzi per raggiungere questo scopo sono idonei a garantire al contempo una giustizia equa, i diritti della persona e dell’imputato, una attenta valutazione probatoria, il rispetto delle garanzie. In questo contesto, si è inserita già da tempo anche la digitalizzazione del processo, fortemente impiegata nell’ambito civile e che sta avanzando anche in sede penale.
Se i più conservatori nutrono ancora qualche remora, i più “progressisti” (nel senso di fan del progresso) hanno proposto l’idea di applicare l’Intelligenza Artificiale nell’ambito della giustizia penale, al fine di soddisfare le esigenze di rapidità, efficienza ed efficacia della medesima, alla luce dell’utilizzo ormai massiccio dei sistemi di intelligenza artificiale nella vita di tutti i giorni.
Per approfondimenti si consiglia il seguente volume, il quale offre risposte agli aspetti che interessano la Professione: Intelligenza Artificiale – Essere Avvocati nell’era di ChatGPT
Indice
1. L’intelligenza artificiale
Come si legge dal sito web del Parlamento Europeo, l’Intelligenza Artificiale (nota anche con l’abbreviazione, “IA”) consiste nell’“abilità di una macchina di mostrare capacità umane quali il ragionamento, l’apprendimento, la pianificazione e la creatività” e “permette ai sistemi di capire il proprio ambiente, mettersi in relazione con quello che percepisce e risolvere problemi, e agire verso un obiettivo specifico. Il computer riceve i dati (già preparati o raccolti tramite sensori, come una videocamera), li processa e risponde”, essendo in grado di “adattare il proprio comportamento analizzando gli effetti delle azioni precedenti e lavorando in autonomia”.
Per approfondimenti si consiglia il seguente volume, il quale offre risposte agli aspetti che interessano la Professione:
Intelligenza Artificiale – Essere Avvocati nell’era di ChatGPT
Nell’anno appena trascorso l’intelligenza artificiale generativa, una delle sue forme più “creative”, è stata ed è ancora oggi uno dei temi più dibattuti. Avvocati e giuristi hanno iniziato a chiedersi se, oltre alla curiosità, le opinioni e i primi esperimenti, non sia opportuno iniziare a formarsi e acquisire nuove competenze nel proprio bagaglio professionale, ma nel mare magnum di informazioni molti si stanno ponendo la stessa domanda: “Da dove inizio?”. Questo libro nasce per rispondere al bisogno “di saperne di più”, raccontando in un quadro unitario a giuristi, avvocati, praticanti e studenti: quali sono gli aspetti che interessano la professione? Qual è lo stato dell’arte? Le norme in vigore e in corso di approvazione che disciplinano l’utilizzo di AI nei settori principali del diritto, le prime esperienze presso gli studi legali, gli esempi e le istruzioni sui principali tool.Attraverso il racconto dei fatti, vengono naturalmente toccati anche i principali dibattiti in corso: gli aspetti etici, i temi della responsabilità civile in caso di danno, la tutela del copyright per le opere realizzate con le AI generative.Claudia MorelliGiornalista professionista, specializzata nei temi della legal industry e della digital transformation della giustizia, esperta di comunicazione legale. Professoressa a contratto presso l’Università di Bologna, dove insegna Comunicazione del Giurista, già responsabile della Comunicazione del Consiglio Nazionale Forense. Il presente volume è la sua prima riflessione organica sui temi della trasformazione digitale della professione forense.
Claudia Morelli | Maggioli Editore 2024
24.70 €
2. Intelligenza artificiale e diritto penale
Come si sa, il diritto penale rimane sempre un passo indietro rispetto al fenomeno della digitalizzazione che ha maggiormente colpito altre branche del diritto pubblico, soprattutto, si afferma, per l’esigenza di garantire il più possibile i diritti delle persone, che sono esseri umani.
I fan del progresso tecnologico sostengono che gli algoritmi e gli automatismi dell’Intelligenza Artificiale potrebbero essere applicati, in un’ottica di giustizia predittiva, da parte delle Autorità per prevedere (si pensi alla pratica del riconoscimento facciale automatizzato tramite un’apposita banca dati), per l’appunto, la commissione di determinati reati (ad esempio, in certe zone del mondo con un tasso di criminalità più elevato) ovvero per pre-identificare gli autori di specifiche categorie di illeciti (a titolo esemplificativo, persone già note al sistema della giustizia con una più elevata possibilità di recidiva e, pertanto, di incorrere nuovamente in reati della stessa natura).
Tali sistemi potrebbero, inoltre, essere applicati per la fase delle indagini preliminari per valutare le risultanze emerse. Si pensa, ad esempio, alle sommarie informazioni testimoniali rese dai vari soggetti informati sui fatti oggetto di contestazione, la cui attendibilità potrebbe essere valutata tramite controlli incrociati per l’accertamento di eventuali discrepanze tra le stesse e per l’emersione di profili di colpevolezza.
Alcuni paventano anche che gli algoritmi potrebbero essere impiegati nell’ambito di decisioni automatiche, assicurando così un risparmio di risorse economiche ed umane.
3. I limiti dell’applicazione dei sistemi di Intelligenza Artificiale al diritto penale
Un’applicazione massiccia dei sistemi di Intelligenza Artificiale al diritto penale potrebbe, tuttavia, portare ad una dis-umanizzazione della giustizia.
Perplessità sorgono soprattutto nell’ambito dell’accertamento tanto dell’elemento oggettivo quanto dell’elemento soggettivo della fattispecie illecita.
Come potrebbe un algoritmo valutare le diverse sfumature dell’elemento psicologico (pensiamo, ad esempio, all’elemento del dolo eventuale o della premeditazione) che spinge un uomo a delinquere oppure pensiamo ai casi delle diverse cause di giustificazioni (scriminanti) che potrebbero escludere un’antigiuridicità della fattispecie?
Il rischio di incorrere in pronunce basate su un criterio di responsabilità oggettiva sarebbe immediato.
Ulteriori dubbi sussistono rispetto all’accertamento dell’elemento materiale dell’illecito ove un determinato fattore in quanto tale non sarebbe considerato sospettoso, se non applicando la sensibilità umana e con riferimento ad altri elementi indiretti emersi in fase d’indagine.
In questi casi, si potrebbero verificare delle gravi lesioni a tutti quei principi propri del diritto penale come il diritto al giusto processo, il diritto di difesa, il diritto di uguaglianza nonché il principio della ragionevole certezza e il diritto dell’oltre ogni ragionevole dubbio.
Non potrebbero escludersi casi di distorto uso degli algoritmi per portare ad una decisione manovrata e confezionata “ad hoc” per il soddisfacimento di indebiti interessi extra-giuridici oppure di impiego dei diversi data base in violazione del diritto alla privacy dei dati sensibili, con un necessario coinvolgimento di tutta la recente normativa sviluppata in ambito di sicurezza dei dati personali.
Si vedano in tal senso le recenti sentenze CEDU (ad esempio vs. Svizzera) per l’uso di strumenti predittivi basati su profilazione etica e razziale.
Bisognerebbe procedere alla creazione di uno specifico comitato in grado di monitorare sulla correttezza delle decisioni assunte sulla scorta degli algoritmi e dei diversi data base da cui vengono estratte i dati impiegati. Il che non riduce la complessità della macchina giudiziaria, per altro con la richiesta di competenze specifiche ulteriori.
In tali circostanze, ci potrebbero peraltro essere, anche in una mera ottica dilatoria, numerosi atti di appello volti a contestare la regolarità di tali decisioni automatiche, con l’emersione di un ulteriore carico di lavoro, ai danni del circuito giudiziario, e di aggravamento dei tempi della giustizia.
Inoltre – e questo dato è particolarmente rilevante – appare evidente come nella impostazione stessa del data set non è possibile escludere una qualsiasi pregiudiziale, dall’ingerenza politica, ideologica, religiosa, etica, che di fatto trasformerebbero uno strumento tecnico imparziale a strumento di parzialità in re ipsa.
4. Conclusioni
Il diritto penale, unico nel suo genere, richiede un’applicazione della sensibilità umana che forse manca nelle altre branche del diritto e che difficilmente potrà confluire in freddi e scostanti sistemi di calcolo.
Diverso ad esempio è l’utilizzo dell’IA ad esempio nella valutazione comparativa di preventivi di spesa per una gara di appalto, piuttosto che la valutazione di test omogenei per un concorso pubblico, piuttosto che la valutazione di performance nella PA, nelle istanze di accesso agli atti, nella valutazione preliminare (senza escludere quella umana) delle istanze per benefici finanziari o connessioni amministrative, tutte aree di applicazione in cui sarebbe per altro utili a fini anticorruzione, o quanto meno per una scrematura ed un defatigamento e decongestionamento del carico amministrativo umano.
Se vogliamo che il diritto penale continui a soddisfare quei criteri fondamentali di certezza del diritto, dell’oltre ogni ragionevole dubbio, di tutela dell’imputato (innocente sino a sentenza definitiva), in un’ottica generale di garanzia dei diritti fondamentali della persona umana stabiliti a livello costituzionale, europeo ed internazionale, anche al fine di evitare possibili errori giudiziari, è necessario cercare di agire con estrema prudenza, evitando di cadere nella trappola dell’eccessiva spersonalizzazione di quella particolare branca del diritto pubblico che disciplina l’esercizio del potere punitivo statale.
Quel luogo dove il giudicante che, per quanto possa essere chiamato a svolgere il proprio incarico di applicazione e, molto spesso, di interpretazione della legge in maniera imparziale e terza, sarà implicitamente guidato dai propri convincimenti professionali, dalle proprie precedenti esperienze (anche personali) nonché dal proprio libero apprezzamento e dalla propria sensibilità.
Dove si viene in fin dei conti giudicato tra pari: umano da umano.
Scrivi un commento
Accedi per poter inserire un commento