Per meglio comprendere la definizione di intelligenza artificiale è necessario ricostruire il sentiero percorso dalla cultura occidentale per raggiungere questa invenzione a dir poco straordinaria, certamente una delle più rivoluzionarie della storia. Sul rapporto con le nuove intelligenze artificiali si incentra il volume “Il nuovo diritto d’autore -La tutela della proprietà intellettuale nell’era dell’intelligenza artificiale”, che consigliamo per l’approfondimento.
Indice
- 1. Cenni storici sull’Intelligenza Artificiale
- 2. La giustizia predittiva tramite AI
- 3. Il processo del futuro?
- 4. Gli ostacoli applicativi e le implicativi processuali
- 5. Tutela della privacy
- 6. L’esperienza francese -cenni-
- 7. Il ruolo dei gestori dei dati sensibili
- 8. L’impatto sociale-etico della giustizia predittiva
- 9. La paura degli algoritmi
- 10. Conclusioni
- Note
1. Cenni storici sull’Intelligenza Artificiale
La cultura europea per poter giungere a un risultato tanto eccelso ha dovuto far collaborare tra loro, oltre che scienziati e tecnici informatici, anche l’élite dei pensatori e teorici e, dunque, tale collaborazione ha reso possibile la costruzione di macchine intelligenti. Gli studi che hanno portato all’intelligenza artificiale nascono con Leibniz nel ‘700 e giungono a Turing e ai primi calcolatori della storia. Scriveva profeticamente Leibniz, nella sua “Dissertatio de arte combinatoria”, che l’umanità avrebbe un giorno posseduto «un nuovo tipo di strumento che avrebbe accresciuto i poteri della ragione molto di più di quanto un qualsiasi strumento ottico abbia mai aiutato quello della vista». Leibniz argomentò che se si fossero potuti esprimere relazioni logiche in forma algebrica avrebbe dovuto anche essere possibile realizzare una macchina capace di risolvere equazioni logico-matematiche, in grado di aiutare l’uomo, calcolando e ragionando al suo servizio ed ottenendo delle soluzioni automatiche per i problemi più svariati. Tramite l’inserimento di simboli-matematici e le connessioni logiche della conoscenza umana si sarebbero potute ottenere delle soluzioni automatiche per i problemi più svariati. Il calcolus rationacinator di Leibniz, ovvero la logica simbolica fatta funzionare dalla calcolatrice universale, avrebbe sollevato la mente umana da faticose attività, permettendole di usare uno strumento di elaborazione automatica nelle più varie ricerche scientifiche, oltre che nei più vari calcoli. L’indagine logico-matematica iniziata da Leibniz fu ulteriormente sviluppata nell’’800 dal matematico inglese George Boole (1815-1864). George Boole elaborò rigorosi metodi algebrici nella sua opera principale intitolata “Indagine sulle leggi del pensiero” su cui sono fondate le teorie matematiche della logica e della probabilità, dimostrando che la logica poteva essere trattata come un ramo della matematica. Egli sosteneva fermamente l’ipotesi di Leibniz, in merito alla costruibilità di un formalismo logico-matematico capace di dar luogo automaticamente a soluzioni corrette dei problemi e credeva, altresì, che per raggiungere questo risultato bisognasse esprimere le relazioni logiche in forma algebrica. Così, basò il suo sistema sull’assioma tratto dalla Metafisica di Aristotele c.d. “principio di non contraddizione”: «è impossibile che la stessa quantità appartenga e non appartenga alla stessa cosa». Agli studi di Boole seguirono le elaborazioni dello studioso tedesco Gottlob Frege (1848–1925, è stato un matematico, logico e filosofo tedesco, padre della moderna logica matematica, e poi polemicamente proclamato anche padre della filosofia analitica dal lavoro esegetico di Michael Dummett, nonché studioso di epistemologia, di filosofia della matematica e di filosofia del linguaggio). A differenza di Boole, che aveva considerato come punto base l’algebra utilizzando simboli algebrici per rappresentare relazioni logiche, Frege pose alla base la logica, rispetto alla quale l’algebra e la matematica venivano trattate come sovrastrutture. In questo modo, Frege elaborò una matematica della logica, creando un linguaggio simbolico, procedendo anch’egli secondo l’originaria intuizione di Leibniz. Frege, seguendo l’idea di Leibniz, costruì una lingua artificiale capace di esprimersi in un linguaggio algebrico, derivante dalla scelta logica dei simboli e dall’efficacia della loro grammatica. Nel 1892, pubblicò un articolo col titolo “Senso e denotazione” ritenuto un testo fondamentale nella storia del pensiero del ‘900. Tale contributo fu decisivo per l’avanzamento teorico verso l’intelligenza artificiale ed il linguaggio logico-simbolico-formale viene ritenuto, tuttora, il precursore del linguaggio di programmazione informatica. Dopo Frege, l’attenzione si concentrò sul fondamento teorico del rapporto tra logica e matematica, appuntandosi sulla questione dell’affidabilità della stessa logica-matematica come fonte di soluzione dei problemi affrontati. Fu lo studioso David Hilbert (1862-1943, matematico tedesco, è stato uno dei più eminenti ed influenti matematici del periodo a cavallo tra il XIX secolo e il XX secolo, iniziatore del concetto della metateoria, in campo matematico, un tempo chiamata metamatematica) a sollevare il problema della decidibilità-indecidibilità dei problemi matematici, concentrando l’attenzione sulla definizione di algoritmo generale, ovvero sulla accettabilità, la attendibilità, delle soluzioni dei problemi affrontati, tramite un sistema logico-matematico. L’attendibilità del progetto della macchina universale di Leibniz veniva sottoposta da Hilbert ad una verifica cruciale: la possibilità della scrittura di un algoritmo, tanto universale ed efficace, da poter controllare l’affidabilità dei sistemi logico-matematici attivati nella edificata macchina universale. Successivamente, Alan Turing (matematico, logico, crittografo e filosofo britannico, considerato uno dei padri dell’informatica e dell’intelligenza artificiale, uno dei più grandi matematici del XX secolo) era convinto del fatto che ciò che poteva essere trasfuso dall’uomo alla macchina era un certo modo di relazionarsi alla realtà e che la macchina universale avrebbe incontrato gli stessi limiti conoscitivi dell’uomo. Uno dei primi problemi che i teorici del tempo si posero fu quello della fallibilità dell’intelligenza artificiale: la macchina, infatti, avrebbe assunto il punto di vista della mente umana che l’aveva progettata, rispecchiando, di conseguenza, gli stessi limiti della mente umana stessa. Ritornando all’ipotesi di Hilbert, e cioè all’ipotesi della formulazione di un algoritmo di tale forza da riuscire a verificare la verità o meno delle soluzioni dei problemi affrontati dalla macchina universale, il suo programma consisteva nel fatto che, come esistono algoritmi elementari e specifici come l’addizione e la sottrazione ovvero la moltiplicazione e la divisione, così doveva essere possibile l’elaborazione di un super procedimento capace di trattare le inferenze logiche di ciascun linguaggio simbolico per verificarne o falsificarne le soluzioni: bisognava perciò cercare la pietra filosofale che avrebbe dato all’uomo la saggezza e la conoscenza. Nel 1950, Alan Turing scrisse un saggio dal titolo “Macchine Intelligenti”; la definizione di “intelligenza artificiale” risale, infatti, ad alcuni anni dopo, al 1956. Una sua previsione fu quella secondo la quale nel mondo si sarebbero diffuse macchine elettroniche di primo e di secondo livello: le prime avrebbero rappresentato strumenti di lavoro (secondo il progetto di Leibniz), che avrebbero funzionato in base alle istruzioni del loro progettista, restando sempre “sotto il livello critico”, incapaci cioè di produrre alcunché di nuovo, per tali si intendono macchine che non avrebbero prodotto nuova conoscenza. Invece, quelle di secondo livello, più potenti e costruite con un’apposita architettura complessa, avrebbero operato come menti poste “sopra il livello critico”. Secondo Turing, quest’ultime, crescendo avrebbero imparato a ragionare fino a produrre algoritmi e giungere a conclusioni di contenuto conoscitivo nuovo. L’intelligenza artificiale è, dunque, definibile come la esternalizzazione dei procedimenti sviluppati dalla logica-matematica umana, trasfusi nelle macchine di Turing di secondo livello e la loro straordinaria caratteristica sta proprio nella capacità di rielaborazione dei dati in maniera massiccia (aggregandoli e disgregandoli fra loro, come solo un numero enorme di ricercatori potrebbe svolgere) ad una velocità elevatissima, difficilmente eguagliabile da un essere umano, ottenendo risultati strabilianti. Nonostante però la capacità delle macchine di imparare da sé stesse, attraverso il c.d. machine learning, o addirittura di elaborare nuovi percorsi di apprendimento con il c.d. «deep learning», alle stesse manca la capacità, tutta umana, di valutare le molteplici variabili impreviste o imprevedibili: il c.d. discernimento. Affinché il margine di imprevisto sia ridotto al massimo, occorrerà che le macchine abbiano immagazzinato ed elaborato tutte le immagini delle diverse forme di vita, di conseguenza l’algoritmo dovrà essere congegnato nella maniera ottimale per lo scopo che si intende raggiungere. Da tale osservazione, possiamo ritenere che almeno nel prossimo futuro l’uomo sarà sempre al centro e governerà i processi evolutivi dell’intelligenza artificiale, utilizzando sapientemente le straordinarie capacità della macchina dotata di intelligenza artificiale. Non può sfuggire, infatti, come il cambiamento epocale sia in atto e come l’utilità dell’intelligenza artificiale porterà al benessere ed allo sviluppo esponenziale di intere civiltà. Ciò che occorre fare, medio tempore, è conoscere e regolare i vari fenomeni; a fortiori e principaliter, quello dell’algoritmo ha il fine di tutelare il consumatore ed evitare, per quanto possibile, ogni deriva commerciale che usi il flusso dei dati in corso, a fini eminentemente speculativi. Il titolare dei dati potrà, per cui, confrontarsi, collaborare e persino negoziare l’utilizzo dei propri. Si potranno avere data donors anche dopo la morte degli stessi ed è legittimo, quindi, domandarsi se l’intelligenza artificiale sarà il nuovo potere e sarà capace di ordinare la vita sociale, al punto tale da eliminare una serie di difficoltà, a favore del Welfare. Luci ed ombre si alternano in questo mondo tutto da scoprire: in cui gli androidi e gli oggetti connessi dialogano tra loro, senza l’intermediazione umana, imparano, come detto, ad una velocità impressionante anche dai propri errori (deep learning) e possono essere ricostruiti, integralmente o parzialmente, per trasmettere parte dei propri codici ad androidi più evoluti. L’alba dell’intelligenza artificiale si riconduce alla nota Conferenza di Darmouth [[1]], in cui alcuni specialisti della logica simbolica proponevano di applicare gli schemi di rappresentazione simbolica alla soluzione di problemi specifici e pratici, alla luce dell’avvento delle nuove macchine computazionali: i computer. Già in questa sede si valutarono i prodromi delle c.d. reti neurali, nonché le prospettive dell’elaborazione del linguaggio umano. Il filo conduttore della conferenza era la prospettiva di creare sistemi in grado di auto-migliorarsi, sfruttando in modo sinergico la capacità di apprendimento, propria degli esseri umani, unitamente alle potenzialità elaborative dei computer, sicuramente più accurati e veloci del miglior cervello “naturale”. Le entusiastiche aspettative di applicazione dell’intelligenza artificiale che emersero nella conferenza svilupparono un notevole interesse intorno all’argomento. Ovviamente, l’iniziale applicazione dei sistemi c.d. chiusi risultava scarsamente utilizzabile rispetto ai problemi reali, ma comunque rappresentava un’importante innovazione che permise di giungere a risultati applicativi, fino ad allora, impensabili. Le prime sperimentazioni di intelligenza artificiale furono soggette ad aspre critiche di studiosi tra cui Herbert Dreyfus (filosofo statunitense, sicuramente il maggior esponente negli Stati Uniti nello studio della corrente fenomenologica-ermeneutica europea. Fu anche uno dei più accesi oppositori delle pretese poste dal piano di sviluppo dell’intelligenza artificiale e della scienza cognitiva. Nel pensiero di Dreyfus l’esperienza umana è acquisita attraverso conoscenze implicite e induttive e non può essere riprodotta da macchine e computer), il quale ridicolizzò i progressi fatti nel campo di indagine paragonandoli ad un uomo che, salendo su un albero, dichiari un importante avvicinamento alla Luna. Il campo dell’intelligenza artificiale fu notevolmente finanziato negli anni ‘60, per mano di alcune Agenzie Governative Statunitensi (Defense Advanced Research Project Agency – DARPA) che, seguendo il fermento della crescita scientifica di quel periodo, supportarono ogni tipo di progetto, senza porre vincoli di sorta ai ricercatori. Risultato di questa escalation fu il robot Shakey, definito da Life come la “prima persona elettronica”: un carrello motorizzato, in grado di girare liberamente nei laboratori del SRI (Stanford Research Institute), elaborando autonomamente il superamento degli ostacoli che gli si frapponevano davanti. Altro e più rilevante progresso fu il programma SHRDLU di Terry Winograd, in grado di rispondere a semplici domande poste dal proprio interlocutore umano. Detto programma, considerato come il progenitore di una vera e propria intelligenza artificiale di livello umano, illuse sulle potenzialità dei programmi domanda/risposta, che non hanno poi portato ai miglioramenti attesi. La vera chiave di svolta nello sviluppo del campo di analisi, però, non fu, contrariamente a quanto si pensa, l’evoluzione dei software, ma il potenziamento dell’hardware e l’aumento della capacità di immagazzinare informazioni. Tale potenziamento, esponenzialmente cresciuto negli anni, ha consentito l’esplosione della nuova frontiera per l’intelligenza artificiale: i big data. La capacità di elaborare quantità enormi di dati e di conoscenza ha permesso un’evoluzione delle reti neurali (già note negli anni ’50), giungendo all’elaborazione di strumenti di intelligenza artificiale in grado di utilizzare, manipolare e combinare al meglio i big data: il “machine learning”, ad oggi la nuova frontiera per l’applicazione dell’intelligenza artificiale anche nel mondo del diritto. La definizione di intelligenza artificiale, allo stato, più comprensibile per i professori, è quella data dal dizionario De Mauro, che definisce l’intelligenza artificiale come «l’insieme di studi e tecniche che tendono alla realizzazione di macchine, specialmente calcolatori elettronici, in grado di risolvere problemi e di riprodurre attività proprie dell’intelligenza umana». Nell’odierno quadro socioeconomico sono sempre di più le attività che svolgiamo servendoci, anche inconsapevolmente, di programmi di machine learning, di reti neurali o di sistemi esperti, o addirittura, di attività che demandiamo completamente ai sistemi informatici. I sistemi neurali complessi e gli algoritmi sono in grado di far “imparare” le macchine, nel senso di affinare le tecniche di ricerca e di risoluzione di problemi rispetto agli obiettivi dati, attraverso un sofisticato sistema di correlazione dei famosi big data, che sono una fonte, quasi inesauribile, di informazioni sulle persone di ogni età, sesso e nazionalità. È quindi fondamentale che l’algoritmo sia progettato correttamente, o che vi sia un controllo su di esso. Le prime applicazioni di intelligenza artificiale nel campo del diritto hanno condotto alla creazione dei c.d. sistemi basati sulla conoscenza. Il sistema, in altri termini, parte da una “base di conoscenze” e ne deduce delle conseguenze, ciò è reso possibile dall’inserimento di asserzioni o dichiarazioni espresse in linguaggio informatico ed operando su di essa attraverso un motore inferenziale. Le inferenze consentono di “giustificare” il risultato, potendo così procedere ad una ricostruzione dell’iter deduttivo seguito, tuttavia la natura assiomatica della base di conoscenza rappresenta un limite rispetto al quale il motore inferenziale non è in grado di operare valutazioni. L’intelligenza artificiale nel campo del diritto opera spaziando dalla ricerca indicizzata, alla risoluzione dei casi giuridici, alla giustizia predittiva ed è costituita da tre principali macro-aree di interesse:
Sistemi per l’analisi giuridica, per la sussunzione di un caso giuridico all’interno di una precisa fattispecie legale.
Sistemi per la pianificazione giuridica, che suggerisca le azioni migliori per raggiungere un determinato risultato.
Sistemi per la ricerca di informazioni giuridiche, che consenta di cercare informazioni di contenuto concettuale, e non meramente semantico giuridico.
È proprio tale ultima categoria ad implementare i più recenti e sofisticati sistemi di machine learning e intelligenza artificiale, mentre i primi due sistemi si rifanno ancora ai modelli dei sistemi esperti basati sulla conoscenza. Un esempio particolarmente interessante di tale modello è dato dal: thesaurus di ITALGIURE (il sistema di documentazione automatica del CED della Suprema Corte di Cassazione). Altro affascinante ambito è quello del “predictive coding”, ovverosia la giustizia predittiva. Il termine richiamerebbe la capacità di sfruttare degli algoritmi di intelligenza artificiale per predire l’esito dei giudizi. In Italia iniziano ad aversi sbocchi in tal senso, sia attraverso aperture normative alla profilazione dei soggetti in campo penale, sia attraverso veri e propri studi che tendono a costruire algoritmi in grado di predire i futuri orientamenti della giurisprudenza.
2. La giustizia predittiva tramite AI
L’evoluzione di molti ordinamenti conferma che vi è un’innata tendenza dell’uomo alla certezza del diritto. Antichissime civiltà hanno avvertito l’esigenza di mettere per iscritto le regole del costume e dei commerci, dando vita a ordinamenti in senso formale. Su questo dato antropologico sono fiorite spinte evolutive che hanno modificato ordini costituiti. Non è solo la qualità delle regole a fare la differenza tra autocrazie e democrazie, ma anche come le si applica. Eppure, la qualità delle regole incide molto, la legge del taglione è chiara e facile da applicare con obiettività, ma non per questo cessa di essere ripugnante. Per quanto concerne il c.d. giudice inanimato, descritto e previsto dalla prefata “Giustizia predittiva”, Piero Calamandrei (1889–1956, politico, avvocato e accademico italiano, nonché uno dei fondatori del Partito d’Azione) asseriva che un ordinamento moderno non ha bisogno di giudici inanimati, ma di giudici con l’anima, giudici engagés «che sappiano portare con vigile impegno umano il grande peso di questa immane responsabilità che è il rendere giustizia». È lecito, allora, domandarsi se un vigile impegno umano sia ancora sufficiente, ed appare lapalissiano come, in un contesto caratterizzato da un crescente grado di complessità delle fonti e della realtà, la risposta potrebbe essere negativa. La complessità va oggi regolata da giudici chiamati a districarsi in una congerie di norme che vanno: dalle clausole generali al precetto più minuto. Una situazione che non può che favorire l’arbitrarietà e sostenere le tendenze al soggettivismo dei giudicanti, con conseguente riduzione della calcolabilità del diritto. Dal momento in cui la giustizia predittiva ha fatto la sua comparsa nel linguaggio giuridico, ella ha subìto varie interpretazioni da parte dei teorici. Da un punto di vista linguistico, il sostantivo “predittiva” ha generato non pochi dubbi, sviluppando una sorta di scisma tra i giuristi. La recrudescenza di programmi informatici, capaci di velocizzare e facilitare il lavoro del professionista sono, ormai, di uso quotidiano, basti pensare ai software antiusura nei contratti bancari o alle numerose piattaforme sulle quali operano le pubbliche amministrazioni capaci di ridurre al minimo l’apporto umano. Questo scenario si affaccia timidamente al mondo giuridico, nel quale per diverso tempo le uniche informatizzazioni sono state le banche dati (dejure, italjure ecc..) capaci, a modo loro, di innovare e semplificare non di poco il lavoro di ricerca. La Giustizia predittiva diventa, nell’ultimo lustro, un tema sempre più centrale nell’innovazione giuridica, la quale, ancorata a tradizioni centenarie, si trova in un momento di difficoltà nell’adattarsi alle innovazioni e all’enorme mole di lavoro. Il numero crescente di cause ha soffocato l’immediatezza della sentenza, principio fondamentale del giusto processo, difatti, dal più piccolo tribunale di provincia ai grandi tribunali dei capoluoghi di regione, il ruolo giornaliero di cause complica inevitabilmente il lavoro degli avvocati, dei giudici e dei funzionari di tribunale, senza considerare l’enorme spesa a carico dello Stato per il risarcimento dei processi che hanno una durata sconsiderata, si fa ovviamente riferimento alla Legge Pinto (la quale permette, alla parte vincente o perdente, che vi sia un equo indennizzo se il processo non giunge a termine nei tempi espressamente previsti dalla legge). Alla luce di questa situazione, i giuristi hanno cercato, nell’intelligenza artificiale, una soluzione concreta in grado di velocizzare e ottimizzare i tempi della giustizia. Nell’accezione positiva, fuori dal romanzo sull’oscuro algoritmo Jacques Cujas (Tolosa, 1522-1590, giurista francese), con il termine “giustizia predittiva”, ci si riferisce proprio a questo: ovverosia, a strumenti di supporto alla funzione legale e, poi, giurisdizionale capaci di analizzare in tempi brevi, più brevi di quelli concessi all’uomo, una grande quantità di informazioni, con l’obiettivo di prevedere l’esito, o i possibili esiti, di un giudizio. In questo quadro l’accento va posto sull’aggettivo predittiva, in quanto risulterebbe inappropriato. Gli applicativi in parola, infatti, non predicono il futuro, ma offrono una serie di risultati probabili [[2]]. In tempi relativamente recenti si è (ri)cominciato a parlare di «giudice automa» e di giudice robot. In questo contesto, ha preso piede lo studio della c.d. Giustizia predittiva, intesa quale possibilità di prevedere l’esito dei processi attraverso l’uso di algoritmi. Attualmente, la numerosità dei pericoli e degli ostacoli che si frappongono a un sistema fondato sulla «predittività» sembrano prevalere sui benefici. L’attenzione degli studiosi di diritto privato, diritto costituzionale, filosofia del diritto, sociologia del diritto e, in taluni casi, di diritto processuale civile, si è concentrata sull’antico tema del rapporto sussistente tra «giurisprudenza» e «legge», sull’interrogativo di fondo se alla giurisprudenza possa essere riconosciuto un ruolo creativo in senso stretto del diritto e se la creazione del diritto, da parte della giurisprudenza, costituisca un attentato al principio espresso dall’art. 101, 2° comma, Cost. In una prospettiva meno ideologizzata si è guardato al dialogo tra legge e giurisdizione, in particolare nelle forme del «diritto giurisprudenziale» e del «diritto vivente». Con uno sforzo ancora più proficuo, si è tornati ad indagare sulle potenzialità applicative di un sistema che consenta la prevedibilità delle decisioni. Lo studio del «precedente giudiziale», di conseguenza, è nuovamente venuto in auge. Quasi in contemporanea, si è rivitalizzato l’interesse per il tema relativo ai rapporti tra intelligenza artificiale e diritto, nelle sue implicazioni anche di natura etica, con specifico riguardo all’utilizzo della tecnologia come strumento di supporto per l’attività del giudice, giungendo finanche a riaffermare, questa volta con prospettive concrete e non semplicemente a titolo di mero auspicio, la possibilità di sostituire la macchina al giudice nell’attività decisoria. Creazionismo e creatività, prevedibilità (delle decisioni) e giustizia predittiva sono temi intimamente connessi, poiché: per un verso, investono tutti il senso e la funzione dell’attività giurisdizionale, per un altro, attengono tutti all’esigenza di certezza del diritto, al principio di legalità e a quello di uguaglianza. Data la consustanzialità di questa esigenza e di questi principi ad un ordinamento che si professa come espressione dello Stato di diritto, la sfida di fondo è assicurarne la piena attuazione, senza per questo impedire all’ordinamento stesso di progredire, di evolversi, di mutare in ragione del mutamento del contesto di riferimento. La giurisprudenza può essere «creativa», ma non dovrebbe essere «creatrice»: il «creazionismo» della giurisprudenza si riferisce alla tendenza di alcuni giudici di produrre norme, di fondare la decisione, non tanto sull’interpretazione di un testo e sull’individuazione del suo significato, quanto sul valore o principio, di volta in volta, estrapolato da un contesto. Il giudice creazionista va oltre il testo, ma non necessariamente per sublimarne la portata, bensì spesso per pretermetterla. La «creatività», invece, riguarda la produzione di precedenti che, lungi dal nascere dal nulla, presuppongono l’esistenza di un testo suscettibile di interpretazione e applicazione. Questo non significa che alla giurisprudenza non si possa riconoscere un ruolo concorrente con quello del legislatore, tuttavia il senso di questo «concorso» non è quello con il quale lo intendono i c.d. «creazionisti». La giurisprudenza fa il diritto, non lo crea. Si tratta, in buona sostanza, di individuare limiti, rimedi e sistemi di controllo, soprattutto con riferimento alle ipotesi in cui la giurisprudenza, al cospetto di clausole generali, norme elastiche, concetti indeterminati, esprime in maniera più ampia la propria creatività. Fermo restando che, anche in queste ipotesi, nelle quali il legislatore delega «al giudice la formazione della norma (concreta) di decisione vincolandolo a una direttiva espressa attraverso il riferimento a uno standard sociale, i quali assumono rilevanza «in quanto riconoscibili come forme esemplari dell’esperienza sociale dei valori», il controllo dell’attività di concretizzazione è destinato a realizzarsi sotto il profilo della erronea interpretazione del concetto indeterminato o della norma elastica o applicazione dello stesso al caso di specie e, dunque, in Cassazione, ai sensi dell’art. 360, n. 3, c.p.c. Ciò premesso, va pure ribadito che la giurisprudenza, che si forma e riguarda casi concreti, non può istituzionalmente ambire ad emettere provvedimenti aventi carattere generale e astratto, anche quando ad essa sia riservato un ruolo nomofilattico. Ne consegue che, legge e giurisprudenza, non possono essere considerate «fonti» nello stesso senso. Il diritto prodotto dalla prima è generale e astratto, quello prodotto dalla seconda è particolare e concreto. Il processo di estensione della norma di estrazione giudiziale non ha nulla a che vedere con la generalità e l’astrattezza della legge, poiché risponde solo a una esigenza di continuità interpretativa e di affidamento nella uniformità giurisprudenziale. Dunque, anche il precedente giurisprudenziale non può essere considerato, neanche in senso lato, «legge». A ciò si oppone, il principio di cui all’art. 101, 2° comma, Cost., che di certo non comprende un obbligo generale e astratto di soggezione dei giudici ai dicta di altri giudici. Ciò non toglie che, un sistema fondato sul rispetto dei precedenti giurisprudenziali favorisce il perseguimento dell’esigenza di prevedibilità delle decisioni, che, a sua volta, come detto, rappresenta una più specifica declinazione del principio di certezza del diritto. Intanto, è possibile prevedere le decisioni, in quanto queste siano assunte secondo una linea di continuità e di coerenza, nonché, il rispetto di questa linea, genera stabilità e affidamento. L’esigenza di uniformità interpretativa risponde al canone di eguaglianza di cui all’art. 3 Cost. A questo proposito, occorre precisare. Certezza e prevedibilità del diritto (giurisprudenziale) non significano aritmetica calcolabilità. Secondo un’impostazione autorevolmente sostenuta, il «diritto» è calcolabile e la «decisione», di conseguenza, è prevedibile se l’uno e l’altra sono costruiti come applicazioni della legge. Sicché è possibile dire che, verificatosi il fatto descritto dalla norma, deve verificarsi l’effetto giuridico, anch’esso stabilito dalla norma. Una sequenza predeterminata che permette la previsione. La decisione, tuttavia, non si fonda solo su una fredda sussunzione: affinché questa sia possibile e da essa scaturisca l’effetto, è necessario che i fatti siano accertati. Poiché, però, i fatti sono incalcolabili e gli esiti istruttori non sempre prevedibili, nessuno spazio per una precisa calcolabilità è predicabile. A questo aspetto se ne aggiunge un altro. Di fronte ad una clausola generale, ad un concetto indeterminato, ad una norma elastica, la logica formale innanzi descritta rivela tutta la sua illusorietà. È proprio qui che, la fattispecie entra in crisi e cade nel soggettivismo della decisione, poiché il ragionamento procede per principi e valori ed il giudizio diventa una sorta di presa di posizione. Sennonché, pare che ancora una volta si cada in un tranello prospettico. L’attività interpretativa è sempre esercizio di un’opzione valutativa e di una certa discrezionalità: tanto se queste riguardino l’individuazione del significato, tra i tanti argomentabili e plausibili da attribuire al testo, quanto se contribuiscano a fondare la norma. Si tratta, comunque, di un’attività che non può prescindere da una selezione di valori. È fisiologico che ciò accada, senza dover ritenere che tale selezione comporti una “crisi della fattispecie”, neanche quando la giurisprudenza esprime in maniera più ampia (se si vuole, più disinvolta) la propria creatività. Se, poi, vogliamo parlare della c.d. “crisi della fattispecie”, lo si potrebbe fare al fine di denunciare il creazionismo giudiziario, la tendenza cioè a creare dal nulla. Accanto all’esigenza della prevedibilità delle decisioni, nel senso appena delineato, si fa strada un’altra ambigua esigenza, quella di perseguire una giustizia che sia anche predittiva. La predittività sembra affacciarsi alla prevedibilità, perché maggiormente in grado di assicurare la certezza del diritto. Predire starebbe a significare qualcosa in più di prevedere, come se il «dire prima» comportasse una preventiva acquisizione del risultato, mentre il «vedere prima» ne consentisse soltanto una ragionevole aspettativa di acquisizione. Eppure, in base a ciò che si legge nella voce enciclopedica pubblicata in Treccani.online: «per ‘giustizia predittiva’ deve intendersi la possibilità di prevedere l’esito di un giudizio tramite alcuni calcoli; non si tratta di predire tramite formule magiche, ma di prevedere la probabile sentenza, relativa ad uno specifico caso, attraverso l’ausilio di algoritmi. Il diritto può essere costruito come una scienza, che trova la sua principale ragione giustificativa nella misura in cui è garanzia di certezza: il diritto nasce per attribuire certezza alle relazioni umane, tramite una complessa attribuzione di diritti e doveri». La predittività predicata, dunque, riposa su un giudizio prognostico a sua volta fondato sulla possibilità di prevedere l’esito del processo. Predittività e prevedibilità non sono due entità aliene l’una rispetto all’altra, ma sono declinazioni della medesima esigenza di certezza del diritto. Sorge spontanea una domanda: perché allora parlare di «Giustizia predittiva»? La risposta a questo interrogativo sta probabilmente nel fatto che dietro l’utilizzo della formula si cela, in realtà, l’idea del «giudice automa» o «giudice robot»: la macchina che sostituisce l’uomo non solo nel ragionamento giuridico, ma anche nella decisione, ma si tratta di un’idea così forte e difficile da accettare che non la si proclama apertamente o la si accenna soltanto. Orbene, cominciamo subito col dire che la predittività applicata alla giustizia non è un tema nuovo. A partire dagli studi di Loevinger, (1913 –2004, un magistrato e avvocato statunitense), sulla c.d. giurimetria e sull’indagine circa le utilità che possono scaturire dall’utilizzo di computer e algoritmi nella ricerca scientifica giuridica e dalla loro applicazione al processo, si è cercato di stabilire un metodo di analisi per ottenere l’anticipazione dell’esito delle decisioni. In Francia, la giustizia predittiva ha fatto ingresso in maniera più rumorosa e altisonante, con l’introduzione della Legge n.1321/2016 (c.d. «legge per la Repubblica digitale») e l’istituzione della piattaforma online <predictice.com>. La piattaforma dovrebbe permettere di prevedere le probabilità di successo o insuccesso del processo in base ad un calcolo statistico, a sua volta basato sul previo inserimento di dati (di carattere generale) e di metadati (relativi alla specifica controversia) e all’applicazione di algoritmi di classificazione/regressione e associazione. In questo caso, la predittività è intervenuta a supporto dell’attività degli avvocati, favorendo il successo delle società specializzate in legaltech e delle società assicurative. [[3]] L’intelligenza artificiale è un insieme di metodologie, tecniche e algoritmi per l’analisi automatica e la previsione di fenomeni complessi, descritti in modo implicito da basi di dati storici che rappresentano l’esperienza “pregressa”, condivisa e maturata nel tempo. Nel caso de quo, il termine giustizia predittiva fa riferimento all’uso di algoritmi e tecniche di intelligenza artificiale per fare “previsioni” in ambito giuridico, lo scopo è quello di fornire, in modo semplice e senza inutili tecnicismi, con particolare riferimento alle discipline giuridiche, le nozioni di base e le potenzialità applicative dell’intelligenza artificiale. Negli ultimi anni: le banche hanno iniziato a monitorare il comportamento dei clienti; i centri medici hanno iniziato a costruire la cartella informatica dei pazienti; le aziende hanno iniziato a reperire informazioni sul comportamento commerciale di potenziali clienti. Un modello predittivo deve ricevere in ingresso un insieme di valori denominati “caratteristiche” (features) dell’“oggetto” (pattern) su cui si vuole fare previsione e restituire in uscita un valore predittivo che può essere un punteggio (score) oppure un numero che determina la classe di appartenenza dell’oggetto. In buona sostanza, il modello predittivo deve essere addestrato per predire il comportamento di un nuovo cliente attraverso la “visione” di una casistica sufficientemente ampia di clienti noti. Nel caso della banca, i dati storici devono riferirsi a clienti che si sono rivelati affidabili e a clienti che non sono risultati affidabili. I passaggi concettuali per arrivare alla costruzione di un modello predittivo sono i seguenti:
definire l’obiettivo della predizione;
definire le caratteristiche dell’oggetto della predizione;
reperire una base di dati, contenente un numero sufficientemente ampio di “casi concreti”;
addestrare il modello matematico alla predizione, utilizzando l’insieme di esempi concreti e un algoritmo per la determinazione dei parametri del modello;
fornire una misura quantitativa della capacità di predizione del modello addestrato.
La qualità del modello predittivo dipenderà fortemente dalle caratteristiche selezionate (feature selection) e dalla ricchezza di informazioni dell’insieme di addestramento disponibile, il quale deve contenere una casistica sufficientemente ampia del fenomeno in oggetto. Alla base di tutto deve essere congetturata una correlazione tra le caratteristiche selezionate e l’evoluzione che si vuole osservare e poi prevedere. L’intensa attività di ricerca svolta nel settore dell’intelligenza artificiale ha reso possibile lo sviluppo di efficienti e robusti algoritmi di addestramento, in grado di processare anche milioni di dati per la costruzione di modelli predittivi. Sulla base di tale accezione, l’utente potrà valutare l’opportunità, o meno, di adottare il modello predittivo per i suoi scopi. L’iter da seguire, per l’applicazione delle metodologie di intelligenza artificiale nell’ambito della giustizia, presumibilmente, sarebbe il seguente: PUNTO 1: Prendiamo come “oggetto” una causa “X” e poniamo come obiettivo quello di voler predire l’esito. PUNTO 2: Dobbiamo chiederci se è possibile codificare, in modo oggettivo, gli elementi di una causa e le possibili strategie di difesa. PUNTO 3: Successivamente, dobbiamo verificare l’esistenza di una casistica sufficientemente ampia di cause, sia con esito positivo che con esito negativo, su cui dobbiamo addestrare il modello predittivo. PUNTI 4 e 5: In ultima istanza, si dovrebbe esser in grado di fornire una valutazione quantitativa della capacità predittiva del modello addestrato e, quindi, del contenuto informativo della base di dati disponibile. L’idea brevemente descritta è talmente valida che in Francia, nel 2016, è stata fondata da due studenti di giurisprudenza e da due ingegneri informatici, una start-up francese che prevedeva la nascita della piattaforma online denominata <predictice.com> con l’introduzione della Legge n.1321/2016 (c.d. «legge per la Repubblica digitale»). La piattaforma dovrebbe permettere di prevedere le probabilità di successo o insuccesso del processo in base ad un calcolo statistico, a sua volta basato sul previo inserimento di dati (di carattere generale) e di metadati (relativi alla specifica controversia) e all’applicazione di algoritmi, a supporto dell’attività degli avvocati. Lo scopo è quello di fornire, in modo semplice e senza inutili tecnicismi una base di dati aventi sentenze precedenti per la predizione dell’esito di una causa e per l’ottimizzazione della strategia difensiva, allo scopo di massimizzare la probabilità di esito positivo. Da tempo, la giustizia americana utilizza strumenti di intelligenza artificiale per prendere decisioni riguardanti: l’entità di pena, la scarcerazione, il ricorso alla libertà vigilata. Particolarmente scalpore ha fatto il caso di Eric Loomis nel Wisconsin. Imputato nel 2013 per una sparatoria senza vittime, Eric Loomis ha avuto una lunga condanna (6 anni) perché ritenuto ad alto rischio recidiva dal software predittivo COMPAS (Correctional Offender Management Profiling for Alternative Sanctions). L’imputato Loomis ha fatto ricorso, dichiarando che venivano violati i suoi diritti di imputato a causa dell’uso, da parte del giudice, di un algoritmo predittivo, la cui validità scientifica non era accertabile, in quanto le regole esplicite dell’algoritmo non erano note pubblicamente. Il modello predittivo del software COMPAS è basato sulle informazioni del fascicolo processuale e sulle risposte ad un certo numero di domande (età, grado di istruzione, lavoro, famiglia, uso di droga), a cui viene sottoposto l’imputato del quale si vuole valutare il rischio recidiva. Nell’estate del 2016, la Corte Suprema del Wisconsin ha considerato legale l’uso del software di valutazione del rischio per emettere una sentenza. Il caso è, tuttavia, oggetto costante di dibattito in ambito scientifico, accademico e giuridico. Il fenomeno della Giustizia predittiva è, quindi, ormai realtà consolidata in alcuni Paesi (come Stati Uniti e Francia, per esempio) ed è ragionevole pensare che nel campo giuridico l’interesse verso il suddetto modello è crescente ma principalmente teorico, ciò nondimeno è prevedibile che si andrà verso una direzione applicativa. Per quanto riguarda la realtà accademica italiana, nell’aprile del 2017, presso il Dipartimento di Scienze Politiche e Sociali dell’Università di Bologna, è stato svolto un ciclo di lezioni intitolato “Predictive Justice”. Le lezioni sono state tenute da Antoine Garapon, magistrato francese, e hanno riguardato l’impiego di tecniche di intelligenza artificiale in ambito giuridico, con approfondimenti legati all’opportunità, o meno, di delegare alcune decisioni agli algoritmi (il titolo di una lezione era: “Can judgments be delegated to algorithms?”).
3. Il processo del futuro?
Il tema della decisione robotica è sicuramente molto suggestivo, ma al contempo ha in sé parecchi dubbi e alcuni aspetti inquietanti. Sicuramente un primo punto da affrontare è la somiglianza che le nuove macchine hanno con l’uomo, il quale è mosso indubbiamente da sentimenti contrastanti. Così, in un ordinamento regolato da leggi e provvedimenti, con decisioni sempre più basate sui casi concreti, che fine fa la prevedibilità della decisione, nell’accezione di valore di civiltà etica, politica e giuridica? Il robot è visto come colui che è in grado di: ridurre al minimo i tempi della giustizia, di smaltire il contenzioso pregresso, di rendere le decisioni prevedibili, di svolgere una funzione dissuasiva nei confronti dell’abuso del processo. E allora che cosa osta all’adozione di un tale ideale di giustizia amministrata da robot in modo equo, imparziale, efficiente e prevedibile? Bisognerebbe iniziare a lavorare, immaginando una feconda interazione tra uomo e macchina, grazie alla quale le prestazioni cognitive umane vengano potenziate e, al contempo, sorvegliate dalla capacità della macchina di prospettare soluzioni e di monitorare il processo motivazionale e decisionale, così da segnalarne la comune incongruenza rispetto a soluzioni assunte in casi simili. Certo, l’ultima parola dovrebbe essere comunque quella del giudicante che controlla l’intero processo e se ne assume la responsabilità. Riportando un esempio, basti pensare al modello della guida assistita dell’automobile, nel quale la macchina utilizza dispositivi di segnalazione e controllo rispetto alle operazioni compiute dal guidatore, nonostante ciò, è sempre l’uomo a condurre il veicolo, a prendere decisioni, ma sulla base di informazioni che non avrebbe mai potuto raccogliere ed elaborare nei tempi richiesti. Un modello simile potrebbe essere predisposto per la decisione giudiziale, rispetto alla quale la macchina potrebbe suggerire dei modelli motivazionali. In questo modello di interazione tra naturale e artificiale, una funzione di controllo dovrebbe essere esercitata, dunque, dalla stessa macchina nei confronti del decisore, ad esempio: segnalando vincoli logici o procedurali da rispettare, prospettando soluzioni alternative, evidenziando l’esistenza di decisioni contrarie. Si potrebbe, a tal fine, immaginare che l’intero processo decisionale si svolga in un ambiente digitale, così che il giudicante si muova in una sorta di percorso virtuale vincolato, in cui a ogni passaggio sia chiamato a risolvere un problema o a fornire una risposta. La macchina potrebbe atteggiarsi da alter ego del giudice, che gli chiede conto e gli fa prendere piena coscienza del modo in cui sta ragionando e decidendo. Occorre chiedersi cosa significhi per un robot decidere. Una delle sfide più importanti riguarda la giusta selezione delle informazioni essenziali, poiché non si può raggiungere un risultato positivo con l’inserimento di dati “cattivi”. Con riguardo alla scelta posta in essere dal robot, è noto che lo stesso sia in grado di fare un ordinamento delle preferenze degli scenari futuri, una sorta di gerarchia di preferenze su ciò che avverrà. La decisione robotica poggia, infatti, su una funzione di utilità, che implica la misurabilità, una metrica dei valori, a differenza di quanto accade in ambito giuridico. Ogni scelta presente comporta delle conseguenze, eseguire scelte razionali significa fare scelte che portino a risultati accettabili per il decisore. Si ha riguardo, dunque, a una scelta pienamente soggettiva, per cui è necessario tener conto di tutti i dati passati, ma soprattutto della probabilità degli eventi futuri. Sulla base di tali premesse è, dunque, possibile affermare l’esistenza di un’analogia tra decisione robotica e giuridica? Per fare maggiore chiarezza, la decisione giuridica consta di quattro categorie decisorie:
- una decisione per valori,
- una decisione secondo il fatto,
- una decisione secondo i precedenti
- e una decisione per legge.
Sulla base di ciò, con riguardo alla decisione robotica troviamo un’analogia per tre sole di queste categorie:
- la decisione secondo il fatto, tenuti conto dell’analisi del dato e della sua interpretazione propria del processo decisorio della macchina,
- la decisione secondo i precedenti, avendo la macchina la capacità di esaminare tutta la storia dei dati passati,
- e la decisione per legge, decidendo la macchina sulla base di regole.
Dall’analisi si evince che non c’è corrispondenza con riguardo alla decisione per valori, essendo essa, in ambito giuridico, sostanzialmente arbitraria poiché non poggia su criteri solidi di calcolabilità giuridica. Le nuove tecnologie di robot e algoritmi forniscono strumenti in grado di aiutare avvocati e giudici per ciò che riguarda l’analisi delle informazioni utili per stabilire strategie di decisione, in grado, quindi, di facilitare il lavoro e la produzione di particolari classi di giudizi definitivi o preconfezionati. Analizziamo ora alcuni casi. È noto che un gruppo di scienziati ha creato un algoritmo volto a predire l’esito finale del processo. Esso è stato sperimentato con riguardo al settore della violazione dei diritti umani, e in particolare degli artt. 3, 6 e 8 della Convenzione europea dei diritti dell’uomo. Su 184 cause il programma è giunto alle stesse soluzioni dei giudici per il 79% dei casi. Il sistema della IBN, che utilizza Watson, è attualmente utilizzato in Italia negli studi milanesi. Si tratta di un sistema cognitivo, in grado di offrire risposte all’interrogativo posto citando sia norme che sentenze, ciò però solo in inglese. Partendo dall’esperienza di Watson, si arriva al computer cognitivo Ross, messo a disposizione degli avvocati, i quali, mediante lo stesso, possono effettuare delle ricerche ponendo domande in linguaggio naturale ed il sistema è, a sua volta, in grado di setacciare oltre un miliardo di documenti. Ancora, esiste un programma chiamato Case Francia Alfa, elaborato da studenti di Cambridge, che ha sfidato 100 giuristi selezionati dalle migliori law firms, per addivenire a talune decisioni, in ipotesi di richiesta di risarcimento danni, in caso assicurativo, per credit protection. Chi ha vinto la sfida? Su 775 il programma ha predetto correttamente nell’88,6% dei casi, mentre i giuristi solo nel 66,3%. Quindi, trattasi di settori totalmente diversi tra loro (assicurazioni, diritti umani, contratti), tutti caratterizzati da una fase prognostica, in cui rilevanza fondamentale è rivestita dai precedenti. Nonostante alcune sperimentazioni di giustizia predittiva serpeggino da diverso tempo, una notizia rivoluzionaria ha fatto parlare molto di sé nei primi mesi del 2019: in Francia è online una piattaforma che “predice” gli esiti giudiziari. In buona sostanza, tale piattaforma anticipa il risultato potenziale della causa, vinta o persa, e l’entità dell’eventuale risarcimento, si chiama “Predictice.com” e promette la “migliore strategia giudiziaria a partire dai dati”. Fondata da due studenti di giurisprudenza tecnofili e da due ingegneri informatici, la startup francese Predictice si affida alle tecniche del Machine Learning e, naturalmente, a sentenze precedenti, per prevedere le probabilità di successo di un procedimento giudiziario e ottimizzare la strategia processuale degli avvocati. Attualmente in fase beta, il servizio è stato proposto agli studi legali e ai servizi giuridici delle aziende a partire da novembre 2016. In un click, spiega il sito, l’algoritmo Predictice calcola le probabilità della definizione di una causa, l’ammontare dei risarcimenti ottenuti in contenziosi simili e identifica gli argomenti su cui vale la pena di insistere. Ovviamente, sulla base di informazioni inserite dall’utente e passando in rassegna milioni di documenti, leggi, norme e sentenze. Come funziona: lo spiega il sito di OVH.it, una delle società che ha sostenuto il progetto. La piattaforma è pensata per gli avvocati, con l’obiettivo di fornire la probabilità statistica di successo di una causa e si differenzia dai progetti avviati in passato, in particolare, negli Stati Uniti: quello della società Lex Machina, specializzata nella problematica dei brevetti industriali, o di Compas, destinato ai magistrati, il cui algoritmo utilizza dati diversi dalle sentenze giudiziarie per definire il rischio di recidiva per un detenuto. Il database di Predictice oggi include anche un milione di righe di documenti, diversi codici (articoli di legge) e testi giuridici (commenti relativi al codice e alle decisioni giudiziarie). Facendo leva sul linguaggio utilizzato nel diritto, che segue standard precisi, è possibile automatizzare l’indicizzazione e l’integrazione dei dati aggiungendo metadati. Questa è la prima fase. I metadati riferiscono le caratteristiche della controversia, ad esempio: qual è stato il risarcimento richiesto e quello effettivamente ottenuto? Si trattava di un ricorso o di una sentenza di primo grado? Questa attività permette di proporre agli utenti un motore di ricerca, in grado di fornire tutte le informazioni utili relative a una disputa (testo di legge, giurisprudenza, dottrina, etc.). Nella seconda fase, entrano in gioco gli algoritmi. Due casi non sono mai identici, quindi l’obiettivo è identificare l’associazione tra un fattore, o una combinazione di fattori, e la chiusura di un caso. Per farlo, si utilizza l’algoritmo SyntaxNet, sviluppato da Google e open source da maggio 2016, questo strumento di analisi sintattica aiuta le macchine a interpretare il linguaggio umano e consente, nel nostro caso, di individuare la correlazione tra le parole per estrarne il senso. Il testo viene quindi sottoposto ad algoritmi di classificazione/regressione (Vapnik’s SVM) e a regole di associazione (Frequent Pattern Vertical), per creare modelli di previsione complessi. Applicando questi modelli alle caratteristiche della controversia l’avvocato è in grado di valutare le probabilità di successo. Il terzo e ultimo step consiste nel valutare e confrontare diverse strategie processuali, in modo che l’avvocato possa costruire, in base alle variabili del caso, l’argomentazione che strategicamente ha maggiori probabilità di successo. Qual è l’obiettivo di mercato? Fidelizzare almeno il 30% degli avvocati in Francia, che sono 60mila e, a medio termine, espandersi nei sistemi di civil law. La piattaforma è tra quelle che sono definite di giustizia predittiva. Ma come impatta un sistema del genere nel mondo giudiziario? Non c’è il rischio di una giustizia più che predittiva, automatizzata? Chi se ne servirà e perché? Se ne potranno avvantaggiarsene gli stessi avvocati, per valutare quali argomenti escludere e quali cavalcare per essere convincenti con i giudici? E se del caso, escludere la causa le cui probabilità di successo sono basse e prendere in considerazione in maniera più convincente i sistemi di Adr? Non pochi sono i dubbi che attanagliano gli studiosi. Claudia Morelli, giornalista, sul tema fece un’intervista ad un magistrato ed un avvocato, entrambi di fede “digitale”: Claudio Castelli, Presidente della Corte d’appello di Brescia e l’avvocatessa penalista Monica Senor, dello studio Catalano penalisti associati e fellow del Nexa Center for Internet & Society del Politecnico di Torino. «Quello della giustizia predittiva è un terreno inevitabile che dovremo attraversare. E siamo già molto vicini», spiega Castelli che è stato uno dei magistrati pionieri del processo civile telematico. «Ci sono molteplici aspetti positivi laddove si ritenga che la prevedibilità di un giudizio sia un valore per tutta la società. Da una parte potrebbe verificarsi un effetto virtuoso sulla domanda di giustizia, perché cadrebbe man mano quella pretestuosa. In secondo luogo, i magistrati potranno decidere con consapevolezza maggiore quando andranno ad assumersi la responsabilità di un cambio di giurisprudenza». Per Castelli questi meccanismi predittivi sono «l’unica risposta seria alla demagogia di cui spesso la magistratura è vittima riguardo agli errori giudiziari, alla detenzione ingiusta etc.». Certo, l’impatto potrebbe essere dirompente al principio sia per i magistrati «che potrebbero temere un controllo anomalo sul loro operato»; sia per gli avvocati «ma solo di quelli che ritengono sia fruttuoso andare comunque ed in ogni caso in causa». E non solo. Il timore è anche quello di un conformismo indotto, che potrebbe far scegliere al magistrato la via “più comoda”. «È evidente che questi processi digitali, un po’ in tutti i settori, interpellano in maniera diversa e più consapevole l’etica di tutte le professioni”, riflette Castelli. “Ma sono processi a cui non è possibile sottrarsi». L’avvocatessa Senor ha scritto molto di sistemi predittivi, soprattutto quelli che misurano il tasso di recidiva di un imputato. «In linea generale sono favorevole a sistemi predittivi nella giustizia, ovviamente con determinate garanzie. Tuttavia, questo prodotto solleva più dubbi che certezze. Come avvocato sarei più interessato ad un algoritmo che mi aiuti a scandagliare e selezionare nella massa di documenti contenuti nei faldoni dei processi piuttosto che a sapere come finirà una causa. Anche se è altamente probabile che questi algoritmi prenderanno piede. Non molto tempo fa, per esempio, la University College di Londra e l’Università di Sheffield hanno sperimentato un algoritmo testandone la capacità di predire i verdetti della Corte europea dei Diritti dell’Uomo, raggiungendo un grado di precisione pari al 79%». [[4]]
4. Gli ostacoli applicativi e le implicativi processuali
Attualmente, i problemi che si frappongono alla sostituzione del giudice con il robot riguardano la compatibilità rispetto ai principi di imparzialità, terzietà e discrezionalità del giudice, rispetto alle vaste variabili delle fattispecie, rispetto all’assenza della fattispecie stessa. L’esigenza più forte è quella di assegnare il crisma della fattualità in funzione della decisione del caso concreto: nel senso di distinguere o combinare i fatti sia nella proiezione degli elementi cardine delle fattispecie su cui si fonda la decisione di diritto, sia degli elementi probatori. Vi sono ovviamente degli ambiti del tutto preclusi anche nelle fasi endoprocessuali: si pensi, al diritto di famiglia, alla responsabilità professionale, ai diritti della persona, a quei settori specialistici, quale quello societario e industriale, caratterizzati da complessità ed estrema variabilità dei dati. Il punto aleatorio, in conclusione, è il tema della responsabilità, essendo sempre necessario poter riassumere la responsabilità in capo al giudice. Il giudice deve necessariamente dare una risposta alle istanze che provengono dalle parti. Questo principio inamovibile del diritto processuale sposta l’analisi sul primo ostacolo applicativo della giustizia predittiva. La domanda sorge quasi spontanea: potrà mai una decisione computerizzata fornire una risposta certa? Riuscirà ad eliminare ogni margine di dubbio? Un aspetto, tutt’altro che secondo, è che l’orientamento dottrinale prevede il c.d. “non liquet” [[5]] completamente inammissibile, essendo il giudice chiamato sempre a una rimozione autoritaria del dubbio. Non bisogna dimenticare che la funzione di legittimità è composta da due elementi fondamentali, individuati dall’art. 65 dell’ordinamento giudiziario, ovverosia l’esatta osservanza e l’uniforme interpretazione della legge. Risulta doveroso riflettere attentamente su alcune implicazioni costituzionali: chi andrà ad interpretare il diritto e soprattutto che sensibilità può avere? L’art. 101 della costituzione [[6]] assoggetta tutti i giudici alla legge, l’art 12 delle preleggi specifica, invece, che nell’applicare la legge ad essa non può essere dato altro significato se non quello che chiaramente emerge dalle parole e delle intenzioni del legislatore. Le disposizioni dell’art 12, in modo neanche troppo implicito, scandiscono una vera e propria gerarchia delle interpretazioni:
letterale
analogica
Nel subordinare la seconda alla prima viene espressa la valenza di un’interpretazione analogica, la quale dovrà sopperire a quelle situazioni lacunose o di incertezza del testo legislativo. Il lavoro interpretativo dei giudici rappresenta da sempre un sostegno del nostro sistema giudiziario, questo aspetto deve essere tenuto presente quando si ipotizzano scenari di sostituzione della figura del giudice, poiché non bisogna dimenticare che, oltre al lavoro più evidente, cioè quello di decidere sulle controversie, si cela una funzione molto più articolata e complessa resa possibile solo dall’esperienza giuridica, ma non solo. Probabilmente, l’aspetto che più preoccupa i giuristi è proprio questo. La funzione interpretativa ha un valore molto più profondo della “semplice” controversia processuale da risolvere, essa rappresenta una vera e propria tradizione in grado di tener conto di fattori imprevedibili ed adattarsi all’innovazione. Sarà possibile ricondurre tutto questo a modelli matematici in grado di schematizzare questo procedimento in un automatismo? Il principio dell’uniforme applicazione della legge potrebbe trarre in inganno i non cultori del diritto, i quali erroneamente potrebbero credere che un’intelligenza artificiale sia lo strumento più idoneo per non creare disuguaglianze applicative, ovvero applicare indistintamente gli stessi criteri e leggi. In realtà, questo principio affonda le sue radici direttamente nel principio di uguaglianza, sancito dall’art. 3 della nostra Costituzione, composto da due nuclei: uno forte, l’altro debole. Nel primo comma è ribadita l’uguaglianza di tutti davanti alla legge senza nessuna distinzione, da qui la celebre frase presente nei nostri tribunali “LA LEGGE È UGUALE PER TUTTI”; nel secondo comma è la stessa legge che si fa carico di rimuovere ogni ostacolo che impedisce una piena uguaglianza fra tutti i cittadini. La scelta di temperare un principio inamovibile della società civile deriva dalla consapevolezza che il vero ostacolo all’attuazione del principio sono le innumerevoli diversità soggettive che la legge deve affrontare; per siffatta ragione, andare ad applicare la legge in modo rigido senza tener conto di tali diversità comporterebbe un disvalore verso determinati gruppi di soggetti che non saranno più tutelati allo stesso modo. Questa breve analisi del dettato costituzionale ci riporta ad un altro corollario del sistema processuale: “il giudice nell’applicare la legge dovrà trattare situazioni uguali in modo uguale e situazioni diverse in modo diverso”. A tal punto, appare lapalissiano che, per garantire l’espletamento di tutti questi principi non può bastare un archivio di leggi e precedenti sconfinati applicabili in maniera meccanica da una qualunque intelligenza artificiale, ma servirà la duttilità ed elasticità di una mente umana in grado di riuscire ad adattarsi al caso specifico con tutte le singolarità che esso comporta. A questo punto, dopo un’analisi completa, si potrà giungere ad una risoluzione del caso di specie, in armonia con le altre decisioni prese, senza generare disparità di trattamento. Prima di concludere l’argomento dell’interpretazione è bene analizzare la questione da un dato punto di vista. Il pensiero principale dell’aurora si basa sulla necessità di dover, in un certo modo, soccorrere una materia incerta, come quella giuridica, collegandola con la precisione e l’esattezza matematica, aumentando in tal senso il grado di certezza e giungendo, infine, a una prevedibilità dell’esito giudiziale. Ovviamente, tutto questo sarà anche possibile con una maggiore celerità ed affidabilità. In un’ottica più minuziosa si nota come, in realtà, tutto il sistema del diritto, fatto da regole scritte e certe, si fonda sul dover prevedere un esito giudiziale, proprio grazie al principio di conoscibilità e univocità delle norme preposte dal legislatore. Appare, altresì, logico che, con la giusta tecnologia ed una codificazione esaustiva, si potrebbe ipotizzare, in un tempo non molto lontano, una sostituzione della figura del giudice da parte di una macchina in grado, addirittura, di riuscire a fornire un’interpretazione delle norme e del loro evolversi, grazie a un sistema autoreferenziale. Nell’altra faccia della medaglia, è doveroso ravvisare che il diritto non può essere inteso in un senso oggettivo dato che è molto articolato e pieno di clausole, c.d. “cavilli”, che non potranno certo essere ricondotti a semplici operazioni matematiche. Con la piena attuazione di “Giustizia predittiva” si rischierebbe di perdere quella sensibilità e singolarità dei casi, poiché che il soggetto istantaneamente verrà giudicato e, quindi, in un certo senso, generalizzato, sradicando tutte le caratteristiche singolari del suo caso e visto come un semplice e freddo problema matematico da risolvere. Il mondo giuridico non sarà certo esente dai cambiamenti informatici, ma non vi è dubbio che le modifiche dovranno inserirsi in modo armonico al campo del diritto, il quale sicuramente è uno dei più tradizionalisti, basti pensare come le innovazioni tecnologiche abbiano avuto non poche difficoltà a giungere nel diritto processuale. Il processo telematico (PCT) è la disciplina del processo civile svolta con metodo digitale, nello specifico tramite il deposito degli atti e provvedimenti di causa in via telematica. Con tutta evidenza, rappresenta l’innovazione giuridica in campo informatico più grande di sempre, il PCT è attualmente vigente nella Repubblica Italiana, dopo una sperimentazione partita nel 1997 e terminata a giugno del 2014. Per più di 10 anni il mondo giuridico ha avuto serie difficoltà ad adattarsi a questa innovazione, mentre altre discipline beneficiavano, già da parecchio tempo, dell’introduzione dei mezzi informatici. Questa esperienza ha rimarcato come il sistema processuale sia fortemente tradizionalista e, affinché recepisca a pieno determinate innovazioni, ha bisogno di tempo per assimilarle e amalgamarle in concreto. L’applicazione robotica apre scenari interessanti e potenzialmente virtuosi in quelle che sono definibili come le “periferie della decisione umana”: trattasi di quelle attività che costituiscono i prodromi del decisum, consentendo un ordinato svolgimento del processo e garantendo l’effettivo esercizio della funzione nomofilattica. In particolare, occorre fare i conti con il problema della regolamentazione dei c.d. “robot di ultima generazione”, macchine che vanno oltre la semplice elaborazione, per lo più nella possibilità di riuscire a dotare l’intelligenza artificiale di una capacità di autoaggiornamento, capace di potenziarsi ed evolvere i propri dati senza l’ausilio dell’uomo, ma su una sua lettura e comprensione dei dati, che via via si trova ad analizzare. L’algoritmo, inteso in questo senso, sarà capace di generare nuova conoscenza sulla base della sua esperienza. Il Parlamento Europeo ha dovuto necessariamente dettare le linee guida in ambito di responsabilità derivante da malfunzionamento dei robot, ma sul punto se ne parlerà dopo. Un’ipotesi che è necessario tenere in considerazione è quella di un graduale affiancamento dell’intelligenza artificiale algoritmica alla figura del giudice, il quale con facilità sempre maggiore potrà considerare nuovi scenari che, posti al suo vaglio, procureranno materiale sicuramente utile alla decisione, la quale potrà giungere con più rapidità, alleggerendo, al contempo, il carico di lavoro dell’ufficio giudicante, ed evitando errori di ogni genere. Secondo questo scenario, il giudice dovrebbe effettuare un secondo controllo sulla decisione presa dalla macchina, un controllo sulla giustizia, il quale, almeno per il momento, risulta non derogabile ad intelligenze artificiali. Secondo un esperimento effettuato da Law Geek (società di software di intelligenza artificiale in ambito legale), l’accuratezza di un programma di intelligenza artificiale, nell’analisi di un accordo di riservatezza, è superiore a quella degli avvocati «umani» (94% contro una media dell’85%). Queste attività, più che andare a sostituire, rappresenterebbero, sempre più, strumenti funzionali utili al professionista, capaci di unire un lavoro preciso e meccanico all’insostituibile ingegno dell’uomo. Anche grandi studi legali, come Dentons o DLA Piper, stanno sviluppando sistemi di legaltech, tramite software che creano le basi di sistemi di c.d. “Giustizia predittiva ad uso interno”. L’avvocato dovrà fornire le proprie competenze al controllo, andando a vagliare e, successivamente, approvare i contenuti dell’atto giuridico, tutto questo grazie ad un sofisticato supporto tecnologico. Ponendo adesso, invece, l’attenzione sul lessico linguistico delle parole “giustizia predittiva”, si aprono delle analisi insidiose riguardanti i criteri di inserimento dei dati utili all’algoritmo per analizzare il caso. Ad operare è sempre l’uomo, il quale agisce in base ad opzioni di valore e/o di interesse. Il ricorso al criterio dell’autorevolezza delle decisioni e a quello della rilevanza giuridica potrebbe contribuire a soddisfare l’esigenza di nomofilachia e uniformità giurisprudenziale. Questi aspetti riguardano la prevedibilità. Per quanto attiene alla predittività, si incorre nel rischio che gli elementi analizzati dalla macchina siano estranei al diritto, generando, di conseguenza, una sorta di decisione basata sulla previa profilazione dei contendenti. C’è, poi, un altro possibile pericolo incombente, che consisterebbe nell’effetto c.d. “performativo” [[7]] che la giustizia, attraverso algoritmi, potrebbe produrre, laddove rischierebbe di tradursi in un’auto-profezia. Nel concreto potrebbe avvenire il seguente: il giudice, per rendere le decisioni, utilizza la «predizione» fornitagli dall’algoritmo, sicché la predizione stessa diverrebbe la decisione. Il pericolo si presenta nel fatto che il processo è soprattutto analisi, una sorta di ricostruzione e controllo dei fatti ed alla base di un processo giuridico c’è sempre un comportamento, un avvenimento umano, con casi concreti ed irripetibili. L’immissione di milioni di dati combinati/aggregati e la «educazione» dello strumento tecnico al linguaggio giuridico possono effettivamente contribuire a semplificare il lavoro degli operatori giuridici, ma l’attenta analisi e conoscenza della vita reale e dei fatti concreti non potrà certo essere inserita insieme ad altri criteri di natura giuridica. Un effetto predittivo pieno, dunque, è del tutto illusorio. Come, per le medesime ragioni è del tutto illusorio pensare che sia possibile profetizzare l’esito del processo attraverso una, più o meno, complessa formula matematica, applicata alla interpretazione della legge. Continuare a parlare di predizione diventa sempre più difficoltoso tenendo presente il suo significato letterale, dato che la funzione del processo non può intendersi come la risposta a una domanda complessa posta dalle parti, ma è un espletamento di una garanzia necessaria per l’attuazione dei diritti. Soffermandoci ancora per un po’ sulle fasi processuali, pensare che un algoritmo possa riuscire a prevedere la decisione finale, implicherebbe necessariamente immaginare che la macchina sia in grado di prevedere i mezzi istruttori di cui la parte voglia avvalersi per sostenere la propria posizione giuridica. E ancora, in base a quanto detto, non si riuscirebbe a stabilire ex ante quale contenuto si debba dare alla fattispecie concreta volta all’esame del giudice, alle norme elastiche e a quelle contenenti clausole generali o concetti indeterminati. Come anche, in ultima istanza, il ricorso al principio di equità, dal momento in cui il giudice, pur non essendo autorizzato a prescindere dalla fattispecie legale astratta, è comunque chiamato ad adottare per il caso concreto la decisione più conforme alla giustizia. In tutte queste ipotesi è assolutamente necessario l’intervento discrezionale del giudice-uomo.
5. Tutela della privacy
L’intelligenza artificiale si serve di un numero non quantificabile di dati. È pacifico che il modus operandi degli algoritmi sia quello di classificare e selezionare i dati in suo possesso creando, secondo un criterio matematico, una sorta di divisione basata su determinate abitudini, attitudini, comportamenti e altre caratteristiche che, prendendo in considerazione i dati personali del soggetto, avranno lo scopo di valutare aspetti personali della persona fisica. Tale trattamento automatizzato non potrà che sfociare in una profilazione del soggetto, il quale sarà collocato, prima ancora di essere giudicato, in una delle categorie analizzate dall’algoritmo. La gestione dei dati personali, in un mondo ormai totalmente asservito ai vari social network e contrattazione on-line, rappresenta un problema quanto mai attuale, ne sono testimonianza palese le ultimissime innovazioni in campo di privacy. [[8]] Con l’arrivo delRegolamento Europeo, la legge sulla privacy ha fatto un ulteriore passo avanti: il Regolamento UE 2016/679 [[9]] relativo alla protezione delle persone fisiche, con riguardo al trattamento dei dati personali, nonché alla libera circolazione di tali dati, ha abrogato la direttiva CE 95/46 (regolamento generale sulla protezione dei dati) e, di conseguenza, ha sostituito il Codice sulla Privacy italiano (D.lgs. 196 del 2003). Inoltre, il Parlamento Europeo ha dovuto tracciare delle linee guida in ambito di responsabilità derivante da malfunzionamento dei robot, sostenendo che «l’attuale quadro giuridico dell’Unione debba essere aggiornato e integrato, se del caso, da principi etici di orientamento che riflettano la complessità della robotica e delle sue numerose implicazioni sociali, mediche, bioetiche; è del parere che un quadro etico di orientamento chiaro, rigoroso ed efficiente per lo sviluppo, la progettazione, la produzione, l’uso e la modifica dei robot sia necessario per integrare le raccomandazioni legali della relazione e l’acquis nazionale e dell’Unione esistente; propone, in allegato alla presente risoluzione, un quadro sotto forma di una carta contenente un codice di condotta per gli ingegneri robotici, un codice per i comitati etici di ricerca relativo al loro lavoro di revisione dei protocolli di robotica e modelli di licenze per progettisti e utenti » (punto 11 Risoluzione). Il Testo approvato il 16/02/2017, intitolato “Norme di diritto civile sulla robotica” [[10]], denota lo stato attuale del diritto in materia di robotizzazione. Nell’introduzione il legislatore europeo prende atto del fatto che nei prossimi anni si realizzerà una “seconda rivoluzione industriale” che, però, dovrà essere guidata dall’esigenza di preservare alcuni principi etici tra cui: la sicurezza delle persone e della loro salute, la libertà, la vita privata, l’integrità, la dignità, l’autodeterminazione e la non discriminazione, nonché la protezione dei dati personali. Forzando il dato, si potrebbe dire che l’evoluzione tecnologica ha operato un livellamento tra sistemi di common law e di civil law. Nel sistema di civil law vige il principio di analogia (per i processi civili), ma solo per ciò che concerne l’interpretazione della legge e non quella dei precedenti. In particolare, per l’ordinamento italiano ogni caso è a sé stante, poiché in ogni processo si troverà sempre un elemento che lo distingue da un altro precedentemente deciso, quindi non vi è il vincolo del “precedente”, ha una funzione più che altro interpretativa per la legge, ma non potrà mai essere una norma di diritto da prendere in considerazione, a differenza di quanto invece potrebbe risultare da un sistema di common law, in cui la valenza del precedente ha uno spessore decisamente diverso, essendo vincolante. È, altresì, vero però che l’uso dell’intelligenza artificiale potrebbe risultare utile per la scrittura di atti “ripetitivi”, o per la classica ricerca di particolari clausole e documenti, ovvero andrebbe ad apportare grande aiuto in una fase preparatoria del processo. L’aspetto sul quale si sono soffermati gli esperti del settore è stato il profilo sanzionatorio. L’obiettivo prefigurato dall’UE è quello di inquadrare il soggetto su cui verta la responsabilità in caso di danno provocato dalla macchina, ovvero la possibilità che il danno sia attribuibile al produttore, al progettatore degli algoritmi, oppure alla macchina e ai suoi proprietari. Sono emerse una serie di incertezze dettate dai ritardi nell’approvazione del decreto legislativo, all’interno del quale dovranno essere chiarite le modalità di applicazione delle stesse. Le novità principali riguardano le regole sul trattamento dei dati personali. Il consenso del consumatorecliente dovrà essere esplicito e le modalità di utilizzo dei dati dovranno essere spiegate in modo chiaro e semplice. Il GDPR, tramite il Regolamento UE 2016/679 del Parlamento Europeo e del Consiglio del 27 aprile 2016, ha imposto date stringenti. È già oggi necessario incasellare una serie di responsabilità potenziali e numerosi alert, per far sì che la difesa della privacy sia anche difesa della dignità umana, tutela del consumatore e rispetto dei diritti fondamentali. La disponibilità dei dati, come contributo al bene comune, è universalmente inteso quale bene della vita. È, infatti, fondamentale tenere presente che i dati, se utilizzati in maniera idonea, possono rappresentare un fattore di riferimento esponenziale per la ricerca in tutti i campi. Come ha ricordato anche il Garante per la protezione dei dati personali (GPDP), in occasione della giornata europea per la protezione dei dati personali, l’intelligenza artificiale tende, in alcuni contesti, a limitare il processo decisionale dell’uomo che viene così affidato alla “macchina”; pertanto, è necessario che vengano promosse delle politiche di identificazione dell’individualità e della libertà delle persone fisiche coinvolte. In tale senso, sono state scandite le linee guida, in modo che i governi, gli sviluppatori, i produttori e i fornitori di servizi siano in grado di garantire che, l’utilizzo di sistemi di intelligenza artificiale, non determini una lesione della dignità umana e dei diritti fondamentali dell’individuo, con particolare attenzione al diritto alla protezione dei dati personali. La protezione della dignità umana e la salvaguardia dei diritti e delle libertà fondamentali dell’individuo, con particolare attenzione al diritto alla protezione dei dati personali, rappresentano un momento cruciale nello sviluppo e utilizzo di applicazioni di intelligenza artificiale, soprattutto nel caso in cui vi sia un utilizzo di detto paradigma tecnologico per supportare, se non determinare, i processi decisionali. Nella Convenzione 108 (Convenzione 108 aggiornata nel 2018 e aperta alla firma dal 10/10/2018) sono stati individuati i criteri, principi inamovibili, che i procedimenti, basati sulla classificazione e gestione dei dati sensibili, devono avere, rifacendosi ai seguenti elementi chiave: liceità, correttezza, specifica finalità, proporzionalità del trattamento di dati, privacy by design e by default, accountability, trasparenza, sicurezza dei dati e gestione del rischio. Deve essere prevista la possibilità, per i consumatori, di ottenere informazioni sulle modalità di funzionamento dei servizi e prodotti di intelligenza artificiale, incluse le modalità con cui i loro dati vengono elaborati, in modo da potersi opporre qualora tale elaborazione possa influenzare le opinioni dei soggetti coinvolti. L’ultima parte, rivolta ai legislatori, evidenzia come l’adozione di codici di condotta e meccanismi di certificazione (così come previsto anche nel Regolamento UE n.679/2016) potrebbe regolamentare e rafforzare la fiducia nell’utilizzo di prodotti basati sull’intelligenza artificiale. Se i servizi di intelligenza artificiale dovessero avere un impatto rilevante sui diritti e le libertà fondamentali dell’individuo, sarebbe opportuno che sviluppatori, produttori e fornitori di servizi consultassero direttamente le autorità di controllo competenti. Da ultimo, si sottolinea la necessità, a livello politico, che vengano incrementate le risorse destinate all’educazione digitale e alla formazione professionale, in modo da accrescere la consapevolezza tra i soggetti interessati rispetto ai possibili effetti derivanti dall’utilizzo di sistemi di intelligenza. Sul rapporto con le nuove intelligenze artificiali si incentra il volume “Il nuovo diritto d’autore -La tutela della proprietà intellettuale nell’era dell’intelligenza artificiale”, che consigliamo per l’approfondimento.
Il nuovo diritto d’autore
Questa nuova edizione dell’Opera è aggiornata all’attuale dibattito dedicato all’intelligenza artificiale, dalla Risoluzione del Parlamento europeo del 20 ottobre 2020 alla proposta di Regolamento europeo – AI Act.Il testo si configura come lo strumento più completo per la risoluzione delle problematiche riguardanti il diritto d’autore e i diritti connessi.Alla luce della più recente giurisprudenza nazionale ed europea, la Guida dedica ampio spazio alle tematiche legate alla protezione della proprietà intellettuale, agli sviluppi interpretativi in tema di nuove tecnologie e alle sentenze della Suprema Corte relative ai programmi per elaboratore, alle opere digitali e al disegno industriale.Il testo fornisce al Professionista gli strumenti processuali per impostare un’efficace strategia in sede di giudizio, riportando gli orientamenti giurisprudenziali espressi dalla Cassazione civile nel corso del 2023.Completano il volume un Formulario online editabile e stampabile, sia per i contratti che per il contenzioso, un’ampia Raccolta normativa e un Massimario di giurisprudenza di merito, legittimità e UE, suddiviso per argomento.Nell’area online sono messi a disposizione del lettore gli ulteriori sviluppi relativi al percorso di approvazione del Regolamento AI Act e la videoregistrazione del webinar tenutosi il 23 febbraio 2024, a cura di Andrea Sirotti Gaudenzi, “Il diritto d’autore nell’era dell’intelligenza artificiale”, in cui l’Autore parla delle sfide legali emerse con l’avvento dell’AI anche mediante l’analisi di casi studio significativi.Andrea Sirotti GaudenziAvvocato e docente universitario. Svolge attività di insegnamento presso Atenei e centri di formazione. È responsabile scientifico di vari enti, tra cui l’Istituto nazionale per la formazione continua di Roma e ADISI di Lugano. Direttore di collane e trattati giuridici, è autore di numerosi volumi, tra cui “Manuale pratico dei marchi e brevetti”, “Trattato pratico del risarcimento del danno”, “Codice della proprietà industriale”. Magistrato sportivo, attualmente è presidente della Corte d’appello federale della Federazione Ginnastica d’Italia. I suoi articoli vengono pubblicati da diverse testate e collabora stabilmente con “Guida al Diritto” del Sole 24 Ore.
Andrea Sirotti Gaudenzi | Maggioli Editore 2024
72.20 €
6. L’esperienza francese -cenni-
L’esperienza francese si trova decisamente più avanti rispetto alle altre nazioni europee per ciò che riguarda l’applicazione dell’algoritmo predittivo [[11]] nelle controversie giudiziarie, ricoprendo le vesti di un precursore, ma non solo. Questa fase di sperimentazione più avanzata ha fatto sorgere dei primi ostacoli non ancora presi in considerazioni da altre realtà, che si trovano ben lontane da una sperimentazione paragonabile a quella fatta dalla Francia. L’articolo 21 della Legge Francese n.1321/2016 prevede che tutte le decisioni, rese da organi giurisdizionali francesi, siano messe gratuitamente a disposizione del pubblico «nel dovuto rispetto della vita privata delle persone interessate». Per approcciarci più nel concreto alla questione, cerchiamo di avere un’idea della dimensione del fenomeno: si tratta di mettere sul web oltre quattro milioni e mezzo di provvedimenti all’anno. È chiaro che la pubblica disponibilità di tutti i provvedimenti potrebbe avere l’effetto di sviluppare un mercato di imprese che offrono servizi tecnologici di supporto al «mercato» legale (c.d. Legtech). Si pensi al contesto geografico, all’età delle parti, al legame tra queste, ad un immobile “x”, etc., una grande quantità di informazioni, apparentemente poco utili, può condurre alla ricostruzione di informazioni utilissime. Si capisce qual è la differenza tra ciò che prevede la legge francese e la pubblicazione di qualche provvedimento: un conto è pubblicare su internet qualche sentenza di interesse per i principi giuridici che enuncia, tutt’altro è mettere a disposizione di imprese Big Data sulla vita giurisdizionale di una nazione. Le conseguenze sarebbero inimmaginabili, si rischierebbe una profilazione delle vicende giudiziarie di un intero popolo, con le relative situazioni personali; non si può ignorare che, al giorno d’oggi, possedere informazioni personali su un soggetto mediante le moderne tecnologie equivale ad avere realmente il controllo della sua vita on-line, conoscere nello specifico le sue abitudini, i suoi interessi. Questo acceso dibattito ha portato alcuni membri del parlamento francese a considerazioni e confronti con le vigenti norme europee riguardanti il tema sulla privacy. Il Conseil Constitutionnel si è recentemente espresso sui rapporti tra disciplina della privacy europea, legge francese di recepimento della direttiva sulla privacy e innovazioni tecnologiche. Ciò ha dato l’occasione alla Corte di dettare, in una decisione del 12 giugno 2018, alcuni principi sui limiti del ricorso ad algoritmi nel meccanismo decisionale pubblico. La sentenza non si riferisce alle decisioni da adottarsi in sede giurisdizionale, ma più in generale al ricorso ad algoritmi da parte della pubblica amministrazione. La Corte Costituzionale francese ha deciso di conservare la possibilità che l’amministrazione faccia ricorso ad algoritmi, anche nell’adozione di decisioni che dispiegano effetti su di un solo individuo. Ha comunque ritenuto di precisare che ogni disposizione, che si serva di un algoritmo per l’adozione di una decisione, stabilisca in anticipo le regole e i criteri in base a cui la decisione deve essere adottata. Anche in questo caso si tornerà a parlare della necessità di un controllo umano sulla decisione algoritmica. Posta questa premessa, la Corte ha declinato tre condizioni per il legittimo affidamento di decisioni ad algoritmi:
la decisione individuale deve esplicitare che è stata adottata sulla base di un algoritmo e, a richiesta dell’interessato, l’amministrazione deve poter spiegare le principali caratteristiche di funzionamento dello stesso (con la conseguenza che, se le caratteristiche dell’algoritmo non possono essere divulgate perché coperte da segreto, la decisione individuale non può essere presa solo sulla base di tale algoritmo);
è inibita l’utilizzazione esclusiva di un algoritmo, se la decisione si fonda su (o riguarda) dati personali sensibili, quali: la presunta origine etnica, le opinioni politiche, le convinzioni religiose o filosofiche, l’adesione a un sindacato, i dati genetici, biometrici, sanitari o correlati alla vita sessuale di una persona fisica;
il responsabile del trattamento deve essere in grado di padroneggiare il processo di elaborazione algoritmica per poter spiegare, in modo dettagliato e in una forma intelligibile, alla persona destinataria della decisione, che la decisione è stata adottata nel rispetto della legge.
Sicuramente questa primordiale scansione di criteri terrà fuori non pochi campi del diritto, ma è interessante notare come la Corte costituzionale francese abbia dettato condizioni così restrittive solo per il caso di decisioni affidate esclusivamente a un algoritmo. Laddove questo sia uno strumento di supporto alla funzione decisoria umana, infatti, non parrebbero esservi limiti. In questo quadro, in Francia, non mancano start-up che offrono le prime soluzioni per predire, e così aumentare, le probabilità di successo (o i casi di rinuncia all’azione) in materia civile. Tra i più noti esempi rientrano Predictice, che vanta di essere in grado di «analizzare milioni di provvedimenti giurisdizionali in un secondo», e Case Law Analytics, che offre un servizio di modellizzazione del processo decisionale giudiziario «per presentare l’insieme delle decisioni che potrebbero essere rese in relazione a una controversia» e così consentire la quantificazione del rischio legale. Anche se per ora si tratta solo di servizi che le imprese offrono agli studi legali, nulla esclude che l’amministrazione della giustizia se ne doti per supportare il lavoro dei giudici. La statistica giudiziaria non permette di scandagliare tutte le peculiarità di ogni singolo caso concreto, ma l’esperienza della storia giudiziaria ci dice che, proprio nelle pieghe di queste specifiche peculiarità, vi può essere la strada per far progredire il diritto. Anche se un avvocato dovesse decidere di utilizzare queste piattaforme predittive, non dovrebbe mai rinunciare ad andare avanti, se lo ritenesse necessario.
7. Il ruolo dei gestori dei dati sensibili
Le disposizioni del GDPR sono divenute definitivamente applicabili in tutti i Paesi membri dell’Unione Europea il 25 maggio 2018 e in Italia con il Decreto Legislativo n.101 del 10 agosto 2018. Nel Decreto si stabilisce che gli individui hanno il diritto di non essere oggetto di una decisione basata esclusivamente su un trattamento automatizzato, ad eccezione dei casi in cui: sia imposta dalla legge, derivi da un obbligo contrattuale o sia giustificata dal consenso esplicito del soggetto. Ai fini della tutela dei dati personali del singolo, da eventuali aggressioni da parte di sistemi algoritmici, è necessario ottenere dall’interessato, titolare del trattamento, un consenso informato circa il trattamento dei dati stessi. Non è, infatti, un segreto che una delle principali fonti di elaborazione per l’intelligenza artificiale siano i Big Data Analytics, cioè la combinazione di enormi volumi di dati e di informazioni di diversa provenienza. La relazione tra Intelligenza Artificiale e Big Data è bidirezionale: da un lato, l’intelligenza artificiale ha bisogno di una grande quantità di dati da analizzare; dall’altro lato, i Big Data utilizzano tecniche di intelligenza artificiale per estrarre valori predeterminati da tali dati. Il consenso informato dovrà allora essere idoneo e ben preciso, e non come avveniva prima, e ancora oggi, dove l’unico reale cambiamento è dover cliccare due volte su una specie di annuncio che, anche se scambiato per una assillante pubblicità che si frappone tra noi e la nostra navigazione, in realtà, rappresenta un vero e proprio consenso al trattamento dei nostri dati. In questa sede, la tecnica di block chain potrebbe essere di aiuto quanto a «tracciabilità» del consenso informato. Risulta a dir poco precoce riuscire ad ipotizzare i reali cambiamenti che la riforma sulla privacy possa aver avuto in concreto, tuttavia, per ora, possiamo affermare con certezza che ben presto i nostri tribunali saranno affollati dalle richieste di risarcimento danni causati da trattamenti illeciti. La tanto millantata forza della tecnologia si fa trovare, questa volta, impreparata ad un cambiamento così innovativo come quello del trattamento dei dati personali. Non serve certo uno studio approfondito per capire che molte tecnologie, sia colossi del mondo internet che piccole società, siano decisamente impreparate ad adattarsi a tale cambiamento. Questo problema è stato affrontato dal GDPR, grazie al quale, si auspica, sarà possibile sviluppare sistemi di intelligenza artificiale, rispondenti a tali principi, e quindi che non comportino rischi per la privacy degli individui. Il Regolamento Europeo sancisce un generale divieto di sottoporre un individuo a processi decisionali automatizzati, inclusa la profilazione. L’articolo 22 del GDPR (paragrafo 1) chiarisce l’ambito di applicazione delle norme, che è limitato alle sole ipotesi in cui l’attività del processo decisionale automatizzato produce effetti giuridici, ovvero incide in modo significativo sulla persona dell’utente, e la decisione è basata interamente (solely) sul trattamento automatizzato dei dati. I caratteri che il trattamento deve avere, affinché possa ritenersi conforme alla normativa, sono ben precisi e fissati direttamente dal Consiglio dell’Unione Europea [[12]]:
il trattamento è necessario per la conclusione, o l’esecuzione, di un contratto tra l’interessato e il titolare, ma tale eccezione non si applica in caso di trattamento di dati sanitari;
il trattamento è autorizzato da una legge o regolamento, che prevede altresì misure idonee a tutelare i diritti dei soggetti interessati;
vi è esplicito consenso al trattamento, è bene specificare che il consenso alla profilazione deve essere distinto rispetto al consenso al trattamento dei dati personali.
Nei primi due casi appare evidente come il legislatore europeo abbia voluto generare nuovi obblighi in capo ai titolari del trattamento affinché essi applichino misure idonee alla tutela dei diritti, per gestire e garantire al meglio i diritti e gli interessi legittimi dell’interessato. Il diritto all’informazione rappresenta il momento cruciale della tutela, motivo per il quale il GDPR vieta l’utilizzo di dati personali sensibili per scopi decisionali automatizzati, a meno che:
l’interessato non abbia espresso il suo consenso esplicito;
o la decisione automatizzata sia necessaria per motivi di interesse pubblico.
Il titolare del trattamento deve essere trasparente, cioè deve informare gli interessati dell’esistenza di una decisione basata sul trattamento di dati automatizzato, comprendente profilazione (art. 22 GDPR e Considerando 71). Nell’informativa devono, quindi, essere esplicitate le modalità e le finalità della profilazione. Inoltre, deve essere chiarita la logica inerente al trattamento e alle conseguenze previste per l’interessato a seguito di tale tipo di trattamento, intendendo, in tal senso, i criteri utilizzati per giungere alla decisione (senza necessariamente dover fornire una spiegazione complessa degli algoritmi utilizzati o la divulgazione dell’algoritmo completo). Ovviamente, questo può divenire un problema nel momento in cui l’utilizzatore del processo decisionale non ha contezza di come funzioni realmente, avendolo acquistato da terzi. Spesso, infatti, il sistema è una black box. Un’interpretazione contestuale del GDPR mostra che effettivamente il regolamento impone ai titolari del trattamento di dimostrare la conformità agli obblighi previsti, in particolare ai requisiti di liceità, correttezza e trasparenza; per cui, fornire informazioni sul processo decisionale automatizzato e la logica soggiacente è solo una parte del problema. Il GDPR prevede che i titolari dimostrino che le correlazioni applicate nell’algoritmo siano imparziali, cioè non discriminatorie e che vi sia una legittima giustificazione alla decisione automatizzata. Gli individui, soggetti alla decisione automatizzata, infatti, hanno una pluralità di diritti, quali: l’opposizione alla profilazione (articolo 21), la richiesta di cancellazione o la rettifica del loro profilo (articolo 17), la contestazione alle decisioni automatizzate (articolo 22, paragrafo 3). Tale diritto, inoltre, deve essere inquadrato tra i diritti degli interessati, per cui la “spiegazione” deve essere rapportata all’interessato, deve essere significativa per lui in modo da consentirgli di esercitare gli altri suoi diritti. Di conseguenza, la spiegazione deve essere così esaustiva e chiara tale da porlo nelle condizioni di comprendere se ha subìto una discriminazione. Per concludere, è bene fare un’analisi delle problematiche dell’attività di profilazione, la quale è considerata estremamente invasiva e può comportare danni ed abusi a carico degli utenti. La profilazione, in senso lato, viene utilizzata per fornire pubblicità personalizzata agli utenti, ma può anche portare a differenti offerte commerciali (“price discrimination”) a seconda della persona o della categoria nella quale essa è inclusa, con ciò determinando forme di diseguaglianza sociale o discriminazioni verso le minoranze. Alcune categorie di persone, difatti, potrebbero non essere mai raggiunte da alcune offerte, con ciò determinando forme di discriminazione del tutto ingiustificate. Inoltre, gli algoritmi di profilazione non sono certamente perfetti, per questo motivo possono indurre ad errore. In tal senso, anche i soggetti che utilizzano tali algoritmi, se non ne sono i programmatori, possono non conoscere affatto le logiche alla base degli stessi e quindi non comprendere appieno gli effetti della loro applicazione, motivo per il quale il Regolamento Europeo prevede un apposito obbligo di informazione sulla logica alla base della profilazione.
8. L’impatto sociale-etico della giustizia predittiva
Per poter concludere la nostra indagine sulla Giustizia predittiva bisogna soffermarci su un altro aspetto, forse il più rilevante. Partiamo dall’analisi del titolo IV della nostra Costituzione, in tema di ordinamento giudiziario, in particolare l’articolo 101, al 1° comma, enuncia: “la giustizia è amministrata in nome del popolo“. Su ogni sentenza della nostra Repubblica è apposta l’intestazione “In nome del popolo italiano”, anche se i cittadini, a differenza di come accade in altri ordinamenti, non partecipano attivamente all’amministrazione della Giustizia. L’attività giudiziaria, come in ogni stato civile, deve essere esercitata al fine di soddisfare le esigenze di giustizia, democrazia e uguaglianza. Nell’attuare una riforma tanto innovativa, non si può non tener conto dell’impatto sociale che questa può destare. Lasciando da parte la novità e l’insaziabile desiderio di progresso della civiltà moderna, la prima domanda da porsi, quando si parla di predittività, come progetto che mira alla sostituzione del giudice tramite una macchina [[13]], non può che riguardare gli effettivi benefici che la società potrebbe trarne e, soprattutto, la reale utilità dell’innovazione, tenendo presenti tutte le eventuali controindicazioni. Analizzando un primo profilo emerge, quasi chiaramente, come un modello di intelligenza artificiale possa rimuovere un ostico, quanto attuale, problema riguardante la trasparenza della Giustizia e soprattutto facilitare l’individuazione della responsabilità, garantendo la necessità democratica. Questi motivi, di fatto, riescono a dare una spiegazione ai traguardi fissati dalle Nazioni Unite nell’obiettivo 16 dell’agenda 2030. Negli ultimi anni, il sistema giudiziario per mantenere saldi gli standard di efficienza, efficacia e celerità e per cercare di sopperire ad un carico di lavoro sempre crescente, ha introdotto al suo interno nuovi sistemi informatici. Oramai, le banche dati giuridiche rappresentano un punto fermo nella professione legale, rappresentano la base di partenza per riuscire ad elaborare una tesi difensiva, una strategia, e permettere ai giudici di redigere provvedimenti sempre più precisi e in armonia con gli orientamenti della Suprema Corte. Oltre alla fase extraprocessuale, con l’introduzione del processo telematico la fase processuale del diritto civile ha subìto una totale digitalizzazione, si pensi alla fase esecutiva, in cui l’articolo 492 bis c.p.c. “Ricerca con modalità telematiche dei beni da pignorare”, la quale permette di accedere alla banca dati tributaria, tramite una ricerca, per l’appunto, telematica che consente di individuare i beni da pignorare in modo automatico. Tali modalità di ricerca telematica sono riuscite a facilitare un procedimento, prima di allora, molto complesso e articolato, all’esito del quale non era sempre certo riuscire a soddisfare le pretese creditorie, costituendo un aumento di spesa per l’avvocato e per la parte ed un aumento del carico del lavoro per il giudice. Gli aspetti appena menzionati, più che rispondere ai nostri interrogativi sull’impatto della Giustizia predittiva e alla sua attuabilità, ci mostrano come il mondo giuridico abbia già tratto immensi benefici dal connubio con l’informatica e con queste nuove tecnologie. Non bisogna pensare che modelli applicativi di Giustizia predittiva siano lontani decenni da noi, tutt’altro! Nella Corte d’Appello di Brescia sono partiti diversi progetti sia sul concreto (in cui l’uso della tecnologia viene inteso come effettiva risoluzione del processo), sia in ipotesi come l’A.d.r. (alternative dispute resolution). Nel primo caso, l’algoritmo individuerà una serie di opzioni, tramite sofisticate tecnologie che permettono di analizzare molteplici precedenti, mettendo in evidenza dati che riguardano casi analoghi e decisioni già avvenute, e allo stesso tempo offrono al magistrato una soluzione coerente con l’analisi e, ovviamente mai in contrasto, con gli orientamenti della Suprema Corte. Nonostante ci troviamo di fronte a un vero e proprio procedimento, in un certo senso induttivo, che influenza il magistrato ad optare per una delle risoluzioni scelte dall’algoritmo, negli scritti e nell’intervista, che tanto millantano l’argomento, ci si guarda bene dal definirlo sperimentazione di Giustizia predittiva. Per quanto riguarda il secondo caso, bisogna considerare che già nella loro versione consueta le A.D.R. non hanno certo conseguito un gran successo, dato che il loro scopo principale era quello di evitare l’intasamento dei tribunali e riuscire a trovare una soluzione che soddisfi le parti, al fine di evitare un gravoso giudizio. Nel suddetto settore, il tema di Giustizia predittiva potrebbe riscontrare molto più successo, infatti, in questo caso, lo scopo non era certo quello di predire una sentenza con esattezza puntuale, ma di individuare l’orientamento più attinente al ragionamento del giudice. Questo secondo campo di applicazione, presentato dalla Corte di Appello di Brescia, è sicuramente quello che ha riscontrato più successo tra i professionisti del diritto, non solo per quanto concerne il tema delle A.D.R., ma anche per la maggior parte degli organismi di risoluzione stragiudiziale delle controversie (arbitrati, mediazioni); ambiti, entrambi, finora guardati con sospetto dagli avvocati, a causa della formazione degli arbitri dei mediatori e degli organismi che dovrebbero evitare un processo fornendo un’adeguata risoluzione al caso de quo. Per siffatta ragione, dato che la formazione in questione non è equiparabile a quella di un magistrato e, a volte, rischia di non essere giuridica, o comunque è ben lontana da un diritto vivente, appare chiaro che un supporto in grado di fornire un ventaglio di opzioni per poter risolvere il caso concreto possa realmente andare a scongiurare un ipotetico giudizio e, allo stesso tempo, fornire una risoluzione molto simile e fedele agli orientamenti giuridici. Sicuramente, l’esperimento di Brescia farà da spartiacque allorquando il governo deciderà di fare uno scatto importante verso quest’innovazione. L’ex sottosegretario al Ministero per lo sviluppo economico Andrea Cioffi era a capo del Coordinamento di un gruppo di esperti, il cui compito era quello di redigere le linee guida di una strategia nazionale per l’utilizzo dell’intelligenza artificiale. Interrogato sul tema di Giustizia predittiva, in un convegno tenutosi a Roma, Cioffi non ha lasciato molti spiragli di speranza al connubio intelligenza artificiale-processo, infatti affermò che “i tempi non sono ancora maturi, ci sono ancora delle importanti questioni tecnologiche da affrontare e l’esperienza ci ha insegnato che ci sono gravi ricadute sul principio di uguaglianza“. Tanti studiosi, giuridici e professionisti hanno sensibilizzato una tematica tanto innovativa, quanto ombrosa. Il Tribunale di Genova, in collaborazione con la scuola superiore Sant’Anna di Pisa, ha firmato una convenzione volta ad analizzare le sentenze emesse dai giudici e cercare di capire quali siano i presupposti comuni che hanno determinato la decisione. L’obiettivo dichiarato è quello di ridurre il contenzioso ed il fine ultimo quello di stilare dei tabellari, molto simili a quelli già esistenti, per i risarcimenti e per gli infortuni, in grado di fornire un supporto ai giudici e allo stesso legislatore nella stesura di leggi e provvedimenti. Il progetto si dividerà in varie fasi: la prima, e forse la più importante, è quella di riuscire a progettare l’architettura di una banca dati e di una tabella, nelle quali mettere in evidenza solo i dati sensibili e farle analizzare con facilità dall’algoritmo. Domenico Pellegrini, Presidente di sezione, in un’intervista rilasciata a “Il Secolo XIX“, ha speso parole di fiducia nei confronti di questo progetto evidenziando come le 25-30 mila cause che ogni anno vengono iscritte al ruolo, una volta che saranno ripulite dai dati sensibili e rese del tutto anonime, potranno fornire un prezioso contributo alla sperimentazione. Oltre alla magistratura, moltissimi giuristi, e non, sembrano sempre più aperti all’innovazione dell’algoritmo predittivo. Tra questi, Ronald Vogl [[14]] ha stilato una vera e propria tabella che mostra l’utilizzo crescente della tecnologia informatica nel campo del diritto.
- Il primo punto della tabella riguarda: la ricerca legale, campo ormai ben affermato in tutte le professioni legali, con le più innovative banche dati;
- il secondo elemento presentato nella tabella riguarda: i Big Data Law, sempre più utilizzati da diversi studi internazionali; questi strumenti sono in grado di elaborare migliaia di casi, contratti e altri documenti legali, al fine di identificare dei modelli standard e, in alcuni casi, riuscire a prevedere dei risultati.
- Il terzo elemento, analizzato da Vogl è: il diritto computazionale, secondo il quale l’utilizzo di intelligenza artificiale è basato su regole giuridiche o su dati giuridici, con lo scopo di automatizzare il processo decisionale. Tale area analizzata, attualmente, si trova ad un punto morto a causa degli ostacoli dell’ingegneria informatica.
- Il quarto punto della tabella riguarda: la infrastruttura legale, che si occupa della traduzione del linguaggio del diritto nel c.d. “processing”, al fine di realizzare l’incontro tra domanda e offerta legale.
- L’ultimo aspetto analizza i sistemi di “online dispute resolution”, i c.d. ODR.
Su quest’ultimo aspetto, aldilà della scarsa valenza giuridica che ha al momento, bisogna considerare le problematiche derivanti dal trattamento dei dati personali e quindi ricordare la già citata esperienza francese che ha trovato un grosso ostacolo nella nuova normativa sulla privacy ed è stata oggetto di aspre critiche, non solo nazionali, nonostante i grandi investimenti degli ultimi lustri. Per citare alcune delle più avanzate tecnologie algoritmiche, il Prof. Avv. Bonavita porta l’esempio di come alcune attività nei prestigiosi studi legali siano già completamente digitalizzate. Per effettuare ricerche giuridiche, ad esempio, alcuni studi utilizzano l’intelligenza artificiale quale ROSS. L’analisi dei contratti è attività più complessa, esistono alcune soluzioni già disponibili, quali KIRA. Bisognerà capire, tuttavia, come gli studi legali si muoveranno nei prossimi anni e che investimenti, anche a livello organizzativo, intenderanno fare. Una riforma di queste portate deve avvenire in sincronia non solo con l’ordinamento giudiziario, ma bisogna tener conto che, affinché ciò sia possibile, è necessario che l’ingegneria informatica faccia dei progressi che concretizzino l’attuazione di un simile progetto. Non si può frettolosamente invadere un campo tanto restio ai cambiamenti come quello del diritto, senza essere certi che il supporto informatico fornito sia in grado di soddisfare tutte le esigenze processuali, garantire i diritti e le libertà fondamentali ed essere in completa armonia con l’intero apparato giuridico. Non bisogna dimenticare che “historia magistra vitae”, le civiltà più potenti e grandi della storia sono state le prime fondatrici del diritto, capaci di mantenere l’ordine nel loro impero e prevalere sui nemici. L’arte del diritto è una delle più antiche e nobili di sempre. Questo piccolo excursus deve evidenziare come il diritto non solo è alla base della società civile, ma ne è il fondatore. Se si vuole rivoluzionare il pilastro portante della nostra società, bisogna tener conto delle tante implicazioni pratiche e degli eventuali scenari futuri; non basta semplicemente garantire il funzionamento di un algoritmo “conoscitore del diritto”, ma bisogna essere certi che la società sia pronta ad accettare un simile cambiamento, che le conseguenze di questo cambiamento riguardino esclusivamente una semplificazione del lavoro del giurista e che la civiltà, insieme a tutti gli altri campi di influenza del diritto, non ne rimanga invariata. Giunti a questo punto della trattazione, per dare completezza al discorso, bisogna affrontare un ultimo aspetto riguardante l’impatto pratico della Giustizia predittiva sulla società. Sono state formulate diverse raccomandazioni concernenti le norme di diritto civile sulla robotica, al fine di non far trovare impreparati i legislatori nazionali davanti alla recrudescenza dell’utilizzo della tecnologia in campi sempre più sensibili. Non bisogna permettere che la natura transumana di questi programmi sia un motivo di ostacolo dei danni causati alla persona o, comunque, si vuole scongiurare il rischio di dover modellare una nuova ipotesi di responsabilità oggettiva. Per questa ragione, concentrandoci sulla adeguata attuazione della tecnologia in un processo come quello civile, bisogna essere certi che non vi siano lacune o spazi d’ombra sulla responsabilità dei danni causati, sicché si ha bisogno di un sostegno legislativo impeccabile, in grado di tener conto di ogni possibile scenario, stabilendo minuziosamente i campi e i modi di applicazione e che questi non siano in contrasto con la Costituzione e con i diritti fondamentali dell’uomo. Per il momento, la tematica non è stata fronteggiata neanche dai più accaniti sostenitori dell’algoritmo predittivo, sicuramente perché non vi è un’esigenza imminente di affrontare questo proposito, ma ciò non fa altro che suscitare altro scetticismo sugli scenari futuri. Un problema ben troppo noto ai professionisti, ma non solo, è rappresentato da l’eccessiva durata dei processi, l’economicità processuale intesa come rapidità nel mondo giuridico ha un costo troppo alto in termini di inesattezza e imprecisione, che molto spesso crea grossi svantaggi alle parti e a nulla sono servite le diverse riforme e piccole modifiche, poiché la mole di lavoro crescente non permette in alcun modo lo snellimento del processo per come viene inteso al giorno d’oggi. Per siffatta ha ragione, in molti hanno visto nella Giustizia predittiva l’unica possibilità di ottenere risoluzioni sempre più celeri e mantenere, al tempo stesso, il medesimo standard qualitativo, riuscendo addirittura a ridare al diritto quel carattere di immediatezza tanto millantato negli scritti costituzionali e, di fatto, mai ottenuto nella pratica. La stessa Corte Europea dei Diritti dell’uomo impone agli Stati, ribadendo l’articolo 6 della CEDU, di organizzare i propri sistemi giudiziari in modo tale che il giudice possa soddisfare ciascun requisito per il giusto processo, con particolare attenzione all’obbligo di giudicare in tempi ragionevoli. L’informatica è entrata a pieno titolo nella giustizia e siamo l’unico paese europeo ad avere un processo civile quasi interamente digitalizzato, con enorme riduzione dei tempi; tuttavia, esso non è ancora completo, non essendo ancora stato esteso al Giudice di Pace e alla Corte di Cassazione, mentre, al Ministero della Giustizia si sta pensando attualmente alla traduzione, in linguaggio informatico, delle regole del processo, anche con la creazione di modelli. Per il momento questi sofisticati software possono essere di grande ausilio in una fase preliminare, sempre sotto la supervisione del giudice e in alcune fasi istruttorie di casi più semplici, qualora si abbia bisogno di valutazioni prognostiche o ci si trovi di fronte a cause fondate su calcoli, come per esempio un accertamento tecnico preventivo nel settore previdenziale o in alcuni casi di contratti bancari. Invero, non si può non essere d’accordo sul fatto che simili tecnologie siano completamente incompatibili con la natura di determinate cause, come quelle aventi come fondamento diritti della persona, diritto di famiglia o cause aventi ad oggetto questioni particolarmente complesse. Una Giustizia predittiva funzionante può comportare un salto di qualità: sia per l’economia che per la giustizia, creando una rete virtuosa. La finalità esterna della tematica (difficilmente percepibile a primo impatto) è quella di fornire, a utenti e agenti economici, dei dati di certezza e di prevedibilità e, nel contempo, di contenere la domanda, disincentivando ad intraprendere cause temerarie e incoraggiando, in modo indiretto, le parti, che non abbiano possibilità di successo a livello giudiziario, nel seguire altre strade (conciliative, transattive).
9. La paura degli algoritmi
Nel 1967, agli albori della rivoluzione informatica, uno studio americano teorizzò, scatenando la satira dei giuristi del tempo, che in un futuro non lontano i computer avrebbero portato grandi benefici ad alcune fasi processuali, addirittura sostituendo i professionisti in determinate branche (come l’infortunistica e il marketing) e infine rivoluzionando il diritto contrattuale. È incredibile come delle teorie che a metà Novecento sembravano veri e propri scenari fantascientifici, oggi sono ad un passo dalla realtà. La Francia, rispetto alle altre nazioni europee, ha profuso molti sforzi e fondi nello sviluppo di tecnologie informatiche, in grado di poterle utilizzare nel diritto processuale. I primi anni del XXI secolo hanno proiettato il diritto verso una trasformazione e un’innovazione senza precedenti. I giuristi, da sempre, appartengono a un élite di professionisti, capaci di assicurare la giustizia attraverso, non solo la semplice conoscenza delle leggi e dell’ordinamento, ma anche grazie all’utilizzo di un determinato linguaggio appreso durante la loro formazione, in grado di tradurre controversie quotidiane in casi giuridici, di individuare la soluzione per risolverli, riuscendo ad escogitare (grazie al loro ingegno ed originalità) soluzioni sempre diverse che, nel tempo, hanno permesso di far crescere ed innovare la legge, di capovolgere orientamenti giuridici che sembravano consolidati. La maggior parte dei professionisti del settore non sono tanto preoccupati per i cambiamenti del proprio lavoro, piuttosto riescono a percepire delle difficoltà che grandi esperti informatici sottovalutano totalmente. La funzione nomofilattica sarà difficile da garantire in assenza di giudici e avvocati in grado, non solo, di guardare leggi e precedenti, ma anche di riuscire a capire i momenti storici e la necessità di eventuali “Law rolling”. Il rischio concreto è tale riforma possa comportare una totale cristallizzazione della risoluzione giuridica, riconducendo il tutto ad un sistema statico, un automa autoreferenziale. In obiezione alle preoccupazioni dei giuristi sull’avvento del tema di Giustizia predittiva sopracitate, il centro degli studi Diritto Avanzato [[15]] risponde fornendo un’interpretazione matematica del processo civile, partendo da una delle tante definizioni che va ad identificare il processo come la composizione di fatto e diritto produttiva di un provvedimento giudiziale emesso rispettando la legge. Il centro degli studi milanese schematizza le fasi processuali in ipotetici dati da poter computerizzare. E, dunque, per fatto, si intende il complesso di prove (FP), poiché ai fini del provvedimento, e a fondamento di esso, constano soltanto le circostanze di cui è stato possibile dare prova durante il processo; invece, per diritto, non si può circoscrivere il tutto a leggi da applicare al caso concreto, bensì ad un’interpretazione estensiva e armonica con il sistema (IP). Semplificando il quadro e traducendolo in termini giuridici, possiamo dedurre che la digitalizzazione del processo mirava perlopiù a rendere noto agli scettici che i dati sottoposti ad analisi sono i dati utili al provvedimento, isolando la verità processuale vale a dire quanto provato attraverso elementi di fatto, cioè esattamente come accade nelle normali decisioni prese dei giudici. Quindi, per giungere ad un provvedimento (PG) non è necessario, come anche accade nella realtà, che la verità processuale coincida con la verità storica. Da questa interpretazione se ne deduce che: FP ^ IP = PG Questo modello matematico di interpretazione, unito all’analisi sul fatto probatorio insieme a un calcolo statistico, renderà possibile giungere ad un modello aritmetico di processo. [[16]] In alcuni convegni, riguardanti l’algoritmo predittivo, esperti informatici contestavano il fatto che il linguaggio giuridico fosse troppo articolato e lontano dalla realtà e che la risoluzione di alcuni casi lasciasse più incertezza che risposta, facendo riferimento alla moltitudine di soluzioni e all’imprevedibilità del processo. Essere in grado di trasformare le varie risoluzioni dei casi in dati, analizzabili dall’intelligenza artificiale, renderebbe possibile prevedere gli scenari giudiziari prima della stessa instaurazione del processo, fornendo così delle risposte concrete e libere dall’ostico linguaggio giuridico. A tal proposito, nel libro di Luigi Viola “Interpretazione della legge con metodi matematici”, vengono riportate le prime equazioni capaci di tradurre il processo in forma algoritmica per poi riuscire a prevedere l’esito [[17]]: IP = Spiegando i simboli utilizzati: IP corrisponde all’interpretazione di una data disposizione di legge; IL corrisponde all’interpretazione letterale ai sensi dell’art. 12 preleggi; IR corrisponde all’interpretazione per ratio o teleologica dell’art. 12 preleggi; AL corrisponde all’interpretazione per analogia legis dell’art. 12 preleggi; AI corrisponde all’interpretazione per analogia iuris (principi generali dell’ordinamento giuridico) ai sensi dell’art. 12 preleggi; corrisponde a più (somma) oppure meno (sottrazione), in dipendenza dell’interpretazione utilizzata; vuol dire “and”, inteso come “e” congiunzione; o corrisponde ad una sorta di miscelamento tra più dati; corrisponde al significato di se..allora; corrisponde al significato di “circa”; è una variabile corrispondente al numero di possibili interpretazioni del medesimo tipo. Quindi, traducendo la formula equivale a dire che “L’interpretazione della legge (IP) è uguale (=) all’unione () tra somma o sottrazione di più interpretazioni letterali (IL IL) con la somma o sottrazione di più interpretazioni per ratio; se manca una precisa disposizione di legge (IL = 0), si procede a sommare o sottrarre interpretazioni per analogia legis ( (AL AL)); nel caso in cui il caso sia ancora dubbio (AL 0), si può procedere a sommare o sottrarre interpretazioni per analogia iuris ( (AI AI)).” Per maggiore precisione, sostituiamo il simbolo con la sommatoria , successivamente fissiamo che il valore possa andare da 0 ad infinito , avremo allora: Convenzionalmente fissiamo: Pertanto: Queste equazioni rappresenterebbero la semplificazione del linguaggio giuridico. In alcuni convegni, organizzati dagli ordini degli avvocati, aventi come oggetto la Giustizia predittiva, alcuni relatori ricoprivano le vesti di importanti ingegneri informatici impegnati nel perfezionamento degli algoritmi predittivi; i giuristi, volenterosi di informarsi sull’argomento e cercare di comprendere eventuali scenari futuri, si trovavano di fronte a delle nozioni matematico-informatiche che miravano a digitalizzare la loro formazione. Da questi convegni è emerso un altro ostacolo applicativo da superare. Affinché sia possibile realizzare dei programmi in grado di codificare interamente il diritto è necessaria un’affannosa collaborazione tra due mondi apparentemente inconciliabili. Se in futuro fossimo costretti a lasciare uno dei tre poteri dello Stato, in questo caso quello giudiziario, alla gestione di computer e software, bisognerà possedere la certezza che questi programmi siano impeccabili, il campo del diritto non ammette errori e l’unico reale motivo per il quale sia giustificabile la progettazione di nuove tecnologie è quello legato agli eccessivi tempi della giustizia. Questo è un problema tutt’altro che secondario, poiché per riuscire a garantire una giustizia effettiva questa deve essere quanto più tempestiva possibile. La ragionevole durata del processo è un requisito necessario che la stessa Costituzione contempla ai sensi dell’articolo 111, comma 2: “Ogni processo si svolge nel contraddittorio tra le parti, in condizione di parità, davanti a giudice terzo e imparziale. La legge ne assicura la ragionevole durata”. L’introduzione di tale articolo, nel nostro ordinamento, avvenne con la Legge 4 agosto 1955 n. 848, a seguito della ratifica della Convenzione Europea dei diritti dell’uomo. Per conformarsi alle disposizioni comunitarie costituzionali, la L. n. 89/2001 c.d. Legge Pinto ha introdotto, nel nostro ordinamento, la possibilità di poter tutelare le parti dalla irragionevole durata del processo senza dover ricorrere agli organi europei. Questa legge è stata soggetta a modifica nel 2012 per evitare incertezze interpretative, gli standard fissati dalla Legge Pinto sono ben chiari: affinché un processo non sia considerato irragionevolmente lungo necessita di concludersi entro 3 anni in primo grado, 2 anni in secondo grado e 1 anno nel giudizio di legittimità. Guardando realisticamente questi termini, sono veramente rari i casi in cui un processo si possa chiudere con questa rapidità. Questo espone a numerosi risarcimenti per danno subito dall’irragionevole durata del processo, comportando ingenti spese per il Ministero della Giustizia. Il carico di lavoro crescente per i giudici e per gli operatori giudiziari non farà altro che rallentare ulteriormente i tempi della giustizia, di conseguenza si giustifica il motivo per cui i professionisti guardano alle nuove tecnologie come unica chance per fronteggiare questo gravissimo problema. Le nuove tecnologie sono riuscite a innovare e migliorare ogni campo, anche il più sofisticato e delicato, si pensi ai benefici che la medicina ha tratto dalle sofisticate macchine in grado di sostituirsi ai chirurghi, riuscendo a snellire le lunghe liste d’attesa e, allo stesso tempo, eseguire interventi da manuale. Nella maggior parte dei casi, queste macchine vengono guidate da dottori specializzati, i quali vigilano sul loro operato al fine di assicurarsi la buona riuscita dell’intervento. Nella medesima ottica, la sperimentazione di algoritmi predittivi potrebbe, in un certo senso, guidare l’insostituibile genio umano verso la soluzione che più è inerente al caso concreto; giuristi, con anni di esperienza alle spalle, potrebbero essere ispirati da una delle possibili soluzioni messe a disposizione dal software, riuscendo così a risparmiare tempo nella affannosa ricerca giurisprudenziale e comunque riuscire a plasmare la scelta della macchina con la fantasia e l’originalità che solo un giurista può avere. Non si può mettere un freno alla scienza, perché ciò comporterebbe un’esplicita rinuncia al progresso, e questo risulta quasi fisiologico, ma allo stesso tempo bisogna guardare con coscienza e raziocinio al modo in cui l’uomo vuole servirsi delle proprie scoperte. Il campo scientifico ha sempre dovuto fare i conti con l’etica e la morale e, sicuramente, nel voler tradurre il processo in un metodo scientifico, non si può non tener conto delle implicazioni morali che questo comporta. A tal proposito Kant, il filosofo che meglio di tutti è riuscito a delineare le implicazioni etico-morali della società, nel suo scritto “Critica della ragion pura” delinea l’ideale della morale come presupposto inviolabile (precostituito), sottolineando che il vivere secondo morale comporta “fare il bene soltanto per il bene“. Ed è proprio con questa massima che scienziati, giuristi e ogni uomo devono approcciarsi al progresso. Le scoperte scientifiche rivoluzioneranno il nostro modo di vivere, cambieranno radicalmente le nostre abitudini, il mondo giuridico non sarà certo esente da questo cambiamento, starà a noi guidarlo nel miglior modo possibile al fine di trarne il massimo dei benefici e sfruttare le nuove tecnologie per poter trovare un rimedio ai problemi attuali e guardare al futuro con fiducia e meno scetticismo.
10. Conclusioni
L’analisi effettuata sulla Giustizia Predittiva è un tema che affascina e spaventa al contempo. È pacifico come occorra agire «qui ed ora» per approcciarsi ad un mondo diverso, tramite l’uso di strumenti di livello, e avendo cura di mantenere efficiente tutto l’impianto normativo e le garanzie costituzionali nonché la salvaguardia dei diritti fondamentali, tanto duramente conseguiti in anni ed anni di storia. Nel XXI secolo, stiamo vivendo una vera e propria corsa all’introduzione dell’informatica nella nostra vita, con questo non deve passare certo in secondo piano le comodità e le, ormai, irrinunciabili abitudini a vivere in continuo contatto con la tecnologia, ma, in alcuni casi, sembra quasi che l’uomo voglia forzare il dato in maniera spropositata, o almeno del tutto superflua per alcune circostanze. Con questo voglio fare riferimento alle auto telecomandate, a prototipi di androidi capaci di accogliere clienti, e potrei citarne a decine, tutti esempi di tecnologie particolarmente onerose, e quindi poco accessibili a tutti, che almeno per il momento rimangono belle opere d’arte di ingegneria, ma niente di più. Non vogliamo certo che una delle tante sfide tecnologiche, impostasi dall’uomo, vada a contaminare il sistema giudiziario e il suo delicato equilibrio. Ho tentato di mettere in evidenza gli elementi pro e contro relativi alla materia e, nonostante ciò, i dubbi rimangono e sono numerosi. Penso che molti argomenti etici e filantropici non abbiano ancora risolto gli screzi interposti tra la morale umana e l’utilizzo dell’intelligenza artificiale in alcuni campi. Per poter rendere possibile una piena sostituzione del giudice persona fisica bisognerebbe riprodurre all’interno della macchina caratteristiche tipiche dell’uomo, ciò implica creare ex novo una macchina in grado di pensare e avere una coscienza. Sul discorso dell’eccessiva durata dei processi, non è certo un problema sorto attualmente. Gli accorgimenti avuti dal legislatore non sono stati soddisfacenti, infatti le ultime riforme risalgono all’introduzione del processo telematico avvenuta con grandissimo successo, rispetto alle altre nazioni europee, e alla modifica della Legge Pinto basata esclusivamente sul risarcimento del danno derivante dall’eccessiva durata del processo. Per cui, assodato che le intelligenze artificiali hanno riscontrato un riconoscimento su più fronti, non si può saltare direttamente all’eliminazione delle persone fisiche nel processo civile; se ipotizzassimo una macchina capace di predire l’esito di una sentenza, bisognerebbe dare per scontato che ogni eventuale tesi difensiva sia stata già “rigettata” prima ancora di essere redatta. Ed è qui che sorge uno dei dubbi di questo progetto: come si potrebbe accettare un algoritmo che vada a predire anche una tesi difensiva? Se dovessimo accettare una simile ipotesi, ci troveremmo di fronte a un paradosso: i computer dovranno sindacare esseri umani sulla base di leggi fatte dall’uomo. Il diritto alla difesa sarebbe garantito semplicemente dall’affidabilità del software; il contraddittorio tra le parti, principio fondamentale per la formazione della prova e su cui si basa il processo, non troverebbe spazio davanti ad un algoritmo che conosca già la risposta. In tal senso, sorge spontaneo un ulteriore quesito essenziale, ovvero ci si chiede: che cosa possiamo pretendere dunque dal tanto bramato giudice robot? Per stabilirlo occorre considerare le pretese avanzate nei confronti del giudice umano, preordinato alla funzione della iurisdictio. Nei confronti dello stesso non sarà mai pensabile pretendere l’emanazione di una sentenza giusta, ma tutt’al più esatta e, d’altro canto, anche al robot si potrebbe chiedere l’esattezza della decisione. Non bisogna, poi, dimenticare che la parte predominante dell’attività del giudice è basata sulla sussunzione del fatto nella norma. In questo, assumono un’importanza decisiva i fatti rappresentati dal giudice umano, frutto di un’inevitabile accurata selezione che non rende possibile la considerazione della realtà nel proprio complesso, ma solo di una parte della stessa. Ancora, con riguardo all’esigenza di certezza sopra esposta: come può considerarsi soddisfatta la stessa se non è possibile affermare l’esistenza di macchine infallibili? Spostando la decisione dall’uomo al robot si crea, in effetti, semplicemente un problema di potere: assistiamo al passaggio dello stesso da uomo a “uomo”, stando dietro alla decisione robotica pur sempre la figura dell’uomo. L’insostituibile ingegno umano e, nello specifico, dell’avvocato ha reso possibile una costante evoluzione del diritto: nel difendere a spada tratta i propri clienti, gli avvocati elaborano interpretazioni capaci, alle volte, di segnare una svolta decisiva a livello giurisprudenziale, tramite studi approfonditi e minuziosi. Questo però è reso possibile grazie al contatto umano che ogni avvocato ha con i propri clienti, non è certo un mercenario che combatte le battaglie altrui, ma è se non altro mosso dal “furor difensivo”. Oltretutto, bisogna riflettere anche sul fatto che ammettere un giudice robot equivale a eliminare metà del nostro codice di procedura civile. Non avrebbe senso, ai sensi dell’art. 163 bis c.p.c. (“Termini per comparire”) far intercorrere un termine dilatorio di 90 giorni, tra il giorno della notifica e quello dell’udienza fissata per la comparizione, poiché la parte non avrebbe più necessità di formulare alcuna difesa o contattare il suo avvocato, basterebbe presentarsi dinnanzi al computer e attendere/subire il verdetto. Oppure, volendo ipotizzare un giudice robot in grado di analizzare gli scritti difensivi, ci troveremmo di fronte ad un altro dilemma: i tempi necessari a formulare una difesa sono sì scanditi dal nostro codice, per esempio ai sensi dell’art. 190 c.p.c. (“Comparse conclusionali e memorie”) le comparse conclusionali devono essere depositate entro il termine perentorio di 60 giorni e le memorie di replica entro i 20 giorni successivi. Oltre a dover ipotizzare, comunque, la necessità dei tempi difensivi, ci troviamo di fronte a un appiattimento professionale. Se secondo l’algoritmo, che attraverso la sua sofisticata ricerca, ha già trovato la soluzione, ma la parte che dovrebbe beneficiare di questa soluzione ha fornito delle difese aventi delle domande non pertinenti, o comunque non chiare, l’algoritmo dovrebbe comunque favorire una parte altrimenti soccombente? Non bisogna dimenticare che gli avvocati hanno una grossissima responsabilità professionale, dato che il giudice, secondo un principio fondante del processo, non potrà mai discostarsi da quanto chiesto, cioè il provvedimento del giudice non potrà contenere se non la risposta alle richieste effettuate dalle parti non potendosi discostare dal c.d. principio della domanda. Nello scenario che si è delineato, molti dei nostri principi, studiati negli anni e considerati inamovibili, verrebbero a vacillare, si spera però che l’ipotetica sentenza computerizzata sia pur sempre appellabile e che il sindacato sia della Corte d’Appello, composta da persone fisiche. Sarebbe surreale ipotizzare un secondo sindacato formato da un software avente le identiche conoscenze del primo, rendendo quindi impossibile giungere ad una sentenza diversa e quindi ritrovandoci ad un punto morto. Molte questioni, che intasano i nostri tribunali, sono mosse da astio tra le parti, con forte implicazioni di principio, che nessun giudice robot potrebbe soddisfare. Il giudice, persona fisica, oltre a garantire l’applicazione della legge in maniera corretta, altresì rappresenta la “giustizia popolare”, mi spiego meglio: quando la sentenza, come da principio costituzionale, viene emessa in nome del popolo, ai sensi dell’art. 101 cost., si intende in maniera implicita che la soddisfazione, la necessità, che ognuno di noi ha di giustizia sarà sempre garantita dalla nostra Repubblica. La semplicità di questo articolo racchiude in realtà l’essenza di civiltà, il popolo avrà la sua giustizia mediante un processo atto a garantire ogni libertà e tutela inviolabile dell’uomo e del cittadino. Tornando a quanto detto inizialmente, una parte che decide di intraprendere un giudizio, mossa dalla sete di giustizia, necessita soddisfazione, non ha bisogno come accadeva nelle società non civilizzate di farsi giustizia da sé. L’algoritmo, da questo punto di vista rischierebbe di avere una grossa pecca poiché se adesso una parte possa rimanere scontenta dell’esito di un giudizio, anche se con difficoltà, evince lo sforzo effettuato dai suoi simili: avvocati e giudici, al fine di curare i suoi interessi. Se comunque soccombente, la parte avrà possibilità di replica nei successivi gradi e, se dovesse uscire sconfitto, lo sarebbe perché la legge, attraverso il suo iter, si è espressa in nome del popolo sovrano. È evidente che la formazione e lo sviluppo della prassi interpretativa si realizzano attraverso un duplice passaggio: sono i consociati ad attribuire significati ai precetti, mentre ai giudici spetta riconoscere significati già attribuiti [[18]]. Se così è, allora i giudici sono essenzialmente interpreti della società, del comune sentire, dei valori della comunità e soltanto indirettamente sono interpreti dei precetti. Sono, in altri termini, interpreti di una interpretazione già attuata. Archiviata l’aspirazione per una predittività piena e riportato a livello di “sogno” quello di un giudice robotizzato, è auspicabile che si continui a dibattere sui modi per potenziare la prevedibilità delle decisioni in vista dell’uniformità della giurisprudenza, avvalendosi certamente per questa finalità dell’ausilio delle macchine. Esiste, tuttavia, una predittività «mite», che si limita ad affidare alla macchina il risultato automatizzato quando si tratta di verificare la sussistenza di requisiti e presupposti formali (ad esempio, il rispetto delle regole formali prescritte dalle specifiche tecniche nel processo civile telematico, come il formato dell’atto da depositare, le dimensioni della busta, e così via) o basati su un calcolo aritmetico (l’applicazione di tabelle per il risarcimento dei danni, calcolo dei termini di prescrizione, calcolo dei termini di impugnazione della sentenza) [[19]]. In linea di massima, le ragioni che rendono una pronuncia più “persuasiva” di un’altra sono costituite essenzialmente da tre fattori:
- il primo, connesso all’autorevolezza dell’ufficio giudiziario (giudice di pace, tribunale, corte d’appello);
- il secondo, attinente alla coerenza, alla plausibilità giuridica, al rigore delle argomentazioni poste alla base della decisione adottata;
- il terzo, relativo all’esistenza di pregresse e conformi pronunce, appositamente richiamate, aventi ad oggetto casi analoghi, emesse da altri giudici appartenenti e non allo stesso ufficio giudiziario.
Nello specifico, è importante analizzare l’ultimo fattore, il richiamo a pronunce conformi corrisponde a una tecnica di redazione della motivazione che mira a realizzare una maggiore razionalizzazione del provvedimento e degli esiti della giurisprudenza in generale. A questo proposito, l’art. 118, 1° comma, disp. att. c.p.c. dispone che «la motivazione della sentenza di cui all’articolo 132, secondo comma, numero 4), del codice consiste nella succinta esposizione dei fatti rilevanti della causa e delle ragioni giuridiche della decisione, anche con riferimento a precedenti conformi». L’algoritmo sarà in grado di prevedere una sentenza attraverso l’analisi di precedenti, anche se (come esaurientemente detto in precedenza) nel nostro sistema il precedente non è legge, ma un orientamento di cui gli avvocati si servono per accreditare le loro tesi e dimostrare che quanto chiedono è in conformità con gli orientamenti della Suprema Corte, mentre i giudici si conformano agli orientamenti della Corte superiore gerarchicamente, rimanendo pur sempre svincolati e liberi di interpretare come meglio credono. In conclusione, si può affermare che i tempi non sono totalmente maturi per poter parlare di Giustizia predittiva. Per quanto ci possiamo sforzare di “addestrare” i nostri computer ad eseguire i nostri compiti o a creare database in grado di contenere l’intero scibile umano, non potremo insegnare (o meglio programmare) l’algoritmo per fargli provare il sentimento di giustizia, o qualunque altro sentimento umano. Oggi non esiste una macchina in grado di provare emozioni e, quindi, non potrà interpretare appieno gli impulsi umani che sono la causa dell’instaurarsi dei contenziosi giuridici. Un sistema capace di vagliare istantaneamente ogni precedente e ogni legge potrà essere un ottimo sostegno alla professione dell’avvocato, che scongiurerà i clienti dall’intraprendere cause temerarie. Inoltre, i giudici, avendo a disposizione un sistema simile, potranno avvalersi, se usato nel modo corretto, di linee guida per i loro provvedimenti ed emissione di sentenze, assicurandosi con più facilità che l’intero processo abbia rispettato le norme processuali; non solo, ma anche per far fronte all’eccessiva durata del processo. Molti rinvii hanno tempi irragionevoli, specie in vista della delicatezza della causa: un algoritmo in grado di garantire la correttezza formale degli atti e la loro tempistica, senza essere utopici, dimezzerebbe i tempi della giustizia, rendendo possibile soffermarsi nel merito della causa. Avvalersi di mezzi digitali, sempre più potenti, è una necessità, ma l’ultima scelta, a mio avviso, dovrà spettare comunque all’uomo “Similis cum similibus”, non potrà essere una macchina a poter giudicare il suo creatore, ma sarà l’uomo a servirsi dei potenti mezzi da lui creati per trarne il massimo dei benefici
Note
- [1]
Nell’ambito dell’intelligenza artificiale, la conferenza di Dartmouth si riferisce al Dartmouth Summer Research Project on Artificial Intelligence, svoltosi nel 1956, e considerato come l’evento ufficiale che segna la nascita del campo di ricerca. L’evento viene proposto nel 1955 da John McCarthy, Marvin Minsky, Nathaniel Rochester e Claude Shannon, in un documento informale di 17 pagine noto come ‘proposta di Dartmouth’. Il documento introduce per la prima volta il termine di intelligenza artificiale. Il documento discute poi quelli che gli organizzatori considerano i temi principali del campo di ricerca, tra cui le reti neurali, la teoria della computabilità, la creatività e l’elaborazione del linguaggio naturale.
- [2]
Cfr. E. Rulli, Giustizia predittiva, intelligenza artificiale e modelli probabilistici. Chi ha paura degli algoritmi?, Bologna, Il Mulino, 2018, p. 532.
- [3]
V. D. Dalfino, Creatività e creazionismo, prevedibilità e predittività, in Il Foro Italiano, Roma, Società editrice del “Foro Italiano”, 2018, p. 2.
- [4]
C. Morelli, Giustizia predittiva: in Francia online la prima piattaforma europea. Uno strumento per garantire la certezza del diritto?, Altalex.com, 2017.
- [5]
R. Mattera, Decisione negoziale e giudiziale: quale spazio per la robotica?, in La Nuova giurisprudenza civile commentata, Parte seconda: Saggi e Aggiornamenti, 2018, p. 205.
- [6]
P. Storani, La Giustizia predittiva: un volume rivoluzionario di Luigi Viola, commento sul libro di Luigi Viola, in Law in Action, Rubrica a cura di Paolo Storani, 2018.
- [7]
D. Dalfino, Creatività e creazionismo, prevedibilità e predittività, in Il Foro Italiano, fondato nel 1876 da Enrico Scialoa, 2018, V, 385 (estratto), Roma, SOCIETÀ EDITRICE DEL «FORO ITALIANO».
- [8]
Le linee guida del Consiglio d’Europa su Intelligenza artificiale e protezione dei dati. In data 28 gennaio 2019 il Comitato istituito dalla Convenzione n.108/1981 del Consiglio d’Europa ha pubblicato le linee guida sull’intelligenza artificiale e protezione dei dati, fornendo così un importante contributo in materia. A cura di Erika Caterina Pallone, Avvocato in Milano e Cultore di Informatica giuridica presso l’Università degli Studi di Milano.
- [9]
Regolamento (UE) 2016/679 del Parlamento europeo e del Consiglio del 27 aprile 2016. Affronta Il problema della responsabilità civile e penale, l’interrogativo principale riguarda la responsabilità in caso di danno provocato dalla macchina, ovvero la possibilità che il danno sia attribuibile al produttore, al progettatore degli algoritmi, oppure alla macchina e ai suoi proprietari.
- [10]
Risoluzione del Parlamento europeo del 16 febbraio 2017 recante raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica.
- [11]
E. Rulli, Giustizia predittiva, intelligenza artificiale e modelli probabilistici.
- [12]
Saetta, Privacy e giornalismo, categoria: Temi, 2019, https://protezionedatipersonali.it/privacy-e-giornalismo.
- [13]
Cfr. i risultati della conferenza tenuta a Riga sul tema «Artificial Intelligence at the Service of the Judiciary» il 27 settembre 2018, tra i quali l’adozione di un Charter on the use of AI in judicial systems.
- [14]
R. Vogl, ideatore della Stanford Lawschool’s center for Legal Informatics della Università di Standford, in rivista Giustizia predittiva: il progetto (concreto) della Corte d’Appello di Brescia, p. 4, 2019.
- [15]
Diritto Avanzato nasce come Centro Studi, che è il cuore pulsante di Diritto Avanzato: un osservatorio permanente sulle linee evolutive del diritto nazionale. Ha sede a Milano e ha l’obiettivo di fornire consulenza istituzionale e professionale (www.dirittoavanzato.it/p/centro-studi.html).
- [16]
L. Viola, Interpretazione della legge con modelli matematici, Processo, a.d.r., giustizia predittiva, II Edizione, Diritto Avanzato, 2018, p.149-152.
- [17]
L. Viola, Interpretazione della legge con modelli matematici, Processo, a.d.r., giustizia predittiva, II Edizione, Diritto Avanzato, 2018, p.149-152.
- [18]
Cfr. Grossi, Il giudice civile, cit., 1138.
- [19]
M. Ancona, Verso una giustizia predittiva mite, relazione tenuta al convegno internazionale di studi «Giustizia predittiva e prevedibilità delle decisioni. Dalla certezza del diritto alla certezza dell’algoritmo?», cit., ora in https://tecnojustitaly.wordpress.com/ ; ID., Industria 4.0 e sistema giustizia, in Caos. Rivista quadrimestrale per l’innovazione sociale, 2017, fasc. 2
Scrivi un commento
Accedi per poter inserire un commento