Indice:
- I nuovi orizzonti della tecnologia informatica
- Carta etica europea sull’utilizzo dell’intelligenza artificiale nei sistemi giudiziari e negli ambiti connessi
- L’intelligenza artificiale come minaccia per l’umanità: possibili spunti di problem solving
1. I nuovi orizzonti della tecnologia informatica
Ogni volta che navighiamo in internet, utilizziamo posta elettronica, passiamo del tempo sui social network o guardiamo video, senza rendercene conto, stiamo utilizzano o sfruttando l’intelligenza artificiale intesa come la capacità di un sistema tecnologico di risolvere problemi, svolgere compiti o attività tipici della mente umana.
Diversi studi, hanno dimostrato che esistono delle machine learning capaci anche di acquisire, sulla base di appositi algoritmi, l’attitudine a formulare previsioni o assumere decisioni.
Viene perciò affrontato il tema del se l’intelligenza artificiale possa essere utilizzata anche in ambito giudiziario. Tutto ciò alla luce della Carta etica europea del 2018, che consente l’uso dell’intelligenza artificiale nei sistemi di giustizia penale e non solo. Viene infine analizzata, in particolare, la possibile applicazione di una “macchina pensante” nell’ambito della c.d. “giustizia predittiva[1]” e, cioè, per formulare previsioni sull’esito di una causa, o anche, in un prossimo futuro, per affiancare il giudice nella fase decisoria. La Carta etica, è indirizzata sia alle start up che progettano piattaforme di nuovi servizi, sia agli sviluppatori di tools, sia alle autorità a cui spetta la decisione di regolamentare questo campo, ma anche alle professioni giuridiche, magistrati -avvocati- notai etc. Se da una parte il Consiglio d’Europa è consapevole che l’utilizzo di questa disciplina può aumentare l’efficienza dei sistemi giudiziari, nel contempo avverte che gli operatori devono garantire un approccio “responsabile e rispettoso dei diritti fondamentali”, e tra questi soprattutto il diritto alla non discriminazione, proprio a sottolineare il pericolo principale che si annida nei data set e negli algoritmi che vi operano.
Ci occuperemo della carta etica europea sull’uso dell’intelligenza artificiale nel paragrafo successivo.
Ora, dobbiamo invece porre l’attenzione sull’evoluzione dell’intelligenza artificiale e su ciò che oggi questa rappresenta per noi.
L’Intelligenza Artificiale spesso viene rappresentata in maniera negativa, come un pericolo per l’umanità, potenzialmente capace di prendere il sopravvento e di dominarci, ma nella realtà l’intelligenza artificiale, fa già parte della nostra quotidianità. Con gli assistenti digitali dei telefoni cellulari, i sistemi di guida assistita delle automobili, i chatbot che rispondono quando chiamiamo soggetti pubblici o privati, i sistemi di traduzione automatica di testi e discorsi, i robot in fabbrica, gli algoritmi che ci raccomandano prodotti e servizi di nostro gradimento e quelli che ci assistono nell’apprendimento, o videogiochi sempre più realistici e coinvolgenti. L’intelligenza artificiale sta secondo alcuni migliorando la nostra vita rendendola molto più semplice e veloce meno difficile nelle scelte da compiere, nelle ricerche da fare, secondo altri invece rappresenta una minaccia per il presente e per il futuro perché inserendo nelle aziende macchine che hanno la stessa intelligenza dell’uomo, sarà quest’ultimo ad essere definito come inutile nell’azienda. Questo vuol dire che grazie alle macchine aumenterà la produzione, la vendita e automaticamente aumenteranno i guadagni, diminuiranno i costi, ma diminuirà anche il lavoro dell’uomo e si arriverà ad un punto in cui l’economia si bloccherà completamente. L’economia si bloccherà perché questo sistema potrebbe funzionare in un paese in cui tutti hanno la possibilità di essere imprenditori, tutti hanno un capitale da poter investire per aprire la propria azienda e iniziare a produrre. Se però in questo stesso paese, non tutti gli individui hanno questa forza, si arriverà ad un punto in cui la macchina correrà così veloce da lasciare l’uomo solo e al punto di partenza, senza mai dargli la possibilità di raggiungere il traguardo. Capiamo bene che come l’intelligenza artificiale secondo alcuni è un bene, secondo altri rappresenta una vera e propria minaccia. E’ pur vero che ci sono diverse correnti di pensiero a tal riguardo, ma pensiamo ad esempio alle P.A. quali ambito scolastico, sanitario, giudiziario, nel pubblico impiego, nella sicurezza e, in generale, nella gestione delle relazioni coi cittadini. In quest’ultimo campo, l’Intelligenza Artificiale può essere impiegata per rispondere alle domande, cercare ma anche elaborare documenti, riempire moduli, instradare correttamente varie tipologie di richieste, eseguire traduzioni.
Pensiamo all’emergenza che sta vivendo l’Italia nell’anno 2019/2020, ad una vera e propria “pandemia” da covid-19; se non ci fossero stati tutti questi strumenti tecnologici, il mondo si sarebbe fermato? E’ grazie alla tecnologia che l’economia gira, che se anche in maniera ridotta la maggior parte degli individui riesce a svolgere il proprio lavoro da casa. Stiamo parlando di quello che oggi prende il nome di “smart-working” ovvero lavoro da casa. Ci si sta accorgendo che questo nuovo modo di lavorare aiuta le aziende nella riduzione dei costi che normalmente oggi giorno si dovevano sostenere. Inoltre è sempre grazie allo smart-working che sono aumentati i rapporti sociali tra dipendenti e datore e gli stessi dipendenti; il rapporto di lavoro è perciò diventato più autentico. Grazie ai computer, blog, siti internet, in questa situazione di crisi non siamo sprovvisti di nulla, possiamo acquistare abiti online, accessori, libri per lo studio. Addirittura attraverso piattaforme online si è data la possibilità agli studenti universitari di seguire le lezioni, sostenere esami e laurearsi. Grazie a ciò, si è data la possibilità agli studenti di non perdere l’anno e di studiare restando a casa. Ma potrebbe questo essere il nostro futuro? Da alcune interviste rilasciate da docenti e alunni la risposta ha esito negativo. Sempre legato a quest’emergenza, Per aiutare ricercatori, data scientist e analisti a comprendere l’impatto del Coronavirus, Google Cloud mette a disposizione set di dati pubblici e strumenti su Cloud per migliorare e velocizzare il processo di ricerca.
E’ stato perciò creato COVID-19 Public Dataset Program, un archivio di dati pubblici, liberamente accessibili e consultabili, dedicato a ricercatori, data scientist e analisti impegnati a studiare e a comprendere l’entità della diffusione e dell’impatto di questo virus. L’accesso a set di dati e a strumenti in grado di analizzarli su larga scala grazie al Cloud, risulta essenziale per il processo di ricerca, soprattutto nella risposta globale al nuovo Coronavirus.
Capiamo quindi che la tecnologia è indispensabile, soprattutto in alcuni campi. In modo particolare è il campo che abbiamo appena citato ovvero quello sanitario, partendo dalle grandi emergenze come quella che stiamo vivendo, alla gestione di semplici visite o prenotazioni. Infatti è proprio grazie alla tecnologia che si sono ridotti i tempi di gestione delle prenotazioni, visite ed esami. In questo settore sono molto interessanti anche le ricerche sui robot che si prendono cura dei pazienti, eventualmente memorizzando le medicine da somministrare loro, i tempi e le dosi, oppure monitorando il loro stato di salute per mezzo di misurazioni biometriche da trasmettere al medico, corredate eventualmente da una ipotesi di diagnosi. Proprio in questo tipo di situazioni, che si potrebbero prestare ad ampie controversie etiche e scientifiche o a potenziali conflitti di interessi tra pazienti e medici, si evidenzia un punto focale in cui l’IA si posiziona in maniera eccellente, con la sua capacità di creare interazioni inedite tra sistemi amministrativo-tecnologici ed esseri umani. Il settore sanitario è in continua evoluzione, proprio come quello tecnologico. Tuttavia, l’AI in ambito medico è un’area che può essere ancora considerata non pienamente sviluppata anche per le normative in materia di chirurgia robotica automatizzata ancora non del tutto adeguate e sicuramente da aggiornare. Tuttavia però, l’intelligenza artificiale sta offrendo molti contributi alla sanità:
- “Spianare la strada” a politiche di prevenzione sanitaria predittive, più mirate e personalizzate;
- Anticipare le richieste di assistenza;
- Migliore e più accurata rilevazione di sintomi
- Utilizzo automatizzato dei risultati dell’analisi (immagini, analisi di laboratorio, etc.);
- Formulare piani di cura o protocolli personalizzati;
- Analizzare le rilevazioni degli effetti collaterali dei trattamenti;
- Prevedere la diffusione di una patologia e facilitare il coordinamento dei team di assistenza.
In questo ambito quindi, l’intelligenza artificiale ci permette di avere una soluzione precoce. L’intelligenza artificiale in campo sanitario si sta sviluppando molto velocemente. Basti pensare che qualche anno fa, nei Paesi Bassi, un chirurgo è stato assistito da un robot per la saturazione di alcuni vasi sanguigni. Abbandonando il campo sanitario e lasciando spazio alle riflessioni, ci siamo mai chiesti come fa un cellulare a capire nell’esatto momento in cui scriviamo cosa vogliamo dire? Basta comporre l’inizio di una parole e frase e il cellulare già ci dà la soluzione. Usando le stesse tecniche statistiche, in sistemi più complessi e su scala più grande, i computer, oltre alla funzione di auto completamento, hanno acquisito la capacità di proporci, spesso con successo, l’acquisto dei prodotti più vari. Questo lo fanno memorizzando l’elenco di precedenti acquisti o anche soltanto la cronologia di navigazione. E’ così che i rivenditori online raccolgono informazioni, tengono sistematicamente traccia delle nostre preferenze e, in base ai dati acquisiti, propongono gli articoli che hanno maggior probabilità di suscitare il nostro interesse. Pensiamo ad un sito molto utilizzato per lo shopping online come lo è Amazon. Amazon, per esempio, avendo più di 200 milioni di clienti, dispone di un database contenente un numero enorme di transazioni dalle quali può automaticamente estrarre i parametri per l’abbinamento tra prodotti e utenti. Per tale motivo l’intelligenza artificiale può essere definita come la capacità di un sistema tecnologico di fornire prestazioni assimilabili a quelle dell’intelligenza umana e, cioè, l’abilità di risolvere problemi o svolgere compiti e attività tipici della mente e del comportamento umano. Il che presuppone, nei sistemi più avanzati, la capacità non soltanto di trattazione automatizzata di enormi quantità di dati e di fornire le risposte per le quali sono stati programmati, ma anche di acquisire, sulla base di appositi algoritmi di apprendimento, la attitudine a formulare previsioni o assumere decisioni.
2. Carta etica europea sull’utilizzo dell’intelligenza artificiale nei sistemi giudiziari e negli ambiti connessi
Tenendo conto dell’importanza dell’intelligenza artificiale, la CEPEJ Commissione Europea per l’Efficacia della Giustizia, il 4 dicembre 2018, emana “la carta etica europea sull’utilizzo dell’intelligenza artificiale.” Si tratta di un documento di eccezionale rilevanza, poiché è la prima volta che a livello europeo, preso atto della “crescente importanza della intelligenza artificiale (IA) nelle nostre moderne società e dei benefici attesi quando questa sarà pienamente utilizzata al servizio della efficienza e qualità della giustizia”, vengono individuate alcune fondamentali linee guida, alle quali dovranno attenersi “i soggetti pubblici e privati responsabili del progetto e sviluppo degli strumenti e dei servizi della IA”. La Cepej rileva fin dall’inizio che l’uso di strumenti e servizi di IA nei sistemi giudiziari è volto a migliorare l’efficienza e la qualità della giustizia e merita di essere incoraggiato. Tuttavia, ciò deve avvenire in modo responsabile, nel rispetto dei diritti fondamentali sanciti dalla Convenzione europea dei diritti dell’uomo (Cedu) e dalla Convenzione n. 108 del Consiglio d’Europa sulla protezione dei dati personali, nonché degli altri principi fondamentali enunciati nella Carta. Tra questi principi, il rispetto dei diritti umani e la non discriminazione sono di fondamentale importanza. L’obiettivo è garantire, dalla fase di progettazione fino all’applicazione pratica, che le soluzioni garantiscano il rispetto dei diritti garantiti dalla Cedu e dalla Convenzione n. 108 del Consiglio d’Europa. Di grande importanza è anche il principio della trasparenza delle metodologie e delle tecniche utilizzate nel trattamento delle decisioni giudiziarie. L’accento è posto sull’accessibilità e la necessità di comprensione delle tecniche di trattamento dei dati, nonché sulla possibilità per le autorità o gli esperti indipendenti di effettuare audit esterni. Viene inoltre incoraggiato un sistema di certificazione, da rinnovare regolarmente. Inoltre, si sottolinea la centralità dell’utente, la cui libertà di scelta deve essere preservata. In particolare, il giudice dovrebbe poter controllare in qualsiasi momento le decisioni giudiziarie e i dati che sono stati utilizzati per produrre un risultato e continuare ad avere la possibilità di discostarsi dalle soluzioni proposte dall’IA, tenendo conto delle specificità del caso in questione. Ogni utente dovrebbe essere informato, in un linguaggio chiaro e comprensibile, della natura vincolante o non vincolante delle soluzioni proposte dagli strumenti di IA, delle diverse opzioni disponibili e del loro diritto all’assistenza di un avvocato e al ricorso a un tribunale. Sintetizzando, in modo particolare, questa carta quindi, si avvale di cinque principi di fondamentale importanza:
- PRINCIPIO DEL RISPETTO DEI DIRITTI FONDAMENTALI: assicurare l’elaborazione e l’attuazione di strumenti e servizi di intelligenza artificiale siano compatibili con i diritti fondamentali.
- PRINCIPIO DI NON-DISCRIMINAZIONE[2]: prevenire specificamente lo sviluppo o l’intensificazione di discriminazioni tra persone o gruppi di persone.
- PRINCIPIO DI QUALITÁ E SICUREZZA: in ordine al trattamento di decisioni e dati giudiziari, utilizzare fonti certificate e dati intangibili con modelli elaborati multi disciplinarmente, in un ambiente tecnologico sicuro.
- PRINCIPIO DI TRASPARENZA, IMPARZIALITÁ ED EQUITÁ: rendere le metodologie di trattamento dei dati accessibili e comprensibili, autorizzare verifiche esterne.
- PRINCIPIO DEL CONTROLLO DA PARTE DELL’UTILIZZATORE: precludere un approccio prescrittivo e assicurare che gli utilizzatori siano attori informati e abbiano il controllo delle loro scelte.
Si è sempre detto che la pecca del sistema italiano, è la lunga durata dei processi. E ‘chiaro quindi che questo lungo termine può essere abbreviato col l’introduzione di sistemi tecnologici. La Corte Superiore di Giustizia di Buenos Aires, attraverso l’utilizzo di un software, ha risolto più di mille casi nell’arco di sette giorni, a fronte degli ottantatré giorni che gli occorrevano precedentemente[3]. Lo stesso software è in corso di sperimentazione presso il Consiglio di Stato di Parigi. Il tema dell’efficienza della giustizia, è un tema che da anni abbraccia la nostra nazione, ma in modo particolare conferisce una stringente attualità a quello della giustizia predittiva, ossia la capacità di calcolare la probabilità di un esito giudiziario sulla base di un algoritmo o a base statistica oppure, vedremo, a base logica. In modo più semplice, i sistemi di giustizia predittiva sono destinati a essere utilizzati da parte di uffici legali, assicuratori (sia per le loro esigenze interne che per i loro assicurati), nonché avvocati, al fine di anticipare l’esito di una controversia. Teoricamente potrebbero anche aiutare i giudici a prendere delle decisioni. Forniscono una rappresentazione grafica della probabilità di successo di ciascun esito di una controversia sulla base dei criteri introdotti dall’utilizzatore (specifici per ciascun tipo di controversia). Tali sistemi sostengono di essere in grado di calcolare il probabile importo del risarcimento concesso dai tribunali. In modo particolare, è nel campo penale che l’intelligenza artificiale assume notevole sviluppo ma a due condizioni:
- Gli operatori siano soggetti qualificati all’uso del sistema di intelligenza artificiale;
- Ogni decisione sia sottoposta al controllo umano, quindi al controllo del giudice;
Tali condizioni tendono ad evitare quello che la Carta etica definisce “approccio deterministico”, vale a dire il rischio di un eccessivo automatismo o standardizzazione delle decisioni. A seconda dei dati che vengono inseriti nel software, sono ipotizzabili tre diversi modi attraverso i quali la tecnologia delle machine Learning può agevolare il lavoro degli operatori del diritto e, conseguentemente, rendere più efficiente la giustizia:
- Analisi di documenti e la predisposizione di atti;
- Previsione dell’esito di una causa;
- Formulazione di giudizi, seppure sotto il controllo umano.
Il punto “numero 1”, trova preferibilmente applicazione nel campo del diritto civile e commerciale, senza l’esclusione di altri campi. Può infatti trovare applicazione anche in campo penale, soprattutto quando occorre analizzare una mole notevole di documenti. Una recente applicazione dell’intelligenza artificiale nel campo del diritto penale è quella del sistema “Toga”, consistente in un database nel quale sono censite tutte le fattispecie criminose disciplinate dal Codice penale e dalla legislazione speciale, che permette di verificare, tra l’altro, la competenza, la procedibilità, l’ammissibilità a riti alternativi, i termini prescrizionali[4] e di durata delle misure cautelari, nonché di calcolare la pena per ciascun tipo di reato. Un esempio di quando è stata utilizzata la tecnologia in ambito giudiziario, risale allo scorso 14 agosto 2018, data che segna la caduta del ponte Morandi a Genova. Qui, la Procura di Genova ha deciso di utilizzare un software dell’FBI, dotato di algoritmi particolarmente complessi, con l’obiettivo di incrociare tutti i dati raccolti con quelli dei dispositivi elettronici sequestrati, con la documentazione tecnica ed i pareri dei consulenti sia del P.M. che della difesa. Mentre qui tutto ciò può sembrare ai nostri occhi una novità, in altri stati già da tempo utilizzano software ai fini giudiziari. Basti pensare al sito ROSS Intelligence che, munito di un ricco database di giurisprudenza, consente agli avvocati di redigere atti tenendo conto dell’orientamento dei giudici su un determinato argomento. Chi ce lo dice che in un futuro giudici e avvocati non utilizzeranno sistemi in grado di ridurre il tempo, le ore di lavoro e aumentare la precisone? Chi ce lo dice che in questo campo l’utilizzo della tecnologia può solo rilasciare aspetti negativi? Perché non potremmo pensare un domani ad un giudice dietro un computer? La ricerca più affascinante è stata fatta presso lo University College London (UCL, Londra, UK). Qui i ricercatori hanno creato un giudice virtuale, e gli hanno sottoposto diversi casi che sono stati trattati dalla Corte Europea per i diritti Umani. Il risultato è che nel 79% dei casi il computer ha emesso lo stesso verdetto dei giudici in carne e ossa. La differenza del 20% è da attribuire a quei casi in cui la corte ha interpretato le leggi invece di applicarle alla lettera; situazioni in cui si può affermare che i giudici sono più realisti che formalisti. Anche questa teoria è stato oggetto di dibattito e lunghe discussioni e lo è ancora tutt’oggi, perché per chi come i sostenitori della scuola Perlingeriana, il giudice non deve applicare la legge così com’è, deve infatti confrontarsi con diversi istituti e dalla combinazione di questi ultimi prendere una decisione. Sempre secondo i sostenitori della scuola di Perlingieri, il giudice non può ai fini dell’emanazione di un provvedimento tenere solo un’interpretazione assiologica, ma anche funzionale e sistematica. Il diritto va sempre storicizzato, cioè va rapportato al contesto storico in cui ci troviamo. Pensiamo ad esempio al concetto di buona fede; questo veniva utilizzato ai tempi del fascismo, ai tempi del codice del 1865 e nel codice de 1942. Capiamo bene che le epoche storiche sono differenti e che quindi una stessa controversia, presentata nelle diverse epoche storiche, avrebbe avuto un riscontro differente e una soluzione differente. Allontanandoci dalla teoria di Perlingeri e ritornando sui nostri passi ovvero al tema del “giudice dietro un computer”, studi scientifici hanno dimostrato come quanto accaduto in Inghilterra, in Italia avrebbe esito negativo. La struttura Costituzionale italiana e l’ordinamento giudiziario non ne renderebbero possibile l’attuazione. Inoltre la stratificazione normativa presente nel nostro paese, unitamente alla vastità di pronunce giurisprudenziali presenti, renderebbero particolarmente difficile il raggiungimento delle percentuali ottenute dal software mediante l’analisi delle pronunce della Corte Europea dei Diritti dell’Uomo”, proprio in virtù del fatto che quest’ultima ha “competenza limitata alle violazioni delle disposizioni contenute nella Convenzione europea per la salvaguardia dei diritti dell’uomo e delle libertà fondamentali”. Disposizioni che sono “di gran lunga inferiori rispetto al corpus normativo vigente in un qualsiasi Stato dell’Ue. Possiamo perciò concludere sostenendo che velocità e quantità vs qualità della giurisdizione sono delle contraddizioni che anche se in apparenza risultano non compatibili. Diciamo che quasi tutti hanno cercato una strada compatibile da poter adottare in Italia, un connubio perfetto tra giustizia e tecnologia. In realtà il tutto dovrebbe aggirarsi intorno a dei punti fondamentali e dove solo seguendo questi punti si potrebbero eliminare le contradizioni:
- Software di giustizia predittiva a supporto e mai sostitutivi dell’operatore, che deve mantenere “il controllo” della procedura;
- Capacità di riservarsi, l’avvocato una libertà argomentativa, e il magistrato una misurata libertà interpretativa, magari anche tramite adeguate soluzioni digitali;
- Necessario impegno a partecipare alla progettazione dei data set e degli algoritmi “giudiziari”;
- Tendenziale trasparenza dell’algoritmo;
- Formazione di giuristi digitali e capacità di lavorare in team interdisciplinari;
- Redazione degli atti giudiziari che da una parte consenta la rappresentazione il più fedele possibile ai fatti; dall’altra acquisisca nuove tecniche di linguaggio traducibile in sistema binario;
- Necessità di un framework di norme e di governance che disciplinino l’utilizzo della Intelligenza artificiale nella Pubblica amministrazione, anche per stabilirne i limiti ed individuare le responsabilità;
- Iniziative di ricerca non lasciate esclusivamente in mente alle multinazionali degli algoritmi;
- Ancoraggio – come operatori del diritto – al quadro di tutela dei diritti fondamentali così come disegnati in Costituzione, nella Carta dei diritti fondamentali e della Convenzione europea dei diritti dell’Uomo.
Ma può un computer anticipare il ragionamento giuridico? La modellizzazione informatica del ragionamento dei giudici si è dimostrata altrettanto impossibile di quella dei sistemi giuridici positivi. Come sottolineato dalla dottrina, il ragionamento del giudice è soprattutto una questione di valutazione e interpretazione dei fatti dimostrati e pertinenti a una causa e delle norme di diritto applicabili (presenti nei testi o nei precedenti), il cui significato, come si è detto, resta indeterminato nonché di interpretazione soggettiva del concetto di equità, che in Europa dovrebbe subire nuove modifiche per via dell’esigenza, incoraggiata dalla Corte europea dei diritti dell’uomo, di un controllo di proporzionalità. La complessità del diritto è costituita dalla sua natura teleologica e contenziosa: due rilievi coerenti possono condurre a sentenze diverse in funzione di due diverse priorità. Ciò accade perché il famoso sillogismo giuridico è più una maniera di presentare il ragionamento giuridico che non la sua traduzione formale. Non rispecchia per intero il ragionamento del giudice, che è composto in realtà da una moltitudine di fattori decisionali, non può essere formalizzato a priori, ed è talvolta fondato sul suo potere discrezionale: quali sono i fatti pertinenti? Tali fatti sono accertati? Quali norme si applicano a essi? Quale è il significato di tale norma in relazione alla causa da decidere? Quale fonte deve prevalere in una pluralità di fonti confliggenti? La complessiva coerenza delle decisioni giudiziarie non si realizza mai, si tratta più di una descrizione a posteriori utilizzata dai giudici nelle motivazioni, intesa più a convincere loro stessi della validità di una soluzione specifica che a descrivere in maniera rigorosa e oggettiva tutte le fasi che hanno condotto alla decisione adottata. I risultati cui pervengono le intelligenze artificiali sono in realtà indipendenti dalla questione della conformità al diritto di una particolare soluzione e non sono in grado di distinguere le argomentazioni legittime da quelle illegittime. Una seconda modalità applicativa della intelligenza artificiale alla giustizia è quella c.d. “predittiva”, consistente nella capacità di elaborare previsioni mediante un calcolo probabilistico effettuato da algoritmi operanti su base semplicemente statistica o anche su base logica. Tale capacità, a seconda della tipologia di dati introdotti nell’elaboratore, può essere utilizzata in funzione di tre diverse finalità:
- Innanzitutto come strumento di prevenzione della criminalità. Inserendo in un computeruna serie di dati estrapolati da denunce presentate alla Polizia (ad esempio, relative a rapine o furti verificatisi nelle stesse zone e con modalità analoghe), il sistema è infatti in grado di prevedere luoghi e orari in cui verosimilmente potranno essere commessi altri reati della stessa specie.
- In secondo luogo, come strumento integrativo dell’attività del giurista per l’interpretazione della legge e l’individuazione degli argomenti a favore della tesi che si intende sostenere.
Ma davvero una macchina può prevedere il futuro? Per quanto grande possa essere la capacità di memoria di un computer, ciò non potrà mai realizzarsi. In realtà, laddove fosse veramente possibile prevedere con un sufficiente grado di approssimazione l’esito di un giudizio, ciò sarebbe di grande ausilio per l’avvocato, poiché gli eviterebbe, in caso di previsione negativa, di compiere scelte errate. Come quella, in ambito civile, di promuovere una lite temeraria o, in sede tributaria, di avviare un contenzioso con l’Agenzia delle Entrate, anziché cercare di definire la controversia mediante una procedura conciliativa o di adesione all’accertamento o, in un procedimento penale, di optare per il rito ordinario anziché per un rito alternativo che consentirebbe l’irrogazione all’imputato di una pena meno grave. La “giustizia predittiva[5]” è stata tuttavia utilizzata, in altri ordinamenti, anche per diverse e alquanto discutibili finalità. In Italia, è previsto che il giudice, nell’esercizio del potere discrezionale di applicazione della pena (nei limiti stabiliti dalla legge) debba tener conto della gravità del reato e della capacità a delinquere del colpevole desunta dal codice penale. Ma allora, se un giorno le macchine possano stabilire l’esito del reato, chi ci dice che un domani non potranno anche decidere quel che sarà la pendenza del reato ed emettere quindi una vera e propria decisione? Il tema della prevedibilità delle decisioni è già da tempo al centro di un vivace dibattito dottrinale. In particolare, il fatto che sia possibile prevedere l’orientamento decisionale di un giudice è stato ritenuto, per certi aspetti, positivo nella misura in cui può servire a migliorare il livello di efficienza della giustizia ma, sotto altri, negativo per il rischio di riduzione ad una gestione automatizzata di affermazioni standardizzate. Infatti, già da tempo esistono sistemi di intelligenza artificiale con i quali, magari senza rendercene conto, interagiamo ogni giorno. Sistemi dotati di algoritmi di apprendimento automatico, capaci di elaborare dati, effettuare previsioni, fornire risposte. Perché, dunque, non ammettere che un sistema di intelligenza artificiale applicato alla giustizia, segnatamente penale, possa agevolare il giudice nella valutazione degli elementi di prova e nella decisione? Ciò di cui siamo certi, è che gli strumenti tecnologici sono importanti per la pendenza di un processo. Pensiamo ad esempio in caso di separazione per presunto tradimento; questo si potrebbe accertare grazie a dei messaggi sullo smartphone, a delle foto, o addirittura alla cronologia del cellulare qualora si parli di siti di incontri. L’applicazione delle tecniche di informatica forense in ambito legale spazia dal “semplice” recupero di informazioni importanti dai tanti supporti digitali utilizzati a più approfondite analisi dei dati. Pensiamo ai casi più gravi, alla pedofilia, pedopornografia, lo stalking e il cyberstalking, la diffamazione sui social network, il cyberbullismo tra adolescenti. Questo perché tra i dati (informatici) si nascondo informazioni preziose. E l’informazione può essere prova schiacciante per la pendenza di un processo. La prova digitale, quindi, è una vera e propria prova? Dubbi non ce ne sono, e la risposta è affermativa. Esistono varie enunciazioni per definire cos’è in concreto una prova digitale e tra le più importanti ne spiccano due:
- La prima è stata formulata dall’International Organization on Computer Evidence con l’acronimo (IOCE) secondo la quale “è un’informazione generata, memorizzata e trasmessa attraverso un supporto informatico che può avere rilevanza, valore in tribunale;
- La seconda è stata adottata dallo Scientific Working Group on Digital Evidence con l’acronimo(SWGDE) per cui costituisce evidenza digitale “qualsiasi informazione, con valore probatorio, che sia o meno memorizzata o trasmessa in un formato digitale”
Tutte queste definizioni, ci permettono di dare una finizione più tecnica di quella che comunemente chiamiamo informatica forense: L’Informatica Forense è la disciplina che si occupa della ricerca, identificazione, raccolta, conservazione, acquisizione, analisi, presentazione e valutazione delle informazioni (sotto forma di dati informatici) a fini probatori, nell’ambito del diritto processuale penale o civile. Ci viene spontaneo pensare: “in un futuro, ci sarà la possibilità di un giudice robot?” Partiamo dalla norma di riferimento. L’art 6 comma 1 della Convenzione per la salvaguardia dei diritti dell’uomo e delle libertà fondamentali, prevede che ogni persona ha il diritto di far esaminare la sua causa da un tribunale indipendente e imparziale. La Carta etica europea del 2018 – come precedentemente ricordato – ammette l’uso, sotto il controllo umano, dell’intelligenza artificiale nei sistemi di giustizia penale. Ciò significa che ad un computer potrebbe essere demandata, se non la decisione finale sulla colpevolezza o meno di un imputato o la quantificazione dell’eventuale pena da irrogare, la soluzione di specifiche questioni costituenti presupposto di tale decisione. Ma l’idea che l’esito di un processo possa, sia pure in parte, dipendere da una “macchina” è senza dubbio inquietante.
3. L’intelligenza artificiale come minaccia per l’umanità: possibili spunti di problem solving
Non passa giorno in cui non se ne parla; automobili intelligenti, telefonini intelligenti, sistemi di sorveglianza intelligenti. Queste macchine si stanno poco a poco diffondendo intorno a noi. La rivoluzione dell’intelligenza artificiale è in corso ovunque. Oggi, i progressi di queste macchine sembrano illimitati e c’è il timore da parte di qualche esperto che queste un giorno possano superarci o addirittura sostituirci. Ma quali sono i rischi dell’intelligenza artificiale? Se fino ad ora abbiamo parlato esclusivamente del suo sviluppo e delle nuove invenzioni, è bene anche fare cenno a quel che può comportare un uso sproporzionato di questa branchia dell’informatica che oggi più che mai sta prendendo il sopravvento sull’uomo e sul mondo. I rischi dell’intelligenza artificiale possiamo così elencarli:
Sicurezza e Privacy: Per essere efficiente, l’IA accede ad una vastissima mole di dati ed informazioni di persone senza che questi ne siano sempre al corrente. Ci dovrebbe essere una maggior trasparenza nei confronti di questi ultimi anche se il governo sta lavorando su ciò.
Regolamentazione: Bisognerebbe capire ciò che l’intelligenza artificiale può o non può fare, quali sono le informazioni a cui può accedere;
Perdita dei posti di lavoro: questo è uno dei temi più affrontati da quando l’intelligenza artificiale si è sviluppata. Nuove macchine, grandi macchine capaci di sostituire l’uomo, equivalgono a una minor presenza del genere umano nei luoghi di lavoro. La sostituzione di macchine all’uomo, ha segnato già da molti anni, una minaccia per il genere umano che si sente in continua competizione con le macchine e sempre più incapace di raggiungere queste ultime. L’Intelligenza artificiale che ci affascina e ci inquieta, ci rincorre e ci precede in ogni nostro agire, richiede una riflessione globale che vada al di là di una visione tecnologica dove il dispositivo reale o virtuale non si limita all’autocontrollo di sé – cosi come creato e previsto dall’uomo – ma si determina in modo autonomo nel suo essere. “L’odierna evoluzione della capacità tecnica” produce infatti “un incantamento pericoloso”, laddove “la macchina non si limita a guidarsi da sola, ma finisce per guidare l’uomo” E’ proprio sull’intelligenza artificiale che lo stesso Papa Francesco si è espresso in un discorso nei confronti dell’assemblea della Pontificia Accademia della vita dedicata al tema:” Roboetica. Persone, macchine e salute.” Era dunque da molto tempo che si parlava di questa questione, perché – come sottolineato da Francesco – se “da un lato lo sviluppo tecnologico ci ha permesso di risolvere problemi fino a pochi anni fa insormontabili”, “d’altro lato sono emerse difficoltà e minacce” “insidiose”, dove “il ‘poter fare’ rischia di oscurare il ‘chi fa e il ‘per chi fa’. La tecnica non può dunque mai intendersi “come una forza” “estranea e ostile” all’uomo, ma sempre “come prodotto del suo ingegno attraverso cui provvede alle esigenze del vivere per sé e per gli altri”. Dobbiamo vedere l’intelligenza artificiale come un’intelligenza che assiste l’uomo, la persona, e può fare cose bellissime come, per esempio, migliorare molto il campo della medicina, della diagnosi soprattutto. Ci sono però molti dubbi sull’intelligenza artificiale. Ciò di cui abbiamo bisogno sono delle risposte che ad oggi ancora nessuno ci ha dato: “perché è nata l’intelligenza artificiale[6]? E’ nata veramente per aiutare l’uomo e migliorare il suo stile di vita, oppure è solo un modo per incrementare indirettamente la crescita economica?” Ciò di cui gli esperti e noi tutti siamo certi è che una macchina non potrà mai sostituire l’emozione, l’irrazionalità e l’empatia di un essere umano. Sia a livello celebrale di hardware, sia a livello mentale quindi software, gli esseri umani secondo alcuni si rivelano come animali sfocati e complessi, motivo per cui la ragione umana risulta difficilmente riconducibile al sistema classico della logica binaria che governa il mondo dei computer e dell’intelligenza artificiale. Le azioni, sono l’elemento principali che ci fanno capire che computer e essere umano non camminano di pari passo. L’uomo, le scelte degli esseri umani, hanno a che fare con diverse sfumature, coinvolgono stati emotivi, desideri, dolori o gioie e tutto ciò che è frutto di scelte razionali. L’uomo però rispetto ad una macchina è un essere irrazionale motivo per il quale viene detto che uomo e macchina mai si assomiglieranno. E’ proprio su questo pensiero che fu creata la logica Fuzzy. La logica fuzzy è quella logica che permette ai computer di essere sempre più vicini all’intelligenza umana. Si va in un certo senso a creare un modello più avanzato di macchine. Gli uomini, ma anche gli animali, imparano moltissimo attraverso la semplice osservazione, senza alcuna indicazione e accumulando un’enorme mole di conoscenza già da bambini o da cuccioli. Tutto ciò non è possibile se ad osservare è una machina. Mentre un bambino impara velocemente il nome di un oggetto e associa la figura al nome, una macchina non può farlo. Una macchina ha bisogno che le vengano indicati molti oggetti, le diverse combinazioni, i movimenti, i colori e nonostante ciò, non si avrà mai la certezza che abbia imparato a riconoscere del tutto quel determinato oggetto. Ciò che manca alla macchina è la capacità di osservare, di ascoltare. Il modo in cui oggi gli algoritmi apprendono, infatti, ha ben poco a che fare con l’intelligenza. Proprio questo è uno degli ostacoli principali all’evoluzione dell’intelligenza artificiale: è in grado di svolgere un solo compito per volta e non è in alcun modo dotata della capacità di astrazione e generalizzazione. Questo è un limite così forte che fa pensare che mai e poi mai una macchina può sostituire l’uomo. D’altra parte, oggi viviamo in un mondo in cui l’intelligenza artificiale è un elemento essenziale, nel bene e nel male. Lo stesso creatore del deep learning ha definito queste macchine stupide; stupide proprio per i motivi sopra indicati, stupide perché non riescono ad osservare, a distinguere e si basano solo su ciò che viene loro introdotto nell’hardware. Lo stesso creatore del deep learning Yann LeCun, si poneva un quesito: “come si fa capire ad una macchina quando si parla di scene di violenza di vita reale e quando di scene di violenza ritratti nei film[7]? Ciò che dobbiamo pensare è che il futuro non deve farci paura, indipendentemente se vi sarà prevalenza di macchine o di uomini. L’idea di una macchina intelligente può portare alla paura che tali macchine possano agire in modo indipendente dagli esseri umani. E’ difficile dotare le macchine intelligenti di regole precise di comportamento; osservanza dei codici etici, morali etc. Questo porta alla paura che le macchine intelligenti possano danneggiare gli esseri umani sulla base di errori o sbagliate interpretazioni. Anche se non ce ne rendiamo conto totalmente, già oggi siamo circondati di macchine intelligenti che ci supportano in molte attività anche quotidiane della nostra vita. Altra paura tipica dell’intelligenza artificiale, è che le innovazioni fornite dalla creazione di macchine intelligenti, possano togliere lavoro agli esseri umani. In realtà, da ricerche statistiche fatte, l’intelligenza artificiale, almeno per il momento ha creato più posti di lavoro rispetto a quelli eliminati. Oggi che l’IA si focalizza su macchine intelligenti che assistono gli esseri umani, la perdita dei posti di lavoro preoccupa meno di quando si pensava di creare macchine che andassero a sostituire totalmente l’uomo. Rischi certi si sono avuti in riferimento alle auto[8] che guidano senza conducente. Auto che già a Dubai sono in circolo da qualche anno, ma che nel 2018, da diversi test effettuati, si ha avuto esito negativo. Già nel 2018, infatti, si sono verificati diversi incidenti mortali durante i test effettuati sulle auto controllate da intelligenza artificiale. Un altro rischio dell’applicazione dell’intelligenza artificiale è legato alle elezioni politiche, i cui risultati potrebbero essere facilmente influenzati attraverso i “bot”, dei software addestrati a utilizzare i social media come fossero persone vere. Anche i “deep fake” ovvero i video fasulli creati tramite intelligenza artificiale rappresentano uno delle tante insidie nascoste di questa potente tecnologia. Molto spesso, infatti, questi video sono talmente realistici e ben fatti da sembrare veri. L’ultimo rischio da non sottovalutare è quello legato alle discriminazioni di razza e genere che, come emerso da diversi studi, sono intrinseche negli algoritmi su cui si fonda l’intelligenza artificiale. Se venisse utilizzata sistematicamente in ambito lavorativo, questa tecnologia potrebbe infatti creare diversi problemi, per esempio nella selezione del personale. Per spiegare ciò, è opportuno entrare nella nostra quotidianità e porre maggior attenzione ai social network. Facebook, Twitter e Instagram si sono rivelati piuttosto efficaci per la promozione di prodotti e servizi. Le piattaforme sanno chi siamo, cosa ci piace. E sono incredibilmente efficaci nell’indovinare ciò a cui pensiamo. Questa è una vera e propria minaccia in quanto guardando l’altra faccia della medaglia, potremmo sentirci come vigilati, sorvegliati in ogni nostro movimento. Inoltre attraverso questi strumenti, si ha molto più facilmente la diffusione di atti di bullismo, di minacce, di video pubblicati su internet violando quindi la privacy della persona. Ecco perché bisogna guardare entrambi i lati della medaglia:
- Da un lato macchine che promuovono lo sviluppo, l’occupazione e la crescita economica;
- Dall’altro macchine che minacciano l’essere umano;
Note
[2] All’art. 14 della CEDU corrisponde l’art. 21 (non discriminazione) della Carta dei diritti fondamentali dell’Unione europea, proclamata a Nizza il 7 dicembre 2000 e adattata a Strasburgo il 12 dicembre 2007, che dispone:« È vietata qualsiasi forma di discriminazione fondata, in particolare, sul sesso, la razza, il colore della pelle o l’origine etnica o sociale, le caratteristiche genetiche, la lingua, la religione o le convinzioni personali, le opinioni politiche o di qualsiasi altra natura, l’appartenenza ad una minoranza nazionale, il patrimonio, la nascita, gli handicap, l’età o le tendenze sessuali.2. Nell’ambito d’applicazione del Trattato che istituisce la Comunità europea e del Trattato sull’Unione europea è vietata qualsiasi discriminazione fondata sulla cittadinanza, fatte salve le disposizioni particolari contenute nei trattati stessi. In compenso, la Corte Edu ha precisato che l’art. 14 CEDU può essere chiamato in causa anche in mancanza di una specifica violazione delle norme convenzionali a carattere sostanziale ed, in tale misura, possiede una portata autonoma, ma non può trovare applicazione se i fatti della controversia non rientrano nel campo di applicazione di almeno una o più delle suddette norme. Per discriminazione — secondo la giurisprudenza convenzionale — si intende il fatto di trattare in maniera diversa, senza giustificazione oggettiva e ragionevole, persone che si trovano, in un determinato campo, in situazioni comparabili. Ai fini di tale disposizione, una distinzione è discriminatoria quando «manchi di una giustificazione oggettiva e ragionevole», «quando non persegua un fine legittimo» ovvero qualora, comunque, non sussista «un rapporto di ragionevole proporzionalità tra i mezzi impiegati ed il fine perseguito. In altri termini, il concetto di discriminazione ingloba, di solito, i casi in cui un individuo o un gruppo si vede trattato meno bene di un altro, senza valida giustificazione, anche se la Convenzione non richiede il trattamento più favorevole. Infatti, l’articolo 14 non impedisce una disparità di trattamento se essa si fonda su una valutazione oggettiva di circostanze di fatto fondamentalmente diverse e se, ispirandosi all’interesse pubblico, essa garantisce «un giusto equilibrio tra la salvaguardia degli interessi della comunità e il rispetto dei diritti e delle libertà sanciti dalla Convenzione».
[3] www.giustiziapredditiva.it
[6] L. Viola Giustizia predittiva e interpretazione della legge con modelli matematici, Diritto Avanzato Editore 2019 “Ci sono risultati impressionanti della capacità che ha l’uomo insieme a questi algoritmi di poter interpretare, per esempio, le immagini mediche. La stessa opportunità può dare nel mondo del lavoro: più sicurezza, in generale, negli scambi, nei rapporti umani. Quindi è un dono per l’umanità la possibilità di usare questo tipo di tecnologia per migliorare la qualità della vita, che quindi deve essere fatta dall’uomo per l’uomo.”
Scrivi un commento
Accedi per poter inserire un commento