L’intelligenza artificiale sta progressivamente entrando nelle pieghe del sistema giudiziario, promettendo maggiore efficienza e razionalizzazione dei procedimenti. Ma ogni passo in avanti in termini di tecnologia solleva altrettante domande in termini di diritto. La recente approvazione, da parte del Senato italiano, di un disegno di legge per l’introduzione regolamentata dell’IA nei tribunali rappresenta un momento di svolta, destinato a ridefinire l’equilibrio tra automazione e giurisdizione, tra velocità e garanzie.
Siamo davvero pronti per un giudizio algoritmico? O siamo di fronte a un pericoloso scivolamento verso una giustizia opaca, guidata da codici binari più che da codici civili? Per approfondire i temi dell’intelligenza artificiale, abbiamo organizzato il “Master in Intelligenza artificiale per avvocati e imprese – Come utilizzare l’AI generativa per un vantaggio competitivo nel settore legale”. Il volume “Il Regolamento Europeo sull’intelligenza artificiale” curato da Giuseppe Cassano ed Enzo Maria Tripodi si propone di rispondere proprio a queste sfide, offrendo ai professionisti del diritto un quadro completo e aggiornato delle nuove responsabilità giuridiche legate all’uso dell’Intelligenza Artificiale.
Indice
1. Il DDL per l’AI nei tribunali all’esame: una struttura ambiziosa
Il disegno di legge recentemente approvato prevede l’integrazione dell’IA all’interno delle attività giudiziarie, articolandone l’impiego su tre piani distinti:
1. Supporto organizzativo
L’intelligenza artificiale sarà utilizzata per semplificare e ottimizzare le attività interne degli uffici giudiziari: gestione dei fascicoli, calendarizzazione delle udienze, assegnazione dei procedimenti. In sintesi, un’IA segretario/assistente, che dovrebbe consentire un uso più razionale delle risorse umane e materiali.
2. Supporto alla ricerca giuridica
L’IA sarà impiegata per agevolare l’attività di ricerca di precedenti giurisprudenziali, massime, dottrina, atti normativi e pareri. Si punta a creare strumenti di analisi semantica in grado di fornire risultati rilevanti, riducendo i tempi di consultazione e ampliando l’orizzonte interpretativo dei magistrati.
3. Esclusione delle decisioni automatizzate
Il punto nevralgico del DDL è il limite espresso: l’IA non può prendere decisioni giudiziarie. La valutazione delle prove, l’interpretazione delle norme, la formazione del convincimento rimangono esclusiva prerogativa del giudice umano. L’algoritmo è uno strumento, non un sostituto. Il volume “Il Regolamento Europeo sull’intelligenza artificiale” curato da Giuseppe Cassano ed Enzo Maria Tripodi si propone di rispondere proprio a queste sfide, offrendo ai professionisti del diritto un quadro completo e aggiornato delle nuove responsabilità giuridiche legate all’uso dell’Intelligenza Artificiale
Il Regolamento Europeo sull’Intelligenza Artificiale
Con la diffusione inarrestabile dell’Intelligenza Artificiale nella quotidianità, gli operatori del diritto sono chiamati a interrogarsi sulla capacità dell’attuale tessuto normativo – nazionale, europeo e internazionale – di reggere la forza d’urto dell’IA garantendo al tempo stesso la tutela dei diritti fondamentali a singoli e collettività o, piuttosto, sulla indispensabilità di un nuovo approccio normativo.Il Legislatore europeo è intervenuto dettando la nuova normativa dell’AI ACT, il Regolamento n. 1689/2024, che si muove lungo più direttrici: raggiungere un mercato unico dell’IA, aumentare la fiducia dei consociati, prevenire e mitigarne i rischi e, infine, sostenere anche l’innovazione della medesima IA. In un contesto di così ampio respiro, e in continuo divenire, qual è il ruolo del giurista?Il volume offre al lettore un primo strumento organico approfondito ed esaustivo per mettere a fuoco l’oggetto delle questioni e la soluzione alle stesse come poste dalla normativaeurounionale, dallo stato dell’arte tecnico e giuridico alle problematiche in campo: la proprietà intellettuale, le pratiche di IA proibite, il rapporto con il GDPR e la compliance per l’IA in base al rischio, i nuovi obblighi a carico di imprese, fornitori e utenti. Giuseppe CassanoDirettore del Dipartimento di Scienze Giuridiche della European School of Economics di Roma e Milano, ha insegnato Istituzioni di Diritto Privato presso l’Università Luiss di Roma. Avvocato cassazionista, studioso dei diritti della persona, del diritto di famiglia, della responsabilità civile e del diritto di Internet, ha pubblicato numerosissimi contributi in tema, fra volumi, trattati, voci enciclopediche, note e saggi.Enzo Maria TripodiGiurista specializzato nella contrattua listica d’impresa, nella disciplina della distribuzione commerciale, nel diritto delle nuove tecnologie e della privacy e la tutela dei consumatori. Già docente presso la LUISS Business School e professore a contratto di Diritto Privato presso la facoltà di Economia della Luiss Guido Carli di Roma. Ha insegnato in numerosi Master post-laurea ed è autore di numerose pubblicazioni con le più importanti case editrici.
Giuseppe Cassano, Enzo Maria Tripodi | Maggioli Editore 2024
89.30 €
2. Il nodo della supervisione governativa
Elemento che ha fatto molto discutere è l’attribuzione al Governo – e non al Consiglio Superiore della Magistratura – di un potere di indirizzo, controllo e regolamentazione nell’implementazione dell’IA nei tribunali.
In una democrazia fondata sulla separazione dei poteri, l’idea che l’Esecutivo possa intervenire in modo così incisivo nel funzionamento della giurisdizione solleva dubbi di legittimità costituzionale. Il rischio? Un’ingerenza non solo tecnica ma anche politica, che potrebbe condizionare – o peggio orientare – le scelte operative del potere giudiziario.
3. Le promesse dell’IA per la giustizia
Nonostante le perplessità, l’introduzione dell’intelligenza artificiale nella macchina della giustizia porta con sé promesse concrete, e in parte già visibili in contesti comparati:
- Efficienza e velocità: L’automazione delle attività di back-office (depositi, notifiche, gestione del ruolo) potrebbe alleggerire significativamente il carico burocratico e ridurre l’arretrato.
- Decisioni più informate: L’IA può supportare il giudice nel reperimento di precedenti pertinenti, anche di sezioni meno note, aumentando l’uniformità e la prevedibilità delle decisioni.
- Giustizia predittiva? Nei sistemi common law, alcuni strumenti sono già in grado di calcolare le probabilità di successo di un’azione sulla base dei precedenti. In Italia si parla di sperimentazioni simili per orientare le strategie processuali, ma si tratta di strumenti di ausilio, non oracoli digitali.
- Accesso semplificato alla giustizia: Per cittadini e avvocati, l’IA potrebbe offrire risposte automatizzate su iter procedurali, modelli di atti e gestione documentale. Un sistema di assistenza “smart”, che riduce il gap informativo.
Potrebbero interessarti anche:
4. I rischi sistemici e giuridici
Non è però tutto oro quello che luccica in linguaggio Python. Le criticità sono numerose e tutt’altro che trascurabili:
- Bias algoritmici: Gli algoritmi sono addestrati su dati storici: se quei dati incorporano discriminazioni (di genere, etnia, orientamento politico, ecc.), il rischio è che l’IA le perpetui o amplifichi, presentandole come scelte “neutrali”.
- Opacity by design: Molti algoritmi, soprattutto quelli basati su reti neurali, sono vere e proprie “black box”. Non è sempre possibile risalire alla logica sottostante a una determinata raccomandazione, compromettendo la trasparenza e la possibilità di contestazione.
- Profilazione e sorveglianza: La mole di dati processati dalle IA solleva interrogativi seri in tema di privacy, soprattutto se i sistemi dovessero incrociare dati personali, reddituali, giudiziari. Il rischio di profilazioni occulte è concreto, e richiede presidi normativi rafforzati.
- Deriva tecnocratica: Se il dato elaborato dall’algoritmo diventa il nuovo “oracolo”, si rischia una subordinazione culturale del giudice alla macchina. La giustizia non è solo coerenza logica, ma anche discrezionalità, equità, contesto. E questi elementi non si computano.
5. IA e giustizia comparata: cosa fanno gli altri Paesi?
• Francia: ha vietato espressamente la pubblicazione di dati giudiziari utilizzati per costruire modelli di giustizia predittiva, temendo derive mercificatorie e di ranking dei giudici.
• Estonia: ha sperimentato giudici digitali per controversie minori (es. multe stradali), ma in via sperimentale e con margini di impugnazione umana.
• Canada e Stati Uniti: stanno integrando AI per l’analisi del rischio di recidiva (con rischi di distorsione ben documentati, come nel caso COMPAS).
Il panorama globale mostra più cautela che entusiasmo: l’adozione dell’IA nella giustizia è, ovunque, accompagnata da meccanismi di controllo, limiti e presìdi di trasparenza.
6. Conclusione: una sfida culturale, prima che tecnologica
Il tema dell’intelligenza artificiale nei tribunali non è solo tecnico o normativo, ma profondamente culturale. Richiede una riflessione sulla funzione del giudicare, sull’autonomia della decisione giuridica, e sul confine tra calcolo e giustizia.
Regolamentare l’IA non basta: serve educare i giuristi a comprendere il funzionamento degli algoritmi, a riconoscerne i limiti, a usare con competenza e spirito critico gli strumenti digitali. Una giustizia davvero moderna non è quella che si affida agli algoritmi, ma quella che sa integrarli senza esserne schiava.
Se ben governata, l’IA potrà essere un’alleata preziosa. Ma se introdotta in modo opaco, verticistico o tecnocratico, rischia di essere il cavallo di Troia di una giustizia disumanizzata e meno controllabile.
Il futuro della giustizia digitale non è scritto nel codice sorgente, ma nelle scelte politiche, giuridiche ed etiche che sapremo compiere oggi.
Scrivi un commento
Accedi per poter inserire un commento