Il Tribunale di Firenze, Sezione Imprese, si è pronunciato su un tema di grande attualità riguardante l’uso dell’intelligenza artificiale nei procedimenti giudiziari. In particolare, con ordinanza del 14 marzo 2025, i giudici sono stati chiamati a valutare se l’utilizzo improprio di ChatGPT da parte di un difensore possa configurare la responsabilità aggravata per lite temeraria, ai sensi dell’art. 96 c.p.c.. La questione si pone in un contesto delicato, quello della tutela dei marchi e del diritto d’autore, dove la precisione delle fonti giuridiche è fondamentale per garantire un’adeguata difesa. Per approfondire il tema, ti consigliamo i corsi Maggioli Legal prompting Base e Legal prompting avanzato
Indice
1. Il caso in esame
L’ordinanza del Tribunale di Firenze trae origine da un reclamo presentato contro il sequestro di merce contraffatta. Il reclamante aveva richiesto la condanna della società soccombente per responsabilità aggravata, sostenendo che quest’ultima, nelle proprie memorie difensive, avesse riportato riferimenti giurisprudenziali errati, risultanti da una ricerca effettuata con l’intelligenza artificiale.
Secondo quanto dichiarato dal difensore della società convenuta, i riferimenti giurisprudenziali erano stati inseriti per errore da una collaboratrice dello studio, la quale aveva utilizzato ChatGPT per condurre la ricerca. Tali riferimenti, sebbene apparentemente verosimili, non corrispondevano alla realtà e nulla avevano a che fare con l’argomento oggetto di giudizio, ossia la contraffazione di merce raffigurante vignette di proprietà del reclamante.
Il reclamante ha sostenuto che l’inserimento di tali riferimenti errati fosse indice di mala fede e di un utilizzo abusivo dello strumento processuale, chiedendo così la condanna per lite temeraria.
2. Il fenomeno delle “allucinazioni” dell’intelligenza artificiale
Uno degli aspetti centrali della vicenda riguarda il fenomeno delle “allucinazioni” dell’intelligenza artificiale, ossia l’elaborazione di informazioni inesistenti ma presentate come veritiere. In pratica, l’IA può generare riferimenti giuridici inesistenti e persino confermarli in seguito a nuove interrogazioni.
Nel caso in questione, ChatGPT avrebbe inventato numeri riferibili a presunte sentenze della Corte di Cassazione relative all’acquisto soggettivo di merce contraffatta, senza però alcun fondamento reale. Questo fenomeno può rappresentare un pericolo per l’attività forense, poiché l’avvocato che si affida esclusivamente alle ricerche condotte dall’intelligenza artificiale rischia di incorrere in gravi errori.
L’uso improprio di strumenti di IA nel contesto processuale, come evidenziato dal Tribunale, deve essere valutato con particolare attenzione, soprattutto in considerazione del fatto che l’attività difensiva deve sempre fondarsi su fonti affidabili e verificabili. Per approfondire sul tema, potrebbe interessarti l’articolo Le allucinazioni dell’IA e le tutele del GDPR
3. L’inapplicabilità dell’art. 96 c.p.c. al caso concreto
Il Tribunale di Firenze ha escluso l’applicabilità dell’art. 96 c.p.c., che prevede la responsabilità aggravata per lite temeraria, poiché nel caso in esame non è stata dimostrata la mala fede della parte soccombente. I giudici hanno rilevato come i riferimenti giurisprudenziali errati fossero stati riportati nelle memorie difensive a sostegno di una strategia processuale immutata sin dal primo grado.
Inoltre, è stato evidenziato che l’apparato difensivo della società convenuta si fondava sull’assenza di dolo nella vendita delle magliette raffiguranti le vignette del reclamante. Tale strategia difensiva era già nota al Tribunale e non mirava a ingannare i giudici attraverso l’uso improprio dell’intelligenza artificiale.
Un ulteriore aspetto rilevante è la mancanza di prova concreta del danno subito dal reclamante a causa dell’inserimento dei riferimenti giurisprudenziali inesistenti. L’art. 96 c.p.c. richiede, infatti, la prova dell’elemento soggettivo della mala fede o della colpa grave, oltre alla dimostrazione del danno subito e del nesso causale tra la condotta illecita e il pregiudizio.
4. Considerazioni conclusive
La decisione del Tribunale di Firenze evidenzia l’importanza di un uso responsabile degli strumenti di intelligenza artificiale da parte degli avvocati. Sebbene ChatGPT possa rappresentare un valido supporto per la ricerca e l’elaborazione degli atti processuali, la sua utilizzazione non può sostituire il controllo e la verifica delle informazioni da parte del professionista.
L’ordinanza, inoltre, sottolinea come la responsabilità aggravata ex art. 96 c.p.c. non possa essere invocata semplicemente per un uso improprio dell’IA, in assenza di dolo o colpa grave. Tuttavia, questo caso rappresenta un significativo avvertimento per il futuro, in quanto il rischio di “allucinazioni” dell’intelligenza artificiale è un fenomeno reale che può compromettere seriamente la qualità della difesa.
È evidente che l’IA debba essere considerata come uno strumento utile ma non esente da rischi, e che il suo impiego nel contesto forense richiede una costante verifica delle informazioni prodotte. La tecnologia può offrire un valido supporto, ma non può sostituire l’esperienza e la competenza del professionista.
Formazione in materia
Il corso base, giunto alla sua 3° edizione, si articola in due moduli, acquistabili anche separatamente, in cui vengono spiegati e mostrati i concreti utilizzi dell’ultimissima versione di ChatGPT per il supporto al Professionista nell’attività giudiziale e stragiudiziale. Precisamente, il primo modulo mira a fornire una comprensione fondamentale di ChatGPT e delle sue logiche di base, mentre il secondo modulo è progettato per dotare gli avvocati di competenze avanzate nell’uso di ChatGPT per affrontare le sfide specifiche dell’ambiente giudiziale.
>>>Per info ed iscrizioni<<<
Il corso avanzato, fornisce una guida avanzata all’uso dell’Intelligenza Artificiale per ottimizzare la gestione delle attività quotidiane dello studio legale. Il primo modulo illustra come ChatGPT possa diventare un potente alleato: attraverso tecniche di prompt engineering i partecipanti impareranno a creare e affinare prompt specifici per ottenere risposte precise e ad utilizzare pattern codificati in grado di specializzare ulteriormente i prompt e adattarli a varie applicazioni legali, mentre nel secondo modulo i partecipanti scopriranno come utilizzare ChatGPT integrandola con altri strumenti utili alla collaborazione e alla gestione delle attività all’interno dello studio. La seconda parte del modulo verterà in particolare su Copilot, mostrando i modi in cui può rivoluzionare la scrittura e la redazione degli atti legali, nonché sul confronto con Gemini, analizzando i pro e i contro di ciascuno strumento.
>>>Per info ed iscrizioni<<<
Scrivi un commento
Accedi per poter inserire un commento