Le allucinazioni dell’IA e le tutele del GDPR

Scarica PDF Stampa

Facciamo una ricerca sul web e ci viene restituito un risultato, che riconosciamo sbagliato.
Chiediamo a ChatGPT di elaborare un testo, e scopriamo essere pieno di imprecisioni ed errori.
Tutti questi sono fenomeni comuni e quotidiani, che spesso toccano pesantemente i diritti delle persone, attraverso la produzione di informazioni false, sbagliate e fuorvianti.
In questo articolo proviamo a capire come ciò avvenga, perché e quali sono gli strumenti a nostra tutela.

Per esplorare il tema delle AI, consigliamo il volume Ai Act -Principi, regole ed applicazioni pratiche del Reg. UE 1689/2024.
Per rispondere a queste sfide abbiamo organizzato i corsi online Legal Prompting – Corso Base, giunto alla sua terza edizione, e Legal Prompting – Corso Avanzato, nonché il corso di formazione “AI ACT e GDPR: come garantire la conformità per imprese e organizzazioni”

Indice

AI hallucinations

Gli attuali sistemi AI (basati su Machine Learning e Large Language Models) sono concepiti e programmati per dare a tutti i costi una risposta e, più precisamente, la risposta più probabile, non necessariamente quella giusta, corretta o vera.
È bene chiarire il concetto più in profondità, ovvero che “la risposta più probabile” non significa – né sotto il profilo logico, né sotto quello sintattico, né in senso di programmazione informatica o di concezione dell’algoritmo – necessariamente che sia anche “quella corretta”, ma solo che – date delle probabilità assunte ex ante e ingenerale per categorie generiche e omnicomprensive – la risposta sia la più probabile tra quelle possibili ricercate all’interno di un dataset di informazioni finito e limitato a quanto l’AI ha accesso.
Con una simile impostazione si possono facilmente verificare le cosiddette “allucinazioni” ossia output (risposte) che non sono basati su una verità oggettiva e che sono dunque un errore – o meglio – un dato sbagliato
Statistiche recenti riportate dal New York Times indicano che le risposte delle AI afflitte da allucinazioni variano dal 3 al 27%.
Se un errore inferiore al 10% può sembrare comunque basso, proviamo a pensare a che significa non tanto che una risposta su dieci sia sbagliata (peggio una su 3) quando dato un testo complessivo richiesto ad una AI generativa (diciamo un testo di 10mila parole) oltre il 10% di questo testo (oltre 1000 parole nel caso considerato) si riferiscono a informazioni e contengono dati sbagliati.
Immaginiamo di chiedere ad una Ai di generare un profilo su un candidato per una posizione professionale, per una anamnesi medica, per un articolo di giornale o per un profilo penale… e consideriamo poi che anche solo il 5% (senza finire al 25%) di questo profilo sia falso.
E adesso immaginiamo che – in tutti questi contesti – il profilo di cui parliamo sia il vostro.
Sin qui il dato “falso”.
Adesso prendiamo in considerazione sia qualitativamente che quantitativamente il testo di cui stiamo parlando.
Come da esperienza comune – ad esempio – la maggior parte dei siti e dei media di informazione più accreditati (dal NYTimes ai siti delle agenzie di stampa, dalla Treccani al telegiornale) non autorizzano i sistemi di Ai all’uso dei propri contenuti per gli addestramenti di AI (siano essi Machine Learningo Large Language Models).
Questo significa che il restante diciamo 90% del testo viene elaborato sulla base di dati e informazioni, e sulla sintassi e il modello di scrittura, che stanno a metà tra Wikipedia e Facebook, e qualche blog amatoriale.
Se a tutto questo associamo che – in assenza di ulteriori variabili – l’IA non ha modo di scegliere arbitrariamente o di discriminare altrimenti tra i 100 profili social di omonimi, e deve trarre “una media” delle informazioni trovate, possiamo comprendere di quale attendibilità stiamo parlando in concreto.
Per esplorare il tema delle AI, consigliamo il volume Ai Act -Principi, regole ed applicazioni pratiche del Reg. UE 1689/2024

FORMATO CARTACEO

Ai Act

Quale impatto avrà l’intelligenza artificiale sulla nostra società e soprattutto sul diritto? Il testo esplora questa complessa intersezione, offrendo una guida dettagliata e completa.L’opera approfondisce l’evoluzione dell’AI, dalle sue umili origini nei primi sistemi esperti alle avanzate reti neurali e all’AI generativa di oggi.Analizza in modo critico il panorama normativo europeo, come il recente Regolamento n. 1689/2024, delineando il percorso legislativo e le regolamentazioni che cercano di gestire e governare questa tecnologia in rapida evoluzione.Gli autori affrontano temi fondamentali come l’etica dell’AI, la responsabilità legale, la sicurezza dei dati e la protezione della privacy.Il libro non si limita alla teoria: esplora anche le applicazioni pratiche dell’AI in vari settori, tra cui la giustizia, il settore finanziario, la pubblica amministrazione e la medicina.Attraverso casi di studio e analisi dettagliate, il libro mostra come l’AI stia trasformando questi ambiti e quali questioni giuridiche stiano emergendo.Inoltre, viene esaminato l’impatto dell’AI sul mondo del lavoro, evidenziando come l’automazione e le nuove tecnologie stiano cambiando le dinamiche lavorative e quali siano le implicazioni legali di queste trasformazioni.L’opera vuole essere una lettura essenziale per avvocati, giuristi, professionisti IT e tutti coloro che desiderano comprendere le complesse relazioni tra tecnologia e diritto, offrendo una visione completa e aggiornata, ricca di analisi critiche e riflessioni pratiche, per navigare nel futuro della tecnologia e del diritto con consapevolezza e competenza.Michele IaselliAvvocato, docente di Diritto digitale e tutela dei dati alla LUISS e di informatica giuridica all’Università di Cassino. Direttore del comitato scientifico di ANDIP e coordinatore del comitato scientifico di Feder-privacy. Funzionario del Ministero della Difesa ed esperto dell’Ufficio Generale Innovazione Difesa, è membro del Comitato di presidenza dell’ENIA (Ente Nazionale Intelligenza Artificiale).

Michele Iaselli | Maggioli Editore 2024

2. Le tutele del GDPR

Questa associazione erronea tra persona e dato di output fa scattare il sistema di allarme e di tutela della GDPR sotto diversi profili. Dei tanti diritti di tutela e autotutela assumono un ruolo centrale il diritto di accesso (Art.15) e il diritto di rettifica (Art.16).
L’esattezza dei dati personali è un principio consolidato da decenni nella privacy e racchiuso nell’art. 5.1d) GDPR.
Tale principio non prevede solo l’esattezza ma anche la possibilità di aggiornamento del dato.
In questo contesto è bene ricordare che il GDPR – per fortuna – è una normativa che non solo copre tutti i cittadini in tutti casi di gestione dati nel territorio dell’Unione Europea, ma impone precise regole di adeguamento anche in quei casi – sempre meno – di società del web che ad esempio on hanno dovessero avere una sede nell’Unione ma devono adeguarsi per il solo fatto di rendere nell’Unione disponibili i propri servizi e prodotti (ad esempio OpenIA con ChatGPT).
L’art. 15 GDPR corrisponde al diritto dell’interessato di ottenere – tra le altre cose – dal titolare la conferma del trattamento dei suoi dati, l’accesso agli stessi e la modalità di trattamento. L’accesso è dunque anche una manifestazione del principio di trasparenza (artt. 5 e 12 GDPR).
L’art. 16 GDPR, invece, riguarda il diritto di ottenere la rettifica dei dati personali inesatti.
In proposito va sottolineato e ricordato con forza e chiarezza che l’aggiornamento e la completezza sono una facoltà dell’interessato ma la rettifica è un obbligo per il titolare ogni volta che ha o dovrebbe avere contezza che sta trattando dati inesatti.
L’importanza di queste norme diviene ancora più rilevante se pensiamo che questi output sono totalmente automatizzati e che risulta difficile anche per il titolare del trattamento ricostruire la procedura seguita dall’AI per generare un determinato output.
OpenAI ad esempio ha negato l’accesso e la rettifica dei dati in alcuni casi sostenendo l’impossibilità di correggerli. La soluzione proposta sarebbe stata quella di applicare un filtro ai prompt che, però, impedirebbe a ChatGPT di filtrare qualsiasi informazione relativa all’interessato.
Google ad esempio consente accesso e rettifica dati “sino a un certo punto” – ovvero quelli detenuti in maniera diretta e funzionale – ad esempio quelli di registrazione dell’utente ai suoi servizi – dichiarando con chiarezza che “il dato di ricerca quando diventa metadato” (praticamente sempre) non è accessibile nemmeno a Google.

3. Il black box problem

Al fine di comprendere le difficoltà di esercizio dei diritti degli interessati è utile tenere in mente un grande limite tecnico dell’AI; il c.d. “black box problem” ossia l’impossibilità di comprendere realmente come un sistema di deep learning sia giunto ad un determinato output.
La normativa privacy richiede, soprattutto nei processi automatizzati, che il titolare sia in grado di fornire all’interessato “informazioni significative sulla logica utilizzata, nonché l’importanza e le conseguenze previste di tale trattamento per l’interessato” (Art. 15.1(h) GDPR).
Se è già difficile (se non in certi casi impossibile) per un tecnico AI ricostruire il percorso logico seguito dall’AI, sarà ancora più faticoso spiegarne il funzionamento in modo chiaro e trasparente all’interessato.
Questo limite tecnico – che esiste, ed è insito nel sistema “così come ad oggi concepito e programmato” – non può essere una giustificazione affinché il titolare del trattamento possa rifiutare una richiesta di accesso dell’interessato. Tale impostazione vanificherebbe l’applicabilità degli artt. 15 e 22 GDPR così come tecnicamente il diritto di rettifica (Art. 16 GDPR).
Il punto, a monte, è che la normativa è arrivata dopo, come spesso accade, e – in parte – le grandi aziende si sono mosse “nel vulnus” di una precedente normativa frammentata e spesso poco chiara.
Un output sbagliato potrebbe essere il risultato di uno nuovo elemento introdotto nel prompt su cui l’AI non era stata addestrata o l’utilizzo di un dato erroneo.
L’AI infatti è addestrata su dati che le vengono forniti e sulla sperimentazione di possibili combinazioni degli stessi (e appare poco credibile che noi siamo in grado e che sia economicamente sostenibile – in termini di programmazione e di risorse di calcolo – di prevedere tutti i possibili scenari da insegnare).
Il dibattito tra quantità e qualità del dato diviene rilevante soprattutto se pensiamo al principio del “privacy by design and by default”.
Tale principio ci porterebbe a favorire la qualità del dato e diviene pertanto cruciale nella progettazione della piattaforma AI essere in grado di prevedere una modalità della rettifica dei dati non solo in un’ottica di riduzione delle allucinazioni ma soprattutto in vista di uno sfruttamento dell’AI in settori più impattanti sui diritti degli interessati.

Formazione in materia per professionisti


Per rispondere a queste sfide abbiamo organizzato i corsi online Legal Prompting – Corso Base, giunto alla sua terza edizione, e Legal Prompting – Corso Avanzato.
Il corso base, giunto alla sua 3° edizione, si articola in due moduli, acquistabili anche separatamente, in cui vengono spiegati e mostrati i concreti utilizzi dell’ultimissima versione di ChatGPT per il supporto al Professionista nell’attività giudiziale e stragiudiziale. Precisamente, il primo modulo mira a fornire una comprensione fondamentale di ChatGPT e delle sue logiche di base, mentre il secondo modulo è progettato per dotare gli avvocati di competenze avanzate nell’uso di ChatGPT per affrontare le sfide specifiche dell’ambiente giudiziale.
>>>Per info ed iscrizioni<<<
Il corso avanzato, fornisce una guida avanzata all’uso dell’Intelligenza Artificiale per ottimizzare la gestione delle attività quotidiane dello studio legale. Il primo modulo illustra come ChatGPT possa diventare un potente alleato: attraverso tecniche di prompt engineering i partecipanti impareranno a creare e affinare prompt specifici per ottenere risposte precise e ad utilizzare pattern codificati in grado di specializzare ulteriormente i prompt e adattarli a varie applicazioni legali, mentre nel secondo modulo i partecipanti scopriranno come utilizzare ChatGPT integrandola con altri strumenti utili alla collaborazione e alla gestione delle attività all’interno dello studio. La seconda parte del modulo verterà in particolare su Copilot, mostrando i modi in cui può rivoluzionare la scrittura e la redazione degli atti legali, nonché sul confronto con Gemini, analizzando i pro e i contro di ciascuno strumento.
>>>Per info ed iscrizioni<<<

AI ACT e GDPR: come garantire la conformità per imprese e organizzazioni
Il percorso formativo è rivolto ai giuristi, alle imprese e a tutti i professionisti coinvolti nei processi con l’obiettivo di approfondire i profili pratici per garantire la conformità all’AI ACT e GDPR alle aziende e organizzazioni che sviluppano o utilizzano sistemi di intelligenza artificiale.
La prima sessione mira a fornire una panoramica generale dell’AI e introdurre i partecipanti ai profili normativi ed etici connessi all’AI ACT.
La seconda sessione si concentra sui profili pratici degli adeguamenti richiesti: gli obblighi di documentazione e trasparenza, il ruolo del DPO e dei responsabili della conformità, la valutazione d’impatto dei sistemi AI (AI Impact Assessment) e la protezione dei dati personali. Durante questa sessione, i partecipanti prenderanno parte a un workshop pratico che prevede la simulazione di una valutazione di conformità.
La terza sessione è dedicata alla sicurezza informatica dei sistemi AI e ai modelli di responsabilità legale in caso di danni da essi causati.
>>>Per info ed iscrizioni clicca qui<<<

Michele Di Salvo

Scrivi un commento

Accedi per poter inserire un commento