IA ed Etica: casi di studio su un equilibrio necessario

L’intelligenza artificiale (IA) ha trasformato il modo in cui lavoriamo, comunichiamo e risolviamo problemi, ma necessita un equilibrio con l’etica.

Viviamo in un’epoca in cui l’intelligenza artificiale (IA) ha trasformato il modo in cui lavoriamo, comunichiamo e risolviamo problemi. Dai sistemi di guida autonoma ai software diagnostici per la medicina, le applicazioni dell’IA promettono efficienza e innovazione. Tuttavia, questa straordinaria tecnologia presenta rischi significativi, che impongono un confronto etico urgente e sistematico. Il progresso tecnologico, se privo di un ancoraggio valoriale, rischia di compromettere diritti fondamentali e valori sociali condivisi. Per approfondire i temi dell’intelligenza artificiale, abbiamo organizzato il “Master in Intelligenza artificiale per avvocati e imprese – Come utilizzare l’AI generativa per un vantaggio competitivo nel settore legale”

Indice

1. Il potenziale dell’IA e le sfide etiche


L’IA offre opportunità straordinarie. I sistemi di analisi avanzata possono migliorare la qualità delle decisioni in settori critici come la sanità, la giustizia e la gestione delle risorse. Nella sanità, ad esempio, l’IA è già in grado di rilevare patologie in fase precoce, aumentando le probabilità di trattamento efficace. Nella giustizia, potrebbe essere utilizzata per analizzare grandi quantità di dati giurisprudenziali e fornire supporto nella scrittura di sentenze.
Tuttavia, l’utilizzo dell’IA non è privo di rischi. Uno dei problemi più gravi è quello dei bias algoritmici: gli algoritmi spesso riflettono i pregiudizi contenuti nei dati su cui vengono addestrati. Un esempio noto è il “sistema COMPAS[1], utilizzato negli Stati Uniti per valutare il rischio di recidiva dei detenuti, che ha dimostrato pregiudizi razziali significativi. Altri rischi includono violazioni della privacy attraverso l’uso indiscriminato di tecnologie di sorveglianza, come il riconoscimento facciale, e la crescente dipendenza da sistemi automatizzati, che potrebbe ridurre la capacità umana di esercitare un controllo consapevole. Il volume “Il Regolamento Europeo sull’intelligenza artificiale” curato da Giuseppe Cassano ed Enzo Maria Tripodi si propone di rispondere proprio a queste sfide, offrendo ai professionisti del diritto un quadro completo e aggiornato delle nuove responsabilità giuridiche legate all’uso dell’Intelligenza Artificiale.

FORMATO CARTACEO

Il Regolamento Europeo sull’Intelligenza Artificiale

Con la diffusione inarrestabile dell’Intelligenza Artificiale nella quotidianità, gli operatori del diritto sono chiamati a interrogarsi sulla capacità dell’attuale tessuto normativo – nazionale, europeo e internazionale – di reggere la forza d’urto dell’IA garantendo al tempo stesso la tutela dei diritti fondamentali a singoli e collettività o, piuttosto, sulla indispensabilità di un nuovo approccio normativo.Il Legislatore europeo è intervenuto dettando la nuova normativa dell’AI ACT, il Regolamento n. 1689/2024, che si muove lungo più direttrici: raggiungere un mercato unico dell’IA, aumentare la fiducia dei consociati, prevenire e mitigarne i rischi e, infine, sostenere anche l’innovazione della medesima IA. In un contesto di così ampio respiro, e in continuo divenire, qual è il ruolo del giurista?Il volume offre al lettore un primo strumento organico approfondito ed esaustivo per mettere a fuoco l’oggetto delle questioni e la soluzione alle stesse come poste dalla normativaeurounionale, dallo stato dell’arte tecnico e giuridico alle problematiche in campo: la proprietà intellettuale, le pratiche di IA proibite, il rapporto con il GDPR e la compliance per l’IA in base al rischio, i nuovi obblighi a carico di imprese, fornitori e utenti. Giuseppe CassanoDirettore del Dipartimento di Scienze Giuridiche della European School of Economics di Roma e Milano, ha insegnato Istituzioni di Diritto Privato presso l’Università Luiss di Roma. Avvocato cassazionista, studioso dei diritti della persona, del diritto di famiglia, della responsabilità civile e del diritto di Internet, ha pubblicato numerosissimi contributi in tema, fra volumi, trattati, voci enciclopediche, note e saggi.Enzo Maria TripodiGiurista specializzato nella contrattua listica d’impresa, nella disciplina della distribuzione commerciale, nel diritto delle nuove tecnologie e della privacy e la tutela dei consumatori. Già docente presso la LUISS Business School e professore a contratto di Diritto Privato presso la facoltà di Economia della Luiss Guido Carli di Roma. Ha insegnato in numerosi Master post-laurea ed è autore di numerose pubblicazioni con le più importanti case editrici. 

Giuseppe Cassano, Enzo Maria Tripodi | Maggioli Editore 2024

2. Casi di studio: successi e fallimenti


La storia dell’IA è costellata sia di successi che di fallimenti. Tra i successi spicca il progetto AI for Good promosso dalle Nazioni Unite, che utilizza l’IA per affrontare problemi globali come la povertà, il cambiamento climatico e l’accesso alla salute. Questo esempio dimostra come, quando ben indirizzata, l’IA possa rappresentare un potente strumento per il progresso sociale.
D’altra parte, i fallimenti come quello del “sistema COMPAS[2] ci ricordano quanto sia importante integrare un’analisi etica nei processi di sviluppo tecnologico. Senza un controllo attento, l’IA può perpetuare o addirittura amplificare le disuguaglianze esistenti.

3. L’etica come bussola: il principio di Ethics by Design


L’intelligenza artificiale ci confronta con inedite sfide etiche. Dagli interrogativi filosofici alla normativa europea, analizziamo come armonizzare innovazione e valori umani. L’approccio della “Ethics by Design[3] potrebbe rappresentare la soluzione per sviluppare sistemi AI in linea con i principi etici, mentre ci prepariamo – o temiamo – l’arrivo di intelligenze artificiali capaci di coscienza.
Una strategia promettente per affrontare i rischi etici dell’IA è il principio di Ethics by Design. Questo metodo prevede che i valori etici siano integrati sin dalle prime fasi della progettazione di sistemi di IA. Ciò significa sviluppare algoritmi e processi che rispettino principi fondamentali come la trasparenza, l’equità e l’inclusività.
L’applicazione pratica di Ethics by Design richiede tre passi fondamentali:

  • Gestione dei dati: utilizzare set di dati privi di bias sistematici, rappresentativi della diversità umana.
  • Progettazione degli algoritmi: creare modelli capaci di adattarsi a contesti diversi e minimizzare impatti negativi.
  • Monitoraggio continuo: effettuare valutazioni periodiche dell’impatto etico dei sistemi, anche dopo la loro implementazione.

Potrebbero utilizzarti anche:

4. Una proposta innovativa: un framework etico universale


Per affrontare le sfide globali dell’IA, potrebbe essere utile sviluppare un framework etico universale, che fornisca linee guida comuni a sviluppatori, aziende e governi. Questo framework dovrebbe includere:

  • la creazione di comitati etici multidisciplinari per valutare l’impatto dei progetti di IA;
  • l’introduzione di certificazioni etiche che attestino il rispetto di standard elevati da parte delle aziende tecnologiche;
  • la promozione di corsi e formazione sull’etica dell’IA per i professionisti del settore.

5. Conclusioni: verso un futuro sostenibile per l’IA


L’intelligenza artificiale non è intrinsecamente buona o cattiva: è uno strumento, e il modo in cui lo utilizziamo determinerà il suo impatto sulla società. È responsabilità della comunità scientifica, delle aziende e dei governi garantire che l’IA venga sviluppata e utilizzata in modo etico, con un’attenzione particolare alla protezione dei diritti fondamentali e all’utilizzo che ne faranno le future generazioni.
Solo integrando l’etica come parte centrale dello sviluppo tecnologico potremo garantire che il progresso dell’IA contribuisca a un futuro più equo, inclusivo e sostenibile. L’equilibrio tra innovazione e responsabilità non è solo necessario: è indispensabile per preservare i valori fondamentali della nostra società.

Formazione in materia


Per approfondire i temi dell’intelligenza artificiale, abbiamo organizzato il “Master in Intelligenza artificiale per avvocati e imprese – Come utilizzare l’AI generativa per un vantaggio competitivo nel settore legale”
Il Master in Intelligenza Artificiale per Avvocati e Imprese è un percorso formativo avanzato, progettato per fornire a professionisti del settore legale e imprese le conoscenze e le competenze necessarie per orientarsi e utilizzare al meglio le potenzialità dell’AI generativa. Attraverso un approccio pratico, il corso illustrerà i principali tool di AI in uso e mostrerà ai partecipanti come integrare l’AI nei processi lavorativi, migliorando l’efficienza, riducendo i costi e innovando i servizi offerti.Il corso ha una durata totale di 21 ore, articolate in sette incontri da tre ore ciascuno, e include dimostrazioni pratiche in cui verranno illustrate tecniche per la creazione di Prompt efficaci e un framework per la creazione di un GPT personalizzato, focalizzato sulle esigenze del settore legale.
>>>Per info ed iscrizioni<<<

Note


[1] Programma COMPAS (Correctional offender management profiling for alternative sanctions) di proprietà della società Northpointe (ora Equivant): strumento di valutazione concepito, da un lato, per prevedere il rischio di recidiva, dall’altro, per identificare i bisogni dell’individuo in aree quali occupazione, disponibilità di alloggio ed abuso di sostanze stupefacenti. L’algoritmo elabora i dati ottenuti dal fascicolo dell’imputato e dalle risposte fornite nel colloquio con lo stesso. Per quanto riguarda la valutazione del rischio, l’elaborato consiste in un grafico di tre barre che rappresentano in una scala da 1 a 10 il rischio di recidiva preprocessuale, il rischio di recidiva generale ed il rischio di recidiva violenta. I punteggi di rischio sono volti a predire la probabilità generale che gli individui con una storia criminosa simile siano più o meno propensi a commettere un nuovo reato una volta tornati in libertà. L’aspetto da tener presente è che COMPAS non prevede il rischio di recidiva individuale dell’imputato, bensì elabora la previsione comparando le informazioni ottenute dal singolo con quelle relative ad un gruppo di individui con caratteristiche assimilabili.
[2] Nel caso State v. Loomis (2016), la Corte Suprema del Wisconsin ha affrontato l’uso del software predittivo COMPAS nella determinazione della pena. Loomis, condannato a sei anni di reclusione per vari reati, aveva contestato l’impiego di COMPAS, sostenendo che violasse il diritto al giusto processo, poiché i suoi algoritmi erano opachi e non adattati all’individualità dell’imputato. La Corte ha stabilito che l’uso di COMPAS è legittimo, purché non sia determinante nella decisione della pena e venga bilanciato con altri fattori. Sono state definite restrizioni per evitare discriminazioni o un eccessivo affidamento ai risultati algoritmici, ribadendo che COMPAS non può stabilire né la severità della pena né la necessità di incarcerazione, ma solo supportare valutazioni sul rischio di recidiva. La sentenza, pur confermando la pena inflitta, ha enfatizzato la necessità di un utilizzo prudente di strumenti basati su intelligenza artificiale, evitando decisioni automatizzate e rispettando il principio di equità.
[3] L’etica gioca un ruolo centrale nel dibattito sull’intelligenza artificiale, evidenziando sfide sia normative che tecniche. Sebbene i valori e i principi etici possano influenzare la creazione di norme giuridiche, resta complessa la progettazione di sistemi AIBS, in inglese AIBS, un acronimo per Artificial Intelligence Based Systemche, incorporino e rispettino tali valori. Questa difficoltà deriva non solo da limiti tecnici, ma anche dall’incapacità delle AIBS di provare empatia o di “sentire” le conseguenze delle proprie decisioni, agendo in una realtà virtuale separata dal mondo umano.
In attesa di sistemi AIBS dotati di coscienza, o sperando di evitarli, è fondamentale progettare sistemi che approssimino comportamenti etici. Ciò implica due obiettivi: garantire che il loro utilizzo non comporti rischi inaccettabili e integrare principi etici direttamente nel loro design, piuttosto che limitarli a controlli successivi. Questo approccio, noto come “ethics by design,” è stato approfondito da Veluwenkamp e van den Hoven.

Manuela D’Andrea

Scrivi un commento

Accedi per poter inserire un commento