AI e responsabilità civile per danni: la Direttiva europea

Scarica PDF Stampa

Uno dei maggiori ostacoli all’utilizzo di sistemi basati su intelligenza artificiale da parte delle imprese europee, nonché una delle più grandi sfide dal punto di vista giuridico è la questione riguardante la responsabilità civile ed il risarcimento del danno in caso di sinistro.
Immaginiamo che l’automobile che si sta guidando da sola si trovi improvvisamente davanti un bambino che attraversa incautamente la strada: il sistema programmato dall’intelligenza artificiale prevede che l’auto sterzi, ma con il rischio di travolgere i passanti che in quel momento si trovano sul marciapiede. È il caso classico di scuola, quello che si cita sempre per parlare di responsabilità civile e pensale, di colpa, dolo, nesso di causa e di tutti i principali concetti giuridici che riguardano proprio la responsabilità, ma in versione 4.0: in questo caso, a chi andrebbe attribuita la responsabilità di aver scelto di travolgere i passanti, anziché il bambino? Di chi è stata la scelta? Del conducente, che però non stava materialmente guidando, della casa produttrice, o di chi ha programmato l’algoritmo di IA?
Secondo un recente sondaggio effettuato da Ipsos Belgium e iCite per la Commissione Europea, questo tema rappresenta per il 33% delle aziende che hanno già implementato sistemi di IA uno dei tre ostacoli principali, mentre per il 43% delle imprese che ancora non sono passate all’IA, ma che hanno intenzione di farlo nei prossimi anni rappresenta il primo ostacolo in assoluto. Al rapporto con le AI abbiamo dedicato il volume “Il nuovo diritto d’autore -La tutela della proprietà intellettuale nell’era dell’intelligenza artificiale”

Indice

1. Preparazione della Direttiva: responsabilità per l’IA

Per tentare di ovviare a questa lacuna giuridica, la Commissione Europea ha varato una proposta di Direttiva sulla responsabilità per l’intelligenza artificiale (“Direttiva IA”), volta a facilitare il risarcimento del danno a coloro che abbiano subìto danni derivanti dall’impiego di sistemi di IA, che si inserisce nel più ampio quadro della legislazione europea per questa tecnologia. Mentre il Regolamento sull’intelligenza artificiale si concentra sulla regolamentazione del fenomeno, sul monitoraggio e sulla prevenzione dei danni, la Direttiva interviene a valle della realizzazione di un danno, nell’ottica che il rischio zero non esiste e non è un obiettivo ragionevolmente perseguibile, soprattutto trattandosi di tecnologia, ma con l’intento di stabilire chi dovrebbe pagare una volta che il fatto dannoso si dovesse verificare.
Secondo la Commissione europea le norme nazionali vigenti in materia di responsabilità, in particolare per colpa, non sono adatte a regolare le azioni di responsabilità per danni causati da prodotti e servizi basati sull’IA. Limitandoci all’Italia, si intravedono facilmente problematiche relative al nesso di causa, oltre a quelle connesse alla peculiarità dei sistemi basati su IA: come detto poco sopra, nell’esempio di automobile auto guidata, i soggetti da coinvolgere potrebbero essere il conducente, il produttore, il programmatore, senza tenere conto della possibilità che il sistema venga colpito da un attacco cyber di terzi, con conseguenze imprevedibili sul rapporto di causalità e sull’onere della prova. Ulteriori difficoltà possono nascere dal fatto che alcuni sistemi di intelligenza artificiale sono self adapting, cioè in grado di auto modificarsi in autonomia, in tempo reale, sulla base dell’elaborazione di nuovi dati o sulla base di nuovi aggiornamenti del sistema.
In sostanza, una pluralità di attori coinvolti, di tecnologie in qualche modo autonome e di legislazioni non in grado di prevedere tutti i casi generano incertezza e dunque resistenza da parte delle imprese nell’utilizzo di intelligenza artificiale.
La Direttiva dovrebbe ovviare a questa incertezza, portando con sé chiarificazioni in ambito giuridico ed una crescita conseguente del mercato europeo dell’intelligenza artificiale. La scelta della direttiva, che è stata preferita ad un regolamento self executive è stata dettata dalla possibilità, per gli Stati membri, di avere maggiore autonomia in fase di recepimento, adattando la norma ai propri sistemi di diritto interno. Al rapporto con le AI abbiamo dedicato il volume “Il nuovo diritto d’autore -La tutela della proprietà intellettuale nell’era dell’intelligenza artificiale”

FORMATO CARTACEO

Il nuovo diritto d’autore

Questa nuova edizione dell’Opera è aggiornata all’attuale dibattito dedicato all’intelligenza artificiale, dalla Risoluzione del Parlamento europeo del 20 ottobre 2020 alla proposta di Regolamento europeo – AI Act.Il testo si configura come lo strumento più completo per la risoluzione delle problematiche riguardanti il diritto d’autore e i diritti connessi.Alla luce della più recente giurisprudenza nazionale ed europea, la Guida dedica ampio spazio alle tematiche legate alla protezione della proprietà intellettuale, agli sviluppi interpretativi in tema di nuove tecnologie e alle sentenze della Suprema Corte relative ai programmi per elaboratore, alle opere digitali e al disegno industriale.Il testo fornisce al Professionista gli strumenti processuali per impostare un’efficace strategia in sede di giudizio, riportando gli orientamenti giurisprudenziali espressi dalla Cassazione civile nel corso del 2023.Completano il volume un Formulario online editabile e stampabile, sia per i contratti che per il contenzioso, un’ampia Raccolta normativa e un Massimario di giurisprudenza di merito, legittimità e UE, suddiviso per argomento.Nell’area online sono messi a disposizione del lettore gli ulteriori sviluppi relativi al percorso di approvazione del Regolamento AI Act e la videoregistrazione del webinar tenutosi il 23 febbraio 2024, a cura di Andrea Sirotti Gaudenzi, “Il diritto d’autore nell’era dell’intelligenza artificiale”, in cui l’Autore parla delle sfide legali emerse con l’avvento dell’AI anche mediante l’analisi di casi studio significativi.Andrea Sirotti GaudenziAvvocato e docente universitario. Svolge attività di insegnamento presso Atenei e centri di formazione. È responsabile scientifico di vari enti, tra cui l’Istituto nazionale per la formazione continua di Roma e ADISI di Lugano. Direttore di collane e trattati giuridici, è autore di numerosi volumi, tra cui “Manuale pratico dei marchi e brevetti”, “Trattato pratico del risarcimento del danno”, “Codice della proprietà industriale”. Magistrato sportivo, attualmente è presidente della Corte d’appello federale della Federazione Ginnastica d’Italia. I suoi articoli vengono pubblicati da diverse testate e collabora stabilmente con “Guida al Diritto” del Sole 24 Ore.

Andrea Sirotti Gaudenzi | Maggioli Editore 2024

2. La Direttiva IA: aspetti fondamentali

L’approccio della Direttiva si struttura in due fasi: la prima dovrebbe adeguare e coordinare i sistemi giuridici nazionali in materia di responsabilità civile per danni causati dall’IA. La seconda fase prevede una valutazione dell’efficacia delle misure adottate dai singoli Stati, tenendo conto dei futuri sviluppi tecnologici, normativi e giurisprudenziali e della necessità di armonizzare altri elementi delle legislazioni nazionali in materia di responsabilità civile. Questa fase prevede anche l’introduzione di un eventuale regime di responsabilità oggettiva e la necessità/obbligatorietà di una copertura assicurativa.
Il primo punto toccato è quello relativo all’onere della prova a carico del danneggiato, che per la Direttiva dovrà essere alleggerito attraverso una presunzione relativa e la divulgazione di informazioni. Non, quindi, una totale inversione dell’onere della prova che dovrebbe ricadere in toto sui danneggianti (il plurale è d’obbligo, vista la molteplicità di attori coinvolti, come visto nell’esempio dell’automobile), ma un onere alleggerito sul danneggiato: la presunzione relativa troverebbe applicazione solo quando si verifichino contemporaneamente tutti i seguenti presupposti:

  • il giudice chiamato a pronunciarsi ritenga eccessivamente gravoso, per il danneggiato, provare il nesso causale;
  • il danneggiato abbia dimostrato o il giudice abbia presunto la colpa del convenuto, o di una persona del cui comportamento il convenuto è responsabile, consistente nell’inosservanza di un obbligo di diligenza (ad esempio, un obbligo di diligenza ai sensi del Regolamento IA o altra normativa nazionale o europea);
  • si ritenga ragionevolmente probabile che la condotta colposa del danneggiante abbia influito sull’output prodotto dal sistema di IA o si ritenga probabile l’incapacità del sistema di IA di produrre un output;
  • l’attore abbia dimostrato che l’output prodotto dal sistema di IA o l’incapacità del sistema di IA di produrre un output abbia causato il danno.

La Direttiva IA differenzia i gradi di presunzione di responsabilità a seconda che l’intelligenza artificiale sia usata in attività professionali o personali. In questo secondo caso detta presunzione si applica solo se il danneggiante/convenuto abbia interferito materialmente con le condizioni di funzionamento del sistema di IA o se fosse tenuto e in grado di determinare le condizioni di funzionamento del sistema di IA e non lo abbia fatto.
Altri elementi di particolare interesse nella Direttiva IA sono:

  • potere per gli organi giurisdizionali di ordinare la divulgazione di elementi di prova da parte del fornitore, dietro presentazione, da parte dell’attore, di adeguate prove a sostegno della fondatezza della domanda e di aver fatto quanto necessario per ottenere le prove dal convenuto;
  • possibilità per l’attore di chiedere la conservazione degli elementi di prova;
  • massima trasparenza degli algoritmi che governano i processi di IA in termini di tracciabilità, spiegabilità e comunicazione;
  • obbligo per i giudici nazionali di tenere in conto gli interessi legittimi di tutte le parti nel determinare se impartire o meno l’ordine di divulgazione e conservazione, anche con riguardo alla tutela dei segreti commerciali (che nel giudizio di bilanciamento verranno rimessi al prudente apprezzamento del giudice di merito);
  • nel caso in cui venga ordinata la divulgazione, obbligo di adozione di misure specifiche a limitarne la diffusione e preservarne per quanto possibile la segretezza (ad esempio con limitazioni di accesso a documentazione riservata, udienze da tenersi in forma chiusa, oscuramento di dati commerciali sensibili negli atti);
  • presunzione di mancata diligenza del convenuto in caso di mancato ottemperamento all’ordine di divulgazione.

La Direttiva sull’intelligenza artificiale, dunque, in combinato disposto con il Regolamento sulla Intelligenza Artificiale, si pone l’obiettivo di regolamentare una parte di tecnologia che prenderà sempre più piede nelle nostre vite e nel quotidiano e che finora anche per la carenza normativa che la circonda, non ha ancora avuto lo sviluppo che potenzialmente potrebbe avere.
Non solo, ma la Direttiva e in generale l’interesse del legislatore europeo verso le tematiche inerenti il legame tra diritto e nuove tecnologie dimostrano (se ancora se ne sentisse il bisogno) che oggi ed in futuro le sfide che giuristi ed avvocati si troveranno ad affrontare si confronteranno sempre di più con il “mondo delle macchine”, che finora abbiamo sempre e solo visto nei film, ma che, nei fatti, fa già parte non solo del nostro futuro, ma anche del nostro presente.

Potrebbero interessarti anche:

Avv. Luisa Di Giacomo

Scrivi un commento

Accedi per poter inserire un commento