Sin dai primi sviluppi in materia di intelligenza artificiale (IA), la Comunità Europea si dimostra attenta nell’affrontare il tema; in particolare, se inizialmente, interviene solamente con degli atti di soft law, successivamente, è la prima al mondo ad adottare una vera e propria legge sull’IA, ossia l’AI Act, che mira ad individuare e regolare i rischi derivanti dall’uso di sistemi di intelligenza artificiale, al fine di favorire un’innovazione responsabile in materia di IA in Europa.
L’Unione sottolinea come sia necessario prendere una nuova posizione regolamentare in diversi ambiti, al fine di introdurre regole che rispondano alle nuove esigenze che sorgono con l’avvento delle nuove tecnologie. Uno degli ambiti in cui è più evidente questa necessità è proprio quello delle responsabilità. Per approfondimenti sulle nuove regole, consigliamo il corso di formazione AI Act – Modelli organizzativi e case studies per avvocati e imprese.
Indice
1. La responsabilità nella robotica per l’intelligenza artificiale ante AI Act in Unione Europea
Già nel 2017, il Parlamento Europeo, con la Risoluzione del 16 febbraio, affronta la materia della responsabilità civile nella robotica, attraverso le Raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica (2015/2103 (INL)). [1]
Tendenzialmente, il Parlamento prevede di mantenere un approccio tradizionale, ma propone altresì di integrare le norme tradizionali attraverso delle novità, ossia l’introduzione di un sistema di registrazione dei robot, di una assicurazione obbligatoria e di un fondo di garanzia per i danni causato da robot non assicurati (punto 59, lett. a, b ed e), nonché di forme di responsabilità oggettiva (punto 53 e 54).
Tuttavia, sottolineando il continuo progresso in materia e la sempre maggiore autonomia dei robot (considerando Z, AA, AB), sostiene altresì come “le norme tradizionali non sono sufficienti per attivare la responsabilità per i danni causati da un robot, in quanto non consentirebbero di determinare qual è il soggetto cui incombe la responsabilità del risarcimento né di esigere da tale soggetto la riparazione dei danni causati” (considerando AF).
Pertanto, invita la Commissione ad istituire uno “status giuridico specifico per i robot nel lungo termine, di modo che almeno i robot autonomi più sofisticati possano essere considerati come persone elettroniche responsabili di risarcire qualsiasi danno da loro causato, nonché eventualmente il riconoscimento della personalità elettronica dei robot che prendono decisioni autonome o che interagiscono in modo indipendente con terzi” (punto 59, lett. h).
Questo orientamento, tuttavia, viene criticato, in particolare, dal Comitato economico e scientifico dell’UE, il quale, con il Parere del 31 agosto 2017, dichiara espressamente che: “Il CESE è contrario all’introduzione di una forma di personalità giuridica per i robot o per l’IA (o i sistemi di IA), in quanto essa comporterebbe un rischio inaccettabile di azzardo morale. Dal diritto in materia di responsabilità civile deriva una funzione preventiva di correzione del comportamento, la quale potrebbe venir meno una volta che la responsabilità civile non ricade più sul costruttore perché è trasferita al robot (o al sistema di IA). Inoltre, vi è il rischio di un uso inappropriato e di abuso di uno status giuridico di questo tipo. In questo contesto, il confronto con la responsabilità limitata delle società è fuori luogo, in quanto è sempre la persona fisica a essere responsabile in ultima istanza”. [2]
Nel 2020, con il Libro bianco sull’IA (“Un approccio per l’eccellenza e la fiducia”) [3], la Commissione Europea propone di coniugare lo sviluppo e i rischi della nuova tecnologia con i valori europei.
Quanto ai rischi connessi all’uso e al funzionamento dei sistemi di IA, considera come esista e sia potenzialmente applicabile a una serie di sistemi di IA emergenti un vasto corpus di norme vigenti dell’UE in materia di sicurezza dei prodotti e di responsabilità per danno da prodotti difettosi, con riferimento – in particolare – agli eventuali danni che possano derivare da difetti nella loro progettazione, da problemi riguardanti la disponibilità e la qualità dei dati o da altri problemi inerenti all’apprendimento automatico. Tuttavia, esprime altresì come, “nel caso di sistemi basati sull’IA, come quelli delle auto a guida autonoma, può rivelarsi difficile provare che il prodotto è difettoso e dimostrare il danno cagionato e il nesso di causalità tra difetto e danno” e che, di conseguenza, “coloro che hanno sofferto danni potrebbero non avere accesso effettivo agli elementi probatori necessari per giustificare un’azione in giudizio, per cui le loro possibilità di ottenere un’effettiva riparazione del danno potrebbero essere inferiori rispetto alle situazioni in cui il pregiudizio è causato da tecnologie tradizionali”.
La Commissione, quindi, suggerisce che, per garantire una maggiore certezza del diritto, si potrebbero introdurre disposizioni che contemplino esplicitamente i nuovi rischi derivanti dalle tecnologie digitali emergenti. Per approfondimenti sulle nuove regole, consigliamo il corso di formazione AI Act – Modelli organizzativi e case studies per avvocati e imprese.
Potrebbe interessarti anche: Intelligenza artificiale e diritti umani: la nuova Convenzione Consiglio d’Europa
2. La soluzione proposta dall’AI Act
Lo scorso 21 maggio, dopo il via libera da parte del Parlamento europeo avvenuto a marzo, il Consiglio dell’Unione europea approva in via definitiva l’Artificial Intelligence Act (4), che rappresenta la prima legge al mondo sull’intelligenza artificiale e che potrebbe costituire uno standard globale per la regolamentazione dell’IA.
L’AI Act, in particolare, oltre a proporre un’ampia definizione di sistema di IA, quale aspetto considerato di fondamentale importanza anche dalla dottrina – la quale ha sottolineato come la mancanza di una definizione condivisa all’interno della comunità scientifica sia una delle cause delle lacune della regolamentazione in materia-(5), segue un approccio basato proprio sul rischio, ossia “la combinazione della probabilità del verificarsi di un danno e la gravità del danno stesso” (art. 3); pertanto, maggiore è il rischio che i sistemi di IA causino dei danni, più severe sono le regole.
I sistemi di intelligenza artificiale vengono, inoltre, suddivisi in quattro gruppi sulla base del livello di rischio che ciascuno può rappresentare ed essi sono:
- Rischio inaccettabile, che riguarda quei sistemi, di cui all’articolo 5, che violano i valori europei e che dunque sono vietati all’interno dei confini dell’Unione (come, per esempio, i programmi di identificazione biometrica in luoghi pubblici);
- Rischio alto, che fa riferimento a sistemi, ai sensi dell’articolo 6, che rappresentano “un rischio significativo di danno per la salute, la sicurezza o i diritti fondamentali delle persone fisiche, anche nel senso di non influenzare materialmente il risultato del processo decisionale”, e che, pur non essendo vietati, devono rispettare standard elevati di sicurezza, affidabilità e trasparenza;
- Rischio limitato, riferito a quei sistemi (come, per esempio, i chatbot) per cui sono previsti obblighi di trasparenza al sol fine di garantire agli utenti la consapevolezza del funzionamento del sistema di IA;
- Rischio basso, riferibile a sistemi per cui non è prevista alcuna restrizione.
Ciò che rileva, in particolare, è che il rispetto di questi rischi è comunque imposto all’uomo, il quale, di conseguenza, risulta responsabile per eventuali danni derivanti dall’utilizzo e dal funzionamento di sistemi di IA.
Infatti, l’AI Act prevede quali suoi destinatari i fornitori, gli installatori, gli importatori, i distributori e i produttoridei suddetti sistemi.
In caso di danni provocati dal loro utilizzo, quindi, è sempre l’uomo a risponderne attraverso le sanzioni indicate all’articolo 99, le quali sono delle sanzioni amministrative pecuniarie, considerate dalla stessa legge “effettive, proporzionate e dissuasive”, in modo tale da tener altresì conto “degli interessi delle PMI, comprese le start-up, e della loro sostenibilità economica”.
D’altronde, l’obiettivo dell’AI Act lo riassume l’eurodeputato Brando Benifei, relatore della legge, il quale afferma che l’AI Act “rappresenta un chiaro percorso per lo sviluppo sicuro e umanocentrico dell’intelligenza artificiale”.
Vuoi ricevere aggiornamenti costanti?
Salva questa pagina nella tua Area riservata di Diritto.it e riceverai le notifiche per tutte le pubblicazioni in materia. Inoltre, con le nostre Newsletter riceverai settimanalmente tutte le novità normative e giurisprudenziali!
Iscriviti!
Note
- [1]
Risoluzione del 16 febbraio 2017 (allegato 1);
- [2]
Parere del 31 agosto 2017, par. 3.33 (allegato 2);
- [3]
Libro bianco sull’intelligenza artificiale del 19 febbraio 2020 (file allegato 3);
- [4]
Artificial Intelligence Act (allegato 4);
- [5]
BERTOLINI A., LIMONGELLI R., “AI & Civil liability”, in Regulating Advanced Technologies: Policy Papers of the Jean Monnet Centre of Excellence on the Regulation of Robotics and AI, Pisa, Il Campano, Vol. 1, 2022, pp. 39 ss.;
Scrivi un commento
Accedi per poter inserire un commento