Intelligenza artificiale e cyberbullismo: il nuovo reato di deepfake

Elena Incampo 14/05/24
Scarica PDF Stampa Allegati

Approfondimento sul nuovo reato di deepfake (art. 612-quater c.p.) proposto dal DDL sull’intelligenza artificiale.

Per approfondimenti si consiglia il seguente volume, il quale racconta in un quadro unitario quali sono gli aspetti che interessano la professione: Intelligenza artificiale – essere avvocati nell’era di ChatGPT

1) Bozza DDL IA
2) Vademecum Deepfake

Bozza-DDL-IA.pdf 765 KB
Deepfake-Vademecum.pdf 331 KB

Iscriviti alla newsletter per poter scaricare gli allegati

Grazie per esserti iscritto alla newsletter. Ora puoi scaricare il tuo contenuto.

Indice

1. Premessa

Negli ultimi anni, l’Intelligenza Artificiale ha stravolto le nostre vite in maniera sorprendente, andando ad infiltrarsi sempre di più nelle attività che quotidianamente svolgiamo. Ciò non ha mancato a scuotere anche il mondo del diritto, il quale sta iniziando ad introdurre degli interventi volti a disciplinare questa nuova materia, sebbene la stessa sia ancora caratterizzata da molteplici lacune di carattere concettuale che hanno causato – per l’appunto – delle difficoltà nell’emanazione di interventi mirati in tutti i Paesi [1].
Dopo l’importantissimo intervento avuto a livello comunitario, con l’AI Act, anche l’Italia ha iniziato a muovere i primi passi verso una legislazione targata IA; si tratta del DDL sull’Intelligenza Artificiale [2], approvato dal nostro Governo il 23 aprile 2024, il quale individua “criteri regolatori capaci di riequilibrare il rapporto tra le opportunità che offrono le nuove tecnologie e i rischi legati al loro uso improprio, al loro sottoutilizzo o al loro impiego dannoso” (art. 1).
Dalle prime norme, si può desumere come l’Italia sia rimasta fedele ai principi affermati in materia di IA dalla Comunità Europea, soprattutto con riferimento alle definizioni riportate nell’art. 2 del DDL. Tuttavia, ciò che rileva maggiormente, sono gli ambiti in cui il disegno di legge italiano interviene nello specifico, ossia sanità e disabilità, mondo del lavoro, PA, diritto d’autore e penale.
Per approfondimenti si consiglia il seguente volume, il quale racconta in un quadro unitario quali sono gli aspetti che interessano la professione:

FORMATO CARTACEO

Intelligenza Artificiale – Essere Avvocati nell’era di ChatGPT

Nell’anno appena trascorso l’intelligenza artificiale generativa, una delle sue forme più “creative”, è stata ed è ancora oggi uno dei temi più dibattuti. Avvocati e giuristi hanno iniziato a chiedersi se, oltre alla curiosità, le opinioni e i primi esperimenti, non sia opportuno iniziare a formarsi e acquisire nuove competenze nel proprio bagaglio professionale, ma nel mare magnum di informazioni molti si stanno ponendo la stessa domanda: “Da dove inizio?”. Questo libro nasce per rispondere al bisogno “di saperne di più”, raccontando in un quadro unitario a giuristi, avvocati, praticanti e studenti: quali sono gli aspetti che interessano la professione? Qual è lo stato dell’arte?  Le norme in vigore e in corso di approvazione che disciplinano l’utilizzo di AI nei settori principali del diritto, le prime esperienze presso gli studi legali, gli esempi e le istruzioni sui principali tool.Attraverso il racconto dei fatti, vengono naturalmente toccati anche i principali dibattiti in corso: gli aspetti etici, i temi della responsabilità civile in caso di danno, la tutela del copyright per le opere realizzate con le AI generative.Claudia MorelliGiornalista professionista, specializzata nei temi della legal industry e della digital transformation della giustizia, esperta di comunicazione legale. Professoressa a contratto presso l’Università di Bologna, dove insegna Comunicazione del Giurista, già responsabile della Comunicazione del Consiglio Nazionale Forense. Il presente volume è la sua prima riflessione organica sui temi della trasformazione digitale della professione forense.

Claudia Morelli | Maggioli Editore 2024

2. Il nuovo reato di deepfake

Nell’ambito penale, l’intervento del DDL opera su due fronti (art. 25): esso non solo prevede l’introduzione di circostanze aggravanti comuni ed alcune aggravanti speciali nelle ipotesi in cui i reati vengano commessi con “l’impiego di sistemi di intelligenza artificiale”, ma prevede altresì l’introduzione di un nuovo reato, ossia il c.d. reato di deepfake.
Nell’art. 25, Capo V, la lett. d), infatti, prevede l’introduzione dell’art. 612-quater all’interno del Codice penale, il quale – rubricato “Illecita diffusione di contenuti generati o manipolati artificialmente” – recita quanto segue:
Chiunque cagiona ad altri un danno ingiusto, mediante invio, consegna, cessione, pubblicazione o comunque diffusione di immagini o video di persone o di cose ovvero di voci o suoni in tutto o in parte falsi, generati o manipolati mediante l’impiego di sistemi di intelligenza artificiale, atti a indurre in inganno sulla loro genuinità o provenienza, è punito con la reclusione da uno a cinque anni. Il delitto è punibile a querela della persona offesa. Si procede tuttavia d’ufficio se il fatto è connesso con un altro delitto per il quale si deve procedere d’ufficio ovvero se è commesso nei confronti di persona incapace, per età o per infermità, o di una pubblica autorità a causa delle funzioni esercitate.
Tale norma si presta ad essere, quindi, uno strumento volto a sanzionare i fenomeni di deepfake che già nel 2020 hanno portato ad una presa di posizione da parte dell’Autorità Garante per la protezione dei dati personali, la quale ha pubblicato un’apposita scheda informativa sui rischi dell’uso malevolo di questa nuova tecnologia [3], “per sensibilizzare gli utenti sui rischi connessi agli usi malevoli di questa nuova tecnologia, sempre più frequenti, anche a causa della diffusione di app e software che rendono possibile realizzare deepfake, anche molto ben elaborati e sofisticati, utilizzando un comune smartphone”.

3. Intelligenza artificiale e cyberbullismo

L’avvento della deepfake, inoltre, fa emergere un aggravarsi di quei fenomeni che spesso vedono protagonisti ragazzi giovanissimi, i quali fanno altresì un uso sempre più crescente di quelle applicazioni disponibili su smartphones o computer che si basano su sistemi di IA che danno l’opportunità di creare contenuti fake (audio, immagini e video) che spesso sono alla base di quelle forme di “pressione, aggressione, molestia, ricatto, ingiuria, denigrazione, diffamazione, furto d’identità, alterazione, acquisizione illecita, manipolazione, trattamento illecito di dati personali in danno di minorenni, realizzata per via telematica, nonché la diffusione di contenuti on line aventi ad oggetto anche uno o più componenti della famiglia del minore il cui scopo intenzionale e predominante sia quello di isolare un minore o un gruppo di minori ponendo in atto un serio abuso, un attacco dannoso, o la loro messa in ridicolo” (art. 1), ossia del Cyberbullismo, come definito dalla legge del 29 maggio 2017, n. 71.
Se, da un lato, quindi, l’intelligenza artificiale può essere utilizzata al fine di individuare i potenziali rischi di bullismo che si verificano attraverso l’utilizzo di piattaforme di messaggistica (attraverso il Deep Learning è possibile rilevare i modelli linguistici utilizzati solitamente dai bulli [4]), dall’altro, vi sono numerose ipotesi in cui vi possa essere un uso improprio dei sistemi di IA che permettono il deepfake, poi alla base di quelle condotte già potenzialmente punibili attraverso le sanzioni previste – tra i tanti – dagli artt. 612 (minaccia), 612-bis (atti persecutori), 612-ter (diffusione illecita di immagini o video sessualmente espliciti) c.p. e dall’art. 167 (trattamento illecito dei dati) del d.lgs. n. 196/2003, ossia norme già presenti nel nostro ordinamento e che tradizionalmente vengono utilizzate per appunto punire il cyberbullismo, anche grazie alla sua definizione formulata attraverso espressioni che, pur appartenendo al linguaggio comune, appaiono comunque riconducibili ad alcune precise fattispecie di reato [5].
Il nuovo art. 612-quater c.p., quindi, andrebbe a prevedere uno strumento sanzionatorio volto a punire con la reclusione da uno a cinque anni chiunque arrechi (o miri ad arrecare) un danno ingiusto ad una persona mediante l’invio e la diffusione di deepfake, di cui sia dissimulata la vera genuinità o provenienza. Tale reato, inoltre, è generalmente perseguibile su querela della persona offesa, salvo le ipotesi previste nell’ultimo capoverso, per cui è procedibile d’ufficio.

Note

  1. [1]

    A. BERTOLINI, AI & Civil Liability, edizione 2022.

  2. [2]

    Testo allegato.

  3. [3]

    Testo allegato.

  4. [4]

    K. REYNOLDS, A. KONTOSTATHIS, L. EDWARDS, “Using Machine Learning to Detect Cyberbullying”, dicembre 2011.

  5. [5]

    R. BOCCHINI, M. MONTANARI, Le nuove disposizioni a tutela dei minori per la prevenzione ed il contrasto del fenomeno del cyberbullismo (l. 29 maggio 2017, n. 71), gennaio 2018.

Elena Incampo

Scrivi un commento

Accedi per poter inserire un commento