Gli accordi tra editori italiani e OpenAI: implicazioni legali e giuridiche

Il Garante per la privacy ha dichiarato di seguire con attenzione gli accordi siglati tra OpenAI e due dei principali gruppi editoriali italiani.

Scarica PDF Stampa

Con un comunicato stampa ufficiale, il Garante per la protezione dei dati personali ha dichiarato di seguire con attenzione gli accordi siglati tra OpenAI e due dei principali gruppi editoriali italiani, RCS MediaGroup e GEDI Gruppo Editoriale, che sembrano mirare a consolidare una collaborazione tecnologica orientata all’utilizzo dell’intelligenza artificiale (IA), in particolare ChatGPT, riservandosi di valutare l’adozione di azioni più significative.
Questo annuncio solleva importanti questioni legali e giuridiche per il trattamento dei dati personali in Italia, alla luce del crescente utilizzo di modelli di IA nel settore dell’editoria e della comunicazione.
Per esplorare il tema delle AI, consigliamo il volume Ai Act -Principi, regole ed applicazioni pratiche del Reg. UE 1689/2024, nonché il corso di formazione “AI ACT e GDPR: come garantire la conformità per imprese e organizzazioni”

Indice

1. La normativa italiana ed europea sull’uso dei dati personali nell’IA


L’adozione di soluzioni di intelligenza artificiale, come ChatGPT, implica necessariamente il trattamento di grandi quantità di dati, spesso personali, da parte dell’azienda che gestisce l’applicazione e dei soggetti con cui collabora. Pertanto, è fondamentale che ogni operazione di questo tipo sia conforme al Regolamento Generale sulla Protezione dei Dati (GDPR), che impone obblighi specifici per garantire che il trattamento avvenga nel rispetto dei diritti e delle libertà degli interessati.
In primo luogo, l’utilizzo dei dati da parte di OpenAI deve rispettare il principio di minimizzazione del GDPR, che richiede l’impiego del minor numero possibile di informazioni personali, e quello di trasparenza, che implica la completa informazione ai soggetti sui trattamenti in atto. Tuttavia, in caso di modelli di intelligenza artificiale di grandi dimensioni come ChatGPT, questo è un obiettivo complesso, soprattutto per quanto riguarda l’individuazione dei fini precisi del trattamento, data la capacità della IA di generare testi su argomenti potenzialmente sconosciuti a priori. Per esplorare il tema delle AI, consigliamo il volume Ai Act -Principi, regole ed applicazioni pratiche del Reg. UE 1689/2024

FORMATO CARTACEO

Ai Act

Quale impatto avrà l’intelligenza artificiale sulla nostra società e soprattutto sul diritto? Il testo esplora questa complessa intersezione, offrendo una guida dettagliata e completa.L’opera approfondisce l’evoluzione dell’AI, dalle sue umili origini nei primi sistemi esperti alle avanzate reti neurali e all’AI generativa di oggi.Analizza in modo critico il panorama normativo europeo, come il recente Regolamento n. 1689/2024, delineando il percorso legislativo e le regolamentazioni che cercano di gestire e governare questa tecnologia in rapida evoluzione.Gli autori affrontano temi fondamentali come l’etica dell’AI, la responsabilità legale, la sicurezza dei dati e la protezione della privacy.Il libro non si limita alla teoria: esplora anche le applicazioni pratiche dell’AI in vari settori, tra cui la giustizia, il settore finanziario, la pubblica amministrazione e la medicina.Attraverso casi di studio e analisi dettagliate, il libro mostra come l’AI stia trasformando questi ambiti e quali questioni giuridiche stiano emergendo.Inoltre, viene esaminato l’impatto dell’AI sul mondo del lavoro, evidenziando come l’automazione e le nuove tecnologie stiano cambiando le dinamiche lavorative e quali siano le implicazioni legali di queste trasformazioni.L’opera vuole essere una lettura essenziale per avvocati, giuristi, professionisti IT e tutti coloro che desiderano comprendere le complesse relazioni tra tecnologia e diritto, offrendo una visione completa e aggiornata, ricca di analisi critiche e riflessioni pratiche, per navigare nel futuro della tecnologia e del diritto con consapevolezza e competenza.Michele IaselliAvvocato, docente di Diritto digitale e tutela dei dati alla LUISS e di informatica giuridica all’Università di Cassino. Direttore del comitato scientifico di ANDIP e coordinatore del comitato scientifico di Feder-privacy. Funzionario del Ministero della Difesa ed esperto dell’Ufficio Generale Innovazione Difesa, è membro del Comitato di presidenza dell’ENIA (Ente Nazionale Intelligenza Artificiale).

Michele Iaselli | Maggioli Editore 2024

2. Il ruolo del Garante e le possibili azioni di vigilanza


Il Garante per la protezione dei dati personali, consapevole della complessità delle implicazioni della collaborazione, si è riservato di “valutare l’adozione di più specifiche iniziative”. Questa presa di posizione implica che l’Autorità potrebbe intervenire a diversi livelli. L’attività del Garante, in situazioni simili, ha lo scopo di garantire che il trattamento dei dati personali avvenga in modo conforme alla normativa e che gli utenti siano adeguatamente informati e tutelati nei confronti di tecnologie innovative, specialmente quando vengono gestiti dati particolarmente sensibili o riguardanti vaste platee di interessati, come nel caso dei lettori dei gruppi editoriali.
In caso di riscontro di eventuali irregolarità, il Garante ha la facoltà di intervenire attraverso procedimenti amministrativi, ordini di limitazione o anche blocchi temporanei del trattamento. Questo scenario potrebbe configurarsi se le modalità di raccolta e gestione dei dati personali da parte di OpenAI e dei gruppi editoriali non rispettassero gli standard previsti dal GDPR, o se fossero riscontrate criticità nella protezione delle informazioni personali dei lettori.

Potrebbero interessarti anche:

3. Il trattamento dei dati personali tra rischio di sorveglianza e opportunità per l’innovazione con l’editoria


Gli accordi tra OpenAI e gli editori italiani aprono un dibattito su un tema cruciale: l’uso di dati personali da parte di intelligenze artificiali può alimentare modelli predittivi e profilazione su larga scala, portando con sé rischi per la privacy. L’IA, infatti, può essere utilizzata per analizzare preferenze, comportamenti e interessi dei lettori, creando una profilazione dettagliata degli utenti. Se non adeguatamente regolamentato, questo utilizzo potrebbe esporre gli interessati a forme di sorveglianza o manipolazione, compromettendo i loro diritti alla riservatezza e alla libera autodeterminazione.
D’altra parte, l’applicazione di tecnologie avanzate come ChatGPT nel settore editoriale può rappresentare un’opportunità di innovazione per il mercato, consentendo di migliorare l’esperienza dell’utente, personalizzare contenuti e creare nuove modalità di interazione tra editori e lettori. Tuttavia, affinché tali sviluppi siano sostenibili, è fondamentale che siano sempre rispettate le normative europee, che prevedono rigorosi obblighi di trasparenza e controllo da parte degli interessati.

4. Le sfide della gestione dei dati per l’IA: tra accountability e responsabilità condivisa


Uno degli aspetti più critici del GDPR è il principio di accountability, che obbliga i titolari del trattamento (in questo caso, gli editori italiani) e i responsabili (come OpenAI) a dimostrare la conformità ai requisiti normativi. Questo implica un impegno a definire con chiarezza ruoli e responsabilità nella gestione dei dati personali, mantenendo una documentazione rigorosa sulle modalità di trattamento, le finalità e le misure di sicurezza adottate.
Nel contesto di accordi tra realtà italiane ed estere, come nel caso di OpenAI, si presenta anche una problematica di trasferimento di dati verso Paesi terzi, che richiede garanzie ulteriori, come l’adozione di clausole contrattuali standard, binding corporate rules o altre misure stabilite dal GDPR. Vista la recente sospensione dello “Scudo per la Privacy” tra Europa e Stati Uniti, è essenziale garantire che i dati dei cittadini europei trattati da OpenAI siano protetti da possibili interferenze governative.

5. Considerazioni conclusive


L’ingresso dell’intelligenza artificiale nel settore editoriale italiano, con la presenza di un protagonista come OpenAI, apre questioni di assoluta rilevanza giuridica per il futuro della protezione dei dati personali. Mentre l’IA offre indubbi vantaggi nel miglioramento dell’accessibilità e dell’interattività dei contenuti, è cruciale che le autorità vigilino sul rispetto dei diritti degli utenti. La dichiarazione del Garante sulla possibile adozione di “più specifiche iniziative” riflette la volontà di garantire un equilibrio tra innovazione e protezione dei dati personali.
Alla luce di questi sviluppi, editori e aziende tecnologiche sono chiamati a definire protocolli di conformità stringenti e a mantenere una costante attenzione agli aggiornamenti normativi.

Avv. Luisa Di Giacomo

Scrivi un commento

Accedi per poter inserire un commento