Si è tenuto a Roma dal 9 all’11 ottobre 2024, il G7 delle Autorità di Protezione Dati, che ha riunito il Collegio del Garante italiano (Pasquale Stanzione, Ginevra Cerrina Feroni, Agostino Ghiglia, Guido Scorza) e le Autorità competenti di Canada, Francia, Germania, Giappone, Regno Unito e Stati Uniti d’America, insieme al Comitato europeo della protezione dei dati (EDPB) e al Garante europeo della protezione dei dati (EDPS).
Al centro del dibattito globale, come prevedibile, è stata l’intelligenza artificiale (IA), con particolare focus sull’urgenza di trovare un equilibrio tra innovazione tecnologica e protezione dei diritti fondamentali. I regolatori di tutto il mondo si sono confrontati su come garantire che l’IA venga sviluppata e implementata in modo trasparente, equo e rispettoso della privacy, puntando su normative più rigorose e strutture di governance multilaterali. Per esplorare il tema consigliamo il volume Ai Act -Principi, regole ed applicazioni pratiche del Reg. UE 1689/2024. Per l’approfondimento consigliamo anche il corso di formazione “AI ACT e GDPR: come garantire la conformità per imprese e organizzazioni”
Indice
1. IA e trasparenza: la sfida del futuro
Uno dei punti cardine del vertice è stato il tema della trasparenza degli algoritmi. Le Autorità di Protezione Dati hanno sottolineato come sia fondamentale rendere comprensibile il funzionamento delle tecnologie basate su IA, affinché cittadini e consumatori possano fidarsi del loro impatto sulla vita quotidiana. Questo concetto è particolarmente importante nel contesto dell’adozione su larga scala di IA in settori critici come la sanità, la giustizia e l’educazione, dove le decisioni automatizzate possono avere conseguenze dirette e profonde sui diritti individuali.
Il principio della trasparenza algoritmica richiede che le aziende tecnologiche spieghino chiaramente come gli algoritmi arrivano a determinate decisioni, mitigando così i rischi di discriminazione o pregiudizi. Per far ciò, i regolatori chiedono la creazione di audit indipendenti sugli algoritmi, oltre a misure più forti per garantire che le aziende rispettino i principi di accountability. Per esplorare il tema consigliamo il volume Ai Act -Principi, regole ed applicazioni pratiche del Reg. UE 1689/2024
Ai Act
Quale impatto avrà l’intelligenza artificiale sulla nostra società e soprattutto sul diritto? Il testo esplora questa complessa intersezione, offrendo una guida dettagliata e completa.L’opera approfondisce l’evoluzione dell’AI, dalle sue umili origini nei primi sistemi esperti alle avanzate reti neurali e all’AI generativa di oggi.Analizza in modo critico il panorama normativo europeo, come il recente Regolamento n. 1689/2024, delineando il percorso legislativo e le regolamentazioni che cercano di gestire e governare questa tecnologia in rapida evoluzione.Gli autori affrontano temi fondamentali come l’etica dell’AI, la responsabilità legale, la sicurezza dei dati e la protezione della privacy.Il libro non si limita alla teoria: esplora anche le applicazioni pratiche dell’AI in vari settori, tra cui la giustizia, il settore finanziario, la pubblica amministrazione e la medicina.Attraverso casi di studio e analisi dettagliate, il libro mostra come l’AI stia trasformando questi ambiti e quali questioni giuridiche stiano emergendo.Inoltre, viene esaminato l’impatto dell’AI sul mondo del lavoro, evidenziando come l’automazione e le nuove tecnologie stiano cambiando le dinamiche lavorative e quali siano le implicazioni legali di queste trasformazioni.L’opera vuole essere una lettura essenziale per avvocati, giuristi, professionisti IT e tutti coloro che desiderano comprendere le complesse relazioni tra tecnologia e diritto, offrendo una visione completa e aggiornata, ricca di analisi critiche e riflessioni pratiche, per navigare nel futuro della tecnologia e del diritto con consapevolezza e competenza.Michele IaselliAvvocato, docente di Diritto digitale e tutela dei dati alla LUISS e di informatica giuridica all’Università di Cassino. Direttore del comitato scientifico di ANDIP e coordinatore del comitato scientifico di Feder-privacy. Funzionario del Ministero della Difesa ed esperto dell’Ufficio Generale Innovazione Difesa, è membro del Comitato di presidenza dell’ENIA (Ente Nazionale Intelligenza Artificiale).
Michele Iaselli | Maggioli Editore 2024
43.70 €
2. Protezione dei minori ed etica nell’IA
Un altro tema centrale discusso al G7 è stato l’impatto dell’IA sui minori. Con la diffusione di piattaforme digitali che utilizzano algoritmi per personalizzare contenuti e pubblicità, i regolatori hanno espresso preoccupazione per il rischio di esporre i giovani a contenuti inappropriati o dannosi. Sono stati avanzati suggerimenti per una regolamentazione più severa dell’uso dell’IA in contesti che coinvolgono minori, e per lo sviluppo di sistemi più sicuri e rispettosi della loro privacy.
In questo contesto, è stato enfatizzato il concetto di data protection by design, che impone alle aziende di pensare alla protezione dei dati fin dalla fase di sviluppo dei loro sistemi di IA. Ciò significa che le tecnologie dovrebbero essere progettate per ridurre al minimo la raccolta e l’elaborazione dei dati personali, rispettando i principi del GDPR e della legislazione sulla privacy globale.
Potrebbero interessarti anche:
3. Il G7 e il “Data Free Flow with Trust”
Un altro concetto chiave emerso al G7 è stato il principio del Data Free Flow with Trust (DFFT), un’iniziativa che mira a promuovere il libero flusso dei dati tra le nazioni, ma solo nel rispetto dei diritti fondamentali e della privacy. Questo principio si basa sulla premessa che la fiducia sia essenziale per la condivisione internazionale dei dati, soprattutto in un’epoca in cui l’IA e i big data giocano un ruolo sempre più cruciale nell’economia globale.
Il DFFT pone una sfida particolare, poiché le diverse giurisdizioni hanno normative sulla protezione dei dati differenti, e conciliare la necessità di flussi di dati transfrontalieri con la protezione dei diritti individuali rimane una delle priorità principali. Il G7 ha proposto un approccio multilivello di governance, con un impegno congiunto a stabilire standard internazionali che garantiscano il rispetto della privacy e la sicurezza dei dati, pur favorendo l’innovazione.
4. Piano d’Azione 2024-2025: governance e supervisione dell’IA
In chiusura del vertice, è stato presentato un piano d’azione 2024-2025 che mira a rafforzare la collaborazione internazionale sulla supervisione dell’IA. Le autorità di protezione dati dei Paesi del G7 hanno concordato sulla necessità di unire le forze per monitorare l’uso dell’intelligenza artificiale e sviluppare linee guida comuni, volte a garantire che le tecnologie emergenti siano utilizzate in modo etico e responsabile. Tra le misure proposte, spiccano la creazione di task force congiunte per l’audit degli algoritmi, lo scambio di best practice tra Paesi e il coinvolgimento di esperti multidisciplinari per valutare l’impatto dell’IA sui diritti umani.
Inoltre, il piano riconosce la necessità di mantenere un dialogo costante con le aziende tecnologiche e i giganti del settore, affinché la regolamentazione non sia solo reattiva, ma proattiva, garantendo così che le innovazioni tecnologiche non compromettano i principi fondamentali di democrazia e giustizia.
Formazione per professionisti
“AI ACT e GDPR: come garantire la conformità per imprese e organizzazioni”
Il percorso formativo è rivolto ai giuristi, alle imprese e a tutti i professionisti coinvolti nei processi con l’obiettivo di approfondire i profili pratici per garantire la conformità all’AI ACT e GDPR alle aziende e organizzazioni che sviluppano o utilizzano sistemi di intelligenza artificiale.
La prima sessione mira a fornire una panoramica generale dell’AI e introdurre i partecipanti ai profili normativi ed etici connessi all’AI ACT.
La seconda sessione si concentra sui profili pratici degli adeguamenti richiesti: gli obblighi di documentazione e trasparenza, il ruolo del DPO e dei responsabili della conformità, la valutazione d’impatto dei sistemi AI (AI Impact Assessment) e la protezione dei dati personali. Durante questa sessione, i partecipanti prenderanno parte a un workshop pratico che prevede la simulazione di una valutazione di conformità.
La terza sessione è dedicata alla sicurezza informatica dei sistemi AI e ai modelli di responsabilità legale in caso di danni da essi causati.
>>>Per info ed iscrizioni<<<
Scrivi un commento
Accedi per poter inserire un commento