L’UE e la regolamentazione degli algoritmi di raccomandazione: le sfide del Digital Services Act

Scarica PDF Stampa

Il Digital Services Act (DSA) ha l’obiettivo di regolare in modo più stringente l’ecosistema digitale europeo, imponendo nuovi obblighi di trasparenza e responsabilità per le piattaforme online. Uno degli aspetti più significativi di questa normativa riguarda il controllo sugli algoritmi di raccomandazione, che svolgono un ruolo centrale nella diffusione dei contenuti su tutte le piattaforme online che offrono i propri servizi “gratuitamente”.
Questi algoritmi, che determinano quali contenuti vengono suggeriti agli utenti, sono al centro del modello di business delle grandi piattaforme, che guadagnano sulla profilazione mirata dei propri utenti e dunque sui nostri dati, e proprio per questo rappresentano una fonte di rischio per la sicurezza e la privacy degli utenti, nonché per la qualità delle informazioni a cui essi sono esposti.
Nel quadro delle richieste avanzate dalla Commissione Europea, queste piattaforme dovranno rispondere a domande specifiche sulle modalità con cui i loro sistemi operano, i rischi sistemici che possono generare e le misure adottate per prevenire la diffusione di contenuti dannosi o illegali.

Per approfondimenti sulle previsioni del Digital Services Act rimandiamo all’articolo Digital services pack: pubblicati in GU i due nuovi regolamenti europei per i servizi digitali. Per esplorare il tema consigliamo il volume Ai Act -Principi, regole ed applicazioni pratiche del Reg. UE 1689/2024

Indice

1. Il Digital Services Act: obiettivi e impatto


Il DSA mira a ridefinire il rapporto tra le piattaforme digitali e i loro utenti, introducendo un nuovo modello di trasparenza e responsabilità. Fino ad oggi, il funzionamento degli algoritmi di raccomandazione è stato spesso avvolto nel mistero, con gli utenti che hanno avuto scarso controllo sui contenuti che venivano loro proposti. Questo ha portato a una serie di problematiche, tra cui la creazione di “bolle informative”, la diffusione di disinformazione e fake news, e l’esposizione a contenuti potenzialmente dannosi, in particolare per i minori.
Il DSA introduce una serie di obblighi specifici per le piattaforme digitali, in particolare per quelle definite Very Large Online Platforms (VLOP), che hanno un impatto significativo su milioni di utenti in tutta Europa. Queste piattaforme sono ora tenute a fornire una trasparenza maggiore riguardo il funzionamento dei loro algoritmi, nonché a condurre valutazioni regolari sui rischi sistemici legati alla diffusione di contenuti. Per esplorare il tema consigliamo il volume Ai Act -Principi, regole ed applicazioni pratiche del Reg. UE 1689/2024

FORMATO CARTACEO

Ai Act

Quale impatto avrà l’intelligenza artificiale sulla nostra società e soprattutto sul diritto? Il testo esplora questa complessa intersezione, offrendo una guida dettagliata e completa.L’opera approfondisce l’evoluzione dell’AI, dalle sue umili origini nei primi sistemi esperti alle avanzate reti neurali e all’AI generativa di oggi.Analizza in modo critico il panorama normativo europeo, come il recente Regolamento n. 1689/2024, delineando il percorso legislativo e le regolamentazioni che cercano di gestire e governare questa tecnologia in rapida evoluzione.Gli autori affrontano temi fondamentali come l’etica dell’AI, la responsabilità legale, la sicurezza dei dati e la protezione della privacy.Il libro non si limita alla teoria: esplora anche le applicazioni pratiche dell’AI in vari settori, tra cui la giustizia, il settore finanziario, la pubblica amministrazione e la medicina.Attraverso casi di studio e analisi dettagliate, il libro mostra come l’AI stia trasformando questi ambiti e quali questioni giuridiche stiano emergendo.Inoltre, viene esaminato l’impatto dell’AI sul mondo del lavoro, evidenziando come l’automazione e le nuove tecnologie stiano cambiando le dinamiche lavorative e quali siano le implicazioni legali di queste trasformazioni.L’opera vuole essere una lettura essenziale per avvocati, giuristi, professionisti IT e tutti coloro che desiderano comprendere le complesse relazioni tra tecnologia e diritto, offrendo una visione completa e aggiornata, ricca di analisi critiche e riflessioni pratiche, per navigare nel futuro della tecnologia e del diritto con consapevolezza e competenza.Michele IaselliAvvocato, docente di Diritto digitale e tutela dei dati alla LUISS e di informatica giuridica all’Università di Cassino. Direttore del comitato scientifico di ANDIP e coordinatore del comitato scientifico di Feder-privacy. Funzionario del Ministero della Difesa ed esperto dell’Ufficio Generale Innovazione Difesa, è membro del Comitato di presidenza dell’ENIA (Ente Nazionale Intelligenza Artificiale).

Michele Iaselli | Maggioli Editore 2024

2. Le richieste dell’Unione Europea a YouTube, TikTok e Snapchat


Il 2 ottobre 2024, la Commissione Europea ha inviato richieste formali a YouTube, TikTok e Snapchat, chiedendo informazioni dettagliate sul funzionamento dei loro algoritmi di raccomandazione. Le piattaforme devono rispondere a una serie di domande chiave, che toccano aspetti critici come la trasparenza, la gestione dei rischi e la protezione degli utenti, soprattutto dei più giovani.

Trasparenza degli algoritmi
Uno dei punti centrali delle richieste riguarda la trasparenza dei criteri utilizzati per personalizzare i contenuti. Le piattaforme devono spiegare in dettaglio come i loro algoritmi decidono quali contenuti mostrare agli utenti. In particolare, la Commissione ha chiesto informazioni sui seguenti aspetti:

  • I dati raccolti: quali dati vengono utilizzati per alimentare gli algoritmi di raccomandazione (es. cronologia delle visualizzazioni, preferenze, interazioni)?
  • La logica degli algoritmi: come vengono calcolati i suggerimenti e in che modo i sistemi “apprendono” dai comportamenti degli utenti per ottimizzare il loro funzionamento?

L’obiettivo di queste richieste è di garantire che gli utenti abbiano un chiaro accesso alle informazioni che influenzano la loro esperienza online, nonché di offrire una maggiore consapevolezza sui potenziali rischi associati all’uso di tali algoritmi.

Valutazione dei rischi sistemici
Un’altra area chiave di interesse riguarda la valutazione dei rischi sistemici associati all’uso degli algoritmi di raccomandazione. La Commissione Europea ha chiesto alle piattaforme di fornire dettagli su come stanno mitigando i rischi legati a:

  • Disinformazione: le piattaforme devono spiegare come impediscono che gli algoritmi amplifichino contenuti fuorvianti o falsi, soprattutto in contesti delicati come le elezioni (come già successo diverse volte in passato).
  • Salute mentale e sicurezza dei minori: in particolare per TikTok, l’app più in voga per giovani e giovanissimi, l’UE ha richiesto spiegazioni su come i minori vengono protetti dall’esposizione a contenuti dannosi, come quelli che promuovono comportamenti pericolosi o disturbi alimentari (le famigerate challenge).
  • Incitamento all’odio e violenza: YouTube e Snapchat dovranno fornire dettagli sui meccanismi per prevenire la diffusione di contenuti che incitano all’odio, alla violenza o alla criminalità.

Misure di mitigazione e prevenzione
Oltre a spiegare il funzionamento degli algoritmi, le piattaforme devono anche dimostrare di aver implementato misure concrete per prevenire la diffusione di contenuti illegali o dannosi. Tra queste, vi sono:

  • Strumenti per il monitoraggio dei contenuti: le piattaforme sono tenute a spiegare come utilizzano tecnologie di monitoraggio per rilevare e rimuovere rapidamente contenuti problematici.
  • Meccanismi di prevenzione contro la manipolazione: un’altra area di grande preoccupazione è la possibilità che gli algoritmi vengano manipolati da attori malintenzionati. La Commissione ha chiesto a TikTok di fornire dettagli su come sta prevenendo l’uso dei suoi algoritmi per interferire con i processi elettorali o diffondere propaganda mirata.

3. Implicazioni legali del DSA: trasparenza e responsabilità


Il DSA rappresenta un cambiamento significativo per la regolamentazione delle piattaforme online, poiché stabilisce obblighi chiari in termini di trasparenza e responsabilità. Uno dei principali aspetti normativi è la stretta interconnessione tra il DSA e il Regolamento Generale sulla Protezione dei Dati (GDPR). Le informazioni raccolte dagli algoritmi per personalizzare i contenuti devono rispettare i principi del GDPR, tra cui il consenso degli utenti, la minimizzazione dei dati e la liceità del trattamento.
Il DSA introduce inoltre un obbligo di “due diligence” per le piattaforme digitali, che dovranno monitorare attivamente i rischi connessi alla diffusione di contenuti generati dagli utenti, soprattutto quando si tratta di disinformazione e contenuti dannosi. Le piattaforme che non adempiono a questi obblighi rischiano di incorrere in sanzioni severe, con multe che possono arrivare fino al 6% del fatturato annuo globale, come stabilito dall’articolo 74 del DSA.

Potrebbero interessarti anche:

4. Sfide operative e impatti sulle piattaforme


L’implementazione del DSA presenta sfide operative significative per le piattaforme digitali. Le Big Tech, come YouTube e TikTok, dovranno sviluppare nuovi strumenti per garantire che gli algoritmi siano spiegati in modo chiaro e accessibile agli utenti. Questo non sarà un compito semplice, poiché gli algoritmi di raccomandazione sono spesso complessi e difficili da tradurre in termini comprensibili. Inoltre, le piattaforme dovranno investire risorse per condurre valutazioni periodiche sui rischi associati all’uso dei loro sistemi e implementare misure concrete per mitigarli.
Per le piattaforme più piccole, le nuove regole potrebbero risultare particolarmente onerose, poiché dovranno adeguarsi a standard elevati senza disporre delle risorse necessarie. Tuttavia, il DSA potrebbe anche livellare il campo di gioco, riducendo le pratiche anticoncorrenziali delle grandi piattaforme e facilitando l’ingresso di nuovi attori sul mercato.

5. Un modello globale per la regolamentazione degli algoritmi


Il Digital Services Act non rappresenta solo un tentativo di regolamentare il mercato digitale europeo, ma è destinato a influenzare il dibattito globale sulla regolamentazione delle Big Tech. In molti paesi, tra cui gli Stati Uniti, sono in corso discussioni simili sulla necessità di limitare il potere delle grandi piattaforme digitali e garantire maggiore trasparenza sugli algoritmi.
Sebbene altri paesi stiano adottando approcci diversi (ad esempio, la Cina ha introdotto normative più rigide sui contenuti online e il controllo statale sugli algoritmi), il DSA potrebbe fungere da modello per future normative globali, stabilendo standard elevati per la responsabilità delle piattaforme.

6. Conclusioni: verso una maggiore trasparenza


Il Digital Services Act segna un momento cruciale nella regolamentazione dell’ecosistema digitale. Le richieste avanzate a YouTube, TikTok e Snapchat evidenziano la determinazione dell’Unione Europea a rendere più trasparenti i processi che guidano la nostra esperienza online, imponendo alle piattaforme di rendere conto del loro impatto sulla società. La trasparenza algoritmica non è solo una questione di conformità normativa, ma un tassello fondamentale per garantire che i diritti degli utenti siano rispettati e che i rischi associati agli algoritmi siano gestiti in modo adeguato.
Le sfide operative e legali che il DSA comporta saranno significative, ma il suo potenziale di migliorare l’ecosistema digitale, proteggendo i diritti degli utenti e promuovendo la fiducia, potrebbe avere ripercussioni ben oltre i confini europei. Con l’introduzione di standard di trasparenza e responsabilità senza precedenti, l’Unione Europea ha tracciato la strada verso un futuro digitale più equo e sicuro.

Avv. Luisa Di Giacomo

Scrivi un commento

Accedi per poter inserire un commento