Agcom sanziona TikTok con una multa da 10 milioni di euro per pratiche commerciali scorrette in danno dei giovanissimi.
L’Autorità Garante per la tutela della concorrenza e del mercato ha irrogato una multa di 10 milioni di euro a tre entità appartenenti al gruppo Bytedance Ltd che controlla la piattaforma social network cinese TikTok: TikTok Technology Limited situata in Irlanda, TikTok Information Technologies UK Limited nel Regno Unito, e TikTok Italy S.r.l. in Italia.
Indice
1. Le indagini di Agcom su TikTok
Durante l’indagine, è emersa la responsabilità di TikTok nella promozione di contenuti pericolosi, tra cui la sfida denominata “cicatrice francese” (una challenge che consiste nel pizzicarsi la pelle della guancia tra le dita, tipo buffetto, in maniera molto forte in modo da procurarsi un ematoma visibile sullo zigomo), che mettono a rischio il benessere mentale e fisico degli utenti, in particolar modo quelli più giovani e vulnerabili.
TikTok è stata inoltre giudicata inadempiente nel prevenire la diffusione di tali materiali, mancando così di conformarsi alle proprie Linee Guida promosse come misure di sicurezza per rassicurare gli utenti circa la protezione offerta dalla piattaforma. Queste regole non sarebbero in effetti applicate, con mancata considerazione delle fragilità specifiche dei giovani, le quali includono difficoltà nel distinguere il reale dal fittizio e una propensione a imitare il comportamento del gruppo.
In aggiunta, i contenuti, sebbene potenzialmente nocivi, vengono veicolati attraverso un meccanismo di suggerimenti fondato su un’analisi algoritmica degli utenti. Questo sistema predilige certi video per ogni utente nelle aree “Per Te” e “Seguiti”, mirando ad incrementare l’interazione e il tempo speso sulla piattaforma, e di conseguenza, il ritorno dei guadagni pubblicitari. Tale processo comporta una manipolazione non etica degli utenti, spingendoli ad un utilizzo sempre più frequente della piattaforma.
La sanzione a TikTok, che non è la prima e, poco ma sicuro, non sarà di certo l’ultima, pone l’accento ancora una volta su un dato di fatto incontrovertibile: i social network, e ultimamente TikTok svetta in pole position, sono diventati ambienti dove i minori trascorrono una parte significativa del loro tempo, spesso sottratti a qualsivoglia controllo genitoriale, e ancora più spesso ben prima dell’età di 14 anni prevista per il consenso digitale in Italia, ma anche dei 13 richiesti dalla app stessa per l’iscrizione.
Molto si è detto e molto continua a dirsi sulle tematiche dei controlli delle piattaforme sui contenuti, e sulle pratiche di age verification, ma la verità è che le società che gestiscono le piattaforme non sono in grado di effettuare questi controlli, non necessariamente per cattiva fede, ma senz’altro perché farlo vorrebbe dire mettere in crisi tutto il loro modello di business.
La profilazione algoritmica utilizzata da TikTok per personalizzare i contenuti proposti agli utenti, gioca un ruolo chiave in questa problematica e, pur se si tratta di un trattamento di dati ad alto rischio, difficilmente verrà abbandonata, dal momento che è proprio quello che rende la piattaforma in questione così particolare e diversa dalle altre (la sezione “Per te” è il vero punto di forza di TikTok, all’interno della quale tutti, ma proprio tutti possono diventare “influencer” e andare virali, molto più facilmente che sulle piattaforme di casa Meta).
Ma è altrettanto vero che, nel migliorare l’esperienza utente, proponendo contenuti sempre in linea con le proprie preferenze, il meccanismo dei “per te” stimola un utilizzo sempre più intensivo del social, aumentando di conseguenza l’esposizione a contenuti non idonei o pericolosi, che si possono presentare anche agli utenti più giovani, che mancano inevitabilmente della maturità necessaria per gestirli o interpretarli correttamente. La tematica non riguarda solo contenuti inappropriati o nocivi, ma anche il rischio di cyberbullismo, la sovraesposizione personale e l’accesso a informazioni che possono influenzare negativamente il benessere psicologico e fisico.
La questione della verifica dell’età emerge come uno strumento potenzialmente utile per mitigare i rischi associati all’uso dei social network da parte dei minori. Tuttavia, l’implementazione di sistemi efficaci di verifica dell’età si è dimostrata essere una sfida complessa per le piattaforme online. Questi sistemi devono bilanciare la necessità di proteggere i minori con il rispetto della privacy e la facilità d’uso per tutti gli utenti e spesso le soluzioni proposte, ivi compreso l’utilizzo di sistemi di riconoscimento biometrico e di intelligenza artificiale, hanno rischiato di essere ancora più invasive e problematiche del problema che si è tentato di risolvere.
2. Prevenzione e educazione digitale
Che fare dunque? Nello scenario qui descritto, la prevenzione e l’educazione digitale diventano fondamentali e imprescindibili. È essenziale che genitori e figli siano informati e consapevoli dei rischi associati all’uso dei social network. L’educazione digitale dovrebbe focalizzarsi su come riconoscere e gestire i contenuti potenzialmente dannosi, comprendere l’importanza delle impostazioni di privacy e sviluppare un approccio critico all’utilizzo dei media digitali (ma lo sviluppo di una mentalità critica in generale non guasta nemmeno nella vita di tutti giorni, anche in quella off line per intenderci).
Le scuole, insieme alle famiglie, giocano un ruolo cruciale nell’educare i giovani cittadini digitali. Programmi educativi che includono la navigazione sicura in internet, la gestione della privacy online, e la comprensione delle dinamiche sociali sulle piatteforme digitali possono equipaggiare i minori con le competenze necessarie per navigare in sicurezza nel mondo digitale.
Inoltre, è imperativo che le piattaforme social si impegnino attivamente nel creare un ambiente online sicuro per tutti gli utenti, specialmente per i minori. Ciò include non solo il miglioramento dei sistemi di verifica dell’età e dei controlli sui contenuti, ma anche l’implementazione di politiche e strumenti che facilitino agli utenti, in particolare ai genitori e agli educatori, la gestione dell’esperienza online dei minori.
In conclusione, la recente sanzione a TikTok da parte dell’AGCM solleva questioni importanti riguardo alla sicurezza online dei minori.
Affrontare queste sfide richiede un approccio coordinato che coinvolga le piattaforme social, i genitori, le scuole, e i policy maker. Solo attraverso la collaborazione e un impegno congiunto sarà possibile creare un ambiente digitale che sia veramente sicuro e costruttivo per i minori. L’educazione digitale, insieme a sistemi efficaci di controllo e prevenzione, sono essenziali per proteggere i giovani utenti dai rischi del mondo digitale.
Vuoi ricevere aggiornamenti costanti?
Salva questa pagina nella tua Area riservata di Diritto.it e riceverai le notifiche per tutte le pubblicazioni in materia. Inoltre, con le nostre Newsletter riceverai settimanalmente tutte le novità normative e giurisprudenziali!
Iscriviti!
Scrivi un commento
Accedi per poter inserire un commento