Social media e moderazione contenuti: un’indagine personale

Scarica PDF Stampa

Poiché la realtà supera di molto la fantasia ed al peggio, ahinoi, non c’è mai fine, l’ultimo colpo di genio su TikTok si è verificato in questi ultimi giorni, ad opera di un gruppetto di ragazzini minorenni in Sardegna. L’illuminato gruppo di giovani virgulti, con le menti forse obnubilate dal caldo, o forse senza nessun obnubilamento, perché per essere obnubilato uno dovrebbe in primo luogo avere qualcosa da obnubilare, l’illuminato gruppo, dicevo, ha preso un gattino cucciolo e lo ha lanciato da un ponte, forse per verificare quella questione delle sette vite dei gatti, chissà. Mentre uno degli eroi svolgeva questa azione, gli altri, tra cui almeno due ragazze, ridevano, incitavano il gesto e soprattutto lo filmavano, perché tanto se una cosa non la documenti con un video è come se non fosse mai successa. Non paghi, i nostri hanno ben pensato di pubblicare il video sul popolare social cinese che spopola soprattutto tra i giovanissimi. Naturalmente, le reazioni non si sono fatte attendere e una pioggia di odio, di commenti violentissimi e volgari, di incitamento al suicidio, di minacce e di quanto di più becero ci possa essere online si è scatenato contro il gruppo di ragazzi (tutti minorenni, ribadisco), tanto da farli quasi passare da carnefici a vittime.
E proprio mentre mi chiedevo come mai la piattaforma non si sia data da fare per rimuovere in primo luogo il video incriminato e successivamente tutti i commenti di odio, senza parlare dei profili fake che sono nati dall’oggi al domani come funghi, mi sono imbattuta in un interessante articolo di Agenda Digitale che trattava proprio della moderazione dei contenuti sui social e della decisione delle maggiori piattaforme di diminuire gli investimenti su questo tema.

Indice

1. Un allentamento della moderazione?


L’articolo sosteneva che i principali social media, come Meta (ex Facebook) e X (ex Twitter), abbiano diminuito gli investimenti nella moderazione dei contenuti. Questa riduzione viene interpretata come una scelta strategica per favorire i profitti a breve termine, trascurando le implicazioni sulla sicurezza degli utenti. Secondo l’articolo, questa politica avrebbe portato a un aumento di contenuti dannosi, come spam, truffe e post offensivi.
Un punto critico sottolineato è l’adozione dell’intelligenza artificiale (AI) per la gestione della moderazione. Sebbene l’AI sia in grado di analizzare grandi volumi di dati, non è ancora perfetta e può commettere errori significativi. Questo solleva preoccupazioni sulla capacità delle piattaforme di mantenere un ambiente sicuro per gli utenti, aumentando il rischio di esposizione a contenuti inappropriati o dannosi. L’articolo prosegue criticando la priorità data agli interessi degli inserzionisti rispetto alla sicurezza degli utenti. La moderazione efficace richiede risorse significative, sia tecnologiche che umane, e ridurre questi costi può sembrare vantaggioso a breve termine. Tuttavia, questa strategia potrebbe avere conseguenze negative a lungo termine, come la diminuzione della fiducia degli utenti e il degrado della qualità complessiva dell’esperienza sulla piattaforma.
Il concetto di “moderazione” viene esplorato in profondità, suggerendo che le piattaforme sociali potrebbero utilizzare tecnologie più avanzate e risorse umane per gestire i contenuti in modo più efficace. Tuttavia, la realtà presentata è che molte di queste piattaforme sembrano preferire ridurre i costi associati alla moderazione, portando a un ambiente online meno sicuro e più vulnerabile a contenuti dannosi.

2. Una piccola indagine personale


Siccome conosco personalmente una persona che lavora in Meta e che si occupa proprio di questo tema, l’ho contattata per sottoporle il pezzo e chiedere un parere, per farmi un’idea più di prima mano della tematica.
Meta premette innanzi tutto una precisazione terminologica: con “moderazione” si intende il controllo dei post e commenti al fine di bloccare contenuti “fuori tema”, che è una cosa che Meta non ha mai fatto e mai farà.
Sarebbe più corretto parlare di integrity e la fonte interna sostiene che, contrariamente a quanto affermato nell’articolo, gli investimenti in integrity – termine usato per descrivere gli sforzi volti a bloccare scam e contenuti dannosi – non sono diminuiti, bensì aumentati. Secondo la fonte interna, l’adozione dell’AI generativa ha richiesto un incremento delle risorse destinate alla moderazione dei contenuti. Questo investimento è visto come essenziale per mantenere un ambiente sicuro e accogliente per gli utenti. La fonte riconosce che sia i sistemi automatici che quelli umani possono commettere errori, ma sottolinea che l’obiettivo principale è garantire la sicurezza e la qualità dell’esperienza utente.
Un punto interessante sollevato dalla fonte è il paradosso della moderazione e delle revenue. Sebbene la moderazione rigorosa possa sembrare controproducente in termini di entrate immediate, un ambiente online sicuro e ben moderato attrae più utenti, migliorando le revenue a lungo termine. Le piattaforme ben controllate sono più attraenti per gli utenti legittimi, che preferiscono interagire in un ambiente sicuro e privo di contenuti dannosi.
La fonte ha inoltre evidenziato che l’equazione “non controllo per non bloccare revenues” è fondamentalmente sbagliata. Dal 2010, Meta ha osservato che con il giusto investimento in integrità, le revenues salgono, poiché un ambiente moderato e sicuro attira utenti “normali”, che contribuiscono a generare entrate, secondo il modello di business di qualsiasi social. Nessuno desidera stare su una piattaforma piena di scam e contenuti inappropriati, e mantenere un ambiente sicuro è essenziale per la sostenibilità a lungo termine.

3. Considerazioni sulla moderazione


Le osservazioni dell’articolo e le informazioni interne a Meta offrono due prospettive diverse, ma complementari sulla moderazione dei contenuti sui social media. Da un lato, le critiche esterne evidenziano le sfide e le inefficienze legate all’uso dell’AI e alla riduzione delle risorse dedicate alla moderazione. Dall’altro lato, le rassicurazioni interne mostrano l’impegno delle piattaforme a investire nella sicurezza e nella qualità dell’esperienza utente.
L’importanza di bilanciare questi aspetti non può essere sottovalutata. La sicurezza degli utenti è un aspetto cruciale che non può essere sacrificato per massimizzare i profitti a breve termine. Le piattaforme sociali devono investire continuamente in tecnologie avanzate e in risorse umane per garantire una moderazione efficace e giusta. Questo non solo protegge gli utenti, ma rafforza anche la fiducia degli stessi nelle piattaforme, creando un ambiente più sano e sostenibile.
Il paradosso sollevato dalla fonte interna a Meta riflette una realtà complessa: la moderazione efficace può sembrare costosa, ma è essenziale per la sostenibilità a lungo termine delle piattaforme. La fiducia degli utenti è un asset fondamentale che non può essere ignorato. Investire in sicurezza e moderazione, sebbene possa ridurre le entrate immediate, contribuisce a creare un ambiente più attraente per gli utenti, promuovendo la crescita e la sostenibilità delle piattaforme.
La moderazione dei contenuti sui social media è una sfida continua che richiede un impegno costante. Le piattaforme devono bilanciare le esigenze di profitto con la necessità di proteggere gli utenti e mantenere un ambiente online sicuro e inclusivo. Solo attraverso un approccio equilibrato e responsabile sarà possibile garantire un futuro digitale sicuro e sostenibile per tutti gli utenti, promuovendo al contempo la crescita e il successo delle piattaforme stesse.
Tuttavia, e questa è una considerazione del tutto personale, non c’è sforzo economico, non c’è investimento, non c’è algoritmo di AI o impegno di risorse umane che tenga se sono le persone, cioè gli utenti stessi, che mostrano di considerare i social una sorta di “terra di nessuno” dove tutto è valido, tutto è permesso e le conseguenze non esistono e non si pagheranno mai. Dove un gruppo di ragazzini si sente a suo agio a postare un video in cui lancia un gatto da un ponte (senza contare il fatto di aver lanciato il gatto dal ponte) e dove gli altri, i paladini del gatto, quelli che si inteneriscono senza ritegno non appena vedono un cucciolo (cosa che, per inciso, capita anche a me) trovano del tutto normale augurare a un gruppo di minorenni malattie mortali, invitarli al suicidio, insultarne la famiglia fino alla settima generazione, augurargli di fare la stessa fine della povera bestiola e altre amenità assortite.
Perché purtroppo (o per fortuna, punti di vista) la medievale usanza di potare i condannati a prendersi i pomodori e gli ortaggi marci sulla pubblica piazza è, per l’appunto, medievale e oggi i processi si fanno nei tribunali e non sui social network (lo so è scioccante, ma qualcuno lo doveva dire) e peraltro non è sempre del tutto necessario dire tutto quello che si pensa nel momento esatto in cui lo si pensa. Se di moderazione si parla, i primi ad auto moderarci dovremmo essere noi, gli utenti, così come facciamo nella vita reale. Perché possiamo indignarci finche vogliamo, provare orrore anche, per certi gesti, ma la verità è che non oseremmo mai comportarci nella vita reale nel modo becero in cui ci comportiamo sui social . 
La possibilità di pubblicare istantaneamente ogni pensiero o azione ha amplificato comportamenti distruttivi e privi di empatia. Sembra che la connessione digitale abbia in qualche modo scollegato il nostro senso di responsabilità e di percezione dell’irreparabilità delle nostre azioni.
I social media, pur avendo il potenziale di connettere e informare, hanno anche dato una piattaforma ai peggiori impulsi dell’umanità. Il senso di anonimato e la distanza fisica ci fanno dimenticare che dall’altra parte dello schermo ci sono persone reali. I commenti d’odio, le minacce e l’incitamento alla violenza non dovrebbero essere tollerati, né online né offline.
La moderazione dei contenuti è fondamentale, e mi fa piacere apprendere da Meta che gli investimenti sembrino aumentare invece che diminuire. Ma le azioni delle piattaforme e la moderazione non possono risolvere da sole il problema, se non sono accompagnate da un cambiamento culturale profondo e significativo.
E no, non mi riferisco all’educazione digitale. Ma all’educazione. Punto.

Vuoi ricevere aggiornamenti costanti?


Salva questa pagina nella tua Area riservata di Diritto.it e riceverai le notifiche per tutte le pubblicazioni in materia. Inoltre, con le nostre Newsletter riceverai settimanalmente tutte le novità normative e giurisprudenziali!
Iscriviti!

Scrivi un commento

Accedi per poter inserire un commento