E, a margine, anche TikTok sta intensificando i controlli sui contenuti legati al conflitto Israele-Hamas

La risposta della società madre ByteDance dopo la lettera inviata nello scorso fine settimana da Thierry Breton

18/10/2023 di Gianmichele Laino

Mentre su Instagram i contenuti – anche quelli contenenti le migliori intenzioni – relativi al conflitto Israele-Hamas vengono fortemente penalizzati, ci si fa l’ennesima domanda sulla reale efficacia dei social network come veicolo principale di informazione relativamente a fatti d’attualità estremamente delicati. Come possono essere i conflitti. Perché, in una situazione davvero complessa come quella che si è verificata in Ucraina nei giorni immediatamente successivi all’invasione della Russia o come quella che si sta verificando in questi giorni a Gaza, già è molto complesso per i professionisti del giornalismo e per gli studiosi di geopolitica verificare l’attendibilità dei fatti; immaginiamoci come possa esserlo per piattaforme – come i social network – che inizialmente erano nate con lo scopo dell’intrattenimento. Le istituzioni cercano di far valere le norme generali che hanno varato per combattere la disinformazione, ma poi le piattaforme – anche in buona fede – le applicano a modo loro. Pensiamo a quello che sta succedendo con Instagram – che sta bannando i contenuti relativi al conflitto Israele-Hamas -, pensiamo alla posizione di TikTok su Israele-Hamas.

LEGGI ANCHE > Gli ultimi provvedimenti di TikTok contro la disinformazione sul conflitto in Ucraina

TikTok su Israele-Hamas, la decisione della piattaforma dopo la comunicazione di Breton

Come avvenuto anche per altre piattaforme, da quelle di proprietà di Meta, passando per YouTube e X (il vecchio Twitter), il commissario europeo Thierry Breton ha inviato una comunicazione a TikTok, ammonendo la piattaforma ad attenersi alle regole del DSA – il Digital Services Act – sulla moderazione dei contenuti di disinformazione, con riferimento alla situazione estremamente complessa nella striscia di Gaza. Gli ultimissimi fatti – si pensi a quello che sta accadendo con il balletto delle responsabilità e della propaganda sulla bomba che ha colpito l’ospedale cristiano-battista al-Ahli di Gaza e con la diffusione di video e notizie incontrollati e/o decontestualizzati – hanno spinto gli operatori dei social media e i legislatori a prendere dei provvedimenti più efficaci rispetto alle bufale e ai contenuti violenti che circolano sulle piattaforme social.

Per sottolineare l’urgenza, anche a TikTok il commissario Breton aveva dato 24 ore di tempo per uniformarsi a quanto scritto nella lettera e – di conseguenza – a prendere dei provvedimenti. Ma la vera domanda è: nel contesto di una crisi informativa profondissima, come si fa a stabilire con criterio quale contenuto su Israele-Hamas sia consentito e quale no? Il rischio è che, per evitare di sbagliare, le piattaforme applichino un principio orizzontale nella rimozione o nel ban dei contenuti che individuano come sensibili. Il che presuppone due azioni: la prima, quella di stabilire quale contenuto sia sensibile e quale meno; la seconda, quella di rimuoverlo o meno sulla base della veridicità, della violenza, della capacità di offendere qualcuno.

La risposta di TikTok, in ogni caso, è arrivata: c’è una lista di azioni messe in pratica per combattere la disinformazione su Israele-Hamas proprio sul blog ufficiale. Si tratta di risposte che, in realtà, TikTok aveva già dato in passato, soprattutto quando era stata sollecitata sempre dalle istituzioni europee sulle risposte da dare dopo l’approvazione del DSA. Quindi, il dispiegamento di 40mila risorse nelle attività di moderazione del contenuto, il perfezionamento dei sistemi di rilevazione automatica di contenuti violenti, il potenziamento della moderazione in lingua araba o ebraica, per una migliore contestualizzazione dei contenuti stessi, bloccare gli hashtag inseriti in blacklist e considerati violenti, l’aggiunta di restrizioni ulteriori per la pubblicazione di dirette su TikTok dalle aree colpite dal conflitto.

La sproporzione tra le misure prese da TikTok e i contenuti che vengono pubblicati sulla piattaforma

Come è evidente c’è una netta sproporzione tra gli utenti globali del social network (1,677 miliardi di utenti globali nel 2023, con 1,1 miliardi di utenti attivi mensili, secondo gli ultimi dati a disposizone) e il team di moderazione composto da 40mila unità. In passato, gli strumenti di rilevamento automatico di contenuti espliciti hanno già mostrato alcune falle ed è evidente che il blocco degli hashtag non sempre ha arginato discussioni che – proprio per aggirare il ban – si sono serviti di hashtag specifici e spesso difficili da associare a un determinato contesto bellico. Sicuramente qualche maggiore effetto può essere sortito dalle ulteriori limitazioni ai live dalle aree interessate dal conflitto, ma a costo di limitare – d’altra parte – anche la dimensione informativa di chi utilizza TikTok come delivery per la sua attività professionale. Non parliamo, poi, dei sistemi che prevedono la moderazione dei contenuti sulla base dei feedback degli utenti: anche su questo fronte, TikTok ha specificato di aver rafforzato la sua attenzione. Ma si comprende benissimo come, in questo caso, si entra ancor di più nel criterio della soggettività: azioni coordinate di segnalazioni possono sorgere anche per banali motivi propagandistici.

Insomma, abbiamo un problema. A cui bisognava porre rimedio prima. E non in presenza di crisi umanitarie e informative.

Share this article
TAGS