Che cosa ne sarà, ora, della moderazione Twitter? La testimonianza di Melissa Ingle, ex dipendente Twitter
Melissa Ingle, ex senior Data Scientist Twitter, ci ha raccontato - oltre la questione dei licenziamenti - cos'è stata finora e cosa potrebbe diventare la moderazione ora che è Musk il capo
22/11/2022 di Redazione
Cosa resterà della moderazione a.M. (avanti Musk) su Twitter? In un periodo di completo subbuglio, con il licenziamento di 7.500 dipendenti a inizio novembre – tra cui, appunto, l’ex senior Data Scientist Melissa Ingle – e l’uscita di altre persone in seguito all’aut aut di Musk (ai dipendenti rimasti è stato chiesto di rendersi disponibili a lavorare di più o di andare via), il dubbio sull’approccio di Musk alla moderazione Twitter è forte e diffuso. Ne abbiamo parlato con la ex dipendente che, a tutti gli effetti, aveva un ruolo nella moderazione di tipo politico (con particolare attenzione ai periodi delle elezioni). Ingle ha effettivamente confermato – facendo un confronto con il lavoro come è stato finora – che i presupposti dell’azione di Musk non sembrano essere buoni a partire dalla messa fuori uso del team di moderazione.
LEGGI ANCHE >>> Cosa significa essere licenziata via mail? La testimonianza di Melissa Ingle, ex dipendente Twitter
«Musk non ha una piena comprensione del funzionamento della moderazione»
Parlando delle intenzioni di Musk – considerato ciò che ha detto pubblicamente e fatto finora – Ingle non esita a definire il neo proprietario di Twitter una persona che non ha «una piena comprensione del funzionamento della moderazione di contenuti». «Per me – ha spiegato Melissa Ingle ai microfoni di Giornalettismo – quelle parole indicavano come non avesse una piena comprensione del funzionamento della moderazione di contenuti. Lui era apertamente ostile a quello che facevamo e ovviamente era angosciante per noi, avevano una sorta di bersaglio sulla schiena solo per il lavoro che facevamo».
Cosa punta a fare, Musk, secondo chi ha vissuto in pieno questo ultimo periodo a Twitter? «Elon Musk vuole automatizzare tutto il processo di moderazione dei contenuti ma la tecnologia, sfortunatamente, non è ancora in grado di farlo. Vuole anche allentare tutte le restrizioni che riguardano l’abuso e il linguaggio. La sua idea, stando a quello che dichiara, è quella di creare un Twitter che permetta la libera espressione».
Un esperimento che, guardando bene, è stato già tentato in altri casi allentando la corda della moderazione: «Quello che però vediamo con altri social media è che, se effettivamente si crea un luogo con totale libertà di espressione, questi può rapidamente diventare un ambiente estremo e tossico e le persone non vogliono stare in questo tipo di ambiente, vogliono andarsene, e anche le aziende non vogliono fare pubblicità in questo tipo di ambiente. Musk non rimuoverà tutte le restrizioni ma questo “rendere tutto automatizzato”, con la perdita dell’interazione umana, andrà peggiorando nel tempo».
Come ha lavorato Twitter finora su moderazione e disinformazione?
Melissa Ingle ci ha spiegato come hanno funzionato – finora – l’algoritmo di moderazione e le persone che agivano sul lavoro della macchina: «Io e il mio team lavoravamo a e con degli algoritmi di nome “natural languages processing alghoritms”, molto buono per processare testi. Facebook li usa, noi lo usiamo. Sono sistemi molto importanti perché Twitter ha un tale quantitativo di tweet generati all’ora che il lavoro umano non potrebbe mai leggere un tale quantitativo di informazioni».
«Gli algoritmi, però – spiega Ingle – non funzionano tutti così bene. Facciamo del nostro meglio ma mancano di segnalare delle cose, di classificarle. Facciamo del nostro meglio per addestrali al meglio ma, per esempio, non possono moderare il sarcasmo. Non sanno cosa sia. Il sarcasmo viene sempre classificato in maniera errata». Ed è proprio qui che scende in campo la moderazione umana: «C’è bisogno di quel team fatto di persone che abbiano familiarità con le leggi, i costumi e la cultura affinché siano in gradi di dire cosa è disinformazione e cosa non lo è. C’è necessità che entrambi i sistemi lavorino allo stesso tempo».
Il lavoro dell’algoritmo senza la revisione umana, quindi, è nullo. Senza un team che – con l’andare avanti del tempo e degli standard – agisca per direzionare il funzionamento degli algoritmi, quello che potrebbe accadere – in sostanza – è che i filtri saranno sempre più deboli e la disinformazione sempre più presente sulla piattaforma.