Occhio alla disinformazione politica sui social, soprattutto con l’intelligenza artificiale

Un recente report dell'organizzazione non-profit indipendente EU Disinfo Lab ha spiegato il comportamento delle piattaforme social in presenza di disinformazione

06/07/2023 di Redazione Giornalettismo

Social e disinformazione politica, un binomio che – da diverso tempo – sta inquinando l’ecosistema informativo. La crescente importanza delle piattaforme di social networking (con la sempre maggiore influenza che riescono a esercitare soprattutto tra gli utenti più giovani, che virano verso Instagram, TikTok e OnlyFans) ha determinato un diverso modo di pensare dal punto di vista delle tematiche socialmente rilevanti. Non sempre basato, tra l’altro, su dati fattuali, ma spesso condizionato dalla falsa informazione che sulle piattaforme come Facebook, Instagram, TikTok, Twitter trova sempre più spazio. L’inserimento dell’intelligenza artificiale in questo contesto già di per sé complesso ha ulteriormente reso più difficili le cose. Video deep fake, immagini realizzate attraverso l’AI generativa, testi completamente nati dal nulla (sul modello di quelli proposti da ChatGPT) sono i nuovi mezzi attraverso cui, chi è interessato ad ottenere visibilità da informazioni false, sta operando in questo particolare momento storico. Per questo motivo, la non-profit Eu Disinfo Lab ha provato a monitorare i comportamenti delle principali piattaforme di social networking di fronte alla disinformazione politica.

LEGGI ANCHE > Twitter ha sospeso l’account di Erica Marsh dopo le domande dei giornalisti, ma è davvero pronto contro l’AI?

Social e disinformazione politica, il prospetto attuale dei principali players sul mercato

Eu Disinfo Lab, com’è noto, è una importante organizzazione che – attraverso ricerche, indagini e approfondimenti – sta cercando di contrastare la disinformazione online. Nell’ultimo report, presentato solo qualche settimana fa, stava analizzando gli strumenti messi a disposizione dai social network per battere la disinformazione politica. In questo ambito, a quanto pare, Facebook e Instagram – i social network di proprietà di Meta – sembrano avere in casa l’arsenale più completo. Del resto, come rilevano i ricercatori di Eu Disinfo Lab, si tratta anche dei social network che devono lavare via il peccato originale di Cambridge Analytica, lo scandalo che nel 2018 aveva evidenziato una importante attività di scraping da Facebook con lo scopo di indirizzare al meglio l’informazione in concomitanza con le elezioni americane. E che hanno affrontato, recentemente, anche le dichiarazioni di Frances Haugen, la whistelblower che aveva denunciato delle pratiche scorrette sulla moderazione dei contenuti nell’azienda di Menlo Park.

Meta utilizza etichette di avviso per i contenuti di disinformazione, riduce la visibilità dei post che contengono disinformazione, si avvale di team di terze parti (teoricamente indipendenti) per effettuare azioni di fact checking sulle piattaforme, abbatte la monetizzazione di quegli account che vengono individuati come diffusori di false informazioni e cerca di essere il più trasparente possibile in merito alle azioni intraprese nei confronti di chi inquina l’ecosistema mediatico. Recentemente, anche TikTok sta implementando i suoi livelli di sicurezza a proposito della disinformazione politica, mentre invece – come dimostra anche il caso di Erica Marsh – le misure prese in considerazione per Twitter (che pure, nell’ultimo periodo, stava aumentando i livelli di sicurezza) non possono più essere attendibili.

L’acquisizione della piattaforma da parte di Elon Musk, infatti, ha cambiato le carte in tavola, soprattutto per quanto riguarda la moderazione: i maggiori tagli al personale di Twitter, resi necessari dal risanamento economico della compagnia, sono avvenuti proprio nel settore della moderazione dei contenuti. Dunque, quanto rilevato da Eu Disinfo Lab – per stessa ammissione dei ricercatori – potrebbe non essere più valido per la piattaforma dei cinguettii.

Il caso di Erica Marsh, del resto, ci ha dimostrato – una volta di più – come si possa essere ambigui su Twitter, a maggior ragione con l’introduzione di nuove tecnologie di creazione del contenuto che mettono in gioco l’intelligenza artificiale. Consideriamo – è vero – che il caso in specie sia avvenuto oltre oceano. Tuttavia, in questo particolare momento storico, nel Vecchio Continente, c’è un ecosistema normativo quanto mai attivo contro la disinformazione di carattere politico: il Digital Services Act, infatti, prevede che i cosiddetti VLOP (Very Large Online Platforms) rispettino norme stringenti e che possano rendicontare le iniziative intraprese per combattere la disinformazione online. Ma, a Twitter, tutto questo sembra non interessare.

Share this article