Meta si “affida” all’intelligenza artificiale per verificare le fake news su Wikipedia
L'arrivo dello strumento Sphere per cercare di limitare la condivisione di bufale. Un progetto open source avviato per un supporto alla famosa enciclopedia partecipativa online
12/07/2022 di Enzo Boldi
Nei pascoli vasti ed erbosi rappresentanti dalla rete, continuano a correre libere le bufale. Notizie false, frasi fuori dal contesto o attribuzioni prive di fondamento. I social, in modo particolare, hanno dato un ampio contributo alla diffusione delle fake news, ma ora Meta prova a correre ai ripari lanciando uno strumento che si basa sull’intelligenza artificiale. Il progetto open source si chiama “Sphere” e il primo “aiuto” sarà dato a Wikipedia. Un connubio che, nella percezione di molti utenti e navigatori del web, non sembra essere l’emblema della limpidezza proprio per la stessa natura della piattaforma social e dell’enciclopedia online partecipativa.
LEGGI ANCHE > La funzione “Things to know” su Google: a cosa serve?
Ad annunciare il lancio di questo strumento è stato il portale specializzato TechCrunch che ha riportato le dichiarazioni di Meta: «Il nostro obiettivo è creare una piattaforma per aiutare gli editori di Wikipedia a individuare sistematicamente i problemi di citazione e correggere rapidamente il contenuto dell’articolo. Il nostro prossimo passo è formare modelli per valutare la qualità dei documenti recuperati, rilevare potenziali contraddizioni, dare priorità a fonti più affidabili». Per gli altri – al momento -, ma non per le varie piattaforme del gruppo Meta (quindi Facebook, Instagram e Whatsapp).
Sphere, il programma di Facebook contro le fake news
Il primo “cliente” (anche se entrambe le aziende hanno spiegato che non ci sia alcun accordo commerciale) di questo progetto open source, dunque è proprio Wikipedia. L’enciclopedia collaborativa online, infatti, è spesso finita nel mirino delle critiche per non essere considerata affidabile al 100%. Ma proprio per sua natura: la possibilità di un singolo utente di modificare un voce, un lemma e una pagina, permette a chiunque di non fornire una versione corretta. Ovviamente, il team di moderatori di Wikipedia è sempre attivo, ma l’esiste di milioni e milioni di pagine rendono difficilissimo avere la presa su tutte le modifiche che avvengono online.
Ma come funziona?
E qui entra in ballo l’intelligenza artificiale su cui si basa Sphere che sta utilizzando proprio Wikipedia per testare le sue capacità. Ma cosa fa? In pratica, l’AI di questo strumento scansiona tutte le citazioni presenti in tutte le voci pubblicate sull’enciclopedia online (le famose note a piè di pagina) e verifica che il contenuto sia inerente alla fonte citata. In caso di esito positivo, non avviene alcune segnalazione. Altrimenti, questo strumento indica quel contenuto non affidabile. Ovviamente, tutto ciò è per consolidare quella fase di test nel mondo reale (seppur virtuale). Perché, come noto, Meta non fa nulla in modo casuale. Qualora questo strumento di verifica si rivelasse utile per la lotta alle fake news, nel giro di pochi mesi potrebbe essere utilizzato anche sui social network, vere incubatrici di bufale.