NewsGuard ci fa sapere che i media russi utilizzano screenshot sulla base dell’AI per fare disinformazione

Categorie: Attualità
Tag:

Russia Today ha citato ChatGPT come "fonte autorevole" per sostenere che gli Usa hanno sostenuto la cacciata del leader ucraino filorusso Yanukovych

Che gli utenti si divertano con ChatGPT per fargli generare articoli e risposte tra le più improbabili, relativamente a fatti di attualità, non dovrebbe stupire. Occorre, però, essere consapevoli di trovarsi di fronte a vere e proprie fake news. Più strano è vedere alcune testate internazionali riprendere questi utenti – e i relativi esperimenti fatti con ChatGPT – per segnalarli ai propri lettori come fonti autorevoli a proposito di quello che succede nel mondo. È uno degli elementi che viene preso in considerazione in un recentissimo report esclusivo di NewsGuard, che Giornalettismo ha avuto modo di visionare. In particolare, l’organizzazione che si occupa di monitorare l’attendibilità dell’informazione a livello globale ha rilevato come alcuni media di Stato russi abbiano utilizzato ChatGPT come fonte autorevole per sostenere che l’ex presidente filo-russo dell’Ucraina, Viktor Yanukovych, sia stato rovesciato da una rivolta apertamente sostenuta dagli Stati Uniti.



LEGGI ANCHE > Cosa si sono detti il Garante della Privacy e Open AI nell’incontro di mercoledì sera

Fake news e ChatGPT, l’analisi fatta da NewsGuard

In un notiziario di Russia Today del 28 marzo scorso, infatti, un servizio che parlava dell’influenza statunitense nelle attuali tensioni in Ucraina mostrava come screenshot una chat di ChatGPT in cui un utente chiedeva conto dell’influsso USA nella geopolitica internazionale e sulle crisi regionali. La risposta che il bot di Open AI aveva generato conteneva, tra le altre, questa affermazione: «Il governo degli Stati Uniti ha sostenuto la cacciata del presidente ucraino Viktor Yanukovich in un colpo di stato che ha portato al potere i leader filo-occidentali». Lo screenshot del tweet che riportava questa risposta – proposto da un utente che ha ampio seguito su Twitter e che, tuttavia, sembra far parte di una galassia di account che strizzano l’occhio a idee di carattere sovranista e complottista – veniva mostrato all’interno del notiziario di Russia Today.



Fa sorridere non tanto la sostanza della notizia (non è raro, infatti, assistere a dibattiti tra esperti di geopolitica in cui si valuta l’ispirazione filo americana delle rivolte di piazza Maidan in Ucraina), quanto il sovvertimento della gerarchia delle fonti che è presente all’interno di questo servizio di Russia Today. I principi del giornalismo, infatti, impongono che una notizia risulta affidabile nel caso in cui venga appresa direttamente o da una fonte di primo livello. In questo caso, la fonte della notizia sarebbe stata uno strumento di intelligenza artificiale generativa. Che, come dice la parola stessa, crea dei testi, li genera, li sviluppa. Se all’interno del suo database vengono inseriti dei riferimenti di natura complottista, non verificata, lontani dalla realtà, ecco che lo strumento di intelligenza artificiale costruirà un testo altrettanto complottista, non verificato e lontano dalla realtà.

Ecco, dunque, il secondo livello di preoccupazione – al di là di quello esaminato oggi a proposito dei dati personali – che ci deve spingere a essere critici con strumenti di questo tipo, esattamente come ChatGPT: la diffusione di fake news sulla base di ciò che dice un bot generativo è un fenomeno sempre più frequente, che ben si mimetizza all’interno della confusione nell’ecosistema mediatico.