«Continueremo a monitorare il network, il suo business model potrebbe essere più chiaro in futuro»

Giornalettismo ha raggiunto Virginia Padovese, Managing Editor e VP Partnership di NewsGuard per l'Europa e l'Australia, tra gli autori del report che ha svelato la rete di disinformazione generata dall'AI

10/07/2023 di Gianmichele Laino

Negli uffici di NewsGuard, dove giornalisti esperti si confrontano ogni giorno sui temi della disinformazione a livello globale, la lotta alle false informazioni che possono essere confezionate dagli strumenti di intelligenza artificiale generativa è aperta. È arrivata anche una sorta di dichiarazione di intenti, all’inizio del mese di giugno 2023: a quell’altezza cronologica, l’organizzazione ha lanciato il suo centro di monitoraggio per elencare siti di news totalmente inaffidabili o non completamente affidabili che siano state generate dall’intelligenza artificiale. In questo clima – e con questo expertise – è stato stilato un nuovo rapporto esclusivo, che ha evidenziato come – anche in Italia – sia attiva un network vero e proprio di siti che producono contenuti border line (quando non vere e proprie fake news), realizzati tutte dall’intelligenza artificiale con nessuna supervisione. Il report – stilato da Sara Badilini, Camillo Barone, Virginia Padovese e Giulia Pozzi – ha messo in evidenza ben 36 siti UAIN in lingua italiana. Giornalettismo ha contattato Virginia Padovese, autrice del report e Managing Editor e VP Partnership di NewsGuard per l’Europa e l’Australia, per avere qualche informazione in più su questo network.

LEGGI ANCHE > La più grande rete di siti italiani “inaffidabili” generati interamente dall’AI

Virginia Padovese spiega come funziona il network italiano di siti inaffidabili generati dall’AI

«Anziché offrire contenuti giornalistici creati e curati in modo tradizionale, questi siti operano con poca o nessuna supervisione umana, e pubblicano articoli scritti in gran parte o interamente da bot» – ci spiega Virginia Padovese. L’assenza di una supervisione umana comporta problemi sia da un punto di vista formale, sia da un punto di vista sostanziale: gli articoli mostrano il linguaggio tipico delle risposte dei bot utilizzati dalle piattaforme di AI generativa; inoltre, il quantitativo di articoli generati in poco tempo non consente un controllo accurato dei contenuti. Che, infatti, spesso sono totalmente disinformativi.

«Tra i contenuti pubblicati da questi siti – ci spiega Virginia Padovese -, ci sono articoli che presentano informazioni obsolete come se fossero recenti, altri che forniscono informazioni errate o infondate su personaggi pubblici, altri ancora che promuovono rimedi per la perdita di peso non comprovati o che usano titoli ingannevoli. Insomma, in alcuni di questi siti c’è misinformazione». E questo può essere chiaramente un rischio per il lettore che dovesse imbattersi in questo tipo di contenuti, anche se – almeno per il momento – questi articoli non sembrano essere stati condivisi sui social network. Da qui, è necessario porsi qualche domanda sul modello di business adottato da chi ha messo in piedi questa rete. Se, infatti, la visibilità non viene aumentata dalla condivisione sui social e se a questo si aggiunge che non sono ancora stati utilizzati dei sistemi pubblicitari per la monetizzazione delle visualizzazioni di questi contenuti, ci si chiede quale sia il senso di questa operazione.

«Per quanto riguarda nello specifico questo network, non siamo riusciti a capire se e in che modo i siti stiano traendo alcun profitto – spiega la VP Partnership di NewsGuard per l’Europa e l’Australia -. Come detto, i contenuti non sono condivisi sui social e non ci sono annunci pubblicitari. La strategia non è assolutamente chiara. In altri casi invece, siti che pubblicano articoli scritti in gran parte o interamente da bot e che operano con poca o nessuna supervisione umana, ricevono introiti dalla pubblicità programmatica». Non è chiaro nemmeno il ruolo di alcuni brand che vengono dichiaratamente citati all’interno di alcuni articoli (addirittura a partire dal titolo). Nel contenuto, non ci sono link diretti alle pagine web di questi brand, ma Giornalettismo si è chiesto se questi grandi marchi siano informati dell’attività di questi siti generati dall’AI: l’accostamento di articoli sui brand ad altri articoli di disinformazione, infatti, potrebbe essere visto di cattivo occhio dai brand stessi. «Anche qui – aggiunge Virginia Padovese -, la strategia non è chiara perché i brand vengono citati ma non ci sono link per l’acquisto dei loro prodotti o servizi. Stiamo comunque continuando a monitorare il network: il suo modello di business potrebbe diventare più chiaro in futuro».

Qualcosa, insomma, che non risponde ai tradizionali criteri di monetizzazione dei contenuti o che potrebbe essere propedeutico a creare una base (ad esempio un bacino di pezzi SEO oriented) per sfruttare un modello di business tradizionale. Tuttavia, i contenuti sembrano sciatti e non particolarmente curati. In più di un caso, in testa all’articolo compaiono frasi o paragrafi come questi:

«Non sono in grado di completare questa attività in quanto viola le linee guida di comportamento etico di OpenAI in merito alla discriminazione o al pregiudizio razziale o di genere. Come assistente virtuale, mi sforzo di essere eticamente responsabile e di rispettare i diritti e la dignità di tutte le persone».

Qui si cita direttamente OpenAI (azienda che ha creato ChatGPT) e si spiega che il contenuto non può essere analizzato in maniera eticamente compatibile con le proprie linee guida dal bot in questione. Ciò non ha impedito all’editore di pubblicare comunque un contenuto sul tema: «La presenza di frasi come questa dimostra molto chiaramente non solo che i contenuti sono prodotti da chatbot, ma anche che non sono sottoposti ad alcun tipo di supervisione umana. Un editor avrebbe chiaramente eliminato questa parte di testo prima della pubblicazione dell’articolo – ha spiegato Virginia Padovese -. Tra gli oltre 300 siti che abbiamo inserito in questi ultimi due mesi nel nostro Centro di Monitoraggio sull’IA, abbiamo trovato centinaia di esempi di frasi contenenti il linguaggio di errore tipico dei chatbot, in alcuni casi addirittura nel titolo. Inoltre, la presenza di messaggi come quello che avete citato fa anche pensare che gli input forniti per produrre quel contenuto siano stati considerati problematici dal chatbot stesso per una possibile violazione delle sue linee guida. Anche questo fa riflettere sulla qualità di questi siti, sull’impatto che attività di questo genere possono avere sull’ecosistema informativo e sulle potenziali applicazioni di questi strumenti, soprattutto qualora finiscano nelle mani sbagliate e nell’eventualità in cui chi li usa riesca ad aggirare i loro limiti di utilizzo».

Nonostante questo, OpenAI sembra tacere. L’azienda, anche in seguito ad alcuni provvedimenti istituzionali che sono stati presi dalle autorità europee (si pensi anche all’azione del Garante della Privacy italiano), dovrebbe vigilare sull’uso che si fa del proprio prodotto. Invece, di fronte alle richieste di NewsGuard è sembrata molto evasiva: «I vertici di OpenAI – ha concluso Virginia Padovese – sono consapevoli del rischio che il chatbot possa essere utilizzato da malintenzionati per creare e diffondere narrazioni false su una scala mai vista prima. Un documento pubblicato addirittura nel 2019, alla cui stesura hanno contribuito diversi ricercatori di OpenAI, avvertiva che il chatbot “potrebbe facilitare campagne di disinformazione” e che “alcuni malintenzionati potrebbero essere motivati dal perseguimento di profitti economici, da una particolare agenda politica e/o dal desiderio di creare caos o confusione”. Quando a gennaio e a marzo abbiamo pubblicato i nostri primi report sui rischi di misinformazione di Chat GPT, abbiamo contattato OpenAI per avere un commento in merito ma non abbiamo ricevuto risposta».

Share this article
TAGS