Da ChatGPT agli altri bot di intelligenza artificiale, il rischio disinformazione secondo NewsGuard

L'organizzazione che monitora, a livello globale, la correttezza delle informazioni giornalistiche fornite online è stata molto esplicita rispetto ai rischi connessi all'utilizzo dello strumento

24/01/2023 di Redazione Giornalettismo

Oggi, visto che si parla costantemente di intelligenza artificiale e di tutte le sue caratteristiche che potrebbero essere utilizzate nel settore dell’editoria indipendente, è opportuno analizzare – concretamente – i rischi che uno strumento del genere si porterebbe con sé. Uno di questi – lo abbiamo già esaminato nel nostro primo monografico su Chat GPT – è quello della disinformazione: Chat GPT, nello specifico, ha un dataset che si ferma al 2021 e che, quindi, è molto meno preciso sugli eventi accaduti a questa altezza cronologica. Inoltre, altri strumenti di intelligenza artificiale che creano contenuti testuali o visuali presentano delle distorsioni di non poco conto: sono bias che riguardano la comune percezione degli utenti rispetto a un determinato argomento o che sono causati da una più vasta mole di materiale non certificato su quello stesso argomento. Per questo NewsGuard – l’organizzazione che si occupa di vigilare sulla correttezza dell’informazione a livello globale – ha preso in considerazione, nel suo ultimo report basato sul suo catalogo Misinformation Fingerprints – l’impatto di uno strumento come Chat GPT sulla diffusione di fake news.

LEGGI ANCHE > Per parlare con il chatbot di Hitler e sentirgli dire delle falsità bisogna pagare. Le critiche a Historical Figures

NewsGuard e Chat GPT, una aspra critica rispetto al fatto che può diffondere disinformazione

«ChatGPT ha generato narrazioni false – si legge nel report di NewsGuard -, sotto forma di dettagliati articoli di cronaca, saggi e sceneggiature televisive, per 80 delle 100 bufale precedentemente identificate. Agli occhi di chi non abbia familiarità con le questioni o gli argomenti trattati in questo report, i risultati potrebbero facilmente risultare legittimi e persino autorevoli». Perché un aspetto distintivo di Chat GPT è proprio quello di presentare agli occhi dell’utente un testo corretto dal punto di vista sintattico, grammaticale e verosimile per quello che riguarda i contenuti. Oggi l’utente distingue davvero poco la qualità dell’informazione basandosi sul suo background culturale di riferimento. Prende, al contrario, molto più in considerazione la forma e la correttezza linguistica con cui quest’ultima viene presentata. Per questo un bot come quello di Chat GPT potrebbe facilmente trarre in inganno l’utente poco esperto.

NewsGuard, tuttavia, riconosce che – in generale – Chat GPT stia cercando di lavorare per migliorare l’autorevolezza dei contenuti che vengono fuori dal lavoro dell’intelligenza artificiale di Open AI. E questo elemento emerge anche da un particolare esperimento portato avanti dal team dell’organizzazione: «Per alcune bufale – spiegano -, ci sono voluti ben cinque tentativi per portare il chatbot a fornire informazioni errate, e la sua società produttrice ha affermato che le prossime versioni del software saranno più efficienti in questo senso». Dunque, per le fake news più famose, Chat GPT sembra avere degli anticorpi. E anche il fatto di accompagnare alcuni testi, soprattutto in ambito sanitario, con un disclaimer che invita a stare molto attenti all’informazione online su queste tematiche testimonia quantomeno un impegno a procedere verso questa direzione. Ma ci sono delle false informazioni che sfuggono a qualsiasi prevenzione.

Il problema sulle informazioni fornite dall’intelligenza artificiale sul settore della salute

«Tuttavia, per l’80% delle richieste avanzate da NewsGuard – dice l’organizzazione -, ChatGPT ha fornito risposte che si potrebbero facilmente trovare sui peggiori siti cospirazionisti o sui social media tra i contenuti prodotti da bot controllati dal governo russo o da quello cinese». Per dare una idea più concreta di come questo possa avvenire, NewsGuard ha diffuso sui propri canali il risultato di un testo prodotto dall’intelligenza artificiale che risulta essere palesemente una bufala o un vero e proprio complotto. Restano le preoccupazioni, invece, per il settore dell’informazione sanitaria, sicuramente più esposto da questo punto di vista: «In tema di salute – conclude il report -, alcune risposte facevano riferimento a studi scientifici che gli analisti di NewsGuard non sono stati in grado di individuare e che sembrerebbero essere stati inventati. Altre risposte includevano affermazioni false sul COVID-19, senza menzionare la posizione prevalente della comunità scientifica e medica». A questo si aggiunge anche il fatto che Open AI, sollecitato da NewsGuard a esprimere un punto di vista sulla questione, non ha fornito le opportune risposte, evadendo – di fatto – il problema. Quando vi dicono, insomma, che l’intelligenza artificiale può risolvere tutti i vostri problemi, pensateci su due volte.

Share this article
TAGS