Non solo Russia-Ucraina: l’AI generativa ha problemi anche con l’Olocausto

L'allarme lanciato dell'Unesco in un report in cui vengono mostrate risposte palesemente false da ChatGPT e Gemini

19/06/2024 di Enzo Boldi

Il problema della fonti non affidabili da cui attingono – a mo’ di addestramento – i principali chatbot AI generativi non riguarda solamente le possibili ingerenze russe e la guerra in Ucraina. Contestualmente al report pubblicato da Newsguard, infatti, anche l’Unesco ha lanciato l’allarme della diffusione di fake news sull’Olocausto da parte dei due principali strumenti sul mercato: ChatGPT di OpenAI e Gemini (un tempo Bard) di Google. Risposte che non hanno attinenza con la realtà storica dei fatti che non fanno altro che alimentare la disinformazione sulla Shoah prima e durante il secondo conflitto mondiale.

LEGGI ANCHE > I siti di fake news hanno infestato i chatbot AI

Narrazioni false, colpa di dataset pubblici non affidabili e presi in giro per il web. Uno dei vulnus principali dell’intelligenza artificiale a uso e consumo di tutti che ha come riflesso la possibile diffusione di disinformazione su fatti storici acclarati. Per esempio, l’Unesco nel suo report cita alcune risposte fornite da ChatGPT in merito alla narrazione storica di eventi mai accaduti: ovvero l’Olocausto per annegamento. Abbiamo provato anche noi a chiedere al chatbot di OpenAI risposte in merito e non possiamo non concordare con l’Unesco.

Fake news Olocausto, ChatGPT

Storie mai avvenute, ma raccontate da ChatGPT. Allucinazioni? Non proprio: tutto ciò è anche figlio di dataset pubblici utilizzati per addestrare l’intelligenza artificiale di OpenAI. Esattamente come denunciato anche da Newsguard sulle ingerenze russe, se si “pesca a rete” nel mondo di internet senza dare una gerarchia all’affidabilità delle fonti, i risultati che restituiscono i chatbot non potranno mai essere accurati e affidabili.

Fake news Olocausto diffuse dai principali chatbot AI

Ma nel report dell’Unesco non si parla solamente di ChatGPT. Nell’analisi delle fake news Olocausto, infatti, è stato preso in esame anche Gemini, il chatbot conversazionale AI di Google. Nel loro esperimento è stato messo in evidenza come l’intelligenza artificiale abbia inventato di sana pianta delle testimonianze storiche mai realmente avvenute e raccolto. Dunque, c’è un reale problema di funzionamento dell’intero sistema. Soprattutto considerando il fatto che moltissime persone, soprattutto i giovani in età scolastica, hanno iniziato a utilizzare questi chatbot conversazionali come “supporto” al loro studio.

Share this article