OpenAI sa che i suoi tool vengono usati per fare disinformazione di questo tipo?

OpenAI ha individuato la possibilità di disinformazione attraverso i suoi strumento ma, almeno ad oggi, non c'è nessun tipo di posizione pubblica in merito

10/07/2023 di Ilaria Roncone

Nel monografico di oggi abbiamo evidenziato l’esistenza di questi siti UAIN – generati interamente o quasi per intero da intelligenza artificiale senza la supervisione umana – e l’abbiamo analizzata da diversi punti di vista: come riconoscerli in base alla loro struttura, il percorso di generazione e messa online, il modo in cui (almeno per ora) non sembra monetizzino. Un’ultima cosa fondamentale da comprendere è il ruolo di OpenAI – considerati i messaggi che compaiono in alcuni articoli, dove si legge chiaramente che OpenAI (ovvero ChatGPT) non può esprimersi su quella data tematica – in tutto questo. Ne è a conoscenza? Se sì, sta facendo qualcosa? In che modo?

LEGGI ANCHE >>> Come sono strutturati i siti italiani generati con l’AI?

Dietro questa rete di siti c’è ChatGPT di OpenAI

Come ha evidenziato NewsGuard, ci sono «diversi esempi di messaggi di errore tipicamente prodotti dai chatbot» su tutti i 36 siti presi in esame. Tra i contenuti di bassa qualità veicolati compare questo articolo: “La verità sul marito cieco di Bianca Berlinguer”. Al netto del fatto che il marito di Bianca Berlignuer non è mai stato Fabio Calvi, come affermato nell’articolo, basta leggerlo per avere la prova – anche al di là del tone of voice del pezzo, piatto e privo di reali inflessioni tipiche di mente e mano umana – che c’è ChatGPt dietro quell’articolo.

Si legge, nell’unico punto del paragrafo “Vantaggi” – che, tra l’altro, in un articolo del genere non ha reale senso di esserci -: «Non sono in grado di completare questa attività in quanto viola le linee guida di comportamento etico di OpenAI in merito alla discriminazione o al pregiudizio razziale o di genere. Come assistente virtuale, mi sforzo di essere eticamente responsabile e di rispettare i diritti e la dignità di tutte le persone». Questo articolo – così come altri – contiene la prova del fatto di essere stato generato sfruttando l’intelligenza artificiale (nel caso specifico, ChatGPT di OpenAI).

Come abbiamo approfondito in un altro articolo del monografico di oggi, almeno per ora (e alla data del 5 luglio 2023) nessuno di questi siti presentava pubblicità programmatica e i singoli articoli non venivano condivisi sui social.

Il ruolo di OpenAI in tutto questo

OpenAI è a conoscenza di tutto questo? L’utilizzo di ChatGPT per produrre contenuti informativi – siano essere di gossip, che attribuiscono falsamente una relazione a questo o a quel personaggio, o di benessere, affibbiando a un alimento una proprietà miracolosa che non ha – è un fatto grave di per sé.

Guardando a questo fenomeno nell’ottica in cui oggi si tratta di notizie di questo tipo, domani potrebbe trattarsi – una volta affinata la tecnologia – di notizie false su questioni sensibili (un esempio, la guerra in Ucraina) o di opinioni scritte in maniera sempre più umana attribuite a personaggi di spessore (nell’ambito, magari, di una campagna elettorale). Cosa succederebbe in questo caso?

Al di là del caso specifico, più volte nel corso degli ultimi mesi sono state fatte richieste esplicite di chiarezza a OpenAI. L’azienda, per ora, sembra scegliere la via del silenzio quando si tratta di casi come questo (e ce lo ha confermato anche Virginia Padovese, una delle autrici del rapporto NewsGuard che abbiamo intervistato): «I vertici di OpenAI sono consapevoli del rischio che il chatbot possa essere utilizzato da malintenzionati per creare e diffondere narrazioni false su una scala mai vista prima. Un documento pubblicato addirittura nel 2019, alla cui stesura hanno contribuito diversi ricercatori di OpenAI, avvertiva che il chatbot “potrebbe facilitare campagne di disinformazione” e che “alcuni malintenzionati potrebbero essere motivati dal perseguimento di profitti economici, da una particolare agenda politica e/o dal desiderio di creare caos o confusione”. Una volta individuati casi disinformazione, i membri di NewsGuard hanno provato a chiedere conto a OpenAI ma l’azienda non si è mai espressa in merito.

Share this article