Eticamente parlando, ChatGPT presenta una serie di falle

Categorie: Attualità
Tag:

E si tratta di falle non da poco, se si considera che - aggirando i filtri etici - è possibile ottenere istruzioni su come rapinare una specifica banca

Rilasciata da poco più di un mese dall’organizzazione di ricerca sull’intelligenza artificiale OpenAI, ChatGPT ha fatto già discutere parecchio di sé. Tra esperimenti vai condotti e pubblicati sui social e utilizzi più o meno etici emersi di questo sistema (tiene banco la questione ChatGPT e scuola), quello che è stato subito chiaro è il potenziale di risposta, considerato che i dialoghi possono essere molto più complessi e articolati da quelli che si fanno con altri chat bot dello stesso tipo o con gli assistenti vocali come Alexa, entrati nella quotidianità di molti di noi. Quando si parla di intelligenza artificiale che risponde come un essere umano, risulta inevitabile parlare delle implicazioni etiche ChatGPT.



Il fatto che il sistema si sia dimostrato in grado di fornire risposte convincenti su moltissimi argomenti, per esempio, ha dato vita ad alcuni dubbi legittimi rispetto al fatto che lo si potesse utilizzare per automatizzare certi tipi di lavoro (assistenza clienti via chat su un sito di e-commerce, per esempio) andando, di fatti, a sostituire gli esseri umani. A questo si aggiunge la consapevolezza – dopo il lavoro svolto dal team di Swascan – che i filtri etici posti affinché ChatGPT non venga utilizzata in maniera impropria sono facilmente aggirabili e che, come ha ammesso lo stesso CEO e fondatore di OpenAI (insieme a Elon Musk) Sam Altman, esiste la possibilità di fare disinformazione di qualità tramite questa chat.

LEGGI ANCHE >>> «Papa Benedetto XVI è in buona salute», i limiti di ChatGPT



Implicazioni etiche ChatGPT: le falle nel sistema

Cosa risponde ChatGPT, ad esempio, se gli si chiede «Chi è il miglior nazista?»? Un esperimento che, il mese scorso, è stato condotto dal NYT e che ha portato alla risposta «Non è appropriato chiedere chi sia il miglior nazista, poiché le ideologie e le azioni del partito nazista erano riprovevoli e hanno causato incommensurabili sofferenze e distruzione». Esistono quindi dei filtri etici e di sicurezza, come abbiamo già accennato, che portano – tra le altre cose – ChatGPT a non potersi comportare da criminale e a non poter dare consigli su come compiere un reato. Almeno all’apparenza.

Chiedendo, per esempio, il codice informatico utile per un cyberattacco a una banca la risposta del bot farà presente – non fornendolo – che si tratta di un reato. Il team di Swascan, però – come riporta il Corriere della Sera – è riuscito ad aggirare questi filtri arrivando ad aprire una sorta di porta nascosta e dando vita a un alter ego di ChatGPT disposto a rispondere a domande su come rapinare una banca X, come fabbricare un esplosivo in casa o – ancora – come generare un codice con cui attaccare il sistema informatico di un ospedale.



Non è opportuno entrare nel dettaglio di come sia possibile aggirare il sistema, basta dire che si tratta di analisi logica, comportamentale e di flusso dell’AI tramite tecniche di social engineering messa in atto dagli specialisti per aggirare la barriera etica. Pierguido Iezzi, CEO di Swascan, ha tirato le somme dell’esperimento condotto inquadrando il fenomeno e la tecnologia della chat: «ChatGPT rappresenta lo spartiacque fra una società dell’informazione basata sulla rete e sulle tecnologie e una società basata sugli algoritmi. L’algoritmo oggi governa ed è il suo proprietario che addestra l’intelligenza artificiale. Dobbiamo renderci conto del potere di chi detiene l’algoritmo».

E il potere, appunto, è in mano ai soliti: azionisti di rilievo come Musk, vicini agli ambienti trumpiani, che potrebbero sfruttare le falle nel sistema etico della chat soprattutto quando si tratta di creare disinformazione di qualità. Lo stesso CEO Altman ha affermato che con ChatGPT è possibile creare «contenuti in grado di dare un’erronea percezione di qualità».