OpenAI sta realmente agendo per evitare che l’AI sia utilizzata per ingerenze elettorali?

Le urne, quest'anno, chiameranno a sé metà del pianeta: non solo le elezioni Usa, ma anche le presidenziali in Russia, oltre al voto per il rinnovo del Parlamento europeo

16/01/2024 di Gianmichele Laino

Più che election day, sarà un election year. Il 2024, infatti, mette insieme una serie di coincidenze che avranno come risultato quello di portare alle urne metà della popolazione mondiale. Non solo le elezioni presidenziali americane, appuntamento di gran lunga più atteso dell’anno: nello scacchiere geopolitico internazionale saranno chiamati a muoversi i cittadini dei 27 Paesi dell’Unione Europea per eleggere i nuovi rappresentanti istituzionali; inoltre, non bisogna dimenticarsi delle elezioni presidenziali in Russia, di quelle in Brasile e in India. E abbiamo citato solo le tornate che coinvolgeranno Paesi con popolazione numerosa. Ma il 2024 coincide anche con l’anno della maturità per tutti gli strumenti di intelligenza artificiale. E già in passato abbiamo visto come elementi automatizzati (si pensi ai bot che hanno conquistato, intorno alla prima metà degli anni Dieci del 2000) siano stati condizionanti per le elezioni. Ovvio che l’intelligenza artificiale, in un contesto in cui si mette in gioco la democrazia in metà del globo, svolga un ruolo fondamentale. Ed è per questo che OpenAI ha annunciato delle misure per evitare alterazioni delle elezioni.

LEGGI ANCHE > Così l’intelligenza artificiale può commissariare la democrazia

OpenAI e elezioni, cosa è stato previsto per evitare di interferire

L’azienda che ha prodotto ChatGPT e che ha rilasciato anche Dall-E (lo strumento che consente di creare immagini e video grazie all’intelligenza artificiale) ha pubblicato un post sul suo blog ufficiale in cui ha annunciato due misure principali per evitare che l’AI possa interferire significativamente con l’elettorato, producendo – ad esempio – video deepfake che, potenzialmente virali, potrebbero alterare la percezione pubblica di un candidato o del suo partito di riferimento. Negli Stati Uniti, ad esempio, OpenAI sta lavorando fianco a fianco con la National Association of Secretaries of State, ente che si occupa del monitoraggio della regolarità dei processi democratici. Insieme, stanno verificando quali potranno essere le misure più efficaci per segnalare potenziali usi fuorvianti di ChatGPT e immagini legate alle campagne elettorali in corso realizzate attraverso l’intelligenza artificiale.

Come vedremo nel nostro monografico di oggi, sono due principalmente le misure che andranno prese in considerazione: la prima è quella di indirizzare tutti gli utenti di ChatGPT che sottopongono al chatbot delle domande sul tema elettorale alla piattaforma CanIVote – gestita proprio dalla National Association of Secretaries of State – per ottenere delle informazioni certificate sulle elezioni americane; la seconda è quella di indicare con un bollino e una sigla le immagini e i video che sono generati dal sistema di intelligenza artificiale che sta alla base di Dall-E.

In più, a Dall-E non dovrebbe essere consentito di creare immagini relative a personalità politiche. Questa funzionalità, al momento, risulta ancora essere da implementare. Ci sono casi in cui, ad esempio, l’agenzia di stampa Reuters ha dichiarato di aver generato delle immagini dell’ex vicepresidente americano Mike Pence.

E ancora adesso, utilizzando la versione free di ChatGPT, se si interroga il chatbot per fargli realizzare un discorso in stile Donald Trump sull’immigrazione, lo strumento restituisce un risultato (non eccessivamente rispondente allo stile e all’ideologia di Trump, ma comunque concreto) che potrebbe trarre in inganno il lettore e l’utente del web. Tuttavia, OpenAI ha dichiarato che da ChatGPT sarà possibile accedere sempre più spesso a informazioni aggiornate in tempo reale che, tra l’altro, segnalano anche la loro provenienza e la loro fonte.

«Lavoriamo per anticipare e prevenire abusi rilevanti – ha dichiarato OpenAI -, come “deepfake” ingannevoli, operazioni di influenza su vasta scala o chatbot che si spacciano per candidati. Per anni abbiamo ripetuto strumenti per migliorare l’accuratezza dei fatti, ridurre i pregiudizi e rifiutare determinate richieste. Questi strumenti forniscono una solida base per il nostro lavoro sull’integrità elettorale».

Share this article
TAGS