«È la mente umana del marketing elettorale a rendere rischiose le tecnologie basate sull’AI»

La nostra intervista a Simone Fontana di FactaNews. Dopo il caso Erica Marsh negli Stati Uniti, occorre aprire una grande riflessione anche in vista delle elezioni Europee del 2024 in Italia

06/07/2023 di Enzo Boldi

Il caso Erica Marsh è un tassello fondamentale per cercare di comprendere delle dinamiche già note e che, grazie o a causa dei nuovi strumenti tecnologici, si evolvono di giorno in giorno. Parliamo di marketing elettorale attraverso le piattaforme social. In questo caso sfruttando, pur solo nella creazione di un’immagine profilo per Twitter, l’intelligenza artificiale. Di tutto ciò e dei possibili riflessi futuri e futuribili – con vista sulle prossime Presidenziali americane e sulle elezioni europee del 2024 – abbiamo parlato con Simone Fontana, esperto fact-checker di FactaNews, il portale di riferimento del debunking di Facebook in Italia.

LEGGI ANCHE > Chi c’è dietro l’account di Erica Marsh? Tra le ipotesi e i perché

Dinamiche, come detto, che sono ben note. Le strategie di marketing elettorale, infatti, sono ben strutturate da tempo. Ma oggi l’attenzione viene spostata su come può ed è stata utilizzata l’intelligenza artificiale sui social. Con Simone Fontana siamo partiti proprio da questo: «Sappiamo che spesso le dinamiche che partono dagli Stati Uniti poi si propagano con molta rapidità in tutto il mondo, a maggior ragione quando accade su Twitter che è forse il social network più sensibile a questi processi imitativi».

Simone Fontana, il caso Erica Marsh e i rischi dell’AI

Il caso americano, dunque, è la cartina di tornasole di una lunga storia che oggi si traveste grazie a nuove tecnologie. Ma ci sono degli appunti da fare: «Per quel che riguarda Erica Marsh, direi che dobbiamo distinguere due piani, ho visto ad esempio l’articolo di ieri pubblicato da La Repubblica che titolava sull’intelligenza artificiale – ha spiegato Simone Fontana a GTT -. Questo è un po fuorviante, perché come avete scritto giustamente voi di Giornalettismo, l’unica cosa che si può e ricondurre all’AI è l’immagine del profilo. Le immagini che lei ha pubblicato. Sono quelle che noi in gergo definiamo immagini GAN, cioè quelle generate da un’intelligenza artificiale partendo da immagini diverse che vengono sintetizzate poi in un’unica immagine. Quindi, creano una persona che di fatto non è, non esiste e non è mai esistita. Il contenuto del profilo della dell’account di Erica Marsh, invece, mi sembra invece frutto di un’intelligenza piuttosto reale. Io non credo alla alla teoria di bot, perché sembrano delle cose scritte da un’intelligenza umana nel tentativo di vendere un’immagine stereotipica dell’influencer, dell’attivista Democratica, progressista. Della Woke, come viene definita, e quindi nel tentativo di screditarla».

E dall’analisi di quel profilo, ora sospeso da Twitter, sono emersi altri dettagli che aiutano a circoscrivere la storia di quell’account che nel giro di pochi mesi ha generato dibattito negli Stati Uniti: «Come abbiamo visto, Erica Marsh si presenta come una giornalista che è, diciamo così, quel tentativo di agganciare una frangia di utenti che sono più sensibili al racconto, al dare maggiore autorità al racconto giornalistico. Si tratta di “comportamenti” che sicuramente possono e influenzare le dinamiche elettorali. Poi perché di questo stiamo parlando? Mi sembra un progetto creato ad arte per spostare quantomeno la sensibilità dell’opinione pubblica e in questo senso l’intelligenza artificiale è uno strumento molto avanzato, ma che come qualsiasi altro strumento risponde a un’esigenza che è nata prima dell’intelligenza artificiale. Prima degli degli strumenti». Il riferimento non può che farci tornare alla mente le precedenti tornate Presidenziali negli USA: «I video deepfake circolavano già durante la scorsa campagna elettorale per le Presidenziali americane. Abbiamo visto molti video di Joe Biden che sembrava affaticato o eccessivamente rallentato per via della sua età. Ma la maggior parte di quei video erano frutto erano dei fake. Quindi, l’intelligenza artificiale può essere molto pericolosa nel tentativo di modificare l’opinione delle delle masse. Però si tratta anche di uno strumento che ha grandi potenzialità, presentando anche grandi rischi».

Il marketing elettorale

Benefici che sono tangibili, ma che – spesso e volentieri – vengono affogati da tutti quegli abusi che rischiano di far passare l’evoluzione tecnologica come un qualcosa di atavicamente malato. Tutto ciò sta rendendo il ruolo e il compito dei debunker più complesso, anche se con gli giusti strumenti, gli esperti sono in grado di mettere in luce cosa è vero distinguendolo dal falso: «Quando parliamo di marketing elettorale o dei tentativi di spostare l’opinione pubblica attraverso Internet, attraverso la rete, noi continueremo a parlare da qui ai prossimi anni di sistemi sempre diversi, di tecnologie sempre diverse, sempre più affinate perché la stessa intelligenza artificiale ha dei margini di miglioramento che sono pressoché illimitati – ci ha spiegato Simone Fontana -. Diciamo che una mente allenata, un occhio allenato, può distinguere il reale dal falso, ma questo sarà sempre più difficile con il passare degli anni. Questa è una cosa a cui dobbiamo allenarci, perché diventerà sempre più complicato. Le tecnologie si evolveranno, però dovremmo sempre tenere presente che non sono queste tecnologie a porre il rischio, ma è la mente umana che sta dietro queste tecnologie a farlo».

Quanto sta diventando difficile distinguere il vero dal falso

E, a breve, si intensificherà – anche in Italia – la campagna elettorale in vista delle Europee del 2024. Simone Fontana, in quando membro di FactaNews (il portale di fact-checking riferimento di Facebook nel nostro Paese), avrà l’onere e l’onore di scandagliare la rete alla ricerca di false notizie e narrazioni irreali che compariranno sui social. Per questo motivo, ci ha spiegato come la priorità sia la collaborazione tra gli utenti e gli esperti: «Innanzitutto, la cosa importante è la media literacy (la capacità di accedere ai media, di comprendere e valutare criticamente i diversi aspetti dei media a cominciare dai loro contenuti, ndr), perché noi comunità non solo di fact-checker, ma con comunità di persone, abbiamo abbiamo bisogno di avere il maggior grado di literacy possibile. Abbiamo bisogno che le persone sappiano come affrontare questo tipo di situazioni. E quello che facciamo fondamentalmente è difendere l’anello più debole della catena da questi tentativi di manipolazione. E non è facile farlo perché in questi ultimi anni è stato messo in discussione il concetto di autorità e quindi nessuno deve credere a nessun altro semplicemente perché lo dice su un sito o su un quotidiano».

Informazione che da anni non riesce più ad avere quell’autorevolezza di un tempo. Per questo motivo, occorre un deciso cambio di passo: «Il giornalismo sta vivendo un periodo abbastanza difficile, quindi è difficile dire “questa cosa è falsa perché io ti dico che è falsa“. Abbiamo bisogno è innanzitutto di educare le persone agli eventi del web, a un utilizzo consapevole della rete e insegnare loro alcuni trucchi che possono tornare utile per verificare questo genere di minacce. Poi c’è l’aiuto della tecnologia, perché come progredisce la minaccia, allo stesso tempo, progredisce anche ciò che può aiutarci a fare il nostro lavoro. Oggi voi di Giornalettismo avete analizzato l’immagine di Erica Marsh attraverso un software che permette di decodificare alcuni tipi di comportamenti dell’intelligenza artificiale. Ecco, questo è l’aiuto che ci può fornire la tecnologia, perché spesso quando parliamo di tecnologia ne parliamo come di un patrigno cattivo. Invece dovremmo cercare di parlarne sia nei suoi rischi, che sono tanti, ma anche nelle opportunità che ci offre la stessa AI. La tecnologia è al tempo stesso rischio e opportunità e noi com comunità di checker siamo le persone che sono lì in mezzo. Il nostro compito è fondamentalmente divulgativo, non puntiamo il dito e diciamo questo è falso. Secondo ciò che bisognerebbe fare è dire invece “aiutateci a scoprire se questa cosa è vera o è falsa”, con gli strumenti che noi vi racconteremo e metteremo a vostra disposizione».

Share this article