La lettera di 8 primi ministri ai Big Tech contro la disinformazione generata dalla AI

Dopo la missiva firmata da numerosi CEO di moltissime aziende tech per chiedere una moratoria di sei mesi sullo sviluppo dell'intelligenza artificiale, si sono mossi anche i rappresentanti di 8 Paesi

31/03/2023 di Enzo Boldi

“Care Big Tech vi scrivo”. Dorin Recean (Moldavia), Petr Fiala (Repubblica Ceca),  Eduard Heger (Slovacchia), Kaja Kallas (Estonia), Krišjānis Kariņš (Lettonia), Mateusz Morawiecki (Polonia), Ingrida Šimonytė (Lituania) e Denys Shmyhal (Ucraina). Questi sono gli otto nomi dei Primi ministri che hanno firmato e pubblicato una lettera aperta indirizzata ai CEO delle grandi aziende tecnologiche. Si parla di disinformazione (soprattutto relativa alla guerra della Russia contro Kyiv) attraverso le piattaforme online e di come ci sia la necessità non solamente di un’azione più aggressiva e di una moderazione ancor più efficace, ma anche di un intervento per evitare che social network e motori di ricerca veicolino informazioni sbagliate (e false) utilizzando i deepfake generati dall’intelligenza artificiale.

LEGGI ANCHE > Come fare per distinguere un’immagine AI da una vera

La lettera si apre con un invito all’intervento da parte delle aziende che, secondo gli otto primi ministri, dovrebbero agire in modo più concreto nella lotta contro le fake news.

D’altronde, l’appello è geograficamente ben contestualizzato: si tratta di otto Paesi piuttosto vicini ai confini russi e dove la disinformazione online – anche per prossimità – è più incalzante.

«Le piattaforme tecnologiche come la vostra sono diventate campi di battaglia virtuali e le potenze straniere ostili le usano per diffondere false narrazioni che contraddicono i resoconti delle testate giornalistiche basate sui fatti. La disinformazione è una delle loro armi più importanti e di vasta portata. Crea e diffonde false narrazioni per promuovere strategicamente obiettivi maligni».

All’interno del testo ci sono anche riferimenti all’azione degli algoritmi che sono alla base delle diverse piattaforme. E, secondo gli otto firmatari, il sistema attuale non garantisce veridicità nei contenuti che vengono pubblicati online:

«I progetti algoritmici dovrebbero privilegiare l’accuratezza e la veridicità rispetto all’impegno nella promozione dei contenuti. Inoltre, devono essere più trasparenti. Il pubblico deve conoscere le politiche delle piattaforme online e il modo in cui vengono applicate. È fondamentale che la comunità dei ricercatori abbia accesso gratuito o a prezzi accessibili ai dati delle piattaforme per comprendere le tattiche e le tecniche delle campagne di manipolazione e degli attori ostili».

Dunque, alla base di questa lettera aperta c’è una non celata intenzione di chiedere alle aziende Big Tech di intervenire in modo più massiccio e capillare per bloccare tutti i contenuti di disinformazione presenti sulle piattaforme social e i motori di ricerca. Ma, ovviamente, è inevitabile anche un riferimento a quel che sta accadendo nelle ultime settimane, con progetti di intelligenza artificiale (sia testuale che basati sulle immagini) che rischiano di acuire la disinformazione.

Intelligenza Artificiale, la lettera di 8 primi ministri ai Big Tech

Nel corso dei giorni scorsi, abbiamo provato a spiegare come alcune immagini (non solo quella di Papa Francesco con un piumino bianco) generate attraverso programmi “text-to-image” basati sull’AI siano state veicolo di disinformazione. Dei veri e propri deepfake che hanno ingannato gli utenti (come le immagini di Donald Trump arrestato). Senza un freno e un regolamento ad hoc (l’Europa dovrebbe approvare entro la fine d’aprile l’AI Act), tutto ciò potrebbe anche portare a una manipolazione dell’informazione con riflessi sulle elezioni politiche in programma nei prossimi anni. E su questo argomento, gli otto primi ministri chiedono alle aziende Big Tech una maggiore attenzione:

«Le piattaforme devono affrontare la crescente minaccia alle democrazie rappresentata dai deepfakes e da altre opere di disinformazione generate dall’intelligenza artificiale, in particolare da attori stranieri ostili. Le piattaforme devono garantire che i deepfake e i testi scritti dall’intelligenza artificiale siano chiaramente contrassegnati, per identificare le campagne di manipolazione automatizzate. Sono quindi necessari investimenti sostenuti in strumenti per l’identificazione dei deepfakes e dei testi generati automaticamente.
Per rispondere a questi problemi è necessario un approccio globale coerente alla regolamentazione e all’autoregolamentazione da parte delle big tech. Il dominio globale di un numero limitato di attori rende questa esigenza ancora più pressante».

Si parla di autoregolamentazione da parte dei Big Tech, basata sulla segnalazione (attraverso un’etichetta, una filigrana o altri strumenti di identificazione di un prodotto generato da un’intelligenza artificiale) visibile agli occhi degli utenti.

Share this article