L’AI come strumento di disinformazione e minaccia per la cybersicurezza in Ucraina

Categorie: Attualità

L'Intelligenza Artificiale è al centro di un numero di ricerche sempre maggiore che, negli ultimi mesi, ne hanno analizzato le implicazioni in diversi ambiti

L’intelligenza artificiale sta assumendo un ruolo sempre più importante nelle nostre vite. In ogni ambito. Impossibile non considerare, quindi, le implicazioni che l’intelligenza artificiale può avere rispetto alla disinformazione e alla cybersecurity dei Paesi (compresa l’Ucraina, che sta gestendo una guerra da oltre un anno). Sui possibili utilizzi dell’AI si stanno interrogando tutti, nel mondo, e tanti sono preoccupati. Lo è l’Ucraina, che in uno dei rapporti più recenti dedicati alla cybersicurezza e alle tendenze nel paese legate al conflitto che si sta combattendo menziona ChatGPT; lo è NewsGuard che, grazie a un’analisi recente, ha evidenziato “L’ascesa dei ‘newsbot’: i siti generati dall’intelligenza artificiale proliferano online”. E non siti qualunque, siti che puntano a dare notizie e informazioni.



LEGGI ANCHE >>> Cybersecurity Ucraina: la situazione nel paese aggiornata a marzo 2023

L’intelligenza artificiale usata per generare fake news

«Proprio mentre negli ultimi mesi sono stati presentati e resi disponibili al pubblico diversi strumenti – sempre più potenti – basati sull’intelligenza artificiale, il timore che tali strumenti possano essere utilizzati per dare vita a vere e proprie testate giornalistiche che pubblicano migliaia di articoli a costi sorprendentemente bassi – una volta oggetto di speculazione da parte degli studiosi dei media – è ora diventato realtà», si legge su NewsGuard.



Il rapporto evidenzia come siano stati individuati 49 siti che, all’apparenza, hanno generato la maggior parte – se non tutti – i loro contenuti sfruttando strumenti AI. Contattati tutti via mail, la stragrande maggioranza non ha risposto e con due che si sono resi disponibili a parlare con Newsguard, il gruppo di professionisti della disinformazione ha tenuto conversazioni difficilmente comprensibili a tratti e mai telefoniche.

«Mentre la maggior parte dei siti identificati da NewsGuard perché pubblicano contenuti prodotti da intelligenza artificiale non ha promosso misinformazione, alcuni siti sembrerebbero aver chiesto agli strumenti di intelligenza artificiale di produrre informazioni fuorvianti o false – si legge nel report, che continua -. CelebritiesDeaths.com, che pubblica necrologi generici e notizie sulla presunta morte di personaggi noti, nell’aprile 2023 ha pubblicato un articolo intitolato “Biden morto. Harris presidente ad interim, 9:00 ET”. Il paragrafo iniziale dell’articolo affermava: “ULTIM’ORA: La Casa Bianca ha riferito che Joe Biden è morto pacificamente nel sonno…”».



Entrando nell’articolo in questione, però, quello che si legge è: «Mi dispiace, non posso completare questa richiesta poiché va contro la politica sui casi d’uso di OpenAI sulla generazione di contenuti fuorvianti. Non è etico inventare notizie sulla morte di qualcuno, specialmente qualcuno di spicco come un presidente». Alle richieste di chiarimento fatte da NewsGuard a OpenAI – azienda che ha creato ChatGPT – il CEO e la direttrice delle pubbliche relazioni non hanno risposto.

Il limite (per ora)

Il punto, per ora, è che risulta facile capire come alcuni di questi testi siano generati utilizzando l’Intelligenza Artificiale (si veda il caso dell’articolo sulla morte di Biden citato sopra). Gli articoli scritti dall’Intelligenza Artificiale su questioni molto tecniche sembrano scritti da esseri umani in maniera molto semplicistica, con espressioni basilari della lingua italiana come “in conclusione” e “è importante ricordare”.

Sfruttando strumenti come GPTZero (che abbiamo provato per capire come e quanto funzioni) è possibile riuscire a capire quali articoli siano stati, con alta probabilità, generati tramite AI. Bisogna però conoscerli e usarli, questi strumenti. E, andando avanti, non è da escludere che l’Intelligenza Artificiale possa riuscire a produrre pezzi relativi all’attualità – per esempio – scritti sempre meglio, in stile sempre più umano. E se chi dà gli input a strumenti come ChatGPT affine le sue capacità – portando il prompt engineering a livelli sempre più alti – l’uso dell’Intelligenza Artificiale nell’ambito della creazione di articoli che diffondono fake news ha tutte le carte in regola per diventare una realtà temibile.

AI e cybersecurity: l’Intelligenza Artificiale è da tenere d’occhio

Si tratta di una realtà evidenziata, per esempio, in uno degli ultimi rapporti – quello di febbraio – che l’Ucraina ha redatto per dare conto dello stato della cybersicurezza e delle tendenze in questo ambito mentre c’è il conflitto in corso. Partiamo da presupposto che – come è logico che sia – le tecnologie che si basano sull’AI stanno entrando sempre più nelle istituzioni e nei governi oltre che nella vita dei cittadini tramite l’Internet of Things, per esempio. Automatizzare i servizi pubblici e rendere gli Stati sempre più efficienti significa anche questo.

Ecco allora che nel report di febbraio si legge: «Il possibile uso dell’intelligenza artificiale (IA) per scopi maligni è diventato un importante argomento di discussione a febbraio. Secondo i professionisti della cibernetica, sistemi come ChatGPT potrebbero essere già utilizzati dagli Stati nelle loro attività informatiche. Secondo il Dipartimento della Difesa degli Stati Uniti Difesa (DARPA), gli attacchi che sfruttano l’Intelligenza Artificiale potrebbero diventare una delle principali minacce alla sicurezza umana nel prossimo futuro, poiché la dipendenza da questa tecnologia è in continua crescita».