Con l’uso sempre più cospicuo e invasivo di tecnologie basate sulle differenti intelligenze artificiali, l’Europa ha provato a tamponare i potenziali (e tangibili) abusi di questi strumenti con l’AI Act, approvato dal Parlamento Europeo lo scorso 14 giugno e arrivato al rush finale per la sue definitiva attuazione. All’interno del testo, infatti, ci sono delle regole più o meno stringenti che andranno a colpire le aziende che sviluppano questi sistemi e li utilizzano. Ma sembra esserci una questione irrisolta, quella che riguarda le piattaforme (anche i più basilari siti online) in cui avviene una monetizzazione (attraverso le pubblicità) “grazie” all’utilizzo di contenuti generati dall’AI.
LEGGI ANCHE > La monetizzazione dei siti che si avvalgono dell’intelligenza artificiale
In Europa, ancor prima dell’AI Act, sono stati approvati – e attuati – ben due regolamenti che vanno proprio a “colpire” le dinamiche del mercato digitale e i comportamenti dei suoi attori: il Digital Markets Act (DMA) e il Digital Service Act (DSA). Nel primo caso, si parla esplicitamente di monetizzazione, con riferimento alle metriche associate alla pubblicità e alle limitazioni al targeting. Questa seconda parte è stata ripresa anche dal DSA che impedisce – come accade anche negli Stati Uniti – a grandi piattaforme (come i social gestiti da Meta) di monetizzare attraverso la targhettizzazione pubblicitaria degli utenti minorenni.
Ma non ci sono dei tasselli fondamentali, anche per via delle date in cui sono stati approvati questi due regolamenti europei (2022, anche se le bozze iniziali risalgono a due anni prima). Erano i mesi in cui gli strumenti di AI non erano così diffusi e l’utilizzo era limitato a sporadici eccezioni. Poi, con ChatGPT che ha messo nelle mani dei singoli utenti uno strumento – sviluppato da OpenAI – alla portata (in termini di usabilità) di tutti, il paradigma è cambiato. Quindi il problema legato a monetizzazione e AI non viene esplicitamente affrontato all’interno dei due “Act” già attuati. Dunque, problematiche come quelle segnalate nell’ultimo report di NewsGuard, sembrano poter rimanere fuori dalla scure legislativa attualmente vigente.
Un discorso a parte va fatto per l’AI Act, di recente approvazione dal Parlamento Europeo. Perché non vi è un riferimento esplicito alla monetizzazione di contenuti generati dall’intelligenza artificiale, ma c’è un discorso che – almeno in parte – potrebbe andare a contrastare questo fenomeno di disinformazione (sponsorizzata, spesso all’insaputa dei gestori delle pubblicità digitali) basata sull’AI. Perché il testo prevede che ogni singola realtà provveda a etichettare i contenuti generati dall’intelligenza artificiale, in modo tale da far sapere all’utente che quello stesso contenuto non è stato generato integralmente da una mente umana. E l’intelligenza artificiale, come abbiamo più volte messo in evidenza, è fallace per definizione se non guidata da una mano umana. In particolare, un emendamento ha modificato il paragrafo 3, comma 1, dell’articolo 52 del testo. E lo ha fatto in questo modo:
«Gli utenti di un sistema di IA che genera o manipola testi o contenuti audio o visivi che potrebbero apparire falsamente autentici o veritieri e che rappresentano persone che sembrano dire cose che non hanno detto o compiere atti che non hanno commesso, senza il loro consenso (“deep fake”), sono tenuti a rendere noto in modo adeguato, tempestivo, chiaro e visibile che il contenuto è stato generato o manipolato artificialmente nonché, ove possibile, il nome della persona fisica o giuridica che li ha generati o manipolati. A tal fine, i contenuti sono etichettati in modo tale da segnalare il loro carattere non autentico in maniera chiaramente visibile alle persone cui sono destinati. Per etichettare i contenuti, gli utenti tengono conto dello stato dell’arte generalmente riconosciuto e delle pertinenti norme e specifiche armonizzate».
Questo aspetto, una sorta di “bollino” (o etichetta), potrebbe essere fondamentale per dare una quadra a un regolamento più specifico su monetizzazione e AI. Indicare in forma chiara, tempestiva e visibile, che si sta accedendo a un contenuto generato dall’intelligenza artificiale non dovrebbero solo mettere in allarme l’utente base, ma anche tutti quei sistemi – anche automatici – di gestione della pubblicità digitale.