Cosa dicono (o cosa non dicono) DSA e AI Act sulla monetizzazione dei siti che usano l’intelligenza artificiale

Una problematica emersa dall'ultimo rapporto di NewsGuard e che si riproporrà sicuramente nell'immediato futuro

26/06/2023 di Gianmichele Laino

Con l’uso sempre più cospicuo e invasivo di tecnologie basate sulle differenti intelligenze artificiali, l’Europa ha provato a tamponare i potenziali (e tangibili) abusi di questi strumenti con l’AI Act, approvato dal Parlamento Europeo lo scorso 14 giugno e arrivato al rush finale per la sue definitiva attuazione. All’interno del testo, infatti, ci sono delle regole più o meno stringenti che andranno a colpire le aziende che sviluppano questi sistemi e li utilizzano. Ma sembra esserci una questione irrisolta, quella che riguarda le piattaforme (anche i più basilari siti online) in cui avviene una monetizzazione (attraverso le pubblicità) “grazie” all’utilizzo di contenuti generati dall’AI.

LEGGI ANCHE > La monetizzazione dei siti che si avvalgono dell’intelligenza artificiale

In Europa, ancor prima dell’AI Act, sono stati approvati – e attuati – ben due regolamenti che vanno proprio a “colpire” le dinamiche del mercato digitale e i comportamenti dei suoi attori: il Digital Markets Act (DMA) e il Digital Service Act (DSA). Nel primo caso, si parla esplicitamente di monetizzazione, con riferimento alle metriche associate alla pubblicità e alle limitazioni al targeting. Questa seconda parte è stata ripresa anche dal DSA che impedisce – come accade anche negli Stati Uniti – a grandi piattaforme (come i social gestiti da Meta) di monetizzare attraverso la targhettizzazione pubblicitaria degli utenti minorenni.

Monetizzazione e AI, cosa dicono DSA e DMA

Ma non ci sono dei tasselli fondamentali, anche per via delle date in cui sono stati approvati questi due regolamenti europei (2022, anche se le bozze iniziali risalgono a due anni prima). Erano i mesi in cui gli strumenti di AI non erano così diffusi e l’utilizzo era limitato a sporadici eccezioni. Poi, con ChatGPT che ha messo nelle mani dei singoli utenti uno strumento – sviluppato da OpenAI – alla portata (in termini di usabilità) di tutti, il paradigma è cambiato. Quindi il problema legato a monetizzazione e AI non viene esplicitamente affrontato all’interno dei due “Act” già attuati. Dunque, problematiche come quelle segnalate nell’ultimo report di NewsGuard, sembrano poter rimanere fuori dalla scure legislativa attualmente vigente.

E l’AI Act?

Un discorso a parte va fatto per l’AI Act, di recente approvazione dal Parlamento Europeo. Perché non vi è un riferimento esplicito alla monetizzazione di contenuti generati dall’intelligenza artificiale, ma c’è un discorso che – almeno in parte – potrebbe andare a contrastare questo fenomeno di disinformazione (sponsorizzata, spesso all’insaputa dei gestori delle pubblicità digitali) basata sull’AI. Perché il testo prevede che ogni singola realtà provveda a etichettare i contenuti generati dall’intelligenza artificiale, in modo tale da far sapere all’utente che quello stesso contenuto non è stato generato integralmente da una mente umana. E l’intelligenza artificiale, come abbiamo più volte messo in evidenza, è fallace per definizione se non guidata da una mano umana. In particolare, un emendamento ha modificato il paragrafo 3, comma 1, dell’articolo 52 del testo. E lo ha fatto in questo modo:

«Gli utenti di un sistema di IA che genera o manipola testi o contenuti audio o visivi che potrebbero apparire falsamente autentici o veritieri e che rappresentano persone che sembrano dire cose che non hanno detto o compiere atti che non hanno commesso, senza il loro consenso (“deep fake”), sono tenuti a rendere noto in modo adeguato, tempestivo, chiaro e visibile che il contenuto è stato generato o manipolato artificialmente nonché, ove possibile, il nome della persona fisica o giuridica che li ha generati o manipolati. A tal fine, i contenuti sono etichettati in modo tale da segnalare il loro carattere non autentico in maniera chiaramente visibile alle persone cui sono destinati. Per etichettare i contenuti, gli utenti tengono conto dello stato dell’arte generalmente riconosciuto e delle pertinenti norme e specifiche armonizzate». 

Questo aspetto, una sorta di “bollino” (o etichetta), potrebbe essere fondamentale per dare una quadra a un regolamento più specifico su monetizzazione e AI. Indicare in forma chiara, tempestiva e visibile, che si sta accedendo a un contenuto generato dall’intelligenza artificiale non dovrebbero solo mettere in allarme l’utente base, ma anche tutti quei sistemi – anche automatici – di gestione della pubblicità digitale.

Share this article