Quali sono le differenze tra le proposte americane e l’AI Act

Il patto proposto da sette aziende alla Casa Bianca ha molti elementi in comune con il regolamento europeo approvato dal Parlamento

24/07/2023 di Enzo Boldi

Da una parte ci sono delle proposte, sotto forma di “impegni”, avanzate da sette grandi aziende multinazionali direttamente dalla Presidenza degli Stati Uniti. Dall’altra c’è un vero e proprio testo per la regolamentazione dell’AI, approvato poco più di un mese fa dal Parlamento Europeo e che per diventare effettivo dovrà attendere solamente la fase di negoziazione con i singoli Stati membri. Gli USA e la presidenza Biden stanno, dunque, cercando di trovare un approccio differente con le grandi realtà industriali che si occupano di creazione e sviluppo di sistemi basati sull’intelligenza artificiale in tutte le sue forme. L’Europa, invece, con il suo AI Act ha avuto un atteggiamento più “aggressivo”. Proviamo a capire le differenze tra queste due strategie che hanno approcci differenti, ma i risultati attesi sembrano essere molto simili.

LEGGI ANCHE > Il caso Google che fa monetizzare siti che disinformano con l’intelligenza artificiale

L’iniziativa della Casa Bianca fa parte di un lungo percorso iniziato a ottobre dello scorso anno con il “Blueprint for an AI Bill of Rights“, una Carta su cui si basa parte delle promesse avanzate da queste sette grandi aziende che si occupano di intelligenza artificiale (Amazon, Anthropic, Google, Inflection, Meta, Microsoft e OpenAI), a cui sono stati aggiunti altri dettagli – o per meglio dire, impegni – affinché lo sviluppo di nuovi sistemi e strumenti rientri all’interno di un alveo più circoscritto. Parte di quei dettagli, inoltre, sembrano ricalcare il modello offerto in Europa dall’AI Act.

Regolamentazione AI, le differenze tra USA e AI Act

Dunque, sembrano non esserci enormi differenze se non nell’approccio nella regolamentazione AI. Proviamo, infatti, a sintetizzare – attraverso le parole del Presidente americano Joe Biden – i quatto punti focali di queste proposte:

  • Test e Sicurezza: «Le aziende hanno l’obbligo di assicurarsi che la loro tecnologia sia sicura prima di rilasciarla al pubblico. Ciò significa testare le capacità dei loro sistemi, valutare il rischio potenziale e rendere pubblici i risultati di queste valutazioni».
  • Minacce informatiche: «Le aziende devono dare priorità alla sicurezza dei loro sistemi, salvaguardando i loro modelli dalle minacce informatiche e gestendo i rischi per la nostra sicurezza nazionale, condividendo le migliori pratiche e gli standard di settore necessari».
  • Requisiti sui dati personali: «Le aziende hanno il dovere di guadagnarsi la fiducia delle persone e consentire agli utenti di prendere decisioni informate, etichettando i contenuti che sono stati alterati o generati dall’intelligenza artificiale, eliminando pregiudizi e discriminazioni, rafforzando la protezione della privacy e proteggendo i bambini dai pericoli».
  • Investimenti: «Le aziende hanno concordato di trovare modi per aiutare l’AI ad affrontare le maggiori sfide della società – dal cancro al cambiamento climatico – e investire nell’istruzione, in nuovi posti di lavoro per aiutare studenti e lavoratori a prosperare grazie alle opportunità».

Quattro punti focali che, però, non sono un regolamento o una legge. Si tratta di un impegno formale che ha una valenza differente rispetto a una legge. Così come il Blueprint for an AI Bill of Rights che definisce solamente un perimetro di azione, senza prevedere alcuna sanzione nei confronti di chi non prosegue il suo sviluppo (anche in chiave etica) seguendo le linee guida decise dal governo degli Stati Uniti d’America.

Il regolamento europeo

In Europa, invece, a metà giugno si è raggiunto il penultimo step per rendere la regolamentazione AI una vera e propria legge comunitaria. Trattandosi, per l’appunto, di una legge-regolamento, non sono stati inseriti solamente i dettagli sui comportamenti che le aziende devono seguire, ma anche le eventuali sanzioni. Una differenza sostanziale in termini di approccio e di effetti diretti su chi vìola la normativa, anche se – in linea di massima – i princìpi sono molto simili al piano di “intesa” a stelle e strisce:

  • Classificazione dei sistemi AI;
  • Definizione dei requisiti per i sistemi ad alto rischio;
  • Trasparenza;
  • Responsabilità;
  • Sanzioni (rischio di multe che possono arrivare fino al 6% del fatturato annuo totale o a 30 milioni di euro;
  • Autorità di vigilanza che dovrà verificare la conformità delle norme delle aziende che operano in ogni ogni Stato membro.

Dunque, l’obiettivo è molto simile, ma non da una parte c’è un impegno formale (negli Stati Uniti), dall’altra (sul fronte europeo), c’è un vero e proprio impianto normativo che definisce paletti e sanzioni nei confronti di chi non rispetta la legge. Anche per quel che riguarda – in entrambe le situazioni – il rispetto della privacy degli utenti e l’utilizzo dei dati.

Il watermark

Un altro elemento comune – al netto delle differenze tra un impegno formale e una reale regolamentazione AI – riguarda i contenuti generati dai sistemi di intelligenza artificiale. L’articolo 52 dell’AI Act, infatti, impone che l’utente finale sia informato sul fatto che un determinato contenuti è stato generato dall’intelligenza artificiale. Questo punto rientra anche all’interno del piano tra le sette aziende e la Casa Bianca: Amazon, Anthropic, Google, Inflection, Meta, Microsoft e OpenAI hanno, infatti, sottolineato come si provvederà a inserire un watermark in grado di rendere palese la natura “non umana” di quanto pubblicato su un determinato portale o social. Dunque, ritorna in auge il principio delle filigrana per distinguere il reale dall’artificiale.

Share this article