A che punto sono gli USA con la regolamentazione dell’AI

Nel luglio scorso, Joe Biden aveva posto il tema - ancora una volta - ai grandi di Big Tech, annunciando una normativa organica per prevedere dei veri e propri pressure test per tutti i soggetti coinvolti nell'innovazione di settore

15/09/2023 di Gianmichele Laino

La storia della legislazione sull’intelligenza artificiale sconta sempre un grande gap quando si parla dell’Unione Europea da un lato e degli Stati Uniti dall’altro. Nel primo caso, i primi prodotti basati sull’intelligenza artificiale che riguardavano il riconoscimento biometrico avevano dato un input alle istituzioni comunitarie per riflettere sulle applicazioni pubbliche di queste tecnologie. Per questo, l’AI Act era già sul tavolo, ben prima della sua approvazione in questo anno che – dal punto di vista delle aziende – è stato caratterizzato dall’esplosione di prodotti come ChatGPT che si basano sull’intelligenza artificiale generativa. Ovviamente, in corso d’opera queste novità sono state prese in considerazione e hanno portato alla formulazione di una proposta normativa organica che ha visto la luce il 14 giugno 2023. Negli Stati Uniti, invece, il processo è molto indietro. Certo, il grande successo di ChatGPT e la corsa all’oro dell’intelligenza artificiale condotta da tutti i colossi di Big Tech (a partire da Google, per superare i confini occidentali e approdare in Cina) ha finalmente posto il problema dalle parti della Casa Bianca. Che, dalla metà di quest’anno, ha iniziato a organizzare incontri con gli addetti ai lavori (proprio sulla falsariga di quello che è successo oggi a Capitol Hill). Ma a che punto siamo quando parliamo di Usa e regolamentazione AI?

LEGGI ANCHE > Al forum sull’AI, Zuckerberg si è portato i compiti fatti a casa

Usa e regolamentazione AI, a che punto siamo?

Un incontro importante alla Casa Bianca c’era stato a fine luglio scorso. Esattamente come nell’incontro a Capitol Hill si è registrata grande concordia tra i vari capitani d’industria coinvolti. E – esattamente come è avvenuto oggi – ci si è lasciati con una stretta di mano e con tante buone promesse (che, però, non si sa quando verranno messe a terra).

Nella fattispecie, in passato Joe Biden è stato messo in guardia, perché l’evoluzione dell’intelligenza artificiale generativa è stata considerata una di quelle invenzioni che possono cambiare il corso della storia, come è capitato – ad esempio – anche negli anni Novanta con la nuova informatica a portata di tutti e con internet stesso. Tuttavia, per evitare che l’AI possa trasformarsi in una vera e propria giungla, le autorità statunitensi stanno cercando di mettere in campo delle contromisure necessarie affinché ci sia una regolamentazione del mercato.

In modo particolare, il primo problema che Biden si è posto sembra essere quello etico: per questo ha annunciato una carta dei diritti fondamentali relativa all’intelligenza artificiale e la creazione di centri di ricerca nazionali che possano monitorare i passi in avanti fatti dalla tecnologia. Un modo per legare le aziende private a dei principi etici e, allo stesso tempo, per permettere agli istituti di ricerca di seguire pedissequamente gli ultimi ritrovati dei laboratori delle grandi aziende private per attuare eventuali contromosse.

Al momento, la linea etica sull’AI negli Stati Uniti è tenuta dal Blueprint for an AI Bill of Rights risalente al 2022. Tuttavia, in questo documento si intravedono alcuni principi importanti come il fatto che le aziende che produrranno elementi legati all’intelligenza artificiale dovranno sottoporsi a una pubblica valutazione, secondo principi ben determinati, degli strumenti che realizzeranno.

Tuttavia, questa impostazione – in attesa di una formulazione di leggi organiche – sembra lasciare molto spazio alla dimensione “volontaria”. Un problema non da poco, se si considerano gli interlocutori: lasciare campo di manovra, in una sorta di area grigia che è un po’ etica ma che sicuramente non è legge, a soggetti come Elon Musk (un nome su tutti) è una soluzione che già in passato non ha pagato. Per capirlo, citofonare alla Commissione Europea e al tavolo sulla disinformazione e l’hate speech a cui avevano aderito (sempre pro bono) le principali aziende di Big Tech: Musk ha abbandonato quel tavolo e sono volati stracci. Basteranno, dunque, i principi etici a tenerlo a freno?

Share this article