Non una legge ma un «impegno» formale: le azioni di Big Tech per regolamentare il settore AI
Gli Stati Uniti hanno preso la loro decisione: almeno per ora, le Big Tech Usa provvederanno alla regolamentazione del settore AI con un impegno comune
24/07/2023 di Ilaria Roncone
Ogni parte del mondo – chi prima chi dopo, a seconda della consapevolezza presa – sta provando a regolamentare l’intelligenza artificiale a modo suo. In Europa procediamo per leggi, con la recente approvazione dell’AI Act, mentre negli Stati Uniti l’approccio che si sta tentando di realizzare è diverso: non un obbligo sancito dallo Stato ma la scelta di aderire a un concordato da parte delle maggiori società di Big Tech Usa (sette, almeno per ora) che sono state ricevute alla Casa Bianca da Joe Biden alla fine della scorsa settimana. Il governo americano ha chiesto loro, producendo nuove tecnologie basate sull’Intelligenza Artificiale, di rispettare una serie di standard di sicurezza più alti per tutelare i cittadini statunitensi
Dopo l’incontro Biden ha parlato in conferenza stampa affermando, in sostanza, che occorre tenere la guardia ben alta considerato che «vedremo più cambiamenti tecnologici nei prossimi 10 anni di quanti ne abbiamo visti negli ultimi 50» mettendo al centro i diritti e la sicurezza degli utenti, di cui l’innovazione deve tenere conto.
LEGGI ANCHE >>> Occhio alla disinformazione politica sui social, soprattutto con l’intelligenza artificiale
Le proposte delle Big Tech Usa per la regolamentazione
Lato governo, venerdì scorso, c’è stata un’esplicita richiesta a sette società americane (parliamo di Google, Amazon, Meta, OpenAI, Microsoft, Inflection e Anthropic): l’impegno a rispettare e garantire standard di sicurezza maggiori per tutelare i diritti dei cittadini statunitensi e metterli a riparo dalle conseguenze negative e dall’impatto dell’intelligenza artificiale.
Si tratta del primo, reale tentativo di regolamentare il settore negli Stati Uniti – seppure non sia una legge ma solo un impegno formale, a differenza di quanto accade in Europa -. Ogni Paese sta procedendo a modo proprio su un terreno che, finora, risulta essere inesplorato. I giornali statunitensi hanno valutato la scelta di procedere con un impegno e non con una legge come la precisa volontà di trovare una quadra, il giusto mezzo, tra i diritti dei cittadini e il pieno sviluppo del settore favorendo la collaborazione tra le Big Tech. Questo approccio – ovviamente – si pone dall’altro lato rispetto alla scelta di regolamentazione europea.
Che tipo di impegni hanno preso le società? In primis, tutte hanno concordato rispetto all’inserimento di un “watermark“, ovvero un contrassegno esplicito, che evidenzi la provenienza del contenuto che stanno vedendo (sia esso un testo, un immagine, un filmato o un audio). Il punto è rendere sempre chiaro a chi ne fruisce che quel contenuto è frutto dell’intelligenza artificiale e non di mente e mano umani.
L’impegno è anche rispetto alla ricerca sui rischi per la privacy e i possibili problemi di discriminazione di alcune categorie di persone. Tra le altre cose, le Big Tech hanno assicurato che testeranno in maniera completa e approfondita i sistemi prima di rilasciarli al pubblico e che si avvarranno del parere di esperti indipendenti; è stata garantita anche la condivisione delle informazioni sul modo in cui è opportuno e funzionale investire nella sicurezza informatica per ridurre tutti i rischi legati all’innovazione nell’AI.