Il testo della lettera per rallentare l’AI: cosa chiedono i firmatari?

Abbiamo analizzato, punto per punto, le richieste di chi ha scritto e firmato la lettera con cui si chiede urgentemente di sospendere lo sviluppo dell'AI per concentrarsi, prima, sulla creazione di protocolli di sicurezza ed etici

31/03/2023 di Ilaria Roncone

Nella lettera contro AI sono espressi, in maniera puntuale, una serie di dubbi e le conseguenti richieste fatte alle aziende e società che fanno ricerca sull’Intelligenza Artificiale generativa. Abbiamo letto il testo della lettera cercando di inquadrare, punto per punto, tutte le controversie individuate; proprio rispetto a queste è l’appello a rallentare la ricerca sullo sviluppo dell’AI generativa a favore dello stabilire protocolli di sicurezza ed etici efficaci.

LEGGI ANCHE >>> Secondo chi firma occorre porre un argine all’«autorità dell’algoritmo»

Lettera contro AI, cosa chiedono i firmatari?

La richiesta di chi ha redatto il testo è chiara e palesata immediatamente: «Sospendere i giganteschi esperimenti di intelligenza artificiale: chiediamo a tutti i laboratori di IA di sospendere immediatamente per almeno 6 mesi l’addestramento di sistemi di IA più potenti del GPT-4».

Si parla di «rischi profondi per la società e l’umanità», come dimostrato da «ricerche approfondite e riconosciuto dai migliori laboratori di IA». Tanto per intenderci, proprio chi lavora per far progredire queste tecnologia sta chiedendo di rallentare il processo. I principi etici che riguardano lo sviluppo dell’IA (Principi di IA di Asilomar), condivisi negli ambienti di ricerca, sanciscono come «l’IA avanzata potrebbe rappresentare un cambiamento profondo nella della vita sulla Terra e dovrebbe essere pianificata e gestita con cura e risorse adeguate».

Mancano gestione e pianificazione

Negli ultimi mesi, come stiamo vedendo, le società si rincorrono a chi fa uscire prima e rendere più “umano” il suo sistema di chatbot in un contesto in cui – secondo il testo della lettera aperta – «questo livello di pianificazione e gestione non sta avvenendo nonostanteegli ultimi mesi i laboratori di IA si sono impegnati in una corsa fuori controllo per sviluppare e impiegare menti digitali sempre più potenti che nessuno – nemmeno i loro creatori – è in grado di comprendere, prevedere o controllare in modo affidabile».

I dubbi sull’influenza nel mondo dell’informazione e del lavoro

Quali sono i contesti più preoccupanti in cui si potrebbe inserire un IA senza controllo che sta diventando «competitiva con gli esseri umani in compiti generali»? In primo luogo, l’informazione: «Dobbiamo lasciare che le macchine inondino i nostri canali di informazione con propaganda e falsità?», ci si domanda nella lettera. Anche parlando di lavoro i dubbi sono chiari: «Dovremmo automatizzare tutti i lavori, compresi quelli più soddisfacenti?».

Seguono poi una serie di interrogativi più vaghi ma comunque interessanti se si ragiona sul fatto che – per quanto poco concreti – destino la preoccupazioni di molte delle menti brillanti di questo mondo: «Dovremmo sviluppare menti non umane che alla fine potrebbero superarci di numero, essere più intelligenti, obsolete e sostituirci? Dobbiamo rischiare di perdere il controllo della nostra civiltà?».

L’appello alle autorità

«Queste decisioni – secondo chi ha scritto e sottoscritto il testo – non devono essere delegate a leader tecnologici non eletti. I potenti sistemi di intelligenza artificiale dovrebbero essere sviluppati solo quando saremo sicuri che i loro effetti saranno positivi e i loro rischi gestibili. Questa fiducia deve essere ben giustificata e aumentare con l’entità degli effetti potenziali di un sistema.

Si fa poi riferimento alla dichiarazione recente di OpenAI sull’AI: «A un certo punto, potrebbe essere importante ottenere una revisione indipendente prima di iniziare ad addestrare i sistemi futuri, e per gli sforzi più avanzati concordare di limitare il tasso di crescita del calcolo utilizzato per creare nuovi modelli». Secondo chi ha firmato l’appello quel momento deve essere ora.

Sei mesi di pausa per le dovute verifiche

«Pertanto, chiediamo a tutti i laboratori di IA di sospendere immediatamente per almeno 6 mesi l’addestramento di sistemi di IA più potenti del GPT-4. Questa pausa deve essere pubblica e verificabile e deve includere tutti gli attori chiave. Se tale pausa non può essere attuata rapidamente, i governi dovrebbero intervenire e istituire una moratoria», prosegue il testo.

L’appello è, quindi, quello di fermarsi per lavorare insieme – laboratori di IA e esperti indipendenti – a una serie di protocolli che possano imbrigliare lo sviluppo dell’Intelligenza Artificiale generativa: «I laboratori di IA e gli esperti indipendenti dovrebbero utilizzare questa pausa per sviluppare e attuare congiuntamente una serie di protocolli di sicurezza condivisi per la progettazione e lo sviluppo di IA avanzate, rigorosamente controllati e supervisionati da esperti esterni indipendenti. Questi protocolli dovrebbero garantire che i sistemi che vi aderiscono siano sicuri al di là di ogni ragionevole dubbio. La ricerca e lo sviluppo dell’IA dovrebbero concentrarsi sul rendere i potenti sistemi all’avanguardia di oggi più accurati, sicuri, interpretabili, trasparenti, robusti, allineati, affidabili e leal.».

Esperti di AI e politica allo stesso tavolo

Occorre anche lavorare fianco a fianco con i politici per sviluppare «solidi sistemi di governance dell’IA» che comprendano come minimo: «Autorità di regolamentazione nuove e capaci dedicate all’IA; sorveglianza e monitoraggio di sistemi di IA altamente capaci e di grandi bacini di capacità computazionale; sistemi di provenienza e watermarking per aiutare a distinguere i modelli reali da quelli sintetici e per tracciare le fughe di notizie; un robusto ecosistema di auditing e certificazione; responsabilità per i danni causati dall’IA; solidi finanziamenti pubblici per la ricerca tecnica sulla sicurezza dell’IA; istituzioni ben finanziate per affrontare i drammatici sconvolgimenti economici e politici (soprattutto per la democrazia) che l’IA causerà».

Share this article