La lettera degli esperti (compreso Elon Musk) per fermare l’intelligenza artificiale

Si chiedono sei mesi di tempo per consentire di attuare protocolli di sicurezza etici e per dare modo alle autorità politiche di intervenire

31/03/2023 di Redazione Giornalettismo

Yoshua Bengio, Stuart Russell, Steve Wozniak. Ma anche Elon Musk. Sono soltanto alcuni degli oltre 1500 esperti di AI (ma le firme stanno aumentando in maniera esponenziale in queste ore) che hanno deciso di sottoscrivere un documento per sensibilizzare l’opinione pubblica sullo stato d’avanzamento dei progetti di intelligenza artificiale. Una lettera preoccupata, che prende in considerazione una serie di aspetti che – tuttavia – gli stessi ricercatori hanno contribuito a rendere concreti. Eppure, ci si è resi conto che – probabilmente – da questo momento in poi, qualsiasi ulteriore avanzamento verso l’intelligenza artificiale potrebbe essere rischioso, con risvolti importanti dal punto di vista etico. La lettera sull’intelligenza artificiale – che è stata sottoscritta anche da diversi team di progetti che hanno collaborato alle esperienze più estreme dell’AI – è un passaggio importante in questo momento storico. Perché, quantomeno, indica una presa di coscienza.

LEGGI ANCHE > L’intelligenza artificiale può essere creativa? L’intervista ad Alan Fiordelmondo

Lettera sull’intelligenza artificiale, cosa hanno chiesto gli esperti

Il primo punto essenziale che si evidenzia nella lettera è la richiesta di uno stop all’evoluzione di un progetto come ChatGPT che è arrivato alla versione numero 4 e che, recentemente rilasciata, ha già dimostrato un grado di precisione e di approfondimento davvero sorprendente rispetto a quelle che erano le attese. «Il gruppo – si legge nel comunicato stampa che ha accompagnato la pubblicazione della lettera – sostiene che i sistemi di intelligenza artificiale con intelligenza competitiva umana possono comportare gravi rischi per la società e l’umanità, come dimostrato da ricerche approfondite e riconosciuto dai migliori laboratori di intelligenza artificiale. Tali rischi richiedono un adeguato livello di pianificazione e gestione, che attualmente manca».

L’obiettivo è quello di chiedere tempo. Almeno sei mesi. Questo per sospendere qualsiasi implementazione su sistemi come ChatGPT 4. Non per chiudere qualsiasi porta a ulteriori avanzamenti, quanto per individuare dei protocolli etici che possano mettere in sicurezza lo sviluppo tecnologico dei sistemi di intelligenza artificiale. O per fare in modo, quantomeno, che la politica e le istituzioni – chiuse troppo spesso all’interno di palazzi polverosi – si rendano conto di quello che sta succedendo con lo spostamento sempre più in là del limite dei progetti di intelligenza artificiale.

Ovviamente, tra i firmatari della sottoscrizione – che verrà analizzata in maniera approfondita in un altro articolo di questo monografico – mancano i creatori di Open AI, coloro che hanno in qualche modo innescato un effetto domino nella corsa al miglioramento delle tecniche di intelligenza artificiale. Tuttavia, nei giorni scorsi, occorre registrare la posizione di Sam Altman, il CEO di Open AI, che – in un’intervista ad ABC News – ha spiegato che anche all’interno del suo team c’è preoccupazione per quello che l’intelligenza artificiale potrà fare e che le persone dovrebbero essere felici rispetto al fatto che ci sia un po’ di paura da questo punto di vista. Tra le righe, si legge un messaggio molto chiaro: l’intelligenza artificiale, in teoria, ha il potenziale per fare molto di più di quello che già fa e soltanto gli scrupoli morali dei suoi “inventori” hanno frenato la ricerca. Ma cosa succederà se dovesse arrivare qualcuno a cui questi scrupoli non fanno né caldo e né freddo?

Share this article
TAGS