Lacrime di coccodrillo sulle lettere degli accademici per fermare l’AI

All'indomani dell'appello (sottoscritto quasi da duemila esperti, accademici, figure chiave nelle aziende del digital), occorre fare una riflessione su cosa questo testo può cambiare. Probabilmente poco

02/04/2023 di Redazione Giornalettismo

Lettere sull’intelligenza artificiale, su Open AI, sulle estreme conseguenze di un prodotto come ChatGPT 4 e su sue probabili evoluzioni. Accademici, esperti, capitani d’azienda (tra questi, anche Elon Musk) hanno disperatamente chiesto alla comunità scientifica di fermarsi: c’è una corsa ormai incontrollabile al miglioramento delle tecniche di intelligenza artificiale, nei testi, nelle immagini, nei video deepfake. Ma non solo: i processi dell’intelligenza artificiale – e questo è molto più grave – puntano all’ottimizzazione della produttività e potranno, in futuro, rappresentare dei validi strumenti per rendere più agili i processi. Facendo, forse, a meno di molte professionalità umane. Così, il mondo delle imprese e il mondo della scienza ha deciso di porre un argine. O – quantomeno – di chiedere del tempo: sei mesi, per individuare degli anticorpi di tipo etico e normativo rispetto alle futuribili evoluzioni dell’intelligenza artificiale.

Lettera sull’AI, perché è tardiva

Il tutto mentre il Garante della Privacy in Italia, primo fra tutte le autorità paritetiche nel mondo, ha deciso di bloccare ChatGPT nel nostro Paese. Un po’ per la mancata comunicazione agli utenti relativa a eventuali effetti di un data breach subito il 20 marzo scorso, un po’ per la scarsa chiarezza sull’utilizzo dei dati personali che servono a fare training dello strumento, un po’ per la totale assenza di un sistema di age verification per l’utilizzo della piattaforma (pur in presenza di una policy che impone a 13 anni l’età minima richiesta per poter utilizzare ChatGPT).

La lettera degli esperti e il provvedimento del Garante saranno sufficienti a risolvere il problema di invasività dell’intelligenza artificiale? La Spagna, ad esempio, aveva anticipato i tempi istituendo e finanziando un’Agenzia per la supervisione dell’intelligenza artificiale, cadendo nella trappola dei conflitti di attribuzione delle competenze e rendendo inefficace lo strumento. La questione non è semplice. Per questo, nel nostro monografico dedicato, abbiamo chiesto aiuto per la comprensione del problema a Matteo Marsili (Senior Research Scientist Abdus Salam ICTP). «Il motivo principale che mi ha spinto a firmare questa petizione – ha spiegato Marsili – è che penso che stimoli la discussione su questi temi, qualcosa di cui c’è davvero bisogno: serve parlare in maniera più articolata di tutto questo per capire se ci sono dei limiti e quali limiti vadano imposti a questa tecnologia, che non deve essere solo qualcosa che è spinto dal moto tecnologico».

La lettera degli esperti (compreso Elon Musk) per fermare l’intelligenza artificiale
La lettera di 8 primi ministri ai BigTech contro la disinformazione generata dall’AI
Secondo chi firma, occorre porre un argine all’autorità dell’algoritmo
Il Garante della Privacy ha bloccato ChatGPT in Italia, rischia 20 milioni di sanzione
Il testo della lettera per rallentare l’AI: cosa chiedono i firmatari?
Chi dovrebbe occuparsi di regolare l’intelligenza artificiale (per evitare l’errore della Spagna)
Chi è causa del suo mal pianga se stesso: hanno giocato con l’AI e ora hanno paura del giocattolo

Share this article
TAGS