Secondo chi firma occorre porre un argine all’«autorità dell’algoritmo»
Per capire le ragioni che spingono i firmatari della lettera che punta a rallentare la ricerca AI abbiamo intervistato uno di loro, il professor Matteo Marsili (Senior Research Scientist Abdus Salam ICTP)
31/03/2023 di Ilaria Roncone
Per quali ragioni chi ha firmato la lettera per fermare le ricerche sull’intelligenza artificiale nei prossimi sei mesi ha scelto di farlo? Tra gli esperti italiani che hanno scelto di entrare a far parte della lunga lista – che, di ora in ora, guadagna sempre più nominativi – abbiamo scelto di parlare con Matteo Marsili, Senior Research Scientist presso Abdus Salam ICTP, chiedendogli il perché di quella firma sulla lettera contro AI. Quali sono le ragioni che possono albergare nella mente dei ricercatori esperti nell’ambito dell’IA e in altre branche scientifiche che hanno scelto di firmare questo appello e quali sono le preoccupazioni in merito allo sviluppo dell’Intelligenza Artificiale generativa lo possiamo comprendere dalle parole di Marsili sulla sua posizione in merito.
LEGGI ANCHE >>> Il testo della lettera per rallentare l’AI: cosa chiedono i firmatari?
«Siamo stati presi tutti abbastanza di sorpresa»
Marsili, raggiunto da Giornalettismo, chiarisce subito di non essere un’autorità nel campo AI ma di comprendere la necessità di prendere posizione anche in virtù di quello che si dice negli ambienti dei ricercatori e delle preoccupazioni che stanno nascendo. Si tratta di un tema di cui si discute molto negli ambienti di ricerca e il numero di esperti che continuano a firmare nel mondo è la prova del fermento che c’è attorno al tema.
«Siamo stati presi tutti abbastanza di sorpresa: di questi sviluppi tecnologici non è chiaro quali impatti abbiano poi sulla società. In particolare, si è discusso molto degli impatti di queste nuove tecnologie sull’educazione, ci sono molte persone preoccupate; un altro aspetto di questa AI – in particolar modo mi riferisco a ChatGPT e questi modelli di machine learning Natural Language Processing – si basano su dati che sono su internet e un tema molto discusso è quello dei bias di questi algoritmi perché imparano da chi li usa, in sostanza, e quindi assorbono tutti i bias delle persone che se ne servono».ù
Lettera contro AI e l’autorità degli algoritmi
Non sappiamo dove ci sta portando tutto questo, in sostanza «e un altro rischio – come sostiene il professore – è che uno tenda a conferire una certa autorità agli algoritmi, cercando delle risposte chiedendo a loro invece che agli esperti e alla comunità scientifica».
«Il motivo principale che mi ha spinto a firmare questa petizione – ha spiegato Marsili – è che penso che stimoli la discussione su questi temi, qualcosa di cui c’è davvero bisogno: serve parlare in maniera più articolata di tutto questo per capire se ci sono dei limiti e quali limiti vadano imposti a questa tecnologia, che non deve essere solo qualcosa che è spinto dal moto tecnologico».
Riflettere sui limiti da imporre all’AI e sulla responsabilità della scienza
Il rischio, secondo chi nella comunità scientifica ci ha passato una vita, è che le richieste che attualmente facciamo alla scienza e agli esperti le potremmo rivolgere agli algoritmi. Secondo Marsili (e, per estensione, secondo chi scegliere di firmare la lettera per mettere in pausa la ricerca sull’AI) sarebbe il caso di fermarsi un attimo e di concentrarsi sulla questione limite da imporre affinché il tutto non ci sfugga di mano.
«Suona come una cosa brutta da fare, fermare il progresso tecnologico, però come fisico sono cresciuto con l’idea della responsabilità della scienza e penso siano considerazioni importanti nell’epoca in cui c’è una proliferazione di fenomeni legati a fake news e a un indebolimento della fiducia che, in generale, la società ha nella scienza. Indebolimento che, in gran parte, è dovuto alla propagazione incontrollata di notizie pseudoscientifiche su canali che non sono quelli della scienza con il peer review. Non è chiaro, quindi, in che modo questi nuovi algoritmi possano contribuire a questi effetti».
Quello che deve farci riflettere, guardando ai nomi firmatari di questa lettera, è che ci sono esperti del settore AI, esperti della scienza in generale e persino grandi nomi di quelle Big Tech che – in buona parte – stanno scegliendo di aderire all’appello per rallentare tutto questo e imbrigliare una tecnologia che, se lasciata sciolta, rischia di metterci davanti a problemi che ora riusciamo a immaginare solo in minima parte.