Replika è l’esempio di quel che accade quando la tecnologia è alleata del capitalismo

Categorie: Social Network

Insieme a Cristiano De Nobili, esperto in materia di addestramento e funzionamento dell'AI, abbiamo sviluppato una riflessione sul funzionamento del chatbot Replika

Come è possibile che l’intelligenza artificiale funzioni in questo modo e che nessuno – dal 2017 – si sia posto delle domande in merito? La questione Replika è esplosa nelle scorse settimane – portando il garante a disporre la chiusura dei server che ne permettono il funzionamento in Italia – e deve essere analizzata nella sua complessità. Viene naturale – ed è quasi impossibile – non chiedersi perché su internet è disponibile e facilmente accessibile una tecnologia del genere e abbiamo scelto di parlarne con Cristiano De Nobili, Lead AI Scientist e Machine Learning Lecturer, che ci ha fornito il punto di vista di un esperto in materia di addestramento e funzionamento dell’intelligenza artificiale su come funziona Replika.



LEGGI ANCHE >>> Abbiamo chattato con Replika scoprendo i rischi concreti per i minori e per le persone fragili

Come funziona Replika e, più in generale, l’Intelligenza Artificiale

«Il modello open source con cui spesso vengono condivisi sulle piattaforme di coding, come Github, gli algoritmi che nella maggior parte dei casi vengono sviluppati con finalità neutrali o anche di ricerca – spiega De Nobili ai microfoni di Giornalettismo – permette certamente una diffusione enorme dei modelli di AI».



«Stessa cosa vale per i dati. Essendo ancora vaghe le normative, specialmente fuori dall’Europa, ed essendo anche gli utenti spesso impreparati all’utilizzo di alcune app, molte aziende fanno scorta di dati. Anche con le buone intenzioni, sul web si trova di tutto e di più, quindi quando si scarica massivamente informazione possono capitare anche contenuti sbagliati», prosegue l’esperto di Natural Language Processing.

«Le aziende più serie, come OpenAI, Facebook, Microsoft o Google hanno dei team apposta di etica e controllo, anche per tutelarsi e produrre algoritmi buoni. Siccome anche gli algoritmi di queste aziende, nonostante queste tutele, spesso commettono degli errori, figuriamoci i modelli di AI delle aziende o piccole startup (quelle che diventano virali in poco) cosa possono commettere», conclude il ragionamento.



Risulta possibile addestrare meglio l’AI?

Considerato lo scarsissimo risultato di Replika, viene spontaneo chiedersi in che modo si possa migliorare o cosa non sia stato fatto – in precedenza – per evitare di arrivare a un punto del genere. «L’argomento di come si può addestrare un AI in modo migliore è molto ampio e in continua evoluzione. Sicuramente un passo importante è avere più controllo sui dati (immagini, testi o audio) che vengono utilizzati per addestrare il modello», afferma De Nobili.

Non si può non tenere in considerazione l’ambiente, ovvero il web: «Siccome però internet è una giungla – senza poi parlare dei dati generati nel dark web – è facile che all’interno di miliardi di righe di testo, ve ne siano un 1% (che sono milioni di righe) non propriamente etiche», conclude l’esperto, precisando che comunque «la ricerca sta lavorando molto sul tema AI Ethics».

La tecnologia alleata del capitalismo può portare solo questo

Come si evita la situazione in cui un minore possa essere indotto a fare un abbonamento per ricevere contenuti pornografici o, peggio ancora, inviare del proprio materiale a un AI? «Il concetto fondamentale è che fino a quando la tecnologia è una mera alleata del capitalismo – osserva De Nobili – la sua finalità non sarà altro che ottimizzare vendite e consumo. Quindi una tecnologia sviluppata con questo scopo deve essere sviluppata velocemente e spesso viene utilizzata fuori dai ranghi di competenza».

«L’umanità – conclude la riflessione De Nobili – dovrebbe essere educata a usare la tecnologia solo ove strettamente necessario, come strumenti di risoluzione di problemi e non di creazione di problemi». L’educazione dell’AI, quindi, non può prescindere dall’educazione delle persone che devono – in primis – capire in quali contesti sia sensato e opportuno utilizzare la tecnologia in questo modo.