Come si addestra l’Intelligenza Artificiale?

Categorie: Attualità

L'Intelligenza Artificiale ha sempre un addestratore o un "insegnante" umano. Come funziona il lavoro delle persone che lavorano in questo ambito?

Gli strumenti basati sull’Intelligenza Artificiale e progettati per produrre immagini come Midjourney, DALL-E e Stable Diffusion sono diventati molto popolari nel corso degli ultimi mesi sia perché rappresentano una novità sia perché il modo in cui funzionano pone diversi problemi. DALL-E è stata sviluppata da OpenAI, un’organizzazione senza fini di lucro di ricerca sull’Intelligenza Artificiale che ha lo scopo di promuovere e sviluppare un’intelligenza artificiale “amichevole” (friendly AI) che possa essere utile e avvantaggiare chiunque nelle proprie mansioni. Di recente si è parlato molto di OpenAI perché ha sviluppato e lanciato ChatGPT, un chatbot basato sull’Intelligenza Artificiale che è stato anche integrato nel motore di ricerca Bing, ma nel corso degli ultimi mesi sono molti gli strumenti basati sull’Intelligenza Artificiale che sono stati sviluppati: Replika di Luka e Imagen di Google sono solo alcune di queste.



LEGGI ANCHE > Stable Diffusion, come funziona l’intelligenza artificiale di un generatore d’immagini

Come funziona l’addestramento dell’Intelligenza Artificiale?

Alberto Puliafito aveva detto a Giornalettismo che gli strumenti basati sull’Intelligenza Artificiale sono progettati per dare l’impressione di sapere quello che stanno facendo, proprio come se a scrivere un testo o a disegnare un’immagine fosse un essere umano. In realtà non è così: ChatGPT è in grado, tra le varie cose, di riassumere un testo ma per farlo non fa un’operazione di comprensione del testo come farebbe un essere umano, fa invece un’analisi probabilistica basandosi sul contenuto fornito dall’utente e produce un risultato che può essere considerato più o meno soddisfacente sulla base di quell’analisi.



I sistemi basati sull’Intelligenza Artificiale, sia che producano contenuto testuale sia che producano immagini, devono essere “addestrati” o “educati” a funzionare in un certo modo.

Cosa significa?



ChatGPT, per esempio, è stato addestrato su una grande quantità di testi di vario genere come articoli di giornale, libri, documenti e anche canzoni che gli consentono di fornire delle risposte testuali articolate ed esaustive. Il materiale utilizzato per addestrare l’Intelligenza Artificiale contiene in percentuale anche contenuti sessisti, razzisti, omofobi e violenti: per questo ChatGPT potrebbe creare un testo razzista o sessista basandosi su questo tipo di fonti. Questo, ovviamente, è un problema che va risolto “insegnando” all’intelligenza artificiale a riconoscere questi contenuti per escluderli da quelli su cui può basarsi per creare dei testi. Per farlo si sottopongono contenuti di questo genere all’Intelligenza Artificiale finché questa non diventa in grado di etichettarli come violenti.

Chi decide se un contenuto è violento, quindi da escludere, oppure no?

I data labeler, gli etichettatori di dati, cioè delle persone che analizzano i contenuti decidendo quali tra questi etichettare come violenti. Per svolgere questo lavoro di “filtraggio” dei contenuti nel 2021 OpenAI ha stretto un accordo con Sama, una società con sede a San Francisco ma che ha molti dipendenti che lavorano in uffici situati in Kenya, Uganda e India. Lo scopo era creare uno strumento che individuasse contenuti potenzialmente dannosi e violenti che sarebbe poi stato integrato in ChatGPT. Un’inchiesta del Time pubblicata a gennaio del 2o23 ha rivelato che la maggior parte delle persone che hanno lavorato all’addestramento di ChatGPT fosse sottopagata, sottoposta ad elevati livelli di stress e a condizioni che non tutelavano il loro benessere psicologico. Le persone che lavorano nel data labeling, ma spesso anche le persone che si occupano di moderazione di contenuti, devono visionare una quantità rilevante di contenuti violenti, spesso molto espliciti, per poterli etichettare come tali. Il Time ha scritto che «per ottenere queste etichette, OpenAI ha inviato decine di migliaia di campioni di testo a Sama a partire da novembre del 2021. Buona parte di questi contenuti sembrano essere stati prelevati dalle zone più oscure della rete».

E per le immagini?

Le molte applicazioni in grado di generare le immagini partendo, per esempio, da un testo scritto dall’utente sono state addestrate su grandi set di dati, nella maggior parte dei casi si tratta di immagini associate a didascalie e che quindi mettono in relazione un’immagine alla spiegazione testuale del suo significato o di quello che rappresenta. Stable Diffusion, per esempio, è stato addestrato su 5 miliardi di coppie di immagini e didascalie tratte da un set di dati pubblicamente disponibile e creato da LAION, un’organizzazione no-profit tedesca. Anche in questo caso è necessario etichettare i contenuti violenti o sessualmente espliciti per evitare, come accaduto per esempio con LensaAI, che l’Intelligenza Artificiale possa creare dei materiali pornografici, ma non solo: in questi grandi set di dati è possibile che ci siano anche delle immagini o delle foto che dovrebbero essere tutelate dal diritto d’autore, ma di fatto vengono utilizzate dall’Intelligenza Artificiale per essere rielaborate e per creare così delle nuove immagini. È anche per questo che molti artisti, come illustratori o fumettisti, hanno creato l’European Guild for Artificial Intelligence Regulation (EGAIR) con l’obiettivo di chiedere alla Commissione europea di introdurre un Training right, cioè una norma per regolamentare l’utilizzo e lo sfruttamento dei dati e delle opere creative da parte delle società di Intelligenza artificiale.