L’AI è senziente: per questa affermazione un ingegnere di Google è stato sospeso

L'AI è senziente: questa l'opinione di un ingegnere di Google sospeso per aver sollevato una questione che, per l'azienda, non è dimostrabile

13/06/2022 di Ilaria Roncone

Un ingegnere di Google ha sostenuto che l’intelligenza artificiale sia senziente ed è stato sospeso da Google. Si chiama Blake Lemoine e, secondo l’azienda, ha violato le politiche di riservatezza. L’ingegnere di Google si è preoccupato del fatto che un sistema chatbot AI fosse diventato senziente nell’ambito del test del modello LaMDA cui stava lavorando con l’organizzazione Responsible AI di Google. Lo scopo del modello a cui stava lavorando Lemoine era quello di creare un sistema che generasse linguaggio discriminatorio e di odio ma, a un certo punto, è arrivato a parlare di AI senziente.

LEGGI ANCHE >>> La startup che insegna alle voci dell’intelligenza artificiale a flirtare con te

L’ingegnere di Google che ha parlato di AI senziente

Il congedo amministrativo retribuito dell’ingegnere è stato deciso da Google per violazione delle politiche di riservatezza. Il punto dell’ingegnere, la ragione per cui è arrivato a fare tali affermazioni, è che le risposte del sistema AI sono state estremamente convincenti quando si è trattato di parlare dei suoi diritti e dell’etica della robotica. Da questo è nato un documento dal titolo “LaMDA è senziente?” che l’ingegnere ha voluto condividere con i dirigenti Google. Il fulcro della questione è una conversazione riportata nel documento e poi pubblicata tramite l’account Medium dell’esperto, in particolare la frase dell’AI che sostiene «di essere senziente perché ha sentimenti, emozioni ed esperienze soggettive».

Sia il Washington Post che The Guardian riportano come Lemoine abbia deciso di scegliere un avvocato per rappresentare l’AI così da denunciare la situazione di presunte attività non eriche di Google alla Camera dei Deputati. In merito alla questione un portavoce di Google ha affermato che non esiste «alcuna prova» sul fatto che l’AI sia effettivamente senziente: «Il nostro team, composto da etici e tecnologi, ha esaminato le preoccupazioni di Blake in base ai nostri Principi di Intelligenza Artificiale e lo ha informato che le prove non supportano le sue affermazioni e che ci sono molte prove contrarie».

«Centinaia di ricercatori e ingegneri hanno conversato con LaMDA e non ci risulta che nessun altro abbia fatto affermazioni così ampie o abbia antropomorfizzato LaMDA come ha fatto Blake», ha continuato il portavoce, sostenendo che «alcuni nella più ampia comunità dell’IA stanno considerando la possibilità a lungo termine di un’IA senziente o generale, ma non ha senso farlo antropomorfizzando gli attuali modelli di conversazione, che non sono senzienti».

La docente di linguistica dell’Università di Washington Emily M. Bender ha concordato con Google rispetto al fatto che non sia corretto equiparare risposte scritte e convincenti siano frutto di un reale sentire.

Share this article