Serve un dibattito pubblico sui rischi del riconoscimento delle emozioni da parte dell’AI

A questo punto è prioritario alimentare il dibattito sull'utilizzo dell'AI nel riconoscimento facciale e delle emozioni e un gioco creato appositamente può aiutare a farlo

06/04/2021 di Ilaria Roncone

Esiste una tecnologia creata per identificare le emozioni umane tramite l’utilizzo di algoritmi di apprendimento automatico. Si tratta di un’industria enorme e con implicazioni enormi in moltissimi campi. Una tecnologia che, come alcuni scienziati che hanno creato un gioco online stanno provando a far capire, può risultare anche imprecisa e razzista – oltre a sollevare una serie di perplessità sul rispetto della privacy -. Il sito in questione è stato creato proprio per mostrare quanto sia facile ingannare l’algoritmo e quanto, in alcuno casi, l’intelligenza artificiale fatichi a riconoscere le nostre espressioni facciali in base al contesto. Lo scopo è uno solo: aumentare la consapevolezza dell’opinione pubblica su quanto sia influente un tipo di tecnologia come quella del riconoscimento facciale e delle emozioni.

LEGGI ANCHE >>> L’algoritmo che ci suggerisce chi ascoltare in base ai nostri gusti su Spotify è sessista

I rischi del riconoscimento facciale e delle emozioni

«È una forma di riconoscimento facciale, ma va oltre perché invece di identificare semplicemente le persone, afferma di leggere le nostre emozioni, i nostri sentimenti interiori dai nostri volti», ha affermato la dottoressa Alexa Hagerty – ricercatrice presso l’Università di Cambridge Leverhulme Centro per il futuro dell’intelligence e Centro per lo studio del rischio esistenziale e responsabile del progetto -. Già lo scorso anno la Commissione per l’uguaglianza e i diritti umani si è posta una serie di problemi rispetto all’utilizzo di tecnologie del genere per lo screening di massa – ricorda il Guardian -, invitando all’interruzione poiché potrebbe aumentare le azioni discriminatorie da parte della polizia e danneggiare la libertà di espressione.

Dal lavoro della ricercatrice è emerso anche quante poche persone fossero effettivamente a conoscenza degli ambiti in cui sono coinvolti i sistemi di riconoscimento delle emozioni: assunzioni, sicurezza aeroportuale, istruzione. E tutto il mondo è coinvolto, dagli Usa alla Cina, passando per l’Europa. Altri esempi sono quelli forniti dalla società Taigusys, che ha affermato di utilizzare sistemi di riconoscimento nelle case di cure e nelle prigioni o – ancora – la città indiana di Lucknow, dove si vogliono utilizzare questi tipi di tecnologie per individuare il disagio sul volto di donne molestate. Da dibattere ce ne sarebbe eccome, quindi.

L’importanza del dibattito pubblico e dell’espressione democratica

I vantaggi ci sono, ma vanno soppesati e soprattutto messi in rapporto con gli aspetti negativi. Proprio in funzione di questo Hagerty ha affermato che «dobbiamo avere una conversazione e una riflessione pubblica molto più ampia su queste tecnologie», ragion per cui il sito –  che non raccoglie i dati personali di chi fa il gioco – è stato creato. Provare la tecnologia dà la possibilità a ognuno di noi di capire come funziona e come non funziona, considerato che il sistema altro non fa che leggere i movimenti del viso e collegarli con le ipotesi che siano collegati a delle emozioni. Un sorriso si può fingere e questo non significa che dentro tu ti senta in quel modo.

Share this article