Esiste una tecnologia creata per identificare le emozioni umane tramite l’utilizzo di algoritmi di apprendimento automatico. Si tratta di un’industria enorme e con implicazioni enormi in moltissimi campi. Una tecnologia che, come alcuni scienziati che hanno creato un gioco online stanno provando a far capire, può risultare anche imprecisa e razzista – oltre a sollevare una serie di perplessità sul rispetto della privacy -. Il sito in questione è stato creato proprio per mostrare quanto sia facile ingannare l’algoritmo e quanto, in alcuno casi, l’intelligenza artificiale fatichi a riconoscere le nostre espressioni facciali in base al contesto. Lo scopo è uno solo: aumentare la consapevolezza dell’opinione pubblica su quanto sia influente un tipo di tecnologia come quella del riconoscimento facciale e delle emozioni.
LEGGI ANCHE >>> L’algoritmo che ci suggerisce chi ascoltare in base ai nostri gusti su Spotify è sessista
«È una forma di riconoscimento facciale, ma va oltre perché invece di identificare semplicemente le persone, afferma di leggere le nostre emozioni, i nostri sentimenti interiori dai nostri volti», ha affermato la dottoressa Alexa Hagerty – ricercatrice presso l’Università di Cambridge Leverhulme Centro per il futuro dell’intelligence e Centro per lo studio del rischio esistenziale e responsabile del progetto -. Già lo scorso anno la Commissione per l’uguaglianza e i diritti umani si è posta una serie di problemi rispetto all’utilizzo di tecnologie del genere per lo screening di massa – ricorda il Guardian -, invitando all’interruzione poiché potrebbe aumentare le azioni discriminatorie da parte della polizia e danneggiare la libertà di espressione.
Dal lavoro della ricercatrice è emerso anche quante poche persone fossero effettivamente a conoscenza degli ambiti in cui sono coinvolti i sistemi di riconoscimento delle emozioni: assunzioni, sicurezza aeroportuale, istruzione. E tutto il mondo è coinvolto, dagli Usa alla Cina, passando per l’Europa. Altri esempi sono quelli forniti dalla società Taigusys, che ha affermato di utilizzare sistemi di riconoscimento nelle case di cure e nelle prigioni o – ancora – la città indiana di Lucknow, dove si vogliono utilizzare questi tipi di tecnologie per individuare il disagio sul volto di donne molestate. Da dibattere ce ne sarebbe eccome, quindi.
I vantaggi ci sono, ma vanno soppesati e soprattutto messi in rapporto con gli aspetti negativi. Proprio in funzione di questo Hagerty ha affermato che «dobbiamo avere una conversazione e una riflessione pubblica molto più ampia su queste tecnologie», ragion per cui il sito – che non raccoglie i dati personali di chi fa il gioco – è stato creato. Provare la tecnologia dà la possibilità a ognuno di noi di capire come funziona e come non funziona, considerato che il sistema altro non fa che leggere i movimenti del viso e collegarli con le ipotesi che siano collegati a delle emozioni. Un sorriso si può fingere e questo non significa che dentro tu ti senta in quel modo.