“Monitorare le emozioni con l’IA?” Non fatelo: La richiesta a Zoom delle organizzazioni per i diritti umani

Fight for the Future e gli altri partecipanti sperano che la lettera riesca a fare pressione sulla piattaforma Zoom perché cambi idea

12/05/2022 di Martina Maria Mancassola

L’organizzazione no profit per i diritti digitali Fight for the Future e 27 organizzazioni per i diritti umani – tra cui ACLU, Advocacy for Principled Action in Government, Difendere diritti e dissenso, Državljan D / Citizen D, Electronic Privacy Information Center (EPIC) -, hanno scritto una lettera alla piattaforma Zoom, domandandole di non continuare ad implementare l’uso dell’intelligenza artificiale (AI) che permette di analizzare e monitorare le emozioni nella sua piattaforma di videoconferenza. I gruppi hanno scritto la lettera in risposta ad un rapporto del Protocollo in cui Zoom aveva dichiarato di stare attivamente effettuando delle ricerche su come incorporare l’IA delle emozioni nel suo prodotto in futuro. Questa dichiarazione fa parte di un pezzo più ampio che verifica come le aziende abbiano iniziato ad utilizzare l’AI per rilevare lo stato emotivo di un potenziale cliente durante le chiamate commerciali.

Leggi anche > Zoom pagherà 85 milioni di dollari alle vittime di Zoombombing

Zoom e la possibilità di monitorare le emozioni con l’AI sulla piattaforma: le organizzazioni per i diritti umani chiede di interromperla

«Se Zoom avanza con questi piani, questa funzione discriminerà le persone di determinate etnie e le persone con disabilità, codificando gli stereotipi in milioni di dispositivi. Oltre a minare gli utenti a scopo di lucro e consentire alle aziende di capitalizzarli, questa tecnologia potrebbe assumere usi molto più sinistri e punitivi. Non è difficile immaginare che i datori di lavoro e le istituzioni accademiche utilizzino l’analisi delle emozioni per disciplinare i lavoratori e gli studenti percepiti come “esprimere le emozioni sbagliate” sulla base di un’IA difettosa», ha dichiarato Caitlin Seeley George, Direttrice della campagna e delle operazioni di Fight for the Future. Il ricorso alle videoconferenze è stato amplificato dalla pandemia. Dalle scuole alle università, dalle riunioni di lavoro alle vendite, tutto è avvenuto online. In particolare, i venditori hanno riscontrato difficoltà a valutare quanto i potenziali clienti fossero ricettivi e attenti ai loro prodotti e servizi, molto spesso non riuscendo a leggere il loro linguaggio del corpo attraverso lo schermo. Le aziende, per aiutare i venditori, hanno iniziato a servirsi di una tecnologia in grado di analizzare e monitorare gli stati d’animo delle persone durante le chiamateProtocol ha dichiarato che la piattaforma Zoom ha in programma di fornire lo stesso servizio. Così, Fight for the Future e molte altre organizzazioni per i diritti umani hanno scritto una lettera a Zoom sperando che il loro appello faccia pressione su Zoom affinché abbandoni i suoi piani futuri. I gruppi stessi hanno definito la tecnologia «discriminatoria, manipolativa, potenzialmente pericolosa e basata sul presupposto che tutte le persone usino le stesse espressioni facciali, schemi vocali e linguaggio del corpo».

In particolare, Tracy Rosenberg di Oakland Privacy, ha dichiarato che: «Adottare la scienza spazzatura del rilevamento delle emozioni sulla piattaforma Zoom sarebbe un grosso errore. Non ci sono prove affidabili che una macchina possa valutare accuratamente lo stato emotivo di qualcuno e molte prove che le ipotesi valide per tutti sulla “normalità” non rispecchiano la diversità umana e puniscono i gruppi esterni per le differenze. Per non parlare del fatto che l’attività di un datore di lavoro o di un insegnante è il modo in cui una persona si comporta nel ruolo e nella relazione a portata di mano. È una scelta per rivelare sentimenti e problemi in altri aspetti della vita di una persona – e dovrebbe rimanere tale», mentre il Dr. Bruce White, Direttore Esecutivo, OICD (Organizzazione per l’Identità e lo Sviluppo Culturale): «In questa epoca di manipolazione dilagante e danni causati dalla tecnologia e dalle piattaforme di comunicazione dei media, noi dell’OICD esortiamo Zoom a mostrare la leadership attraverso una prudente cautela invece di implementare nuove funzionalità tecnologiche sconsiderate come l’IA delle emozioni che potrebbero danneggiare l’autodeterminazione e l’identità sviluppo di minoranze vulnerabili rafforzando pregiudizi e stereotipi».

La tecnologia impiegata sarebbe parziale e razzista

I gruppi che si battono per il riconoscimento e la tutela dei diritti umani hanno anche sottolineato che la tecnologia è intrinsecamente parziale e razzista, al pari del riconoscimento facciale e, incorporando questa funzione, la piattaforma Zoom discriminerebbe alcune etnie e persone con disabilità. In più, il monitoraggio delle emozioni potrebbe essere dannoso per studenti o lavoratori, contro i quali potrebbe essere utilizzato come punizione nel momento in cui mostrano l’emozione sbagliata. Nel 2021, un progetto guidato dalla professoressa dell’Università di Cambridge, Alexa Hagerty, ha reso noti i limiti delle tecniche di intelligenza artificiale di riconoscimento delle emozioni e ha sottolineato quanto sia facile fraintenderle. Ma anche altri studi hanno dimostrato che i programmi di riconoscimento delle emozioni non superano il test del pregiudizio razziale e fanno fatica a leggere i volti neri: «I nostri stati emotivi e i nostri pensieri più intimi dovrebbero essere liberi da sorveglianza. Il software di riconoscimento delle emozioni ha dimostrato più e più volte di essere spazzatura non scientifica e semplicistica che discrimina i gruppi emarginati, ma anche se funzionasse e potesse identificare accuratamente le nostre emozioni, non è qualcosa che ha un posto nella nostra società, e certamente non in le nostre riunioni di lavoro, le nostre lezioni online e altre interazioni umane per le quali aziende come Zoom forniscono una piattaforma» ha dichiarato Daniel Leufer, Senior Policy Analyst, Access Now.

Il gruppo, per fare pressione sulla piattaforma, ha concluso la lettera rifacendosi alla positiva, passata, decisione di Zoom di annullare il lancio delle funzionalità di rilevamento dei volti e definendo la proposta di non implementare il sistema di monitoraggio delle emozioni – nel suo prodotto entro il 20 maggio 2022 – una nuova opportunità per la piattaforma per fare ciò che è giusto per i suoi utenti.

Share this article
TAGS