Tutte le cose che non tornano sulla proposta UE sull’intelligenza artificiale

Il passo in avanti è stato sicuramente importante, ma troppi elementi sono stati presi sottogamba

21/04/2021 di Gianmichele Laino

È senza dubbio un bene che la Commissione Europea abbia iniziato a prendere seriamente l’argomento del rapporto tra intelligenza artificiale e UE. Anche perché il passaggio che è stato fatto oggi, con la commissione che ha formulato la propria proposta per una regolamentazione condivisa tra gli stati membri per l’utilizzo dell’intelligenza artificiale, rappresenta sicuramente un passo in avanti rispetto allo stato attuale della discussione, che permette troppi spazi grigi all’interno dei quali aziende e sistemi informatici trovano il proprio terreno fertile per promuovere azioni che sono al limite della sorveglianza della persona. Il documento – presentato anche con enfasi dalla presidente della Commissione EU Ursula von der Leyen e dalla vicepresidente Margrethe Vestager che si è fatta portavoce di questa iniziativa – presenta qualche aspetto critico, sicuramente migliorabile in seguito all’approfondito esame del parlamento europeo che dovrà lavorare per rendere il testo ancora più ricevibile dagli stati membri.

LEGGI ANCHE > A che punto è la pdl per la moratoria sull’utilizzo dell’intelligenza artificiale per il riconoscimento facciale

Intelligenza artificiale e UE, quali sono i dubbi

L’utilizzo dell’intelligenza artificiale può causare problemi molto seri per la tutela dei dati personali. Questo è pacifico ed è esattamente il punto di partenza da cui la Commissione Europea ha avviato l’iter per dotare gli Stati membri di una normativa uniforme. Le perplessità, tuttavia, sono state evidenziate tutte dall’eurodeputata dei Verdi europei Alexandra Geese, che da sempre si batte per i diritti digitali. Le eccezioni all’utilizzo dell’intelligenza artificiale per l’identificazione biometrica in remoto, infatti, sono ancora troppo numerose. Il testo della Commissione Europea, ad esempio, prevede ben 32 casi – compreso quello relativo alle forze dell’ordine – all’interno dei quali l’identificazione biometrica può essere permessa e, tra i dati che possono essere intercettati, ci sono anche quelli relativi all’identità sessuale e il riconoscimento di genere.

Inoltre, c’è un passaggio che lascia intendere che il ban possa essere valido soltanto per quelle tecnologie che mettono in pericolo l’identità fisica o psicologica della persona. In pratica, per quanto riguarda i video deep-fake, ci potrebbe essere l’elasticità per consentirli quando questi non mettano a rischio la salute delle persone (ovvero, quando possono essere funzionali a diffondere delle fake news).

Nei sistemi ad alto rischio per cui non è consentita l’identificazione biometrica, accanto a quelli del welfare più tradizionale, stona – ad esempio – l’assenza del settore della sanità. Così come restano perplessità sull’utilizzo dell’intelligenza artificiale quando si parla di Migration area o quando si parla di verificare l’accesso a sistemi di assistenza (al contrario, non può essere utilizzata per confermare eventuali truffe fiscali).

Insomma, i punti migliorabili sono molti e il parlamento europeo avrà il suo bel daffare per poter coprire alcuni passaggi che non sembrano in sintonia con obiettivi già prefissati – di default – dalla Commissione Europea come l’inclusione, i diritti, la parità di genere.

Foto IPP/imagostock – Bruxelles

Share this article