Come è stato sciolto il nodo del riconoscimento biometrico da parte delle forze dell’ordine?

L'uso del riconoscimento biometrico da parte delle forze dell'ordine è stato il punto cruciale del negoziato: come se ne è usciti, cosa è stato consentito e cosa è stato vietato

11/12/2023 di Ilaria Roncone

«Ai Act: il Consiglio sta spingendo affinché le forze dell’ordine possano effettuare una categorizzazione biometrica basata sulla razza. La pressione è esercitata sul Parlamento affinché accetti il pacchetto sui divieti»: questa una porzione del resoconto live su Twitter del giornalista di Euractiv Luca Bertuzzi. Proprio questo punto, quello che riguarda il riconoscimento biometrico AI Act da parte delle forze dell’ordine, è stato al centro dello stallo di maggiore proporzione nel corso dei negoziati. Da un lato, c’è stato il Parlamento che ha difeso la linea dell’impossibilità e del blocco totale in tal senso; dall’altro, il Consiglio europeo – che è composto dai ministri degli Stati, e per questo è espressione dei membri dell’Ue – chiedeva che la legislazione fosse più morbida in tal senso e che venisse permesso anche l’utilizzo predittivo di queste tecnologie.


LEGGI ANCHE >>> ChatGPT e gli altri target dell’AI Act

Il nodo sciolto del riconoscimento biometrico nell’AI Act

Si tratta di uno dei temi centrali alla discussione del quale si è arrivati dopo mesi e mesi di ragionamenti e di analisi di esperti, tecnici e politici: il riconoscimento biometrico utilizzato per garantire la sicurezza e contro la criminalità. Chi lo sostiene punta a mettere nelle mani delle forze dell’ordine dei vari Paesi uno strumento efficace (ma anche impreciso e vittima di bias cognitivi, come abbiamo sottolineato qui e qui, e che quindi necessita di sempre di intervento umano) per garantire un maggiore livello di sicurezza.

Alla fine, con Italia, Ungheria e Francia capofila a sostegno di una posizione più permissiva, si è scelto di procedere vietando l’utilizzo del riconoscimento facciale nell’ambito della sorveglianza da parte delle forze dell’ordine salvo in tre casi specifici: l’evidente minaccia di un attacco terroristico, la ricerca di vittime e le indagini per reati gravi in cui – da ciò che trapela – per reati gravi si intendono omicidi, sequestri o violenza sessuale. Va specificato, per comprendere cosa può significare in potenza, che di recente il riconoscimento facciale è stato utilizzato dallo Stato di Israele per raccogliere informazioni biometriche sui palestinesi che abitano a Gaza. Queste stesse informazioni sono state utilizzate per nutrire il sistema che fa funzionare Habsora, il sistema missilistico che ha generato una quantità di obiettivi altissima e che ha permesso la devastazione di Gaza cui stiamo assistendo ora.

Tutto ciò per dire che cosa? Gli strumenti ci sono e, al di là delle singole regolamentazioni, tutto dipende e dipenderà dal modo in cui i singoli Stati decideranno di procedere nello sfruttare queste tecnologie di sorveglianza a seconda delle leggi.

I divieti e i quesiti aperti

L’idea, quindi, sarebbe quella di utilizzare il riconoscimento facciale per individuare le persone riprese dalle telecamere di sicurezza. Come gestire tutto questo nel rispetto della privacy dei cittadini? Ancora: nel caso di una manifestazione viene garantito – secondo quanto stabilito – che le persone non possano essere schedate tramite l’utilizzo del riconoscimento facciale perché in un determinato posto per ragioni religiose o politiche. Ma se in quello stesso contesto accade un attentato?

Tra i divieti imposti, troviamo quello di utilizzare la tecnologia AI come viene fatto – ad esempio – in Cina, dove viene calcolato un punteggio sociale per ogni individuo. A questo punteggio, assegnato in base al comportamento, corrisponde la possibilità di accedere o meno a determinati servizi. Come abbiamo già accennato, il riconoscimento biometrico non dovrà essere utilizzato – secondo l’AI Act – sfruttando dati sensibili come idee politiche, appartenenza religiosa, orientamento sessuale e, in questi sensi, le immagini ricavate dalla rete non potranno essere usate per creare database che categorizzino le persone.

Anche in ambito lavorativo e scolastico l’AI sarà ammesso solo per scopi di sicurezza (ad esempio, un autista che si sta addormentando alla guida) mentre sarà totalmente vietato per riconoscere le emozioni. Tutti i cittadini avranno la possibilità di segnalare e fare reclami sui sistemi di AI ricevendo spiegazioni in merito alle decisioni ad alto rischio che possono influenzare i loro diritti.

Share this article