Quali sono i piani dell’Unione Europea per regolamentare il peso degli algoritmi (e renderli non discriminatori)

Categorie: Attualità

Una normativa ad hoc, che avrebbe riflessi a livello globale, per premiare l'intelligenza artificiale affidabile e consentire ai cittadini di rivalersi contro le discriminazioni

Non come Gattaca, ma poco ci manca. La pellicola del 1997 diretta da Andrew Niccol, mostrava un futuro in cui anche la genetica era condizionata da scelte esterne. Quella ricerca della cosiddetta “perfezione” in grado di rendere il mondo uniforme, anche nei processi di scelta di ogni singolo cittadino. Non è, ovviamente, questo il caso ma l’incidenza degli algoritmi sulla nostra vita è destinata a diventare sempre più preminente e occorre porre degli argini affinché tutto ciò non diventi uno strumento di discriminazione. Ed è per questo che l’Unione Europea sta cercando – e il piano potrebbe diventare operativo entro la fine del 2024 – di regolamentare tutto ciò, fornendo quei paletti per un’intelligenza artificiale affidabile.



LEGGI ANCHE > La Cina e l’intelligenza artificiale che può testare la fedeltà al partito comunista

IA e algoritmi. Una storia raccontata anche nel cinema – il più recente esperimento è rappresentato, in chiave critica, dal film di Pif “E noi come str*nzi rimanemmo a guardare” -, con quella presenza assillante di codici di cui il cittadino è “vittima” inconsapevole. Almeno per quel che riguarda gli effetti. Perché affidarsi a un algoritmo senza regole (così come un’intelligenza artificiale priva di paletti precostituiti) potrebbe avere degli effetti nefasti per tutti. Lo spiega al The Guardian Alexandru Circiumaru, responsabile delle politiche pubbliche europee presso l’Ada Lovelace Institute.



«I rischi posti dall’IA, soprattutto se applicata in determinate circostanze specifiche, sono reali, significativi e già presenti.La regolamentazione dell’IA dovrebbe garantire che le persone siano adeguatamente protette dai danni approvando o meno gli usi dell’IA e disporre rimedi disponibili in caso di malfunzionamento dei sistemi di IA approvati o che provocano danni. Non possiamo fingere che i sistemi di IA approvati funzioneranno sempre perfettamente e non riusciranno a prepararsi per le istanze quando non lo faranno». 

Un problema non da poco. Perché la situazione è complessa, visto che oramai non sono più solo le aziende private ad aver ampliato lo spettro di azione degli algoritmi e dell’intelligenza artificiale.



Intelligenza artificiale affidabile, il piano dell’Unione Europea

Con il passare del tempo, infatti, anche le istituzioni e gli enti locali hanno deciso di affidarsi a quel che qualche tempo fa sembrava essere la più grande novità sul palcoscenico del futuro e del futuribile. E che l’algoritmo sia ad alto rischio di discriminazione è un dato di fatto. Lo raccontano diverse storie – come persone innocenti fermate perché l’intelligenza artificiale aveva confuso il loro volto con quello di alcuni ricercati -, ma anche a livello “privato” non sono mancati episodi discriminatori. Come quando, nel 2019, l’imprenditore digitale David Heinemeier Hansson aveva accusato Apple (che aveva appena lanciato il suo sistema di carte di credito) di aver “offerto” alla moglie un credito di 20 volte inferiore a quello concesso a lui. Una discriminazione basata sul sesso.

Pezzi di storia che fanno parte di quei dossier che l’Unione Europea deve inserire nel plico del percorso per la realizzazione di una norma comunitaria (che avrà effetti a livelli globale) per “premiare” tutti coloro i quali utilizzano e utilizzeranno un’intelligenza artificiale affidabile. Paletti, dettagli e possibilità di rivalsa che saranno concesse ai cittadini europei in caso di violazioni e discriminazioni subite per colpa di un algoritmo. E il piano potrebbe entrare in vigore entro un paio di anni, alla fine del 2014.