«Usare l’AI per alterare l’espressione del volto è un’aggravante»

Lo ha annunciato il Sottosegretario, con delega alla cybersicurezza, Alfredo Mantovano all'indomani dell'approvazione in Consiglio dei Ministri dello schema di disegno di legge sull'intelligenza artificiale

24/04/2024 di Enzo Boldi

Nel corso della presentazione della relazione annuale 2023 al Parlamento dell’Agenzia per la Cybersicurezza Nazionale, non si poteva non parlare dell’approvazione, in Consiglio dei Ministri, dello schema di ddl sull’AI. Perché già oggi, le minacce alla sicurezza informatica fanno rima con i nuovi strumenti di intelligenza artificiale e nell’immediato futuro potrebbero esserci effetti ancora più ampi e devastanti. Nel corso della conferenza stampa, ha preso la parola il Sottosegretario, con delega proprio alla cybersicurezza, Alfredo Mantovano, che ha spiegato alcuni dettagli molto interessanti relativi a questo disegno di legge.

LEGGI ANCHE > Il ruolo che il decreto sull’intelligenza artificiale ha previsto per l’ACN

Se il Ministro della Giustizia Nordio, nella giornata di ieri, ha parlato delle pene per chi «arreca danno» utilizzando strumenti di intelligenza artificiale, Alfredo Mantovano ha sottolineato come durante il Consiglio dei Ministri sia stato modificato il testo portato in discussione, inserendo una nuova fattispecie di reato, ma che rientra sempre – ma con un focus specifico – all’interno del macro-capitolo dei deepfake.

Ddl AI, nel mirino anche la modifica delle espressioni facciali

«Durante la discussione in Consiglio dei Ministri, è emersa l’opportunità di inserire un’ulteriore aggravante: l’uso dell’intelligenza artificiale per alterare l’espressione del volto – ha spiegato Mantovano -. È un qualcosa che è già accaduto in altri Paesi europei, all’approssimarsi di elezioni, con le manipolazioni e l’uso distorto dell’AI sono stati diffusi che miravano a far incrementare l’astensionismo». Una dinamica piuttosto nota e che ricorda, per dinamica, quanto accaduto qualche settimana fa negli Stati Uniti, con la finta chiamata con la voce di Joe Biden agli elettori del New Hampshire.

In quel caso si parlava di robocall, qui si sta parlando di contenuti deepfake: «Il tutto attraverso la manipolazione di notizie che raccontavano falsamente che i seggi erano a rischi di attentati ed esplosioni – ha proseguito il Sottosegretario -. Una cosa del genere mina l’equilibrio di una democrazia nella sua tenuta, soprattutto in occasione di eventi elettorali. Quindi, devono essere accompagnati da sanzioni».

Share this article