Google cambierà la policy degli annunci politici per colpa dell’AI

A un anno dalle elezioni americane, il più grande colosso tra i motori di ricerca cercherà di impedire che deepfake possano condizionare, per suo tramite, il risultato delle consultazioni

05/10/2023 di Gianmichele Laino

Dev’essere abbastanza terribile trovarsi schiacciati tra la necessità di evolvere un progetto e di affrontare le nuove sfide dell’intelligenza artificiale e – allo stesso tempo – dover garantire una forma di accessibilità alla corretta informazione, soprattutto quando si parla di ambito politico. Google è esattamente in questa morsa: da un lato sta andando avanti con il suo progetto di intelligenza artificiale – Bard -, sta dando spazio a contenuti generati da intelligenze artificiali altrui (non solo generative di testi, ma anche di immagini e video) e, allo stesso tempo, deve assicurare equità ed equilibrio nella realizzazione di contenuti sponsorizzati, soprattutto in ambito politico. Ora, con le competenze proprie di un acrobata, sta cercando di cambiare le proprie impostazioni relative ai contenuti politico-istituzionali su cui soggetti o partiti investono per mettere un limite al dilagare dell’intelligenza artificiale.

LEGGI ANCHE > Che AI può uscire fuori se viene “addestrata” sui nostri post social?

Google e gli annunci politici modificati, vista la pervasività dell’intelligenza artificiale

In qualche modo, comunque, Google aveva già previsto una specifica disposizione per i contenuti manipolati che potessero entrare all’interno della sponsorizzazione politica. Ma sappiamo molto bene che le tecniche di manipolazione del contenuto, oggi, hanno raggiunto livelli mai previsti prima. Ora, a partire dal mese di novembre 2023, Google specificherà che gli annunci politici sponsorizzati dovranno dichiarare in maniera visibile se, al loro interno, sono previsti contenuti sintetici volti a raffigurare delle persone (note o meno note) in modo piuttosto realistico.

Sarà sempre più verosimile, insomma, trovare contenuti con delle etichette che reciteranno “questo video contiene immagini non reali” oppure “questo contenuto video è stato prodotto sinteticamente”. Ora, va bene lo sforzo. Ma quanti contenuti fake che sono stati etichettati da social network come Twitter o Facebook hanno comunque trovato ampia cassa di risonanza attraverso condivisioni e interazioni? Sicuramente, Google ha tutti gli strumenti a sua disposizione per poter individuare i responsabili di eventuali violazioni e per poter rimuovere i contenuti in maniera piuttosto rapida.

Tuttavia, il gap che spesso c’è tra l’individuazione di un contenuto improprio e la sua circolazione resta incolmabile. E questo può rappresentare un potenziale danno quando la platea di partenza – come avviene per i contenuti sponsorizzati – raggiunge un vasto numero di persone. Il tema è ben presente, le contromisure potrebbero essere meno efficaci.

Share this article
TAGS