Le preoccupazioni del Guardian nella lettera ufficiale inviata a Microsoft

Il sondaggio frutto dell'AI erroneamente attribuito al Guardian da molti lettori è solo uno dei modi in cui l'AI applicata al giornalismo senza i dovuti chiarimenti può creare grande danno

06/11/2023 di Ilaria Roncone

Dopo che l’aggregatore Microsoft Start ha creato un sondaggio estremamente inopportuno basandosi su una notizia di cronaca data dal Guardian (sondaggio per cui è stato ritenuto responsabile anche il Guardian, come se avesse attivamente partecipato nella creazione), la celebre testata britannica ha inviato una lettera direttamente a Microsoft per esprimere una serie di preoccupazioni in merito. Nel contenuto della lettera del Guardian a Microsoft è possibile estrapolare una serie di punti fermi rispetto ai quali è necessario prendere consapevolezza e provvedere per evitare che – ancora di più – il giornalismo subisca la tecnologia invece che utilizzarla traendo tutti i possibili vantaggi del caso.

LEGGI ANCHE >>> I guai degli aggregatori di news regolati dall’AI e il sondaggio che ha fatto infuriare il Guardian

Il danno di reputazione al Guardian

In merito a quel sondaggio che chiede ai lettori di ipotizzare le cause della morte di una persona, nella lettera che porta la firma di Anna Bateson (Ad del Gruppo Guardian Media) si parla di «un uso inappropriato della genAI da parte di

Microsoft su una storia di interesse pubblico potenzialmente angosciante, originariamente scritta e pubblicata
dai giornalisti del Guardian». Questo esempio pratico viene inquadrato come uno dei casi rispetto ai quali il Guardian ha già messo in guardia le aziende produttrici di tecnologia AI quando questa viene mescolata con il giornalismo: «Questo tipo di applicazione non solo è potenzialmente angosciante per la famiglia dell’individuo che è oggetto della storia – si legge nella lettera -, ma è anche profondamente dannoso per la reputazione faticosamente conquistata dal Guardian
del Guardian per il suo giornalismo affidabile e sensibile e per la reputazione dei singoli giornalisti che hanno scritto la storia originale».

Si tratta di una deduzione corretta poiché non sono pochi i lettori di Microsoft Start che hanno attribuito al Guardian la creazione di questo sondaggio, completamente ignari del fatto che esso sia – in realtà – frutto dell’intelligenza artificiale che fa funzionare l’aggregatore. Riportiamo qualche commento citato nella lettera: «Questo è il sondaggio più patetico e disgustoso che abbia mai visto. L’autore dovrebbe vergognarsi»; «È bello sapere che possiamo fare un sondaggio su come è morta questa donna»; «Fare un sondaggio sul motivo della morte di una persona? Cosa c’è di sbagliato in voi!!!»; «Tamsin [la giornalista del Guardian] dovrebbe essere licenziata per quel sondaggio. Non ci sono linee guida della comunità comunità, ovviamente».

Guardian a Microsoft: «Manca un’etichettatura chiara o trasparente di questi output»

Ciò che il Guardian rimarca giustamente nel testo è che Microsoft non ha chiaramente etichettato il contenuto in questione (come qualsiasi altro generato dai sistemi algoritmici dietro i servizi offerti dall’aggregatore) con una dicitura chiara, trasparente e inequivocabile. Etichetta che, ovviamente, sarebbe stata fondamentale affinché non si attribuisse la paternità di un sondaggio del genere alla testata giornalistica e all’autrice dell’articolo.

Oltre a un chiaro riferimento al fatto che si tratta del frutto di una tecnologia interamente gestita da Microsoft, manca anche il chiarimento rispetto all’inaffidabilità dei contenuti generati tramite AI: «Questa situazione deve cambiare», si legge nella missiva.

Non basta rimuovere il sondaggio

Pur approvando la rimozione di quel sondaggio dall’articolo da parte di Microsoft, il Guardian sottolinea come molti lettori siano ormai convinti che ad averlo creato sia stata la testata giornalistica per aumentare le interazioni con quello specifico articolo. «Alla luce di questo fatto, è assolutamente necessario che Microsoft aggiunga una nota all’articolo assumendosene la piena responsabilità – si legge nella lettera -. Vorremmo inoltre avere la garanzia che a) Microsoft non applicherà queste tecnologie sperimentali senza la nostra esplicita approvazione; e b) che Microsoft renderà sempre chiaro agli utenti delle sue piattaforme ogniqualvolta genAI sia coinvolta nella creazione di unità e funzionalità aggiuntive che si applicano al giornalismo di terze parti di marchi giornalistici di fiducia come il Guardian».

La questione, inevitabilmente, si intreccia con il discorso dell’equo compenso che Microsoft e le altre Big Tech – che negli anni hanno guadagnato sui contenuti giornalistici – non vogliono affrontare in modo da arrivare a una conclusione, definendo così in maniera esplicita non solo un compenso per lo sfruttamento di quei contenuti ma anche una serie di regole sull’utilizzo della proprietà intellettuale nell’addestramento dell’intelligenza artificiale.

Share this article