Che AI può uscire fuori se viene “addestrata” sui nostri post social?

Meta ha rivelato di aver utilizzato post pubblici degli utenti per addestrare i suoi prodotti AI. Questa non sembra essere la soluzione ideale per rendere i sistemi di intelligenza artificiale affidabili

05/10/2023 di Enzo Boldi

Non tutto quel che è presente in rete è affidabile. Anzi. Ma quanto può essere veritiero e “allenante” quel che quotidianamente tutti noi condividiamo sui nostri profili e pagine social? Questa domanda diventa fondamentale alla luce della rivelazione fatta da Nick Clegg, Capo degli Affari Generali di Meta, a margine dell’evento “Connect” in cui l’azienda di Menlo Park ha annunciato l’arrivo del suo Meta AI. Proprio in quella occasione, uno dei massimi dirigenti della holding ha spiegato come – per evitare controversie legate alla protezione del diritto d’autore – i modelli di linguaggio (e gli strumenti) di intelligenza artificiale da loro sviluppati siano stati addestrati utilizzando anche i post pubblici presenti su Facebook e Instagram.

LEGGI ANCHE > Meta porta l’intelligenza artificiale anche su Whatsapp

Da una parte, dunque, sembra esserci un’attenzione maggiore – rispetto a quella di altre aziende e startup del settore – alla tutela della proprietà intellettuale. Dall’altra, però, emerge un enorme controsenso che rischia di rendere l’efficacia di questo prodotto pari allo zero. Soprattutto per quel che riguarda l’affidabilità. Perché se è vero – stando alle dichiarazioni ufficiali – che sono stati utilizzati, per l’allenamento, solamente post pubblici (per tutelare le informazioni più sensibili, in termini di privacy) è altrettanto vero che i social sono spesso un coacervo di disinformazione, contenuti provocatori, di hate speech e di tutte le peggiori e più becere sfaccettature della dialettica umana.

Meta AI addestrata sui nostri post Facebook e Instagram

A svelare questa scelta è stato, come riporta la Reuters, Nick Clegg, presidente degli affari globali di Meta. A margine del più recente evento aziendale (Connect), il dirigente di Menlo Park ha spiegato che i “dati” utilizzati per addestrate Meta AI (attraverso Llama2 ed Emu) sono quelli di natura pubblica. Questo vuol dire che: «Abbiamo cercato di escludere set di dati che contengono una forte preponderanza di informazioni personali». Esclusi, dunque, quei post Instagram e Facebook privati e racchiusi in una sfera – chiamiamola così – “familiare”. Questo vuol dire, però, che tutto ciò è stato addestrato prendendo come riferimenti dataset pubblici.

Ed è qui l’enorme problema e il fulcro della questione. Nel corso di questi anni, abbiamo visto come i social – in particolare Facebook – siano diventati uno dei maggiori veicoli di disinformazione: dalla politica al sociale, passando per la geopolitica e il settore sanitario. Molti dei “complotti”, per esempio, si sono diffusi su queste piattaforme proprio perché pubblicati in forma “pubblica” e non visualizzabili solamente da una ristretta cerchia di amici. Per questo, sembra che tutto il comparto di Meta AI sia stato allenato su questi dataset pubblici che contengono una miriade di informazioni, non sempre veritiere.

La mela non cade lontana dall’albero

Ed è qui il fulcro della questione. Perché se da una parte è “lodevole” la volontà di non andare a intaccare il diritto d’autore di opere e contenuti protetti da copyright (anche per evitare cause, come quelle già intentate nei confronti di molte aziende del settore tech che hanno sviluppato prodotti AI), dall’altra è evidente che un sistema allenato attraverso contenuti potenzialmente falsi e fuorvianti non può che restituire risposte potenzialmente false e fuorvianti. E se al tempo stesso è vero che Meta abbi stretto accordi con altre grandi aziende (come Microsoft con Bing per Llama), è altrettanto vero che un mix di informazioni affidabili e altre non affidabili rischia di rendere non affidabile una tecnologia che inevitabilmente (e inesorabilmente) rappresenta il presente e il futuro che ci accingiamo a vivere.

(Foto IPP/zumapress/belga Bruxelles)

Share this article