Il precedente dell’AI di Start che consigliava di visitare la Ottawa Food Bank in Canada “a stomaco vuoto”
Tuttavia, Microsoft ha evidenziato che quel contenuto non era stato generato solamente attraverso l'intelligenza artificiale, ma con una supervisione umana
06/11/2023 di Gianmichele Laino
Il modello di intelligenza artificiale che sta dietro alla pubblicazione dei contenuti su Start, l’aggregatore di notizie di Microsoft, non ha fatto discutere soltanto in occasione della diatriba con il Guardian, ma ha anche qualche precedente non propriamente lusinghiero. Era già finito sotto la lente d’ingrandimento per un contenuto non propriamente giornalistico (si trattava di una guida travel per la città di Ottawa, in Canada), in cui era stato inserito un consiglio che poteva suonare davvero come beffardo. Nel citare, tra le attrazioni della città, anche la Ottawa Food Bank (ovvero il banco alimentare che si rivolge alle persone in difficoltà economiche, per offrire loro dei pasti), la guida suggeriva al turista di visitarla a stomaco vuoto. Una gaffe davvero imperdonabile. Come spesso accade in questi casi, quando un contenuto grammaticalmente corretto ma che non prende in considerazione la sensibilità umana viene pubblicato in una piattaforma che prevede l’interazione anche con l’intelligenza artificiale, il dito è stato immediatamente puntato contro il sistema di AI che aveva contribuito a generare il contenuto.
LEGGI ANCHE > I guai degli aggregatori di news regolati dall’AI e il sondaggio che ha fatto infuriare il Guardian
Start di Microsoft e il precedente che ha messo sotto accusa il suo sistema di AI
La guida turistica sulla città di Ottawa, come spesso accade in questi casi, era stata immediatamente rimossa.
Microsoft is really hitting it out of the park with its AI-generated travel stories! If you visit Ottawa, it highly recommends the Ottawa Food Bank and provides a great tip for tourists: “Consider going into it on an empty stomach.” https://t.co/7bvGemDad2
— Paris Marx (@parismarx) August 17, 2023
La segnalazione ha dato immediatamente vita a una sorta di caccia all’errore. Anche perché il 2023, come si può sicuramente notare dall’alto numero di pubblicazioni a tema, è stato l’anno caldo per l’intelligenza artificiale generativa: molti utenti l’hanno scoperta solo di recente e le sue potenzialità sono più volte passate al vaglio di chi ha un approccio critico nei confronti di questi sistemi. A maggior ragione quando l’AI incide sulle scelte aziendali: per dar vita al nuovo aggregatore di news di Microsoft, infatti, già nel 2020 l’azienda aveva ridimensionato fortemente il personale, contando molto sui ritrovati dell’intelligenza artificiale.
Forse per evitare di attirare troppo l’attenzione su questo strumento, all’epoca dei fatti, Microsoft aveva evidenziato che il contenuto contestato non era stato generato esclusivamente dall’intelligenza artificiale, ma che c’era stato un controllo umano che – evidentemente – non era stato particolarmente accurato. Jeff Jones, senior director di Microsoft, l’aveva spiegato abbastanza chiaramente alla testata The Verge.
Alle aziende conviene sempre di più scaricare le responsabilità sulle risorse umane, mentre è difficile trovare delle loro ammissioni di responsabilità a proposito di strumenti di intelligenza artificiale che, in virtù della loro novità, sono sempre “giustificati” e, in virtù della loro convenienza rispetto all’impiego di risorse umane, sono sempre particolarmente tutelati. Se il caso dell’Ottawa Food Bank è stato attribuito a una mancanza di controllo umana rispetto a un contenuto generato con l’AI, il caso del sondaggio sull’articolo del Guardian è difficile da difendere. Start di Microsoft ha evidentemente più di un problema. E se la direzione è quella di continuare a investire su questo strumento a discapito della qualità, allora forse è il caso di porsi delle domande più serie.