Il dietro le quinte di aprile e le preoccupazioni passate del NY Times per quello che sarebbe potuto accadere con l’AI

La linea della testata è sempre stata chiara: in assenza di misure condivise e di leggi chiare, sarebbe stato impossibile utilizzare l'AI per le news

28/12/2023 di Gianmichele Laino

Era il mese di aprile 2023. All’epoca dei fatti, l’intelligenza artificiale generativa si stava espandendo in maniera significativa, ma sembrava ancora indietro su una questione: l’aggiornamento dei suoi database, infatti, impediva a questi sistemi basati su dei chatbot di fornire delle informazioni su fatti di attualità. Successivamente, però, qualcosa è cambiato: l’utilizzo di API di terze parti ha consentito, nell’ultima versione di ChatGPT (la 4), di avere accesso a informazioni aggiornate, praticamente in tempo reale. Questa svolta è avvenuta nel mese di marzo 2023. Da quel momento in poi, OpenAI – e contestualmente Microsoft, che aveva fatto un significativo investimento nell’azienda diretta da Sam Altman – aveva iniziato a parlare e a stringere accordi con altre realtà editoriali.

LEGGI ANCHE > Come il NY Times ha raccontato la sua causa contro OpenAI e Microsoft

NY Times e Microsoft, alle radici dello scontro un mancato accordo di aprile 2023

Aprile è il momento in cui il NY Times inizia ad accorgersi di qualcosa. Nella fattispecie, ad esempio, si rende conto che la chat di Bing – il motore di ricerca di Microsoft che, nel frattempo, era stato implementato con ChatGPT in seguito agli accordi stipulati tra il colosso di Redmond e OpenAI – riproduce esattamente dei lavori realizzati dal NY Times. Ad esempio, un lungo estratto di un articolo intitolato The secret Hamas knew about Israel’s military. Ma il quotidiano espone anche altri casi simili a questo.

Proprio a questa altezza cronologica c’erano stati degli incontri tra il NY Times e Microsoft per capire ed esplorare le possibilità di un utilizzo regolare dei contenuti del quotidiano per l’addestramento dell’intelligenza artificiale generativa di ChatGPT e del motore di ricerca Bing. La proposta era stata quella di trovare, su base amichevole, un accordo che potesse tutelare gli interessi dei creatori di contenuti (in questo caso la redazione del NY Times) e, allo stesso tempo, che potesse individuare una sorta di recinto o di barriera di protezione per evitare degli abusi in questo senso (abusi che, secondo il Times, si sarebbero perpetrati successivamente, con l’acquisizione selvaggia di contenuti da inserire nel database di ChatGPT e da riprodurre senza autorizzazione a ogni richiesta degli utenti).

Al contrario di quanto avvenuto con altre realtà editoriali (come, ad esempio, Associated Press), non c’è mai stato accordo tra NY Times e OpenAI, con il quotidiano di New York che, da quel momento in poi, ha espresso una visione molto più preoccupata sul panorama globale dell’intelligenza artificiale e delle sue implicazioni. Quello di aprile è stato il classico turning point: da allora sono iniziati i problemi che hanno portato a questa causa fondamentale che mette per la prima volta di fronte il mondo dell’informazione di qualità e quello sintetico delle informazioni prodotte da un chatbot.

Share this article