La retorica di Big Tech sull’Intelligenza artificiale

Il pensiero di Guido Boella, vicerettore per i rapporti con le aziende e cofondatore di SIPEIA (Società italiana per l’etica dell’intelligenza artificiale)

10/05/2024 di Redazione Giornalettismo

Negli Stati Uniti, la Commissione bilancio del Senato, lo scorso 1° maggio, ha dedicato una audizione al tema della disinformazione operata negli ultimi cinquant’anni da Big Oil, le grandi aziende petrolifere, sui danni ambientali causati dai combustibili fossili: dalla negazione del problema si è passati alla strategia dell’inganno e della doppiezza. 

LEGGI ANCHE > «RestIAmo connessi», l’intelligenza artificiale secondo il Festival della Comunicazione

Il titolo scelto dalla Commissione per l’audizione è molto forte: «Denial, Disinformation and Doublespeak: Big Oil’s Evolving Efforts to Avoid Accountability for Climate Change». Dove «doublespeak» è un termine derivato dal romanzo distopico «1984» di George Orwell: un linguaggio che oscura, maschera, distorce o inverte deliberatamente il significato delle parole. 

Guido Boella, la retorica di Big Tech sull’IA

Molti analisti sottolineano come gli investimenti fatti in questi anni sull’IA da parte delle Big Tech, cioè le grandi aziende di Silicon Valley, e le conseguenti opportunità di business siano paragonabili a quelle delle Big Oil, le grandi aziende petrolifere. È quindi facile pensare che anche le Big Tech possano cercare di indirizzare il discorso pubblico a proprio favore, nascondendo rischi che già si stanno profilando. 

Basta analizzare il loro armamento retorico – vario e strumentale, a volte addirittura inquietante – per trovarne conferma. Ne riassumiamo qui una parte. 

X-threat o rischio esistenziale: la scomparsa della razza umana a causa dell’IA

Lo scopo è focalizzare l’attenzione su un rischio lontano e molto ipotetico e allontanare il discorso pubblico da conseguenze dell’IA già in atto, come la disinformazione, il costo energetico, lo sfruttamento di manodopera sottopagata per etichettare i dati per l’apprendimento. 

Soluzionismo tecnologico: ogni problema, anche quelli portati dalla tecnologia stessa, verrà risolto tramite un ulteriore sviluppo tecnologico. Ci sono però problemi creati dalla tecnologia (ad esempio, i bias o pregiudizi, la classificazione di fenomeni sociali) che sono risolvibili solo a livello politico e non tecnologico. 

Lungotermismo: la tecnologia porterà in futuro a popolare Marte e poi a colonizzare la Galassia.
Questa nuova ‘filosofia’ in voga tra le élite tecnologiche della Silicon Valley minimizza ingiustizie e problemi nel tempo presente (comprese disuguaglianze, crisi climatica, fame nel mondo, guerre), di fronte alla possibilità di una crescita esponenziale del numero di esseri umani nel futuro. 

Luddismo: evidenziare i rischi delle nuove tecnologie vuol dire voler fermare il progresso, come facevano i luddisti che a fine ‘700 distruggevano i telai meccanici.
Il luddismo, movimento operaio nato in Gran Bretagna nel XVIII secolo, difendeva i posti di lavoro persi a causa dell’introduzione delle macchine nelle fabbriche, all’interno dei più ampi problemi sociali e politici che accompagnarono la rivoluzione industriale inglese.  

Inevitabilismo tecnologico: resistere è futile, l’introduzione di ogni nuova tecnologia costituisce un progresso.

Questa ipotesi non è dimostrata, perché, come ci ricorda il sociologo Marshall McLuhan, «non c’è assolutamente nessuna inevitabilità finché c’è la volontà di contemplare ciò che sta accadendo»

Etica: non tutto deve essere necessariamente governato dal regolatore, si devono lasciare spazi di autoregolamentazione a Big Tech, che si comporterà spontaneamente in maniera etica.  

Artificial Intelligence: l’IA è solo una tecnologia e non parte di un più ampio sistema politico-economico.
Leggiamo sempre più spesso frasi come «l’IA fa perdere posti di lavoro»: attribuire all’IA la responsabilità per la perdita di un posto di lavoro è un’operazione retorica per nascondere il fatto che dietro c’è sempre una decisione aziendale. 

Algoritmo: è sufficiente regolare giuridicamente ed eticamente gli algoritmi per risolvere il problema dell’impatto dell’AI.
Un algoritmo è solo una entità astratta, una sequenza precisa di istruzioni per raggiungere uno scopo. Un algoritmo è realizzato tramite un programma, scritto da una moltitudine di programmatori, assunti da una organizzazione che poi utilizza il programma per raggiungere i propri obiettivi di business. È a questo punto che nascono i problemi. 

[approfondimento a cura di Guido Boella, co-fondatore di SIPEIA]

Share this article