Quanto inquinano le GPU usate per l’AI?
Visto l'enorme utilizzo di questi strumenti per le operazioni di calcolo, occorre fare un punto della situazione con un occhio sui risvolti ambientali
28/02/2024 di Redazione Giornalettismo
L’evoluzione tecnologica è diventata un fenomeno strutturale nel tessuto socio-economico della maggior parte dei Paesi. Le grandi rivoluzioni, anche quelle perpetue, portano con sé anche delle responsabilità nei confronti del pianeta. Spesso e volentieri, quando si parla di inquinamento e impatto ambientale si punta il dito esclusivamente contro i mezzi che si utilizzano per spostarsi da un punto all’altro. Ma i fattori sono molteplici: dalle piccole, medie e grandi industrie, passando per gli allevamenti intensivi e arrivando al grande tema di gas ed elettricità che utilizziamo nel nostro quotidiano. E sullo sfondo c’è una grande ombra che va di pari passo con lo sviluppo tech più recente: ma quanto inquina l’intelligenza artificiale?
LEGGI ANCHE > Come l’intelligenza artificiale ha cambiato il mercato dei chip e delle GPU
Nel corso del 2023, Giornalettismo ha dedicato diversi approfondimenti al tema dell’inquinamento legato al digitale e al tech. Abbiamo parlato di internet e degli smartphone, delle e-mail, dei siti di informazione, delle Big Tech e abbiamo provato a fornire le prime stime per rispondere al quesito “Quanto inquina l’intelligenza artificiale”. Oggi, vista la natura del nostro approfondimento, vogliamo entrare nel dettaglio del consumo energetico (che, come conseguenza, ha anche un impatto ambientale) delle GPU (le unità di elaborazione grafica), elemento fondamentale per il calcolo e il machine learning che sostiene tutta l’infrastruttura dell’AI.
Quanto inquina l’intelligenza artificiale? I carichi di lavoro
Stando a quanto riportato da una ricerca condotta da Schneider Electric, il consumo energetico legato ai carichi di lavoro dell’intelligenza artificiale è stato pari (nel 2023) a 4,3 Gigawatt (GW). Un numero che potrebbe non dire nulla, ma se messo a parallelo con quello di uno Stato membro dell’Unione Europea fa capire di che livello stiamo parlando: Cipro, per esempio, ne ha consumati 4,7 GW nel corso dell’ultimo anno. Dunque, a oggi il consumo energetico dell’intelligenza artificiale è pari a quello di un Paese di 1,2 milioni di abitanti. E le previsioni per il futuro, vanno nella direzione di un aumento esponenziale di questo dato. La stessa Schneider Electric sostiene che entro il 2028 il consumo toccherà una quota tra i 13,5 e i 20 GW.
Tutta colpa delle GPU?
E qui entrano in ballo le GPU. Mentre NVIDIA ha superato Intel nella classifica dei leader del settore, c’è un elemento che va nella direzione di un aumento dell’inquinamento legato allo sviluppo di strumenti di intelligenza artificiale. Per comprendere meglio questo aspetto – senza citare neanche il consumo di acqua per raffreddare i data center – prendiamo un esempio fatto nella sua ricerca da Schneider Electric: una GPU prodotta da NVIDIA (la A100, messa in commercio nel 2020), consuma fino a 400 watt; l’evoluzione di quel prodotto (la H100, in vendita dal 2022) richiede fino a 700 watt durante il suo utilizzo.
E queste GPU, per via del lavoro richiesto (più o meno come accade con l’estrazione di criptovalute), procedono sempre a pieno carico. Dunque, le cifre indicate non vanno considerate come “fino a”, ma come un dato assodato di energia richiesta per il funzionamento dell’unità di elaborazione grafica. A tutto ciò si devono aggiungere i sistemi di raffreddamento e la moltitudine di dati che vengono trasferiti. Dunque, i presupposti per il futuro non sono in linea con una riduzione dell’inquinamento globale.