Quanto “consuma” l’IA in termini di impatto ambientale?

Scritto da Ettore Benigni
Giornalista

L’intelligenza artificiale è una grande opportunità per l’umanità, ma porta con sé anche rischi. Tra questi la produzione di rifiuti elettronici, l’utilizzo crescente di acqua, la necessità di minerali rari. E per “sfamare” i data center potrebbe diventare nel 2026 il quinto più grande consumatore di energia al mondo, tra Giappone e Russia

L’intelligenza artificiale non è soltanto una grande speranza per l’umanità. È anche una tecnologia da gestire e sviluppare con attenzione, in maniera etica e responsabile, se vogliamo evitare che abbia impatti pesanti sull’ambiente. A lanciare l’allarme è stato da ultimo, nei mesi scorsi, l’UNEP, programma delle Nazioni Unite per l’ambiente, la massima autorità sul Pianeta quando si parla di sostenibilità. Fondato ormai più di 50 anni fa, questo organismo collabora con governi, società civile, settore privato ed enti delle Nazioni Unite per affrontare le sfide ambientali più urgenti dell’umanità, dal ripristino dello strato di ozono alla protezione dei mari, fino alla promozione di un’economia verde e inclusiva.

Di cosa parliamo?

Il problema della sostenibilità dei data center

In un recente paper che indirizza un insieme di raccomandazioni ai Paesi Onu l’UNEP ha acceso i riflettori sui potenziali rischi per l’ambiente di un utilizzo sempre più massiccio dell’IA, a partire dai problemi ambientali che possono essere causati dai data center, le infrastrutture che consentono lo sviluppo degli algoritmi e l’analisi di una mole di dati in continua crescita.

Tra gli effetti collaterali l’UNEP cita la produzione di rifiuti elettronici, l’utilizzo crescente di acqua, la necessità di minerali critici e rari per i chip, che a volte vengono tra l’altro estratti utilizzando metodi non sostenibili. E non ultimo, un consumo di energia enorme, che in alcune situazioni si traduce in un aumento della produzione di gas a effetto serra.

Un faro sui consumi energetici dei data center

Nella issues note pubblicata alla fine di settembre 2024 l’UNEP sottolinea come il consumo di energia e le emissioni di gas serra provocate dall’intelligenza artificiale siano significativi e crescenti man mano che i modelli si fanno più sofisticati.

I dati dell’International Energy Agency

Nel caso dei Large language models, ad esempio, i consumi sono estremamente alti. Secondo l’analisi dell’International Energy Agency sul 2024 una singola query per un Large language model richiede 2,9 wattora di elettricità, contro gli 0,3 di quella basic a un motore di ricerca. Secondo le stime dell’IEA, inoltre, soltanto in Irlanda il comparto dei data center, spinto dalle esigenze dell’intelligenza artificiale, potrebbe arrivare a rappresentare da solo quasi il 35% del consumo energetico del Paese entro il 2026.

New York-Pechino e ritorno

A rincarare la dose è lo studio di Payar Dahl,The carbon impact of artificial intelligence”, pubblicato su Nature, secondo cui il training di un singolo Large language model genera circa 300.000 kg di emissioni di anidride carbonica, paragonabili a cinque volte le emissioni di un’automobile media o equivalenti a 125 voli di andata e ritorno tra New York e Pechino.

Consumi dei data center al raddoppio ogni 4 anni

A preoccupare l’UNEP è inoltre il fatto che la crescita dei data center su scala globale è stata esponenziale, se si pensa che nel 2012 ce n’erano 500mila, mentre oggi sono più di 8 milioni. Stando ai numeri della ricerca, datata 2024, sull’ “Impatto dei data center su consumo di energia, cambiamenti climatici e sostenibilità”, il consumo energetico di questo comparto cresce tanto da arrivare a raddoppiare con una progressione di 4 anni.

La scalata alla classifica dei consumi elettrici

Stando ai dati del MIT, inoltre, soltanto considerando il Nord America, il fabbisogno energetico dei data center è aumentato da 2.688 megawatt alla fine del 2022 a 5.341 megawatt alla fine del 2023. Mentre a livello globale, il consumo di elettricità dei data center ammontava nel 2022 a 460 terawatt, rendendo questo settore – se si prendono come riferimento i dati OCSE – l’undicesimo consumatore di elettricità al mondo, tra l’Arabia Saudita, dodicesima con 371 terawatt, e la Francia, undicesima con 463 terawatt. Entro il 2026, infine, si prevede che il consumo di elettricità dei data center possa arrivare a sfiorare i 1.050 terawatt, portando il settore al quinto posto su scala globale tra i maggiori consumatori di energia, tra il Giappone e la Russia.

La distribuzione dell’impatto ambientale dell’IA

Ad accendere i fari sul problema della distribuzione dell’impatto ambientale dell’IA è la Harvard Business Review, secondo cui bisognerebbe considerare con attenzione non soltanto l’impatto climatico globale dell’intelligenza artificiale, ma anche quello su scala locale o regionale, notando che anche le iniziative sull’IA sostenibile spesso non prendono nella dovuta considerazione una distribuzione equa dei costi ambientali di questa tecnologia.

I danni alle regioni e alle comunità vulnerabili

L’analisi della Harvard Business Review parla di una disparità nel modo in cui le diverse regioni e comunità sono colpite dagli impatti ambientali dell’intelligenza artificiale, denunciando come in molti casi gravino pesantemente su comunità e regioni particolarmente vulnerabili, a seconda che si tratti di zone, come l’Europa, dove le norme sono più stringenti o altre, come l’Asia, in cui ci sono meno regole sull’utilizzo dei combustibili fossili e quindi sulla creazione di inquinamento atmosferico.

L’impatto ambientale dell’AI generativa

Ad accendere i riflettori sull’impatto ambientale dell’intelligenza artificiale generativa è stato da ultimo un articolo pubblicato su Mit news, il magazine online del Massachusetts Institute of Technology, secondo cui “il rapido sviluppo e la diffusione di potenti modelli di intelligenza artificiale generativa comportano conseguenze ambientali, tra cui l’aumento della domanda di elettricità e del consumo di acqua”.

Impatti diretti e indiretti

Oltre ai consumi elettrici crescenti, secondo l’analisi, una criticità da considerare con attenzione è la necessità di grandi quantità di acqua per raffreddare l’hardware utilizzato per l’addestramento, l’implementazione e la messa a punto dei modelli di IA generativa. Senza considerare che con il proliferare delle applicazioni di IA generativa si è innescato anche un meccanismo di aumento della domanda di servizi di calcolo ad alte prestazioni, aggiungendo così impatti ambientali indiretti di altre risorse hardware.