Skip to main content

L’impronta ambientale dell’intelligenza artificiale

L’IA è la spinta principale che alimenta il consumo energetico dei data center e lo farà sempre più man mano che la tecnologia diventa parte della nostra quotidianità
 |  Scienza e tecnologie

Siamo abituati a pensare all’inquinamento in termini di fenomeni osservabili: fumo che fuoriesce dai camini, morie di pesci provocate da liquidi opachi nella natura e nella provenienza, paesaggi che portano ancora le ferite dell’abbandono seguito allo sfruttamento.

Esiste, tuttavia, un impatto meno immediato, un inquinamento silenzioso e invisibile generato dai flussi di dati, dai server che operano senza sosta, dai miliardi di interazioni digitali che sostengono l’economia dell’informazione. È l’impronta energetica dell’intelligenza artificiale.

Secondo l’Agenzia Internazionale dell’Energia, la domanda elettrica complessiva dei data center nel mondo è destinata a raddoppiare entro il 2030, raggiungendo circa 945 terawattora l’anno, un livello paragonabile al consumo elettrico del Giappone. Non tutto questo aumento è dovuto all’intelligenza artificiale, ma i carichi di lavoro specificamente dedicati a quest’ultima — i server accelerati che alimentano i modelli linguistici e i sistemi predittivi — sono il principale motore di crescita, con proiezioni che stimano un incremento fino a quattro volte rispetto ai livelli attuali.

In altre parole, l’IA è la spinta principale che alimenta il consumo energetico dei data center e lo farà sempre più man mano che la tecnologia diventa parte della nostra quotidianità. Tradurre tutto questo in numeri non è semplice, perché il consumo energetico varia sensibilmente in base al modello utilizzato, all’infrastruttura e al contesto operativo. Alcune stime indicano nondimeno che una singola richiesta a un modello linguistico di grandi dimensioni possa richiedere una quantità di energia dell’ordine dei decimi di wattora. Un valore trascurabile, apparentemente, ma che moltiplicato per miliardi di interazioni quotidiane dà luogo a un flusso energetico globale significativo.

Forse un’immagine può aiutarci a mettere meglio a fuoco la questione. Un cucchiaino di zucchero pesa circa quattro grammi, un valore che alcune bilance faticano persino a registrare con precisione e che per alcuni non basta neanche ad addolcire un caffè. Eppure, se ne mettiamo insieme un milione e mezzo, arriviamo al peso di un elefante africano adulto. Se poi mettiamo insieme tanti milioni di cucchiaini, abbiamo l’equivalente di una mandria. Che, quando avanza compatta, fa tremare il terreno della Savana. Ed eravamo partiti da un singolo cucchiaino. E il consumo non si esaurisce con l’elettricità.

L’intelligenza artificiale, infatti, ha anche una considerevole impronta idrica dovuta al raffreddamento dei server. Microsoft ha dichiarato di aver utilizzato circa 6,4 milioni di metri cubi d’acqua nel 2022 per alimentare le proprie operazioni cloud e di intelligenza artificiale. Ma l’IA rappresenta anche un paradosso affascinante, perché è una tecnologia ad alto impatto ambientale che, al tempo stesso, può diventare un potente alleato della sostenibilità. Secondo l’IEA, infatti, l’adozione di sistemi di intelligenza artificiale potrebbe migliorare l’efficienza delle reti elettriche, ottimizzare l’uso delle fonti rinnovabili e ridurre gli sprechi operativi, rendendo più intelligenti i sistemi stessi che oggi contribuiscono al loro carico. Ma perché questo potenziale si traduca in beneficio reale servono regole, trasparenza e soprattutto consapevolezza. Perché la vera sfida non è scegliere se usare o meno l’IA, ma imparare a usarla con consapevolezza anche ecologica.

La prospettiva di una crescita potenzialmente indefinita dell’inquinamento generato dalle infrastrutture digitali ci pone di fronte anche a un ulteriore, rilevante questione. Se, infatti, per fare fronte all’inquinamento tradizionale ci siamo attrezzati con tecnologie che ne riducessero gli impatti sulla salute e sugli ecosistemi, nel caso dell’IA si parla di assecondare la crescita della domanda energetica, fino a ipotizzarne il sostegno attraverso forme di micro-generazione nucleare.

Non importa quanto questa nuova generazione di centrali o micro-centrali venga descritta come sicura o sostenibile. Il punto è un altro: in un’epoca nella quale la transizione ecologica, la green economy e tutto l’apparato concettuale legato alla sostenibilità aspirano a essere qualcosa di più che mere etichette retoriche diventando scelte politiche strutturali, il ricorso al nucleare non dovrebbe rappresentare la scorciatoia per alimentare un’espansione incontrollata dell’infrastruttura digitale. Questo non per demonizzare il nucleare, ma per ribadire che anche nella sua versione più compatta e tecnologicamente avanzata esso dovrebbe restare una scelta residuale. Anche perché la microgenerazione, al di là delle promesse di chi la sostiene, non è priva di impatti. La gestione dei rifiuti radioattivi, seppure in volumi ridotti, resta un problema aperto nel tempo e nello spazio, i sistemi di raffreddamento continuano a richiedere ingenti quantità di acqua e l’intero ciclo di vita degli impianti — dalla costruzione allo smantellamento — implica consumi di risorse e vincoli territoriali tutt’altro che trascurabili. Se poi caliamo tutto questo nella consapevolezza che questa scelta dovrebbe sostenere, oltre agli usi nobili dell’IA, la produzione fuori controllo di video di gatti parlanti e immagini animate dei miei nonni — con tutto l’affetto per i miei nonni — la fatica di cogliere in tutto questo un segno di progresso è tanta.

A questo punto, tuttavia, è necessario fare un passo ulteriore. Perché l’intelligenza artificiale attrae investimenti di questa portata? Per quale ragione gruppi industriali e fondi di investimento sono disposti a impegnare capitali miliardari non solo nello sviluppo dei modelli, ma nelle infrastrutture energetiche necessarie a sostenerli?

La risposta non risiede nell’intrattenimento digitale, che è solo una provocazione, ma nella natura economica di questa tecnologia. Alcuni economisti hanno iniziato a descrivere l’intelligenza artificiale come una nuova tecnologia a uso generale, capace di attraversare trasversalmente tutti i settori produttivi, analogamente a quanto avvenne con l’elettricità o con Internet.

In questa prospettiva, l’IA non è un prodotto, ma un’infrastruttura che riduce costi di coordinamento, accelera l’elaborazione delle informazioni, automatizza attività cognitive ripetitive e rende possibili nuove forme di innovazione.

Le prime evidenze empiriche sembrano confermare questa intuizione. Studi condotti su larga scala mostrano che l’introduzione di strumenti di intelligenza artificiale generativa in contesti professionali può determinare incrementi significativi di produttività, soprattutto nelle attività basate sulla conoscenza. Se questo effetto si estende e si consolida, è evidente perché le imprese percepiscano l’IA come un fattore competitivo strutturale.

Anche nel contesto italiano il fenomeno appare tutt’altro che marginale.  Il mercato nazionale dell’intelligenza artificiale registra tassi di crescita sostenuti e una progressiva diffusione nelle grandi imprese, con impatti diretti sui modelli organizzativi e sulle strategie di investimento. Non si tratta, dunque, di una corsa speculativa isolata, ma di un processo di trasformazione percepito come sistemico.

In questo quadro, l’energia non è più soltanto un input produttivo tra gli altri. Essa diventa la condizione materiale che rende possibile la nuova infrastruttura cognitiva dell’economia globale. Se la capacità di calcolo è la leva strategica, garantirne continuità e stabilità diventa una scelta industriale razionale. Ed è qui che l’ipotesi di nuove centrali — anche nucleari —assume i contorni di una decisione coerente con la logica del capitale, ossia assicurare la base energetica di un vantaggio competitivo che si gioca sulla potenza di calcolo.

Il nodo da sciogliere non è la condanna o l’assoluzione di questa tecnologia, non si tratta di intentare un processo, né di negarne il potenziale – che è evidente. La questione riguarda piuttosto la relazione tra le infrastrutture che costruiamo e l’uso che ne facciamo.

La transizione energetica saprà accompagnare questa trasformazione limitandosi a sostituire le fonti o se avrà il coraggio di interrogare anche la crescita della domanda che le nuove infrastrutture digitali inevitabilmente generano? Se la risposta sarà semplicemente produrre più energia, anche non fossile, per alimentare una potenza computazionale in espansione, avremo forse risolto una parte del problema climatico, ma avremo rinunciato a porci la domanda più profonda circa la misura vogliamo dare al nostro sviluppo tecnologico.

La sostenibilità non è solo una questione di emissioni. È una questione di consapevolezza.

Oreste Patrone

Oreste Patrone, classe '76, goriziano di genitori napoletani. Ingegnere suo malgrado, lavora da oltre vent’anni nel settore dell’ambiente e della gestione dei rifiuti, che continua a considerare il lavoro più bello del mondo. Lettore compulsivo e scrittore a fasi alterne, a un certo punto della sua vita ha smesso di inseguire la narrativa e ha iniziato a raccontare il suo lavoro e i suoi interessi, scoprendo che gli riesce molto meglio.