Un algoritmo dei videogiochi per risparmiare energia nel data centers di Google

L’intelligenza artificiale abbatte del 40% i costi del raffreddamento e del 15% il consumo di energia

[21 Luglio 2016]

I data center  fanno funzionare le apparecchiature che elaborano i dati “consumati” dagli utenti di internet e per farlo ci vuole un sacco di energia per mantenere i loro server al fresco. Secondo alcuni studi i data centers sono responsabili del 2% delle emissioni globali di gas serra. Anche per questo alcuni dei data centers più recenti sono in costruzione in aree con climi freddi.

Mustafa Suleyman, il co-fondatore  di DeepMind, la divisione intelligenza artificiale di Google, ha spiegato che «Essere in grado di metterci una zeppa, avvantaggia il mondo in generale» e lo ha fatto tagliando del  40% i costi di raffreddamento e del 15%, i consumi di energia dei Data centres Google, utilizzando un algoritmo di apprendimento automatico, simile a quello utilizzato per giocare con i giochi Atari.

Secondo Suleyman «Questo avrà un impatto ambientale significativo» ed ha annunciato che entro la fine dell’anno il sistema sarà implementato in tutti i data center di Google e entro 6 settimane DeepMind condividerà i dettagli del sistema in un Libro bianco: «Stiamo già parlando con i nostri partner non-Google di come utilizzare lo stesso algoritmo – ha detto Suleyman – potrebbe funzionare altrettanto bene nei grandi impianti di produzione e nelle reti energetiche, anche nazionali».

Rich Evans, research engineer di DeepMind e Jim Gao, Jim Gao, data centre engineer di Google evidenziano che «Per noi ridurre il consumo di energia è stato un obiettivo importante nel corso degli ultimi 10 anni: abbiamo costruito i nostri server super-efficienti per Google, inventato modi più efficienti per raffreddare i data center e investito molto nelle fonti di energia verde, con l’obiettivo di essere alimentati al 100% con energia rinnovabile. Rispetto a cinque anni fa, ora abbiamo una potenza di calcolo 3,5 superiore con la stessa quantità di energia e continuiamo a fare molti miglioramenti ogni anno. Però, le grandi  innovazioni sono poche e lontane tra loro il che è il motivo per cui siamo entusiasti di condividere e applicare  la machine learning di DeepMind  nei nostri data centers di Google. Siamo riusciti a ridurre la quantità di energia che usiamo per il raffreddamento fino a il 40%. In qualsiasi ambiente di consumo energetico su larga scala, questo sarebbe un enorme miglioramento. Visto quanto sono già sofisticati i data centers  di Google,  si tratta di un passo in avanti fenomenale. Dato il suo potenziale per migliorare notevolmente l’efficienza energetica e ridurre le emissioni totali, le implicazioni sono significative per i data centers di Google. Questo aiuterà anche altre companies che gestiscono il cloud di Google a migliorare la loro efficcienza energetica. Mentre Google è solo uno dei molti operatori di data centers in tutto il mondo, molti non sono non alimentati a energia rinnovabile come siamo noi. Ogni miglioramento dell’efficienza dei data centers riduce le emissioni totali nel nostro ambiente e, con una tecnologia come DeepMind, possiamo utilizzare il machine learning per consumare meno energia ed aiutare ad affrontare una delle più grandi sfide per tutti:  il cambiamento climatico».

Il problema era che il sistema dei data centers non è in grado di adattarsi rapidamente ai cambiamenti interni o esterni e che ogni data center ha una architettura e un ambiente unici, quindi un modello messo a punto per un sistema potrebbe non essere applicabile a un altro. Per risolvere questo problema, 2 anni fa i ricercatori DeepMind hanno iniziato a utilizzare  machine learning  per gestire i data center in modo più efficiente e negli ultimi mesi hanno iniziato a lavorare con team dei data centers di Google per migliorare in modo significativo il sistema. Utilizzando un sistema di reti neurali “addestrate” a diversi scenari operativi e dei parametri all’interno dei data center, i ricercatori hanno realizzato un quadro più efficiente e adattabile per capire le dinamiche di un data center e per ottimizzarne l’efficienza.

«Lo abbiamo avolto questo compito – dicono  Evans  e Gao – prendendo i dati storici che erano già stati raccolti da migliaia di sensori all’interno del data center: dati quali temperatura, potenza, velocità della pompa, valori di riferimento, ecc – eli abbiamo usati per formare un insieme di reti neurali profonde . Poiché il nostro obiettivo era quello di migliorare l’efficienza energetica dei  data centers, abbiamo addestrato le reti neurali sul PUE (Power Usage Effectiveness)futuro medio,  che è definito come il rapporto tra il consumo totale di energia del building energy  per il consumo di energia IT. Abbiamo poi allenato due gruppi supplementari di reti neurali profonde per prevedere la temperatura e la pressione future del data center nel corso dell’ora successiva. Lo scopo di queste previsioni è quello di simulare le azioni raccomandate dal modello PUE, per garantire di non andare al di là di eventuali vincoli operativi».

Dato che l’algoritmo è un framework generico per comprendere dinamiche complesse, i ricercatori di Google hanno in programma di applicarlo ad altre poste dall’ambiente dei data centers e dicono che «Le possibili applicazioni di questa tecnologia includono il miglioramento di conversione dell’efficienza delle centrali elettriche (sempre più energia dalla stessa unità di input), la riduzione dell’energia di produzione dei  semiconduttori e dell’utilizzo di acqua, o aiutando manufatturieri ad aumentare il throughput».