ExaHype: l’Europa avrà i suoi supercomputer, e saranno ad efficienza energetica

[12 Novembre 2015]

Gli Exascale computer sono macchine in grado di eseguire miliardi di miliardi (1018) di operazioni di calcolo al secondo, e rappresentano l’attuale frontiera per effettuare simulazioni utili alla ricerca nei più svariati campi di applicazione: dallo studio dei terremoti all’astrofisica, passando dalla meteorologia. Una sfida cui l’Europa non si può sottrarre, ed è infatti ciò a cui lavora il gruppo di ricerca del progetto ExaHype (An Exascale Hyperbolic PDE Engine), finanziato dalla Commissione Ue nell’ambito di Horizon 2020 con 2,8 milioni di euro.

Il progetto ExaHyPE propone di sviluppare un nuovo software di simulazione per leggi di conservazione, capace di sfruttare la potenza dei supercomputer di nuova generazione da mettere a punto entro il 2020. Al progetto lavora un team di scienziati interdisciplinare e internazionale composto da sette istituzioni da Germania, Italia, Regno Unito e Russia , che vede tra i protagonisti l’università di Trento – unica istituzione di ricerca italiana – con il Laboratorio di matematica applicata (Dipartimento di Ingegneria civile ambientale e meccanica), coordinato dal professor Michael Dumbser. La realizzazione di applicazioni software per questo tipo di macchine è un’operazione estremamente complessa rispetto a quanto avviene invece per i calcolatori convenzionali.

«Le possibili applicazioni a cui lavoriamo nel progetto ExaHype – spiega Michael Dumbser – riguardano due diversi scenari: la geofisica, con il calcolo del rischio associato ai terremoti, e l’astrofisica con la simulazione delle onde gravitazionali e delle esplosioni di raggi gamma. I terremoti non possono essere previsti. Tuttavia le simulazioni di un exascale supercomputer potrebbero aiutare a valutare i rischi di scosse di assestamento. Le simulazioni su base regionale sembra consentano una migliore comprensione di cosa avvenga durante i terremoti su larga scala e nella fase successiva di assestamento».

Il progetto ExaHype darebbe però i suoi frutti anche in altri campi, come quello meteorologico, o anche nella previsione di catastrofi naturali come gli tsunami o le maree. «L’obiettivo – chiarisce Dumbser – è di rendere questa tecnologia adattabile e facilmente fruibile per le esigenze di ricerca più diverse nel minor tempo possibile. Ecco perché i risultati del progetto saranno accessibili a tutti in open source».

Ma uno tra gli ostacoli maggiore da superare per vincere questa sfida scientifica – sottolineano dall’ateneo trentino – riguarda il consumo di energia. Ad oggi i calcolatori più potenti costruiti al mondo (ossia il cinese Tianhe-2, gli statunitensi Titan e Sequoia e il giapponese KComputer) sono in grado di eseguire quasi 34 milioni di miliardi di operazioni al secondo (1015) e consumano tra gli 8 e i 18 megawatt di energia per un dispendio medio annuale di circa un milione di dollari a megawatt. «Considerate le tecnologie attuali – spiega il coordinatore scientifico del progetto, il professor Michael Bader della Technische Universität di München, realizzare un exascale computer che richieda 70 megawatt per funzionare è davvero un impegno considerevole, sia sul piano finanziario, sia su quello delle infrastrutture. Ecco perché, il software di simulazione che fa parte del progetto ExaHype sarà progettato tenendo conto delle esigenze di un hardware a risparmio energetico che dovrà essere in grado di reggere questo enorme miglioramento dell’efficienza in termini di performance».

L’aumento della velocità di calcolo (mille volte in più rispetto a oggi) dovrà essere accompagnata da un miglioramento nei processi di trasferimento di dati e nella memorizzazione, che dovranno essere sempre più rapidi ed efficienti per consentire al supercomputer di processare correttamente le informazioni senza sprecare energia. E quella della comunicazione interna all’hardware è un’altra importante sfida. In questa direzione il progetto prevede di mettere a punto un algoritmo scalabile che aumenta in modo dinamico e auto-adattativo la risoluzione delle simulazioni, solo quando serve. In questo modo gli scienziati possono ottenere simulazioni molto accurate, riducendo però al minimo le operazioni del computer necessarie e risparmiando così energia e memoria.