Exascale, come l'Europa si prepara alla nuova era dei supercomputer - Wired -

Possono eseguire calcoli cinque volte più velocemente e sono in grado di fare un quintilione di operazioni al secondo. Creando un nuovo mondo di utilizzi e opportunità.

Negli ultimi anni abbiamo assistito a un cambiamento senza precedenti nell’adozione delle tecnologie digitali, dai sistemi High Performance Computing (HPC) e dalle analisi basate sui big data, piuttosto noti, all’intelligenza artificiale (IA) e al machine learning (ML). La tradizionale richiesta in ambito accademico di accelerare il ritmo della scoperta scientifica coincide oggi con la pressione competitiva per accelerare la progettazione di nuovi prodotti e scegliere il momento giusto nel mercato commerciale.

I supercomputer, anche denominati cluster computazionali o in parallelo, elaborano simulazioni complesse suddividendo i problemi di calcolo in “processi” più piccoli, in esecuzione simultaneamente su più nodi server, interconnessi da una rete veloce. Il rapporto prezzo/prestazioni di tali sistemi è in costante miglioramento, contribuendo a rendere l’HPC più conveniente. Al giorno d’oggi, un problema di calcolo che vent’anni fa avrebbe richiesto settimane per essere elaborato su un sistema da diversi milioni di euro può essere risolto in poche ore su un singolo server, dotato di un’unità di elaborazione grafica, denominata GPU.

Un tempo disponibile solo per gli istituti didattici e le grandi aziende, l’HPC oggi è diventato più accessibile perché i cloud pubblici e i data center comunitari consentono alle organizzazioni più piccole di prenotare la capacità di calcolo remota su richiesta, pagando solo per le core-hour utilizzate e i servizi correlati. L’HPC consente alle organizzazioni commerciali di risolvere un ampio spettro di problemi complessi, come l’ottimizzazione dei prodotti e la progettazione elettronica, l’analisi del credito e il rilevamento delle frodi, la ricerca farmacologica e gli studi sull’uomo, l’esplorazione in ambito gas e petrolio, la ricerca climatica e le previsioni meteorologiche, il rendering e la pre/post-produzione di film e così via.

Una nuova era

Dal 2002 al 2009, le prestazioni del supercomputing sono raddoppiate quasi ogni 12 mesi. Tuttavia, dal 2009 al 2019 questo tasso è sceso a ogni 2,3 anni, il che è stato attribuito a diversi fattori come il rallentamento della legge di Moore e vincoli tecnici come il ridimensionamento di Dennard. Eppure, gli esperti di tecnologie ora hanno trovato modi innovativi per superare questi limiti, inaugurando quella che viene definita l’era exascale dell’informatica. Un sistema exascale è in grado di eseguire un quintilione di operazioni in virgola mobile al secondo (flops). Si tratta di un miliardo di miliardi, ovvero 1.000.000.000.000.000.000.000, il che significa che le macchine exascale possono risolvere i calcoli cinque volte più velocemente dei migliori supercomputer di oggi, oltre a eseguire modelli più complessi e di maggiore precisione.

Per raggiungere questi nuovi livelli prestazionali, gli ingegneri stanno adottando un approccio eterogeneo, costituito da CPU e GPU integrate e ottimizzazione iterativa di hardware e software, al fine di raggiungere nuovi livelli di prestazioni ed efficienza a un costo inferiore per flops. La migliore dimostrazione di questi progressi è il supercomputer Frontier sviluppato presso la Oak Ridge Leadership Computing Facility negli Stati Uniti, che è destinato a passare alla storia come il primo supercomputer exascale operativo al mondo quando sarà attivato entro la fine dell’anno. Questo sistema, che accelererà l’innovazione in campo scientifico e tecnologico e aiuterà gli Stati Uniti a mantenere la leadership nel calcolo ad alte prestazioni e nell’IA, è dotato di processori Amd Epyc di terza generazione e GPU Radeon Instinct e fornirà oltre 1,5 exaflops di potenza di elaborazione di picco. Esiste un sistema di classe exascale ancora più potente basato su AMD, chiamato El Capitan, che dovrebbe essere realizzato nel 2023 presso i Lawrence Livermore National Labs negli Stati Uniti. Il Giappone è stato il primo a immettere sul mercato il proprio supercomputer Fugaku con prestazioni di picco da 1,42 exaflops, mentre la Cina starebbe utilizzando un sistema meno pubblicizzato Sunway “Oceanlite” da 1,32 exaflops. Come si posiziona l’Europa in questa corsa?

La missione exascale europea

L’Europa è nota per seguire la propria strada in quasi tutti i settori e il supercomputing non fa eccezione. Mentre Cina e Stati Uniti stanno cercando di diventare i leader nel mondo del supercomputing, l’Europa sta adottando un approccio più collaborativo con il progetto comune European High-Performance Computing (EuroHPC), supportato da finanziamenti governativi, che è stato avviato e portato avanti dalla Partnership for Advanced Computing in Europe. Le iniziative per il supercomputing in Europa sono sostenute anche da Horizon Europe, un framework settennale per la ricerca scientifica nell’Unione Europea che sta investendo quasi 80 miliardi di euro per realizzare scoperte e innovazioni a livello mondiale, tra cui lo sviluppo di sistemi exascale con sede nell’Ue. Questo approccio unico ha portato a una serie di eccezionali risultati nel mercato europeo del supercomputing, consentendo ai ricercatori di tutto il continente di affrontare sfide un tempo ritenute impossibili.

Pensiamo al supercomputer Hawk, attualmente al 24° posto nella classifica dei Top 500 supercomputer più veloci del mondo, installato presso l’Università di Stoccarda. Questo (un sistema HPE Apollo 9000 con 5.632 nodi distribuiti in 44 cabinet e dotato di processori Amd Epyc per ogni nodo) assicura prestazioni di picco di circa 26 petaflops e ha permesso a istituti didattici e aziende private di svolgere ricerche accademiche e industriali all’avanguardia in numerosi contesti. Per esempio, consente ad aziende nel segmento automotive di eseguire analisi strutturali e simulazioni fluidodinamiche.

Anche Lumi, una macchina pre-exascale presso l’IT Centre for Science (CSC) di Kajaani, in Finlandia, dimostra la potenza della prossima era del supercomputing. Lumi, che utilizza una tecnologia simile a quella di Frontier, sarà in grado di eseguire più di 375 petaflops o più di 375 milioni di miliardi di calcoli al secondo, con prestazioni di picco teoriche di oltre 550 petaflops al secondo.

Foto: Amd

Ciò che rende particolarmente interessanti i supercomputer pre-exascale ed exascale è la coerenza della memoria. Questa tecnologia, non ancora disponibile per il mercato mainstream, permette di utilizzare una singola copia dei dati a cui accedono sia la CPU che le GPU, senza la necessità di mantenere copie distinte per ciascuna. Questo, a sua volta, riduce l’overhead di programmazione, migliora le performance e libera risorse di sistema, rendendo più efficiente l’esecuzione dei sistemi all’avanguardia come Lumi. Lumi vanta anche un’innovativa “tecnologia di free cooling”, che consente di riutilizzare il calore aggiuntivo prodotto nella rete di teleriscaldamento del distretto di Kajaani, riducendo ulteriormente i costi e le emissioni di CO2. Si prevede che questa tecnologia ridurrà la carbon footprint annuale dell’intera città di 13.500 tonnellate, una quantità pari alle emissioni di 4000 autovetture.

Grazie a questa enorme capacità computazionale, il sistema - che già si colloca tra i migliori supercomputer al mondo - sta consentendo ai ricercatori europei di risolvere problemi in diversi ambiti, da meteo e sicurezza informatica a ricerca farmacologica e medicina personalizzata. Sta permettendo di ottenere grandi risultati anche per quanto riguarda il cambiamento climatico: il sistema Lumi con tecnologia Amd consente ai climatologi di eseguire modelli climatici ad alta risoluzione, in grado di fornire migliori informazioni per gli studi sull’impatto climatico.

Nel suo percorso verso l’exascale, l’Europa si sta già rendendo conto del nuovo mondo di possibilità che questo livello ineguagliabile di prestazioni può offrire. Questi sistemi aiuteranno a risolvere le più complesse questioni di ricerca scientifica, consentiranno agli scienziati di creare modelli più realistici del sistema terrestre e del clima e favoriranno nuovi studi sull’universo, dalla fisica delle particelle alla formazione delle stelle.

L’Europa ora è alla ricerca di sistemi hardware che superino le prestazioni del supercomputer più veloce del mondo, il sistema Fugaku in Giappone. È un progetto ambizioso, complesso e che richiederà tempo, motivo per cui l’attuale democratizzazione dell’HPC è così importante. Con l’accesso alla tecnologia sviluppata da Amd e dai fornitori x86 che viene già utilizzata in alcune delle macchine più veloci del mondo, nonché l’accesso a una serie di strumenti software open source pronti all’uso per ottimizzare e scalare i carichi di lavoro di supercomputing, l’Europa è già in grado di risolvere problemi complessi e cogliere i vantaggi dell’elaborazione exascale. Ciò nonostante, occorrono una costante attenzione e investimenti da parte di più nazioni europee per sviluppare hardware, strumenti e software scalabile, se l’Europa è seriamente intenzionata a utilizzare i propri sistemi unici di classe exascale.