Il futuro ancora più veloce dei supercomputer / The even faster future of supercomputers

Il futuro ancora più veloce dei supercomputer The even faster future of supercomputers



Segnalato dal Dott. Giuseppe Cotellessa / Reported by Dr. Giuseppe Cotellessa




Sunway TaihuLight, il computer più veloce del mondo, è costruito interamente con processori cinesi. (Xinhua/Photoshot / AGF) / Sunway TaihuLight, the fastest computer in the world, is built entirely with Chinese processors.


Scienziati e ingegneri in tutto il mondo puntano al prossimo salto nella capacità di elaborazione, ai cosiddetti computer alla esascala, macchine in grado di far impallidire o quasi i più veloci supercomputer attuali. Ma devono superare ardue sfide tecnologiche.

A fine luglio, gli operai dell'Oak Ridge National Laboratory, in Tennessee, hanno iniziato a riempire una stanza grande come una caverna con i pezzi di un colosso del calcolo automatico: fila per fila, hanno installato unità di calcolo ordinatamente impilate, circa 290 chilometri di cavo in fibra ottica e un sistema di raffreddamento capace di far circolare tanta acqua quanta ne contiene una piscina. Il Dipartimento dell'energia degli Stati Uniti (DOE) si aspetta che l'anno prossimo, quando sarà pronta, questa macchina da 280 milioni di dollari chiamata Summit, consentirà agli Stati Uniti di riconquistare un primato perso dal 2012: ospitare il supercomputer più veloce del mondo.

Summit è progettato per funzionare a una velocità di picco di 200 petaflop: cioè, è in grado di effettuare fino a 200 milioni di miliardi di "operazioni in virgola mobile" – un tipo di aritmetica computazionale – ogni secondo. Questo renderebbe Summit più veloce del 60 per cento rispetto all'attuale primatista mondiale cinese.

Per molti informatici, il completamento di Summit è solo una fase di un processo molto più grande. In tutto il mondo, gruppi di ingegneri e scienziati puntano al prossimo salto nella capacità di elaborazione: i computer a "esascala", in grado di raggiungere velocità di calcolo di 1000 petaflop o più.

Già quattro gruppi nazionali o internazionali, in collaborazione con le industrie informatiche delle loro regioni geografiche, stanno lavorando per raggiungere questo ambizioso obiettivo. La Cina prevede di far funzionare la sua prima macchina a esascala entro il 2020. Gli Stati Uniti, con l'Exascale Computing Project del DOE, puntano a costruirne almeno una entro il 2021. E ci si aspetta che Unione Europea e Giappone seguano a ruota.

I ricercatori prevedono che i computer a esascala consentiranno di risolvere problemi che oggi non è possibile affrontare in campi diversi come la climatologia, le energie rinnovabili, la genomica, la geofisica e l'intelligenza artificiale.

Si potrebbero associare tra loro modelli dettagliati di chimica dei carburanti e modelli di motori a combustione interna, per individuare con più rapidità i miglioramenti che potrebbero ridurre le emissioni di gas serra. Oppure si potrebbe simulare il clima globale con una risoluzione spaziale di un solo chilometro. Con il software giusto in mano, "si potrà fare molta più scienza di quella che si può fare ora", dice Ann Almgren, del Lawrence Berkeley National Laboratory, in California.

Ma raggiungere il regime dell'esascala è una sfida tecnologica incredibilmente ardua. Gli aumenti esponenziali delle prestazioni di calcolo e di efficienza energetica che in passato accompagnavano la legge di Moore non sono più garantiti, e per continuare a migliorare sono necessari cambiamenti sostanziali ai componenti dei supercomputer. Inoltre, un supercomputer che si comporta bene in un test di velocità non necessariamente eccellerà nelle applicazioni scientifiche.

Lo sforzo per portare il calcolo ad alte prestazioni al livello successivo sta obbligando a trasformare il modo in cui sono progettati i supercomputer e sono misurate le loro prestazioni. "È uno dei problemi più difficili che ho visto nella mia carriera", dice Thomas Brettin, dell'Argonne National Laboratory, che sta lavorando su un software medicale per macchine a esascala.

Hardware accelerato
Le tendenze generali del settore informatico stanno definendo il cammino dei computer a esascala. Per oltre un decennio, i transistor sono stati impacchettati così densamente che è impossibile far funzionare i microprocessori a ritmi ancora più veloci. Per aggirare il problema, i supercomputer di oggi si affidano pesantemente al calcolo parallelo, usando banchi di chip per creare macchine con milioni di unità di elaborazione chiamate core. Un supercomputer può essere reso più potente mettendo insieme un numero ancora maggiore di queste unità.

Ma via via che queste macchine diventano più grandi, la gestione dei dati diventa più difficile. Spostare dati dentro e fuori la memoria di massa e persino all'interno dei core richiede molta più energia dei calcoli stessi. Secondo alcune stime, fino al 90 per cento del consumo di energia di un computer ad alte prestazioni è usato per il trasporto dei dati.

Ciò ha portato ad alcune previsioni allarmanti. Nel 2008, in un rapporto della Defense Advanced Research Projects Agency degli Stati Uniti, un gruppo guidato dall'informatico Peter Kogge ha concluso che un computer a esascala costruito con le tecnologie attualmente prevedibili avrebbe bisogno di un gigawatt di potenza, forse fornito da una centrale nucleare appositamente dedicata. "L'energia è il problema numero uno, due, tre e quattro del calcolo a esascala", afferma Kogge, professore all'Università di Notre Dame, nell'Indiana.

Nel 2015, alla luce dei miglioramenti tecnologici, Kogge ha ridotto questa stima tra 180 e 425 megawatt. Ma si tratta ancora di un valore molto più elevato di quello richiesto dai migliori supercomputer di oggi: il sistema che attualmente è in cima alla classifica mondiale, il cinese Sunway TaihuLight, consuma circa 15 megawatt.

"Il rapporto di Peter è importante perché ha suonato un campanello d'allarme", afferma Rick Stevens, direttore associato del laboratorio per l'informatica, l'ambiente e le scienze della vita dell'Argonne Laboratory. Grazie in parte anche alle proiezioni di Kogge, dice, "si è creato un grande fermento intellettuale intorno alla riduzione del consumo energetico".

Ma negli ultimi anni, afferma Stevens, una serie di nuove tecnologie ha contribuito a ridurre il consumo di energia. Un progresso cruciale è stato portare la memoria più vicina ai core di elaborazione per ridurre la distanza che devono percorrere i dati. Per ragioni simili, gli ingegneri hanno anche impilato in senso verticale schiere di memoria ad alte prestazioni anziché distribuirle su due dimensioni.

I supercomputer stanno inoltre integrando sempre più la memoria flash, che non richiede energia per conservare i dati, come fanno invece altri tipi di memoria molto usati. E i progettisti di circuiti hanno reso possibile disattivare i circuiti nei chip quando non sono in uso, o cambiarne tensione o frequenza per risparmiare energia.

Anche cambiamenti ancora più radicali sui processori hanno fatto la differenza. Uno dei principali sviluppi è stata l'adozione di versioni di unità di elaborazione grafica, o GPU, a scopo generico, che eccellono nel tipo di elaborazione ad alta intensità di dati necessaria per applicazioni come il rendering dei videogiochi.

I computer che incorporano le GPU, insieme alle unità di elaborazione centrale (CPU) per “dirigere il traffico”, sono particolarmente adatti alle simulazioni fisiche. Dal punto di vista della programmazione, dice Katherine Yelick del Lawrence Berkeley National Laboratory, i calcoli necessari per animare realisticamente le onde dell'oceano in un film come Alla ricerca di Nemo non sono molto diversi da quelli che servono per simulare le dinamiche atmosferiche in un modello climatologico.

Altri supercomputer sono stati costruiti con processori "leggeri", che sacrificano alcune funzioni in favore della velocità e dell'efficienza energetica.

La Cina ha usato lo schema leggero per costruire Sunway TaihuLight. La macchina ha conquistato il primato di velocità con processori costruiti localmente non molto tempo dopo che gli Stati Uniti avevano imposto un embargo commerciale (nel 2015) sulla vendita di chip ai centri di supercalcolo cinesi. I processori leggeri del Sunway non sono radicalmente diversi dalle comuni CPU, spiega Depei Qian, della Beihang University di Pechino, che sta contribuendo ai progetti di esascala della Cina. I singoli core sono semplificati, con memoria locale limitata e basse velocità. Ma con molti core che lavorano insieme, la macchina complessiva è più veloce.

L'obiettivo del DOE per l'uso dell'elettricità del suo primo sistema a esascala, chiamato Aurora, è di 40 megawatt, con un margine fino a un massimo assoluto di 60 megawatt. Il gigante informatico Intel è stato incaricato di realizzare i chip per la macchina, mentre all'azienda di supercalcolo Cray è stato subappaltato l'assemblaggio dell'intero sistema.

I dettagli su come l'obiettivo sarà raggiunto non sono ancora pubblici. Ma Al Gara, che dirige l'architettura di calcolo ad alte prestazioni e dell'esascala di Intel, afferma che l'azienda sta lavorando a una nuova piattaforma, che integra una nuova microarchitettura di chip, progettata per ridurre al minimo l'uso di energia.

Altri hanno mire più ambiziose. Qian afferma che la Cina avrà come obiettivo 30 megawatt per il suo primo sistema a esascala. Con una scadenza fissata al 2022 o al 2023, e quindi con più tempo per lavorare sul suo sistema, il progetto europeo potrebbe arrivare a 10 megawatt, dice Jean-Philippe Nominé, specialista di calcolo ad alte prestazioni del CEA, la Commissione francese per le energie alternative e l'energia atomica. Ma l'efficienza energetica è solo uno dei fattori: c'è anche la questione delle prestazioni.

Il significato di "esascala" è diventato una questione quasi spirituale per gli scienziati informatici. La definizione più semplice è un computer in grado di elaborare un insieme specifico di equazioni di algebra lineare alla velocità di un esaflop, equivalente a 1000 petaflop. Un gruppo di ricercatori ha usato questo valore di riferimento, chiamato LINPACK, per redigere fin dal 1993 la classifica dei supercomputer Top500.

LINPACK è ormai sinonimo di prestazioni dei supercomputer e, da giugno 2013, i supercomputer costruiti in Cina sono in cima alla lista. Ma la velocità non è tutto, dice Jack Dongarra, dell'Università del Tennessee a Knoxville, tra i fondatori della classifica Top500. "Tutti vogliono vantarsi", afferma.

Dongarra confronta la classifica dei supercomputer con la velocità massima segnata sul tachimetro di un'auto. Anche se la capacità di raggiungere i 300 chilometri all'ora può essere impressionante, ciò che dà veramente più valore alle automobili è come si comportano durante gli spostamenti quotidiani entro i limiti di velocità.

In modo analogo, la velocità di un computer nell'effettuare specifiche operazioni di algebra lineare non riflette necessariamente la sua capacità di prevedere l'attività di un farmaco, addestrare reti neurali o eseguire simulazioni complesse. Tutti questi compiti richiedono requisiti diversi tra loro in termini di potenza di elaborazione, di quali tipi di calcoli possono essere affrontati in parallelo e di quanti dati devono essere spostati. La classifica Top500 "non misura l'efficienza dell'hardware in applicazioni reali", afferma Barbara Helland, direttore associato per la ricerca sul calcolo avanzato dell'ufficio scientifico del DOE.

Nonostante ciò, i migliori supercomputer di oggi sono stati "costruiti per offrire la prestazione LINPACK più elevata", afferma Shekhar Borkar, informatico uscito da Intel lo scorso anno. Un'applicazione scientifica del mondo reale potrebbe usare il 10 per cento di quella velocità, ma solo l'1,5-3 per cento è più tipica, dice Borkar. E si aspetta che questo limite rimarrà nell'esascala.

Negli Stati Uniti, la crescente preoccupazione per questo scollamento tra velocità di punta e utilità ha portato a una definizione di calcolo a esascala diversa, basata sulle applicazioni. Il DOE punta a fare in modo che i suoi primi computer a esascala abbiano prestazioni circa 50 volte migliori del più veloce sistema attuale degli Stati Uniti: il Titan da 17,6-petaflop (misurato in LINPACK). Ciò potrebbe significare, per esempio, esaminare 50 volte più materiali potenzialmente utili per il solare in un dato intervallo di tempo, o realizzare un modello del clima globale con una risoluzione spaziale 50 volte più grande.

Per ottenere questi vantaggi, il DOE sta lavorando con centinaia di ricercatori provenienti dal mondo accademico, dal governo e dall'industria. Ha creato 25 gruppi, ciascuno incaricato di realizzare un software in grado di sfruttare una macchina a esascala per risolvere uno specifico problema scientifico o ingegneristico, come la progettazione di un motore. Stevens afferma che la principale misura del successo per i supercomputer statunitensi a esascala sarà una "media geometrica" delle loro prestazioni nelle 25 applicazioni.

Nello sviluppo di questi computer, l'agenzia sta anche cercando di migliorare la collaborazione tra chi usa i supercomputer, chi scrive il software e le aziende che producono semiconduttori e che sono responsabili della costruzione dell'hardware. Con il progetto a esascala del DOE, "stiamo unendo queste comunità. Possiamo insistere su questa convergenza", afferma Doug Kothe, informatico dell'Oak Ridge National Laboratory che guida il progetto. Questa strategia di unire utenti e costruttori, chiamata co-design, non è nuova. Ma, dice Kothe, "non è stata attuata in modo così ampio e profondo come invece avviene ora".

"Lavoro in questo campo da vent'anni. È la prima volta che vedo questo tipo di coordinamento e di supporto", afferma Thuc Hoang, program manager per la ricerca e le operazioni di supercalcolo presso la National Nuclear Security Administration (NNSA) a Washington.

Gli Stati Uniti non sono i soli a promuovere collaborazioni tra scienziati e ingegneri in questi campi diversi. Anche il programma di supercalcolo della Cina, criticato per aver dato la priorità alla velocità pura rispetto alla scienza, sta usando il co-design nei suoi progetti per l'esascala, ed è focalizzato su 15 applicazioni software. "Dobbiamo collegare lo sviluppo di hardware e software con i ricercatori del settore", afferma Qian.

Prove future
Ma Borkar e alcuni altri osservatori sono preoccupati che i primi sistemi a esascala in Cina e negli Stati Uniti possano essere macchine dimostrative, che non funzionano bene su applicazioni reali. "Offrire prestazioni più elevate per le applicazioni significherebbe progettare le macchine in modo diverso, più realistico", afferma Borkar. Questo, aggiunge, "comprometterebbe di certo la prestazione LINPACK, con un impatto negativo dal punto di vista del marketing". (Borkar osserva che, sebbene sia ancora consulente del governo degli Stati Uniti e di aziende private, queste opinioni sono personali).

Borkar si augura che gli Stati Uniti in particolare siano rimasti fedeli ai piani delineati per la prima volta nel 2008, per usare il balzo verso l'esascala come una possibilità per ripensare il calcolo in modo più radicale.

"Gli approcci evolutivi falliranno", dice. "Serve un approccio rivoluzionario". Stevens afferma che i grandi cambiamenti stanno avvenendo a porte chiuse. E si aspetta che il DOE chiuda il suo contratto ufficiale con Intel intorno a o dopo Natale. Fino ad allora, specifica, "non posso dire che cosa stiamo facendo, ma è molto innovativo".

Ci sono però limiti alla decisione con cui il supercalcolo può essere spinto in avanti. A ogni nuova generazione di supercomputer, i programmatori devono sviluppare il software che hanno. "Abbiamo un legacy code", afferma Hoang. Il programma che gestisce presso la NNSA si affida ai supercomputer per mantenere l'arsenale degli Stati Uniti conforme al divieto di testare armi nucleari. "Per le responsabilità del mio ufficio, non possiamo semplicemente abbandonare i vecchi codici: per svilupparli e validarli c'è voluto un decennio".

Anche i vincoli di bilancio hanno influito sui progetti statunitensi per l'esascala. Aurora doveva essere una macchina da 180 petaflop e iniziare a funzionare presso l'Argonne nel 2018. Ma l'agenzia non aveva abbastanza soldi per iniziare a commissionare l'hardware a esascala. Invece di emettere una bando pubblico per raccogliere le proposte, il DOE ha modificato il contratto di Intel e Cray per Aurora in una macchina a esascala, che sarà consegnata entro il 2021. Stevens è fiducioso sul fatto che possano consegnare la tecnologia in tempo.

Nel frattempo, altri programmi a esascala stanno facendo progressi. La Cina ha ancora l'obiettivo di raggiungere l'esascala per prima, nel 2020. Il paese asiatico sta valutando tre prototipi. Due, in fase di costruzione presso le strutture di supercalcolo che ospitano le macchine più veloci della nazione, rischiano di essere variazioni sull'architettura leggera che la Cina ha già realizzato, dice Dongarra. Il terzo è stato costruito da Sugon, un'azienda informatica di Pechino che collabora con lo sviluppatore di chip ad alte prestazioni AMD, e quindi ha accesso alle sue microarchitetture. Questa macchina, pensa Dongarra, avrà probabilmente nuove funzionalità e sarà diversa dalle architetture leggere.

Allo stesso tempo, i ricercatori stanno considerando quello che nei prossimi decenni sarà necessario per superare l'esascala e realizzare supercomputer ancora più veloci e con migliori prestazioni. Produrre la prossima generazione di supercomputer potrebbe significare adottare tecnologie che attualmente sono ancora nelle loro primissime fasi di sviluppo: circuiti neuromorfici, forse, che sono modellati sul funzionamento dei neuroni nel cervello, o il calcolo quantistico.

Ma molti ricercatori sono preoccupati soprattutto dall'essere sicuri di poter fornire i sistemi a esascale promessi, e dal fatto che le applicazioni scientifiche sviluppate funzioneranno fin dal momento in cui saranno avviate. "Far funzionare l'esascala è ciò che mi tiene sveglio la notte", dice Helland.

ENGLISH

Scientists and engineers all over the world are aiming for the next leap in computing capacity, for so-called computers at the scene, machines that can make the fastest current supercomputers pale or almost pale. But they must overcome difficult technological challenges.

At the end of July, workers at the Oak Ridge National Laboratory, in Tennessee, began to fill a room as big as a cave with the pieces of a colossus of automatic calculation: row by row, they installed neatly stacked computing units, about 290 kilometers of fiber optic cable and a cooling system capable of circulating as much water as it contains a swimming pool. The US Department of Energy (DOE) expects that next year, when it will be ready, this $ 280 million machine called Summit, will allow the United States to regain a record lost since 2012: hosting the fastest supercomputer of the world.

Summit is designed to operate at a peak rate of 200 petaflops: that is, it is capable of carrying out up to 200 million billion "floating point operations" - a type of computational arithmetic - every second. This would make Summit 60 percent faster than the current Chinese world record holder.

For many computer scientists, Summit completion is just one step in a much larger process. All over the world, groups of engineers and scientists are aiming for the next leap in processing capacity: the "exascala" computers, able to reach a calculation speed of 1000 petaflops or more.

Already four national or international groups, in collaboration with the IT industries of their geographical regions, are working to achieve this ambitious goal. China plans to run its first car in the world by 2020. The US, with the DOE Exascale Computing Project, aims to build at least one of them by 2021. It is expected that the European Union and Japan will follow closely .

The researchers predict that the computers at the university will solve problems that today can not be dealt with in fields such as climatology, renewable energy, genomics, geophysics and artificial intelligence.

One could combine detailed models of fuel chemistry and internal combustion engine models to identify improvements that could reduce greenhouse gas emissions more quickly. Or you could simulate the global climate with a spatial resolution of just one kilometer. With the right software in hand, "you can do much more science than you can now," says Ann Almgren, of the Lawrence Berkeley National Laboratory, California.

But achieving the exasperation regime is an incredibly difficult technological challenge. The exponential increases in computing performance and energy efficiency that previously accompanied Moore's law are no longer guaranteed, and substantial changes to the components of supercomputers are needed to continue improving. Furthermore, a supercomputer that performs well in a speed test will not necessarily excel in scientific applications.

The effort to bring high performance computing to the next level is forcing the way the supercomputers are designed and their performance measured. "It's one of the most difficult problems I've seen in my career," says Thomas Brettin, of the Argonne National Laboratory, who is working on medical software for vets.

Accelerated hardware
The general trends in the IT sector are defining the path of computers to escape. For over a decade, the transistors have been packed so densely that it is impossible to make the microprocessors work at even faster rates. To get around this, today's supercomputers rely heavily on parallel computing, using chip banks to create machines with millions of core call processing units. A supercomputer can be made more powerful by bringing together even more of these units.

But as these machines get bigger, data management becomes more difficult. Moving data in and out of mass storage and even within the cores requires much more energy than the calculations themselves. According to some estimates, up to 90 percent of the energy consumption of a high-performance computer is used for data transport.

This led to some alarming forecasts. In 2008, in a report by the United States Defense Advanced Research Projects Agency, a group led by computer scientist Peter Kogge concluded that a lecture computer built with the currently predictable technologies would need a gigawatt of power, perhaps provided by a power plant nuclear specially dedicated. "Energy is the number one, two, three and four problem of the hexagonal calculation," says Kogge, a professor at the University of Notre Dame, in Indiana.

In 2015, in light of technological improvements, Kogge reduced this estimate between 180 and 425 megawatts. But it is still a much higher value than what is required by today's best supercomputers: the system that is currently at the top of the world rankings, the Chinese Sunway TaihuLight, consumes about 15 megawatts.

"Peter's relationship is important because he sounded an alarm bell," says Rick Stevens, associate director of the Argonne Laboratory's computer science, environment and life sciences laboratory. Thanks in part also to the projections of Kogge, he says, "there has been a great intellectual ferment around the reduction of energy consumption".

But in recent years, says Stevens, a number of new technologies have helped reduce energy consumption. Crucial progress has been to bring the memory closer to the processing cores to reduce the distance that data must travel. For similar reasons, engineers also stacked high-performance memory arrays in a vertical sense instead of distributing them in two dimensions.

Supercomputers are also increasingly integrating flash memory, which requires no energy to store data, as do other widely used types of memory. And circuit designers have made it possible to disable circuits in chips when they are not in use, or to change voltage or frequency to save energy.

Even more radical changes on the processors have made the difference. One of the main developments has been the adoption of versions of graphics processing units, or GPUs, for general purpose, which excel in the type of data intensive processing necessary for applications such as video game rendering.

Computers that incorporate GPUs, together with central processing units (CPUs) to "direct traffic", are particularly suited to physical simulations. From a programming point of view, says Katherine Yelick of the Lawrence Berkeley National Laboratory, the calculations necessary to realistically animate ocean waves in a film like Finding Nemo are not much different from those used to simulate atmospheric dynamics in a climatological model.

Other supercomputers have been built with "light" processors, which sacrifice some functions in favor of speed and energy efficiency.

China used the lightweight scheme to build Sunway TaihuLight. The car won the speed record with locally built processors not long after the US imposed a commercial embargo (in 2015) on the sale of chips to Chinese supercomputing centers. The light processors of the Sunway are not radically different from the common CPU, explains Depei Qian, of Beihang University in Beijing, who is contributing to the projects of esascala of China. The individual cores are simplified, with limited local memory and low speeds. But with many cores working together, the overall car is faster.

The DOE target for the use of electricity from its first esascala system, called Aurora, is 40 megawatts, with a margin up to an absolute maximum of 60 megawatts. The information giant Intel was commissioned to build the chips for the machine, while the supercomputing company Cray was subcontracted the assembly of the entire system.

Details on how the goal will be achieved are not yet public. But Al Gara, which runs the high-performance computing architecture and Intel's exhortation, says the company is working on a new platform that integrates a new chip micro-architecture designed to minimize the use of power.

Others have more ambitious aims. Qian says that China will target 30 megawatts for its first exhilaration system. With a deadline of 2022 or 2023, and thus with more time to work on your system, the European project could reach 10 megawatts, says Jean-Philippe Nominé, a high-performance computing specialist from the CEA, the French Commission for alternative energies and atomic energy. But energy efficiency is just one of the factors: there is also the question of performance.

The meaning of "esascala" has become an almost spiritual question for computer scientists. The simplest definition is a computer that can process a specific set of linear algebra equations at the velocity of a esaflop, equivalent to 1000 petaflops. A group of researchers has used this reference value, called LINPACK, to compile the Top500 supercomputer ranking since 1993.

LINPACK is synonymous with supercomputer performance and, since June 2013, supercomputers built in China are at the top of the list. But speed is not everything, says Jack Dongarra of the University of Tennessee in Knoxville, one of the founders of the Top500 ranking. "Everyone wants to brag," he says.

Dongarra compares the ranking of supercomputers with the maximum speed marked on the speedometer of a car. Although the ability to reach 300 kilometers per hour can be impressive, what really gives more value to cars is how they behave during daily commutes within speed limits.

Similarly, the speed of a computer in performing specific linear algebra operations does not necessarily reflect its ability to predict the activity of a drug, train neural networks or perform complex simulations. All these tasks require different requirements in terms of processing power, which types of calculations can be dealt with in parallel and how much data must be moved. The Top500 ranking "does not measure the efficiency of hardware in real applications," says Barbara Helland, associate director for advanced calculus research at the DOE scientific office.

Despite this, today's best supercomputers have been "built to offer the highest LINPACK performance," says computer scientist Shekhar Borkar released last year. A scientific application of the real world could use 10 percent of that speed, but only 1.5-3 percent is more typical, says Borkar. And he expects that this limit will remain in exaggeration.

In the United States, the growing concern about this detachment between top speed and utility has led to a different, application-based calculation of a hexascale calculation. The DOE aims to ensure that its first esala-scale computers perform about 50 times better than the fastest current US system: the 17.6-petaflop Titan (measured in LINPACK). This could mean, for example, examining 50 times more materials potentially useful for solar in a given time frame, or creating a global climate model with a 50 times larger spatial resolution.

To achieve these benefits, the DOE is working with hundreds of researchers from academia, government and industry. He has created 25 groups, each in charge of creating software that can exploit a machine to solve a specific scientific or engineering problem, such as the design of an engine. Stevens argues that the main measure of success for US supercomputers in esascala will be a "geometric mean" of their performance in 25 applications.

In developing these computers, the agency is also trying to improve the collaboration between supercomputers, software writers and semiconductor companies that are responsible for building the hardware. With the DOE's esascala project, "we are joining these communities, we can insist on this convergence," says Doug Kothe, an informant at the Oak Ridge National Laboratory who leads the project. This strategy of uniting users and builders, called co-design, is not new. But, says Kothe, "it has not been implemented as widely and as profoundly as it is now."

"I've been working in this field for twenty years, it's the first time I see this kind of coordination and support," says Thuc Hoang, program manager for research and supercomputing at the National Nuclear Security Administration (NNSA) in Washington .

The United States is not alone in promoting collaborations between scientists and engineers in these different fields. China's supercomputing program, criticized for giving priority to pure speed compared to science, is also using co-design in its esascala projects, and is focused on 15 software applications. "We need to connect the development of hardware and software with industry researchers," says Qian.

Future tests
But Borkar and some other observers are worried that the first systems to escape in China and the United States may be demonstration machines, which do not work well on real applications. "Offering higher performance for applications would mean designing machines differently, more realistically," says Borkar. This, he adds, "undoubtedly compromised the LINPACK performance, with a negative impact from the marketing point of view". (Borkar notes that although he is still a consultant to the United States government and private companies, these opinions are personal).

Borkar hopes that the United States in particular have remained faithful to the plans set out for the first time in 2008, to use the leap towards exascala as a chance to rethink the calculation in a more radical way.

"Evolutionary approaches will fail," he says. "You need a revolutionary approach". Stevens says the big changes are happening behind closed doors. And it expects the DOE to close its official contract with Intel around or after Christmas. Until then, he specifies, "I can not say what we are doing, but it is very innovative".

However, there are limits to the decision by which the supercomputing can be pushed forward. With each new generation of supercomputers, programmers must develop the software they have. "We have a legacy code," says Hoang. The program that runs at the NNSA relies on supercomputers to keep the US arsenal compliant with the ban on testing nuclear weapons. "For the responsibilities of my office, we can not simply abandon the old codes: it took a decade to develop and validate them".

The budget constraints also influenced US projects for exhortation. Aurora was supposed to be a 180-petaflop machine and start operating at the Argonne in 2018. But the agency did not have enough money to start commissioning the hardware to take it out. Instead of issuing a public call for proposals, the DOE has modified Intel's and Cray's contract for Aurora in a vault car, which will be delivered by 2021. Stevens is confident that they can deliver the technology on time.

Meanwhile, other esascala programs are making progress. China still has the goal of reaching the esascala first, in 2020. The Asian country is evaluating three prototypes. Two, under construction at the supercomputing facilities that house the fastest cars in the nation, are likely to be variations on the light architecture that China has already achieved, says Dongarra. The third was built by Sugon, a Beijing computer company that works with the high performance chip developer AMD, and then has access to its microarchitectures. This machine, Dongarra thinks, will probably have new features and will be different from lightweight architectures.

At the same time, researchers are considering what in the coming decades will be necessary to overcome the exascala and achieve even faster and better performance supercomputers. Producing the next generation of supercomputers could mean adopting technologies that are currently still in their very early stages of development: neuromorphic circuits, perhaps, which are modeled on the functioning of neurons in the brain, or quantum computing.

But many researchers are especially concerned about being sure they can deliver the promised hexascal systems, and from the fact that the developed scientific applications will work from the moment they are launched. "Running the esascala is what keeps me awake at night," says Helland.

Da:

http://www.lescienze.it/news/2017/12/02/news/supercomputer_balzo_prestazioni_esascala-3777661/

Commenti

Post popolari in questo blog

Paracetamolo, ibuprofene o novalgina: quali le differenze? / acetaminophen, ibuprofen, metamizole : what are the differences?

Sci-Fi Eye: il nostro futuro urbano / Sci-Fi Eye: Our Urban Future

Caratteristiche del fungo corallo. Il corallo mortale / Characteristics of the coral mushroom. The deadly coral