Qual è il futuro dei supercomputer più veloci del mondo

Può essere difficile comprendere le capacità di elaborazione dei numeri del supercomputer più veloce del mondo. Ma l’informatico Jack Dongarra dell’Università del Tennessee la mette così: “Se tutti sulla Terra facessero un calcolo al secondo, ci vorrebbero quattro anni per eguagliare ciò che questo computer può fare in un secondo”.

Il supercomputer in questione si chiama Frontier. Occupa lo spazio di due campi da tennis presso l’Oak Ridge National Laboratory, sulle colline del Tennessee orientale, dove è stato inaugurato nel maggio 2022.

Ecco alcune ulteriori specifiche: Frontier utilizza circa 50.000 processori, rispetto ai 16 o 24 del laptop più potente. Consuma 20 milioni di watt, rispetto ai circa 65 di un laptop. La sua costruzione è costata 600 milioni di dollari.

Quando Frontier entrò in funzione, segnò l’inizio del cosiddetto calcolo exascale, con macchine in grado di eseguire un exaflop – o un quintilione di operazioni in virgola mobile al secondo. Da allora, gli scienziati si stanno preparando a produrre sempre più computer incredibilmente veloci: si prevede che diverse macchine exascale entreranno in funzione negli Stati Uniti e in Europa nel 2024.

Ma la velocità in sé non è l’obiettivo finale. I ricercatori stanno costruendo computer exascale per esplorare questioni scientifiche e ingegneristiche precedentemente inaccessibili in biologia, clima, astronomia e altri campi. Nei prossimi anni, gli scienziati utilizzeranno Frontier per eseguire le simulazioni computerizzate più complicate che l’uomo abbia mai creato. Sperano di rispondere a domande senza risposta sulla natura e di progettare nuove tecnologie in settori che vanno dai trasporti alla medicina.

Evan Schneider dell’Università di Pittsburgh, ad esempio, sta utilizzando Frontier per eseguire simulazioni di come la nostra galassia si è evoluta nel tempo. In particolare, è interessata al flusso di gas in entrata e in uscita dalla Via Lattea. In un certo senso, una galassia respira: il gas fluisce al suo interno, fondendosi in stelle sotto la gravità, ma il gas fluisce anche verso l’esterno, ad esempio quando le stelle esplodono e rilasciano materia. Schneider studia i meccanismi attraverso i quali le galassie espirano. “Possiamo confrontare le simulazioni con l’universo reale osservato e questo ci dà l’idea che stiamo comprendendo correttamente la fisica”, afferma Schneider.

Schneider sta utilizzando Frontier per costruire un modello computerizzato della Via Lattea con una risoluzione sufficientemente elevata da poter ingrandire le singole stelle in esplosione. Ciò significa che il modello deve catturare le proprietà su larga scala della nostra galassia a 100.000 anni luce di distanza, così come le proprietà delle supernovae a circa 10 anni luce di distanza. “Questo in realtà non è stato fatto”, dice. Per avere un’idea di cosa significhi questa risoluzione, sarebbe come creare un modello fisicamente accurato di una lattina di birra, insieme alle singole cellule di lievito al suo interno e alle interazioni su ciascuna scala intermedia.

Stephan Priebe, ingegnere senior presso GE, sta utilizzando Frontier per simulare l’aerodinamica dei progetti di aeroplani di prossima generazione. Per aumentare l’efficienza del carburante, GE sta studiando un design del motore noto come “architettura a ventola aperta”. I motori a reazione utilizzano le ventole per generare la spinta e ventole più grandi significano maggiore efficienza. Per rendere i ventilatori ancora più grandi, gli ingegneri hanno proposto di rimuovere il telaio strutturale esterno, noto come gondola, in modo che le pale siano esposte come una banderuola. “Le simulazioni ci consentono di ottenere una visione dettagliata delle prestazioni aerodinamiche nelle prime fasi della fase di progettazione”, afferma Priebe. Forniscono agli ingegneri informazioni su come modellare le pale delle ventole per migliorare l’aerodinamica, ad esempio, o per renderle più silenziose.

Frontier trarrà particolare beneficio dagli studi di Priebe sulla turbolenza, il movimento caotico di un fluido disturbato, in questo caso l’aria, attorno al ventilatore. La turbolenza è un fenomeno comune. Lo possiamo vedere nel fragore delle onde del mare e nel fumo che esce da una candela spenta. Ma gli scienziati hanno ancora difficoltà a prevedere come scorrerà esattamente un fluido turbolento. Questo perché si muove in risposta a influenze macroscopiche, come i cambiamenti di pressione e temperatura, e a influenze microscopiche, come le singole molecole di azoto nell’aria che si sfregano l’una contro l’altra. L’interazione delle forze su più scale complica il movimento.

“Quando ero alla scuola di specializzazione, [un professore] una volta mi disse: ‘Bronson, se qualcuno ti dice che capisce la turbolenza, dovresti mettere una mano sulla scrivania e lasciare la stanza, perché sta cercando di venderti qualcosa.'” , afferma l’astrofisico Bronson Messer, direttore scientifico presso l’Oak Ridge Leadership Computing Facility, che ospita Frontier. “Nessuno capisce la turbolenza. È davvero l’ultimo grande problema della fisica classica”.

Questi studi scientifici illustrano la forza dei supercomputer: simulare oggetti fisici su più scale contemporaneamente. Altre app riflettono questo tema. Frontier consente modelli climatici più accurati, che devono simulare il clima su diverse scale spaziali in tutto il pianeta e anche su scale temporali lunghe e brevi. I fisici possono anche simulare la fusione nucleare, il processo turbolento in cui il sole genera energia unendo gli atomi per formare elementi diversi. Vogliono comprendere meglio il processo per sviluppare la fusione come tecnologia energetica pulita. Sebbene questi tipi di simulazioni multiscala siano stati un punto fermo del supercalcolo per molti anni, Frontier può incorporare una gamma più ampia di scale diverse rispetto al passato.

Per utilizzare Frontier, gli scienziati approvati accedono al supercomputer da remoto, inviando il proprio lavoro tramite Internet. Per sfruttare al massimo la macchina, Oak Ridge mira a far sì che circa il 90% dei processori del supercomputer eseguano calcoli 24 ore al giorno, sette giorni alla settimana. “Entriamo in questa sorta di stato stazionario in cui facciamo costantemente simulazioni scientifiche per alcuni anni”, afferma Messer. Gli utenti conservano i propri dati a Oak Ridge in una struttura di archiviazione dati che può contenere fino a 700 petabyte, l’equivalente di circa 700.000 dischi rigidi portatili.

Sebbene Frontier sia il primo supercomputer exascale, ce ne sono altri in arrivo. Negli Stati Uniti, i ricercatori stanno attualmente installando due macchine che avranno una capacità di oltre due exaflop: Aurora, presso l’Argonne National Laboratory, in Illinois, ed El Capitan, presso il Lawrence Livermore National Laboratory, in California. A partire dall’inizio del 2024, gli scienziati prevedono di utilizzare Aurora per creare mappe dei neuroni nel cervello e cercare catalizzatori che potrebbero rendere più efficienti i processi industriali come la produzione di fertilizzanti. El Capitan, anch’esso previsto per entrare in funzione nel 2024, simulerà le armi nucleari per aiutare il governo a mantenere le sue scorte senza test sulle armi. Nel frattempo, l’Europa prevede di implementare il suo primo supercomputer exascala, Jupiter, alla fine del 2024.

Secondo quanto riferito, anche la Cina ha supercomputer exascale, ma non ha rilasciato i risultati dei test benchmark standard delle loro prestazioni, quindi i computer non compaiono nella TOP500, un elenco semestrale dei supercomputer più veloci. “I cinesi temono che gli Stati Uniti impongano maggiori limiti in termini di tecnologia alla Cina, e sono riluttanti a rivelare quante di queste macchine ad alte prestazioni siano disponibili”, afferma Dongarra, che ha progettato il punto di riferimento previsto per i supercomputer correre per la TOP500.

Il desiderio di maggiore potenza di calcolo non si esaurisce con l’exascale. Oak Ridge sta già prendendo in considerazione la prossima generazione di computer, afferma Messer. Avrebbero da tre a cinque volte la potenza di calcolo della Frontiera. Ma c’è una grande sfida: l’enorme consumo energetico. L’energia consumata da Frontier, anche quando è inattiva, è sufficiente ad alimentare migliaia di case. “Probabilmente non è sostenibile per noi semplicemente rendere le macchine sempre più grandi”, afferma Messer.

Mentre Oak Ridge costruiva supercomputer sempre più grandi, gli ingegneri lavoravano per migliorare l’efficienza delle macchine con innovazioni tra cui un nuovo metodo di raffreddamento. Il Summit, il predecessore del Frontier che è ancora operativo a Oak Ridge, utilizza circa il 10% del suo consumo energetico totale per raffreddarsi. In confronto, dal 3% al 4% del consumo energetico del Frontier è destinato al raffreddamento. Questo miglioramento è stato ottenuto utilizzando acqua a temperatura ambiente per raffreddare il supercomputer, anziché acqua ghiacciata.

I supercomputer di prossima generazione sarebbero in grado di simulare un numero ancora maggiore di scale contemporaneamente. Ad esempio, con Frontier, la simulazione della galassia di Schneider ha una risoluzione fino a decine di anni luce. Ciò non è ancora sufficiente per arrivare alla scala delle singole supernove, quindi i ricercatori devono simulare separatamente le singole esplosioni. Un futuro supercomputer potrebbe essere in grado di riunire tutte queste scale.

Simulando in modo più realistico la complessità della natura e della tecnologia, questi supercomputer ampliano i confini della scienza. Una simulazione più realistica della galassia porta la vastità dell’universo a portata di mano degli scienziati. Un modello accurato della turbolenza dell’aria attorno alla ventola di un aereo evita la necessità di costruire una galleria del vento dai costi proibitivi. Modelli climatici migliori consentono agli scienziati di prevedere il destino del nostro pianeta. In altre parole, ci danno un nuovo strumento per prepararci a un futuro incerto.

( Fonte: MIT Technology Review )