l supercomputer Leonardo, del consorzio universitario Cineca, si trova a Bologna nelle ex Manifatture - Tabacchi /Inagoeconomica
Il Santo Graal è nascosto dentro le nuvole. Te lo spiega Andrea Montani, che ha dedicato la vita ad isobare ed equazioni. Il segreto più nascosto della meteorologia, quello che per i ricercatori potrebbe spiegare tante cose, è come il vapore si trasformi in goccia e cosa succeda quando un’innocua pecorella diventa un cumulonembo. «Oggi riusciamo a capire la traiettoria degli uragani – spiega l’analista del Centro Europeo per le Previsioni Meteorologiche a Medio Termine (Ecmwf, ovvero European Centre for Medium- range Weather Forecasts) - ma non abbiamo previsto l’alluvione delle Marche, perché non è stata rappresentata correttamente l’interazione tra il flusso proveniente da sudovest e la catena appenninica».
Nella fabbrica del tempo, come la chiama il direttore Matteo dell’Acqua, si vive di numeri, grafici e mappe: dentro questo supercomputer, che una volta si trovava a Reading e che da qualche mese macina dati all’ombra degli Asinelli, opera un complicatissimo modello matematico che pedina ciascuna nuvoletta e annusa ogni refolo di vento. Il Data Centre del Centro Meteo Europeo compila previsioni globali. Lavora dividendo l’atmosfera in “scatole” di nove chilometri di lato: temperatura, umidità, venti e tanti altri parametri passano attraverso milioni di linee di codice informatico; il risultato predittivo è quasi certo quando il range è di due o tre giorni, ma diventa probabile fino a quindici giorni. Ci si sta attrezzando per affinare i calcoli e gli esperti sono certi di arrivare entro breve tempo a sfiorare una certezza previsionale su cui neanche il colonnello Bernacca avrebbe scommesso. I n questo centro meteo, beninteso, non si lavora sugli allerta della protezione civile, bensì sulle “probabilità” in base alle quali le istituzioni valutano che decisioni prendere per prevenire i disastri legati al clima. Dell’Acqua ci spiega come: «Noi abbiamo un modello globale e facciamo previsioni su tutta la terra da due a trenta giorni. Non produciamo macchine, ma il processo è come quello di una fabbrica: anche noi assembliamo dei “pezzi” che sono le rilevazioni meteorologiche provenienti da satelliti, radar, navi, persino dai sottomarini. Una rete globale di rilevazioni da cui sono escluse automobili e telefonini dei privati, per ora. Questi dati li processiamo attraverso dei calcoli matematici e fisici e forniamo il risultato ai 35 Paesi che sostengono il centro e ai partner commerciali che acquistano i nostri “prodotti” ». I servizi meteo degli Stati Membri utilizzano i dati processati qui per il loro modello regionale e per fornire prodotti ai loro clienti, come la protezione civile. Un patrimonio ben difeso dal cemento armato e dalla vigilanza, perché quello meteorologico è un dato strategico. È utile a difendere le vite e l’economia.
Il cervellone della pioggia è vicino di casa di Leonardo, il supercomputer europeo recentemente inaugurato da Mattarella e “core” della data valley bolognese, che sta spingendo molto avanti l’orizzonte della ricerca scientifica. L’infrastruttura del Cineca lavora a 360 gradi, dall’osservazione del cosmo alla scienza dei materiali, dal cambiamento climatico alla genomica, per arrivare all’intelligenza artificiale e alle sue applicazioni; come il machine learning per la preparazione dei piloti della Ducati. Qualche mese fa è stato annunciato che l’International Foundation Big Data & Artificial Intelligence for human development avrà sede proprio al Tecnopolo di Bologna, dove stanno sorgendo anche un centro ricerca di Enea, le biobanche dell’Istituto Ortopedico Rizzoli, il Competence Center Nazionale Bi-Rex per industria 4.0, l’Istituto Nazionale di Astrofisica e Art-Er, il consorzio della Regione che associa le Università e i Centri di ricerca locali. «Se in Italia facciamo squadra è possibile raggiungere ogni traguardo» ha commentato il governatore Stefano Bonaccini allorquando le Nazioni Unite hanno deciso di insediare qui l’università su Big data e Intelligenza artificiale per la gestione del cambiamento dell'habitat umano (Ibach). Bonaccini considera la data valley il fiore all’occhiello della sua Giunta. «Vogliamo attirare qui conoscenze, professionalità e talenti» ha detto varando con l’assessore Vincenzo Colla un progetto di legge regionale per trattenere (e riportare) i cervelli in patria, attraverso agevolazioni a chi assume, residenzialità e welfare familiare, percorsi formativi...
Sicuramente, se il Centro Meteo Europeo rappresenta un’eccellenza mondiale nel suo campo, il suo vicino di casa, Leonardo, gestito dal consorzio universitario Cineca, è il quarto computer più potente al mondo. Più tecnicamente, è uno dei tre sistemi preexascale dell’Europa. Il terzo è finlandese, aiutato anche dal clima più rigido. A 36 gradi centigradi le cpu e le gpu s’impiantano. «Ma noi lo raffreddiamo con l’acqua temperata – rassicura il direttore operativo Fabio Melloni – il che permette di raggiungere una maggiore efficienza rispetto ai classici rack raffreddati ad aria, come, appunto, il Lumi finlandese ». Precisazione doverosa se si considera che questa infrastruttura costosissima offre una potenza di calcolo comunitaria senza precedenti - l’80% di quella italiana e oltre il 20% di quella europea -, che è al servizio sia del pubblico (gratis) che del privato (a pagamento). Si fanno veri e propri bandi per noleggiare ore di calcolo. Siamo cioè di fronte a qualcosa di inimmaginabile fino a qualche anno fa e che il presidente di Cineca Francesco Ubertini ama spiegare così: «Immaginate che tutte le persone del mondo facciano una somma ogni secondo per 365 giorni. Alla fine, avranno sviluppato una potenza di calcolo complessiva che Leonardo sviluppa in un secondo».
Per gli appassionati, precisiamo che il sistema operativo è fornito da Atos ed è basato su Bull Sequana Xh2000, composto da un modulo booster (Hpl di 174,7 petaflop), che massimizza la capacità computazionale tramite Gpu basate su Nvidia Ampere, e un modulo Data Centric, che soddisfa una gamma più ampia di applicazioni tramite Cpu Intel Sapphire Rapids. Presto, si miglioreranno le prestazioni fino a raggiungere una potenza di picco di 240 Petaflops Hpl. L'Unione Europea considera la diffusione dell'High Performance Computing una forza trainante della crescita e dell’innovazione; il 50% della potenza di calcolo generata da Leonardo sarà a disposizione degli istituti di ricerca e delle università italiane e il resto sarà utilizzato dai ricercatori europei. Nei suoi circuiti (e in quelli di Lisa, che lo porterà a 340 petaflops, prima dell’arrivo di un altro computer quantistico), stanno già prendendo forma, ad esempio, dei nuovi farmaci, da quando Dompé ha comprato un milione di ore di calcolo per accelerare la ricerca contro le pandemie.
Questi due gioiellini tecnologici albergano in una vecchia gloria dell’architettura industriale, sotto le volte a botte progettate negli anni Cinquanta da Pier Luigi Nervi per la Manifattura Tabacchi. Gli interventi di ristrutturazione edilizia ed impiantistica nell’area del Tecnopolo fino ad ora sono costati circa 220 milioni di euro, di cui circa la metà della Regione Emilia-Romagna, e la restante parte proveniente da finanziamenti nazionali ed europei. Il costo presunto per il completamento dei lavori è stimabile nell’ordine di altri 100 milioni. Quanto alle due infrastrutture di calcolo, 110 milioni è il costo del Data Centre del Ecmwf, tenendo in conto anche i sistemi trasferiti da Reading (Uk), e 240 milioni quello di Leonardo, di cui 120 per l’acquisto della macchina e 120 per l’adeguamento delle infrastrutture e per la gestione (sui 240 milioni complessivi, 120 sono stati finanziati dalla Commissione europea e 120 dal Ministero dell’Università e della Ricerca).
Nei prossimi anni, i supercomputer lavoreranno sugli eventi estremi e lo faranno insieme. Il Data Centre di Cineca è pronto a utilizzare il supercalcolo per studiare il cambiamento climatico e in particolare i problemi del Global South e, nell’ambito dell’iniziativa europea Destination Earth, il Centro Meteo Europeo sta già creando degli avatar della Terra con l’obiettivo di studiare gli eventi estremi, come siccità e allagamenti. «Avremo due gemelli digitali altamente accurati del nostro pianeta – racconta Dell’Acqua – che permetteranno di conoscere con un preavviso di circa dieci giorni l’arrivo di un evento estremo e consentiranno agli utenti di sviluppare e testare una serie di scenari e potenziali strategie di mitigazione. Ad esempio, permetteranno ai responsabili politici di anticipare e mitigare gli effetti di eventi meteorologici estremi e cambiamenti climatici, salvando vite umane e alleviando le conseguenze economiche ». Non si è mai fatto prima, nel mondo.