BUCHI NELL'ACQUA
E se l'intelligenza artificiale riuscisse a prevedere il meteo meglio di noi? Prospettive
Sapere ciò che fa l’ambiente che ci circonda è una competenza essenziale ai nostri giorni. Chi ne dominerà la pratica avrà un vantaggio fondamentale
All’inizio di luglio, un articolo sulla rivista Nature ha inaugurato una nuova fase nella relazione con il nostro pianeta. Il titolo dell’articolo non è particolarmente emozionante: “Previsioni meteorologiche accurate a medio raggio con reti neurali 3D”. Una rete neurale chiamata Pangu, calibrata con milioni di parametri su oltre 40 anni di dati osservati, è riuscita a prevedere il tempo, più accuratamente e a minor costo dei migliori centri operativi al mondo. Senza sapere di meteorologia. Un esercizio empirico basato su intelligenza artificiale di straordinaria efficacia.
I dettagli qui importano. L’apprendimento della rete neurale è stato fatto su dati processati dagli stessi modelli che l’algoritmo intendeva battere. Quindi, almeno per ora, Pangu non può fare a meno della modellistica tradizionale. Ma la comunità scientifica si sta ora interrogando. Questa rete ha solo estrapolato il passato o ha “imparato” qualcosa di fondamentale? Può farlo anche senza avvalersi di dati pre processati dai centri di modellistica? Il fatto che sia capace di previsioni del tempo accurate ci dice qualcosa sulla sua applicazione al clima? Insomma, qual è il futuro di questa scienza nell’era dell’intelligenza artificiale?
C’è molto da fare, non c’è dubbio che il risultato sia enorme. La meteorologia e sua cugina, l’oceanografia, non sono scienze qualunque. Guidano un’economia moderna e integrata a operare su un pianeta variabile. Prevedere condizioni future determina quando possiamo volare, le rotte delle navi per contenere i costi di trasporto, le dimensioni dei sistemi idrici, dove mettere pale e pannelli, come costruire le città, e tanto altro. E’ fondamentale. Se ne è accorto l’esercito Russo, impantanato nella melma delle pianure ucraine dopo l’invasione, quando è stato tagliato fuori dai servizi meteo internazionali. Previsione è potere.
Il sistema osservativo, dal quale parte l’addestramento di Pangu, ci da informazioni sul pianeta in tempo reale. E’ il più grande sistema diagnostico ambientale mai concepito, originariamente finanziato dalle preoccupazioni militari della guerra fredda nel secolo scorso. Ogni giorno, centinaia di satelliti e migliaia di sonde ricostruiscono lo stato di atmosfera e oceano. A queste si aggiungono centri di calcolo nei quali complessi modelli numerici simulano il comportamento di atmosfera e oceano. Decine di miliardi di euro all’anno, migliaia di scienziati, decenni di ricerca per permetterci di ignorare le nostre condizioni materiali. Si tratta di un’impresa scientifica di dimensioni industriali.
Le prime previsioni meteorologiche furono fatte dopo il 14 novembre 1854, quando una forte tempesta spazzò via la flotta anglo-francese che assediava Sebastopoli. Era la Guerra di Crimea (anche allora). I francesi cominciarono a centralizzare osservazioni da tutto il continente grazie al telegrafo, sperando di produrre previsioni che aiutassero a evitare tali catastrofi. Era puro empirismo. I fenomeni alle medie latitudini sono coerenti: sequenze di alte e basse pressioni, più o meno della scala di un migliaio di chilometri, che si trascinano lentamente da ovest verso est. Si sperava che, individuando nel passato condizioni sufficientemente simili al presente, fosse possibile prevedere condizioni future.
Per cinquant’anni l’archivio storico aumentò, dando autorità a previsioni non sempre eccellenti (solo un secolo dopo, il meteorologo Ed Lorenz al MIT avrebbe rivelato la natura caotica del dei flussi atmosferici, un limite fondamentale alla prevedibilità). Ma, allora, era ciò che di meglio ci fosse. Nel 1904, però, ci fu una rivoluzione intellettuale. Il fisico Vilhelm Bjerknes introdusse le cosiddette “equazioni primitive”, che promettevano di descrivere la dinamica dell’atmosfera partendo dalle leggi fondamentali, trasformando la meteorologia in una branca della fisica moderna. Sennonché quelle equazioni erano di difficilissima trattazione con carta e penna. E così la previsione empirica continuò.
La competizione tra empirismo e teoria fisica culminò nel giugno del 1944. Eisenhower aveva fissato il D-Day, la data dello sbarco in Normandia, per il 5 del mese. Le flotte nell’Atlantico comunicavano però un peggioramento delle condizioni meteo a ovest, spingendo alcuni a chiedersi se fosse il caso di rimandare. Il meteorologo americano Irving Krick, esperto di spicco nell’uso delle mappe storiche per predire il futuro, era certo che non ci sarebbero stati problemi: si proceda come da programma, disse.
Il responsabile del servizio meteorologico del comando alleato non era Krick, però, ma un certo capitano James Stagg. Stagg era assistito dal norvegese Sverre Petterssen, studente della scuola di Bjerknes. Per quanto difficili, i calcoli di Petterssen, basati su princìpi fisici fondamentali, indicavano che, sulla costa della Normandia, ci sarebbe stata una tempesta il 5 giugno. L’unica finestra per lo sbarco sarebbe stata il giorno dopo. Petterssen e Stagg prevalsero: Eisenhower rimandò l’operazione al 6 giugno. Lo slittamento salvò l’intero sbarco in Normandia da una tempesta che effettivamente arrivò. Cambiò le sorti del conflitto.
Da quel momento, la meteorologia è definitivamente diventata fisica, quella delle equazioni fondamentali che proprio in quel periodo stavano facendo passi da giganti, come celebrato recentemente nel film “Oppenheimer”. Pochi anni dopo la guerra, John von Neumann, matematico geniale del “Manhattan Project” e teorico delle Guerra fredda, introdusse il primo computer per le previsioni del tempo. Le equazioni di Bjerknes, difficili da gestire direttamente, erano state domate dall’automazione. Era cominciata la modellistica numerica che, da allora, ha fatto da fondamento alle previsioni meteoclimatiche in tutto il mondo.
Negli anni seguenti, i computer sono diventati sempre più potenti, seguendo la famosa regola di Moore di un raddoppio annuale nella capacità di calcolo. La rappresentazione dell’atmosfera e dell’oceano sono diventate sempre più sofisticate, fino a portare alla creazione di grandi centri di calcolo internazionali, come l’Ecmwf, lo European Center for Medium-Range Weather Forecasts, che concentrano enormi risorse finanziarie e scientifiche per aiutare il mondo a gestire il proprio ambiente.
Un’ortodossia operativa di grande successo e, fino a qualche settimana fa, imbattibile. E’ un sistema scientifico da sempre prerogativa dello stato. Dalla caduta del muro di Berlino, la sua crescita è andata di pari passo con i trattati internazionali. Dall’Organizzazione meteorologica mondiale ai grandi accordi sull’ambiente sottoscritti da quasi tutti i paesi del mondo a Rio nel 1992 (incluso l’Unfccc, la convenzione quadro delle Nazioni Unite sul cambiamento climatico) l’architettura scientifica della Terra è pubblica e multilaterale.
L’Ecmwf, il più importante istituto di previsione meteo al mondo, è il prodotto di quella tradizione. Stabilito nel 1975, l’istituto è il prodotto di un trattato internazionale, come la Nato, l’Ocse, l’Esa o il Consiglio d’Europa, un’organizzazione che mette a sistema le competenze e risorse dei paesi membri per creare un servizio pubblico. Nella disattenzione generale, molti italiani non si saranno accorti che, in un recente negoziato, il centro di calcolo dell’Ecmwf è stato spostato dall’Inghilterra, dove risiedeva da decenni, a Bologna.
Questo è il sistema internazionale, esperto, complesso, e fondamentalmente pubblico che qualche settimana fa si è trovato di fronte una sorpresa: ricercatori che sono riusciti a battere la più grande infrastruttura scientifica al mondo. Ricercatori che non sanno nulla di meteorologia. L’autore più noto dell’articolo su Pangu è tale Qi Tian, fino al 2019 professore nel dipartimento di informatica dell’università di San Antonio, in Texas. Dopo aver studiato in Cina, Qi ha conseguito il dottorato all’università dell’Illinois a Urbana-Champaign nei primi anni 2000, facendo poi tutta la sua carriera accademica in America. In Texas si occupava di visione artificiale e processamento di immagini. Un estraneo alla comunità delle previsioni. Ma questo non gli ha impedito di battere l’Ecmwf al suo stesso gioco.
Ma non è solo questo ad essere sorprendente. Dal 2018 Qi Tian è diventato il responsabile scientifico della divisione di Computer Vision di Huawei. Dal 2020 ne è diventato il direttore scientifico per l’intelligenza artificiale. Huawei è il colosso cinese della telefonia e gigante dell’elettronica, sospettato da vari governi occidentali di essere colluso con i servizi segreti cinesi e un veicolo per la politica di influenza del partito comunista di quel paese. Pangu è un prodotto di una strategia industriale con un forte valore geopolitico.
La classe di reti neurali profondamente stratificate alle quali appartiene Pangu, addestrate su enormi quantità di dati, non è il prodotto di nuove intuizioni scientifiche — la teoria per questi sistemi esiste da anni — ma il risultato di un salto tecnologico. L’avvento delle Graphics Processing Units (Gpu), originariamente sviluppate per accelerare la grafica dei videogiochi, ha trasformato la capacità di processare colossali volumi di dati (illustrato dall’ormai famoso ChatGPT.)
Il mondo delle Gpu è oggi dominato da Nvidia, compagnia californiana nata per servire il mercato dei videogiochi appunto, ma che ha visto il proprio valore crescere enormemente grazie all’espansione nelle applicazioni di questi circuiti nelle criptovalute e, come nella nostra storia, per l’applicazione di reti neurali. Ma è qui che entra la geopolitica, perché i circuiti di Nvidia sono per la maggior parte costruiti a Taiwan da Tsm (Taiwan Seminconductor Manufacturing). Taiwan: l’isola che da sempre la Repubblica popolare cinese reclama come parte del proprio territorio nazionale.
Huawei sta investendo alla frontiera di una tecnologia che non domina — la Cina è indietro di vent’anni nelle tecnologie dei semiconduttori — ma la cui produzione è concentrata nell’isola che il suo governo intende riprendersi. Tutti ostentano sicurezza rispetto ai rischi di un’azione cinese. Questa ostentata sicurezza è però bilanciata dagli sforzi che l’amministrazione Biden ha cominciato a fare per ripatriare la produzione di semiconduttori verso gli Stati Uniti.
L’Europa è profondamente indietro, non avendo capacità produttiva di semiconduttori di questo tipo sul continente. Sta cercando di correre ai ripari. Non è un caso che Intel, che negli anni è stato un produttore piuttosto marginale nel mercato delle Gpu, focalizzato solo sui propri circuiti, abbia deciso di investire circa 80 miliardi di euro in Europa per nuova capacità produttiva per servire tutto il mercato.
Tra questi investimenti c’è anche un grande impianto di assemblaggio e produzione che il governo Draghi era riuscito ad assicurarsi per l’Italia (si parlava di Vigasio, in Veneto.) L’attuale governo ha segnalato che l’impianto è un investimento strategico per l’Italia. Lo è. Essere tagliati fuori dai processi di produzione della tecnologia base del ventunesimo secolo significherebbe relegare il paese ad un ruolo marginale nell’economia del futuro.
Ma dalla discussione sopra, dovrebbe essere chiaro che stiamo parlando di molto di più di una strategia industriale per componentistica economica. Dovrebbe essere ormai ovvio a tutti, e particolarmente agli italiani esposti da settimane ad estremi meteorologici, che l’inesorabile cambiamento della statistica climatica riporta le condizioni materiali nelle quali operiamo al cuore della pianificazione e gestione economica. Sapere e prevedere ciò che fa l’ambiente che ci circonda è una competenza essenziale per una società moderna. Chi ne dominerà la pratica avrà un vantaggio fondamentale nel prossimo futuro.
L’applicazione dell’intelligenza artificiale fatta dagli ingegneri cinesi di Huawei con Pangu ha ripreso con un algoritmo la pratica di coloro che prima della Seconda guerra mondiale osservavano e catalogavano l’archivio del passato per predire il futuro. Ma ha dimostrato che funziona. Così facendo, gli ingegneri di Huawei hanno di fatto cominciato a disintermediare, con risultati apparentemente spettacolari, istituzioni scientifiche che per decenni hanno stabilito gli standard operativi per la gestione del nostro pianeta.
E’ il primo passo di una trasformazione istituzionale della scienza, una trasformazione nella quale compagnie private, non istituzioni pubbliche, controllano i mezzi di produzione. Una trasformazione nella quale l’infrastruttura tecnologica, non la sofisticazione della teoria fisica, è il vantaggio competitivo fondamentale. Tutto questo mentre est e ovest competono sul controllo per infrastrutture e influenza politica. Scienza, geopolitica e controllo dei dati sono i nuovi assi lungo i quali corre la modernità, anche meteorologica.