Notizia di ieri. Il modello di Google GraphCast basato su AI pare sia già più accurato dei modelli tradizionali , tra l'altro è opensource; magari un giorno qualche forumista preparato ed esperto di Python e modelli di Machine Learning potrà contribuire direttamente ad evolvere il modello e competere con GFS ed ECMWF, che stanno già sperimentando queste tecnologie.
Descrizione del modello:
GraphCast: AI model for faster and more accurate global weather forecasting - Google DeepMind
Articolo di ieri su Science
Just a moment...
Codice sorgente su GitHub
GitHub - google-deepmind/graphcast
jupiter![]()
Nel machine learning il training è fondamentale. Un po' come i forumisti che leggono una previsione, la ricollegano ad analoghe carte del passato, GraphCast ha macinato 40 anni di dati previsionali presi dai database ECMWF ed, avendo una potenza di calcolo maggiore del cervello umano ed essendo meno lamentoso (consentitemi di alleggerire), riesce a ricavare a partire dallo stato al tempo T quello al tempo T+dT, un super Bernacca.
Maggiori dettagli nell'articolo:
GraphCast: AI model for faster and more accurate global weather forecasting - Google DeepMind
jupiter![]()
Machine learning sono algoritmi già usati in metereologia e non da tutti i modelli, si dice che siano più performanti, però al momento non mi sembra che ci sia un modello previsionale superiore ad altri perlomeno in maniera evidente, per averne parlato tempo addietro nel thread dei modelli sono stato sanzionato, ben venga questo nuovo thread, è una strada che si sta percorrendo i risultati tutti da verificare
Inviato dal mio SM-A307FN utilizzando Tapatalk
Ho dato una occhiata.
Il modello è si più veloce di ECMWF ma ha una spaziatura all'equatore di 28km, ECMWF arriva ad 8.
La macchina su cui è stato fatto girare è una realizzazione Google, che non la vende ma la affitta. Solo che gli europei non la possono affittare, possono affittare la versione precedente.
Al possibile utilizzo delle reti neurali ci pensavo fin dagli anni 90, oggi abbiamo un primo modello, vedremo se in seguito spunterà altro.
ECMWF sta gia testando il modello, almeno in forma sperimentale:
ECMWF | Charts
You sure?
E che ne sai che non esista già una chat o un forum su Discord per le AI, dove si ritrovano per lamentarsi, sfogarsi, percularci e condividere i loro problemi?
E se esistesse invece una AI pensata per creare chat fittizie o forum di lamentele fra AI adibite alle più varie cose?
No quest'ultima c'è già. Forse il primo scenario sarebbe degno per una sit-com.
![]()
In linea teorica non dovrebbe funzionare perché le equazioni che regolano le dinamiche dell’atmosfera sono non lineari, quindi non si può apprendere dall’evoluzione del tempo in passato per capire come sarà quello futuro.
Per capire come evolve occorre risolvere le equazioni con modelli numerici.
Ma forse nel breve-medio periodo funziona con buona approssimazione.
Inviato dal mio iPhone utilizzando Tapatalk
Ma, se ho capito bene, delle equazioni della fluidodinamica e dalla termodinamica non se ne fa niente. Ragiona su basi statistiche di mappe reali. Sbaglio? Come se per 10 anni osservo mia moglie e tutte le volte che noto un particolare capo di abbigliamento è stata dal suo amante. Se d'ora in avanti la vedo uscire con quell'abito va dall'amante. Credo....
I modelli che utilizzano reti neurali non sono lineari, modelli come Graphcast individuano la dinamica che considerano più probabile a partire da una specifica condizione iniziale attraverso lo studio del dataset di reanalisi (le ERA5 1979-2017 in questo caso).
Non c'è nessun ostacolo teorico, se non il fatto che il modello non produce necessariamente output coerenti dal punto di vista fisico (ma avendo effettuato un training su un dataset che è costruito integrando anche i principi fisici anche l'output in linea di massima lo sarà).
Considerato che i modelli utilizzati attualmente sono delle approssimazioni dei processi fisici (quindi intrinsecamente soggette ad errori e bias nella dinamica) non è così scontato che un modello che cerca di simulare le dinamiche reali in base ai principi della fisica riesca a raggiungere una precisione maggiore di uno che fa una simulazione statistica (non lineare). Dopotutto lo vediamo anche con le stagionali quanta difficoltà hanno i modelli di simulazione in particolare sulle dinamiche polari, anche semplici modelli statistici riescono ad ottenere risultati migliori.
Di conseguenza il modello costruito sulle reti neurali ha il vantaggio di costruire la previsione "imitando" le dinamiche reali studiate nel dataset di inizializzazione, che sono prive degli errori di approssimazione impliciti in un modello deterministico, ma ha lo svantaggio di non utilizzare le conoscenze sui processi fisici. Dal punto di vista della propagazione dell'errore, non mi stupirebbe una maggiore robustezza dei modelli basati sulle reti neurali.
Dal punto di vista teorico non c'è un approccio superiore ad un altro, si tratta di approcci totalmente diversi quindi si può solo fare una valutazione relativa in termini di efficienza. In ogni caso, la parte di inizializzazione e reanalisi che fanno i modelli attuali rimane essenziale, si tratta solo di capire se nel costruire le dinamiche future sia più efficiente un approccio che cerca di risolvere le equazioni oppure uno che "ragioni" sostanzialmente per analogia dopo aver fatto un confronto con altre situazioni analoghe. Non mi stupirebbe se in futuro dei modelli globali attuali rimanesse prevalentemente la parte di inizializzazione e reanalisi, mentre per le previsioni prevalesse un approccio più leggero fondato sul machine learning.
Corretto quello che dici, sono curioso di vedere come evolve.
Solo un appunto, le condizioni iniziali sono le stesse per i due modelli, perché i dati di oggi non sono altro che le grandezze fisiche misurate ed interpolate.
Alla fine la rete neurale non fa niente altro che interpretare le carte come un appassionato qualsiasi: è uno di noi.
Inviato dal mio iPhone utilizzando Tapatalk
Segnalibri