Aggiungo che essendo un sistema basato sui confronti col passato immagino che le mappe proposte siano semplicemente gli scenari più probabili, ma non sappiamo "quanto" più probabili. E quindi ce ne facciamo poco se non corredati da un sistema tipo ens o spaghetti.
Ma veramente "tutti gli altri modelli" sono così coerenti emissione dopo emissione a 240 ore?![]()
Il modello sembrerebbe dagli studi più performante, ma non dobbiamo aspettarci un oracolo infallibile, al massimo qualcosa di meglio di ECMWF di una misura piccola ma significativa.
Questi i grafici dagli studi:
74033271-5CA7-4D54-B369-7A9642631413.jpeg
Al contrario.
Un modello probabilistico sforna appunto probabilità. Il deterministico cerca di farlo con le ens ( e noi confrontando modelli e run), ma non è il suo mestiere. Ijvece, per costruzione, il risultato di un probabilistico è una serie di scenari con associata probabilità. Poi è eventuale scelta del gestore mostrarti solo il più probabile.
Forse in futuro per il long ci abitueremo a vedere più previsioni, corredate della loro probabilità.
Ultima modifica di Albert0; 19/11/2023 alle 17:25
La analisi parte comunque dalla situazione attuale. Il problema può essere che ne trovi poche di simili in passato.
La variazione del clima è una difficolta aggiuntiva ma pensiamo alle cose base.
Si apre un mondo sul come definire simili due situazioni (ovvero produrre dei numeri che indicano la distanza tra i due scenari, come si dice in matematica costruire una metrica). A cosa dai più peso: temperatura, campo barico, altro? A quali quote? Questo è un campo tutto nuovo e siamo solo all inizio. Potrebbero servire anni per trovare ottime metriche.
Ultima modifica di Albert0; 19/11/2023 alle 14:58
Questa è un'ottima osservazione, concettualmente ci sono molte analogie con altri campi in cui gli strumenti analitici tradizionali non sono applicabili e quindi sono già utilizzati da molto tempo metodi che hanno alcune affinità con gli algoritmi di machine learning. Rispetto alla fisica quantistica in particolare molte grandezze sono definibili solo in termini probabilistici, ma questo non le rende meno reali.
Più in generale, siamo abituati a pensare il metodo scientifico come osservazione -> formulazione di una ipotesi matematica -> dimostrazione -> applicazione della formula, ma in molti ambiti non è possibile o non è efficiente farlo.
Gli strumenti di intelligenza artificiale sono potenzialmente molto promettenti in molti di questi ambiti (almeno dove ci sono grandi quantità di dati di buona qualità) perché anziché cercare di ricostruire il funzionamento di ogni dettaglio possono andare direttamente a replicare il funzionamento del sistema nel suo complesso e fare previsioni sufficientemente precise in maniera molto efficiente.
Le previsioni meteo sono particolarmente interessanti perché i modelli che simulano I processi fisici non riescono a replicare alcune regolarita statistiche, quindi evidentemente è presente una grande quantità di informazione che i modelli attuali non riescono ad utilizzare.
Ultima modifica di snowaholic; 19/11/2023 alle 17:32
Ma credo che funzioni proprio così, impara dalle carte dell’evoluzione passata, ma non dai risultati di previsioni, ma dalle carte reali.
Quindi descrivono la vera evoluzione meteo.
In pratica, se proprio c’è statistica, fornisce una statistica fondata su una evoluzione che poi si è realizzata.
Inviato dal mio iPhone utilizzando Tapatalk
Segnalibri