Qui c'è tanta roba: IFS documentation | ECMWF
In ogni caso il "mito" della statistica nelle corse deterministiche deriva dalla parametrizzazione. Come detto la non linearità delle equazioni differenziali, la risoluzione dei modelli (non si può certo pensare di modellare ogni singolo nucleo di condensazione, cristallo di neve, goccia di pioggia etc...) implica delle semplificazioni più o meno brutali. Il nome che si da a queste semplificazioni è "parametrizzazione".
Ossia l'uomo decide i parametri per spostare "un pò più in qua, un pò più in là" il comportamento dei modelli.
Chiaramente in questi parametri c'è una sorta di statistica, cioè si prova a migliorare in base agli score del modello nella versione precedente.
Ma una statistica vera e propria non esiste, l’output è il risultato deterministico delle equazioni differenziali senza null'altro.
Non ne so nulla, mi spiace. Però mi sembra strano.
Se posso dire, la tendenza ormai è un'altra, o quanto meno noi seguiamo una strada diversa. Invece che sbatterci a fare un modello migliore (investimenti enormi per migliorie trascurabili), puntiamo sul post processing. Probabilmente dentro ecmwf hanno fatto qualcosa del genere, ossia la corsa del modello deterministico ad alta risoluzione resta quella, "pura", poi l'output dato ai clienti può essere una "media intelligente" di più run, in modo da non sbarellare troppo.
I Clienti odiano quasi quasi di più uno stravolgimento o continui stravolgimenti piuttosto che una previsione sbagliata (entro certi limiti).
Con questo non voglio far passare l'idea che non sia giusto investire per migliorare i modelli, ma è un discorso lungo e complicato, totalmente offtopic.![]()
Se non ricordo male fu Fabio Campanella a parlarne.
Potrei dire anche una sciocchezza ma forse riguardava l'inizializzazione di una corsa sulla base della previsione della precedente.
Riguardo la nuova tendenza potrebbe essere una spiegazione alla convinzione di un ecmwf più stabile.
Il problema è che noi guardiamo sempre la corsa ad alta risoluzione. Perchè quella che vediamo è la corsa ad alta risoluzione, o no?![]()
E allora te ne faccio un'altra
C'è una cosa che ogni tanto chiedo ma non ho mai avuto praticamente risposta, magari me la dai tu.
Come vengono inizializzati i singoli membri delle ens? Su quali parametri si agisce? O è il modello che viene "perturbato" nella sua elaborazione? Mai capita questa cosa.
Sempre detto tra di noi, un sistema multimodel che in realtà è sempre e solo lo stesso modello con condizioni iniziali diverse, serve a poco. Nella prassi, quante volte avete visto che a fronte di cambi di scenario netti, tutti i membri dell'ens se ne vanno in una sola direzione?
Molto più sensato è avere un sistema multmodel con enne modelli diversi, nella speranza che enne centri di calcolo diversi abbiano ognuno "un punto forte" e che quindi un sistema multimodel accoppiato con intelligenza artificiale, sappia riconoscere in quali circostanze scgliere un modello, in quali l'altro etc...
Noi facciamo così![]()
Ciao.
Ti scrivo quel che ho capito io, nei giorni precedenti anch'io incuriosito ho provato a capirci qualcosa dalla documentazione presente sul sito di ECMWF:
- per il run 00, l'ECMWF IFS utilizza anche dati del giorno precedente... Ovvero raccolti tra le 21UTC del giorno "X-1" e le 9UTC del giorno "X";
- per il run 12, l'ECMWF IFS utilizza dati assimilati tra le 9UTC e le 21UTC del giorno "X";
Fig2.6.1 Data Assimilation System.jpg
Per quanto riguarda i due run in uscita in mattinata e nel pomeriggio, il processo di assimilazione dati/analisi/forecast non è propriamente quello descritto in precedenza perchè, per fornire previsioni al pubblico in un tempo "ragionevole", si opera poi un taglio dei dati che verranno poi dati in pasto ai due forecast intermedi e più brevi (quello delle 18UTC e quello delle 06UTC nello schema qua sopra) in quanto altrimenti andrebbero persi.
2.6 The Continuing Sequence of Analyses - Forecast User Guide - ECMWF Confluence Wiki
![]()
Segnalibri