
Originariamente Scritto da
Gigiometeo
Ci sarebbe da scrivere un libro, comunque provo a sintetizzare due cose disonorando i puristi:
Fino al 1979 le rianalisi sono molto performanti (che si tratti di
ECMWF era-15 o era 40, etc. o di CFSR/
NCEP) perchè è possibile lavorare su dataset alquanto ridondanti, senza considerare le possibilità derivate dall'analisi variazionale (3dvar/4dvar), e quindi si va sul sicuro.
Tra il 1979 ed il 1948 (es. ESRL/
NCEP) cominciano i primi problemini, derivati sopratutto dall'assimilazione di una mole di dati non eccelsa sia sotto il profilo della copertura spaziale che quantitativamente. T
ali problemi si riflettono però essenzialmente nei bassi strati, laddove l'orografia complessa, i disturbi dovuti alle dinamiche interne al surface layer, PBL, flussi di calore latenet e sensibile, etc. comportano errori che si amplificano essenzialmente nelle aree continentali ed alle medie latitudini (per ovvi motivi legati alla circolazione troposferica). I suddetti problemi sono però più evidenti a mano a mano che ci si approssima al suolo, laddove le forzanti derivate dalle strutture di surface layer e PBL assumono magnitudine più elevata. Salendo di quota la situazione migliora poichè le forzanti orografiche e tutte quelle elencate prima (che sono una minoranza) quasi scompaiono (a parte i forcing operati da gravity waves indotti dai principali sistemi montuosi che si riflettono anche oltre i 500 hPa, ma vi si può far fronte "educando" il modello), ed i dati sono certamente più attendibili rispetto a quelli ottenuti in prossimità del suolo.
Chiunque avrà verificato che una reanalisi di temperatura a 500 hPa di un qualsiasi giorno del 1950 è molto più vicina all'analisi che non un medesimo raffronto eseguito sul piano isobarico di 850 hPa (sottostime termiche nelle irruzioni invernali per sottostima dell'effetto di sbarramento alpino, etc.). Per cui, per la stessa struttura dei modelli adottati, l'errore è maggiore nei bassi strati che non alle quote superiori, considerando essenzialmente le variabili fortemente dinamiche (T°C, wind, etc.); molto meno per parametri più "statici" (come snow cover,
SST, etc), e sempre maggiore per le medie latitudini che per le aree polari o tropicali (onde corte così così; Walker circulation assai fedele alla realtà ad esempio).
Il problema nei bassi strati troposferici può essere parzialmente risolto tramite downscaling o affidandosi a Kalman filter ed similia. Inoltre, per una buona parte di questo periodo, si può contare ancora sull'analisi variazionale.
Prima del 1940 (circa) vengono a mancare i dati effettivi in quota, ed i dataset di assimilazione possono contare essenzialmente su dati al suolo o in prossimità di esso; insomma mancano i dati in quota (semplificando all'osso). A ciò si può ovviare tramite processi di EDA (Ensemble Data Assimilation).
Per non dilungarmi troppo questo è un buon documento:
http://www.ecmwf.int/newsevents/trai...f/DA/EnsDA.pdf
Ora è chiaro che in casi come questo non posso determinare un dataset di dati in analisi pur con tutti gli accorgimenti del caso (mi mancano quelli in quota), e allora lancio il modello (chiaramente a risoluzione compatibile con gli intenti, bastano 2°) in forecast partendo dalla situazione iniziale; il modello stesso mi ricostruisce i dati in forecast (sempre ensemble), dopodichè prendo i dati del forecast e faccio girare nuovamente il modello con il dataset sia al suolo (nativo) che in quota (forecast); se il forecast in quota fosse sballato avrei dati incompatibili al suolo (quelli
li ho già e posso verificare).
Dunque il processo è fattibile. E si ritorna al problema iniziale: nei bassi strati troppi disturbi possono condizionare i dati; via via che si sale di quota le "trappole" diminuiscono ed i dati diventano certamente più attendibili.
Può apparire un paradosso ma in questo modo ho dati più compatibili con quelli reali in quota che non al suolo, e questo anche antecedentemente al 1940.
Queste tecniche di assimilazione dati consentono di produrre analisi es. a 500 hPa con margine di errore simile alle attuali
GFS lanciate a 72 ore in forecast.
I risultati dimostrano anche che lavorando sui sistemi di assimilazione d'ensemble sempre più raffinati, con le sole osservazioni superficiali disponibili si possono creare rianalisi dell'intero 20° secolo con una attendibilità niente male, anche se non paragonabile a quella post 1979, ma con errore che diminuisce e non aumenta con la quota per i motivi detti prima.
Questo a livello di reanalisi (a chi piace vedersi una 500 o una 300 hPa di fine anni '800 sgarra assai poco; inevitabilmente peggio dagli 850 hPa in giù) che sono una cosa diversa dai climate models (la reanalisi ha sempre una componente deterministica). Tutto questo concerne il tema legato a dati su predeterminati e fissati periodi temporali (giorni; anomalie decadiche, etc). Su lag temporali ben più ampi, correlazioni, teleconnessioni, etc. occorre fare affidamento a modelli climatici (al limite i noti accoppiati atmosfera-oceano).
Ma la disquisizione riguarda le reanalisi, e per quelle, anche andando molto indietro nel tempo, l'affidabilità è sempre maggiore procedendo verso le quote superiori che non al suolo o in bassa troposfera (oggi), dando per assodato che in generale sono meno affidabili più si arretra temporalmente.
Per il resto non mi occupo particolarmente di teleconnessioni e quindi l'osservazione prescinde assolutamente dal lavoro che produrrete, che mi auguro abbia successo.


Segnalibri