Apro un 3d a parte perché desidero che venga letto da tutti. E’ una questione che io ritengo troppo importante e che, spero, possa risolvere l’eterno “battibecco” sulla performance dei modelli una volta per tutte. Mi rifaccio a questa risposta che mi ha dato Giuffrey (scusami se ti prendo come… cavia: a te il merito di aver sollevato il problema).
Giuseppe (e anche per tutti coloro che non ci pensano due volte a parlare della… Caporetto modellistica), se me lo permettete, desidererei farvi capire che l’approccio che la maggior parte di voi ha con i modelli è completamente sbagliato. La constatazione che entro pochi chilometri (ma quanti?) c’è molta differenza non è una novità per l’evoluzione del tempo, specie se si parla del tempo a casa nostra. Purtroppo (o forse per fortuna, perché è proprio questo che rende le nostre dinamiche atmosferiche veramente interessanti) il nostro Mediterraneo diventa un gran bel grattacapo per i centri di calcolo, in particolare quando hanno da simulare condizioni come un’irruzione di aria fredda: se poi questa irruzione è anche veloce (= maggiore turbolenza) allora si può provare ad immaginare che le cose saranno ancora un po’ più complicate.
Dire che a Roma invece di una -7 °C (a parte che il modello GFS che ho seguito io non si spingeva oltre una -5 °C) arriverà “se va bene” una -2 °C non significa nulla, sia perché saranno i radiosondaggi a dirci la verità sull’effettiva temperatura raggiunta a quella quota e sia per il semplice motivo che le simulazioni oscillano entro un range di densità di probabilità degli eventi, e quindi è impossibile che, di run in run, il modello dia sempre, sulla stessa città, lo stesso valore di temperatura a 850 o 500 hPa. Moltissime sono le variabili in gioco e, altrettanto numerose, sono le interdipendenze tra le variabili stesse. L’importante è che la simulazione non esca dal seminato (leggi ENS) e cioè continui a inquadrare, con i dovuti e gli opportuni aggiustamenti, la stessa dinamica: è questo fatto che conferisce al modello la cosiddetta predicibilità. Un modello che riesce ad inquadrare, con una settimana di anticipo un’irruzione di aria artica è un modello che da dato prova di sé. A dire se poi questa prova sarà discreta, buona o ottima, saranno i riscontri con le misure effettuate sul campo, e basta!
Sul fatto che i modelli non riusciranno a leggere bene le barriere anche questa non è una novità… e poi non è nemmeno vero: sarebbe meglio dire che i modelli non sono messi nelle condizioni di farlo. Più aumenta il passo di griglia del modello per conoscere meglio l’orografia, infatti, più aumentano i tempi di calcolo (e gli errori). Cosa significa? Che se avvii il processo di inizializzazione con i dati delle ore 00 e vuoi la previsione per le ore 06, con un passo di griglia migliore ma con le capacità informatiche attuali arriveresti ad avere il responso dopo l’ora di previsione che ti interessa. A cosa ti servirebbe? A buttare via ogni volta il lavoro fatto dal modello. Quindi… d’accordo a giudicare la bontà di una performance modellistica, ma atteniamoci a criteri di giudizio che sappiamo tenere in conto tutto quanto c’è da considerare, senza fermarci al chilometro o ai 3-4 °C di differenza a 500 hPa. Queste sono solo inezie del tutto trascurabili.
Mi auguro che quanto detto riesca a farvi cambiare approccio perché, vi assicuro, è avvilente aprire le pagine di un forum di meteorologia (non di elettronica o di… uncinetto) e vedere scritto, ad ogni occasione, “modelli discount, modelli schifezza” e giudizi simili. I modelli sono il nostro pane quotidiano: smettiamola di sputare sempre sul piatto dove mangiamo. A lungo andare viene la nausea.
Buona giornata
![]()
Segnalibri