Citazione Originariamente Scritto da burian br Visualizza Messaggio
Questa è un'obiezione che ho concepito anch'io, ma la risposta è che il modello è addestrato anche sulla base delle reanalisi recenti, e potrebbe essere implementata nell'algoritmo l'esecuzione di analisi statistiche specifiche per le reanalisi degli ultimissimi anni.
Per fare un esempio: un evento che fino al 2010, con le medie 1981-2010 e la varianza del tempo, aveva la probabilità di avvenire del 20%, potrebbe essere ricalcolato focalizzandosi sulle medie e sulla varianza degli ultimi 10 anni, restituendo così una probabilità che oggi avvenga del 40%. In questo modo miglioreresti di molto la chance di prevedere determinati eventi sulla base di quelli che sono i dati più recenti.
Non sarà mai qualcosa di completo e definitivo, perchè il clima è in mutamento, ma permetterebbe di migliorare le stime sensibilmente.
Premesso che questi modelli sono di difficile interpretazione, sostanzialmente sono blackbox in cui non si capisce come e perché producano un determinato risultato, in linea teorica dovrebbe tenere conto degli effetti del riscaldamento globale anche se non viene esplicitamente tenuto in considerazione nella modellizzazione. Avendo a disposizione nel training set anni con un bilancio termico molto diverso, il modello può imparare le differenze sia a livello termico sia circolatorio tra gli anni più caldi e meno caldi e applicarle alle previsioni in base al tipo di inizializzazione che viene fornita.

In pratica, nel momento in cui riceve uno stato iniziale come input, il GW sarà implicitamente già presente nel livello termico medio di partenza del run e il modello si comporterà di conseguenza.


Se come penso questa interpretazione è corretta, basterà continuare ad aggiornare il dataset di addestramento per evitare che il modello si ritrovi ad operare in condizioni troppo lontane da quelle di addestramento, senza che servano ulteriori correttivi.