MeTeo72 ha centrato il punto. Come descrive bene l'articolo di Science Just a moment...
nella fase di training, il modello ha confrontato 39 anni di previsioni con i valori effettivi misurati estrapolando le statistiche, veramente come fa l'appassionato quando prende una previsione a 5 gg che dà neve al piano e poi a Milano splende il sole oppure confronta una carta di un run odierno con una che gli sembra analoga presa da una situazione di qualche anno prima. Solo che l'AI lo fa in background, in modo veloce, e macinando dati a ritmi impossibili. Rispetto ad un modello classico che applica le leggi della fisica per calcolare l'evoluzione dallo stato iniziale, è praticamente l'opposto: si studia la soluzione per ricostruire l'evoluzione.
Sempre da Science si può scaricare tutto il "paper" con materiale addizionale
Just a moment...
Non penso che questo approccio sostituirà l'altro, ma la l'unione dei due potrebbe ridurre la divergenza tra previsioni e stato reale, soprattutto quando ci sono di mezzo fenomeni estremi.
jupiter
Fattibile, già i 20 anni di questo forum sono una discreta base di dati...
Tornando più seri, non mi aspetto performance molto superiori al deterministico ( a parte stimare molto meglio la affidabilità previsione e magari sul long offrire più scenari con differente probabilità) ma è interessante anche solo dal punto di vista teorico.
Mancano sempre però i dati futuri facciamo sempre analisi sulle basi di ciò che è stato medie e quant'altro, nessuno potrà mai sapere come i cambiamenti modifichreanno le condizioni iniziali di calcolo, perché deve ancora avvenire
Inviato dal mio SM-A307FN utilizzando Tapatalk
L'AI di GraphCast deve aver pianificato un attacco ad ECMWF impedendogli di uscire stasera.
E' l'unica..
Non c'è paragone in termini di potenza di calcolo, potresti farla sul PC di casa praticamente.
La parte pesante dal punto di vista computazionale è il training, che però andrebbe fatta solo per aggiornare il modello.
Però la fase di acquisizione dei dati e inizializzazione resta la stessa, quindi in termini di tempi sulla singola emissione rimane qualche ora non comprimibile a partire dall'orario di inizializzazione, anche se la fase di calcolo verrebbe tagliata drasticamente.
Nell'articolo di presentazione google parla di un minuto per la fase di calcolo sul loro computer dedicato.
Molto interessante, è in qualche modo la naturale evoluzione del vecchio "scan back & roll forward" già operativo da molti anni al NOAA:
Climate Prediction Center - Upper Air Tools
Climate Prediction Center - 8 to 14 Day Analogs
Dottorando in Polar Sciences - Il mio libro su Amazon: L'apocalisse climatica del 536
Estremi termici dal 1774: -18.6° (1985) / +38.1° (2003)
Il mio sito e la mia stazione meteo: http://meteopsn.altervista.org/index.html
Questa è un'obiezione che ho concepito anch'io, ma la risposta è che il modello è addestrato anche sulla base delle reanalisi recenti, e potrebbe essere implementata nell'algoritmo l'esecuzione di analisi statistiche specifiche per le reanalisi degli ultimissimi anni.
Per fare un esempio: un evento che fino al 2010, con le medie 1981-2010 e la varianza del tempo, aveva la probabilità di avvenire del 20%, potrebbe essere ricalcolato focalizzandosi sulle medie e sulla varianza degli ultimi 10 anni, restituendo così una probabilità che oggi avvenga del 40%. In questo modo miglioreresti di molto la chance di prevedere determinati eventi sulla base di quelli che sono i dati più recenti.
Non sarà mai qualcosa di completo e definitivo, perchè il clima è in mutamento, ma permetterebbe di migliorare le stime sensibilmente.
Segnalibri