Ultima modifica di jonioblu; 26/02/2010 alle 10:34
jonioblu
Davvero corposo, ci vorrà un po' per capirlo tutto, però è datato 2007, avevo l'impressione che Giuliacci si riferisse a qualche novità più recente, dato che se ne è parlato diffusamente anche dopo. come qui:
Il Kyoto fisso: Un clima figlio delle stelle?
Marco Pifferetti Albinea - Reggio E.
http://marcopifferetti.altervista.org/index.htm
Infatti l'attività solare dovrebbe aver raggiunto il max negli anni '80-'90, di lì in poi è sceso il solar flux e le SSN mensili, così come il vento solare. Inoltre il minimo del ciclo 23 sopratutto ( e quindi le SSN sono per dire "gonfiati" rispetto al passato e i spotless days di converso "sottostimati" ) e dei cicli immediatamente precedenti ad esso sono "sottostimati" , in quanto vengono usati telescopi molto più potenti di quelli di 100 anni fa ( e a maggior ragione del secolo precedente 1800) che hanno reso le modalità di calcolo non del tutto confrontabili nel tempo.![]()
Ultima modifica di domenicix; 26/02/2010 alle 16:07
Chiedo scusa per l'errore sulla immagine che cambierò quanto prima.
Comunque 2 osservazioni:
1. la giusta figura (la TCDCLcl, e non, come da me inserito per svista, la TCDChcl)) dell'andamento della nuvolosità bassa è ancora più eloquente. Mostra un primo modesto incremento (0.8%) tra il 1975 e il 1990 ( probabilmente quando gli effetti convettivi del GW hanno predominato su altre cause) e poi un più forte aumento dal 1995 ad oggi ( + 2%);
2. I dati di nuvolosità della reanalisi della NOAA sono da prendere con le pinze? Ebbene l’errore potrebbe riguardare i valori assoluti e non quelli relativi. Insomma è difficile credere che un trend in salita possa essere in realtà.. un trend stazionario o, peggio che mai, in discesa!
Ricevere anche solo un piccolo riconoscimento da una persona esperta di meteo e clima come te è un vero grande onore per me inesperto, infatti negli ultimi anni quando vedevo i tuoi interventi sul forum li seguivo sempre attentamente e ti ringraziavo in cuor mio delle informazioni che ricevevo, così come quelle dei maggiori esperti qui presenti come 4cast, Remigio Zago, Lorenzo Catania, Gravin, Montel NA, Massimo Bassini e scusatemi perche' ometto di sicuro alcuni altri.
Ritornando al tema del topic, volevo aggiungere che negli ultimi decenni sono aumentati anche di numero gli osservatori astronomici del Sole (NOAA e SIDC) e quindi con più "occhi" è più facile vedere le macchie solari e ridurre inoltre la limitazione della copertura nuvolosa sulla Terra che influisce sulla osservazione delle macchie stesse.
Ciao![]()
Ultima modifica di domenicix; 26/02/2010 alle 19:37
Credo che non sia proprio il caso di guardare quel grafico delle low clouds, aldilà dei problemi di discontinuità comuni a molti parametri delle reanalisi NCEP/NCAR ( meno per reanalisi più avanzate come le ERA e le MERRA della NASA) soprattutto perchè il NOAA stesso dice che questi parametri sono inutili se non per calcolare la copertura nuvolosa totale:
NCEP/NCAR Reanalysis problems list
Un lavoro interessante che descrive in generale i limiti degli attuali dataset sulla copertura nuvolosa è quello di Norris/Slingo del 2009, un punto che è ricorrente per molti sistemi di misura comprese le MSU e le radiosonde è questo:
- High, Middle and Low Clouds.Summary: Do not use the high/middle/low cloud fractions except for calculating the total cloud fraction. (Since the total cloud fraction is a standard output, it is best not to use the high/middle/low cloud fractions.) The clouds as seen by the radiation codes are not available which is an oversight on our part.
Background: Historically the MRF model saved cloud data for high, middle and low clouds. One could then assume the clouds had random overlap to get the total cloud fraction (CF).
total CF = 1 - (1 - high CF) * (1 - middle CF) * (1 - low CF)
"random cloud overlap"
The Reanalysis model recognizes two basic types of clouds, convective and RH. The convective clouds are based on the convective parameterizations and the RH clouds occur when the RH exceeds a critical value. While the cloud cover from RH clouds can be modeled as "random overlap", the convective clouds are better modeled as "maximum overlap". (At least that is how the radiation code works.) Unfortunately this change occurred before NCEP moved to grib output. At that time, changing the binary output files was a hanging offense. Imagine changing the binary files and suddenly all the code that read those files suddenly failed. In addition, any new code would be incompatible with the old binary files. Since the total cloud cover is the most commonly used diagnostic, the high/middle/low cloud fractions were redefined so that a random overlap would produce the approximate total cloud cover as seen by the radiation code. The redefinition is
low_CF = low_CF_RH if no convective clouds
= 0.80 * (low_CF_RH + low_CF_cn - low_CF_RH*low_CF_cn)
mid_CF = mid_CF_RH if no convective clouds
= 0.35 * (mid_CF_RH + mid_CF_cn - mid_CF_RH*mid_CF_cn)
high_CF = high_CF_RH if no convective clouds
= 0.35 * (high_CF_RH + high_CF_cn - high_CF_RH*high_CF_cn)
CF_RH = cloud fraction from large-scale clouds
CF_cn = cloud from from convective clouds
As you can see from the redefinition, the CF shows a large discontinuity depending on whether convective clouds are present. In addition, a deep convective cloud would show up as a combination of deep and shallow clouds. This makes the the high/middle/low CF useless EXCEPT for calculating the total cloud fraction. The total cloud fraction computed as above is the only cloud data that CDC is distributing.
http://meteora.ucsd.edu/~jnorris/reprints/02_Norris_and_Slingo.pdfProblems include the lack of global and quantitative surface measurements, the shortness of the available satellite record, the inability to determine correctly cloud and aerosol properties from satellite data, many different kinds of inhomogeneities in the data, and insufficient precision to measure the small changes in cloudiness and radiation that nevertheless can have large impacts on the Earth’s climate. Many of these deficiencies emerge from the absence of an observing system designed to monitor variations in clouds and radiation on timescales relevant to climate; to compensate, observations must be assembled from a system originally designed for purposes of weather forecasting.
I sistemi di misura in genere sono stati creati per l'osservazione meteorologica piuttosto che per determinare i trend climatici di lungo termine, questo comporta la necessità di apportare numerose correzioni ed intercalibrazioni all'introduzione di nuovi sistemi di misura da cui le frequenti correzioni e problemi con questi dataset.
Ultima modifica di elz; 26/02/2010 alle 19:14
Grazie per la precisazione, però non sono daccordo con i due punti per quanto riportato nel messaggio sopra che ho scritto prima di leggere questo intervento, i dati dell'ISCCP per le low clouds sono in discesa sul medio/lungo termine(ma aggiornati solo al Giugno 2008) e comunque a loro volta non poco discussi nella determinazione dei trend di lungo termine per i motivi esposti sopra ad esempio nel lavoro di Norris/Slingo
http://isccp.giss.nasa.gov/climanal7.html
Ultima modifica di elz; 26/02/2010 alle 19:14
Resta il fatto che gran parte del warming avvenuto negli ultimi decenni può ragionevolmente essere attribuito alle nubi basse in calo. Se gli ultimi dati fossero in qualche modo confermati, e se il nuovo livello raggiunto si consolidasse, allora avremmo necessariamente un calo delle T globali...
in ogni caso il grafico del noaa (se è giusto!) è in contraddizone netta con quello dell'isccp secondo il quale si avrebbe una diminuzione delle nubi basse più o meno costante dall'83 ad oggi...
![]()
Segnalibri