Certo, si parla sempre di ipotesi multifattoriale; anzichè parlare di "rumore naturale" qui si parla di cause naturali, in cui la co2 interviene gradualmente nella scena. In un certo senso sto proponendo uno scenario che è inferiore certamente alle stime dell'IPCC (che se non erro danno una valutazione di circa 2-3 °C di sensibilità climatica), ma anche inferiore alle stime che lo stesso modello fornisce quando funziona con tutti i dati. Questo perchè il modello che io utilizzo (la regressione lineare) tende per sua natura a sovrastimare i trend lineari. Quindi se il modello simula altrettanto bene l'andamento delle temperature a partire dal 1950, reputo più attendibile il modello che in base alle stime fornite per il periodo 1850-1950 (quei numeretti accanto al nome della variabile) ricostruisce i dati fino al 2040...spero di esser stato comprensibile!
si tratta solo di un ipotesi naturalmente.
Quanto alla CO2, l'effetto è previsto ovviamente in salita, magari fossimo così saggi da far rimanere il livello costante da qui in poi!
A inizio TD si vede come è modellizzato l'effetto con la sola CO2...
quindi senza la CO2 ora la T globale diminuirebbe abbastanza e si porterebbe in uno o due decenni su valori anteriori al 1980...questo si vede bene nel trend in grigetto dove sono riportati solo gli effetti naturali...
Approccio interessante: in poche parole propendi per un ruolo più marginale della CO2, non nel senso che sia insignificante, ma che è secondario rispetto ai fattori naturali. L'esatto opposto a quanto propone l'IPCC.
Per cui, dimmi se ho capito bene, la stima che fai della sensibilità climatica per raddoppio della CO2 è corretta anche rispetto al trend della regressione lineare che già di suo tende a sovrastimare?
Non tanto secondario, se vedi i valori dei coefficienti diventa quello più alto nella serie completa. Anche ammettendo una sensibilità come quella prospettata in simulazione, sarebbe ancora uno degli effetti maggiori attualmente. Considera che comunque il suo ruolo tende ad aumentare col tempo, anche se progressivamente la banda di assorbimento tenderà a saturarsi. Quindi non proprio l'esatto opposto, ma un forte ridimensionamento rispetto alla visione catastrofista di molti dell'IPCC. Bisogna poi considerare che secondo il modello gli effetti naturali maschereranno nei prossimi decenni quello della CO2, ergo la previsione non è così ottimistica. Nel momento in cui l'attività solare e altre forzanti volgeranno verso un aumento della T, allora l'effetto di questi si sommerà alla CO2 e potremmo avere per la seconda parte di questo secolo un improvvisa impennata delle temperature. Quindi meglio non dormire sugli allori e prendere subito le giuste precauzioni. Se vedi la forbice tra forzanti naturali e forzanti naturali+co2, questa aumenta piuttosto rapidamente...
Sì, intendevo che mentre l'IPCC praticamente afferma che il 100% del riscaldamento occorso negli ultimi secoli sia legato alla CO2, tu ritieni che il suo peso sia stato secondario (naturalmente più ne produciamo, più il suo effetto aumenta). Per cui non conta il 100%, non ancora almeno (ma una percentuale di gran lunga inferiore, anche se come dicevo più ne viene emessa più questa percentuale aumenta).
Con ENSO non dovrebbero esserci problemi, sono gli andamenti ciclici di lungo periodo che sono più difficili da stimare, in questo caso in particolare l'AMO su alcuni sottoperiodi non è stazionaria. L'attività solare e anche la serie mareale sono serie non stazionarie con andamenti che presentano relativamente poca variabilità di breve termine, quindi su periodi brevi possono facilmente avere andamenti simili tra loro o simili alla CO2.
Nel momento in cui si usa una regressione lineare per stimare un trend (ed è questo che stiamo cercando di fare) gli effetti delle variabili non stazionarie sono molto difficili da valutare, bisogna prestare molta attenzione alla specificazione e alla diagnostica. I dati più recenti sono particolarmente significativi perché una sola variabile mostra un trend crescente mentre le altre si appiattiscono o tendono a scendere, quindi si introduce una maggiore differenziazione tra le tre variabili (ci ritornerò su in un post successivo)
Questo è assolutamente normale, se una variabile è periodica e l'altra ha una correlazione a lag 0 o poco più (come in questo caso) ti usciranno anche delle correlazioni spurie in corrispondenza di ogni frequenza in cui la funzione di autocorrelazione della variabile mareale è diversa da zero, se vuoi puoi controllare. Da quel grafico mi sembra una relaziona abbastanza netta, sarebbe interessante vedere in termini di previsione come funziona prendendo come lag il primo massimo del correlogramma dopo lo zero.
Sul ragionamento generale sono d'accordo, però la simulazione ha un grosso difetto, se ti calcoli i residui dovrebbe essere piuttosto evidente che c'è un trend nei residui, ovvero la serie simulata ha un trend inferiore a quella reale. Ciò significa che il modello simulato sottostima il trend e le stime probabilmente sono distorte. A livello diagnostico avere un trend nei residui è piuttosto grave, in questo caso la soluzione più logica è che sia sottostimato il parametro della CO2. Se non ti fidi del mio occhio puoi provare a vedere quei residui quanto sono correlati con la serie completa della CO2.
Riguardo alla critica sempre molto costruttiva di snowholic, relativamente al fatto che sarebbe meglio far lavorare il modello con tutti i dati per la stima della CO2, posto qui anche il plot con tutti i dati inseriti e confrontato con l’andamento simulato a partire dal 1950 in poi e infine con il trend simulato senza CO2 definito come “natural” (in tutto sono 3 equazioni)…
Allegato 508120
Come si vede, nei modelli con la CO2 c’è una differenza tra plot simulato dal 1950 e plot con tutta la serie. Snowholic suggerisce di considerare solo quello con tutta la serie. Io dal canto mio mi sento più tranquillo con anche la simulazione.
Possono essere di aiuto anche altre diagnostiche statistiche ma per mia esperienza la miglior garanzia è la simulazione… ho sempre lavorato così…anzi, gli "svarioni" che ho preso in passato lavorando con tutti i dati non si contano!
Detto questo, è possibile che le stime, specie per la CO2 partendo dagli anni 50 siano “ballerine”, ma è anche vero che non conta tanto la stima della CO2 in se, quanto piuttosto (AL NETTO degli effetti naturali) se un certo tasso di CO2 riesca a spiegare adeguatamente “il disavanzo”. E qui si vede che lo fa egregiamente, guardate come gradualmente aumenta la forbice tra effetti con CO2 ed effetti "naturali"... Al limite insomma, si potrebbero anche considerare solo gli effetti naturali in periodi “non sospetti” e vedere per difetto quanto è effettivamente il gap causato dall’effetto antropico lungo la serie storica simulata.
Proprio quella forbice tra gli effetti tipo CO2 e quelli naturali fornisce un ottimo test, nei prossimi anni potrebbe esserci una forte divergenza tra la simulazione e i dati reali se l'effetto antropico è sottostimato. L'aspetto cruciale per cui ritengo molto importanti gli ultimi dati è proprio questo divario crescente tra forzanti naturali e antropiche, che consente di migliorare molto le stime grazie ad una riduzione della collinearità. Questo fenomeno sarà amplificato nei prossimi anni ma è già presente nei dati fino ad oggi, secondo me è sbagliato non approfittarne. Ma ne possiamo riparlare tra 3-4 anni
Se metti una componente integrata nel modello ARIMA il trend viene spiegato con quello, ovvio che venga meno la CO2 che ha pochissima variabilità di breve periodo.
L’altra questione è che essendo la CO2 una variabile non stazionaria, c’è il rischio di avere un modello “super-confidente” rispetto alle reali incertezze che scaturiscono proprio dalla non stazionarietà. Al punto che se io provo a fare un modello ARIMA “automatico” che utilizza vari algoritmi, questo sceglie i predittori più “solidi”, mentre la CO2 viene del tutto scartata! Sembra un paradosso ma è così…E’ chiaro che comunque noi ci affidiamo anche alla fisica e quindi in questo caso dovremmo ragionevolmente tenere in conto un suo effetto.
Con un modello di questo tipo noi stiamo valutando la sensibilità climatica di breve periodo, non quella di equilibrio. L'inerzia termica degli oceani nel breve periodo rallenta il riscaldamento e quindi serve un periodo di assestamento di alcuni millenni prima di osservare l'intero effetto di una variazione delle concentrazioni.
Ad ogni modo, il punto centrale è che si vede che a seconda di come vengano trattati i dati varia molto la sensibilità per un raddoppio di CO2. Con la simulazione siamo a +0.65 mentre con tutta la serie la stima sale a +1.17. Naturalmente stiamo parlando dell’ipotesi AMOC, che in effetti abbassa leggermente le stime (utilizzando tutti i dati la sensibilità è +1.26 nel caso dell’ipotesi “classica”). D’altra parte abbiamo visto nei precedenti post come il miglior modello, seppur di poco, sia in effetti proprio quello basato sull’ipotesi AMOC. Nulla di certo, è solo una possibile ipotesi che comunque sembra lavorare benino.
Una parola sul valore molto basso di sensibilità climatica di +0.65 ottenuto con la simulazione:
Qui stiamo parlando dell’effetto antropico in toto, dunque è probabile che altri effetti (inquinamento da solfati in primis) tendano a “silenziare” almeno in parte l’effetto della CO2 come forzante in se e per se. Ne combiniamo talmente tante su questo pianeta che è facile che la risultante dell’effetto antropico non sia solo il puro riscaldamento (e questo ce lo dicono anche le stime e le incertezze fornite dall’IPCC). Infatti, riguardo alla differenza tra la simulazione dagli anni 50 e la stima ottenuta con tutti i dati, può anche darsi che in passato ci sia stato un maggior contributo dei solfati rispetto ad oggi e che questo al netto possa giustificare la differenza nel grado di sensibilità. Mia modesta opinione, credo soprattutto ad un problema di eccessivo aggiustamento della serie per minimizzare gli scarti quadratici (così funziona un modello lineare) più che ad un reale cambiamento nel tipo di emissioni antropiche, sicchè con tutti i dati potrebbe venire un pò sovrastimato l'effetto della CO2.
Considerando le incertezze che ci sono anche nella ricostruzione dei valori di temperatura del passato, leggeri scostamenti nella simulazione sono forse anche fisiologici e dunque sarebbe meglio non “forzare” il modello per ottimizzare il fit. Del resto, come si può vedere (linea verde) l’andamento complessivo viene più che bene anche nella simulazione…
Malgrado questo, sembra che comunque la TSI, almeno in base a queste ricostruzioni, dia qualche problemino di sovrastima delle T nel periodo ‘50-90…
...non è che niente niente la “forzante” solare operi soprattutto attraverso qualche altro fattore o meccanismo?
Ma questo lo vedremo nella prossima puntata!
Secondo l'IPCC questa sensibilità dovrebbe essere di tra 1 °C and 2.5 °C, quindi la stima sui dati completi è nella parte bassa del range mentre quella con i dati fino al 1950 è un po' sotto ma non tantissimo, corrisponderebbe ad una sensibilità di equilibrio poco sopra un grado (l'intervallo IPCC è di 1,5-4,5 per questa sensibilità).
P.S. Scusate se sono incomprensibile, è difficile comunicare aspetti tecnici come quelli che stiamo discutendo in maniera sintetica. Se servono spiegazioni basta chiedere.
Ultima modifica di snowaholic; 21/06/2019 alle 20:05
Ecco, ne approfitto io.
Copernicus e tu parlate spesso di lag, che sarebbero i ritardi. Si intende cioè che gli effetti sul clima di una data variabile si manifestano con dei ritardi di n anni rispetto al momento in cui la variabile si esplica e cambia?
Inoltre che si intende con correlazione spurie?
Grazie già in anticipo
Segnalibri