Pubblico anche in questo forum un mio piccolo lavoro amatoriale che vuole contribuire alla riflessione ed aprire al dialogo circa questioni che ancora tutt'oggi vengono affrontate, anche con il nulla osta del WMO, in via meramente convenzionale. E mi riferisco all'utilizzo del periodo trentennale di riferimento e della relativa media trentennale ai fini della definizione di normalità climatica (Cli.no.). Non soddisfatto di questa impostazione dogmatica ho voluto mettere nero su bianco il modello teorico che da alcuni anni ho nella testa circa le questioni di cui all'oggetto.

Il documento è quasi interamente redatto affrontando i ragionamenti in via descrittiva e rimanda a due appendici finali l'approfondimento metodologico adottato nel caso specifico dell'esempio proposto e l'illustrazione in estrema sintesi della metodologia inferenziale che è alla base del costrutto teorico complessivo. Mi rendo perfettamente conto che il documento potrà apparire in certi aspetti noioso e tecnico ma credetemi che ho cercato di fare il possibile per renderlo intellegibile a tutti rimandando appunto alle appendici per gli approfondimenti del caso.

Tenete sempre presente che non possiedo i titoli per approcciare a questioni climatologiche in modo professionale pertanto il presente lavoro rimane confinato all'ambito della passione meteorologica, climatologica e soprattutto statistica che mi appartiene, nella speranza di non aver scritto troppe cavolate


Che altro dire (oltre ad augurarvi una buona lettura) ... come avrete modo di comprendere dalla lettura, il modello teorico presentato rappresenta, evidentemente, una primissima astrazione costruita su delle basi di natura inferenziale che si prestano a sviluppi successivi maggiormente complessi e notevolmente più “robusti” dal punto di vista statistico.

In particolare, quando si parla di campioni statistici, non si può sottovalutare l’aspetto riguardante il concetto d’indipendenza. Un campione, per essere definito tale, deve essere realizzato in modo del tutto casuale e anche gli elementi (osservazioni) che lo compongono devono essere gli uni indipendenti dagli altri. Pertanto, quando si definisce il periodo trentennale, una singola osservazione climatica, cioè campione di uno stato climatico, devono essere soddisfatte le seguenti assunzioni teoriche:

1) il blocco trentennale deve essere un sottoinsieme casuale dello stato climatico di riferimento e, per essere tale

2) deve essere formato da singole osservazioni tra di loro indipendenti

Nella realtà accade sovente che nel corso dei trent’anni di osservazione climatica la variabilità del tempo atmosferico faccia degli scherzetti che statisticamente possono risultare sgraditi. Se esiste una certa persistenza in determinati fattori climatici, e così è, allora il fatto di osservare eventi temporalmente consecutivi, in successione, che presentano una certa somiglianza non è poi così improbabile e questo fattore di autocorrelazione seriale mina sia l’indipendenza delle singole osservazioni sia la casualità stessa del campione. Ciò comporta che le procedure inferenziali adottate in questo contesto non presentano quel grado di potenza che generalmente è loro attribuito nello stimare parametri e testare la validità di certe ipotesi.

Semplificare la questione trattando come teoricamente casuale un campione che potrebbe non esserlo nella realtà, può produrre delle distorsioni e alterazioni nei valori stimati che in prima istanza possono essere considerate accettabili data l’utilità pratica nel supporre vere queste assunzioni ai fini di una modellazione generale del problema oggetto di studio, nello specifico la definizione di clima e del concetto derivato di normalità climatica. E’ del tutto evidente che la questione deve essere comunque ripresa per affinare il costrutto teorico sulla base della violazione delle ipotesi citate. E questo può avvenire, ad esempio, attraverso le tecniche statistiche del ricampionamento (bootstrap) che permettono essenzialmente di superare i limiti di un approccio parametrico (basato su determinate assunzioni) verso un approccio di tipo non parametrico (basato sull'assenza di tale assunzioni).

La tecnica del ricampionamento, tra l’altro, permette anche di superare un ulteriore limite/assunzione che è alla base delle tecniche inferenziali adottate nello studio, la normalità della distribuzione di probabilità della popolazione. In climatologia, con riferimento alla temperatura dell’aria, è spesso conveniente accettare che la distribuzione di frequenza/probabilità di tale variabile approssima una gaussiana. Quest’assunzione è ritenuta vera ma personalmente ritengo opportuno ritenerla piuttosto verosimile. Poiché possiamo affermare che il campo termico si distribuisce normalmente esclusivamente in funzione dell’osservazione di campioni (trentenni, cinquantenni, secoli di osservazioni) non possiamo eliminare “tout court” la presenza di un grado d’indeterminazione nell'affermare questo fatto. In sostanza, in riferimento alla popolazione, il campo termico approssima una gaussiana . Lato pratico, vista la conferma proveniente dai dati empirici, è conveniente accettare come vera l’assunzione poiché questa caratteristica agevola enormemente nell'applicazione pratica l’utilizzo delle tecniche statistiche di riferimento, esiste cioè un’utilità pratica a questa semplificazione. La tecnica del ricampionamento non richiede la verità dell’assunzione della normalità della popolazione di riferimento.

Infine, nell'analisi delle serie storiche, le procedure inferenziale richiedono anche la stazionarietà della serie in varianza (omoschedasticità) che in presenza di trend lineare è facilmente violata. Anche in questo caso metodologie di tipo non parametrico possono venire in aiuto per approcciare in modo maggiormente corretto le questioni riguardanti le problematiche climatiche, anche quelle analizzate nello studio.

Tutto questo per dire che l'analisi statistica dei dati climatologici è cosa complessa già a partire dalla questione base di tutta la statistica climatologica, il concetto di clima e normalità climatica. Quando il grado di approfondimento delle analisi si complica, ad esempio nella stima di un trend, nella quantificazione di una correlazione, nella modellazione di una relazione tra variabili, ecc ..., queste problematiche si amplificano dal momento che l'utilizzo che viene fatto di queste analisi non è esclusivamente descrittivo, di spiegazione delle dinamiche sottostanti, ma anche di tipo previsionale, e qui son dolori se le assunzioni di base sono sistematicamente violate.