Immagine WRF 0C-24hSnow (ita) - ARW by GFS
Mappa sull'Italia del modello WRF ARW (dati GFS) con l'altezza dello zero termico e l'accumulo nevoso nelle 24 ore precedenti l'orario indicato.
Video rubrica Tempo al Tempo

Il VIDEO-METEO del Capitano Sottocorona

Iscriviti al nostro canale Youtube!

Immagine Webcam - Foligno (Perugia)
Webcam presso la località di Foligno, provincia di Perugia (PG), regione Umbria
Immagine Webcam in Puglia
Una selezione delle webcam disponibili nella regione Puglia Gallipoli (LE)Martina Franca... Leggi tutto...
Immagine Ukmo 6h Prec (Wz)
Precipitazioni previste (con gli accumuli su 6 ore) dal modello inglese UKMO.
Immagine WRF Temp 850hPa Diff (centro-sud)
In questa mappa del modello WRF del Centro-Sud Italia, è rappresentata la differenza di... Leggi tutto...
Immagine Prossima settimana dai connotati invernali: prime analisi dell'evoluzione
Con l’ingresso del primo impulso di aria fredda entrato sulle nostre regioni... Leggi tutto...
Immagine Campania, Ottobre 2015: il respiro piovoso del Sud-Ovest
In questo ottobre 2015 molto piovoso in Campania, spiccano il settore tra l'alto salernitano e... Leggi tutto...

Le ultimissime dal Televideo RAI

Anteprima Televideo RAI

ESTREMI METEO OGGI. RETE LMT

Misurare il tempo meteorologico: il problema dell'uniformità dei dati

Misurare il tempo meteorologico: il problema dell'uniformità e omogeneizzazione dei dati

Classica rappresentazione dei dati meteoUna branca della meteorologia poco nota alla gente comune è l’omogeneizzazione dei dati, un lavoro molto complesso e delicato che ha il compito di validare qualsiasi dato meteorologico del passato (recente e remoto) e uniformarlo agli standard attuali.

Come è facile intuire, nel 1800 non esisteva proprio una scienza simile, né si ponevano le attenzioni necessarie su come effettuare misure. Per ricostruire con precisione il clima dei decenni (e secoli) scorsi bisogna ovviamente comparare le modalità di analisi dati dell’epoca e quelle di oggi (lo standard attuale è proposto qui).

Si tengano presenti le seguenti cose:
1) due secoli fa le stazioni meteorologiche erano in numero estremamente inferiore a oggi (ad esempio nel 1850 erano solo 8 in tutta Italia!)
2) la strumentazione dell’epoca era molto più carente rispetto a oggi: non esisteva il concetto di "stazione meteorologica", pertanto le misure consistevano in un termometro (a bulbo, non certo elettronico!), un pluviometro (manuale, non automatico!) e al più un barometro (ma non si usava l'hPa come unità di misura, ma i mmHg nati grazie all'invenzione di Torricelli)
3) termometri e pluviometri non avevano una taratura né una portata come gli strumenti odierni (non avevano, cioè, la precisione del decimo di grado o decimo di mm), pertanto le stime erano più grossolane e tutte visive (era infatti l’operatore a scegliere di scrivere 10.4 o 10.6°C, oppure scriveva semplicemente 10°C)
4) ultimo ma non ultimo, la meteorologia dell’epoca NON era affatto una scienza affidata a professionisti, bensì a semplici agricoltori o operatori, del tutto ignari di metodo scientifico, che venivano SALTUARIAMENTE a controllare i dati delle stazioni, soprattutto se fossero ubicate fuori dai centri urbani: non solo, questi utenti non venivano necessariamente tutti i giorni e non è detto che analizzassero con precisione la Tmin e la Tmax: loro, infatti, venivano in un orario prestabilito (dove ragionevolmente ma non sicuramente ci fossero le Tmin e Tmax) e segnavano il dato, così come non si svegliavano ogni notte che pioveva e svuotavano il pluviometro alle 23:59, ma lo facevano il giorno dopo, con possibili sovrastime che mai potremo analizzare con certezza.

Attualmente esistono diverse tecniche di omogeneizzazione dati: avviso subito che si tratta di modalità avanzate, studiare da veri e proprio professionisti del settore (matematici, fisici, ricercatori…) e pubblicate nei più approfonditi saggi scientifici. In altre parole, questo è un compito per scienziati che hanno una profonda conoscenza matematica; cito a tal proposito la mia "bibbia" in materia, l’opera monumentale "Wilks - Statistical methods in the atmospheric sciences", un saggio di 600 pagine che approfondisce in maniera davvero esaustiva e tecnica tutta la scienza dell'omogeneizzazione dati della climatologia statistica.

I problemi principali che sorgono nell'omogeneizzazione dati sono i seguenti:
1) Spostamento della stazione meteo (anche di pochi metri!)
2) Costruzione nei paraggi di edifici di qualsiasi tipo, cementificazione e rivalutazione terreni (compresa la nascita di fusti arborei e piante nelle strette vicinanze della stazione)
3) Traslazione della stazione meteo in un comune successivamente inglobato in un altro comune
4) Comparazione tra diverse unità di misura di temperature, precipitazioni, pressione, ecc...
5) Anni dove i dati sono incompatibili (es. 100 mm a Milano e 5 a Pavia in inverno è plausibile? No! E come si agisce? Si validano i dati o no? E il mese o l'anno sono regolari o no? Sono tutti problemi frequenti)
6) Anni o decenni dove i dati sono mancanti oppure dove sono marcati errori di trascrizione (35°C ad Aprile? Non è più probabile che siano 25°C? Cosa teniamo? 35 o 25? La media cambia!)

I problemi principali di validazione dati vengono in parte risolti con la tecnica dell'interpolazione punti tra stazioni, della media pesata, del Test di Craddock, dell’indice di Correlazione di Pearson, dell’analisi taratura e bontà dei dati delle singole stazioni, ecc... Un altro problema possibile è la validità di un eventuale dato pluviometrico con errori di trascrizione: se ad esempio a Milano sono piovuti 100 mm in un determinato giorno e a Pavia ne sono caduti 10 è ragionevolmente un errore se siamo in inverno (possibile errore di trascrizione), mentre non possiamo dire nulla se siamo in estate, infatti è capitato in diverse occasioni che questi cumulati potessero essere reali. In altri anni, invece, è capitato di non avere alcun dato per 30 giorni e il 31º giorno di registrare 75 mm: questo è il cosiddetto errore da cumulato, poiché l'operatore non è mai venuto a svuotare il pluviometro per l'intero mese e ha trascritto solo il valore totale mensile.

Come è facile capire, non potremo mai sapere come sono stati distribuiti questi accumuli, ma soltanto che quel particolare mese ha avuto un valore complessivo di 75 mm: ciò è utile ai fini statistici per quanto riguarda gli accumuli annuali e mensili, ma ovviamente non per quelli giornalieri, infatti nulla ci toglie che quei 75 mm potessero essere distribuiti in 15 giorni di pioggia oppure tutti caduti in due ore di violento nubifragio. Questo problema è di ordine maggiore se attorno alla stazione considerata non ce ne siano altre nel raggio di decine di km: ad inizio '800, come detto sopra, le stazioni meteo italiane erano meno di una decina e la tecnica della correzione da interpolazione con altre stazioni non è plausibile (Milano e Torino possono avere termiche e accumuli mensili ben diversi, anche nello stesso mese!): in questo caso gli anni meteorologici sono affetti da errori piuttosto grossolani.

Infine un altro problema: come erano disposti i termometri? C’è una differenza di taratura tra bulbo ed elettronico (infatti ci sono opportuni coefficienti correttivi), ma NULLA POSSIAMO FARE in caso di termometro esposto al sole, non ci sono tecniche scientifiche univoche che permettano di analizzare la sovrastima sicura. In questi casi si utilizza un metodo di omogeneizzazione a lungo range, ovvero si fa una media annuale della stazione e successivamente si calcola la media con i coefficienti matematici correttivi. In poche parole riusciamo -con ragionevole sicurezza- a calcolare con precisione se quell'anno (ad es. il 1827) sia stato più caldo o freddo rispetto alla media 1981-2010, ma non sapremo mai se si sono battuti record termici giornalieri.

È facile capire che, alla luce di questi problemi esposti nel mio articolo, la ricostruzione climatica dei secoli passati è alquanto problematica ed è quasi impossibile dare stime precise: la validazione dei dati dei primi decenni del 1800 ha portato a notevoli approssimazioni, soprattutto sui valori pluviometrici (meno quelli termici perché l’errore tra la lettura dell’orario compatibile della temperatura massima e la massima effettiva è di pochi decimi di °C): vi sono stati anni, infatti, dove l’incertezza pluviometrica raggiunge il 10% (sovra o sottostima di 80 mm su una media di 900 non è raro…).

Allora il riscaldamento del pianeta è solo una ipotesi? NO: il riscaldamento globale (e italiano) c’è ed è INEQUIVOCABILE, anche con queste tecniche, non sappiamo quantificare con precisione al millesimo di grado (come si fa oggi), ma comunque, nonostante le incertezze più o meno grossolane, pare ragionevole la sicurezza che il riscaldamento globale sia presente dal 1800 a oggi.

Per concludere, il riscaldamento globale si basa su stime e dati DECENNALI E/O SECOLARI E NON SUI SINGOLI ANNI: le ondate di calore sono sempre esistite, ma in misura minore rispetto agli ultimi decenni e lo stesso vale all'inverso per l’inverno. Nell'articolo che ha messo di fronte i riscaldamenti delle stagioni estive ed invernali, ho mostrato gli inverni più caldi ed è comparso il 1899, un inverno estremamente mite e secco che ha detenuto il record trimestrale per settant'anni: quello però fu un caso ISOLATO e NON si può parlare di cambiamento climatico, sebbene abbia record imbattuti a distanza di 120 anni! Si parla di cambiamento climatico se c’è un numero ragionevole di anni con un marcato aumento termico, fatto DIMOSTRATO a partire dagli anni ’70 e ’80.

Davide Santini


Stampa