Notizie e approfondimenti sul clima che cambiaPosts RSS Comments RSS

Archive for Febbraio, 2009

Per un dialogo corretto fra scienza e decisori politici: no ai convegni sul clima senza climatologi

Nonostante l’ormai schiacciante evidenza scientifica sulla rilevanza del problema dei cambiamenti climatici e sulle responsabilità umane e senza curarsi del fecondo e aperto dibattito che anima ormai da tempo le migliori università di tutto il mondo, fra cui Stanford, Princeton e Berkeley, su costi e benefici della lotta contro i cambiamenti climatici, in Italia continuano a fiorire le occasioni pubbliche e gli articoli della stampa con cui si cerca di mettere in discussione l’esistenza del riscaldamento del pianeta, il ruolo delle attività umane o la convenienza di azioni di mitigazione.

Ultima in ordine di tempo è stata la notizia (falsa), apparsa a gennaio su molti quotidiani nazionali, di una fase di forte espansione della calotta polare e dei ghiacci alpini. Nonostante l’inconsistenza di queste notizie emerga di solito dopo pochi giorni, preoccupa come queste false informazioni, così come altre posizioni non supportate da dati oggettivi e credibili, arrivino ad essere veicolate ai rappresentanti politici nazionali come se fossero la “verità scientifica” sul clima.

Sono questi i contorni dell’incontro che si terrà il 3 marzo a Roma ed al quale  parteciperanno in una tavola rotonda i Presidenti ed importanti rappresentanti delle Commissioni Ambiente di Camera e Senato.
È curioso che il panel di relatori chiamati a intervenire nella “sessione scientifica” non includa veri esperti della tematica climatica ma sia caratterizzato da una assoluta e ampiamente documentata faziosità e ostinazione nel negare sistematicamente, contro ogni evidenza scientifica, l’esistenza dei cambiamenti climatici e la loro rilevante componente antropica.
Con una strategia ormai largamente sperimentata, fra i relatori, che si alterneranno nell’incontro organizzato a Roma, sono presenti sì scienziati e docenti universitari ma tutti fondamentalmente privi di una specifica competenza scientifica sulla materia dei cambiamenti climatici: come se non bastasse, salvo alcune eccezioni, i professori e gli scienziati del convegno di Roma sono sostanzialmente privi di pubblicazioni su riviste scientifiche internazionali non solo sulle tematiche climatiche ma più in generale su quelle ambientali. In quanto tali risultano niente di più che semplici opinionisti, non più autorevoli di un climatologo che pontifica sullo stato di risanamento dei conti pubblici italiani o sulla cura migliore del tumore al cervello.

Spicca, invece, l’assoluta mancanza di contraddittorio e di rappresentanza di quei pur numerosi climatologi italiani (come Filippo Giorgi, Antonio Navarra e molti altri ancora) che si sono guadagnati con serietà, dedizione e impegno, un ruolo di rilievo nella comunità scientifica internazionale e che contano decine di pubblicazioni scientifiche anche di grande importanza sul tema, nonché  la collaborazione proprio con quell’IPCC del quale ora, in questo incontro, si vuole minare la credibilità.
Il documento a supporto delle tesi negazioniste, che sarà presentato come punto centrale del tavolo del 3 marzo a Roma (“La natura, non l’attività dell’uomo, governa il clima”), è già stato stroncato dalla comunità scientifica di tutto il mondo. Questo perché propone tesi non sostenute da dati affidabili ed in secondo luogo perché è stato creato con la collaborazione di scienziati non specializzati nello studio dei cambiamenti climatici.
La stroncatura del documento è da mesi disponibile su Realclimate, uno dei blog internazionali più autorevoli sulle tematiche climatiche, la cui traduzione è disponibile da dicembre sul sito Climalteranti.it. Il rapporto succitato ha otto capitoli; cinque di questi hanno titoli che sono semplicemente falsi. I rimanenti tre capitoli pongono domande fuorvianti e in malafede, se non semplicemente disoneste, cui gli autori forniscono “risposte” basate su una letteratura scadente e selezionata in modo da evitare accuratamente tutte le pubblicazioni successive che contraddicono le tesi precostituite.
Il rapporto è stato pubblicato dall’Heartland Institute, una nota organizzazione politica di stampo negazionista che in passato ha ricevuto finanziamenti dalle compagnie petrolifere, per il NIPCC (Nongovernmental International Panel on Climate Change), una sigla che richiama in modo ingannevole il panel scientifico dell’ONU e sembra essere stata creata proprio per generare confusione nell’opinione pubblica. L’NIPCC, lungi dall’essere connesso ad alcun progetto delle Nazioni Unite, è stato invece istituito includendo scienziati di scarsa competenza sulle tematiche climatiche. Nella stesura di questo rapporto non è stato previsto alcun processo di controllo e di verifica da parte del resto della comunità scientifica.  Da notare che decine di scienziati inseriti nell’elenco degli estensori del rapporto hanno negato la loro partecipazione a questo gruppo e hanno espresso tesi opposte a quelle sostenute nel volume.

L’unico italiano presente nell’NIPCC, che illustrerà il volume nel convegno del 3 marzo, è un docente universitario, il Prof. Franco Battaglia, già vincitore del Premio “A qualcuno piace caldo 2007” . Costui non ha al suo attivo alcuna pubblicazione scientifica ISI (quelle riconosciute a livello internazionale) non solo nel settore delle climatologia, ma anche più in generale in quello ambientale; autore di alcune pubblicazioni di fisica-chimica teorica di scarsa rilevanza, è conosciuto solo come autore di articoli su un quotidiano nazionale, di nessun valore scientifico.
L’unico relatore indicato come “climatologo”, Guido Guidi,  non è uno scienziato impegnato in ricerche sui cambiamenti climatici, bensì un maggiore dell’Aeronautica militare che si occupa di previsioni del tempo a medio termine. Guidi pubblica su un blog tesi spesso senza fondamento scientifico sul tema dei cambiamenti climatici (ad esempio, l’ultimo granchio preso si trova qui).

Come cittadini italiani e ricercatori impegnati a divulgare in modo corretto la problematica dei cambiamenti climatici intendiamo ribadire quanto segue:
•    Il documento scientifico che sarà presentato nel convegno di Roma del 3 marzo nei locali della Camera dei Deputati è privo di fondamento scientifico ed è stato elaborato in modo fazioso e non trasparente;
•    I dati scientifici disponibili a livello internazionale sono incontrovertibili nell’individuare un preoccupante riscaldamento del pianeta e nel riconoscere in questo un ruolo centrale dell’uomo;
•    Il dibattito scientifico sui cambiamenti climatici deve restare un dibattito aperto, e non deve essere portato avanti senza il coinvolgimento di chi davvero studia davvero la climatologia e si confronta in ambito scientifico a livello internazionale;
•    È grave presentare al mondo politico italiano uno spaccato non rappresentativo, anzi distorto,  di quello che pensa la comunità scientifica su questi temi, quando invece la comunità scientifica internazionale è fondamentalmente unanime sulla valutazione delle cause (antropiche) come sull’entità del problema e sulla necessità di intraprendere rapidamente delle drastiche misure correttive per la riduzione dei gas climalteranti.

Il Comitato Editoriale di Climalteranti.it

144 responses so far

Dicembre 2008 e gennaio 2009: eccezionali veramente?

Sintesi: l’analisi a scala globale dei dati relativi al bimestre dicembre ’08-gennaio ’09 appena trascorso mostra che tale periodo non può essere considerato eccezionale non solo dal punto di vista climatico (in quanto una singola stagione non dice nulla sul clima), ma neppure da quello meteorologico, in quanto le anomalie termiche e pluviometriche riscontrate hanno riguardato soltanto una piccola porzione del territorio nazionale (peraltro compatibili con quelle verificatesi negli anni precedenti) mentre a livello globale l’anomalia termica e’ addirittura stata positiva.

a

Fa freddo. È questo il commento un po’ generale che imperversa ormai dall’inizio di dicembre. Ma non vorrei qui ripetere per l’ennesima volta quale sia la differenza tra tempo meteorologico e clima (concetto già ribadito più volte nei post precedenti), quanto piuttosto insistere sul fatto che occorre sempre analizzare i dati nella loro globalità, non in singole stazioni. Infatti, se anche l’inverno 2008-09 avesse fatto registrare in qualche stazione italiana, o anche, al limite, in tutta Italia, i valori minimi di temperatura delle serie storiche (cosa che, come vedremo, non è vera), non si potrebbe comunque parlare di cambiamento del clima, ma solo di un evento o di una serie di eventi, al limite insoliti; inoltre, analizzando la situazione globale, si scoprirebbe che questo evento probabilmente è bilanciato da una altrettanto significativa anomalia calda in altre zone del mondo.
Il mio obbiettivo è quindi quello di rispondere alla domanda: “quest’anno è stato freddo o no?” facendo chiarezza ed esaminando i dati disponibili.
Non essendo ancora terminato l’inverno (che meteorologicamente finisce a fine febbraio), possiamo commentare i primi due mesi dell’inverno meteorologico 2008-2009 usando le mappe meteorologiche che ho creato utilizzando i dati messi a disposizione dalla NOAA (National Oceanic and Atmospheric Administration) su questo sito. È un giochino interessante e chiunque può divertirsi facendosi la propria climatologia: si possono visualizzare una ventina di variabili sulla porzione del globo terrestre che più interessa, alla risoluzione spaziale di 2.5 gradi in longitudine e latitudine (cioè circa 125 Km alle nostre latitudini, non sufficiente per i dettagli locali ma sufficiente per gli andamenti generali), e si può calcolare l’anomalia della grandezza considerata, cioè la differenza fra il valore registrato in un certo periodo e il valore medio su un periodo di riferimento. NOAA ha scelto come periodo di riferimento il 1968-1996, che è un po’ diverso dal trentennio abitualmente scelto come riferimento 1961-90 (volendo, con un po’ di tempo in più si può scegliere il periodo che si vuole) ma le differenze non sono poi così significative. Ho quindi creato i grafici delle anomalie di temperatura e precipitazione relative agli ultimi due mesi di dicembre 2008 e gennaio 2009 confrontandoli con le medie.
Cominciamo a vedere la mappa che riporta le anomalie a scala globale (Fig. 1 – i colori blu e rosso scuro evidenziano, come nei rubinetti, le zone rispettivamente con anomalia negativa e positiva).

T superf dic08-gen09

Figura 1 – Anomalia di temperatura superficiale sul globo terrestre 1 Dicembre 2008 – 30 Gennaio 2009 rispetto al periodo di riferimento 1968-1996. Grafico generato dalle informazioni NOAA.

Beh, sicuramente non si può dire che, a scala globale, sia stato un bimestre freddo. Ci sono, è vero, dei minimi (Antartide, Stati Uniti, Cile), ma anche dei massimi, in particolare sulle regioni del Polo Nord, nei pressi delle isole Svalbard (fino a 12 °C!). Facendo uno zoom sull’emisfero Nord (Fig. 2), si notano delle ampie zone con anomalie positive sull’Africa, sulle zone polari, sul Pacifico, e due piccole aree al centro degli Stati Uniti e sull’Ungheria, mentre sono presenti alcune zone di anomalia negativa sul Canada e sugli Stati Uniti orientali, nei pressi dell’Alaska, e in altre quattro piccole zone distribuite tra Europa, Africa settentrionale e Asia. Come chiunque può vedere, l’estensione delle aree con anomalia positiva è nettamente maggiore di quelle con anomalia negativa, per cui si può dire che, per quanto riguarda l’emisfero nord, il bimestre considerato è stato più caldo della norma.

T emisfero Nord dic08-gen09

Figura 2 – Anomalia di temperatura superficiale sull’emisfero Nord nel periodo 1 Dicembre 2008 – 30 Gennaio 2009 rispetto al periodo di riferimento 1968-1996. Grafico generato dalle informazioni NOAA.

I dettagli sulla zona europea (Fig. 3) e sull’Italia (Fig. 4) riportano un numero maggiore di isolinee e mostrano una zona con anomalie negative di temperatura con i minimi sulla Francia centrale e sul Marocco estesa dalla Germania meridionale fino all’Africa nord-occidentale, e che lambisce anche l’Italia nordoccidentale. Il resto dell’Italia si trova in una zona intermedia che confina con un’area molto ampia di anomalie termiche positive che si estende dal Mediterraneo orientale verso nord.

T superf europa dic08-gen09

Figura 3 – Anomalia di temperatura superficiale sull’Europa nel periodo 1 Dicembre 2008 – 30 Gennaio 2009 rispetto al periodo di riferimento 1968-1996. Grafico generato dalle informazioni NOAA.

T superf Italia dic 08-gen09

Figura 4 – Anomalia di temperatura superficiale sull’Italia nel periodo 1 Dicembre 2008 – 30 Gennaio 2009 rispetto al periodo di riferimento 1968-1996. Grafico generato dalle informazioni NOAA.

Dunque, si è effettivamente registrata un’anomalia di temperatura lievemente negativa su una parte del territorio nazionale, del resto confermata anche dall’analisi condotta dal Centro Nazionale di Meteorologia e Climatologia Aeronautica sul Bollettino Climatico di Gennaio 2009. Quanto è significativo questo dato? Per rispondere a questa domanda, ho generato le mappe relative alle anomalie di temperatura sul territorio nazionale e sulle aree limitrofe relative agli ultimi 12 periodi invernali dicembre-gennaio (reperibili su questo sito). La loro analisi mostra chiaramente che questo bimestre non è stato né l’unico né il più freddo nel periodo considerato. Se è vero, infatti, che ci sono stati dei bimestri nettamente più caldi (1997-98, 2000-01, e il famigerato 2006-07), è anche vero che non mancano gli anni con anomalie negative (1998-99 solo sul sud Italia, 1999-2000, 2001-2, 2003-4, 2004-5 solo sul nord Italia, e poi il bimestre 2005-6, molto più freddo su tutto il territorio nazionale rispetto a quello attuale).
Per un maggiore dettaglio su una singola località, tra tutte le possibili scegliamo Torino, un po’ perché ci abito, ma soprattutto perché, grazie all’encomiabile meticolosità ventennale di Luca Mercalli e Gennaro Di Napoli, culminato nel libro “Il clima di Torino” (un’enciclopedia di oltre 900 pagine, disponibile su questo sito della Società Meteorologica Italiana) appena pubblicato, sono disponibili i dati di temperatura dal 1753, di pioggia giornaliera dal 1802 e di neve cumulata giornaliera dal 1787 (quest’ultima è la serie più lunga al mondo), tutte omogeneizzate, e le analisi su tali dati. Paragonando la temperatura invernale a Torino con la media relativa al periodo 1961-90 (Fig. 5), si osserva come sostanzialmente si sia verificata una leggera anomalia negativa, pari rispettivamente a –0.4°C per le minime ed a –0.7°C per le massime, dovuta principalmente alle irruzioni fredde dei primi 12 giorni di dicembre e da Natale all’11 gennaio.

T Torino

Figura 5 – Andamento delle temperature minime e massime giornaliere rilevate a Torino nel periodo 1 novembre 2008 – 16 febbraio 2009 paragonate con i valori medi relativi al trentennio 1961-1990. Dati forniti dalla Società Meteorologica Italiana, elaborazioni a cura di Daniele Cat Berro e Luca Mercalli.

La stima provvisoria della temperatura media a Torino relativa al trimestre invernale (dicembre-febbraio) è di 3.3°C (manca però metà febbraio), simile all’inverno 2005-06 (3.4 °C) ed inferiore alla media 1961-90 (3.8 °C), come si può vedere nella Fig. 6.

T Torino inverno

Figura 6 – Andamento delle temperature medie del trimestre invernale dicembre-febbraio durante l’intero arco delle misure relative alla serie storica di Torino. Dati forniti dalla Società Meteorologica Italiana, elaborazioni a cura di Daniele Cat Berro e Luca Mercalli.

E per quanto riguarda le precipitazioni, che cosa si può dire? Analizzando i grafici delle anomalie del rateo di precipitazione (in mm/giorno) sull’Italia (Fig. 7), si nota l’evidente area di anomalia positiva (colore blu) che coinvolge l’intero territorio nazionale nell’ultimo bimestre, con un picco evidente sulle regioni meridionali italiane: il 2008-09 è stato effettivamente un bimestre abbastanza piovoso (o nevoso, in certe zone).

Piogge Italia

Figura 7 – Anomalia di rateo di precipitazione (mm/giorno) sull’Italia nel periodo 1 Dicembre 2008 – 30 Gennaio 2009 rispetto al periodo di riferimento 1968-1996. Grafico generato dalle informazioni NOAA.

Ma il confronto con gli altri 12 bimestri invernali riportati su questo sito per gli ultimi 12 bimestri invernali dicembre-gennaio mostra che, sulle regioni meridionali italiane, anomalie simili si sono verificate anche in altri anni (in particolare nei quattro inverni consecutivi dal 2002-3 al 2005-6, e nel 2007-8), mentre per quanto riguarda il nord Italia le anomalie positive sono state effettivamente molto più rare.
A Torino, in particolare (Fig. 8), dal 1° novembre al 20 febbraio, si sono accumulati ben 518.7 mm, dovuti principalmente ai due eventi di inizio novembre (120 mm) e metà dicembre (211 mm), e tale quantitativo rappresenta il record di tutta la serie per quanto riguarda il periodo novembre-febbraio (il record precedente fu registrato nel lontano 1825-26, con 509.4 mm).

Pioggia e  neve Torino 08-09

Figura 8 – Precipitazioni (pioggia e neve fusa) giornaliere accumulate nel periodo novembre 2008 – febbraio 2009 registrate a Torino: confronto con la media del trentennio 1961-90 e con il massimo quadrimestrale precedente. Dati forniti dalla Società Meteorologica Italiana, elaborazioni a cura di Daniele Cat Berro e Luca Mercalli.

Le temperature più rigide e le precipitazioni più abbondanti a Torino hanno avuto come conseguenza un incremento notevole del numero e dell’intensità delle nevicate: a fronte di una media di 7.2 giorni con nevicate nel periodo 1961-90, nel 2008-09 si è visto nevicare in 14 giornate (Fig. 9), valore nettamente inferiore al massimo storico di 30 episodi del 1837 (ma in tale epoca si stava uscendo dalla Piccola Età Glaciale), ma nettamente superiore a quelli degli ultimi anni (era dal 1986 che non nevicava così frequentemente: 16 giorni).

giorni neve Torino

Figura 9 – Giorni con nevicate nel periodo novembre 2008 – febbraio 2009 a Torino e quantitativo di neve accumulata giornaliera. Dati forniti dalla Società Meteorologica Italiana, elaborazioni a cura di Daniele Cat Berro e Luca Mercalli.

Il manto totale depositatosi in città nel trimestre dicembre-febbraio è stato di 66 cm (di cui 32 cm tra il 6 e l’8 gennaio), valore nettamente superiore alla media 1961-90 (28 cm) ed ai valori tipici degli ultimi anni (quando in ben tre casi – nel 1988-89, 1989-90 e 2006-07 – non nevicò affatto in città: si veda la Fig. 10).

neve Torino

Figura 10 – Neve fresca accumulata nell’anno idrologico registrata presso gli osservatori della serie storica di Torino dal 1787 a oggi. Dati forniti dalla Società Meteorologica Italiana, elaborazioni a cura di Daniele Cat Berro e Luca Mercalli.

L’analisi appena condotta, sia pure parziale poiché la stagione non è ancora terminata, mostra comunque che il bimestre appena trascorso non può essere considerato eccezionale non solo dal punto di vista climatico (in quanto una singola stagione non dice nulla sul clima), ma neppure da quello meteorologico, in quanto le anomalie riscontrate sono compatibili con quelle verificatesi negli anni precedenti.
L’Italia settentrionale, ed in particolare quella nordoccidentale, ha registrato temperature leggermente inferiori alla norma e precipitazioni superiori alla norma, almeno per quanto riguarda gli ultimi 12 bimestri invernali, fatto che ha comportato un incremento nel numero delle nevicate anche a quote di pianura. I valori termici registrati in Italia nordoccidentale nello scorso inverno si sono avvicinati alle medie relative al periodo di riferimento 1961-90 e, forse proprio per questo motivo, sono state percepite come insolitamente fredde se paragonate con quelle registrate negli ultimi inverni. L’Italia meridionale ha invece registrato sia temperature sia, soprattutto, precipitazioni superiori alla norma, cosa peraltro già verificatasi frequentemente negli ultimi 12 anni.

Testo di: Claudio Cassardo

13 responses so far

Perchè sono attendibili le serie storiche dei dati di temperatura globale

L’evidenza osservativa di un significativo incremento della temperatura media dell’aria in prossimità della superficie terrestre costituisce un dato importante nel contesto dell’attuale dibattito sull’effetto climalterante delle emissioni antropiche. Questo incremento, ben evidenziato dalla figura 1, è sovrapposto ad una significativa variabilità interannuale nonché ad una importante variabilità su scala decennale, ma è comunque chiaramente identificabile, tanto che 17 dei venti anni più caldi dell’intero periodo coperto dalle osservazioni strumentali cadono nel ventennio 1988-2007.

Figura 1: andamento della temperatura media globale in prossimità della superficie terrestre nel periodo 1856-2007. I valori sono espressi come scarti rispetto ai valori medi calcolati sul periodo 1961-1990. Fonte: University of East Anglia.

I dati rappresentati in figura 1 suscitano spesso numerosi interrogativi da parte di chi non si occupa professionalmente della ricostruzione o dell’analisi di serie storiche di dati meteorologici, in quanto non è facile capire come si possa effettivamente disporre di un numero di misure termometriche di alta qualità così elevato da permettere la ricostruzione dell’evoluzione del valor medio planetario della temperatura dell’aria per un periodo di oltre 150 anni.

In realtà lo sviluppo delle osservazioni meteorologiche affonda le sue radice in un passato molto più lontano di quanto non si creda comunemente e la prima rete sinottica, ovvero la rete del Cimento, risale addirittura al ‘600. A questa prima rete, che ha continuato ad operare per circa 15 anni, ne hanno fatto seguito molte altre, anche se fino alla seconda metà dell’800 tutte le iniziative hanno avuto una durata abbastanza limitata nel tempo e sono sempre state condotte in modo pioneristico e in assenza di metodologie standardizzate riconosciute universalmente.

Il primo tentativo di pervenire realmente ad un sistema di osservazioni meteorologiche standardizzato a scala planetaria è probabilmente costituito da una conferenza tenutasi a Bruxelles nel 1853. Questa conferenza viene considerata come il primo passo verso la cooperazione meteorologica internazionale, cooperazione che si è poi rafforzata rapidamente negli anni successivi fino a portare alla fondamentale conferenza di Vienna (1873), nel cui ambito è nata la International Meteorological Organisation (IMO), ovvero l’organizzazione che si è poi evoluta nella attuale World Meteorological Organisation (WMO).

La lettura degli atti di questa conferenza e delle conferenze che si sono succedute nei decenni successivi evidenzia in modo molto chiaro i notevoli sforzi prodotti negli ultimi tre decenni dell’800 per pervenire ad una reale standardizzazione delle osservazioni meteorologiche.

È peraltro importante sottolineare come già alla fine dell’800 le osservazioni non includessero solo i Paesi più avanzati, ma coprissero una significativa frazione dell’intero Pianeta, comprese alcune aree oceaniche che venivano coperte grazie al traffico marittimo. Nonostante ciò la copertura era comunque ancora lontana dall’essere globale e vi era la completa mancanza di osservazioni sistematiche in quota. Questi limiti vengono superati solo nella seconda parte del ventesimo secolo, dapprima con lo sviluppo di una rete planetaria di misure da termosondaggio quindi, in tempi più recenti, con lo sviluppo delle misure da satellite.

L’esistenza di una rete planetaria di osservatori meteorologici non è comunque l’unica condizione necessaria per poter studiare l’evoluzione a lungo termine del clima della Terra. Tale attività richiede infatti anche che i dati siano facilmente accessibili e che su di essi vengano effettuate una serie di analisi volte ad accertarne la qualità, l’omogeneità e la reale capacità di rappresentare l’intero Pianeta.

Il primo ricercatore che ha cercato di fronteggiare questi problemi è probabilmente stato Köppen che, tra il 1870 ed il 1880, ha organizzato ed elaborato un dataset di oltre 100 stazioni osservative, con l’obiettivo di produrre la prima stima dell’evoluzione della temperatura a scala globale della storia della meteorologia. Successivamente, la realizzazione di ricerche di questo tipo è stata notevolmente facilitata da una risoluzione della International Meteorological Organisation del 1923 che ha avviato una sistematica raccolta e pubblicazione di tutte le più significative serie di dati termometrici, pluviometrici e barometrici allora esistenti al mondo. Questa risoluzione ha portato al “World Weather Records”, una monumentale opera con serie di dati a risoluzione mensile relative a centinaia di stazioni di osservazione sparse in tutto il mondo. Questa raccolta ha poi continuato a venire regolarmente aggiornata nei decenni successivi e, a partire dagli anni ’60, i dati sono anche stati digitalizzati. Ai dataset globali vanno poi aggiunti numerosi dataset a carattere più locale (da nazionale a continentale), creati soprattutto nel corso degli ultimi decenni, nell’ambito di un grande numero di progetti volti a recuperare un frazione sempre più consistente dell’enorme patrimonio di informazioni che spesso giacciono ancora inutilizzate in archivi cartacei sparsi in tutto il Pianeta.

È quindi naturale come le stime dell’evoluzione a lungo termine della temperatura dell’aria in prossimità della superficie terrestre che si sono succedute al primo tentativo di Köppen si siano avvalse della disponibilità di una base di dati sempre più ampia, passando da un centinaio a 3000-4000 stazioni. A questi dati, relativi alle terre emerse, si aggiungono poi oggi numerose serie relative alle aree oceaniche. Esse consistono sostanzialmente di dati relativi alla temperatura superficiale dell’acqua, variabile che viene solitamente assunta come ben rappresentativa della temperatura dell’aria sugli oceani. Questi dati sono raccolti da lungo tempo grazie a navi mercantili e militare e, più recentemente, anche grazie ad una rete planetaria di stazioni ancorate a boe oceaniche.

Le più moderne stime dell’evoluzione a lungo termine della temperatura media planetaria dell’aria in prossimità della superficie terrestre si basano quindi sull’integrazione dei dati di diverse migliaia di stazioni osservative con una vasta mole di dati relativi alle aree oceaniche. Esse si avvalgono inoltre di un articolato insieme di procedure per il controllo della qualità e dell’omogeneità dei dati, nonché di tecniche di spazializzazione molto efficaci che consentono di gestire i problemi connessi con la distribuzione spaziale non uniforme delle serie disponibili (si veda ad esempio l’articolo di Brohan et al., 2006 “Uncertainty estimates in regional and global observed temperature changes: a new dataset from 1850” – J. Geophysical
Research ). Queste procedure, unitamente alla vasta letteratura disponibile sull’argomento, consentono oggi anche di valutare l’incertezza delle ricostruzioni ottenute. Essa è dovuta, da una parte al fatto che le serie storiche di dati meteorologici sono influenzate da disomogeneità ed errori indotti sia dagli strumenti di misura che dalle metodologie di osservazione e, dall’altra, dal fatto che, per quanto numerose, le misure disponibili non sono realmente rappresentative dell’intero Pianeta. Proprio per questa ragione una corretta ricostruzione dell’evoluzione della temperatura globale deve essere accompagnata da un’indicazione del relativo margine di incertezza. Questa indicazione è effettivamente presente nelle ricostruzioni più moderne e grazie ad essa è possibile per esempio affermare, come indicato nel quarto assessment report dell’IPCC, che il riscaldamento globale nel periodo 1906-2005 è stato di 0.74 ± 0.18 (°C), dove la cifra che segue la stima più probabile del trend indica l’intervallo entro il quale si ritiene che il trend abbia il 95% di probabilità di collocarsi effettivamente.

Il valore di incertezza relativamente contenuto delle stime relative al riscaldamento verificatosi nel corso dell’ultimo secolo è, come già visto, sicuramente frutto di sofisticate metodologie di analisi che consentono di massimizzare l’informazione che può essere estratta dai dati disponibili. Accanto a queste metodologie gioca però un ruolo fondamentale anche la buona qualità di molte delle serie osservative. La qualità delle osservazioni meteorologiche è infatti da lungo tempo un obiettivo fondamentale della comunità del settore; essa è peraltro sempre stata considerata con grande attenzione dall’Organizzazione Meteorologica Mondiale (si veda qui). Così, anche se esistono esempi di stazioni gestite e/o collocate in modo del tutto inadeguato, accanto ad esse vi è una grande maggioranza di situazioni nelle quali le osservazioni vengono effettuate in modo corretto e nelle quali viene prestata grande attenzione alle misure.

Testo di: Maurizio Maugeri

21 responses so far

Dalla neve all’era glaciale – parte 2

La raffica di articoli e di servizi televisivi che hanno mal commentato il freddo e la neve dei primi giorni del 2009 non hanno sorpreso quanti da anni analizzano il modo in cui i mezzi di comunicazione si occupano di clima.
Altre volte, in altri mesi invernali un po’ freddi, era successa la stessa cosa. Ad esempio il freddo (anche allora nella norma) del gennaio 2003 porto’ ad un titolo “Non è ancora tempo di terra bruciata”, e le vignette sulla neve e il global warming non mancarono.

Gli articoli che sono stati pubblicati però contenevano alcune informazioni che attiravano l’attenzione perché più precise, legate a fatti clamorosi: il recupero dei ghiacci artici e l’avanzata dei ghiacci alpini.
Oltre all’articolo de La Stampa, già commentato in un precedente post , anche il Corriere della Sera ha lanciato la notizia, con un articolo del 6 gennaio a firma Franco Foresta Martin e il titolo a grandi caratteri: “E i ghiacciai non si ritirano più «L’ effetto serra sembra svanito»” .
Se fosse stata vera, questa del ritiro dei ghiacciai e della scomparsa dell’effetto serra sarebbe stata davvero una clamorosa smentita di diversi decenni di scienza del clima.
Ma non è così, si è trattato invece di una clamorosa bufala.
I dati dei ghiacciai sono in netta ed inequivocabile diminuzione in tutto il mondo, ed in particolare nell’arco Alpino. Se ne parla nell’ultima traduzione di Realclimate disponibile su Climalteranti.it 

Una ricerca effettuata nell’ambito del Progetto Kyoto Lombardia ha concluso che “i ghiacciai lombardi stanno subendo una riduzione di forte entità per lunghezza, superficie e per volume, da circa un secolo e mezzo, che negli ultimi due decenni potrebbe essere definita un vero e proprio “collasso””.
Se nella scienza del clima ci sono ancora punti incerti, non riguardano il ritiro dei ghiacciai. Sono dati così evidenti da essere difficilmente confutabili; d’altronde, sarebbe difficile spiegare che in un pianeta più caldo i ghiacci crescono.

Per spiegare come è nata e si è sviluppata questa ennesima bufala dell’aumento dei ghiacciai, si possono individuare quattro attori:
1.    Un ricercatore
2.    Un blog
3.    Un giornalista
4.    Un redattore – titolista

1) La fonte prima della notizia è stato il glaciologo Bill Chapman del centro di ricerche sul clima artico dell’ Università dell’ Illinois. Come ha fatto notare con grande precisione il Prof. Claudio della Volpe in un bel saggio intitolato “Ghiaccio Agghiacciante” pubblicato sul sito di ASPO-Italia, Chapman ha presentato in modo impreciso i dati, senza chiarire la differenza fra le due diverse serie di dati che descrivono l’estensione del ghiaccio marino artico, derivanti da sensori differenti e quindi non confrontabili. Per i dettagli si veda qui.
2) I dati sono stati interpretati in modo ulteriormente errato in un blog in cui si pubblicano spesso interventi negazionisti. Il curatore del blog, Michael Ascher, ha selezionato in modo arbitrario due punti della serie storica (sbagliata) dei ghiacci marini globali, per evidenziare una tendenza che non c’è.
3) Pur se di gente che sui blog scrive cose infondate o inesatte sul clima ce n’è parecchia (uno dei miei preferiti è www.meteolive.it, qui ne riportiamo un esempio) ), alcuni giornalisti italiani hanno dato spazio alla tesi di Archer, l’hanno amplificata grazie a imprecisioni e ad una generale confusione sul tema. Si è passati dal ghiaccio marino totale (che comunque non è tornato ai livelli del 1979) ai “ghiacci artici” (che sono in nettissima diminuzione). Il termine “marino” è scomparso quindi si è iniziato a parlare in generale di “ghiacci” e di “ghiacciai”, con riferimenti anche ai ghiacciai lombardi (pur se, come detto, anche loro sono in netto ritiro in particolare negli ultimi 30 anni). Non è solo l’abituale cura a rendere “più sexy” la notizia: si tratta proprio di fraintendimenti e di invenzioni.
4) I titolisti hanno, al solito, messo il carico: arriva l’era glaciale, il problema dell’effetto serra è svanito, i ghiacci non si ritirano. “L’effetto serra è svanito”, è messo tra virgolette nel titolo principale, ma nell’articolo non si trova chi sarebbe l’autore di tale affermazione.

Pur se un articolo di Repubblica e gli intereventi di Luca Mercalli a “Che tempo che fa” hanno contrastato la bufala con i grandi numeri dei loro lettori e ascoltatori, da colloqui con studenti e conoscenti mi sembra sia rimasta nell’opinione pubblica la sensazione generale che l’allarme per il problema del riscaldamento globale non sia molto fondato, che gli scienziati che avevano in passato lanciato l’allarme non siano molto affidabili; o almeno che il mondo della scienza sia diviso.
Come si dividono i torti in questa riuscita azione di disinformazione?
Sarà perché a me più vicino, il ricercatore dell’Università dell’Illinois”, fra tutti, mi sembra quello meno responsabile. Se non ha altro perché, inondato di email, ha smentito le affermazioni che gli erano state attribuite.
Chi non ha smentito è stato invece il Corriere della Sera. Che il 12 gennaio ha pubblicato a pag. 23 un breve articolo, non firmato, intitolato “Meno ghiacci? L’effetto serra non c’entra”, in cui ha confermato e ha rilanciato la bufala.
Questa volta partendo da un’articolo pubblicato su Nature Geoscience, in cui gli autori proponevano una stima diversa (ed inferiore a quelle precedenti) del futuro rateo di fusione dei ghiacci della Groenlandia, si è passati ad assolvere l’effetto serra per la diminuzione di tutti i “ghiacci”.
Finale dell’articolo ”Un risultato sulla stessa linea di quello annunciato dal Centro di ricerche sull’Artico dell’Università dell’Illinois, secondo cui i ghiacci artici hanno avuto una crescita rapidissima negli ultimi mesi del 2008 e il loro livello è tornato ad essere pari a quello registrato nel 1979”.
In effetti, due bufale possono essere sulla stessa linea. Ma c’è da sperare che qualcuno prima o poi informi i giornalisti del Corriere della Sera che tutti gli anni c’è una crescita rapida dei ghiacci dell’Artico, e sempre succede negli ultimi mesi dell’anno (e nei primi del successivo): in due periodi dell’anno chiamati “autunno” e “inverno”.

Testo di: Stefano Caserini

14 responses so far

Translate