Notizie e approfondimenti sul clima che cambiaPosts RSS Comments RSS

Archive for the 'IPCC' Category

Ma i ghiacciai dell’Himalaya continuano a ritirarsi

L’errore presente nel IV rapporto dell’IPCC, sulla velocità di fusione dei ghiacciai himalayani è servito per un attacco senza precedenti alla scienza del clima, e perfino per trarne incredibili motivi di ottimismo.

.

Negli stessi giorni del presunto scandalo del “Climategate” l’opinione pubblica è stata bombardata dalla notizia che, nelle 2800 pagine del quarto rapporto di valutazione dell’IPCC, era presente un grave errore. L’errore tuttavia non era nel sommario per i decisori e neppure nel sommario tecnico, ma a pag. 492 del secondo volume, e consisteva nella citazione sbagliata dell’entità della possibile fusione dei ghiacciai Himalayani entro il 2035.

Continue Reading »

23 responses so far

Java Climate Model: il sistema climatico a portata di click

Climalteranti presenta un’applicazione JAVA disponibile in rete in modalità download – installazione in locale o con diretta fruizione da internet. Il software è uno strumento semplice ma con notevoli potenzialità sia divulgative che analitiche, in grado di dare ad un utente interessato un’ampia disponibilità di informazioni sui cambiamenti climatici con l’ausilio di un’ottima rappresentazione grafica, numerosi riferimenti bibliografici e tecnici.

.

Fra i tanti aiuti che il World Wide Web offre a chi volesse approfondire la tematica climatica, uno dei più interessanti è il Java Climate Model un software che consente un’esplorazione a 360° del sistema climatico, con approfondimenti sugli aspetti emissivi, climatici, geografici, modellistici, chimico-fisici, economici, sociali e demografici. L’utilizzo del software porta ad affrontare molti dei dati e dei parametri utilizzati dai modelli climatici, nonché gli scenari emissivi, e fornisce i risultati sui principali output dei modelli come l’aumento delle concentrazioni di CO2, l’aumento della temperatura, l’innalzamento del livello del mare.
Nella versione 5 (JCM 5) l’autore del software, il ricercatore Ben Matthews, ha inserito direttamente nel programma le informazioni contenute nei rapporti IPCC, sia nel Third Assessment Report che nel più recente Fourth Assessment Report. Le applicazioni del software consentono di confrontare gli scenari SRES, ipotizzare modifiche del sistema climatico o stimare gli effetti della variazione delle emissioni di gas serra sui parametri climatici, tramite la visualizzazione di grafici interattivi e di dati tabellati, tutti referenziati e pubblicati dall’IPCC o ricavati tramite interpolazioni di questi ultimi.

Figura 1: schermata iniziale del software JCM 5 Continue Reading »

49 responses so far

Un bel libro con una Prefazione poco aggiornata

Fra i libri più belli pubblicati negli ultimi anni sui cambiamenti climatici va senza dubbio citato “Piccola lezione sul clima” di Kerry Emanuel, professore di Scienze dell’Atmosfera al MIT di Cambridge.
immagine copertina libro KerryIl libro è la traduzione di un saggio di rara chiarezza e sintesi “Phaeton’s Reins. The human hand in climate change “, pubblicato su Boston Review all’inizio del 2007 (disponibile anche sul web qui o qui).
Il testo di Kerry è seguito da una Postfazione di Judith Layzer e William Moomaw, docenti di politiche ambientali al MIT e alla Tuft University, che in poche pagine forniscono una egualmente agevole e precisa rappresentazione del recente dibattito sulle politiche climatiche nel 2008.

Nella versione italiana la Prefazione è curata dal Prof. Franco Prodi, ex-direttore dell’istituto di scienza dell’atmosfera e del clima del Consiglio Nazionale delle ricerche (ISAC-CNR), contiene a mio parere diversi errori, descritti in seguito, con l’auspicio che, se condivisi dal Prof. Prodi stesso, possano essere corretti nelle future edizioni (si spera numerose) del libro.

1) (pag. 11) I range delle “previsioni”
“Quanto carente sia la conoscenza del sistema clima è quindi dimostrato dall’ampia forbice degli scenari prospettati alla fine di questo secolo, per la temperatura dell’aria (da uno a otto gradi), per l’innalzamento del livello dei mari (da pochi centimetri a metri), per parlare solo dei parametri più discussi”.

E’ un argomento già citato da Prodi (ad esempio qui), ma le cose non stanno proprio così: l’ampiezza della forbice non è dovuta solo alla carenza nell’incertezza del sistema clima, ma all’incertezza su quali saranno le emissioni di gas serra. Se infatti si guarda la famosa figura del Quarto Rapporto IPCC sulla proiezione delle temperature, si nota come una larga parte della variazione delle temperature è dovuta ai diversi scenari emissivi, alle emissioni di gas serra che avverranno nei prossimi decenni. link grafici IPCCL’incertezza dovuta alla conoscenza del sistema clima è grande per ogni scenario, ma è molto inferiore (vedasi figura sopra): la forbice data dalla prima deviazione standard intorno alla media è circa un grado, l’intervallo più probabile (linee grigie sulla sinistra) varia da 2 gradi dello scenario B1ai 4 gradi dello scenario A2.

2) (Pag. 14) “I modelli sono nella loro infanzia”
È una frase usata spesso nel passato per descrivere lo stato dei modelli climatici. Se ne trova traccia in famosi articoli di taglio negazionista (ad esempio Robinson et al., 1998: “Predictions of global warming are based on computer climate modeling, a branch of science still in its infancy”) o comunque sullo stato dei modelli di parecchi anni or sono. La storia della modellistica climatica è ormai trentennale, sono coinvolti decine di centri di ricerca di tutto il mondo. I modelli hanno da anni incluso parametrizzazioni per gli aerosol e le nubi; in modo insoddisfacente, migliorabile, ma se ne parla da anni e si potrebbe almeno dire che oggi sono nella loro adolescenza. Le incertezze sono ancora tante e quindi c’è ancora tanto da fare per i modellisti; ma se il termine “infanzia” significa la fase iniziale e primordiale dello sviluppo, già a fine anni ’90 i modelli climatici vi erano usciti.

3) (Pag. 15) Le temperature nella piccola era glaciale e nel periodo caldo medioevale
“Se consideriamo l’ultimo millennio, variazioni di poco superiori (probabilmente da 1 a 1,3 °C) hanno prodotto la piccola era glaciale (dal 1400 al 1850) ed il pericolo di riscaldamento conosciuto come “Optimum medioevale” (1000-1300)…”
La frase non è molto chiara perché non chiarisce rispetto a quale periodo sarebbero state le temperature superiori di 1-1,3°C. Probabilmente ci si riferisce alle temperature di inizio secolo, rispetto alle quali nelle pagine prime (Pag. 13 e 14) si cita un aumento di 1,3 per l’Italia e di 0,7 °C per il l’intero pianeta. Le ricostruzioni più accreditate forniscono range molto più limitati nelle variazioni delle temperature della piccola era glaciale e del periodo caldo medioevale, variazioni che hanno riguardato per lo più l’emisfero nord, e mostrano come l’attuale riscaldamento sia del tutto anomalo se confrontato con quello dei precedenti 1300 anni. L’ultima sintesi dell’IPCC recita “Le temperature medie nell’emisfero Nord durante la seconda metà del XX secolo sono state molto probabilmente più alte di qualsiasi altro periodo di 50 anni negli ultimi 500 anni e probabilmente le più alte almeno negli ultimi 1300 anni”.

4) (Pag. 18) Le concentrazioni di CO2
“È noto, poiché lo si misura con precisione, che il valore dell’anidride carbonica, ora intorno a 360 parti per milione, è aumentato del 31% dal 1750 ad oggi”.
Le concentrazioni di CO2 attuali non sono intorno a 360 ppm, ma intorno a 380 ppm, come del resto scrive Kerry nello stesso libro a pag. 42 e a pag. 77. Non si tratta di un refuso perché l’aumento del 31% porta proprio a 360 ppm; per arrivare a 380 ppm l’aumento è almeno del 35 %. Tralasciando il fatto che Kerry ha scritto il saggio nel 2006, e nel 2008 le concentrazioni di CO2 erano già di circa 384-385 ppm.
La concentrazione di 360 ppm di CO2 nell’atmosfera si è avuta intorno al 1995.

5) (Pag. 23) “Il protocollo di Kyoto, ora messo di nuovo in discussione…”
Come in un intervento dell’Ottobre 2008 il prof. Prodi descrive scenari di messa in discussione del Protocollo di Kyoto, oggi di fatto superati dal fatto che il Protocollo è entrato in vigore da quattro anni e lascerà fra pochi anni il posto ad un nuovo accordo internazionale, approvato probabilmente già tra pochi mesi nella COP15 a Copenhagen.

6) (Pag. 23-24) La somma incerta
Verso la fine della prefazione le incertezze presenti nella scienza del clima sono ancora sottolineate, laddove si legge di “…grave incertezza di scenario che caratterizza lo stato attuale della conoscenza”,  “…non si può ancora parlare di previsione climatica affidabile”, oppure “…non stupisce che vi siano scienziati che sostengono questo principio di precauzione e scienziati che vi si oppongono sulla base della considerazione che la scarsa conoscenza di alcuni addendi rende la somma incerta”.

Nella prefazione si trova anche in altri punti (es. pag. 11) una confusione fra previsione e proiezione (ossia fra previsioni di primo e di secondo tipo, si veda il precedente post). Come ben scrive anche Kerry (pag. 53-54) i modelli predittivi non riescono a garantire  affidabilità oltre le due settimane; ma altra cosa sono le proiezioni sul lungo periodo (es. 50 o 100 anni) del valore medio di alcuni parametri climatici.
Tali cautele sembrano eccessive se confrontate a quanto scrive Kerry nel successivo saggio, ad esempio “e dato che i rischi di conseguenze pesantemente sfavorevoli sono molto alti e che possiamo prevenirli, la prudenza ci dovrebbe indurre ad agire immediatamente”.

In conclusione, pur se l’analisi di Franco Prodi appare in alcuni aspetti poco aggiornata, si concorda pienamente con le prime e le ultime tre righe della Prefazione: quelle che la aprono (pag. 9) “Non capita spesso di imbattersi in uno scritto che si condivide a tal punto da desiderare di averlo scritto noi stessi”, e quelle che la chiudono (pag. 25), invitando alla lettura del libro di Kerry Emanuel, “alla sua prosa scientificamente impeccabile, ma anche piana ed accattivante”. Cosa non facile quando si parla di clima.

Testo di Stefano Caserini, con il contributo di Aldo Pozzoli

7 responses so far

Un convegno sul clima senza climatologi /1 – Il supermondo e l’Hiroshima culturale.

Il 3 marzo scorso si è svolto a Roma il convegno “Cambiamenti climatici e ambiente politico”, presentato nello scorso post a cui è seguito un acceso dibattito. Il dibattito è stato vivace anche nel blog di Antonello Pasini a seguito di un interessante e condivisibile post.
Ci sarà tutto il tempo per entrare nel merito delle tesi negazioniste riproposte anche in questa occasione romana.
Per iniziare segnaliamo l’audio dell’intervento introduttivo del Presidente della sessione scientifica, il Prof. Antonino Zichichi, che abbiamo trovato su YouTube.

foto prof Zichichi

Si tratta di 5 parti (link a ogni parte: Parte 1, Parte 2, Parte 3, Parte 4, Parte 5) di circa 5 minuti ognuna.
L’ascolto è divertente, e pur se alcune assurdità e frottole sono già state raccontate dallo stesso Zichichi, altre sono effettivamente originali.
Non ci sembra il caso di fare commenti se non fornire due informazioni.
La prima è che abbiamo verificato che non si tratta di una delle imitazioni del Prof. Zichichi da parte del comico Maurizio Crozza (esempio), ma proprio dell’intervento originale.
La seconda è che l’intervento è stato applaudito e nessuno dei successivi relatori ha avanzato alcuna perplessità o critica; se ne deduce che l’intervento è stato proprio preso sul serio (come si può leggere qui e qui).

Per invogliare all’ascolto abbiamo estratto alcune frasi, che di diritto vanno ad aggiungersi al catalogo delle “Zichicche” e che riproponiamo qui di seguito:

Parte 1:inizio
Grazie Presidente, io sono molto lieto di essere qui in quanto viviamo un momento che passerà nella storia del mondo: tra 2 o 3 secoli scriveranno di noi. E’ la prima volta che argomenti di natura non scientifica vengono portati come previsioni scientifiche…

Parte 1: min. 3.58
Se fosse vero quello che dicono gli specialisti dell’IPCC, io dovrei dire “Non c’e’ bisogno di fare esperimenti, sappiamo tutto, esiste il supermondo e vi spiego perché… ”

Parte 1: min. 4.24
…e infatti potrebbe darsi che al Centro Europeo di Ginevra, contrariamente a tutto quello che si dice, non venga scoperto il supermondo. E’ già successo 7 volte nella storia della scienza galileiana, l’ultima volta nel 1947, quando Enrico Fermi disse ai suoi collaboratori di Chicago: “Ragazzi forse – era molto prudente Fermi – abbiamo stavolta veramente capito tutto”.

Parte 2: min. 2.31
Questa matematica ha 2 punti di riferimento: uno è la nostra fisica, fondamentale , con la quale io sto lavorando al Cern, l’altro è invece la meteorologia.
Se noi siamo costretti a fare esperimenti per verificare se sono vere le nostre previsioni, come fanno questi signori a prevedere la fine del mondo, insomma, quasi… al punto da costringere tutti i capi di governo, incluso la più potente nazione del mondo, la più democratica e libera, gli Stati Uniti d’America, e il loro Presidente, a prendere decisioni che non sono corroborate da una struttura scientifica tale da permettere di prendere decisioni che costano miliardi di euro. Se noi scopriamo che non c’è il supermondo, questo non costa nulla alla società civile. Non c’è, e c’è un’altra cosa. Ma non abbiamo speso cento 200 3000 di miliardi di dollari, migliaia di miliardi di dollari di cui stiamo parlando. E questa è la parte matematica. Poi c’è la parte sperimentale…

Parte 3: min. 0.24
[Parlando della formazione delle nubi]… ancora oggi il fenomeno non è capito e nessuno può dire a me che lui lo sa, perché io lo incastro subito: non è vero. La NASA infatti ha lanciato 2 satelliti, adesso si chiama…[non comprensibile...] per studiare la formazione delle nuvole, come conseguenza di questo dibattito che la NASA prende seriamente. Quindi prima che l’uomo si mettesse in testa di capire come si formano le nuvole si fanno previsioni su che cosa? Sull’atmosfera!

Parte 3: min. 1.24
In un articolo di Geoscience è venuto fuori che è stato scoperto che la circolazione oceanica, io non voglio entrare in dettaglio sennò ci perdiamo, ma, l’oceano, grande quantità d’acqua, che ha quello che chiamano tapis roulant, un affare che circola e che va in superficie, a sud dell’oceano, e quindi sono acque calde. Queste acque calde, per circa 10 anni, salendo verso il nord si inabissavano, senza che nessuno ne capisse il motivo. Da dieci anni a questa parte questo inabissamento non è più avvenuto. Ecco perché la temperatura mostra segni di aumentare. Nell’ultimo inverno hanno ricominciato a precipitare dentro, ad riinabissarsi. Se questo fenomeno continua, vedete che il global warming sparisce, perché questo innalzamento di queste correnti oceaniche non è capito. Questo per dire un dettaglio dei numerosi dettagli…

Parte 3: min. 3.30
Nel motore atmosferico, qual è l’incidenza delle attività umane? E’ un tema sul quale si sono impegnate parecchie persone. Tra queste quello che io rispetto molto e’ Freeman Dayson, un grande fisico teorico,  che è stato con noi in diverse occasioni. E non c’è bisogno di grandi dettagli, per scoprire che sul motore meteorologico, l’incidenza delle attività umane, è inferiore al 10%. Ma diciamo in 10,  in verità è il 5-6%. E il 90 dove lo mettiamo? Io vado in banca: ho il 6 % delle azioni e comando sugli altri ?

Parte 4: min. 0.20
L’anidride carbonica non va demonizzata, è cibo per le piante, e l’effetto serra non va demonizzato. Questo è quanto Enrico Fermi chiamava Hiroshima culturale.

Parte 4: min. 2.10
L’alleanza tra scienza e forze politiche responsabili è l’unica via per uscire da questo stato di Hiroshima culturale. Siamo in piena Hiroshima culturale.

Parte 4: min. 2.40
L’IPCC è nata ad Erice, quanto era segretario generale della WMO, un nigeriano, che, per nostra fortuna era anche fisico, in gamba, professore al MIT. Ed io dissi a questo mio collega, ci conoscevamo come colleghi a Ginevra, visto che tu sei segretario generale, cerca di portare un po’ di scienza in questa attività, lui venne per 3 anni ad Erice e si entusiasmò del rigore che noi portiamo nei nostri seminari e mi invitò ad aprire il congresso mondiale della WMO, e in quella occasione, 1985…1986…, presentai dal punto di vista scientifico gli stessi argomenti di adesso… adesso sono aggiornati…

Parte 4: min. 3.52
Perché la scienza ha credibilità? Perché se dice…. come nasce la credibilità scientifica? Con Galileo e Newton, e la famosa cometa se non appariva come previsto da Newton, invece esplode l’interesse verso la scienza. La credibilità scientifica rischia di essere compromessa… ecco perché c’è bisogno di una forza politica responsabile.

Parte 4: min. 4.30
Quando si dice che ci sono 2500 scienziati del clima. Non è vero, non esistono 2500 scienziati del clima… infatti .. basta vedere i nomi di questi signori…

A cura di Stefano Caserini, Marina Vitullo, Daniele Pernigotti, Simone Casadei, Aldo Pozzoli, Cluadio Cassardo

77 responses so far

Per un dialogo corretto fra scienza e decisori politici: no ai convegni sul clima senza climatologi

Nonostante l’ormai schiacciante evidenza scientifica sulla rilevanza del problema dei cambiamenti climatici e sulle responsabilità umane e senza curarsi del fecondo e aperto dibattito che anima ormai da tempo le migliori università di tutto il mondo, fra cui Stanford, Princeton e Berkeley, su costi e benefici della lotta contro i cambiamenti climatici, in Italia continuano a fiorire le occasioni pubbliche e gli articoli della stampa con cui si cerca di mettere in discussione l’esistenza del riscaldamento del pianeta, il ruolo delle attività umane o la convenienza di azioni di mitigazione.

Ultima in ordine di tempo è stata la notizia (falsa), apparsa a gennaio su molti quotidiani nazionali, di una fase di forte espansione della calotta polare e dei ghiacci alpini. Nonostante l’inconsistenza di queste notizie emerga di solito dopo pochi giorni, preoccupa come queste false informazioni, così come altre posizioni non supportate da dati oggettivi e credibili, arrivino ad essere veicolate ai rappresentanti politici nazionali come se fossero la “verità scientifica” sul clima.

Sono questi i contorni dell’incontro che si terrà il 3 marzo a Roma ed al quale  parteciperanno in una tavola rotonda i Presidenti ed importanti rappresentanti delle Commissioni Ambiente di Camera e Senato.
È curioso che il panel di relatori chiamati a intervenire nella “sessione scientifica” non includa veri esperti della tematica climatica ma sia caratterizzato da una assoluta e ampiamente documentata faziosità e ostinazione nel negare sistematicamente, contro ogni evidenza scientifica, l’esistenza dei cambiamenti climatici e la loro rilevante componente antropica.
Con una strategia ormai largamente sperimentata, fra i relatori, che si alterneranno nell’incontro organizzato a Roma, sono presenti sì scienziati e docenti universitari ma tutti fondamentalmente privi di una specifica competenza scientifica sulla materia dei cambiamenti climatici: come se non bastasse, salvo alcune eccezioni, i professori e gli scienziati del convegno di Roma sono sostanzialmente privi di pubblicazioni su riviste scientifiche internazionali non solo sulle tematiche climatiche ma più in generale su quelle ambientali. In quanto tali risultano niente di più che semplici opinionisti, non più autorevoli di un climatologo che pontifica sullo stato di risanamento dei conti pubblici italiani o sulla cura migliore del tumore al cervello.

Spicca, invece, l’assoluta mancanza di contraddittorio e di rappresentanza di quei pur numerosi climatologi italiani (come Filippo Giorgi, Antonio Navarra e molti altri ancora) che si sono guadagnati con serietà, dedizione e impegno, un ruolo di rilievo nella comunità scientifica internazionale e che contano decine di pubblicazioni scientifiche anche di grande importanza sul tema, nonché  la collaborazione proprio con quell’IPCC del quale ora, in questo incontro, si vuole minare la credibilità.
Il documento a supporto delle tesi negazioniste, che sarà presentato come punto centrale del tavolo del 3 marzo a Roma (“La natura, non l’attività dell’uomo, governa il clima”), è già stato stroncato dalla comunità scientifica di tutto il mondo. Questo perché propone tesi non sostenute da dati affidabili ed in secondo luogo perché è stato creato con la collaborazione di scienziati non specializzati nello studio dei cambiamenti climatici.
La stroncatura del documento è da mesi disponibile su Realclimate, uno dei blog internazionali più autorevoli sulle tematiche climatiche, la cui traduzione è disponibile da dicembre sul sito Climalteranti.it. Il rapporto succitato ha otto capitoli; cinque di questi hanno titoli che sono semplicemente falsi. I rimanenti tre capitoli pongono domande fuorvianti e in malafede, se non semplicemente disoneste, cui gli autori forniscono “risposte” basate su una letteratura scadente e selezionata in modo da evitare accuratamente tutte le pubblicazioni successive che contraddicono le tesi precostituite.
Il rapporto è stato pubblicato dall’Heartland Institute, una nota organizzazione politica di stampo negazionista che in passato ha ricevuto finanziamenti dalle compagnie petrolifere, per il NIPCC (Nongovernmental International Panel on Climate Change), una sigla che richiama in modo ingannevole il panel scientifico dell’ONU e sembra essere stata creata proprio per generare confusione nell’opinione pubblica. L’NIPCC, lungi dall’essere connesso ad alcun progetto delle Nazioni Unite, è stato invece istituito includendo scienziati di scarsa competenza sulle tematiche climatiche. Nella stesura di questo rapporto non è stato previsto alcun processo di controllo e di verifica da parte del resto della comunità scientifica.  Da notare che decine di scienziati inseriti nell’elenco degli estensori del rapporto hanno negato la loro partecipazione a questo gruppo e hanno espresso tesi opposte a quelle sostenute nel volume.

L’unico italiano presente nell’NIPCC, che illustrerà il volume nel convegno del 3 marzo, è un docente universitario, il Prof. Franco Battaglia, già vincitore del Premio “A qualcuno piace caldo 2007” . Costui non ha al suo attivo alcuna pubblicazione scientifica ISI (quelle riconosciute a livello internazionale) non solo nel settore delle climatologia, ma anche più in generale in quello ambientale; autore di alcune pubblicazioni di fisica-chimica teorica di scarsa rilevanza, è conosciuto solo come autore di articoli su un quotidiano nazionale, di nessun valore scientifico.
L’unico relatore indicato come “climatologo”, Guido Guidi,  non è uno scienziato impegnato in ricerche sui cambiamenti climatici, bensì un maggiore dell’Aeronautica militare che si occupa di previsioni del tempo a medio termine. Guidi pubblica su un blog tesi spesso senza fondamento scientifico sul tema dei cambiamenti climatici (ad esempio, l’ultimo granchio preso si trova qui).

Come cittadini italiani e ricercatori impegnati a divulgare in modo corretto la problematica dei cambiamenti climatici intendiamo ribadire quanto segue:
•    Il documento scientifico che sarà presentato nel convegno di Roma del 3 marzo nei locali della Camera dei Deputati è privo di fondamento scientifico ed è stato elaborato in modo fazioso e non trasparente;
•    I dati scientifici disponibili a livello internazionale sono incontrovertibili nell’individuare un preoccupante riscaldamento del pianeta e nel riconoscere in questo un ruolo centrale dell’uomo;
•    Il dibattito scientifico sui cambiamenti climatici deve restare un dibattito aperto, e non deve essere portato avanti senza il coinvolgimento di chi davvero studia davvero la climatologia e si confronta in ambito scientifico a livello internazionale;
•    È grave presentare al mondo politico italiano uno spaccato non rappresentativo, anzi distorto,  di quello che pensa la comunità scientifica su questi temi, quando invece la comunità scientifica internazionale è fondamentalmente unanime sulla valutazione delle cause (antropiche) come sull’entità del problema e sulla necessità di intraprendere rapidamente delle drastiche misure correttive per la riduzione dei gas climalteranti.

Il Comitato Editoriale di Climalteranti.it

144 responses so far

Perchè sono attendibili le serie storiche dei dati di temperatura globale

L’evidenza osservativa di un significativo incremento della temperatura media dell’aria in prossimità della superficie terrestre costituisce un dato importante nel contesto dell’attuale dibattito sull’effetto climalterante delle emissioni antropiche. Questo incremento, ben evidenziato dalla figura 1, è sovrapposto ad una significativa variabilità interannuale nonché ad una importante variabilità su scala decennale, ma è comunque chiaramente identificabile, tanto che 17 dei venti anni più caldi dell’intero periodo coperto dalle osservazioni strumentali cadono nel ventennio 1988-2007.

Figura 1: andamento della temperatura media globale in prossimità della superficie terrestre nel periodo 1856-2007. I valori sono espressi come scarti rispetto ai valori medi calcolati sul periodo 1961-1990. Fonte: University of East Anglia.

I dati rappresentati in figura 1 suscitano spesso numerosi interrogativi da parte di chi non si occupa professionalmente della ricostruzione o dell’analisi di serie storiche di dati meteorologici, in quanto non è facile capire come si possa effettivamente disporre di un numero di misure termometriche di alta qualità così elevato da permettere la ricostruzione dell’evoluzione del valor medio planetario della temperatura dell’aria per un periodo di oltre 150 anni.

In realtà lo sviluppo delle osservazioni meteorologiche affonda le sue radice in un passato molto più lontano di quanto non si creda comunemente e la prima rete sinottica, ovvero la rete del Cimento, risale addirittura al ‘600. A questa prima rete, che ha continuato ad operare per circa 15 anni, ne hanno fatto seguito molte altre, anche se fino alla seconda metà dell’800 tutte le iniziative hanno avuto una durata abbastanza limitata nel tempo e sono sempre state condotte in modo pioneristico e in assenza di metodologie standardizzate riconosciute universalmente.

Il primo tentativo di pervenire realmente ad un sistema di osservazioni meteorologiche standardizzato a scala planetaria è probabilmente costituito da una conferenza tenutasi a Bruxelles nel 1853. Questa conferenza viene considerata come il primo passo verso la cooperazione meteorologica internazionale, cooperazione che si è poi rafforzata rapidamente negli anni successivi fino a portare alla fondamentale conferenza di Vienna (1873), nel cui ambito è nata la International Meteorological Organisation (IMO), ovvero l’organizzazione che si è poi evoluta nella attuale World Meteorological Organisation (WMO).

La lettura degli atti di questa conferenza e delle conferenze che si sono succedute nei decenni successivi evidenzia in modo molto chiaro i notevoli sforzi prodotti negli ultimi tre decenni dell’800 per pervenire ad una reale standardizzazione delle osservazioni meteorologiche.

È peraltro importante sottolineare come già alla fine dell’800 le osservazioni non includessero solo i Paesi più avanzati, ma coprissero una significativa frazione dell’intero Pianeta, comprese alcune aree oceaniche che venivano coperte grazie al traffico marittimo. Nonostante ciò la copertura era comunque ancora lontana dall’essere globale e vi era la completa mancanza di osservazioni sistematiche in quota. Questi limiti vengono superati solo nella seconda parte del ventesimo secolo, dapprima con lo sviluppo di una rete planetaria di misure da termosondaggio quindi, in tempi più recenti, con lo sviluppo delle misure da satellite.

L’esistenza di una rete planetaria di osservatori meteorologici non è comunque l’unica condizione necessaria per poter studiare l’evoluzione a lungo termine del clima della Terra. Tale attività richiede infatti anche che i dati siano facilmente accessibili e che su di essi vengano effettuate una serie di analisi volte ad accertarne la qualità, l’omogeneità e la reale capacità di rappresentare l’intero Pianeta.

Il primo ricercatore che ha cercato di fronteggiare questi problemi è probabilmente stato Köppen che, tra il 1870 ed il 1880, ha organizzato ed elaborato un dataset di oltre 100 stazioni osservative, con l’obiettivo di produrre la prima stima dell’evoluzione della temperatura a scala globale della storia della meteorologia. Successivamente, la realizzazione di ricerche di questo tipo è stata notevolmente facilitata da una risoluzione della International Meteorological Organisation del 1923 che ha avviato una sistematica raccolta e pubblicazione di tutte le più significative serie di dati termometrici, pluviometrici e barometrici allora esistenti al mondo. Questa risoluzione ha portato al “World Weather Records”, una monumentale opera con serie di dati a risoluzione mensile relative a centinaia di stazioni di osservazione sparse in tutto il mondo. Questa raccolta ha poi continuato a venire regolarmente aggiornata nei decenni successivi e, a partire dagli anni ’60, i dati sono anche stati digitalizzati. Ai dataset globali vanno poi aggiunti numerosi dataset a carattere più locale (da nazionale a continentale), creati soprattutto nel corso degli ultimi decenni, nell’ambito di un grande numero di progetti volti a recuperare un frazione sempre più consistente dell’enorme patrimonio di informazioni che spesso giacciono ancora inutilizzate in archivi cartacei sparsi in tutto il Pianeta.

È quindi naturale come le stime dell’evoluzione a lungo termine della temperatura dell’aria in prossimità della superficie terrestre che si sono succedute al primo tentativo di Köppen si siano avvalse della disponibilità di una base di dati sempre più ampia, passando da un centinaio a 3000-4000 stazioni. A questi dati, relativi alle terre emerse, si aggiungono poi oggi numerose serie relative alle aree oceaniche. Esse consistono sostanzialmente di dati relativi alla temperatura superficiale dell’acqua, variabile che viene solitamente assunta come ben rappresentativa della temperatura dell’aria sugli oceani. Questi dati sono raccolti da lungo tempo grazie a navi mercantili e militare e, più recentemente, anche grazie ad una rete planetaria di stazioni ancorate a boe oceaniche.

Le più moderne stime dell’evoluzione a lungo termine della temperatura media planetaria dell’aria in prossimità della superficie terrestre si basano quindi sull’integrazione dei dati di diverse migliaia di stazioni osservative con una vasta mole di dati relativi alle aree oceaniche. Esse si avvalgono inoltre di un articolato insieme di procedure per il controllo della qualità e dell’omogeneità dei dati, nonché di tecniche di spazializzazione molto efficaci che consentono di gestire i problemi connessi con la distribuzione spaziale non uniforme delle serie disponibili (si veda ad esempio l’articolo di Brohan et al., 2006 “Uncertainty estimates in regional and global observed temperature changes: a new dataset from 1850” – J. Geophysical
Research ). Queste procedure, unitamente alla vasta letteratura disponibile sull’argomento, consentono oggi anche di valutare l’incertezza delle ricostruzioni ottenute. Essa è dovuta, da una parte al fatto che le serie storiche di dati meteorologici sono influenzate da disomogeneità ed errori indotti sia dagli strumenti di misura che dalle metodologie di osservazione e, dall’altra, dal fatto che, per quanto numerose, le misure disponibili non sono realmente rappresentative dell’intero Pianeta. Proprio per questa ragione una corretta ricostruzione dell’evoluzione della temperatura globale deve essere accompagnata da un’indicazione del relativo margine di incertezza. Questa indicazione è effettivamente presente nelle ricostruzioni più moderne e grazie ad essa è possibile per esempio affermare, come indicato nel quarto assessment report dell’IPCC, che il riscaldamento globale nel periodo 1906-2005 è stato di 0.74 ± 0.18 (°C), dove la cifra che segue la stima più probabile del trend indica l’intervallo entro il quale si ritiene che il trend abbia il 95% di probabilità di collocarsi effettivamente.

Il valore di incertezza relativamente contenuto delle stime relative al riscaldamento verificatosi nel corso dell’ultimo secolo è, come già visto, sicuramente frutto di sofisticate metodologie di analisi che consentono di massimizzare l’informazione che può essere estratta dai dati disponibili. Accanto a queste metodologie gioca però un ruolo fondamentale anche la buona qualità di molte delle serie osservative. La qualità delle osservazioni meteorologiche è infatti da lungo tempo un obiettivo fondamentale della comunità del settore; essa è peraltro sempre stata considerata con grande attenzione dall’Organizzazione Meteorologica Mondiale (si veda qui). Così, anche se esistono esempi di stazioni gestite e/o collocate in modo del tutto inadeguato, accanto ad esse vi è una grande maggioranza di situazioni nelle quali le osservazioni vengono effettuate in modo corretto e nelle quali viene prestata grande attenzione alle misure.

Testo di: Maurizio Maugeri

21 responses so far

Raffreddamento globale, ghiacci Artici, previsioni dell’IPCC

NOTA INFORMATIVA del Focal Point IPCC – Italia del 15 gennaio 2009.

La Redazione di www.climalteranti.it pubblica una nota informativa a cura di Sergio Castellari, inerente al dibattito sui cambiamenti climatici improvvisamente riaccesosi a seguito di alcune pubblicazioni apparse su importanti organi di informazione italiani.

In questi ultimi giorni sui media sono apparse notizie riguardo un rallentamento o blocco del riscaldamento globale a causa delle imponenti nevicate in varie zone Italiane e del pianeta e riguardo la forte crescita dei ghiacci marini Artici che sarebbero tornati ai livelli del 1979. Infine, alcuni articoli citano le “previsioni catastrofiche“ fatte dall’IPCC come ormai obsolete o anzi completamente errate (ad esempio qui, qui o qui).
E’ necessario fare alcuni chiarimenti.

Meteorologia e climatologia:

Bisogna stare molto attenti a non confondere una analisi meteorologica con una analisi climatica. Il sistema clima è un sistema complesso, che include l’atmosfera, gli oceani, le terre emerse, la criosfera e la biosfera. Generalmente il clima viene definito come “il tempo meteorologico medio” su scale temporali lunghe (almeno 30 anni). Quindi le condizioni climatiche vengono definite in termini di proprietà statistiche (ad esempio, il valore medio della temperatura atmosferica superficiale in una regione).
Quindi un cambiamento climatico può essere definito come una variazione significativa statisticamente dello stato medio del clima o della sua variabilità, persistente per un periodo esteso (tipicamente decenni o più). Un cambiamento climatico implica una variazione delle proprietà statistiche e non può essere associato ad un evento singolo (una alluvione, una tempesta di neve ecc.) Non ha senso la domanda: “L’alluvione in un dato luogo e giorno è causata da un cambiamento climatico?” Ha invece senso la domanda: “Un cambiamento climatico può comportare una aumentata probabilità che si verifichino fenomeni alluvionali?”
Quindi dare un senso climatico (fine del riscaldamento globale, inizio di un raffreddamento globale) ad una settimana di gelo in Italia significa fare una dichiarazione non basata su un corretto approccio scientifico.

Ma l’anno 2008 è stato veramente un anno freddo?

Questa è di nuovo una domanda generica, freddo rispetto a cosa e su quali scale temporali? Andando a vedere le due serie temporali di temperature media globali superficiali raccolte ed analizzate dal NCDC (National Climatic Data Center) della NOAA (National Ocean Atmophere Administration) (USA) e dal Met Office Hadley Centre (UK) si può chiaramente vedere che il 2008 non è stato un anno “freddo” in queste serie
temporali rispetto a medie a lungo termine. Il rapporto preliminare (perché ancora non considera il mese di dicembre 2008) del NCDC dichiara che l’anno 2008 potrà essere uno dei 10 anni più caldi dal 1880 (inizio della serie termometrica globale) rispetto alla media del 20esimo secolo. Inoltre il mese di novembre 2008 è stato il quarto novembre più caldo della serie globale dal 1880 e l’agosto 2008 si è posizionato al decimo posto come agosto più caldo nella serie temporale.
Questo trend è confermato anche dalla serie globale del Met Office Hadley Centre. Quasi tutti gli anni del nuovo millennio stanno tra i 10 anni più caldi di entrambi le serie termometriche globali. Negli ultimi 10 anni le temperature sono cresciute più lentamente rispetto ai decenni precedenti, ma ragionando su tempi lunghi è evidente un trend di crescita di temperature. Questo non significa che l’anno 2009 sarà necessariamente più caldo del 2008: il 2009 potrebbe essere l’anno più freddo dal 1980, ma il trend di crescita globale di temperature rimarrebbe se il 2010 ed il 2011 saranno di nuovo anni più caldi rispetto ad una media a lungo termine. Il valore di temperatura globale di un anno non può modificare una tendenza a lungo termine.

I ghiacci artici che tornano ai livelli del 1979:

Alcuni articoli stranieri ed italiani, citando i dati dell’University of Illinois’s Arctic Climate Research Center, hanno spiegato che l’estensione del ghiaccio marino artico è tornata a crescere ed ha raggiunto l’estensione del 1979. Intanto la crescita invernale del ghiaccio marino Artico è un normale processo stagionale: l’estensione diminuisce in estate e ricresce in inverno. Però negli ultimi anni come mostrato dal NSIDC (National Snow And Ice Data Center) (USA), qualcosa è cambiato. L’estensione di ghiaccio marino Artico (sea ice extent) ha raggiunto il record minimo nel settembre 2007, seguito dal settembre 2008 e settembre 2005, confermando che esiste un trend negativo nella estensione di ghiaccio marino estivo osservato negli ultimi 30 anni.

Se si cercano i dati dell’University of Illinois’s Arctic Climate Research Center al loro sito  si può arrivare al sito Criosphere Today del Polar Research Group – University of Illinois dove, controllando i grafici, si può vedere che l’estensione del ghiaccio marino (sea ice area) dell’Emisfero Nord nel dicembre 2008 non raggiunge il livello del 1979, mentre il sea ice area dell’Emisfero Sud nell’estate 2008 ha raggiunto il livello dell’estate 1979!

Per l’Artico il NSIDC ha comunicato il 7 gennaio (2008 Year-in-Review) che:
• l’estensione del ghiaccio marino (sea ice extent) nel dicembre 2008 è stata di 12.53 milioni di km2, 830,000 milioni di km2 di meno della media 1979 – 2000;
• il ghiaccio marino del 2008 ha mostrato una estensione ben sotto alla media (wellbelow- average ice extents) durante l’intero anno 2008;
• dal 12 al 19 dicembre 2008 la crescita stagionale di ghiaccio marino Artico si è interrotta probabilmente a causa di un sistema anomalo di pressione atmosferica combinato all’effetto delle temperature marine superficiali più calde nel Mare di Barents.

Le “previsioni” dell’IPCC:

Innanzitutto esistono vari tipi di modelli:
1. Modelli di previsione meteorologica operativa: grandi modelli computazionali, che integrano le equazioni del moto atmosferico, accoppiate con opportune rappresentazioni degli scambi di materia e calore con la superficie terrestre e che forniscono le previsioni meteorologiche;
2. Modelli di previsione stagionale: stessi modelli atmosferici, ma accoppiati a all’oceano e sono utilizzati per prevedere fenomeni come El Nino;
3. Modelli del Sistema Terra (Earth System Models): modelli dell’atmosfera ed oceano tra loro accoppiati, ma accoppiati anche ad altri modelli che rappresentano la superficie, il ghiaccio marino, la vegetazione, la chimica atmosferica, il ciclo del carbonio e gli aerosol.
Per gi studi dei possibili climi a 50 o 100 anni si usano i Modelli del Sistema Terra, ma in maniera diversa dai modelli di previsione meteorologica. Nel campo della predicibilità di un sistema come il sistema clima si possono avere due tipi di previsioni: “Previsioni di Primo Tipo” (o Problemi ai Valori Iniziali) e “Previsioni di Secondo Tipo” (o Problemi ai Parametri). Le cosiddette previsioni climatiche dell’IPCC sono previsioni del secondo tipo: dato il sistema clima soggetto a variazioni di un forzante esterno, sono previsioni delle variazioni delle proprietà statistiche del sistema clima al variare dei parametri esterni. Queste previsioni non dipendono dai valori iniziali, come le previsioni del Primo Tipo che sono poi le previsioni meteorologiche e che hanno un limite intrinseco a circa due settimane.

Queste previsioni climatiche si definiscono in realtà proiezioni climatiche e cercano di rispondere alle seguenti domande:

1. Assumendo che la composizione atmosferica vari secondo un certo scenario di emissione, allora quale sarà ad esempio tra 30, 50 e 100 anni la probabilità di avere una temperatura media più alta di 3°C rispetto a quella attuale?

2. Come sarà distribuita sul globo questa variazione della temperatura media prevista?

Queste proiezioni si possono chiamare anche scenari climatici, perché come variazione di forzanti esterni (gas serra ed aerosol) usano scenari di concentrazione che derivano da scenari di emissioni. Questi scenari di emissioni sono descrizioni plausibili dello sviluppo futuro delle emissioni di gas serra e aerosol, basate su un insieme coerente ed internamente consistente di assunzioni sulle forze che le guidano (soprattutto economiche, tassi di sviluppo tecnologico, andamento dei mercati, sviluppo demografico, ecc.).

E’ importante sottolineare che la dinamica caotica del clima terrestre e dei moti atmosferici pone un limite teorico alla possibilità di eseguire Previsioni del Primo Tipo. Infatti il sistema clima è un sistema fisico complesso con un comportamento non lineare su molte scale temporali e che include molte possibili instabilità dinamiche. Però la natura caotica del sistema clima non pone alcun limite teorico alla possibilità di eseguire Previsioni del Secondo Tipo. Quindi è più semplice eseguire Previsioni di Secondo Tipo (in altre parole previsioni climatiche di tipo statistico) per i prossimi 100 anni assumendo possibili variazioni dei forzanti esterni, che estendere di qualche giorno il termine delle previsioni meteorologiche.
Queste previsioni statistiche vengono effettuate in vari centri di modellistica climatica in varie parti del mondo (anche in Italia, ad esempio al Centro Euro-Mediterraneo per i Cambiamenti Climatici – CMCC) e fino ad oggi quasi tutti i modelli climatici del tipo Earth System Models hanno usato gli stessi scenari di emissioni chiamati IPCC-SRES al fine di poter confrontare i risultati. Questi scenari di emissioni sono molti e presuppongono diversi sviluppi socioeconomici a livello globale e quindi diversi livelli di emissioni al fine di poter“catturare” il possibile futuro climatico della Terra.

In conclusione, queste previsioni sono scenari climatici o proiezioni climatiche e non previsioni meteorologiche a lungo termine.

7 responses so far

Voglia di superfreddo

«Se il Sole continuerà a restare senza macchie, sulla Terra potrebbe arrivare un freddo glaciale». Questa l’apertura di un articolo del Corriere della Sera del 7 ottobre.

Per quanto riguarda il ciclo delle macchie solari, esiste un insieme di misure, dirette e indirette, che ormai ci hanno fatta capire molto di come e quanto il nostro astro ci scalda e quante macchie solari ci sono. Fra le più autorevoli previsioni sul ciclo delle macchie solari disponibile on-line c’è quella del Marshall Space Flight Center: il prossimo massimo è atteso fra il 2011 e il 2012.

Sono previsioni, hanno i loro margini di errori, ma non si brancola nel buio.

Nello studio del clima si è capito anche, certo con ancora dei margini di incertezza, come la variazione della forza del sole ha influito sul clima del pianeta negli ultimi millenni e degli ultimi secoli.

Uno degli ultimi studi ben fatti, quello di Lockwood M., Frohlich C. (2007) ha concluso che

Tutti i parametri del Sole che possono avere un’influenza sul clima negli ultimi 20 anni sono andati in una direzione opposta a quella richiesta per spiegare l’aumento osservato delle temperature medie.

Se si va più indietro, si vede che la forzante solare ha con alta probabilità influito sulle temperature del famoso periodo caldo medioevale (PCM) e della piccola era glaciale (PEG). La ricostruzione delle temperature più accreditata per gli ultimi 2000 anni mostra che le differenze fra le temperature medie nell’emisfero nord fra il PCM e la PEG sono state di circa 0.5-0.6 °C, distribuite in diversi secoli.

Uno degli ultimi importanti studio usciti più recentemente non ha cambiato le cose.

Dunque,

1) la probabilità che il sole rimanga senza macchie solari per tanti anni, tanto da innestare un’era glaciale, è molto molto basso.

2) con le loro variazioni normali le macchie solari saranno un fattore del tutto secondario sul futuro andamento delle temperature

3) le irregolarità possibili in ogni andamento ciclico non potranno cambiare più di tanto l’aumento futuro delle temperature. Atteso nel 2100 secondo le previsioni dell’IPCC in un range fra 1.8 e 4°C.

Una variazione delle macchie solari tipo quella del XVII secolo non porterà alcuna piccola era glaciale, al limite, ridurrà leggermente un riscaldamento comunque molto pericoloso per l’uomo e gli ecosistemi.

Secondo lo stesso Prof. David Hathaway, citato nell’articolo, l’attuale andamento delle macchie solari “It wouldn’t cause cooling, it just might decrease the rate at which the Earth is heating”

Conclusione: il rischio di passare dal supercaldo al superfreddo a causa delle macchie solari o della loro assenza è praticamente nullo. Non ci sarà la piccola era glaciale. Dopo l’episodio del maggio 2008, in cui era girato l’allarme per un raffreddamento dei prossimi 10 anni (vedi nomination del titolista de La Repubblica), un’altra volta è stato un infondato allarme per un presunto imminente freddo futuro a fare notizia. È come se, all’inizio dell’inverno, ci fosse una gran voglia di suonare l’allarme per il freddo. E si che di notizie sulle preoccupazioni per il riscaldamento futuro ce ne sarebbero come chiaramente evidenziato da una moltitudine di lavori scientifici (si veda ad esempio: qui e qui).

Testo di: Stefano Caserini, Giulio De Leo

4 responses so far