Notizie e approfondimenti sul clima che cambiaPosts RSS Comments RSS

26 Febbraio 2009

Per un dialogo corretto fra scienza e decisori politici: no ai convegni sul clima senza climatologi

Categorie: Abbagli, Comunicazione, Errori, IPCC, Negazionisti, Politiche  -  Postato da: 

Nonostante l’ormai schiacciante evidenza scientifica sulla rilevanza del problema dei cambiamenti climatici e sulle responsabilità umane e senza curarsi del fecondo e aperto dibattito che anima ormai da tempo le migliori università di tutto il mondo, fra cui Stanford, Princeton e Berkeley, su costi e benefici della lotta contro i cambiamenti climatici, in Italia continuano a fiorire le occasioni pubbliche e gli articoli della stampa con cui si cerca di mettere in discussione l’esistenza del riscaldamento del pianeta, il ruolo delle attività umane o la convenienza di azioni di mitigazione.

Ultima in ordine di tempo è stata la notizia (falsa), apparsa a gennaio su molti quotidiani nazionali, di una fase di forte espansione della calotta polare e dei ghiacci alpini. Nonostante l’inconsistenza di queste notizie emerga di solito dopo pochi giorni, preoccupa come queste false informazioni, così come altre posizioni non supportate da dati oggettivi e credibili, arrivino ad essere veicolate ai rappresentanti politici nazionali come se fossero la “verità scientifica” sul clima.

Sono questi i contorni dell’incontro che si terrà il 3 marzo a Roma ed al quale  parteciperanno in una tavola rotonda i Presidenti ed importanti rappresentanti delle Commissioni Ambiente di Camera e Senato.
È curioso che il panel di relatori chiamati a intervenire nella “sessione scientifica” non includa veri esperti della tematica climatica ma sia caratterizzato da una assoluta e ampiamente documentata faziosità e ostinazione nel negare sistematicamente, contro ogni evidenza scientifica, l’esistenza dei cambiamenti climatici e la loro rilevante componente antropica.
Con una strategia ormai largamente sperimentata, fra i relatori, che si alterneranno nell’incontro organizzato a Roma, sono presenti sì scienziati e docenti universitari ma tutti fondamentalmente privi di una specifica competenza scientifica sulla materia dei cambiamenti climatici: come se non bastasse, salvo alcune eccezioni, i professori e gli scienziati del convegno di Roma sono sostanzialmente privi di pubblicazioni su riviste scientifiche internazionali non solo sulle tematiche climatiche ma più in generale su quelle ambientali. In quanto tali risultano niente di più che semplici opinionisti, non più autorevoli di un climatologo che pontifica sullo stato di risanamento dei conti pubblici italiani o sulla cura migliore del tumore al cervello.

Spicca, invece, l’assoluta mancanza di contraddittorio e di rappresentanza di quei pur numerosi climatologi italiani (come Filippo Giorgi, Antonio Navarra e molti altri ancora) che si sono guadagnati con serietà, dedizione e impegno, un ruolo di rilievo nella comunità scientifica internazionale e che contano decine di pubblicazioni scientifiche anche di grande importanza sul tema, nonché  la collaborazione proprio con quell’IPCC del quale ora, in questo incontro, si vuole minare la credibilità.
Il documento a supporto delle tesi negazioniste, che sarà presentato come punto centrale del tavolo del 3 marzo a Roma (“La natura, non l’attività dell’uomo, governa il clima”), è già stato stroncato dalla comunità scientifica di tutto il mondo. Questo perché propone tesi non sostenute da dati affidabili ed in secondo luogo perché è stato creato con la collaborazione di scienziati non specializzati nello studio dei cambiamenti climatici.
La stroncatura del documento è da mesi disponibile su Realclimate, uno dei blog internazionali più autorevoli sulle tematiche climatiche, la cui traduzione è disponibile da dicembre sul sito Climalteranti.it. Il rapporto succitato ha otto capitoli; cinque di questi hanno titoli che sono semplicemente falsi. I rimanenti tre capitoli pongono domande fuorvianti e in malafede, se non semplicemente disoneste, cui gli autori forniscono “risposte” basate su una letteratura scadente e selezionata in modo da evitare accuratamente tutte le pubblicazioni successive che contraddicono le tesi precostituite.
Il rapporto è stato pubblicato dall’Heartland Institute, una nota organizzazione politica di stampo negazionista che in passato ha ricevuto finanziamenti dalle compagnie petrolifere, per il NIPCC (Nongovernmental International Panel on Climate Change), una sigla che richiama in modo ingannevole il panel scientifico dell’ONU e sembra essere stata creata proprio per generare confusione nell’opinione pubblica. L’NIPCC, lungi dall’essere connesso ad alcun progetto delle Nazioni Unite, è stato invece istituito includendo scienziati di scarsa competenza sulle tematiche climatiche. Nella stesura di questo rapporto non è stato previsto alcun processo di controllo e di verifica da parte del resto della comunità scientifica.  Da notare che decine di scienziati inseriti nell’elenco degli estensori del rapporto hanno negato la loro partecipazione a questo gruppo e hanno espresso tesi opposte a quelle sostenute nel volume.

L’unico italiano presente nell’NIPCC, che illustrerà il volume nel convegno del 3 marzo, è un docente universitario, il Prof. Franco Battaglia, già vincitore del Premio “A qualcuno piace caldo 2007” . Costui non ha al suo attivo alcuna pubblicazione scientifica ISI (quelle riconosciute a livello internazionale) non solo nel settore delle climatologia, ma anche più in generale in quello ambientale; autore di alcune pubblicazioni di fisica-chimica teorica di scarsa rilevanza, è conosciuto solo come autore di articoli su un quotidiano nazionale, di nessun valore scientifico.
L’unico relatore indicato come “climatologo”, Guido Guidi,  non è uno scienziato impegnato in ricerche sui cambiamenti climatici, bensì un maggiore dell’Aeronautica militare che si occupa di previsioni del tempo a medio termine. Guidi pubblica su un blog tesi spesso senza fondamento scientifico sul tema dei cambiamenti climatici (ad esempio, l’ultimo granchio preso si trova qui).

Come cittadini italiani e ricercatori impegnati a divulgare in modo corretto la problematica dei cambiamenti climatici intendiamo ribadire quanto segue:
•    Il documento scientifico che sarà presentato nel convegno di Roma del 3 marzo nei locali della Camera dei Deputati è privo di fondamento scientifico ed è stato elaborato in modo fazioso e non trasparente;
•    I dati scientifici disponibili a livello internazionale sono incontrovertibili nell’individuare un preoccupante riscaldamento del pianeta e nel riconoscere in questo un ruolo centrale dell’uomo;
•    Il dibattito scientifico sui cambiamenti climatici deve restare un dibattito aperto, e non deve essere portato avanti senza il coinvolgimento di chi davvero studia davvero la climatologia e si confronta in ambito scientifico a livello internazionale;
•    È grave presentare al mondo politico italiano uno spaccato non rappresentativo, anzi distorto,  di quello che pensa la comunità scientifica su questi temi, quando invece la comunità scientifica internazionale è fondamentalmente unanime sulla valutazione delle cause (antropiche) come sull’entità del problema e sulla necessità di intraprendere rapidamente delle drastiche misure correttive per la riduzione dei gas climalteranti.

Il Comitato Editoriale di Climalteranti.it


Tags: , , ,
144 commenti

21 Febbraio 2009

Dicembre 2008 e gennaio 2009: eccezionali veramente?

Categorie: Abbagli, Comunicazione, Meteorologia, Temperature  -  Postato da: 

Sintesi: l’analisi a scala globale dei dati relativi al bimestre dicembre ’08-gennaio ’09 appena trascorso mostra che tale periodo non può essere considerato eccezionale non solo dal punto di vista climatico (in quanto una singola stagione non dice nulla sul clima), ma neppure da quello meteorologico, in quanto le anomalie termiche e pluviometriche riscontrate hanno riguardato soltanto una piccola porzione del territorio nazionale (peraltro compatibili con quelle verificatesi negli anni precedenti) mentre a livello globale l’anomalia termica e’ addirittura stata positiva.

a

Fa freddo. È questo il commento un po’ generale che imperversa ormai dall’inizio di dicembre. Ma non vorrei qui ripetere per l’ennesima volta quale sia la differenza tra tempo meteorologico e clima (concetto già ribadito più volte nei post precedenti), quanto piuttosto insistere sul fatto che occorre sempre analizzare i dati nella loro globalità, non in singole stazioni. Infatti, se anche l’inverno 2008-09 avesse fatto registrare in qualche stazione italiana, o anche, al limite, in tutta Italia, i valori minimi di temperatura delle serie storiche (cosa che, come vedremo, non è vera), non si potrebbe comunque parlare di cambiamento del clima, ma solo di un evento o di una serie di eventi, al limite insoliti; inoltre, analizzando la situazione globale, si scoprirebbe che questo evento probabilmente è bilanciato da una altrettanto significativa anomalia calda in altre zone del mondo.
Il mio obbiettivo è quindi quello di rispondere alla domanda: “quest’anno è stato freddo o no?” facendo chiarezza ed esaminando i dati disponibili.
Non essendo ancora terminato l’inverno (che meteorologicamente finisce a fine febbraio), possiamo commentare i primi due mesi dell’inverno meteorologico 2008-2009 usando le mappe meteorologiche che ho creato utilizzando i dati messi a disposizione dalla NOAA (National Oceanic and Atmospheric Administration) su questo sito. È un giochino interessante e chiunque può divertirsi facendosi la propria climatologia: si possono visualizzare una ventina di variabili sulla porzione del globo terrestre che più interessa, alla risoluzione spaziale di 2.5 gradi in longitudine e latitudine (cioè circa 125 Km alle nostre latitudini, non sufficiente per i dettagli locali ma sufficiente per gli andamenti generali), e si può calcolare l’anomalia della grandezza considerata, cioè la differenza fra il valore registrato in un certo periodo e il valore medio su un periodo di riferimento. NOAA ha scelto come periodo di riferimento il 1968-1996, che è un po’ diverso dal trentennio abitualmente scelto come riferimento 1961-90 (volendo, con un po’ di tempo in più si può scegliere il periodo che si vuole) ma le differenze non sono poi così significative. Ho quindi creato i grafici delle anomalie di temperatura e precipitazione relative agli ultimi due mesi di dicembre 2008 e gennaio 2009 confrontandoli con le medie.
Cominciamo a vedere la mappa che riporta le anomalie a scala globale (Fig. 1 – i colori blu e rosso scuro evidenziano, come nei rubinetti, le zone rispettivamente con anomalia negativa e positiva).

T superf dic08-gen09

Figura 1 – Anomalia di temperatura superficiale sul globo terrestre 1 Dicembre 2008 – 30 Gennaio 2009 rispetto al periodo di riferimento 1968-1996. Grafico generato dalle informazioni NOAA.

Beh, sicuramente non si può dire che, a scala globale, sia stato un bimestre freddo. Ci sono, è vero, dei minimi (Antartide, Stati Uniti, Cile), ma anche dei massimi, in particolare sulle regioni del Polo Nord, nei pressi delle isole Svalbard (fino a 12 °C!). Facendo uno zoom sull’emisfero Nord (Fig. 2), si notano delle ampie zone con anomalie positive sull’Africa, sulle zone polari, sul Pacifico, e due piccole aree al centro degli Stati Uniti e sull’Ungheria, mentre sono presenti alcune zone di anomalia negativa sul Canada e sugli Stati Uniti orientali, nei pressi dell’Alaska, e in altre quattro piccole zone distribuite tra Europa, Africa settentrionale e Asia. Come chiunque può vedere, l’estensione delle aree con anomalia positiva è nettamente maggiore di quelle con anomalia negativa, per cui si può dire che, per quanto riguarda l’emisfero nord, il bimestre considerato è stato più caldo della norma.

T emisfero Nord dic08-gen09

Figura 2 – Anomalia di temperatura superficiale sull’emisfero Nord nel periodo 1 Dicembre 2008 – 30 Gennaio 2009 rispetto al periodo di riferimento 1968-1996. Grafico generato dalle informazioni NOAA.

I dettagli sulla zona europea (Fig. 3) e sull’Italia (Fig. 4) riportano un numero maggiore di isolinee e mostrano una zona con anomalie negative di temperatura con i minimi sulla Francia centrale e sul Marocco estesa dalla Germania meridionale fino all’Africa nord-occidentale, e che lambisce anche l’Italia nordoccidentale. Il resto dell’Italia si trova in una zona intermedia che confina con un’area molto ampia di anomalie termiche positive che si estende dal Mediterraneo orientale verso nord.

T superf europa dic08-gen09

Figura 3 – Anomalia di temperatura superficiale sull’Europa nel periodo 1 Dicembre 2008 – 30 Gennaio 2009 rispetto al periodo di riferimento 1968-1996. Grafico generato dalle informazioni NOAA.

T superf Italia dic 08-gen09

Figura 4 – Anomalia di temperatura superficiale sull’Italia nel periodo 1 Dicembre 2008 – 30 Gennaio 2009 rispetto al periodo di riferimento 1968-1996. Grafico generato dalle informazioni NOAA.

Dunque, si è effettivamente registrata un’anomalia di temperatura lievemente negativa su una parte del territorio nazionale, del resto confermata anche dall’analisi condotta dal Centro Nazionale di Meteorologia e Climatologia Aeronautica sul Bollettino Climatico di Gennaio 2009. Quanto è significativo questo dato? Per rispondere a questa domanda, ho generato le mappe relative alle anomalie di temperatura sul territorio nazionale e sulle aree limitrofe relative agli ultimi 12 periodi invernali dicembre-gennaio (reperibili su questo sito). La loro analisi mostra chiaramente che questo bimestre non è stato né l’unico né il più freddo nel periodo considerato. Se è vero, infatti, che ci sono stati dei bimestri nettamente più caldi (1997-98, 2000-01, e il famigerato 2006-07), è anche vero che non mancano gli anni con anomalie negative (1998-99 solo sul sud Italia, 1999-2000, 2001-2, 2003-4, 2004-5 solo sul nord Italia, e poi il bimestre 2005-6, molto più freddo su tutto il territorio nazionale rispetto a quello attuale).
Per un maggiore dettaglio su una singola località, tra tutte le possibili scegliamo Torino, un po’ perché ci abito, ma soprattutto perché, grazie all’encomiabile meticolosità ventennale di Luca Mercalli e Gennaro Di Napoli, culminato nel libro “Il clima di Torino” (un’enciclopedia di oltre 900 pagine, disponibile su questo sito della Società Meteorologica Italiana) appena pubblicato, sono disponibili i dati di temperatura dal 1753, di pioggia giornaliera dal 1802 e di neve cumulata giornaliera dal 1787 (quest’ultima è la serie più lunga al mondo), tutte omogeneizzate, e le analisi su tali dati. Paragonando la temperatura invernale a Torino con la media relativa al periodo 1961-90 (Fig. 5), si osserva come sostanzialmente si sia verificata una leggera anomalia negativa, pari rispettivamente a –0.4°C per le minime ed a –0.7°C per le massime, dovuta principalmente alle irruzioni fredde dei primi 12 giorni di dicembre e da Natale all’11 gennaio.

T Torino

Figura 5 – Andamento delle temperature minime e massime giornaliere rilevate a Torino nel periodo 1 novembre 2008 – 16 febbraio 2009 paragonate con i valori medi relativi al trentennio 1961-1990. Dati forniti dalla Società Meteorologica Italiana, elaborazioni a cura di Daniele Cat Berro e Luca Mercalli.

La stima provvisoria della temperatura media a Torino relativa al trimestre invernale (dicembre-febbraio) è di 3.3°C (manca però metà febbraio), simile all’inverno 2005-06 (3.4 °C) ed inferiore alla media 1961-90 (3.8 °C), come si può vedere nella Fig. 6.

T Torino inverno

Figura 6 – Andamento delle temperature medie del trimestre invernale dicembre-febbraio durante l’intero arco delle misure relative alla serie storica di Torino. Dati forniti dalla Società Meteorologica Italiana, elaborazioni a cura di Daniele Cat Berro e Luca Mercalli.

E per quanto riguarda le precipitazioni, che cosa si può dire? Analizzando i grafici delle anomalie del rateo di precipitazione (in mm/giorno) sull’Italia (Fig. 7), si nota l’evidente area di anomalia positiva (colore blu) che coinvolge l’intero territorio nazionale nell’ultimo bimestre, con un picco evidente sulle regioni meridionali italiane: il 2008-09 è stato effettivamente un bimestre abbastanza piovoso (o nevoso, in certe zone).

Piogge Italia

Figura 7 – Anomalia di rateo di precipitazione (mm/giorno) sull’Italia nel periodo 1 Dicembre 2008 – 30 Gennaio 2009 rispetto al periodo di riferimento 1968-1996. Grafico generato dalle informazioni NOAA.

Ma il confronto con gli altri 12 bimestri invernali riportati su questo sito per gli ultimi 12 bimestri invernali dicembre-gennaio mostra che, sulle regioni meridionali italiane, anomalie simili si sono verificate anche in altri anni (in particolare nei quattro inverni consecutivi dal 2002-3 al 2005-6, e nel 2007-8), mentre per quanto riguarda il nord Italia le anomalie positive sono state effettivamente molto più rare.
A Torino, in particolare (Fig. 8), dal 1° novembre al 20 febbraio, si sono accumulati ben 518.7 mm, dovuti principalmente ai due eventi di inizio novembre (120 mm) e metà dicembre (211 mm), e tale quantitativo rappresenta il record di tutta la serie per quanto riguarda il periodo novembre-febbraio (il record precedente fu registrato nel lontano 1825-26, con 509.4 mm).

Pioggia e  neve Torino 08-09

Figura 8 – Precipitazioni (pioggia e neve fusa) giornaliere accumulate nel periodo novembre 2008 – febbraio 2009 registrate a Torino: confronto con la media del trentennio 1961-90 e con il massimo quadrimestrale precedente. Dati forniti dalla Società Meteorologica Italiana, elaborazioni a cura di Daniele Cat Berro e Luca Mercalli.

Le temperature più rigide e le precipitazioni più abbondanti a Torino hanno avuto come conseguenza un incremento notevole del numero e dell’intensità delle nevicate: a fronte di una media di 7.2 giorni con nevicate nel periodo 1961-90, nel 2008-09 si è visto nevicare in 14 giornate (Fig. 9), valore nettamente inferiore al massimo storico di 30 episodi del 1837 (ma in tale epoca si stava uscendo dalla Piccola Età Glaciale), ma nettamente superiore a quelli degli ultimi anni (era dal 1986 che non nevicava così frequentemente: 16 giorni).

giorni neve Torino

Figura 9 – Giorni con nevicate nel periodo novembre 2008 – febbraio 2009 a Torino e quantitativo di neve accumulata giornaliera. Dati forniti dalla Società Meteorologica Italiana, elaborazioni a cura di Daniele Cat Berro e Luca Mercalli.

Il manto totale depositatosi in città nel trimestre dicembre-febbraio è stato di 66 cm (di cui 32 cm tra il 6 e l’8 gennaio), valore nettamente superiore alla media 1961-90 (28 cm) ed ai valori tipici degli ultimi anni (quando in ben tre casi – nel 1988-89, 1989-90 e 2006-07 – non nevicò affatto in città: si veda la Fig. 10).

neve Torino

Figura 10 – Neve fresca accumulata nell’anno idrologico registrata presso gli osservatori della serie storica di Torino dal 1787 a oggi. Dati forniti dalla Società Meteorologica Italiana, elaborazioni a cura di Daniele Cat Berro e Luca Mercalli.

L’analisi appena condotta, sia pure parziale poiché la stagione non è ancora terminata, mostra comunque che il bimestre appena trascorso non può essere considerato eccezionale non solo dal punto di vista climatico (in quanto una singola stagione non dice nulla sul clima), ma neppure da quello meteorologico, in quanto le anomalie riscontrate sono compatibili con quelle verificatesi negli anni precedenti.
L’Italia settentrionale, ed in particolare quella nordoccidentale, ha registrato temperature leggermente inferiori alla norma e precipitazioni superiori alla norma, almeno per quanto riguarda gli ultimi 12 bimestri invernali, fatto che ha comportato un incremento nel numero delle nevicate anche a quote di pianura. I valori termici registrati in Italia nordoccidentale nello scorso inverno si sono avvicinati alle medie relative al periodo di riferimento 1961-90 e, forse proprio per questo motivo, sono state percepite come insolitamente fredde se paragonate con quelle registrate negli ultimi inverni. L’Italia meridionale ha invece registrato sia temperature sia, soprattutto, precipitazioni superiori alla norma, cosa peraltro già verificatasi frequentemente negli ultimi 12 anni.

Testo di: Claudio Cassardo


Tags: ,
13 commenti

10 Febbraio 2009

Perchè sono attendibili le serie storiche dei dati di temperatura globale

Categorie: Dati, IPCC, Meteorologia, Temperature  -  Postato da: 

L’evidenza osservativa di un significativo incremento della temperatura media dell’aria in prossimità della superficie terrestre costituisce un dato importante nel contesto dell’attuale dibattito sull’effetto climalterante delle emissioni antropiche. Questo incremento, ben evidenziato dalla figura 1, è sovrapposto ad una significativa variabilità interannuale nonché ad una importante variabilità su scala decennale, ma è comunque chiaramente identificabile, tanto che 17 dei venti anni più caldi dell’intero periodo coperto dalle osservazioni strumentali cadono nel ventennio 1988-2007.

Figura 1: andamento della temperatura media globale in prossimità della superficie terrestre nel periodo 1856-2007. I valori sono espressi come scarti rispetto ai valori medi calcolati sul periodo 1961-1990. Fonte: University of East Anglia.

I dati rappresentati in figura 1 suscitano spesso numerosi interrogativi da parte di chi non si occupa professionalmente della ricostruzione o dell’analisi di serie storiche di dati meteorologici, in quanto non è facile capire come si possa effettivamente disporre di un numero di misure termometriche di alta qualità così elevato da permettere la ricostruzione dell’evoluzione del valor medio planetario della temperatura dell’aria per un periodo di oltre 150 anni.

In realtà lo sviluppo delle osservazioni meteorologiche affonda le sue radice in un passato molto più lontano di quanto non si creda comunemente e la prima rete sinottica, ovvero la rete del Cimento, risale addirittura al ‘600. A questa prima rete, che ha continuato ad operare per circa 15 anni, ne hanno fatto seguito molte altre, anche se fino alla seconda metà dell’800 tutte le iniziative hanno avuto una durata abbastanza limitata nel tempo e sono sempre state condotte in modo pioneristico e in assenza di metodologie standardizzate riconosciute universalmente.

Il primo tentativo di pervenire realmente ad un sistema di osservazioni meteorologiche standardizzato a scala planetaria è probabilmente costituito da una conferenza tenutasi a Bruxelles nel 1853. Questa conferenza viene considerata come il primo passo verso la cooperazione meteorologica internazionale, cooperazione che si è poi rafforzata rapidamente negli anni successivi fino a portare alla fondamentale conferenza di Vienna (1873), nel cui ambito è nata la International Meteorological Organisation (IMO), ovvero l’organizzazione che si è poi evoluta nella attuale World Meteorological Organisation (WMO).

La lettura degli atti di questa conferenza e delle conferenze che si sono succedute nei decenni successivi evidenzia in modo molto chiaro i notevoli sforzi prodotti negli ultimi tre decenni dell’800 per pervenire ad una reale standardizzazione delle osservazioni meteorologiche.

È peraltro importante sottolineare come già alla fine dell’800 le osservazioni non includessero solo i Paesi più avanzati, ma coprissero una significativa frazione dell’intero Pianeta, comprese alcune aree oceaniche che venivano coperte grazie al traffico marittimo. Nonostante ciò la copertura era comunque ancora lontana dall’essere globale e vi era la completa mancanza di osservazioni sistematiche in quota. Questi limiti vengono superati solo nella seconda parte del ventesimo secolo, dapprima con lo sviluppo di una rete planetaria di misure da termosondaggio quindi, in tempi più recenti, con lo sviluppo delle misure da satellite.

L’esistenza di una rete planetaria di osservatori meteorologici non è comunque l’unica condizione necessaria per poter studiare l’evoluzione a lungo termine del clima della Terra. Tale attività richiede infatti anche che i dati siano facilmente accessibili e che su di essi vengano effettuate una serie di analisi volte ad accertarne la qualità, l’omogeneità e la reale capacità di rappresentare l’intero Pianeta.

Il primo ricercatore che ha cercato di fronteggiare questi problemi è probabilmente stato Köppen che, tra il 1870 ed il 1880, ha organizzato ed elaborato un dataset di oltre 100 stazioni osservative, con l’obiettivo di produrre la prima stima dell’evoluzione della temperatura a scala globale della storia della meteorologia. Successivamente, la realizzazione di ricerche di questo tipo è stata notevolmente facilitata da una risoluzione della International Meteorological Organisation del 1923 che ha avviato una sistematica raccolta e pubblicazione di tutte le più significative serie di dati termometrici, pluviometrici e barometrici allora esistenti al mondo. Questa risoluzione ha portato al “World Weather Records”, una monumentale opera con serie di dati a risoluzione mensile relative a centinaia di stazioni di osservazione sparse in tutto il mondo. Questa raccolta ha poi continuato a venire regolarmente aggiornata nei decenni successivi e, a partire dagli anni ’60, i dati sono anche stati digitalizzati. Ai dataset globali vanno poi aggiunti numerosi dataset a carattere più locale (da nazionale a continentale), creati soprattutto nel corso degli ultimi decenni, nell’ambito di un grande numero di progetti volti a recuperare un frazione sempre più consistente dell’enorme patrimonio di informazioni che spesso giacciono ancora inutilizzate in archivi cartacei sparsi in tutto il Pianeta.

È quindi naturale come le stime dell’evoluzione a lungo termine della temperatura dell’aria in prossimità della superficie terrestre che si sono succedute al primo tentativo di Köppen si siano avvalse della disponibilità di una base di dati sempre più ampia, passando da un centinaio a 3000-4000 stazioni. A questi dati, relativi alle terre emerse, si aggiungono poi oggi numerose serie relative alle aree oceaniche. Esse consistono sostanzialmente di dati relativi alla temperatura superficiale dell’acqua, variabile che viene solitamente assunta come ben rappresentativa della temperatura dell’aria sugli oceani. Questi dati sono raccolti da lungo tempo grazie a navi mercantili e militare e, più recentemente, anche grazie ad una rete planetaria di stazioni ancorate a boe oceaniche.

Le più moderne stime dell’evoluzione a lungo termine della temperatura media planetaria dell’aria in prossimità della superficie terrestre si basano quindi sull’integrazione dei dati di diverse migliaia di stazioni osservative con una vasta mole di dati relativi alle aree oceaniche. Esse si avvalgono inoltre di un articolato insieme di procedure per il controllo della qualità e dell’omogeneità dei dati, nonché di tecniche di spazializzazione molto efficaci che consentono di gestire i problemi connessi con la distribuzione spaziale non uniforme delle serie disponibili (si veda ad esempio l’articolo di Brohan et al., 2006 “Uncertainty estimates in regional and global observed temperature changes: a new dataset from 1850” – J. Geophysical
Research ). Queste procedure, unitamente alla vasta letteratura disponibile sull’argomento, consentono oggi anche di valutare l’incertezza delle ricostruzioni ottenute. Essa è dovuta, da una parte al fatto che le serie storiche di dati meteorologici sono influenzate da disomogeneità ed errori indotti sia dagli strumenti di misura che dalle metodologie di osservazione e, dall’altra, dal fatto che, per quanto numerose, le misure disponibili non sono realmente rappresentative dell’intero Pianeta. Proprio per questa ragione una corretta ricostruzione dell’evoluzione della temperatura globale deve essere accompagnata da un’indicazione del relativo margine di incertezza. Questa indicazione è effettivamente presente nelle ricostruzioni più moderne e grazie ad essa è possibile per esempio affermare, come indicato nel quarto assessment report dell’IPCC, che il riscaldamento globale nel periodo 1906-2005 è stato di 0.74 ± 0.18 (°C), dove la cifra che segue la stima più probabile del trend indica l’intervallo entro il quale si ritiene che il trend abbia il 95% di probabilità di collocarsi effettivamente.

Il valore di incertezza relativamente contenuto delle stime relative al riscaldamento verificatosi nel corso dell’ultimo secolo è, come già visto, sicuramente frutto di sofisticate metodologie di analisi che consentono di massimizzare l’informazione che può essere estratta dai dati disponibili. Accanto a queste metodologie gioca però un ruolo fondamentale anche la buona qualità di molte delle serie osservative. La qualità delle osservazioni meteorologiche è infatti da lungo tempo un obiettivo fondamentale della comunità del settore; essa è peraltro sempre stata considerata con grande attenzione dall’Organizzazione Meteorologica Mondiale (si veda qui). Così, anche se esistono esempi di stazioni gestite e/o collocate in modo del tutto inadeguato, accanto ad esse vi è una grande maggioranza di situazioni nelle quali le osservazioni vengono effettuate in modo corretto e nelle quali viene prestata grande attenzione alle misure.

Testo di: Maurizio Maugeri


21 commenti

3 Febbraio 2009

Dalla neve all’era glaciale – parte 2

Categorie: Abbagli, Bufale, Comunicazione, Errori, Giornali, Negazionisti, Televisioni, Titoli  -  Postato da: 

La raffica di articoli e di servizi televisivi che hanno mal commentato il freddo e la neve dei primi giorni del 2009 non hanno sorpreso quanti da anni analizzano il modo in cui i mezzi di comunicazione si occupano di clima.
Altre volte, in altri mesi invernali un po’ freddi, era successa la stessa cosa. Ad esempio il freddo (anche allora nella norma) del gennaio 2003 porto’ ad un titolo “Non è ancora tempo di terra bruciata”, e le vignette sulla neve e il global warming non mancarono.

Gli articoli che sono stati pubblicati però contenevano alcune informazioni che attiravano l’attenzione perché più precise, legate a fatti clamorosi: il recupero dei ghiacci artici e l’avanzata dei ghiacci alpini.
Oltre all’articolo de La Stampa, già commentato in un precedente post , anche il Corriere della Sera ha lanciato la notizia, con un articolo del 6 gennaio a firma Franco Foresta Martin e il titolo a grandi caratteri: “E i ghiacciai non si ritirano più «L’ effetto serra sembra svanito»” .
Se fosse stata vera, questa del ritiro dei ghiacciai e della scomparsa dell’effetto serra sarebbe stata davvero una clamorosa smentita di diversi decenni di scienza del clima.
Ma non è così, si è trattato invece di una clamorosa bufala.
I dati dei ghiacciai sono in netta ed inequivocabile diminuzione in tutto il mondo, ed in particolare nell’arco Alpino. Se ne parla nell’ultima traduzione di Realclimate disponibile su Climalteranti.it 

Una ricerca effettuata nell’ambito del Progetto Kyoto Lombardia ha concluso che “i ghiacciai lombardi stanno subendo una riduzione di forte entità per lunghezza, superficie e per volume, da circa un secolo e mezzo, che negli ultimi due decenni potrebbe essere definita un vero e proprio “collasso””.
Se nella scienza del clima ci sono ancora punti incerti, non riguardano il ritiro dei ghiacciai. Sono dati così evidenti da essere difficilmente confutabili; d’altronde, sarebbe difficile spiegare che in un pianeta più caldo i ghiacci crescono.

Per spiegare come è nata e si è sviluppata questa ennesima bufala dell’aumento dei ghiacciai, si possono individuare quattro attori:
1.    Un ricercatore
2.    Un blog
3.    Un giornalista
4.    Un redattore – titolista

1) La fonte prima della notizia è stato il glaciologo Bill Chapman del centro di ricerche sul clima artico dell’ Università dell’ Illinois. Come ha fatto notare con grande precisione il Prof. Claudio della Volpe in un bel saggio intitolato “Ghiaccio Agghiacciante” pubblicato sul sito di ASPO-Italia, Chapman ha presentato in modo impreciso i dati, senza chiarire la differenza fra le due diverse serie di dati che descrivono l’estensione del ghiaccio marino artico, derivanti da sensori differenti e quindi non confrontabili. Per i dettagli si veda qui.
2) I dati sono stati interpretati in modo ulteriormente errato in un blog in cui si pubblicano spesso interventi negazionisti. Il curatore del blog, Michael Ascher, ha selezionato in modo arbitrario due punti della serie storica (sbagliata) dei ghiacci marini globali, per evidenziare una tendenza che non c’è.
3) Pur se di gente che sui blog scrive cose infondate o inesatte sul clima ce n’è parecchia (uno dei miei preferiti è www.meteolive.it, qui ne riportiamo un esempio) ), alcuni giornalisti italiani hanno dato spazio alla tesi di Archer, l’hanno amplificata grazie a imprecisioni e ad una generale confusione sul tema. Si è passati dal ghiaccio marino totale (che comunque non è tornato ai livelli del 1979) ai “ghiacci artici” (che sono in nettissima diminuzione). Il termine “marino” è scomparso quindi si è iniziato a parlare in generale di “ghiacci” e di “ghiacciai”, con riferimenti anche ai ghiacciai lombardi (pur se, come detto, anche loro sono in netto ritiro in particolare negli ultimi 30 anni). Non è solo l’abituale cura a rendere “più sexy” la notizia: si tratta proprio di fraintendimenti e di invenzioni.
4) I titolisti hanno, al solito, messo il carico: arriva l’era glaciale, il problema dell’effetto serra è svanito, i ghiacci non si ritirano. “L’effetto serra è svanito”, è messo tra virgolette nel titolo principale, ma nell’articolo non si trova chi sarebbe l’autore di tale affermazione.

Pur se un articolo di Repubblica e gli intereventi di Luca Mercalli a “Che tempo che fa” hanno contrastato la bufala con i grandi numeri dei loro lettori e ascoltatori, da colloqui con studenti e conoscenti mi sembra sia rimasta nell’opinione pubblica la sensazione generale che l’allarme per il problema del riscaldamento globale non sia molto fondato, che gli scienziati che avevano in passato lanciato l’allarme non siano molto affidabili; o almeno che il mondo della scienza sia diviso.
Come si dividono i torti in questa riuscita azione di disinformazione?
Sarà perché a me più vicino, il ricercatore dell’Università dell’Illinois”, fra tutti, mi sembra quello meno responsabile. Se non ha altro perché, inondato di email, ha smentito le affermazioni che gli erano state attribuite.
Chi non ha smentito è stato invece il Corriere della Sera. Che il 12 gennaio ha pubblicato a pag. 23 un breve articolo, non firmato, intitolato “Meno ghiacci? L’effetto serra non c’entra”, in cui ha confermato e ha rilanciato la bufala.
Questa volta partendo da un’articolo pubblicato su Nature Geoscience, in cui gli autori proponevano una stima diversa (ed inferiore a quelle precedenti) del futuro rateo di fusione dei ghiacci della Groenlandia, si è passati ad assolvere l’effetto serra per la diminuzione di tutti i “ghiacci”.
Finale dell’articolo ”Un risultato sulla stessa linea di quello annunciato dal Centro di ricerche sull’Artico dell’Università dell’Illinois, secondo cui i ghiacci artici hanno avuto una crescita rapidissima negli ultimi mesi del 2008 e il loro livello è tornato ad essere pari a quello registrato nel 1979”.
In effetti, due bufale possono essere sulla stessa linea. Ma c’è da sperare che qualcuno prima o poi informi i giornalisti del Corriere della Sera che tutti gli anni c’è una crescita rapida dei ghiacci dell’Artico, e sempre succede negli ultimi mesi dell’anno (e nei primi del successivo): in due periodi dell’anno chiamati “autunno” e “inverno”.

Testo di: Stefano Caserini


Tags: ,
14 commenti

27 Gennaio 2009

A qualcuno piace la termodinamica

Categorie: Comunicazione, Dibattito, Giornali, Modelli Climatici  -  Postato da: 

A seguito della pubblicazione dell’articolo “Troppo caldo o freddo? Decide la termodinamica“, Teodoro Georgiadis ci ha inviato questo scritto contenente alcune precisazioni, che il Comitato Editoriale di Climalteranti.it ha deciso di pubblicare in versione integrale pur non condividendone diversi passaggi.

Se suggerisco come incipit la lettura del libro di Stefano Caserini “A qualcuno piace caldo” saro’ accusato dagli amici “razionalisti” (dico bene Stefano?) di captatio benevolentia, ma saro’ altresi’ accusato dagli amici “scettici” (dico bene!) di una sorta di tradimento.
Confesso comunque un reato gia’ commesso dalle pagine dell’Almanacco della Scienza del CNR nella rubrica recensioni: poi, mi serve ricordarlo per organizzare i miei commenti ad una intervista fattami da Marco Pivato per le pagine di Tutto Scienze de La Stampa che e’ all’origine di questo mio contributo.
Perche’ partire dal libro di Stefano per commentare l’intervista? Perche’ in quel libro sono stato descritto molto simpaticamente, e oggettivamente sono stati anche riassunti alcuni elementi di come la penso sul problema climatico. Poi, come da aspettarsi, sia nel caso del libro, cosi’ come in quello dell’intervista, la trasposizione di una lettura in forma di divulgazione scritta e’ un “manufatto” che contiene una rappresentazione dell’anima narrante, non l’anima stessa.
Se c’e’ una cosa che non posso negare e’ quella di divertirmi a citare la frase, arrivatami almeno di millesima mano, che recita “nessuno crede ai modelli tranne chi li ha fatti, tutti credono ai dati tranne chi li ha presi”, e se dici queste cose poi non ti puoi aspettare di avere molte amicizie in giro per il nostro ambiente.
Questa frase puo’ rappresentare una sintesi del mio pensiero contenuta e nel libro e nell’intervista: curiosamente in un caso se ne evidenzia la debolezza rappresentativa dello stato dell’arte, nell’altro la forza. Altrettanto curiosamente nello sviluppo ‘al limite’ di questo ragionamento sono io a non riconoscermi piu’ di tanto.
Il nodo centrale attorno al quale si svolge l’intervista e’ quello della rappresentazione del mondo tramite i modelli, che il titolista traduce scolpendo la frase, come un epitaffio sul marmo, “finora solo modelli sbagliati”, e i dati  prodotti da reti sempre meno articolate.
Io non credo esista una guerra tra sperimentali e modellisti, cosi’ come non credo esista tra chi si sente scientificamente vicino a quanto espresso nei rapporti IPCC e chi per questi rapporti esprima uno scetticismo anche marcato. Catastrofisti e negazionisti sono categorie che lasciamo esistere solo per rispetto alla biodiversita’. Non e’ questa supposta guerra l’origine del problema.
Come tradurre correttamente allora un pensiero attorno al quale e’ aperto il dibattito?
La rete di misura mondiale si va impoverendo, almeno numericamente, e questo produce difficolta’ di rappresentazione del mondo reale e della complessita’ di questo mondo. I modelli, per quanto complessi in termini di numero di equazioni, hanno parametrizzazioni che molto limitatamente rappresentano la complessita’ delle interazioni. E’ la scarsa forza di questa interpretazione del mondo che genera il dibattito, che ci fa propendere per l’una o per l’altra ipotesi, e che ci fa dubitare nella nostra capacita’ di previsione del futuro, in piena e totale onesta’ culturale di tutti. The science is stated! Sappiamo gia’ tutto? Io so solo che tutte le volte che lo abbiamo detto ci siamo sorpresi un po’ stupidi e stupiti a vedere quanto altro ancora c’era da imparare.
Modelli sbagliati? No, modelli limitati. Dati sbagliati? No, dati non compiutamente rappresentativi. D’accordo? No? Bene parliamone.
Ma poi, ad un certo punto, nel dibattito si infila la politica: e anche questo e’ corretto, perche’ la politica deve ipotizzare la costruzione del mondo nel miglior modo possibile, e quindi chiede alla scienza. Io ritengo che sia questo il momento dove il sistema, che potrebbe essere ancora assolutamente virtuoso, si incrina ed e’ solo a causa di una questione di tempistiche: la politica vuole certezze ora, adesso, subito per esistere. La politica non si vuole scoprire stupita, la politica deve, agire e io credo che anche i  “very likely” dell’IPCC non accontentino un Ministro dell’Ambiente che deve assumersi le responsabilita’ di scelte.

Ma cosa c’entra allora la termodinamica??
Una rappresentazione del mondo povera, ovvero semplice, vuole che una grande macchina fatta di infinite interazioni fisiche, chimiche, biologiche, fatta di scale diversissime fisiche chimiche e biologiche, possa essere completamente rappresentata da un unico parametro, che tra l’altro di fisico ha cosi’ poco che risulta essere appena appena un indice. E questo indice sarebbe massimamente regolato da un unico composto con un funzionale semplicissimo, quando per descrivere il comportamento dell’acqua nei suoi soli passaggi di fase occorre ben piu’ di una enciclopedia.    Faccio fatica, veramente molta, a crederlo. Forse un giorno mi convincerete, forse viceversa. Per ora continuo a misurare alla superficie l’energia del sistema in tutte le sue forme, e mi basta passare da un campo di medica ad una tangenziale urbana, da un fiordo alle Svalbard alla macchia mediterranea, per scoprire che tutte le volte e’ una sorpresa vedere come l’energia scorra, si trasformi e spesso si disveli come fondamento della vita.
Pero’ e’ innegabile che la fantasia del politico, del gestore, venga colpita da questa semplice “suggestione” che gli risolve un sacco di problemi, che gli sposta i problemi di come gestisce il territorio a quelli piu’ globali di colpe lontane. Ricordo il Kavafis immagine kafavis wikipediadi “Perimenontas tous barbarous” (Aspettando i barbari):

Perche’ e’ gia’ notte e i barbari non vengono.
E’arrivato qualcuno dai confini
a dire che di barbari non ce ne sono piu’.

Come faremo adesso senza i barbari?
Dopotutto, quella gente era una soluzione.

L’intervista diceva questo? Forse si’ anche se fra apicini ci stanno delle semplificazioni di tante parole e tanti documenti che faccio un po’ fatica a digerire. Per quanto riguarda gli antichi pascoli della Groenlandia, confesso li’ ho anch’io  ho qualche difficolta’ a riconoscermi,  anche se devo ammettere che come figura retorica almeno una volta ne ho fatto accenno, simile: d’altronde sono un ricercatore, non sono un santo.

Testo di: Teodoro Georgiadis


Tags: ,
26 commenti

21 Gennaio 2009

Raffreddamento globale, ghiacci Artici, previsioni dell’IPCC

Categorie: Artico e Antartico, Comunicazione, Dati, Dibattito, Fonti, Ghiacci, Informazione, IPCC, Meteorologia, Modelli Climatici, Proiezioni, Temperature  -  Postato da: 

NOTA INFORMATIVA del Focal Point IPCC – Italia del 15 gennaio 2009.

La Redazione di www.climalteranti.it pubblica una nota informativa a cura di Sergio Castellari, inerente al dibattito sui cambiamenti climatici improvvisamente riaccesosi a seguito di alcune pubblicazioni apparse su importanti organi di informazione italiani.

In questi ultimi giorni sui media sono apparse notizie riguardo un rallentamento o blocco del riscaldamento globale a causa delle imponenti nevicate in varie zone Italiane e del pianeta e riguardo la forte crescita dei ghiacci marini Artici che sarebbero tornati ai livelli del 1979. Infine, alcuni articoli citano le “previsioni catastrofiche“ fatte dall’IPCC come ormai obsolete o anzi completamente errate (ad esempio qui, qui o qui).
E’ necessario fare alcuni chiarimenti.

Meteorologia e climatologia:

Bisogna stare molto attenti a non confondere una analisi meteorologica con una analisi climatica. Il sistema clima è un sistema complesso, che include l’atmosfera, gli oceani, le terre emerse, la criosfera e la biosfera. Generalmente il clima viene definito come “il tempo meteorologico medio” su scale temporali lunghe (almeno 30 anni). Quindi le condizioni climatiche vengono definite in termini di proprietà statistiche (ad esempio, il valore medio della temperatura atmosferica superficiale in una regione).
Quindi un cambiamento climatico può essere definito come una variazione significativa statisticamente dello stato medio del clima o della sua variabilità, persistente per un periodo esteso (tipicamente decenni o più). Un cambiamento climatico implica una variazione delle proprietà statistiche e non può essere associato ad un evento singolo (una alluvione, una tempesta di neve ecc.) Non ha senso la domanda: “L’alluvione in un dato luogo e giorno è causata da un cambiamento climatico?” Ha invece senso la domanda: “Un cambiamento climatico può comportare una aumentata probabilità che si verifichino fenomeni alluvionali?”
Quindi dare un senso climatico (fine del riscaldamento globale, inizio di un raffreddamento globale) ad una settimana di gelo in Italia significa fare una dichiarazione non basata su un corretto approccio scientifico.

Ma l’anno 2008 è stato veramente un anno freddo?

Questa è di nuovo una domanda generica, freddo rispetto a cosa e su quali scale temporali? Andando a vedere le due serie temporali di temperature media globali superficiali raccolte ed analizzate dal NCDC (National Climatic Data Center) della NOAA (National Ocean Atmophere Administration) (USA) e dal Met Office Hadley Centre (UK) si può chiaramente vedere che il 2008 non è stato un anno “freddo” in queste serie
temporali rispetto a medie a lungo termine. Il rapporto preliminare (perché ancora non considera il mese di dicembre 2008) del NCDC dichiara che l’anno 2008 potrà essere uno dei 10 anni più caldi dal 1880 (inizio della serie termometrica globale) rispetto alla media del 20esimo secolo. Inoltre il mese di novembre 2008 è stato il quarto novembre più caldo della serie globale dal 1880 e l’agosto 2008 si è posizionato al decimo posto come agosto più caldo nella serie temporale.
Questo trend è confermato anche dalla serie globale del Met Office Hadley Centre. Quasi tutti gli anni del nuovo millennio stanno tra i 10 anni più caldi di entrambi le serie termometriche globali. Negli ultimi 10 anni le temperature sono cresciute più lentamente rispetto ai decenni precedenti, ma ragionando su tempi lunghi è evidente un trend di crescita di temperature. Questo non significa che l’anno 2009 sarà necessariamente più caldo del 2008: il 2009 potrebbe essere l’anno più freddo dal 1980, ma il trend di crescita globale di temperature rimarrebbe se il 2010 ed il 2011 saranno di nuovo anni più caldi rispetto ad una media a lungo termine. Il valore di temperatura globale di un anno non può modificare una tendenza a lungo termine.

I ghiacci artici che tornano ai livelli del 1979:

Alcuni articoli stranieri ed italiani, citando i dati dell’University of Illinois’s Arctic Climate Research Center, hanno spiegato che l’estensione del ghiaccio marino artico è tornata a crescere ed ha raggiunto l’estensione del 1979. Intanto la crescita invernale del ghiaccio marino Artico è un normale processo stagionale: l’estensione diminuisce in estate e ricresce in inverno. Però negli ultimi anni come mostrato dal NSIDC (National Snow And Ice Data Center) (USA), qualcosa è cambiato. L’estensione di ghiaccio marino Artico (sea ice extent) ha raggiunto il record minimo nel settembre 2007, seguito dal settembre 2008 e settembre 2005, confermando che esiste un trend negativo nella estensione di ghiaccio marino estivo osservato negli ultimi 30 anni.

Se si cercano i dati dell’University of Illinois’s Arctic Climate Research Center al loro sito  si può arrivare al sito Criosphere Today del Polar Research Group – University of Illinois dove, controllando i grafici, si può vedere che l’estensione del ghiaccio marino (sea ice area) dell’Emisfero Nord nel dicembre 2008 non raggiunge il livello del 1979, mentre il sea ice area dell’Emisfero Sud nell’estate 2008 ha raggiunto il livello dell’estate 1979!

Per l’Artico il NSIDC ha comunicato il 7 gennaio (2008 Year-in-Review) che:
• l’estensione del ghiaccio marino (sea ice extent) nel dicembre 2008 è stata di 12.53 milioni di km2, 830,000 milioni di km2 di meno della media 1979 – 2000;
• il ghiaccio marino del 2008 ha mostrato una estensione ben sotto alla media (wellbelow- average ice extents) durante l’intero anno 2008;
• dal 12 al 19 dicembre 2008 la crescita stagionale di ghiaccio marino Artico si è interrotta probabilmente a causa di un sistema anomalo di pressione atmosferica combinato all’effetto delle temperature marine superficiali più calde nel Mare di Barents.

Le “previsioni” dell’IPCC:

Innanzitutto esistono vari tipi di modelli:
1. Modelli di previsione meteorologica operativa: grandi modelli computazionali, che integrano le equazioni del moto atmosferico, accoppiate con opportune rappresentazioni degli scambi di materia e calore con la superficie terrestre e che forniscono le previsioni meteorologiche;
2. Modelli di previsione stagionale: stessi modelli atmosferici, ma accoppiati a all’oceano e sono utilizzati per prevedere fenomeni come El Nino;
3. Modelli del Sistema Terra (Earth System Models): modelli dell’atmosfera ed oceano tra loro accoppiati, ma accoppiati anche ad altri modelli che rappresentano la superficie, il ghiaccio marino, la vegetazione, la chimica atmosferica, il ciclo del carbonio e gli aerosol.
Per gi studi dei possibili climi a 50 o 100 anni si usano i Modelli del Sistema Terra, ma in maniera diversa dai modelli di previsione meteorologica. Nel campo della predicibilità di un sistema come il sistema clima si possono avere due tipi di previsioni: “Previsioni di Primo Tipo” (o Problemi ai Valori Iniziali) e “Previsioni di Secondo Tipo” (o Problemi ai Parametri). Le cosiddette previsioni climatiche dell’IPCC sono previsioni del secondo tipo: dato il sistema clima soggetto a variazioni di un forzante esterno, sono previsioni delle variazioni delle proprietà statistiche del sistema clima al variare dei parametri esterni. Queste previsioni non dipendono dai valori iniziali, come le previsioni del Primo Tipo che sono poi le previsioni meteorologiche e che hanno un limite intrinseco a circa due settimane.

Queste previsioni climatiche si definiscono in realtà proiezioni climatiche e cercano di rispondere alle seguenti domande:

1. Assumendo che la composizione atmosferica vari secondo un certo scenario di emissione, allora quale sarà ad esempio tra 30, 50 e 100 anni la probabilità di avere una temperatura media più alta di 3°C rispetto a quella attuale?

2. Come sarà distribuita sul globo questa variazione della temperatura media prevista?

Queste proiezioni si possono chiamare anche scenari climatici, perché come variazione di forzanti esterni (gas serra ed aerosol) usano scenari di concentrazione che derivano da scenari di emissioni. Questi scenari di emissioni sono descrizioni plausibili dello sviluppo futuro delle emissioni di gas serra e aerosol, basate su un insieme coerente ed internamente consistente di assunzioni sulle forze che le guidano (soprattutto economiche, tassi di sviluppo tecnologico, andamento dei mercati, sviluppo demografico, ecc.).

E’ importante sottolineare che la dinamica caotica del clima terrestre e dei moti atmosferici pone un limite teorico alla possibilità di eseguire Previsioni del Primo Tipo. Infatti il sistema clima è un sistema fisico complesso con un comportamento non lineare su molte scale temporali e che include molte possibili instabilità dinamiche. Però la natura caotica del sistema clima non pone alcun limite teorico alla possibilità di eseguire Previsioni del Secondo Tipo. Quindi è più semplice eseguire Previsioni di Secondo Tipo (in altre parole previsioni climatiche di tipo statistico) per i prossimi 100 anni assumendo possibili variazioni dei forzanti esterni, che estendere di qualche giorno il termine delle previsioni meteorologiche.
Queste previsioni statistiche vengono effettuate in vari centri di modellistica climatica in varie parti del mondo (anche in Italia, ad esempio al Centro Euro-Mediterraneo per i Cambiamenti Climatici – CMCC) e fino ad oggi quasi tutti i modelli climatici del tipo Earth System Models hanno usato gli stessi scenari di emissioni chiamati IPCC-SRES al fine di poter confrontare i risultati. Questi scenari di emissioni sono molti e presuppongono diversi sviluppi socioeconomici a livello globale e quindi diversi livelli di emissioni al fine di poter“catturare” il possibile futuro climatico della Terra.

In conclusione, queste previsioni sono scenari climatici o proiezioni climatiche e non previsioni meteorologiche a lungo termine.


Tags: , , , , ,
7 commenti

14 Gennaio 2009

Dalla neve all’era glaciale – parte 1

Categorie: Abbagli, Artico e Antartico, Bufale, Comunicazione, Disinformazione, Errori, Ghiacci, Giornali, Influenza del sole, Negazionisti, Raffreddamento, Titoli  -  Postato da: 

L’arrivo del freddo e della neve dell’inverno ha portato anche quest’anno ad articoli in cui si afferma un rallentamento del riscaldamento del pianeta, o l’interruzione dell’aumento delle temperature  e l’inizio di un’era glaciale.
Non sono tesi nuove, e dell’infondatezza dell’allarme per il raffreddamento globale se ne è già parlato su Climalteranti.it (qui e qui).
Un recente post di Realclimate, disponibile  tradotto in italiano qui, chiarisce molte cose sull’attuale andamento delle temperature, su cui ritorneremo in futuro.

Fra gli articoli pubblicati in questi giorni, i due più incredibili sono stati pubblicati sue due fra i quotidiani italiani più letti: il Corriere della Sera “E i ghiacciai non si ritirano più «L’ effetto serra sembra svanito»” e La Stampa “Una piccola era glaciale come nel 1600”.
L’analisi di questi articoli è complessa perchè contengono una quantità di inesattezze, di errori, di mistificazioni da record, a cui si stenta a credere. La cosa che colpisce è che i due giornalisti, rispettivamente Francesco Saverio Alonzo e Franco Foresta Martin, abbiano pubblicato tesi infondate e confuse senza quel minimo di verifiche di attendibilità che avrebbe permesso di evitare tali brutte figure. I titolisti, poi, hanno ulteriormente esagerato.

In questa prima parte sarà esaminato l’articolo de La Stampa, un’intervista a Fred Goldberg, del Polar club svedese.
All’inizio si trova la frase “il pack si scioglie durante i mesi estivi, ma la scorsa primavera ricopriva mezzo diminuzione estensione dei ghiacci articimilione di chilometri quadrati in piú rispetto al 2007”. È una frase che non ha molto senso perchè non è possibile confrontare l’estensione dei ghiacci della “primavera” del 2008 con quella del 2007.
Il confronto fra le due primavere non avrebbe significato, perché, come detto, il pack si scioglie al polo nord nei mesi estivi e raggiunge il minimo in settembre.
Forse Goldman intendeva proporre un confronto fra i due minimi estivi. In effetti nel minimo del 2008 i ghiacci sono stati di circa mezzo milione di chilometri quadrati più estesi rispetto al minimo del 2007. Ma solo perché il minimo del 2007 è stato assolutamente eccezionale. Se si guarda il trend degli ultimi 30 anni, confrontato con le previsioni dei modelli, si vede che anche il dato del 2008 è preoccupante, non c’è stato un vero recupero e si è ampiamente al di sotto dell’andamento previsto negli anni precedenti.

I glaciologi hanno studiato attentamente i perchè del minimo del 2007 e nel recente convegno dell’AGU a San Francisco, nelle sessioni dedicate alla Criosfera c’è anche stato un approfondito dibattito sulle differenze nelle cause dei due minimi, sui trend, molto preoccupanti per il futuro del pack, chiamato anche ghiaccio marino artico (si vedano ad esempio gli abstract di sessione 1, sessione 2 e sessione 3).
Gli scienziati che studiano il ghiaccio marino artico ritengono il trend di diminuzione del ghiaccio marino artico inequivocabile, e probabile la scomparsa estiva del ghiaccio marino artico entro il 2030.
Alla domanda del giornalista “Esistono prove concrete di questa «ripresa » dei ghiacci anche al Polo Nord, dopo che rapporti nello stesso senso sono giunti dall’Antartide?”, la risposta data da Goldberg è fenomenale: “Sì, lo spessore dei ghiacci creò gravi problemi a una spedizione svedese che, a bordo del rompighiaccio Oden, non riuscì a forzare il pack a Nord della Groenlandia ed un’altra spedizione diretta alle isole a Nord delle Svalbard dovette desistere”.
Le “prove concrete” sarebbero i problemi dati ad un paio di spedizioni in alcuni imprecisati periodi in posti delineati in modo generico.
Si tratta di argomenti non scientifici, che hanno a che fare con notizie imprecisate e basate su impressioni, non su dati.
Non sorprende quindi che se si fa una ricerca si scopre che Fred Goldberg è un esperto di tecnologie per le saldature che si interessa di clima dal 2004, organizzando convegni e facendo dei viaggi ai poli.
L’articolo prosegue con altre tesi ugualmente infondate, con l’attribuzione alla corrente “La Nina” una ciclicità più o meno trentennale (non è così, vedi qui), il classico del “3.500 anni fa, il clima globale del nostro pianeta era superiore di 3 gradi a quello attuale” (molto poco probabile, vedi fig 2 qui) o che “ora ci attendono annate fredde colpa del Sole che non è mai stato cosí calmo come adesso”; fino alla conclusione che ha portato al titolo dell’articolo “fra non molto entreremo in una breve era glaciale, come quella che si verificò verso la metà del 1600”.
Niente paura: l’era glaciale sarà “breve”, durerà solo un paio di secoli…

Testo di: Stefano Caserini


Tags: , ,
22 commenti

13 Dicembre 2008

Assegnato il Premio “A qualcuno piace caldo” per l’anno 2007

Categorie: Abbagli, Errori, Esagerazioni, Fraindentimenti, Giornali, Negazionisti, Premio, Riviste, Televisioni, Titoli  -  Postato da: 

In seguito alla votazione online, Il Premio A qualcuno piace caldo” 2007 è assegnato al Prof. Franco Battaglia, che si è aggiudicato il 45 % dei voti. Nettamente staccati il secondo e terzo classificato, rispettivamente Carlo Stagnaro dell’Istituto Bruno Leoni (25 % dei voti) e il quotidiano “Il Foglio” (15 %).

 

Il Premio annuale è assegnato alla persona o all’organizzazione italiana che più si è distinta nel diffondere argomentazioni e notizie errate sulla fenomenologia dei cambiamenti climatici con l’intento di impedire, posticipare o rallentare le azioni di mitigazione contro i cambiamenti climatici.

Il Premio scelto dal Comitato editoriale per l’anno 2007 è una copia originale del Primo Volume del IV Rapporto IPCC, che sarà spedito al vincitore.

13 dicembre 2008
Il Comitato Editoriale di Climalteranti.it

Vincitore 2007

Prof. Franco Battaglia

“Per la vastissima produzione negazionista, che ha riguardato
articoli su quotidiani, riviste e interventi in radio e in televisione,
con una serie incredibile di affermazioni clamorose quanto infondate,
senza il minimo tentativo di confronto e dialogo
con la comunità scientifica nazionale ed internazionale”.

.

Piccola bibliografia negazionista di Franco Battaglia:
Battaglia F. (2007a) Notizie false e ambiguità scientifiche. Il Giornale, 7 febbraio.
Battaglia F. (2007b) Perché è inutile risparmiare energia. Il Giornale, 15 febbraio.
Battaglia F. (2007c) L’Europa non conosce le leggi della fisica. Il Giornale, 11 marzo.
Battaglia F. (2007d) Terra con la febbre? La colpa é il sole. Il Giornale, 7 aprile.
Battaglia F. (2007e) È immotivato preoccuparsi per l’effetto serra antropogenico (ESA). Ingegneria Ambientale, Anno XXXVI, n. 4, 142-146.
Battaglia F. (2007f) Intervento in “Porta a Porta” del 2 maggio.
Battaglia F. (2007g) Siccità. Ma la colpa non è dell’uomo. Il Giornale, 5 maggio.
Battaglia F. (2007h) Dall’allarme siccità alle alluvioni. I fondi per l’emergenza? Sprecati. Il Giornale, 8 giugno.
Battaglia F. (2007i) La caccia all’estate del caldo record è solamente un bluff. Il Giornale, 18 agosto.
Battaglia F. (2007j) Ultima ora! I ghiacciai si stanno sciogliendo da diciottomila anni. Intervista a Il Foglio, 13 settembre.
Battaglia F. (2007k) Il fallimento di Kyoto si trasferisce a Bali. Il Giornale, 4 dicembre.
Battaglia F. (2007m) Replica di Franco Battaglia a Stefano Caserini. Ingegneria Ambientale, XXXVI, XII, 591-593.
I testi sono reperibili da qui.

Da “A qualcuno piace caldo”, capitolo “Clima di Battaglia”
…Seguire l’elenco delle sparate e delle cantonate prese da Battaglia è impegnativo. Avendo conquistato un poco di notorietà per le sue posizioni negazioniste, Battaglia si è trovato nella necessità di alimentare il suo personaggio, con affermazioni via via più incredibili e senza compromessi.
Nei suoi scritti del 2007 si trovano affermazioni come “la temperatura media globale oggi è più alta di 150 anni fa; semplicemente, non è la CO2 la causa di questo aumento” (Battaglia, 2007e).
Oppure che è “semplice” identificare nel Sole il responsabile del riscaldamento globale, che è “facile” spiegare gli aumenti di CO2 del passato, che vi sono evidenze storiche “inconfutabili” sulle maggiori temperature del passato, che l’ipotesi di un’interferenza antropogenica nell’effetto serra del pianeta si è “rivelata totalmente priva di ogni fondamento”, è “impossibile”, l’”uomo non c’entra proprio nulla”.
Nel novembre del 2007, dopo l’uscita dell’intero IV rapporto dell’IPCC, scrive ancora “le attività umane e, in particolare, le emissioni antropiche di CO2, non hanno, sul clima, alcuna influenza” (Battaglia, 2007i).
Ne consegue che gli scienziati mondiali non solo non hanno capito nulla, ma sono dei mistificatori e dei sognatori: il riscaldamento globale antropogenico è “il più colossale falso del secolo” (Battaglia, 2007k), “la più grande mistificazione degli ultimi 15 anni”, “la congettura antropogenica del riscaldamento globale dovrebbe essere oggi considerata pura speculazione metafisica sconfessata dai fatti reali” (Battaglia, 2007d; 2007x).

Leggi il paragrafo da “A qualcuno piace caldo”


Tags: , , , ,
14 commenti

10 Dicembre 2008

E ora tocca al conto energia? Alcune considerazioni dopo l’attacco al 55%

Categorie: Dibattito, Ministero, Politiche  -  Postato da: 

Prosegue la minuziosa e sistematica demolizione di quel poco che è stato fatto finora in Italia per incentivare risparmio energetico, uso razionale dell’energia, sviluppo delle fonti rinnovabili.

Dopo i tentativi, tuttora in atto, di ottenere significativi sconti sul pacchetto Clima Energia dell’UE, con il recente “attacco al 55%” (Decreto legge 185/2008, si veda ad esempio quanto riportato da UNCSAAL) il Ministro Tremonti ha finalmente trovato il tempo per sbarazzarsi di quelli che “si occupano di come deve essere fatto un impianto della luce di casa tua” (AQPC, pag. 230).

Numerose sono le azioni attualmente in corso per tentare di arginare questo provvedimento, coordinate non solo dai gruppi ambientalisti ma da enti ed associazioni autorevoli quali ANIT, KyotoClub, ISES Italia.

E’ probabilmente inutile ricordare in questa sede gli aspetti positivi dell’incentivazione del 55%, non certo limitati ai soli, seppur fondamentali, aspetti ambientali: emersione del lavoro nero, sviluppo di nuova imprenditoria, volano economico per le imprese italiane. Alcune considerazioni in tal senso sono riportate in questo Editoriale di Qualenergia. Chiunque avesse visitato una delle Fiere dedicate alle tematiche del risparmio dell’energetico se ne sarà fatto sicuramente un’idea.

A questo punto teniamoci forte: il prossimo “colpo” verrà sferrato al conto energia?

Testo di: Mario Grosso


Tags: , ,
4 commenti

4 Dicembre 2008

Primi giorni per la Conferenza, ultimi giorni per il premio

Categorie: COP, Dibattito, Mitigazione, Negoziazioni, Protocollo di Kyoto  -  Postato da: 

È partita a Poznan la 14-esima Conferenza delle Parti della Convenzione sui Cambiamenti Climatici. Per chi volesse essere informato in tempo reale di quanto sta succedendo il sito è quella della convenzione www.unfccc.int. Sull’apposito sito si trovano i programmi giornalieri, i webcast e gli atti di alcuni “side event”.

Un altro sito importante è il portale dell’ONU sui cambiamenti climatici http://www.un.org/climatechange

In italiano, da segnalare le cronache giornaliere da Poznan di Daniele Pernigotti, sul sito Aequilibria.

Un resoconto giornaliero dei lavori della COP14 è effettuato dall’Earth Negotiations Bulletin (ENB) ad opera dell’IISD (International Institute for Sustainable Development: è possibile leggerli dal sito oppure abbonarsi alla newsletter.

Altre interessanti notizie da Poznan anche dal sito  Climate-L, International Climate Change Activities, prodotto dall’IISD e dal UN Chief Executives Board for Coordination (CEB) Secretariat.

Molto utile per sapere cosa succede anche la newsletter giornaliera ECO del Climate Action Network, contenente l’ormai celebre “fossil-of-the-day award”, aggiudicato per il primo giorno alla Polonia

A proposito di premi, ultimi giorni per votare per il premio “A qualcuno piace caldo 2007“.

L’assegnazione del premio sarà effettuata il 13 dicembre, festa di S.Lucia, patrona dei non vedenti e degli oculisti.


Tags: , , ,
6 commenti

26 Novembre 2008

Pacchetto 20-20-20: gli errori nei numeri del Ministero dell’Ambiente

Categorie: 20-20-20, Abbagli, Costi, Dati, Dibattito, Errori, Giornali, Meccanismi flessibili, Ministero, Politiche, Protocollo di Kyoto  -  Postato da: 

E’ passato ormai un mese dalla polemica del governo italiano sui costi del pacchetto clima energia dell’UE, ormai famoso con il nome “20-20-20”.
Dopo la tempesta, i riflettori si sono spenti. Nulla si è saputo dei risultati del Tavolo di confronto aperto a Bruxelles fra i tecnici del Ministero dell’Ambiente e della DGEnv – Commissione UE.

Non sono disponibili – ad oggi – documenti ufficiali a conclusione dei lavori del “Tavolo”. E’ poco probabile che il confronto sia ancora in corso.
In sintesi, le accuse lanciate dal governo erano chiare (i costi dell’Italia sono molto alti, sono i più alti di tutti). La Commissione aveva risposto che non era così e che i conti italiani erano sbagliati, che i costi erano al massimo la metà di quanto detto dall’Italia (risposta dell’Italia: ma sono i vostri conti!).
Molto famosa è una stima di 180 miliardi di euro data dal Governo Italiano in innumerevoli occasioni, e contestata dalla Commissione. Se si fa una ricerca su Google con parole chiavi “costi – Italia – 180 miliardi – emissioni” si trovano migliaia di riferimenti alle dichiarazioni italiane.
In particolare la cifra di 181,5 miliardi di euro è quella citata più frequentemente.

Titolo de “Il Sole 24 Ore”, 9 Ottobre 2008

Quindi chi aveva ragione e chi aveva torto? Da dove nasce questa cifra?
Dopo aver studiato le carte, Climalteranti.it propone una risposta.

La documentazione prodotta dalla Commissione europea e pubblicata il 23 gennaio 2008 con l’Impact Assessment relativo al cosiddetto “Climate package” e nel giugno 2008 con la “Model-based Analysis of the 2008 EU Policy Package on Climate Change and Renewables” ha fornito una base di dati per fare alcune valutazioni sui costi che l’intera Unione europea e i singoli paesi dovranno sostenere per raggiungere contemporaneamente l’obiettivo di ridurre le emissioni di gas ad effetto serra (20% in meno nel 2020 rispetto al 1990) e l’obiettivo di sviluppo delle fonti rinnovabili (20% sul totale dei consumi finali di energia nel 2020).
Gli analisti della Commissione hanno infatti sviluppato una serie di scenari alternativi che si basano su differenti ipotesi in termini di:

  • criterio di efficienza economica, ovvero minimizzazione dei costi per l’intera Unione europea;
  • criterio di equità, ovvero redistribuzione degli impegni tra i diversi paesi in funzione del livello di sviluppo economico di ciascuno;
  • possibilità di utilizzo dei crediti derivanti dai meccanismi flessibili del Protocollo di Kyoto per ottemperare all’obbligo di riduzione delle emissioni, ovvero la possibilità di includere anche iniziative svolte all’esterno dell’Unione europea (Progetti CDM);
  • possibilità di utilizzo delle cosiddette “Garanzie d’origine” associate alle fonti rinnovabili per raggiungere l’obbiettivo dello sviluppo di queste ultime, ovvero anche iniziative di produzione di energia rinnovabile in altri paesi dell’Unione europea possono essere riconosciute ai fini del raggiungimento dell’obiettivo nel proprio paese;
  • livello dei prezzi d’importazione del petrolio e del gas.

I risultati ottenuti tramite questi scenari sono stati utilizzati dalla Commissione per proporre una serie di misure concrete finalizzate al raggiungimento degli obiettivi per lo sviluppo delle fonti rinnovabili e la riduzione delle emissioni: il “Climate package”, per l’appunto.
Quest’ultimo comprende:

  1. una proposta di revisione della direttiva 2003/87/EC sull’Emission Trading (sistema di scambio europeo dei permessi di emissione) – EU ETS
  2. una proposta di decisione del Parlamento europeo e del Consiglio per la riduzione delle emissioni per i settori non soggetti all’EU ETS
  3. una proposta di direttiva per la promozione dell’utilizzo dell’energia prodotta da fonti rinnovabili
  4. una proposta di direttiva sullo stoccaggio geologico del biossido di carbonio.

Il pacchetto non comprende misure per l’efficienza energetica. Si ricorda che l’obiettivo del 20% di riduzione dei consumi energetici al 2020, rispetto all’evoluzione tendenziale, non è un obiettivo vincolante.

La prima cosa da sottolineare è che nessuno degli scenari analizzati nel rapporto UE corrisponde esattamente alle proposte della Commissione. Queste ultime infatti stanno seguendo la procedura di adozione prevista dalla normativa europea e basata sulla codecisione in sede di Consiglio e Parlamento europeo. L’iter ha già prodotto una serie di emendamenti significativi, soprattutto con riferimento alla proposta di direttiva per le fonti rinnovabili.

Alla luce di queste considerazioni, per valutare l’impatto del “Climate package” sui costi del sistema energetico italiano utilizzando i risultati prodotti dalla Commissione europea, la cosa migliore è selezionare gli scenari che maggiormente riflettono le proposte attualmente in discussione.
In particolari gli scenari più interessanti sono due (chiamati RSAT-CDM e NSAT-CDM) e prevedono entrambi un contesto europeo per le grandi sorgenti, ma incorporano il principio di equità prevedendo impegni differenziati per i singoli paesi, ossia prevedono:

  • la definizione a livello UE dell’obiettivo di riduzione delle emissioni da parte dei settori soggetti al sistema europeo di scambio dei permessi di emissione – ETS (ovvero il settore energetico e i settori energivori);
  • la definizione a livello dei singoli paesi dell’obiettivo di riduzione delle emissioni da parte dei settori industriali non soggetti alla direttiva ETS;
  • la definizione a livello dei singoli paesi dell’obiettivo di sviluppo delle fonti rinnovabili.

I due scenari divergono invece riguardo alle ipotesi sull’utilizzo dei crediti CDM e sulla possibilità di scambio delle Garanzie d’Origine associate alle fonti rinnovabili. In altre parole la differenza fra i due scenari sta nell’aggiungere o meno al criterio di equità uno o due strumenti di flessibilità, allo scopo di rendere più efficiente lo sforzo complessivo.
Infatti, lo scenario RSAT-CDM prevede la possibilità di utilizzare i crediti CDM in linea con quanto approvato in sede di Commissione europarlamentare, mentre esclude il commercio delle Garanzie d’Origine, discostandosi in tal senso dalla proposta originaria della Commissione europea ma avvicinandosi in parte a quanto deciso in sede di Commissione europarlamentare.
Lo scenario NSAT-CDM, invece, comprende sia la possibilità di utilizzo dei crediti CDM sia lo scambio delle Garanzie d’Origine delle fonti rinnovabili al fine di garantire a livello europeo uno sviluppo efficiente di tali fonti. In questo caso non tutti i paesi sarebbero in grado di rispettare i target nazionali facendo affidamento solo agli sforzi locali.

Lo scenario selezionato dal Ministero dell’Ambiente e presentato alla Commissione europea al fine di valutare i costi aggiuntivi per il nostro paese non è uno di questi due. Questo terzo scenario, denominato RSAT, non prevede l’utilizzo di alcuno strumento di flessibilità e quindi non rispecchia né la proposta originale della Commissione né le successive modifiche.

Il grafico seguente rappresenta l’andamento dei costi del sistema energetico italiano nei tre scenari sopra descritti, e li confronta con l’andamento dello scenario base, ovvero “business as usual”, che non prevede cioè l’adozione del “Climate package”. Le differenze tra le curve corrispondenti agli scenari “Climate Package” (RSAT, RSAT-CDM e NSAT-CDM) e la curva baseline (BL) misurano i costi aggiuntivi che il sistema deve sostenere per raggiungere gli obiettivi prefissati.

Fonte: elaborazione Climalteranti.it su dati della Commissione Europea

Fonte: elaborazione Climalteranti.it su dati Commissione Europea

Come si vede, il Ministero ha selezionato lo scenario più costoso e meno probabile.
Ma le differenze non sono piccole come potrebbe sembrare a prima vista. È vero che complessivamente sono pochi punti percentuali di differenza, ma sono sempre miliardi di euro.
Se si calcolano le differenze fra i costi dei tre scenari e lo scenario “Baseline” (che rappresenta i costi di uno scenario energetico senza il pacchetto 20-20-20), si vede che si parla di miliardi di euro l’anno di maggior costo.

 

[aggiunta – Va chiarito che non sono qui conteggiati i costi aggiuntivi indiretti relativi all’acquisto dei permessi CDM e delle GOs. Questi costi porterebbero ad esempio il costo totale dello scenario NSAT-CDM nel 2020 a circa 12.4 miliardi di euro. Non sono disponibili i costi al 2015.]

Fonte: elaborazione Climalteranti.it su dati Commissione Europea

Ma questi numeri non sono ancora quelli della contesa raccontata dai giornali, c’è dell’altro.

La Commissione europea ha fornito i dati di costo in corrispondenza degli anni 2005, 2010, 2015 e 2020. Per calcolare i costi aggiuntivi totali nel periodo 2013-2020, o nel periodo 2011-2020 come proposto dal Ministero dell’Ambiente, sarebbe necessario disporre dei dati puntuali relativi ad ogni anno. In alternativa, come è stato fatto nelle figure sopra, si possono interpolare i dati mancanti nel periodo 2010-2015 e nel periodo 2015-2020. Con questa semplice elaborazione matematica, effettuata con un’interpolazione lineare negli intervalli, si ottengono i seguenti risultati.

Costi aggiuntivi per l’Italia

(mld euro)

Scenario RSAT

Scenario RSAT-CDM

Scenario NSAT-CDM

2011-2020

145.70

93.20

47.80

media annua 2011-2020

14.57

9.32

4.78

 

 

 

RSAT: senza meccanismi di flessibilità
RSAT-CDM: possibilità di utilizzo dei crediti CDM
NSAT-CDM: possibilità di utilizzo dei crediti CDM e scambio delle Garanzie d’Origine

Fonte: elaborazione Climalteranti.it su dati Commissione Europea

Come detto, lo scenario RSAT è quello selezionato dal Ministero dell’Ambiente.
I numeri, tuttavia, sono molto diversi da quelli presentati nel documento del Ministero in quanto quest’ultimo ha calcolato i costi aggiuntivi complessivi facendo la media tra i costi relativi all’anno 2015 (15,1 mld) e i costi relativi all’anno 2020 (21,2 mld) si ottiene 18,15 mld euro e poi moltiplicando per 10, ovvero per gli anni compresi tra il 2011 e il 2020 si ottiene 181,5 mld euro!
Oltre ai costi stimati in più per la scelta di uno scenario improbabile, ci sono i costi indicati dal triangolo rosso, che sono semplicemente dovuti ad un errore.

Un errore grave, clamoroso. Uno di quegli errori che conviene dire di aver fatto apposta.

Come detto in precedenza gli scenari più rappresentativi sono lo scenario RSAT-CDM e lo scenario NSAT-CDM. Ne consegue che una stima più corretta dei costi aggiuntivi per il nostro paese di quella presentata dal Ministero dell’Ambiente, sulla base dei dati forniti dalla Commissione europea, sarebbe compresa tra i 48 e i 93 miliardi di euro per il periodo 2011-2020. Rispettivamente un quarto o la metà di quelli detti dal Ministero. [aggiunta: se si considerano i costi degli scambi di CDM e Garanzie d’origine, i costi totali per l’Italia aumentano, ma rimangono nettamente inferiori a quelli proposti dal Ministero].

E questi sono solo i costi: i benefici, in termini di danni evitati per le minori emissioni di gas serra, non stati conteggiati.
Testo di N.D. e S.C.


Tags: , ,
11 commenti

17 Novembre 2008

Il riscaldamento globale si è fermato nel 1998?

Categorie: Dibattito, Giornali, Negazionisti, Temperature, Tipping point  -  Postato da: 

E due. Oggi è arrivata la seconda mail di un amico che mi dice: ma che succede a Beppe Caravita ?
Ecco un pezzo della mail: “Beppe Caravita… ha sviluppato un certo scetticismo sul global warming (vedi ad esempio qui e anche qui). Come sappiamo, non è il solo, ma lo scetticismo ideologico alla Battaglia lo capisco facilmente, mentre quello che vedo emergere in persone dallo spirito libero (come Beppe o altri), vorrei capirlo meglio”.

Beppe Caravita, giornalista del Sole 24 ore e autore del blog Network Games, l’ho conosciuto ad un seminario sul clima rivolto ai giornalisti, organizzato dal “Kyoto Desk” della Regione Lombardia.

Un seminario riuscito, anche se non molto partecipato, ma che ricordo per tre fatti che mi stupirono.
Il primo fu che a Sergio Castellari, con me fra i relatori, qualcuno rubò il libro “Verdi fuori, rossi dentro” di Franco Battaglia e Renato Angelo Ricci. Libro che a Sergio avevano regalato e che aveva portato per mostrarmelo… lasciato sul tavolo dei relatori durante la pausa pranzo.. al ritorno.. sparito ! Incredibile.
Il secondo fatto strano fu che i giornalisti intervenuti avevano mostrato un’opinione per la loro categoria molto peggiore di quella che io avevo, e che non era granchè (vedi qui)
Il terzo fatto è che contrariamente alle mie aspettative, Caravita si era mostrato più preoccupato di me per il global warming. Se non ricordo male (nel caso, chiedo scusa) Caravita si diceva molto molto preoccupato per i possibili “tipping point” del sistema climatico… diceva che non ci aveva dormito la notte… e aveva scritto di questo sul suo blog.
Andai a leggere sul suo blog (qui e qui): i toni erano in effetti preoccupati. D’altronde, i motivi ci sono: il tema dei tipping point è molto serio: alcuni articoli scientifici (come questo di Rahmstorf et al.) che hanno inquadrato il tema hanno aggiunto preoccupazione per la crisi climatica, pur se è chiaro che l’unico tipping point che sarà superato nei prossimi decenni sarà quello del ghiaccio marino artico.

È possibile, dunque, che Beppe Caravita abbia cambiato idea ?
Non solo per i toni usati verso uno dei più importanti istituti di ricerca sul tema climatico, il NASA Goddard Institute for Spaces Studies, di James Hansen e Gavin Smidth
(qui “…un’altra pessima figura per il Goddard Institute for Spaces Studies, di cui è direttore James Hansen, il grande sostenitore del global warming antropogenico, e consigliere scientifico di Al Gore. Francamente comincio ad essere un po’ stufo di questo gioco delle tre tavolette…. “).
Si tratta di uno dei soliti piccoli (anzi, molto piccoli) aggiustamenti delle temperature del pianeta, di cui si possono leggere le opposte posizioni su ClimateAudit.org e Realclimate.org. Un tema che mi è apparso piuttosto insignificante, tanto che il post di Realclimate non è stato tradotto in italiano.

Caravita ha dubbi sul fatto che il riscaldamento globale sia in corso (nell’ultimo post sul tema pone la domanda “ha ragione o torto chi sostiene che il global warming si è fermato dal 1998?”)
Si tratta di una domanda che ha ripetuto tante volte, anche in post precedenti mostrando anche grafici in cui si vede la CO2 che aumenta e la temperatura che non aumenta in modo simile.
È un argomento che circola in modo ossessivo fra i negazionisti, ma che è poco fondato.
Ne avevo già parlato nel mio libro (pag. 60) in cui avevo mostrato come in realtà per la serie dati del GISS, il 1998 non è più l’anno più caldo ma viene superato dal 2005. E che se si allarga lo sguardo all’andamento delle temperature negli ultimi 30 anni o degli ultimi 130 anni, la tendenza è chiara: il 1998 è solo un anno con temperature un po’ più alte di quanto avrebbero dovuto essere per assicurare una crescita regolare ed evitare fraintendimenti.

Andamento delle temperature globali dal 1977 al 2007: variazioni rispetto alla temperatura del 1998. (da Caserini, 2008)

In una delle prime traduzione di realclimate, disponibile qui, è raccontato come il fatto che la temperatura non salga in modo costante, come la CO2, è assolutamente in linea con la comprensione fisica del sistema climatico. C’è anche una figura che mostra la probabilità di un record di temperature: per avere un nuovo record di temperature c’è più del 25 % di probabilità di aspettare più di 10 anni.

Posso solo aggiungere il ricordo di quest’estate, a Bonassola. La spiaggia è stata svuotata dalle barche, i primi ombrelloni sono stati tolti: sta arrivando la mareggiata di ferragosto, dicono quelli del posto. Eppure il mare è lontano. Mi siedo sulla spiaggia a leggere, guardo le onde avanzare. Eppure non avanzano, ossia le onde sembrano non risalire la spiaggia. Ogni tanto c’è un onda più lunga, ma subito dopo molte sono piccole, inferiori alle precedenti.
E’ passato tanto tempo prima di veder da vicino la spuma della prima onda. Ma come tanti altri sono rimasto ancora al mio posto, le onde successive stavano lontane.
Dopo un po’ è arrivata l’onda che ha bagnato l’asciugamano.

Testo di: Stefano Caserini


Tags: ,
16 commenti

10 Novembre 2008

C’è anche un altro modo per non rispettare il Protocollo di Kyoto

Categorie: Comunicazione, Costi, Dibattito, Emission trading, Inventario emissioni, Ministero, Politiche, Protocollo di Kyoto  -  Postato da: 

”Se noi non rispetteremo gli obiettivi di Kyoto avremo delle penalizzazioni che possono ammontare a circa 450 milioni di euro l’anno, da qui al 2012”. Questa la stima del ministro dell’Ambiente, Stefania Prestigiacomo, in un’intervista rilasciata il 28 ottobre .
Che non rispettare gli obiettivi imposti dal Protocollo di Kyoto abbia un costo, è dunque assodato. Diverse invece sono le cause che potrebbero portare ad un non rispetto degli obblighi di Kyoto: prima tra tutte la perdita dell’eleggibilità.
Per eleggibilità si intende la presenza delle condizioni “formali” basilari che permettano di verficare effettivamente gli impegni sottoscritti: in altre termini la presenza di sistemi di stima delle emissioni di qualità soddisfacenti a ben definiti standard definiti dallo stesso Protocollo.
Le Decisioni della COP/MOP1 n. 9 e n.15 della Convenzione quadro sui cambiamenti climatici (UNFCCC) indicano come condizioni necessarie per il mantenimento del requisito di eleggibilità la produzione annuale dell’inventario nazionale delle emissioni di gas serra, l’istituzione e la gestione del Sistema nazionale per la realizzazione dell’Inventario nazionale dei gas serra (D.Lgs. 51/2008) e l’istituzione ed amministrazione del registro nazionale di Kyoto che include le transazioni dell’Emissions Trading (Dir. 2003/87/CE recepita dai D.Lgs. 216/2006 e D.Lgs. 51/2008).
L’eliggibità non deve essere solo “conquistata”, ma deve garantita in tutto il periodo di vigenza degli impegni.
Per quanto riguarda l’Italia, la stima e la trasmissione dell’Inventario delle emissioni di gas serra, la realizzazione e gestione del Sistema nazionale per la realizzazione dell’Inventario nazionale dei gas serra così come l’amministrazione e la gestione del registro nazionale sono compiti affidati all’ISPRA (*) .
La stima e la trasmissione delle emissioni di gas serra è stata fino ad oggi garantita da un gruppo di lavoro di 10 ricercatori (di cui 7 precari); la gestione del registro nazionale è al momento di fatto garantita da una sola ricercatrice con contratto atipico. Tale personale precario vede oggi compromessa la propria instabile situazione, a seguito della Legge 133/2008 , che opera pesanti restrizioni sul turn over, con il blocco delle stabilizzazioni dei precari, del rinnovo e proroga dei diversi tipi di contratto di lavoro.
E’ a rischio quindi non solo il mantenimento dell’eleggibilità per Kyoto, ma anche il rispetto della tempistica di comunicazione all’Unione Europea delle stime di gas serra (con conseguente attivazione della relative procedure d’infrazione), così come la piena operatività del registro nazionale. Le conseguenze sarebbero l’alterazione dei meccanismi di mercato del sistema di emission trading, transazioni valutabili nell’ordine di un miliardo di euro (1.000M€) nel periodo 2008-2012, con grave danno economico per le aziende italiane interessate.

Ci si chiede come l’Italia ritenga di onorare gli impegni presi a livello internazionale privandosi delle risorse necessarie: istituzioni preposte e personale appositamente formato, non immediatamente sostituibile, se non dopo anni di formazione specialistica.

Forse il nostro Paese, a differenza di altri, non considera la ricerca pubblica, e gli Enti che la svolgono, come una risorsa strategica su cui investire anche, e soprattutto, in tempo di crisi economica internazionale.
Una scelta miope: anche in questo caso i piccoli risparmi dell’oggi sarebbero largamente inferiori ai danni complessivi arrecati all’Italia.

(* ) L’ISPRA(Istituto Superiore per la Protezione e la Ricerca Ambientale) nasce dall’accorpamento di tre enti vigilati dal Ministero dell’Ambiente e della Tutela del Territorio e del Mare: APAT (Agenzia per la protezione dell’ambiente e dei servizi tecnici); ICRAM (Istituto centrale per la ricerca sulle acque marine); INFS (Istituto nazionale per la fauna selvatica) con il fine dichiarato di razionalizzare le spese di gestione e amministrazione degli enti. Il nuovo istituto, come riportato nel DL 112/08, eredita tutte le funzioni e le risorse dei tre enti accorpati.

Testo di: Marina Vitullo e Daniela Romano


Tags: ,
7 commenti

5 Novembre 2008

Politica climatica italiana: c’è tempo fino a dicembre per cambiare posizione

Categorie: 20-20-20, Dibattito, Ministero, Politiche, Protocollo di Kyoto  -  Postato da: 

La situazione economica mondiale non favorisce gli investimenti finalizzati alla riduzione delle emissioni di gas serra (GHG) ma la dichiarazione del Presidente della Commissione europea Barroso alle richieste rilasciate settimane fa da alcuni esponenti del Governo italiano non lascia dubbi: “Nessuna flessibilità per gli obiettivi di riduzione delle emissioni”.

Del resto non potrebbe essere altrimenti su un tema in cui da diversi anni l’Unione europea ha assunto una netta leadership, riuscendo anche per la sua fermezza a divenire un importante riferimento nel panorama internazionale.
Molteplici sono gli esempi in tal senso, a partire dal memorabile discorso di insediamento del Presidente francese Sarkozy che nel ribadire l’amicizia storica con gli alleati americani li richiamava con forza ad assumere un ruolo di guida e riferimento nella lotta ai cambiamenti climatici.
Non è stata da meno Angela Merkel che ha posto questo tema tra le priorità assolute del suo Governo e del semestre di presidenza europeo e che nello storico G8 di Heiligendamm è riuscita a modificare la posizione di G.W. Bush, facendogli riconoscere pubblicamente per la prima volta la principale responsabilità dell’uomo sul riscaldamento del pianeta. Germania che non era nuova a posizioni forti e responsabili sul clima, visto che aveva già rivendicato con forza la necessità di agire, indipendentemente dalle posizioni dei paesi che ancora non aderivano a Kyoto, attraverso il suo Ministro dell’Ambiente, Sigmar Gabriel, alla Conferenza di Nairobi del 2006.
Ancora più in là è arrivato Tony Blair in Gran Bretagna, con il bravissimo Ministro dell’Ambiente e già politico di rango David Milliband, con il suo impegno formale nel 2007 a tagliare le proprie emissioni del 60% entro il 2050. A lui si è aggiunto il fratello Ed, Segretario per le nuove energie e i cambiamenti climatici, incrementando tale impegno fino al 80% proprio negli scorsi giorni, quasi a dare una indiretta ma forte risposta al Governo italiano sulle perplessità di natura economica al taglio delle emissioni.

Nel frattempo è mutato radicalmente anche il panorama extraeuropeo, a partire dall’adesione dell’Australia al Protocollo di Kyoto nel dicembre dello scorso anno.
L’annunciata mossa politica del neo premier Kevin Rudd ha isolato ulteriormente gli USA al di fuori di Kyoto e portato l’Australia a fianco dell’Unione europea in termine di impegni concreti.
Non a caso Penny Wong, Ministro con delega ai cambiamenti climatici, ha dichiarato di ufficializzare entro la fine dell’anno i propri obiettivi di riduzione dei GHG, impegno che sembra raggiungerà il valore del 25%, in piena sintonia con i livelli europei.
Anche negli USA il vento è cambiato e considerata chiusa la Presidenza USA, contestata anche per le posizioni troppo influenzate dall’industria petrolifera su questi temi, si guarda già al nuovo Presidente.
Che sia Obama o McCain sembra essere poco rilevante sul fronte dei cambiamenti climatici, visto che entrambi hanno dichiarato di voler adottare una linea politica completamente diversa dalla precedente, allineandosi invece alle tante esperienze volontarie che si stanno espandendo a macchia d’olio tra i Sindaci ed i Governatori americani e che spesso riprendono quantitativamente gli impegni di riduzione che erano previsti per gli USA dal Protocollo di Kyoto .
È già pronta anche un progetto di legge, promesso già a fine 2006 dopo le elezioni di medio termine da un trio di Senatori capitanato da Barbara Boxer, che replica lo schema dell’Emission Trading già in essere in Europa.
Addirittura Cina ed India, che vengono spesso additati come scusante per giustificare l’inattività di qualche paese industrializzato, riconoscono con la Bali Road Map un proprio ruolo attivo e ricevono per questo i complimenti di Yvo de Boer, Segretario dell’UNFCCC.
Del resto molti sembrano dimenticare che entrambi hanno fin dall’inizio ratificato il Protocollo di Kyoto, documento che non prevedeva però per loro nella fase iniziale alcun obiettivo di riduzione delle emissioni.

Ciò era riconosciuto anche all’interno della Convenzione di Rio dell’ONU del ’92, vista la difficile posizione dei paesi in via di sviluppo di offrire ai propri abitanti delle migliori condizioni di vita. Il documento in questione, che ha ricevuto l’adesione e la ratifica dei Paesi di tutto il mondo, richiedeva a tutti i Paesi industrializzati di fare il primo passo nella riduzione delle proprie emissioni di GHG.
In un panorama internazionale così orientato a muoversi, pur con velocità diverse, in un’unica direzione stupisce le posizioni manifestate in questo periodo da parte di alcuni esponenti del Governo italiano, a volte accompagnate anche da un’informazione che, in modo anacronistico, cerca ancora di mettere in dubbio i cambiamenti climatici e le relative responsabilità del genere umano. Sarebbe forse più apprezzabile ed un segno di importante statura politica assumersi pubblicamente le responsabilità, anche a nome dei diversi Governi precedenti, per quanto non è stato fatto fino ad oggi e per il tempo che si è sprecato.
L’unica speranza che ci resta a questo punto è che il Governo Italiano  esprima un cambio di posizione, portando l’Italia a fianco dei principali Paesi del panorama europeo ed internazionale.

Il vertice di Poznan è vicino e gli occhi di tutto il mondo, compresi quelli del nuovo Presidente degli USA saranno puntati anche su di noi.

Testo di Daniele Pernigotti


Tags: , , , , , , , ,
4 commenti

30 Ottobre 2008

Una tempesta solo italiana?

Categorie: 20-20-20, Costi, Emissioni, Fraindentimenti, Ministero, Mitigazione, Negoziazioni, Offese, Politiche, Protocollo di Kyoto, Riduzioni  -  Postato da: 

E’ passata la tempesta dello scontro Governo Italiano – Commissione europea sul tema dei costi del pacchetto 20-20-20. Se ne sono sentite delle belle, c’è materiale per una dozzina di nomination per il “Premio a qualcuno piace caldo 2008” (qualcuna è già arrivata e con calma in futuro appariranno nella pagina dedicata al Premio.

Cerchiamo di fare un po’ di ordine.

I vari documenti del pacchetto clima si trovano alla pagina “Climate Action” della Commissione europea:

L’analisi della Commissione europea “Model based Analysis of the 2008 EU Policy Package on Climate Change and Renewables“, alla base della suddivisione degli impegni fra gli stati, si trova dal febbraio 2008 qui, con tanto di allegati

I documenti prodotti dal Ministero dell’Ambiente del Territorio e del Mare sono disponibili qui e qui.

Una posizione intermedia è stata portata dagli Amici della Terra, che in un intervento disponibile qui, hanno rivolte dure accuse alla Commissione: “la ripartizione degli impegni del pacchetto energia è avvenuta in base a criteri non trasparenti, non discussi e diversi da quelli ambientali“.

Un po’ di chiarezza su quanto accaduto l’hanno fatto due pregevoli scritti di Marzio Galeotti, pubblicati sul Lavoce.info (Testo 1 e Testo 2).

Riassumendo: nei documenti prodotti dal Ministero ci sono alcune affermazioni non vere (la non disponibilità dei dati…), alcune scelte metodologiche molto discutibili (sommare i singoli costi di ognuno dei “20”, senza tener conto delle sinergie), e soprattutto non sono stati considerati i benefici delle politiche climatiche. Sarà arduo per il Ministero con quegli argomenti fare breccia a Bruxelles.

Si vedrà in futuro. Sembra che l’Italia presenterà venerdi’ 31 ottobre in una riunione con la Commissione un documento di 6 pagine con 18 domande, che per ora solo Libero Mercato ha potuto leggere.

Per ora sembra che i rilievi italiani non abbiano fatto molta impressione. Nelle conclusioni del Consiglio dei ministri dell’ambiente (conclusioni-del-consiglio-eu-del-20102008) che si è svolto in Lussemburgo il 20 ottobre non c’è traccia delle mozioni avanzate dall’Italia.

Anche la rivista Nature, che ha discusso le traversie europee sulle politiche climatiche, non ha neppure considerato i rilevi italiani; come ha notato Antonello Pasini, forse perché le considerazioni del Governo italiano sono state ritenute strumentali (“il solito Pierino che non ha fatto i compiti e cerca una scappatoia all’ultimo momento…“).

Un’ipotesi è che la tempesta sul 20-20-20 sia stata solo italiana, ad uso e consumo interno.

A margine dei dibattito sui costi, va segnalata la presenza nel dibattito di alcuni classici del negazionismo climatico, che non hanno mancato di ottenere titoli e spazio sulla stampa.


La riduzione delle emissioni dell’Italia è troppo piccola

Indicare come troppo piccole le riduzioni delle emissioni di gas serra dell’Italia (e dell’Europa !), sottintendendo che quindi non ne vale la pena: “l’incidenza di riduzione delle emissioni per il nostro paese sarà dello 0,3% e per tutta l’Ue del 2-3 per cento“, hanno dichiarato su vari giornali il Ministro dell’Ambiente Stefania Prestigiacomo e il Presidente di Confindustria Emma Mercegaglia. Se ne trova traccia persino nel documenti del Ministero.

Con la stessa logica, ognuno potrebbe dire che non c’è motivo di pagare le tasse, visto che le proprie tasse sono certo molto meno dello 0.3 % del gettito fiscale italiano…


La riduzione delle emissioni dell’Italia è troppo impegnativa

Il Protocollo di Kyoto andrebbe riscritto (e perché non riscrivere il trattato di Yalta?): i costi del Protocollo di Kyoto o del pacchetto 20-20-20 sono troppo alti: non possiamo permetterceli.. Troppo alti rispetto a cosa?

Eppure ci siamo permessi altri costi, ad esempio “l’iniezione di liquidità” per le banche o per Alitalia. Ci possiamo permettere i costi del pacchetto 20-20-20, per poi raccoglierne i benefici; possiamo decidere di non farlo, ma è una delle scelte possibili.


Riduciamo solo se gli altri …

Sempre dal nostro Ministro per l’ambiente: prendiamo impegni solo se altri, Cina e India, prendono impegni analoghi (vedi).

Come convincere gli Indiani, che emettono pro-capite un quarto delle nostre emissioni di gas serra, a ridurre le emissioni?


Offese gratuite

L’offesa per gli argomenti altrui non manca. In questo si è segnalato il ministro Brunetta, che ha dichiarato che il pacchetto 20-20-20 è nientemeno che “una follia”

Gli argomenti a sostegno di questa tesi non ci sono; tranquillizza il fatto che il ministro, che si è vantato di essere un premio Nobel mancato sull’economia, ha all’attivo due pubblicazioni scientifiche nel catalogo dell’ ISI Web of Science (Vedi il Documento).

A proposito di Nobel mancati, per gli affezionati va segnalato l’intervento sul tema del Prof. Antonino Zichichi : “Di Kyoto si può fare a meno, del rigore scientifico no”.

Testo di Stefano Caserini, con contributi di Claudio Cassardo e Marina Vitullo


Tags: , , , ,
6 commenti

« Prev - Next »


Translate