Notizie e approfondimenti sul clima che cambiaPosts RSS Comments RSS

Archive for the 'Dati' Category

Tranquilli, il riscaldamento globale non si è fermato

L’esame delle temperature medie globali mostra che anche il 2013 appena archiviato può essere catalogato tra gli anni più caldi, anche se non ha stabilito nuovi record. Alla faccia di quanti sostengono, magari perchè nella loro città fà freddo, che il riscaldamento globale non esista o si sia fermato…

 

Come ogni anno, ai primi di gennaio cogliamo l’occasione per fare il punto sull’anno appena trascorso, soprattutto, ma non solo, dal punto di vista dell’andamento termico. Come di consuetudine, ci avvaliamo dei principali dataset climatici disponibili sul web: il NASA GISS (NASA Goddard Institute for Space Studies), il NOAA NCDC (NOAA National Climate Data Center) e l’HadCRU (Hadley Centre/Climate Research Unit), a cui aggiungiamo il database NOAA/NCEP che ci permette di avere a disposizione soltanto due giorni dopo i dati grezzi rielaborati (ricordo ancora che vengono mediati su un grigliato di 2,5 gradi in longitudine e latitudine, il che equivale, alle nostre latitudini, ad un quadrato di circa 300 x 300 km2).

Gli altri centri effettuano invece delle elaborazioni e dei controlli sulla qualità dei dati, e talora può succedere che i dati stessi vengano ricalibrati anche nel passato; ad esempio, per quanto riguarda i dati HadCRU, le elaborazioni effettuate sono discusse molto bene qui; qui invece è descritta in dettaglio la problematica della rappresentatività dei dati stessi, commentando questo studio di Kevin e Way, apparso sul Quarterly Journal of the Royal Meteorological Society, una delle riviste più prestigiose nel campo delle scienze dell’atmosfera. Continue Reading »

81 responses so far

Temperature globali del 2012, ancora in zona medaglia

Il 2012 appena passato ci ha lasciato in eredità una ricca messe di situazioni meteorologiche interessanti ed estreme e il record della minore estensione mai vista di ghiacci marini artici. A livello di temperature, il 2012 globalmente è stato l’ennesimo anno caldo, più caldo anche della media del trentennio più recente di riferimento, ma ormai – ahimè – questa non è più una notizia…

 

È già passato un altro anno, ed eccoci quindi di nuovo qui a commentare quanto accaduto al 2012, dapprima a scala globale e poi in post successivi con uno zoom sull’Europa e sull’Italia. Al solito, mentre attendiamo i dati ufficiali che saranno diramati nei prossimi due-tre mesi dai siti istituzionali (CRU, GISS, NASA, ecc. – l’elenco dettagliato lo trovate sul post dell’anno scorso), il metodo più veloce è quello di ricorrere al database NOAA/NCEP (in particolare, ho usato questo sito). Ricordo che si tratta di dati elaborati e non grezzi: in particolare, vengono mediati su un grigliato di 2,5 gradi in longitudine e latitudine, il che equivale, alle nostre latitudini, ad un quadrato di circa 300 x 300 km2. È quindi impossibile fare considerazioni locali usando questa tipologia di dati.

 

1980-2010

fig. 1 – Anomalia di temperatura superficiale (in °C) nel 2012 rispetto al periodo di riferimento 1981-2010. Dati NOAA-NCEP.

Continue Reading »

4 responses so far

Dalla ricerca alla politica e ritorno

Nella seconda parte dell’intervista con Climalteranti, Gavin Schmidt parla dei vari interlocutori nella “conversazione pubblica” sul clima ed esprime un desiderio proprio mentre il suo governo sta per esaudirlo.

I negazionisti dei cambiamenti climatici non trovano più argomenti nuovi, che siano in difficoltà?

Non trovano argomenti nuovi da decenni! Ma il negazionismo (denial) è un atteggiamento pubblico molto legato al contesto politico. Se un partito politico pensa di guadagnarci qualcosa incitandolo, ritornerà. Non se ne va perché la razionalità prevale e la gente cambia opinione. C’è sempre, e l’attenzione che riceve da parte del pubblico dipende soprattutto dai protagonisti della conversazione pubblica, se si concentrano o meno su  questo tema. In Europa, in generale non lo fanno, quindi il problema si pone meno. Negli Stati Uniti abbiamo un partito di cui una metà ha deciso che il tema dei cambiamenti climatici va usato contro le élite liberali, contro Obama, adesso contro le tasse, contro qualunque cosa. Non perché abbia preso in considerazione la scienza e ne abbia tratto le proprie conclusioni. No, fa parte di un discorso preconfezionato. Continue Reading »

One response so far

2011: un’altra conferma del caldo anomalo

Dopo il record del caldo sfiorato dal 2010, le prime statistiche mostrano che il 2011 ha fatto registrare “soltanto” una moderata anomalia positiva rispetto alle medie 1961-90. Ancora una volta, sono le zone polari che hanno dato il maggiore contributo. Spicca l’anomalia positiva relativa al mese di dicembre su gran parte dell’Europa.

 

 

Anomalia di temperatura superficiale (in °C) sull’Europa nel 2011 rispetto al periodo di riferimento 1961-1990. Grafico generato dalle informazioni NCEP/NOAA.

 

 

Eccoci di nuovo pronti a fare in anteprima una valutazione sulle anomalie termiche dell’anno appena trascorso, a scala globale e regionale. Le analisi ufficiali dei dati delle stazioni normalmente vengono pubblicate dopo qualche tempo, necessario per effettuare la validazione dei dati acquisiti ed escludere quindi la presenza di errori sfuggiti ai controlli preliminari.

Riporto qui in seguito una lista di alcuni siti web di centri di ricerca che calcolano valori di temperatura media globale:

 

  • NCEP/NOAA (NOAA National Centers for Environmental Prediction)
  • NASA GISS (NASA Goddard Institute for Space Studies)
  • NOAA NCDC (NOAA National Climate Data Center)
  • HadCRU (Hadley Centre/Climate Research Unit)
  • RSS (dati satellitari Remote Sensing Systems [compagnia privata supportata dalla NASA])
  • UAH (University of Alabama at Huntsville), dati della bassa troposfera)
  • BEST (Berkeley Earth Surface Temperature)
  • ECA (European Climate Assessment Dataset Network)
  • GHCN version 1, (CDIAC, Global Historical Climatology Network) Continue Reading »

7 responses so far

Temperature 2010: un altro anno caldo in zona record

Le prime valutazioni sulle temperature medie globali rilevate nel 2010 mostrano che, nonostante le ripetute irruzioni di aria artica che hanno caratterizzato l’inizio e la fine dell’anno, il 2010 dovrebbe collocarsi in seconda posizione nella graduatoria degli anni più caldi, con una piccola differenza rispetto alla prima posizione, inferiore all’errore della media. Il maggiore contributo al riscaldamento è venuto dalle zone più fredde della Terra, l’Artide e l’Antartide, in sintonia con le previsioni dei modelli, mentre le medie latitudini hanno evidenziato temperature nella norma o addirittura lievemente inferiori ad essa, il che non aiuta i media a trasmettere una immagine completa dei fenomeni. Inutile sottolineare, ancora una volta, come i dati smentiscano coloro che, puntualmente, dopo ogni irruzione fredda, paventano imminenti ere glaciali in agguato.

.

Smaltita la sbornia di Capodanno, eccoci pronti a effettuare le prime statistiche termometriche sull’anno appena trascorso. Nel nostro emisfero, l’anno termina d’inverno, e quindi è normale parlare di temperature medie in un periodo dell’anno in cui, normalmente, fa freddo. Semmai, può essere singolare parlare di riscaldamento globale in un periodo dell’anno in cui sono ricorrenti le irruzioni di aria artica, che proprio calda non è. Tuttavia, le misure hanno il vantaggio di essere neutrali e scevre da impressioni personali.

Come mia abitudine, per un commento immediato all’anno appena trascorso, mi ispiro alla fonte di dati immediatamente disponibile, e cioè quello del NCEP/NCAR [National Centers For Environmental Prediction’s and National Center for Atmospheric Research], che distribuisce gratuitamente, e con soli due giorni di ritardo, un notevole numero di dati utilissimi (tra cui le temperature in atmosfera), mediati su un grigliato di 2,5 gradi in longitudine e latitudine (alle nostre latitudini, significa circa 300 x 300 km quadrati). Si tratta di dati elaborati e non grezzi, il che permette la loro disponibilità con alcuni giorni di anticipo rispetto alle medie ottenute dall’analisi diretta dei dati delle stazioni, che debbono invece essere prima controllati, e consentono, quindi, una rapida analisi preliminare dell’anno appena trascorso. Continue Reading »

83 responses so far

I ghiacciai alpini NON stavano peggio 70 anni fa

Un recente studio svizzero suggerisce che negli anni ‘40 una radiazione solare più intensa avrebbe causato un rateo di fusione annuale dei ghiacciai superiore a quello registrato oggi. “Repubblica” raccoglie e distorce la notizia, riportando che in quel periodo i ghiacciai alpini erano meno estesi di oggi. Ma non è così.

.

La superficie e la lunghezza dei ghiacciai rispondono sostanzialmente alle variazioni di temperatura e delle precipitazioni nevose, con tempi di reazione che possono variare da qualche anno a qualche decennio, a seconda della forma e delle dimensioni dei ghiacciai stessi. L’andamento meteorologico della singola annata influenza invece solo il bilancio di massa annuale, che dipende dalla somma dei processi di accumulo (dovuto generalmente alle nevicate) e di ablazione (dovuta generalmente alla fusione estiva) in un anno. Per influenzare l’estensione e la lunghezza dei ghiacciai è necessario che un determinato andamento del bilancio di massa (positivo o negativo) persista per anni o decenni; per questo motivo i ghiacciai sono ampiamente riconosciuti come uno dei migliori indicatori delle variazioni climatiche su scala pluridecennale. È ormai assodato che oggigiorno il ritiro generalizzato dei ghiacciai sia dovuto essenzialmente all’aumento globale della temperatura tanto che dalle misure delle fluttuazioni delle fronti glaciali si è potuta ottenere una ricostruzione indipendente dell’aumento globale della temperatura che risulta coerente con gli altri tipi di analisi più tradizionali. Continue Reading »

16 responses so far

2009: un anno caldo che è sembrato freddo

Anche il 2009 va in archivio come un anno caldo rispetto alle medie trentennali climatiche, a dispetto dei molti che hanno annunciato l’arrivo di ere glaciali. Pur se il 2009 sarà ricordato da alcuni per le 2-3 ondate di freddo e la neve nei mesi freddi, il 2009 è risultato, globalmente, più caldo del 2003, di cui tutti gli europei ricordano la terribile estate.

.

Puntualmente, non appena l’inverno ha bussato alla porta con la prima, temporanea, ondata di freddo intenso che ha colpito anche buona parte dell’Europa e del Canada, sono spuntati come funghi diversi articoli che hanno sottolineato l’evento.
Qualcuno però non ha perso l’occasione per sparlare del riscaldamento globale, del vertice di Copenhagen, dei climatologi, ecc. (si veda ad esempio il lungo elenco di errori  apparso qui, in cui si confonde ancora una volta un singolo evento meteorologico con il clima). Non ci si deve stupire, del resto era già successo quasi un anno fa (si veda qui, qui e qui), ed in realtà si può dire che è stato così anche in passato (si veda ad esempio qui). Ora si prospetta, almeno in Italia, una nuova ondata di freddo, e quindi sappiamo cosa dovremo aspettarci…
Un’attenta analisi dei dati rivela che, in realtà, nonostante per alcuni giorni (il periodo visualizzato è il 14-22 dicembre, ed i dati visualizzati sono le anomalie di temperatura superficiale rispetto al periodo di riferimento 1968-1996 – tutti i grafici sono generati a partire dalle informazioni NOAA) le temperature siano state inferiori anche di 6°C rispetto alla norma sull’Europa centrale e sulla Scandinavia, e di oltre 10°C su una vasta area che dalla Siberia e Mongolia si estende fino alla Russia, altre zone del mondo hanno mostrato anomalie positive altrettanto vistose, come ad esempio la parte nordorientale del Canada, con un’anomalia di oltre 10°C, ed in generale tutta l’area artica. Continue Reading »

67 responses so far

Emissioni dall’agricoltura: attenzione alle differenze

Recentemente é stato pubblicato dal Worldwatch Institute l’articolo “Livestock and Climate Change” in cui viene analizzato l’impatto degli allevamenti animali, considerando l’intero ciclo di vita, sulle emissioni globali di gas-serra. Tale analisi attribuisce al comparto zootecnico il 51% delle emissioni globali di gas-serra.

Si tratta di una stima molto diversa da quella riportata nel rapporto FAO del 2006, in cui pure era stato messo in rilievo il contribuito del comparto zootecnico alle emissioni globali dei gas-serra: gli allevamenti di bestiame erano stati indicati come responsabili del 18% delle emissioni globali di gas serra. D’altra parte, il Fourth Assessment Report (AR4) dell’IPCC evidenza che il 14% delle emissioni globali di gas-serra sono prodotti dall’agricoltura; tale elevato contributo, riportato dall’IPCC, è certamente dovuto al peso rilevante delle emissioni dai paesi in via di sviluppo, per i quali i settori economici primari, e in primo luogo l’agricoltura, hanno una importanza primaria sia dal punto di vista economico, sia da quello delle emissioni di gas-serra (si veda figura 1).

.

A seguito della ratifica della Convenzione sui Cambiamenti Climatici (UNFCCC) e del relativo Protocollo di Kyoto, ogni paese membro è tenuto alla preparazione dell’inventario nazionale delle emissioni, adottando la metodologia IPCC per garantire la comparabilità delle stime tra i diversi paesi. L’inventario nazionale delle emissioni è suddiviso in 6 settori (Energia, Processi industriali, Solventi, Agricoltura , LULUCF (Land use, Land use change and Forestry), e Rifiuti); il settore Agricoltura prevede la stima delle emissioni di metano (CH4) e protossido di azoto (N2O) per le seguenti categorie: fermentazione enterica [4A], gestione delle deiezioni animali [4B], suoli agricoli [4D], coltivazione delle risaie [4C] e combustione dei residui agricoli [4F]. Le emissioni di questi due gas-serra di origine agricola, vengono calcolati a partire da indicatori statistici di attività (statistiche ufficiali) e fattori di emissione, che includono le peculiarità presenti in ogni paese. Le emissioni di anidride carbonica (CO2) correlate al comparto agricolo vengono invece stimate e riportate nel settore LULUCF. Continue Reading »

14 responses so far

Perchè sono attendibili le serie storiche dei dati di temperatura globale

L’evidenza osservativa di un significativo incremento della temperatura media dell’aria in prossimità della superficie terrestre costituisce un dato importante nel contesto dell’attuale dibattito sull’effetto climalterante delle emissioni antropiche. Questo incremento, ben evidenziato dalla figura 1, è sovrapposto ad una significativa variabilità interannuale nonché ad una importante variabilità su scala decennale, ma è comunque chiaramente identificabile, tanto che 17 dei venti anni più caldi dell’intero periodo coperto dalle osservazioni strumentali cadono nel ventennio 1988-2007.

Figura 1: andamento della temperatura media globale in prossimità della superficie terrestre nel periodo 1856-2007. I valori sono espressi come scarti rispetto ai valori medi calcolati sul periodo 1961-1990. Fonte: University of East Anglia.

I dati rappresentati in figura 1 suscitano spesso numerosi interrogativi da parte di chi non si occupa professionalmente della ricostruzione o dell’analisi di serie storiche di dati meteorologici, in quanto non è facile capire come si possa effettivamente disporre di un numero di misure termometriche di alta qualità così elevato da permettere la ricostruzione dell’evoluzione del valor medio planetario della temperatura dell’aria per un periodo di oltre 150 anni.

In realtà lo sviluppo delle osservazioni meteorologiche affonda le sue radice in un passato molto più lontano di quanto non si creda comunemente e la prima rete sinottica, ovvero la rete del Cimento, risale addirittura al ‘600. A questa prima rete, che ha continuato ad operare per circa 15 anni, ne hanno fatto seguito molte altre, anche se fino alla seconda metà dell’800 tutte le iniziative hanno avuto una durata abbastanza limitata nel tempo e sono sempre state condotte in modo pioneristico e in assenza di metodologie standardizzate riconosciute universalmente.

Il primo tentativo di pervenire realmente ad un sistema di osservazioni meteorologiche standardizzato a scala planetaria è probabilmente costituito da una conferenza tenutasi a Bruxelles nel 1853. Questa conferenza viene considerata come il primo passo verso la cooperazione meteorologica internazionale, cooperazione che si è poi rafforzata rapidamente negli anni successivi fino a portare alla fondamentale conferenza di Vienna (1873), nel cui ambito è nata la International Meteorological Organisation (IMO), ovvero l’organizzazione che si è poi evoluta nella attuale World Meteorological Organisation (WMO).

La lettura degli atti di questa conferenza e delle conferenze che si sono succedute nei decenni successivi evidenzia in modo molto chiaro i notevoli sforzi prodotti negli ultimi tre decenni dell’800 per pervenire ad una reale standardizzazione delle osservazioni meteorologiche.

È peraltro importante sottolineare come già alla fine dell’800 le osservazioni non includessero solo i Paesi più avanzati, ma coprissero una significativa frazione dell’intero Pianeta, comprese alcune aree oceaniche che venivano coperte grazie al traffico marittimo. Nonostante ciò la copertura era comunque ancora lontana dall’essere globale e vi era la completa mancanza di osservazioni sistematiche in quota. Questi limiti vengono superati solo nella seconda parte del ventesimo secolo, dapprima con lo sviluppo di una rete planetaria di misure da termosondaggio quindi, in tempi più recenti, con lo sviluppo delle misure da satellite.

L’esistenza di una rete planetaria di osservatori meteorologici non è comunque l’unica condizione necessaria per poter studiare l’evoluzione a lungo termine del clima della Terra. Tale attività richiede infatti anche che i dati siano facilmente accessibili e che su di essi vengano effettuate una serie di analisi volte ad accertarne la qualità, l’omogeneità e la reale capacità di rappresentare l’intero Pianeta.

Il primo ricercatore che ha cercato di fronteggiare questi problemi è probabilmente stato Köppen che, tra il 1870 ed il 1880, ha organizzato ed elaborato un dataset di oltre 100 stazioni osservative, con l’obiettivo di produrre la prima stima dell’evoluzione della temperatura a scala globale della storia della meteorologia. Successivamente, la realizzazione di ricerche di questo tipo è stata notevolmente facilitata da una risoluzione della International Meteorological Organisation del 1923 che ha avviato una sistematica raccolta e pubblicazione di tutte le più significative serie di dati termometrici, pluviometrici e barometrici allora esistenti al mondo. Questa risoluzione ha portato al “World Weather Records”, una monumentale opera con serie di dati a risoluzione mensile relative a centinaia di stazioni di osservazione sparse in tutto il mondo. Questa raccolta ha poi continuato a venire regolarmente aggiornata nei decenni successivi e, a partire dagli anni ’60, i dati sono anche stati digitalizzati. Ai dataset globali vanno poi aggiunti numerosi dataset a carattere più locale (da nazionale a continentale), creati soprattutto nel corso degli ultimi decenni, nell’ambito di un grande numero di progetti volti a recuperare un frazione sempre più consistente dell’enorme patrimonio di informazioni che spesso giacciono ancora inutilizzate in archivi cartacei sparsi in tutto il Pianeta.

È quindi naturale come le stime dell’evoluzione a lungo termine della temperatura dell’aria in prossimità della superficie terrestre che si sono succedute al primo tentativo di Köppen si siano avvalse della disponibilità di una base di dati sempre più ampia, passando da un centinaio a 3000-4000 stazioni. A questi dati, relativi alle terre emerse, si aggiungono poi oggi numerose serie relative alle aree oceaniche. Esse consistono sostanzialmente di dati relativi alla temperatura superficiale dell’acqua, variabile che viene solitamente assunta come ben rappresentativa della temperatura dell’aria sugli oceani. Questi dati sono raccolti da lungo tempo grazie a navi mercantili e militare e, più recentemente, anche grazie ad una rete planetaria di stazioni ancorate a boe oceaniche.

Le più moderne stime dell’evoluzione a lungo termine della temperatura media planetaria dell’aria in prossimità della superficie terrestre si basano quindi sull’integrazione dei dati di diverse migliaia di stazioni osservative con una vasta mole di dati relativi alle aree oceaniche. Esse si avvalgono inoltre di un articolato insieme di procedure per il controllo della qualità e dell’omogeneità dei dati, nonché di tecniche di spazializzazione molto efficaci che consentono di gestire i problemi connessi con la distribuzione spaziale non uniforme delle serie disponibili (si veda ad esempio l’articolo di Brohan et al., 2006 “Uncertainty estimates in regional and global observed temperature changes: a new dataset from 1850” – J. Geophysical
Research ). Queste procedure, unitamente alla vasta letteratura disponibile sull’argomento, consentono oggi anche di valutare l’incertezza delle ricostruzioni ottenute. Essa è dovuta, da una parte al fatto che le serie storiche di dati meteorologici sono influenzate da disomogeneità ed errori indotti sia dagli strumenti di misura che dalle metodologie di osservazione e, dall’altra, dal fatto che, per quanto numerose, le misure disponibili non sono realmente rappresentative dell’intero Pianeta. Proprio per questa ragione una corretta ricostruzione dell’evoluzione della temperatura globale deve essere accompagnata da un’indicazione del relativo margine di incertezza. Questa indicazione è effettivamente presente nelle ricostruzioni più moderne e grazie ad essa è possibile per esempio affermare, come indicato nel quarto assessment report dell’IPCC, che il riscaldamento globale nel periodo 1906-2005 è stato di 0.74 ± 0.18 (°C), dove la cifra che segue la stima più probabile del trend indica l’intervallo entro il quale si ritiene che il trend abbia il 95% di probabilità di collocarsi effettivamente.

Il valore di incertezza relativamente contenuto delle stime relative al riscaldamento verificatosi nel corso dell’ultimo secolo è, come già visto, sicuramente frutto di sofisticate metodologie di analisi che consentono di massimizzare l’informazione che può essere estratta dai dati disponibili. Accanto a queste metodologie gioca però un ruolo fondamentale anche la buona qualità di molte delle serie osservative. La qualità delle osservazioni meteorologiche è infatti da lungo tempo un obiettivo fondamentale della comunità del settore; essa è peraltro sempre stata considerata con grande attenzione dall’Organizzazione Meteorologica Mondiale (si veda qui). Così, anche se esistono esempi di stazioni gestite e/o collocate in modo del tutto inadeguato, accanto ad esse vi è una grande maggioranza di situazioni nelle quali le osservazioni vengono effettuate in modo corretto e nelle quali viene prestata grande attenzione alle misure.

Testo di: Maurizio Maugeri

21 responses so far

Raffreddamento globale, ghiacci Artici, previsioni dell’IPCC

NOTA INFORMATIVA del Focal Point IPCC – Italia del 15 gennaio 2009.

La Redazione di www.climalteranti.it pubblica una nota informativa a cura di Sergio Castellari, inerente al dibattito sui cambiamenti climatici improvvisamente riaccesosi a seguito di alcune pubblicazioni apparse su importanti organi di informazione italiani.

In questi ultimi giorni sui media sono apparse notizie riguardo un rallentamento o blocco del riscaldamento globale a causa delle imponenti nevicate in varie zone Italiane e del pianeta e riguardo la forte crescita dei ghiacci marini Artici che sarebbero tornati ai livelli del 1979. Infine, alcuni articoli citano le “previsioni catastrofiche“ fatte dall’IPCC come ormai obsolete o anzi completamente errate (ad esempio qui, qui o qui).
E’ necessario fare alcuni chiarimenti.

Meteorologia e climatologia:

Bisogna stare molto attenti a non confondere una analisi meteorologica con una analisi climatica. Il sistema clima è un sistema complesso, che include l’atmosfera, gli oceani, le terre emerse, la criosfera e la biosfera. Generalmente il clima viene definito come “il tempo meteorologico medio” su scale temporali lunghe (almeno 30 anni). Quindi le condizioni climatiche vengono definite in termini di proprietà statistiche (ad esempio, il valore medio della temperatura atmosferica superficiale in una regione).
Quindi un cambiamento climatico può essere definito come una variazione significativa statisticamente dello stato medio del clima o della sua variabilità, persistente per un periodo esteso (tipicamente decenni o più). Un cambiamento climatico implica una variazione delle proprietà statistiche e non può essere associato ad un evento singolo (una alluvione, una tempesta di neve ecc.) Non ha senso la domanda: “L’alluvione in un dato luogo e giorno è causata da un cambiamento climatico?” Ha invece senso la domanda: “Un cambiamento climatico può comportare una aumentata probabilità che si verifichino fenomeni alluvionali?”
Quindi dare un senso climatico (fine del riscaldamento globale, inizio di un raffreddamento globale) ad una settimana di gelo in Italia significa fare una dichiarazione non basata su un corretto approccio scientifico.

Ma l’anno 2008 è stato veramente un anno freddo?

Questa è di nuovo una domanda generica, freddo rispetto a cosa e su quali scale temporali? Andando a vedere le due serie temporali di temperature media globali superficiali raccolte ed analizzate dal NCDC (National Climatic Data Center) della NOAA (National Ocean Atmophere Administration) (USA) e dal Met Office Hadley Centre (UK) si può chiaramente vedere che il 2008 non è stato un anno “freddo” in queste serie
temporali rispetto a medie a lungo termine. Il rapporto preliminare (perché ancora non considera il mese di dicembre 2008) del NCDC dichiara che l’anno 2008 potrà essere uno dei 10 anni più caldi dal 1880 (inizio della serie termometrica globale) rispetto alla media del 20esimo secolo. Inoltre il mese di novembre 2008 è stato il quarto novembre più caldo della serie globale dal 1880 e l’agosto 2008 si è posizionato al decimo posto come agosto più caldo nella serie temporale.
Questo trend è confermato anche dalla serie globale del Met Office Hadley Centre. Quasi tutti gli anni del nuovo millennio stanno tra i 10 anni più caldi di entrambi le serie termometriche globali. Negli ultimi 10 anni le temperature sono cresciute più lentamente rispetto ai decenni precedenti, ma ragionando su tempi lunghi è evidente un trend di crescita di temperature. Questo non significa che l’anno 2009 sarà necessariamente più caldo del 2008: il 2009 potrebbe essere l’anno più freddo dal 1980, ma il trend di crescita globale di temperature rimarrebbe se il 2010 ed il 2011 saranno di nuovo anni più caldi rispetto ad una media a lungo termine. Il valore di temperatura globale di un anno non può modificare una tendenza a lungo termine.

I ghiacci artici che tornano ai livelli del 1979:

Alcuni articoli stranieri ed italiani, citando i dati dell’University of Illinois’s Arctic Climate Research Center, hanno spiegato che l’estensione del ghiaccio marino artico è tornata a crescere ed ha raggiunto l’estensione del 1979. Intanto la crescita invernale del ghiaccio marino Artico è un normale processo stagionale: l’estensione diminuisce in estate e ricresce in inverno. Però negli ultimi anni come mostrato dal NSIDC (National Snow And Ice Data Center) (USA), qualcosa è cambiato. L’estensione di ghiaccio marino Artico (sea ice extent) ha raggiunto il record minimo nel settembre 2007, seguito dal settembre 2008 e settembre 2005, confermando che esiste un trend negativo nella estensione di ghiaccio marino estivo osservato negli ultimi 30 anni.

Se si cercano i dati dell’University of Illinois’s Arctic Climate Research Center al loro sito  si può arrivare al sito Criosphere Today del Polar Research Group – University of Illinois dove, controllando i grafici, si può vedere che l’estensione del ghiaccio marino (sea ice area) dell’Emisfero Nord nel dicembre 2008 non raggiunge il livello del 1979, mentre il sea ice area dell’Emisfero Sud nell’estate 2008 ha raggiunto il livello dell’estate 1979!

Per l’Artico il NSIDC ha comunicato il 7 gennaio (2008 Year-in-Review) che:
• l’estensione del ghiaccio marino (sea ice extent) nel dicembre 2008 è stata di 12.53 milioni di km2, 830,000 milioni di km2 di meno della media 1979 – 2000;
• il ghiaccio marino del 2008 ha mostrato una estensione ben sotto alla media (wellbelow- average ice extents) durante l’intero anno 2008;
• dal 12 al 19 dicembre 2008 la crescita stagionale di ghiaccio marino Artico si è interrotta probabilmente a causa di un sistema anomalo di pressione atmosferica combinato all’effetto delle temperature marine superficiali più calde nel Mare di Barents.

Le “previsioni” dell’IPCC:

Innanzitutto esistono vari tipi di modelli:
1. Modelli di previsione meteorologica operativa: grandi modelli computazionali, che integrano le equazioni del moto atmosferico, accoppiate con opportune rappresentazioni degli scambi di materia e calore con la superficie terrestre e che forniscono le previsioni meteorologiche;
2. Modelli di previsione stagionale: stessi modelli atmosferici, ma accoppiati a all’oceano e sono utilizzati per prevedere fenomeni come El Nino;
3. Modelli del Sistema Terra (Earth System Models): modelli dell’atmosfera ed oceano tra loro accoppiati, ma accoppiati anche ad altri modelli che rappresentano la superficie, il ghiaccio marino, la vegetazione, la chimica atmosferica, il ciclo del carbonio e gli aerosol.
Per gi studi dei possibili climi a 50 o 100 anni si usano i Modelli del Sistema Terra, ma in maniera diversa dai modelli di previsione meteorologica. Nel campo della predicibilità di un sistema come il sistema clima si possono avere due tipi di previsioni: “Previsioni di Primo Tipo” (o Problemi ai Valori Iniziali) e “Previsioni di Secondo Tipo” (o Problemi ai Parametri). Le cosiddette previsioni climatiche dell’IPCC sono previsioni del secondo tipo: dato il sistema clima soggetto a variazioni di un forzante esterno, sono previsioni delle variazioni delle proprietà statistiche del sistema clima al variare dei parametri esterni. Queste previsioni non dipendono dai valori iniziali, come le previsioni del Primo Tipo che sono poi le previsioni meteorologiche e che hanno un limite intrinseco a circa due settimane.

Queste previsioni climatiche si definiscono in realtà proiezioni climatiche e cercano di rispondere alle seguenti domande:

1. Assumendo che la composizione atmosferica vari secondo un certo scenario di emissione, allora quale sarà ad esempio tra 30, 50 e 100 anni la probabilità di avere una temperatura media più alta di 3°C rispetto a quella attuale?

2. Come sarà distribuita sul globo questa variazione della temperatura media prevista?

Queste proiezioni si possono chiamare anche scenari climatici, perché come variazione di forzanti esterni (gas serra ed aerosol) usano scenari di concentrazione che derivano da scenari di emissioni. Questi scenari di emissioni sono descrizioni plausibili dello sviluppo futuro delle emissioni di gas serra e aerosol, basate su un insieme coerente ed internamente consistente di assunzioni sulle forze che le guidano (soprattutto economiche, tassi di sviluppo tecnologico, andamento dei mercati, sviluppo demografico, ecc.).

E’ importante sottolineare che la dinamica caotica del clima terrestre e dei moti atmosferici pone un limite teorico alla possibilità di eseguire Previsioni del Primo Tipo. Infatti il sistema clima è un sistema fisico complesso con un comportamento non lineare su molte scale temporali e che include molte possibili instabilità dinamiche. Però la natura caotica del sistema clima non pone alcun limite teorico alla possibilità di eseguire Previsioni del Secondo Tipo. Quindi è più semplice eseguire Previsioni di Secondo Tipo (in altre parole previsioni climatiche di tipo statistico) per i prossimi 100 anni assumendo possibili variazioni dei forzanti esterni, che estendere di qualche giorno il termine delle previsioni meteorologiche.
Queste previsioni statistiche vengono effettuate in vari centri di modellistica climatica in varie parti del mondo (anche in Italia, ad esempio al Centro Euro-Mediterraneo per i Cambiamenti Climatici – CMCC) e fino ad oggi quasi tutti i modelli climatici del tipo Earth System Models hanno usato gli stessi scenari di emissioni chiamati IPCC-SRES al fine di poter confrontare i risultati. Questi scenari di emissioni sono molti e presuppongono diversi sviluppi socioeconomici a livello globale e quindi diversi livelli di emissioni al fine di poter“catturare” il possibile futuro climatico della Terra.

In conclusione, queste previsioni sono scenari climatici o proiezioni climatiche e non previsioni meteorologiche a lungo termine.

7 responses so far

Pacchetto 20-20-20: gli errori nei numeri del Ministero dell’Ambiente

E’ passato ormai un mese dalla polemica del governo italiano sui costi del pacchetto clima energia dell’UE, ormai famoso con il nome “20-20-20”.
Dopo la tempesta, i riflettori si sono spenti. Nulla si è saputo dei risultati del Tavolo di confronto aperto a Bruxelles fra i tecnici del Ministero dell’Ambiente e della DGEnv – Commissione UE.

Non sono disponibili – ad oggi – documenti ufficiali a conclusione dei lavori del “Tavolo”. E’ poco probabile che il confronto sia ancora in corso.
In sintesi, le accuse lanciate dal governo erano chiare (i costi dell’Italia sono molto alti, sono i più alti di tutti). La Commissione aveva risposto che non era così e che i conti italiani erano sbagliati, che i costi erano al massimo la metà di quanto detto dall’Italia (risposta dell’Italia: ma sono i vostri conti!).
Molto famosa è una stima di 180 miliardi di euro data dal Governo Italiano in innumerevoli occasioni, e contestata dalla Commissione. Se si fa una ricerca su Google con parole chiavi “costi – Italia – 180 miliardi – emissioni” si trovano migliaia di riferimenti alle dichiarazioni italiane.
In particolare la cifra di 181,5 miliardi di euro è quella citata più frequentemente.

Titolo de “Il Sole 24 Ore”, 9 Ottobre 2008

Quindi chi aveva ragione e chi aveva torto? Da dove nasce questa cifra?
Dopo aver studiato le carte, Climalteranti.it propone una risposta.

La documentazione prodotta dalla Commissione europea e pubblicata il 23 gennaio 2008 con l’Impact Assessment relativo al cosiddetto “Climate package” e nel giugno 2008 con la “Model-based Analysis of the 2008 EU Policy Package on Climate Change and Renewables” ha fornito una base di dati per fare alcune valutazioni sui costi che l’intera Unione europea e i singoli paesi dovranno sostenere per raggiungere contemporaneamente l’obiettivo di ridurre le emissioni di gas ad effetto serra (20% in meno nel 2020 rispetto al 1990) e l’obiettivo di sviluppo delle fonti rinnovabili (20% sul totale dei consumi finali di energia nel 2020).
Gli analisti della Commissione hanno infatti sviluppato una serie di scenari alternativi che si basano su differenti ipotesi in termini di:

  • criterio di efficienza economica, ovvero minimizzazione dei costi per l’intera Unione europea;
  • criterio di equità, ovvero redistribuzione degli impegni tra i diversi paesi in funzione del livello di sviluppo economico di ciascuno;
  • possibilità di utilizzo dei crediti derivanti dai meccanismi flessibili del Protocollo di Kyoto per ottemperare all’obbligo di riduzione delle emissioni, ovvero la possibilità di includere anche iniziative svolte all’esterno dell’Unione europea (Progetti CDM);
  • possibilità di utilizzo delle cosiddette “Garanzie d’origine” associate alle fonti rinnovabili per raggiungere l’obbiettivo dello sviluppo di queste ultime, ovvero anche iniziative di produzione di energia rinnovabile in altri paesi dell’Unione europea possono essere riconosciute ai fini del raggiungimento dell’obiettivo nel proprio paese;
  • livello dei prezzi d’importazione del petrolio e del gas.

I risultati ottenuti tramite questi scenari sono stati utilizzati dalla Commissione per proporre una serie di misure concrete finalizzate al raggiungimento degli obiettivi per lo sviluppo delle fonti rinnovabili e la riduzione delle emissioni: il “Climate package”, per l’appunto.
Quest’ultimo comprende:

  1. una proposta di revisione della direttiva 2003/87/EC sull’Emission Trading (sistema di scambio europeo dei permessi di emissione) – EU ETS
  2. una proposta di decisione del Parlamento europeo e del Consiglio per la riduzione delle emissioni per i settori non soggetti all’EU ETS
  3. una proposta di direttiva per la promozione dell’utilizzo dell’energia prodotta da fonti rinnovabili
  4. una proposta di direttiva sullo stoccaggio geologico del biossido di carbonio.

Il pacchetto non comprende misure per l’efficienza energetica. Si ricorda che l’obiettivo del 20% di riduzione dei consumi energetici al 2020, rispetto all’evoluzione tendenziale, non è un obiettivo vincolante.

La prima cosa da sottolineare è che nessuno degli scenari analizzati nel rapporto UE corrisponde esattamente alle proposte della Commissione. Queste ultime infatti stanno seguendo la procedura di adozione prevista dalla normativa europea e basata sulla codecisione in sede di Consiglio e Parlamento europeo. L’iter ha già prodotto una serie di emendamenti significativi, soprattutto con riferimento alla proposta di direttiva per le fonti rinnovabili.

Alla luce di queste considerazioni, per valutare l’impatto del “Climate package” sui costi del sistema energetico italiano utilizzando i risultati prodotti dalla Commissione europea, la cosa migliore è selezionare gli scenari che maggiormente riflettono le proposte attualmente in discussione.
In particolari gli scenari più interessanti sono due (chiamati RSAT-CDM e NSAT-CDM) e prevedono entrambi un contesto europeo per le grandi sorgenti, ma incorporano il principio di equità prevedendo impegni differenziati per i singoli paesi, ossia prevedono:

  • la definizione a livello UE dell’obiettivo di riduzione delle emissioni da parte dei settori soggetti al sistema europeo di scambio dei permessi di emissione – ETS (ovvero il settore energetico e i settori energivori);
  • la definizione a livello dei singoli paesi dell’obiettivo di riduzione delle emissioni da parte dei settori industriali non soggetti alla direttiva ETS;
  • la definizione a livello dei singoli paesi dell’obiettivo di sviluppo delle fonti rinnovabili.

I due scenari divergono invece riguardo alle ipotesi sull’utilizzo dei crediti CDM e sulla possibilità di scambio delle Garanzie d’Origine associate alle fonti rinnovabili. In altre parole la differenza fra i due scenari sta nell’aggiungere o meno al criterio di equità uno o due strumenti di flessibilità, allo scopo di rendere più efficiente lo sforzo complessivo.
Infatti, lo scenario RSAT-CDM prevede la possibilità di utilizzare i crediti CDM in linea con quanto approvato in sede di Commissione europarlamentare, mentre esclude il commercio delle Garanzie d’Origine, discostandosi in tal senso dalla proposta originaria della Commissione europea ma avvicinandosi in parte a quanto deciso in sede di Commissione europarlamentare.
Lo scenario NSAT-CDM, invece, comprende sia la possibilità di utilizzo dei crediti CDM sia lo scambio delle Garanzie d’Origine delle fonti rinnovabili al fine di garantire a livello europeo uno sviluppo efficiente di tali fonti. In questo caso non tutti i paesi sarebbero in grado di rispettare i target nazionali facendo affidamento solo agli sforzi locali.

Lo scenario selezionato dal Ministero dell’Ambiente e presentato alla Commissione europea al fine di valutare i costi aggiuntivi per il nostro paese non è uno di questi due. Questo terzo scenario, denominato RSAT, non prevede l’utilizzo di alcuno strumento di flessibilità e quindi non rispecchia né la proposta originale della Commissione né le successive modifiche.

Il grafico seguente rappresenta l’andamento dei costi del sistema energetico italiano nei tre scenari sopra descritti, e li confronta con l’andamento dello scenario base, ovvero “business as usual”, che non prevede cioè l’adozione del “Climate package”. Le differenze tra le curve corrispondenti agli scenari “Climate Package” (RSAT, RSAT-CDM e NSAT-CDM) e la curva baseline (BL) misurano i costi aggiuntivi che il sistema deve sostenere per raggiungere gli obiettivi prefissati.

Fonte: elaborazione Climalteranti.it su dati della Commissione Europea

Fonte: elaborazione Climalteranti.it su dati Commissione Europea

Come si vede, il Ministero ha selezionato lo scenario più costoso e meno probabile.
Ma le differenze non sono piccole come potrebbe sembrare a prima vista. È vero che complessivamente sono pochi punti percentuali di differenza, ma sono sempre miliardi di euro.
Se si calcolano le differenze fra i costi dei tre scenari e lo scenario “Baseline” (che rappresenta i costi di uno scenario energetico senza il pacchetto 20-20-20), si vede che si parla di miliardi di euro l’anno di maggior costo.

 

[aggiunta – Va chiarito che non sono qui conteggiati i costi aggiuntivi indiretti relativi all’acquisto dei permessi CDM e delle GOs. Questi costi porterebbero ad esempio il costo totale dello scenario NSAT-CDM nel 2020 a circa 12.4 miliardi di euro. Non sono disponibili i costi al 2015.]

Fonte: elaborazione Climalteranti.it su dati Commissione Europea

Ma questi numeri non sono ancora quelli della contesa raccontata dai giornali, c’è dell’altro.

La Commissione europea ha fornito i dati di costo in corrispondenza degli anni 2005, 2010, 2015 e 2020. Per calcolare i costi aggiuntivi totali nel periodo 2013-2020, o nel periodo 2011-2020 come proposto dal Ministero dell’Ambiente, sarebbe necessario disporre dei dati puntuali relativi ad ogni anno. In alternativa, come è stato fatto nelle figure sopra, si possono interpolare i dati mancanti nel periodo 2010-2015 e nel periodo 2015-2020. Con questa semplice elaborazione matematica, effettuata con un’interpolazione lineare negli intervalli, si ottengono i seguenti risultati.

Costi aggiuntivi per l’Italia

(mld euro)

Scenario RSAT

Scenario RSAT-CDM

Scenario NSAT-CDM

2011-2020

145.70

93.20

47.80

media annua 2011-2020

14.57

9.32

4.78

 

 

 

RSAT: senza meccanismi di flessibilità
RSAT-CDM: possibilità di utilizzo dei crediti CDM
NSAT-CDM: possibilità di utilizzo dei crediti CDM e scambio delle Garanzie d’Origine

Fonte: elaborazione Climalteranti.it su dati Commissione Europea

Come detto, lo scenario RSAT è quello selezionato dal Ministero dell’Ambiente.
I numeri, tuttavia, sono molto diversi da quelli presentati nel documento del Ministero in quanto quest’ultimo ha calcolato i costi aggiuntivi complessivi facendo la media tra i costi relativi all’anno 2015 (15,1 mld) e i costi relativi all’anno 2020 (21,2 mld) si ottiene 18,15 mld euro e poi moltiplicando per 10, ovvero per gli anni compresi tra il 2011 e il 2020 si ottiene 181,5 mld euro!
Oltre ai costi stimati in più per la scelta di uno scenario improbabile, ci sono i costi indicati dal triangolo rosso, che sono semplicemente dovuti ad un errore.

Un errore grave, clamoroso. Uno di quegli errori che conviene dire di aver fatto apposta.

Come detto in precedenza gli scenari più rappresentativi sono lo scenario RSAT-CDM e lo scenario NSAT-CDM. Ne consegue che una stima più corretta dei costi aggiuntivi per il nostro paese di quella presentata dal Ministero dell’Ambiente, sulla base dei dati forniti dalla Commissione europea, sarebbe compresa tra i 48 e i 93 miliardi di euro per il periodo 2011-2020. Rispettivamente un quarto o la metà di quelli detti dal Ministero. [aggiunta: se si considerano i costi degli scambi di CDM e Garanzie d’origine, i costi totali per l’Italia aumentano, ma rimangono nettamente inferiori a quelli proposti dal Ministero].

E questi sono solo i costi: i benefici, in termini di danni evitati per le minori emissioni di gas serra, non stati conteggiati.
Testo di N.D. e S.C.

11 responses so far

Translate