Notizie e approfondimenti sul clima che cambiaPosts RSS Comments RSS

Buon 35° compleanno, riscaldamento globale!

Pubblichiamo questa traduzione di post comparso su Realclimate, per ricordare uno degli articoli scientifici più lungimiranti della scienza del clima.

.

Il riscaldamento globale è arrivato ai 35 anni. Non solo l’attuale evidente fase di riscaldamento globale dura da circa 35 anni, ma anche il termine “riscaldamento globale” vedrà il suo 35esimo anniversario la settimana prossima. L’8 Agosto 1975 Wally Broecker pubblicò sulla rivista Science l’articolo “Are we on the brink of a pronounced global warming?”. Questa sembra sia la prima volta in cui il termine “riscaldamento globale” è stato usato nella letteratura scientifica (almeno è il primo su oltre 10,000 articoli con questo termine di ricerca nel database ISI degli articoli scientifici).
In questo articolo Broecker predisse correttamente che “l’attuale tendenza al raffreddamento lascerà il posto, entro circa un decennio, ad un significativo riscaldamento indotto dall’anidride carbonica”, e che “entro i primi anni del prossimo secolo [l’anidride carbonica] avrà portato la temperatura media planetaria oltre i limiti raggiunti durante gli ultimi 1000 anni”. Broecker predisse un riscaldamento globale complessivo per il 20esimo secolo causato dalla CO2 di 0.8 °C e si preoccupò per le conseguenze sull’agricoltura e sul livello del mare.

Temperature globali fino al Giugno 2010 secondo i dati GISS della NASA. La linea grigia è la media mobile sui 12 mesi, i punti rossi i valori medi annuali. La linea spessa rossa rappresenta un trend non lineare. Ovviamente Broecker non aveva questi dati a disposizione, nemmeno quelli fino al 1975, perchè la raccolta globale dei dati è stata realizzata non prima dei tardi anni ’70 (Hansen et al. 1981). Si è dovuto basare su dati metereologici più limitati.

Per quelli che ancora oggi sostengono che il riscaldamento globale non si possa prevedere, l’anniversario dell’articolo di Broecker serve da promemoria che il riscaldamento globale fu effettivamente previsto prima che diventase evidente nei dati di temperatura globale oltre un decennio dopo (quando nel 1988 Jim Hansen fece la famosa dichiarazione che “il riscaldamento globale è in atto”).

.

Broecker è uno dei grandi climatologi del ventesimo secolo: pochi eguaglieranno il suo primato di 400 articoli scientifici, una sessantina abbondante dei quali hanno più di 100 citazioni ciascuno! Curiosamente, il suo articolo sul “riscaldamento globale” non è fra i più citati con ad oggi “solo” 79 citazioni. Broecker è meglio conosciuto per il suo vasto lavoro sul paleoclima e sulla geochimica degli oceani.

E’ molto istruttivo seguire il modo in cui Broecker è arrivato alla sua previsioni nel 1975 – non ultimo perchè ancora oggi molti profani assumono, sbagliando, che noi attribuiamo il riscaldamento globale ai livelli di CO2 essenzialmente perchè temperatura e livelli di CO2 sono aumentati entrambi e quindi sono correlati. Broecker è arrivato alla sua previsione in un momento in cui la CO2 era in crescita ma le temperature era in decrescita da qualche decennio – ma Broecker (così come molti altri scienziati al tempo e ancora oggi) aveva compreso le basi fisiche del problema.
Essenzialmente la sua previsione coinvolse tre semplici passi, fondamentalmente gli stessi usati ancor oggi.

.

Step 1: Predict future emissions

Broecker ha semplicemente presunto una crescita delle emissioni di CO2 da combustibili fossili pari al 3% annuo dal 1975 in poi. Con ciò è stato in grado di calcolare un valore cumulato di emissioni di CO2 di origine fossile pari a 1670 miliardi di tonnellate all’anno 2010 (si veda la sua tabella n°1). Non male: il valore che abbiamo appena superato è di circa 1300 miliardi di tonnellate (Canadell et al, PNAS 2007 – stima da me estesa al 2010).

Una lacuna, dal punto di vista moderno, è che Broecker non ha incluso nei suoi calcoli gli altri gas serra antropogenici o le particelle degli aerosol. In un certo senso considera gli aerosol chiamandoli “polveri”. Infatti, la prima frase dell’abstract (citato sopra) inizia subito con un “se”:

“Se le polveri prodotte dall’uomo sono irrilevanti come causa importante per il cambiamento climatico, allora si può ragionevolmente ritenere che il trend di raffreddamento attuale, in una decina d’anni o giù di li, lascerà il passo ad un marcato riscaldamento indotto dall’anidride carbonica”.

Questo è un assenso alla discussione relativa al raffreddamento dovuto poveri agli aerosol dei primi anni ‘70. Broecker giustamente scrive:

È difficile determinare la rilevanza del secondo più importante effetto climatico indotto dall’uomo, “le polveri”, per l’incertezza dovuta alla quantità, alle proprietà ottiche e alla distribuzione delle particelle di origine antropica”,

citando una serie di articoli di Steve Schneider e altri. Siccome non è stato in grado di quantificare questo effetto, non lo ha considerato. Però in questo caso la fortuna aiutato era dalla parte di Broecker: il riscaldamento dovuto ad altri gas serra e il raffreddamento dovuto agli aerosol  si sono esattamente compensati ad oggi, quindi considerare solo la CO2 porta a quasi la stessa forzante radiativa che considerare tutti gli effetti antropogenici sul clima (vedi IPCC AR4, fig. SPM.2 ).

Table 1 of Broecker (1975)

.

Step 2: Prevedere le concentrazioni future

Per passare dalla quantità di CO2 emessa all’effettivo aumento in atmosfera, è necessario conoscere quale sia la frazione delle emissioni che resta in aria: la “frazione aerea” Broecker, basandosi sui dati del passato delle emissioni e delle concentrazioni di CO2 (la curva di Keeling di Mauna Loa), assunse semplicemente che la frazione in atmosfera fosse costante e pari al 50%. Cioè, circa la metà delle nostre emissioni da combustibili fossili si accumula in atmosfera. Questa assunzione resta valida ancora oggi, quando si guarda all’aumento di CO2 osservato come frazione delle emissioni da combustibili fossili. Broecker calcolò che circa il 35% delle emissioni fosse assorbito in oceano e il restante 15% dalla biosfera (di nuovo, non lontanto dai valori attuali, vedi Canadell et al.). Su questa base egli sostenne che se l’oceano è il pozzo principale, la frazione aerea sarebbe rimasta approssimativamente costante per i decenni a venire (i suoi calcoli arrivavano al 2010).

Quindi, con un aumento del 3% l’anno delle emissioni e una frazione aerea rimanente pari al 50%, è facile calcolare l’aumento della concentrazione di CO2. Egli ottenne un aumento da 295 a 403 ppm dal 1900 al 2010. Il valore reale al 2010 è 390 ppm, un po’ meno della stima di Broecker a causa del fatto che la sua previsione di emissioni cumulative era leggermente troppo elevata.

.

Step 3: Calcolo della risposta della temperatura globale

A questo  proposito, Broecker scrive:

La risposta della temperatura globale all’aumento del contenuto atmosferico di CO2 non è lineare. Man mano che il contenuto di CO2 nell’atmosfera aumenta, l’assorbimento di radiazione infrarossa “saturerà” su una parte sempre più ampia della banda. Rasool and Schneider fanno notare che la temperatura aumenta come il logaritmo della concentrazione atmosferica di CO2”.

Basandosi su questa relazione logaritmica (valida ancora oggi) Broecker assume una sensitività climatica di 0.3 °C di riscaldamento per ogni aumento del 10% della concentrazione di CO2, che significa 2.2 °C di riscaldamento per un raddoppio della CO2. Questo numero si basa sui precedenti calcoli di Manabe e Wetherald. Broecker scrive:

Sebbene potremmo ancora avere sorprese quando computer più potenti e una migliore conoscenza della fisica delle nubi permetteranno di fare il passo successivo nella modellistica, la dimensione dell’effetto della CO2 è probabilmente racchiuso all’interno di un fattore fra 2 e 4“.

L’AR4 riporta l’intervallo di incertezza della sensitività climatica come 2-4.5 °C di riscaldamento per il raddoppio di CO2, quindi c’è ancora un’incertezza di un fattore 2 e Broecker ha usato un valore vicino all’estremo inferiore di questo intervallo di incertezza. Le stime recenti non sono solo basate sui calcoli modellistici ma anche su dati paleoclimatici e moderni; l’AR4 elenca 13 studi che limitano la sensitività climatica nella tabella 9.3.

Nell’articolo di Broecker il riscaldamento calcolato con l’ausilio della sensitività climatica avviene istantaneamente. Oggi sappiamo che il sistema climatico risponde con un ritardo dovuto all’inerzia termica dell’oceano. Trascurandolo, Broecker ha sovrastimato il riscaldamento per ogni tempo futuro riferimento temporale; tenere in conto l’inerzia termica avrebbe ridotto la sua stima del riscaldamento di circa un terzo (vedi fig. SPM.5 dell’AR4). Ma di nuovo fu fortunato: considerare una sensitività climatica di ~2ºC invece dei più probabili ~3ºC circa compensa questo effetto, quindi il suo riscaldamento di 0.8 °C nel 20esimo secolo risulta quasi esattamente azzeccato (la stima reale è vicina agli 0.7 °C, vedi la figura sopra). (Una versione aggiornata di questi calcoli “a spanne” si può trovare ad esempio nel nostro libro Our Threatened Oceans, p.82.)

.

Variabilità naturale

Broecker non è stato il primo a prevedere il riscaldamento dovuto alla CO2. Un rapporto di esperti al Presidente degli USA Lyndon B. Johnson del 1965 avvertiva: “Entro il 2000 l’aumento dell’anidride carbonica sarà vicino al 25%. Questo potrebbe essere sufficiente a produrre un cambiamento del clima misurabile e forse marcato”. E nel 1972 una previsione più specifica e simile a quella di Broecker fu pubblicata su Nature dall’illustre scienziato dell’atmosfera J.S. Sawyer (per la storia in pillole, si veda il mio articolo qui).

La novità dell’articolo di Broecker – a parte l’aver introdotto il termine “riscaldamento globale” – fu il combinare le stime del riscaldamento da CO2 con la variabilità naturale. La sua tesi principale era che un raffreddamento climatico naturale

ha, negli ultimi tre decenni, più che compensato l’effetto riscaldante prodotto dalla CO2 […] Tuttavia, l’attuale raffreddamento naturale raggiungerà il minimo più o meno nel prossimo decennio. Quando accadrà, l’effetto della CO2 tenderà a diventare un fattore significativo e nel primo decennio del prossimo secolo potremmo avere una temperatura globale maggiore degli ultimi 1000 anni.

Quest’ultima previsione si è dimostrata essere corretta. L’idea che il lieve raffreddamento dagli anni ’40 agli anni ’70 sia dovuta alla variabilità naturale non può ancora essere esclusa, sebbene più probabilmente rappresenta solo una piccola parte della spiegazione e il raffreddamento è principalmente dovuto alle “polveri”, trascurate da Broecker, cioè all’aumento dell’inquinamento da aerosol antropogenico (Taylor and Penner, 1994). Tuttavia, il modo in cui Broecker ha stimato e anche previsto la variabilità naturale non ha resistito alla prova del tempo. Broecker usò i dati della carota di ghiaccio di Camp Century in Groenlandia,  sostenendo che  essi “potrebbero fornire un quadro delle fluttuazioni naturali della temperatura globale nel corso degli ultimi 1000 anni”. Ironicamente, fu proprio un lavoro successivo di Broecker sui cambiamenti della circolazione oceanica in Atlantico a mostrare che la Groenlandia è probabilmente il luogo meno rappresentativo dei cambiamenti della temperatura globale  rispetto alla maggior parte degli altri luoghi sulla Terra, essendo troppo influenzato dalla variabilità nel trasporto oceanico del calore (vedi il nostro post recente sullo Younger Dryas, o l’ultimo libro di Broecker The Great Ocean Conveyor). Tuttavia, Broecker ebbe ragione nel sostenere che l’accumulo di CO2 prima o poi avrebbe superato queste variazioni climatiche naturali.

.

In definitiva, l’articolo di Broecker (insieme a quello di Sawyer) mostra che previsioni valide sul riscaldamento globale furono pubblicate negli anni ’70 in due fra le piu’ importanti riviste, Science e Nature, e che il riscaldamento si è verificato quasi esattamente come previsto almeno 35 anni fa. Alcuni importanti aspetti non erano ancora compresi a quel tempo, come il ruolo degli altri gas serra a parte la CO2, delle particelle di aerosol e del contenuto termico oceanico. Che le previsioni furono così precise ha avuto anche un elemento di fortuna, in quanto non tutti i processi trascurati influenzano i risultati nella stessa direzioni ma si compensano in parte. Ciononostante, l’aspetto principale che l’aumento di CO2 avrebbe causato, secondo le parole di Broecker, un “significativo riscaldamento globale”, era ben compreso negli anni ’70. In una intervista televisiva nel 1979 Steve Schneider lo descrisse giustamente come un consenso fra gli esperti, rimanendo controversie solo sull’esatta dimensione e gli effetti.

.

Referenze
BROECKER WS, 1975: CLIMATIC CHANGE – ARE WE ON BRINK OF A PRONOUNCED GLOBAL WARMING? SCIENCE Volume 189, Pages 460-463.

.

Traduzione di Riccardo Reitano e Riccardo Mancioli
Revisione di Simone Casadei

 

 

 

 

 

 

 

 

 

 

34 – A conclusione del 4° Anno Polare Internazionale

Questa settimana si è tenuta a Lillestrøm, appena fuori Oslo, la “Oslo Science Conference” la più grande conferenza di sempre, dicono gli organizzatori, sulle scienze polari. Vale la pena guardare alcune delle registrazioni online, e personalmente ho trovato la presentazione di David Barber (“On Thin Ice: The Arctic and Climate Change”, qui il link al video) affascinante ma anche un po’ allarmante.

Le tempeste e la neve influenzano la crescita del ghiaccio marino poiché uno strato di neve su di esso lo isola dall’atmosfera, più fredda, e ne impedisce la crescita. I venti e la massa aggiunta possono portarlo alla rottura, cosicché la quantità di ghiaccio pluriennale è minore di quanto ci si aspetti; il ghiaccio si è degradato e frantumato. Una missione su un rompighiaccio canadese sembra sia riuscita a rompere lastre di ghiaccio molto più spesse di quanto si pensasse grazie alla maggior debolezza del ghiaccio. Fanno anche parte di questa storia le più recenti inversioni del Beaufort Gyre, l’insolita risacca, e il ghiaccio recente sopra i blocchi di ghiaccio più vecchio che ha fatto credere ai satelliti che ci sia più ghiaccio pluriennale che nella realtà. Nel frattempo al NSIDC danno un ghiaccio marino stagionale sotto tono.

Il messaggio principale che ho portato a casa dalla Conferenza è che il ghiaccio marino è più importante di quanto credessi in precedenza. Sembra più chiaro ora che gioca un ruolo nell’amplificazione artica, cosa che ormai sta davvero emergendo.

C’è chi sostiene che la riduzione del ghiaccio marino possa spiegare gli inverni freddi nell’emisfero nord, ma non ne sono ancora convinto. Gli inverni freddi sono dovuti ad una Oscillazione Artica debole, e quindi allo spostamento di masse d’aria che portano aria fredda polare verso sud, e nelle regioni polari questa aria viene sostituita da aria più mite. Quindi, un cambiamento del regime dei venti e temperature più miti possono favorire la riduzione del ghiaccio marino.

Il ghiaccio marino antartico è in media aumentato negli ultimi 30 anni, ma non dappertutto. Sia il generale aumento in Antartico orientale che la cospicua diminuzione in Antartico occidentale vengono attribuite al buco dell’ozono e ai corrispondenti cambiamenti nell’Oscillazione Antartica, sebbene ciò probabilmente non spiega cosa stia succedendo in inverno. In Antartico non è stato osservato alcun chiaro segno di amplificazione polare, tipo quello visto in Artico, e una spiegazione per questo potrebbe essere che il continente Antartico possiede una copertura di ghiaccio con una enorme inerzia termica. Ma i dati dalle carote di ghiaccio mostrano che in passato l’amplificazione polare e’ stata presente pure lì. Ciononostante, nell’emisfero nord l’Artico è caratterizzato da un oceano polare con ghiaccio marino in diminuzione. In entrambi i casi, i cambiamenti nelle masse d’aria e nei venti sono importanti a livello di variabilità interannuale e interdecadale, e per spiegare gli inverni freddi in Eurasia e il ghiaccio marino intorno all’Antartide.

.

Articolo originale su Realclimate.org

Traduzione di Riccardo Reitano, revisione di Simone Casadei.

Pubblicato su Climalteranti il 23/06/2010.

33 – Aggiornamenti sull’accumulo di calore negli oceani

E’ uscito un nuovo articolo su Nature di questa settimana sul trend recente del contenuto termico oceanico scritto da un numeroso gruppo di oceanografi guidati da John Lyman del PMEL. Il loro obiettivo è l’incertezza che circonda i vari tentativi di creare un insieme di dati omogeneizzati sul contenuto termico oceanico che affronti opportunamente i vari cambiamenti di strumenti e i bias di copertura che hanno afflitto i tentativi precedenti.

Abbiamo discusso questo tema diverse volte per l’importanza che riveste nel diagnosticare lo squilibrio radiativo a lungo termine dell’atmosfera. Essenzialmente, se c’è stata più energia in arrivo al limite dell’atmosfera di quella in uscita, deve essere andata da qualche parte – e questo “qualche parte” è essenzialmente l’oceano. (Altri serbatoi per questa energia, come la superficie della terra o lo scioglimento del ghiacci sono molto più piccoli e possono in gran parte essere trascurati).

Il problema principale è stato che nel tempo la rete di sonde XBT e i lanci di CTD sono stati sostituiti dalla rete di sonde flottanti ARGO che ha una migliore copertura e una strumentazione più omogenea. Tuttavia, mettere assieme la vecchia e la nuova rete e trattare i bias specifici delle sonde XBT è difficile. Una XBT (eXpendable Bathy-Thermograph) è una sonda che viene lanciata dalle navi le cui letture delle temperature in funzione del tempo vengono trasformate in un profilo in profondità sulla base della conoscenza su quanto velocemente la sonda affonda. Sfortunatamente, questa relazione è complicata e dipende dalla temperatura dell’acqua, dalla profondità, dal produttore della sonda, etc. Diversi gruppi – lavorando sugli stessi dati grezzi – che nelle XBT erano presenti bias associati ad una scorretta calibrazione e hanno tentato di fare correzioni migliori.

L’ultimo articolo è un tentativo per far convergere il consenso di molte delle persone coinvolte nel lavoro precedente e mostra quanto sia stato intenso il riscaldamento dell’oceano degli ultimi decenni. Infatti, la ‘miglior stima’ dei cambiamenti nei primi 700m sembra consistere in un riscaldamento maggiore di quello previsto dai dati NODC e persino maggiore di quello che i modelli stavano suggerendo:
E’ interessante notare che la variabilità interannuale – in particolare nella fase di transizione tra i due sistemi di osservazione (diciamo 1995-2005) – dipende molto dal modo esatto in cui si fanno le correzioni, mentre il trend a più lungo termine è solido.

Tutto ciò si lega direttamente ai commenti di Kevin Trenberth in questo recente articolo e in un commento di accompagnamento all’articolo di Lyman che, mentre i cambiamenti del bilancio energetico nel lungo termine sono spiegabili, i cambiamenti di breve periodo sono ancora estremamente difficili da quantificare.

Come sempre, è improbabile che questa sia l’ultima parola sull’argomento, ma è un’ulteriore prova che il pianeta fondamentalmente si sta comportando proprio secondo quanto pensano gli scienziati. Il che non è necessariamente una buona notizia.

.

Articolo originale su Realclimate.org

Traduzione di Riccardo Reitano e Daniela Zecca, revisione di Simone Casadei.

Pubblicato su Climalteranti il 16/06/2010.

 

 

32 – Il metano artico in movimento?

Il metano è come l’ala radicale del ciclo del carbonio, nell’atmosfera di oggi è un gas serra più potente, per molecola, della CO2, e ha una concentrazione atmosferica che può cambiare più rapidamente di quanto possa quella della CO2. E’ stato dato un copertura notevole risalto sui giornali ad un nuovo articolo pubblicato su Science questa settimana dal titolo “Estesa fuoriuscita di metano in atmosfera dai sedimenti della piattaforma artica Siberiana orientale“, che arriva sulla scia di una manciata di articoli correlati tra loro sul metano nell’ultimo anno o giù di lì. E’ giunto il momento di aver paura?

No. C’è abbastanza CO2 di cui aver paura, mentre il metano è la ciliegina sulla torta. Immagina di essere in autostrada su un auto a 60 miglia l’ora e ti stai avvicinando al traffico bloccato, e ti accorgi che il pedale del freno è rotto. Questa è la CO2. Poi ti accorgi che anche l’acceleratore è bloccato, così che quando urter5ai il camion davanti a te starai andando a 90 miglia l’ora invece che a 60. Questo è il metano. E’ questo il momento di preoccuparsi? No, ti saresti già da preoccupare per ill pedale del freno rotto. Il metano fa vendere giornali, ma non è il grosso della storia, nè sembra in grado di cambiare le regole del gioco della questione più grossa, che è la CO2.

[Le velocità riportate dell’auto riflettono le forzanti radiative relative di metano e CO2 antropogenici. David]

Per un quadro generale sugli idrati di metano vi rimandiamo a questo riferimento. L’articolo su Science di questa settimana è di Shakhova et al., il seguito di un articolo del 2005 su GRL. L’osservazione del 2005 una consisteva in elevate concentrazioni di metano nelle acque dell’oceano della piattaforma Siberiana, presumibilmente causate dalla emissione di gas dai sedimenti causava causa a sua volta di un eccesso di metano in atmosfera. Il nuovo articolo aggiunge le osservazioni di picchi di metano in aria sopra l’acqua, confermando la fuoriuscita di metano dalla colonna d’acqua, invece di essere ossidato in CO2 in acqua, ad esempio. I nuovi dati consentono di quantificare il flusso di metano in atmosfera da questa regione, a trovano che questa regione compete con il flusso di metano da tutto il resto degli oceani.

Ciò che manca in questi stessi studi è una prova che il rilascio di gas dalla piattaforma siberiana sia un fenomeno nuovo, un feedback climatico, piuttosto che semplicemente un fenomeno “nature-as-usual”, determinato dalla ritirata di permafrost sommerso residuo, rimasto dall’ultima era glaciale. Comunque, altri articoli recenti domanda affrontano l’argomento.

Westbrook et al 2009 hanno pubblicato immagini sonar sbalorditive di pennacchi diffusivi di bolle provenienti da sedimenti al largo delle Spitzbergen, in Norvegia. Le bolle stanno salendo da una linea sul fondo marino che corrisponde al limite della stabilità dell’idrato di metano, un limite che in una colonna d’acqua in via di riscaldamento ritirerebbe tenderebbe ad alzarsi verso la superficie dell’acqua. Uno studio modellistico di Reagan e Moridis del 2009 supporta l’idea che le bolle osservate possano essere una risposta al riscaldamento osservato della colonna d’acqua, determinato dal riscaldamento antropogenico del clima.

Un altro articolo recente, di Dlugokencky et al. 2009, descrive un incremento nella concentrazione di metano nell’aria nel 2007, e cerca di capire da cosa sia originato. Le concentrazioni atmosferiche di metano sono aumentate dal livello preantropogenico fino a circa l’anno 1993, a quel punto si sono improvvisamente stabilizzate. Il metano è un gas dal tempo di residenza in atmosfera basso, quindi dovrebbe stabilizzarsi se il flusso emissivo fosse costante, ma la forma della curva di concentrazione suggeriva una repentina diminuzione del tasso di emissione, derivante dal collasso dell’attività economica nell’ex blocco sovietico, o dal prosciugamento delle zone umide, o qualsiasi delle diverse spiegazioni proposte e irrisolte.

(Forse nel Sud Dakota dovrebbe passare una legge che affermi che il metano è influenzato dall’astrologia!). Un precedente incremento della concentrazione di metano nel 1998 potrebbe essere spiegato tramite l’effetto di El Nino sulle zone umide, ma l’incremento nel 2007 non è così semplice da spiegare. La concentrazione è rimasta stabile nel 2008, il che significa almeno che la variabilità interannuale è importante nel ciclo del metano e rende difficile poter dire se il tasso emissivo medio di lungo periodo stia aumentando in un modo che possa essere in accordo con una nuova retroazione del carbonio.

In ogni caso, fino ad ora è al massimo un feedback molto piccolo. Il Margine Siberiano è del confrontabile con il resto del mondo per importanza come sorgente di metano, ma la sorgente oceanica è complessivamente molto più piccola della sorgente terrestre. La gran parte del metano in atmosfera proviene dalle zone umide, naturali e artificiali associate all’agricoltura del riso. L’oceano è la patata piccola, e c’è sufficiente incertezza nel bilancio del metano per far rientrare degli aggiustamenti nelle sorgenti senza stravolgere granchè i carri delle mele.

Potrebbe essere questo solo l’inizio di ciò che diventerà un enorme feedback di carbonio in futuro? E’ possibile, ma è necessario tenere due cose a mente. Una è che non c’è ragione di fissarsi con il metano in particolare. Il metano è un gas dal basso tempo di residenza in atmosfera , mentre la CO2 essenzialmente si accumula nel ciclo del carbonio atmosfera/oceano, cosicchè alla fine la forzante climatica per l’accumulo della CO2 formata dall’ossidazione del metano può essere altrettanto importante della concentrazione “transitoria” dello stesso metano. L’altra cosa da ricordare è che non c’e’ ragione di fissarsi con gli idrati di metano in particolare, in contrasto al carbonio immagazzinato nelle torbe del permafrost Artico ad esempio. Ci vuole tempo affinchè le torbe si degradino ma pure per gli idrati ci vuole tempo per sciogliersi, essendo limitati dal trasporto di calore. In genere non esplodono improvvisamente.
Per cambiare le carte in tavola nel futuro del clima terrestre, il metano dovrebbe degassare in atmosfera in modo catastrofico, in una scala dei tempi che sia più rapida della vita media decennale del metano in aria. Fino ad ora nessuno ha mai visto o proposto un meccanismo che possa fare in modo che ciò accada.

References
Dlugokencky et al., Observational constraints on recent increases in the atmospheric CH4 burden. GEOPHYSICAL RESEARCH LETTERS, VOL. 36, L18803, doi:10.1029/2009GL039780, 2009
Reagan, M. and G. Moridis, Large-scale simulation of methane hydrate dissociation along the West Spitsbergen Margin, GEOPHYSICAL RESEARCH LETTERS, VOL. 36, L23612, doi:10.1029/2009GL041332, 2009
Shakhova et al., Extensive Methane Venting to the Atmosphere from Sediments of the East Siberian Arctic Shelf, Science 237: 1246-1250, 2010
Shakhova et al., The distribution of methane on the Siberian Arctic shelves: Implications for the marine methane cycle, GEOPHYSICAL RESEARCH LETTERS, VOL. 32, L09601, doi:10.1029/2005GL022751, 2005
Westbrook, G., et al, Escape of methane gas from the seabed along the West Spitsbergen continental margin, GEOPHYSICAL RESEARCH LETTERS, VOL. 36, L15608, doi:10.1029/2009GL039191, 2009

.

Articolo originale su Realclimate.org

Traduzione di: Tania Molteni e Riccardo Reitano.

Pubblicato su Climalteranti il 16/03/2010.

31 – SEALEVELGATE

Immaginate la situazione seguente. Nell’ultimo report dell’IPCC vengono previsti fino a 3 metri di innalzamento del livello dei mari entro la fine del secolo. Ma i siti web degli scettici mettono in luce alcune incongruenze (o “trucchi”, per usare le loro stesse parole).
Per prima cosa, sebbene le proiezioni dell’ IPCC sulle temperature forniscano un riscaldamento massimo di 6.4 °C (Tab. SPM3), il limite superiore dell’innalzamento dei mari e’ stato calcolato assumendo un riscaldamento di 7.6 °C.
In secondo luogo, l’IPCC ha scelto di calcolare l’andamento del sea-level fino all’anno 2105, invece del 2100 – tanto per aggiungere un po’ piu’ di allarmismo. Peggio ancora, il report IPCC mostra che negli ultimi 40 anni il livello dei mari si e’ innalzato di circa il 50% in meno rispetto a quanto previsto dai suoi modelli – cionondimeno, quegli stessi stessi modelli vengono utilizzati per fare delle proiezioni sul futuro!
Infine, le medesime proiezioni assumono un massiccio decremento della copertura dei ghiacci, in contrasto con quanto osservato nel passato.
Nonostante alcuni scienziati all’interno dell’IPCC abbiano segnalato per tempo come tutto questo possa condurre ad un problema di credibilita’, l’IPCC ha deciso di andare avanti in ogni caso.

Adesso la blogosfera ed i suoi megafoni mediatici stanno affilando le lame: teste dovranno cadere!

Impensabile? Gia’. Sono certo che l’IPCC non farebbe mai nulla di simile.
Ecco come sono andate le cose, in realta’.

Nell’ultimo report, l’IPCC ha previsto fino ad un massimo di 59 cm di innalzamento del livello dei mari, entro la fine del secolo. Ma RC ha subito evidenziato alcuni problemi nel merito.

Per prima cosa, sebbene le proiezioni dell’ IPCC sulle temperature forniscano un riscaldamento massimo di 6.4 oC, il limite superiore dell’innalzamento dei mari e’ stato calcolato assumendo un riscaldamento di soli 5.2 oC. – con una conseguente riduzione della stima finale di circa 15 cm.
In secondo luogo, l’IPCC ha scelto di calcolare l’andamento del sea-level fino all’anno 2095, invece del 2100 – tanto per tagliare via altri 5 cm. Ma la cosa peggiore e’ che il report dell’IPCC
mostra come negli ultimi 40 anni il livello dei mari sia in realta’ aumentato del 50% in piu’ rispetto a quanto stimato dai suoi stessi modelli – ciononostante, quegli stessi modelli vengono utlizzati per fare proiezioni sul futuro! E inine, tali proiezioni assumono che la copertura del ghiaccio antartico sia aumentata, determinando quindi un abbassamento del livello del mare, in contrasto con quanto osservato per il passato. (**)

Nonostante alcuni scienziati all’interno dell’IPCC abbiano segnalato per tempo come tutto questo possa condurre ad un problema di credibilita’, l’IPCC ha deciso di andare avanti in ogni caso.

Non se ne e’ accorto nessuno.

Il motivo per il quale faccio menzione di tutto questo è che c’è una lezione da apprendere.
L’IPCC non avrebbe mai pubblicato un limite superiore tanto poco plausibile come quello di 3 metri, e tuttavia non ha esitato a riportare un limite altrettanto poco plausibile, per quanto è basso, di 59 cm. E questo perche’ all’interno della cultura dell’IPCC, essere “allarmisti” è male, mentre essere “conservatori” (ovvero, sottostimare la potenziale severita’ degli eventi) è bene.

Va notato che questa cultura e’ l’esatto contrario dello “sbagliare nella direzione meno dannosa” (assumere che sia meglio avere sovrastimato il problema determinando l’ingresso in una low-carbon society un po’ prima del necessario, piuttosto che averlo sottostimato, inondando citta’ costiere e intere Isole-nazione).
Tanto per sgomberare il campo da ogni possibile fraintendimento: sono nella maniera piu’ assoluta contrario all’esagerazione dei cambiamenti climatici finalizzata a “sbagliare nella direzione meno dannosa”. Sono profondamente convinto del fatto che gli scienziati debbano evitare di sbagliare in qualsiasi direzione, mentre devono sempre fornire la stima piu’ equilibrata di cui siano capaci (motivo per il quale spesso mi sono espresso contro l’esagerazione “allarmista” nella scienza del clima; vedi ad esempio qui e qui).

Perchè penso che questo problema dell’IPCC sia di gran lunga peggiore dell’errore sull’Himalaya? Perchè non è una svista sfuggita ad un autore del Working Group 2 che ha mancato di seguire correttamente le procedure e ha citato un fonte inaffidabile. Piuttosto, è il risultato di combattute delibere degli esperti climatici del Working Group 1. Contrariamente all’errore sull’Himalaya, questa è una delle previsioni centrali dell’IPCC, discussa in modo prominente nel Summary for Policy Makers.
Cosa è andato storto in questo caso deve essere verificato attentamente mentre si considerano i miglioramenti futuri da apportare alla procedura dell’IPCC.

E vediamo se ora abbiamo imparato la lezione, questa volta sulla società e i media. Questa evidenza di una sottostima di un problema climatico dell’IPCC, presentata da uno dei principali autori dell’IPCC che studia il livello del mare, sarà altrettanto largamente riportata e discussa quanto, per dire, le affermazioni errate di un blogger sull’ “Amazongate”.

P.S. Risultati recenti sul livello del mare.
Un certo numero di valutazioni di ampio respiro sono venute fuori dall’ultimo rapporto dell’IPCC, tutte che concludono che l’innalzamento globale del livello del mare potrebbere essere oltre un metro:
la valutazione del Dutch Delta Commission, il Rapporto di Sintesi del Congresso sul Clima di Copenhagen, il rapporto del Copenhagen Diagnosis così come il Rapporto dello SCAR sui Cambiamenti Climatici in Antartide.
Questa è anche la conclusione di un certo numero di pubblicazioni peer-review recenti:
Rahmstorf 2007, Horton et al. 2008, Pfeffer et al. 2008, Grinsted et al. 2009, Vermeer and Rahmstorf 2009, Jevrejeva et al. 2010 (in stampa su GRL). L’eccezione significativa – Siddall et al. 2009 – è stata ritirata dagli autori dopo che abbiamo abbiamo mostrato alcuni errori numerici su RealClimate. Questo è un buon esempio di auto-correzione nella scienza (in palese contrasto con la pratica degli scettici del clima di perpetuare all’infinito false informazioni). Piuttosto stranamente, Fox News è riuscita a rigirare questa storia nel titolo “More Questions About Validity of Global Warming Theory“.

** Sui numeri mostrati prima.
Riguardo i numeri attuali nell’IPCC AR4, bisogna modificare la stima superiore di 59 cm aggiungendo 15 cm per renderla applicabile ai 6.2 °C di riscaldamento (non solo 5.2 °C) e 5 cm per farla arrivare al 2100 (non solo fino al 2095). Così risulta essere 79 cm. Bisogna aggiungere il 50% per correggere per la sottostima dell’innalzamento del livello del mare passato e si ottiene 119 cm.
Per il caso ipotetico all’inizio del post, basta introdurre errori simili nell’altra direzione. Aggiungiamo 31 cm per arrivar fino a 7.6 °C e all’anno 2105 (questa è una stima conservativa ma risulta in un numero tondo, 150 cm). Assumiamo ora di avere un modello che in confronto con i dati reali del livello del mare sale il 50% in meno (piuttosto che il 50% in più): così si arriva ai 3 metri citati prima. Per i dettagli, guardate i numeri sul livello del mare dell’IPCC.

.

Articolo originale su Realclimate.org

Traduzione di: Riccardo Reitano e Alessio Bellucci.

Pubblicato su Climalteranti il 16/03/2010.

30 – L’IPCC non è infallibile (incredibile!)

Come tutte le iniziative umane, anche l’IPCC non è perfetto. Nonostante gli enormi sforzi volti a produrre i suoi report con molteplici livelli di “peer review”, verranno alla luce alcuni errori. La maggior parte di questi saranno di minor rilievo e senza conseguenze, ma qualche volta potrebbero essere più sostanziali. Come molte persone sono a conoscenza (e come John Nieslen-Gammon ha sottolineato in un post lo scorso mese e come Rick Piltz oggi ripropone oggi), è presente un’affermazione nel secondo volume dell’IPCC (Working Group 2, WG2), riguardo il tasso di regressione dei ghiacciai dell’Himalaya che non è corretto e non adeguatamente documentato.

L’affermazione, contenuta nel capitolo sugli impatti climatici in Asia, è quella secondo cui la probabilità della “scomparsa entro l’anno 2035” dei ghiacciai dell’Himalaya è “molto alta” se la Terra continua a surriscaldarsi con la stessa velocità (WG 2, Capitolo 10, pag. 493), e viene riferita come fonte un rapporto del World Wildlife Fund del 2005. Esaminando le bozze e i commenti (disponibili qui), si segnala che l’affermazione è stata scarsamente commentata nelle revisioni, e che il riferimento al WWF (2005) sembra essere stata un’aggiunta dell’ultimo minuto (non compare nella prima e nella seconda bozza). Questa asserzione non è fatta né all’interno del riassunto per i decisori politici, né nel rapporto di sintesi globale, e cosi non può essere descritta come una “asserzione centrale” dell’IPCC. Comunque, l’affermazione ha alcune ricevuto l’attenzione della stampa fin dalla pubblicazione, in particolar modo di quella Indiana, quanto meno secondo quanto riportato da Google News, sebbene non fosse da noi ben nota prima del mese scorso.

E’ quindi ovvio che questo errore dovrebbe essere corretto (tramite un qualche tipo di rettifica alla relazione WG2 forse), ma è importante rendersi conto che questo non significa che i ghiacciai himalayani godano di ottima salute. Non è cosiì, e ci potranno essere gravi conseguenze per le risorse idriche se il ritiro continua. Si veda anche questo documento di revisione (Ren et al, 2006) su un sottoinsieme di questi ghiacciai.


Didascalia: il ghiacciaio di East Rongbuk, ai piedi del monte Everest, ha perso 90-120 m di ghiaccio in quest’area dal 1921.

Più in generale, il sistema peer-review funziona bene per rendere i report dell’IPCC credibili, perché molti occhi diversi, con diversi punti di vista e conoscenza controllano lo stesso testo. Questo fa sì che il prodotto risultante rifletta più del solo parere di un singolo autore. In questo caso, sembra che non lo abbiano letto abbastanza persone con un’esperienza importante, o se lo hanno fatto, non lo hanno commentato pubblicamente. Questo potrebbe essere correlato al fatto che questo testo è contenuto nella relazione sugli impatti del Secodo Gruppo di Lavoro , che non riceve la stessa attenzione da parte della comunità dei fisici e degli scienziati rispetto a quanta ne riceva la relazione del Primo Gruppo di Lavoro (che è quella che generalmente guardano le persone che leggono Realclimate). Nel Primo Gruppo di Lavoro, le dichiarazioni sul ritiro continuo dei ghiacciai sono molto più generali e le norme sulle citazioni di letteratura non soggetta allapeer-review sono state rispettate molto di più.

Tuttavia, in generale, la scienza degli impatti climatici è meno chiara delle basi fisiche disponibili per il cambiamento climatico, e la letteratura è quantitativamente inferiore, quindi c’è inevitabilmente una maggiore ambiguità nelle dichiarazioni del Secondo Gruppo di Lavoro.

Nei rapporti futuri (ed è attualmente in corso l’organizzazione dell’AR5 per il 2013), saranno necessari ulteriori sforzi per garantire che i legami fra il Primo Gruppo di Lavoro e gli altri due rapporti siano più stretti, e che la comunità delle scienze fisiche sia incoraggiata ad essere più attiva negli altri gruppi.

In sintesi, il metro di giudizio di una organizzazione non è determinato dalla semplice presenza di errori, ma da come li affronta quando vengono evidenziati. L’attuale discussione sui ghiacciai Himalayani è quindi per l’IPCC una buona opportunità per migliorare ulteriormente le proprie procedure e concentrarsi di più su cosa l’IPCC dovrebbe fare nei periodi compresi fra le pubblicazioni dei principali rapporti.

Aggiornamento: questa comunicazione presentata all’AGU lo scorso dicembre da Karkel et al. è il miglior riassunto dello stato attuale dei ghiacciai dell’Himalaya e delle varie fonti di disinformazione che stanno girando a riguardo. Tratta di questo argomento, del rapporto Raina e dell’articolo recente di Lau et al..

Traduzione di Federico Antognazza, Lighea Speziale, Riccardo Reitano
Revisione di Simone Casadei

Pubblicato su Climalteranti il 04/02/2010.

29 – Aggiornamenti dei confronti tra i dati modellistici

Vale la pena ogni tanto guardare indietro per vedere come si comportano le proiezioni fatte. Visto che stiamo arrivando alla fine di un altro anno, possiamo aggiornare tutti i grafici delle medie annuali con un altro singolo dato. Statisticamente non è che sia così importante, ma le persone sembrano interessate, quindi perchè no?
Ad esempio, eccovi l’aggiornamento del grafico che mostra le anomalie medie annue dai modelli IPCC AR4 rappresentate in confrontoalle temperature superficiali misurate tramite elaborazione HadCRUT3v e GISTEMP (non ha importanza quale). Tutti sono stati riferiti al periodo di base 1980-1999 (come nel report 2007 dell’IPCC) e la regione in grigio racchiude il 95% delle corse dei modelli. Il numero per il 2009 è la media Gennaio-Novembre.

Come si può notare, ora che siamo usciti dal recente calodovuto a La Niña, le temperature sono di nuovo nel mezzo del range stimato dai modelli. Se l’attuale fase di El Niño continua in primavera, possiamo aspettarci un 2010 ancora più caldo. Ma è da tener presente, come sempre, che i trend a breve termine (15 anni o meno) non possono essere previsti in maniera attendibile in funzione delle forzanti. Vale anche la pena rilevare che le simulazione dei modelli dell’AR4 sono un “insieme di possibilità” e variano in modo sostanziale fra loro in funzione delle forzanti imposte, della dimensione della variabilità interna e ovviamente della sensitività. Quindi, benchè coprano un grande intervallo di situazioni possibili, la media di queste simulazioni non è la “verità”.
C’è in giro chi sostiene che nessun modello riesce a spiegare le recenti variazioni della temperatura media globali (George Will ha sostenuto questo il mese scorso ad esempio). Naturalmente, presa letteralmente l’affermazione è vera per forza. Nessuna simulazione di un modello climatico può corrispondere alla esatta tempistica della variabilità interna del clima anni dopo. Ma qualcos’altro è coinvolto, specificatamente, che nessun modello ha prodotto alcuna realizzazione della variabilità interna che abbia dato un trend di breve periodo simili a quelli che abbiamo osservato. E questo è semplicemente non vero.
Possiamo vederlo nel dettaglio in modo un po’ più chiaro. Il trend dei dati della media annua HadCRUT3v nel periodo 1998-2009 (assumendo che l’anno fino ad oggi sia una buona stima del valore finale) è 0.06+/-0.14 °C/decade (notare che questo è positivo!). Se volete un trend negativo (sebbene non significativo), allora potete scegliere il periodo 2002-2009 del record GISSTEMP che è -0.04+/-0.23 °C/decade. L’intervallo dei trend nelle simulazioni modellistiche per questi due periodi temporali sono [-0.08,0.51] e [-0.14,0.55], e in ciascun caso ci sono molteplici corse del modello che hanno un trend inferiore a quello osservato (5 simulazioni in entrambi i casi). Quindi “un modello” ha mostrato un trend consistente con la “pausa” attuale. Comunque, che questi modelli l’abbiano mostrata è solo una coincidenza e non bisognerebbe assumere che questi modelli siano migliori degli altri. Se la “pausa” nel mondo reale fosse avvenuta in un altro momento, altri modelli avrebbero avuto un accordo migliore.
Un’altra figura che vale la pena di aggiornare è il confronto dei cambiamenti del contenuto termico oceanico dei modelli con gli ultimi dati dal NODC. Purtroppo, non ho a portata di mano i risultati del modello oltre il 2003, ma il confronto fra i dati trimestrali (fino alla fine di Settembre) e i dati annuali con il risultato del modello è ancora utile.

(Nota, non sono proprio sicuro su quale linea di riferimento considerare per questo confronto. I modelli sono semplicemente la differenza dal controllo, mentre le osservazioni sono prese così come sono dal NOAA). Ho esteso linearmente i valori del modello della media ensemble per il periodo successivo al 2003 (usando una regressione dal periodo 1993-2002) per avere una grossolana idea di dove quelle realizzazioni sarebbero potute andare.
Infine, rivediamo la proiezione GCM più vecchia di tutte, Hansen et al (1988). Lo scenario B in quell’articolo risulta un pochino alto rispetto alla reale crescita delle forzanti (di circa il 10%), e il vecchio modello GISS aveva una sensibilità climatica che era un po’ più alta (4.2 °C per il raddoppio della CO2) dell’attuale miglior stima (~3ºC).

E’ più utile probabilmente pensare ai trend, e per il periodo dal 1984 al 2009 (la data del 1984 è stata scelta poichè è quando queste proiezioni sono iniziate), lo scenario B ha un trend di 0.26+/-0.05 °C/decade (incertezza al 95%, nessuna correzione per l’autocorrelazione). Secondo i dati GISTEMP e HadCRUT3 (assumendo che la stima per il 2009 sia corretta), i trend sono 0.19+/-0.05 °C/decade (da notare che l’indice delle stazioni meteorologiche di GISTEMP riporta 0.21+/-0.06 °C/decade). Correzioni per l’autocorrelazione renderebbero le incertezze maggiori, ma per come sono, la differenza fra i trend è appena significativa.

Sembra quindi che la proiezione “B” di Hansen et al sia probabilmente un po’ più calda rispetto al mondo reale, ma assumendo (un po’ incautamente) che il trend di 26 anni scali linearmente con la sensitività e con il forcing, potremmo usare questo disaccordo per stimare la sensitività del mondo reale. Questo ci darebbe 4.2/(0.26*0.9)*0.19=~ 3.4 ºC. Ovviamente, le barre di errore sono alquanto larghe (le stimo circa +/-1ºC per l’incertezza nei veri trend sottostanti e nelle forzanti reali), ma e’ interessante notare che la migliore sensitività stimata dedotta da questa proiezione è molto vicina a ciò che in ogni caso pensiamo. Come referenza, i trend nei modelli dell’AR4 per lo stesso periodo hanno un intervallo 0.21+/-0.16 °C/decade (95%). Da notare inoltre che la proiezione di Hansen et al. aveva una chiara capacità predittiva rispetto all’ipotesi nulla di nessun ulteriore riscaldamento.
Quelli di voi con l’occhio acuto avranno notato un paio di differenze fra la varianza nei modelli dell’AR4 nel primo paragrafo e il modello di Hansen et al. nell’ultimo. Questa è una caratteristica reale. Il modello usato a metà degli anni ’80 aveva una rappresentazione molto semplice dell’oceano – consentiva semplicemente alle temperature nello strato rimescolato di cambiare a seconda del cambiamento dei flussi alla superficie. Non conteneva nessuna variabilità dinamica dell’oceano, nessun evento El Niño, nessuna variabilità Atlantica multidecennale, etc. e quindi la varianza di anno in anno era inferiore a quella che ci si aspetterebbe. I modelli odierni hanno componenti dinamiche oceaniche e una maggiore variabilità oceanica di vario tipo, e credo che sia nettamente più vicina alla realtà dei modelli antiquati degli anni ’80, ma la grande differenza nella variabilità simulata implica che c’e’ ancora strada da fare.

Per concludere, nonostante il fatto che queste sono metriche relativamente rozze rispetto alle quali giudicare i modelli, e c’è un sostanziale livello di variabilità non forzata, gli accordi con le osservazioni sono alquanto buoni, e stiamo arrivando al punto in cui una migliore selezione dei modelli a seconda della loro capacità potrebbe presto essere possibile. Ma ci sarà dell’altro su questo punto nel nuovo anno.
Traduzione di Riccardo Reitano
Revisione di Simone Casadei

Pubblicato su Climalteranti il 20/01/2010.

28 – Hey Ya! (mal)

Notizie interessanti questo week-end. Apparentemente tutto ciò che abbiamo fatto durante le nostre carriere e’ una “ENORME menzogna” (sic) perchè tutta la fisica radiativa, la storia climatica, le misure strumentali, i modelli e le osservazioni satellitari risultano essere basate su 12 alberi in una oscura parte della Siberia. Chi lo sapeva?

Infatti, secondo sia il National Review che il Daily Telegraph (e chi non darebbe fiducia a queste fonti?), persino l’uso di un elevatore da parte di Al Gore in “Un Inconvinient Truth” fu fatto per mettere in risalto gli anelli di alcuni alberi selezionati ad arte, invece che l’aumento delle concentrazioni della CO2 negli ultimi 200 anni come tutti pensavano.

A chi dovremmo prestare fede? Ad Al Gore con i suoi “fatti” e “scienza soggetta a peer review” o ai praticanti di “Scienza dei blog”? Sicuramente, la scelta è chiara …

Seriamente, molti di voi avranno notato questa settimana ancora altra “blogorrea” sugli anelli degli alberi. L’obiettivo del giorno è una particolare serie di alberi (definita “una cronologia in dendroclimatologia) che è stata messa insieme per la prima volta da due russi, Hantemirov and Shiyatov, nei tardi ’90 (e pubblicata nel 2002). Questa cronologia pluri-millenaria proveniente da Yamal (in Siberia nordoccidentale) è stata minuziosamente messa insieme da centinaia di alberi sub-fossili seppelliti nei sedimenti dei delta dei fiumi. Essi hanno usato un sottoinsieme dei 224 alberi che gli è risultato essere sufficientemente lungo e sensibile (basato sulla variabilità inter-annuale) integrato con i dati di 17 alberi vivi per creare una registrazione climatica di “Yamal”.

Una parte preliminare di questi dati è stata usata anche da Keith Briffa nel 2000 (processato usando un diverso algoritmo da quello usato da H&S per renderlo consistente con altre due serie delle alte latitudini settentrionali), per creare un’altra registrazione “Yamal” pensata per migliorare la rappresentazione della variabilità climatica di lungo periodo.

Dato che le registrazioni climatiche lunghe sono poche e mal distribuite non è sorprendente che vengano usate nelle ricostruzioni del clima. Le diverse ricostruzioni hanno usato metodi diversi e hanno fatto selezioni diverse dei dati originari a seconda di quali fossero gli scopi di studio. Gli studi migliori tendono a verificare la robustezza delle loro conclusioni togliendo diverse sotto-parti dei dati o escludendone intere classi (come gli anelli degli alberi) per verificare quale differenza se ne ottiene cosicchè in genere non ci sono molte discussioni su nessuna particolare registrazione proxy (nonostante quello che si può leggere altrove).

*****

A questo punto arriva Steve McIntyre, auto-proclamatosi assassino degli hockey sticks, che dichiara senza alcuna evidenza di qualunque genere che Briffa non solo ha ri-processato i dati dei Russi, ma li ha anche apparentemente selezionati per ottenerne il segnale voluto. Queste accuse sono state fatte senza una qualsivoglia evidenza.

McIntyre ha basato la sua “critica” su un test condotto aggiungendo casualmente un set di dati trovato su internet proveniente da un’altra località in Yamal. C’è stata gente che ha scritto intere tesi su come costruire le cronologie con gli anelli degli alberi in modo da evitare effetti da dati terminali e preservare il maggior segnale climatico possibile. Stranamente nessuno ha mai suggerito di prendere semplicemente un set di dati, togliere gli alberi verso i quali si abbiano delle obiezioni politiche e sostituirli con un altro set trovato in giro sul web.

La dichiarazione di Keith Briffa descrive chiaramente lo sfondo sul quale si sono svolti questi studi e rifiuta categoricamente le accuse di McIntyre. Significa questo che la cronologia di Yamal esistente è sacrosanta? Assolutamente no – tutti questi proxy records sono soggetti a revisione con l’aggiunta di nuovi (rilevanti) dati e se le registrazioni cambiano significativamente in funzione di queste aggiunte non è chiaro finchè questa operazione non viene fatta.

Quello che è chiaro, comunque, e’ che c’è un modello caratteristico facilmente predicibile per le reazioni a questi post sui blog che è stato discusso molto volte. Come abbiamo detto l’ultima volta in cui c’è stata una polemica di questo tipo:

“Comunque, in alcuni settori c’è chiaramente un desiderio latente e profondamente sentito di ridurre l’intero problema del riscaldamento globale ad una fantasia statistica o ad un errore. Questo ha portato a dei veri e propi salti mortali alle conclusioni quando questo argomento ha raggiunto la blosfera.”

Plus ça change…

La tempistica di queste mini-tempeste dei blog e’ sempre la stessa. Viene fatta un’accusa non verificata di illecito basata sul nulla, e viene istantaneamente “telegrafata” nella sfera dei negazionisti mentre viene abbellita strada facendo per essere applicata a qualunque cosa abbia la forma dell’hokey-stick e a chiunque e a tutti gli scienziati, anche a quelli nemmeno lontanamente correlati. I soliti sospetti diventano isterici per la gioia che finalmente “l’imbroglio” e’ stato scoperto e ci si scambia congratulazioni. Dopo poco ci si accorge che nessuna costruzione scientifica è crollata e la ricerca continua sul problema “reale” che senza dubbio deve solo essere trovato. Fin troppo spesso la storia torna a spuntare nuovamente perchè qualche opinionista o blogger non vuole, o non gli interessa, fare i compiti a casa. L’effetto netto sulla gente comune? Confusione. L’effetto netto sulla scienza? Zero.

Detto questo, sembra che McIntyre non abbia investigato direttamente nessuna delle ridicole estrapolazioni dei suoi supposti risultati evidenziati prima, sebbene abbia chiaramente messo in movimento il gioco. Senza alcun dubbio avra’ scritto al National Review, al Telegraph e ad Antony Watts per chiarire i loro errori e confidiamo nel fatto che le correzioni appariranno al più presto … Si, certo.

Ma può essere vero che tutte le Hockey sticks siano fatte in Siberia? Di seguito un’inchiesta esclusiva di RealClimate.

Cominciamo con l’originale “MBH [Michael E. Mann, Raymond S. Bradley , NdT] hockey stick” così come replicata da Wahl and Ammann:

Hmmm… nessuna traccia delle cronologie di Yamal qui. E che dire della mazza da hockey ottenuta da Oerlemans dalla ritirata dei ghiacciai dal 1600?

Eh no, nemmeno lì, nessuna serie di Yamal. E i risultati di Osborn and Briffa, robusti anche quando vengono rimossi tre qualunque dei record?,

Forse la mazza da hockey dalle ricostruzioni delle temperature dei fori geodetici?

No. Cosa dire allora delle mazze da hockey delle concentrazioni di CO2 dalle carote di ghiaccio e dalle misure dirette?

Ma neanche pressappoco… Cosa dobbiamo pensare sull’impatto della ricostruzione artica di Kaufman et al 2009 quando si esclude Yamal?

Oh. E la mazza da hockey che si ottiene quando non si usano per niente gli anelli degli alberi (curva blu)?

No. Bene, allora che dire della lama della mazza da hockey dalle registrazioni strumentali stesse?

No, ancora no. Ma un momento, forse c’è una novità: (idea originale di Lucia):

Macché….

Si potrebbe pensare che alcune cose si spieghino da sole, ma apparentemente c’è chi le cose non le capisce per niente, dunque vediamo di essere estremamente chiari. La scienza procede per confutazioni di assunzioni e di risultati di altri, con il desiderio comune di avvicinarsi alla “verità”. Non c’è niente di male quando la gente costruisce nuove dendrocronologie o testa la robustezza di risultati precedenti su dati aggiornati o con nuovi metodi. E non c’è niente di male nemmeno a pensare a cosa succederebbe se fosse tutto sbagliato. Ciò che invece è opinabile è sommare criticismo tecnico con accuse di scorrettezza scientifica non documentate, ingiustificate e non verificate. Steve McIntyre insiste a dire che dovrebbe essere trattato da professionista. Ma è professionale continuare a diffamare scienziati con vaghe insinuazioni e perfide storielle inventate di sana pianta fuori contesto, invece di sottoporre a peer review il suo lavoro? Il nostro continua a non assumersi alcuna responsabilità per le ridicole fantasie e le esagerazioni diffuse dai suoi sostenitori, e sembra anzi felice di crogiolarsi nel plauso di questi, piuttosto che rettificare le cattive interpretazioni da lui suscitate. Se davvero vuole cambiare, si trova davanti ad una chiara possibilità: o continuare a recitare la parte del Don Chisciotte per la platea, o produrre qualcosa di costruttivo che sia davvero meritevole di pubblicazione.

Il processo di peer-review non è niente di sinistro e non prende parte ad alcun complotto globale; piuttosto, esso è il procedimento mediante il quale si è forzati a vincolare la propria retorica ai loro veri risultati. In generale, non è possibile spacciare suggerimenti imprecisi su qualcosa che potrebbe essere importante per il quadro generale senza davvero mostrare che lo è. E’ importante davvero se qualcosa “conta”, altrimenti, per quel che varrà, ci si potrebbe limitare a correggere gli errori di ortografia.

E allora vai, Steve, sorprendici.

Aggiornamento: Briffa e colleghi hanno risposto con un’estesa (e, a mio avvisto, convincente) rigetto dell’articolo di McIntyre.

.

Articolo originale su Realclimate.org

Traduzione di: Emanuele Eccel e Riccardo Reitano.
Revisione di: Simone Casadei.

Pubblicato su Climalteranti il 03/11/2009.

27 – Servizi climatici

Ho di recente partecipato alla Terza Conferenza Mondiale sul Clima (WCC-3), ospitata dall’Organizzazione Mondiale Meteorologica (WMO) a Ginevra. La maggior parte degli interventi era volta a fornire i “servizi climatici” (CS) e a coordinarli in modo globale. Ma cosa sono i servizi climatici, e quanto di quello che è stato previsto è scientificamente fattibile?

Climate services è piuttosto un nuovo termine che implica la fornitura di informazioni climatiche rilevanti sull’adattamento ai cambiamenti e alle deviazioni climatiche, la pianificazione di lungo periodo e lo sviluppo di sistemi semplici di prima attenzione (EW).

CS riguardano sia i dati riguardanti il clima passato che quello futuro, e di solito coinvolgono le procedure di disaggregazione per fornire informazioni su scala regionale e locale. Questo può essere riassunto dai contenuti del sito http://www.climateservices.gov/ (si veda inoltre questo link a un articolo relativo i servizi climatici nazionali degli Stati Uniti).

Durante la WCC-3 si è sottolineato il fatto che CS debbano non solo comunicare informazioni rilevanti, ma che queste informazioni debbano anche essere “tradotte” ai non esperti in modo che possano agire in tempo.

Una preoccupazione espressa durante la WCC-3 riguarda il fatto che i modelli climatici globali non forniscono ancora una descrizione sufficientemente accurata degli aspetti regionali e locali del clima. I modelli hanno inoltre serie limitazioni quando sono utilizzati per previsioni stagionali o decennali. I modelli climatici erano in origine progettati per fornire un’ampia immagine del nostro sistema climatico, e il fatto che ENSO, i cicloni, vari fenomeni ondosi (osservati nel mondo reale) appaiano negli output dei modelli, sebbene con differenze nei dettagli, ci da una maggior confidenza che essi possano fotografare i reali processi fisici. Per le previsioni climatiche, questi dettagli, spesso rappresentati dai modelli, devono essere più accurati.

Sebbene gli aspetti dinamici e le scale regionali siano importanti, occorre tenere a mente che i modelli atmosferici che simulanoil trasferimento radiativi atmosferico rappresentano il cuore della teoria che sta alle spalle dell’AGW, e che l’AGW coinvolge le scale temporali più lunghe. Alcuni scienziati dubitano fortemente di questi modelli di trasferimento radiativo, che sono strettamente correlati agli algoritmi utilizzati per l’analisi remota per il calcolo delle temperature (es: nei satelliti). Se qualcuno interpreta il Nuovo report degli scienziati della WCC-3 come se la situazione non sia più così tremenda come precedentemente pensato, questi è incorso in una grossa delusione. Piuttosto l’opinione è che i cambiamenti climatici siano inevitabili, e che dobbiamo stabilire gli strumenti per pianificare e affrontare i problemi.

Esistono comunque alcuni segnali che incertezze ed errori sistematici nei modelli climatici globali (GCMs) possano essere ridotti aumentando la risoluzione spaziale (e temporale), o includendo una rappresentazione realistica della stratosfera. I problemi associati alla descrizione del clima a livello locale e regionale non può essere corretta semplicemente attraverso la disaggregazione.

Una preoccupazione consisteva nel fatto che una parte di codice chiamata “parametrizzazione” (impiegata nei modelli per descrivere l’effetto principale dei processi fisici che avvengono ad una scala spaziale troppo piccola per la griglia del modello) può non essere sufficientemente buona per il lavoro di simulazione di tutti gli aspetti climatici locali. Per questo motivo è stato richiesto uno sforzo coordinato a livello globale per provvedere alle risorse di calcolo e alla simulazione climatica.

Alcuni relatori hanno sottolineato l’importanza di un reale set globale di osservazioni climatiche. In questo contesto è altresì cruciale la condivisione dei dati senza restrizioni, e inoltre è cruciale aiutare i paesi poveri affinchè riescano a fare misure di elevata qualità.

Sebbene durante la WCC-3 l’attenzione sia stata posta sull’adattamento, si è anche sottolineato come la mitigazione sia ancora un obbligo se si vogliono evitare serie calamità climatiche. Si è concluso che occorre passare da una strategia di “gestione delle catastrofi” a una politica di “gestione del rischio”.

Un triste esempio che mostra che non ci siamo ancora arrivati sono state le alluvioni previste sull’Africa centroccidentale di Giugno – Agosto 2008. È successo per la prima volta nella storia che la Croce Rossa ha inviato un allarme preventivo basato su una previsione. Sfortunatamente, si verifcò una mancanza di volontà di donare fondi prima che il disastro si fosse verificato e, tristemente, la previsione risultò essere estremamente accurata. La domanda è se stiamo facendo lo stesso errore quando analogamente verrà il turno dei cambiamenti climatici.

Le relazioni della conferenza sono state postate sul sito della WMO WCC-3. Oltre alle tematiche scientifiche, un certo numero di relatori ha discusso di politica. Esiste anche un nuovo libro – Climate Senses – che è stato pubblicato di recente per la WCC-3, che tratta delle previsioni sul clima e delle informazioni per i decisori.

.

Articolo originale su Realclimate.org

Traduzione di: Federico Antognazza
Revisione di: Simone Casadei.

Pubblicato su Climalteranti il 20/09/2009.

26 – La soluzione delle dispute tecniche in ambito scientifico

Uno dei punti di forza della scienza è la sua capacità di risolvere le controversie attraverso procedure e standard generalmente accettati. Molte questioni scientifiche (in modo particolare quelle più tecniche) non sono oggetto di opinioni ma hanno risposte precise.
Gli scienziati documentano le loro procedure e scoperte nella letteratura scientifica soggetta al processo di peer-review in modo tale che queste possano essere sottoposte a verifica da parte di altri. La maniera corretta di verificare i risultati è, naturalmente, anche attraverso la letteratura soggetta a peer-review in modo tale che il controllo stesso segua gli stessi standard della documentazione come è stato fatto per arrivare alla scoperta originale.
Questa verifica può essere in forma di un nuovo documento indipendente oppure sottoforma di un commento relativo ad un documento già pubblicato. Quest’ultima è la via appropriata se la verifica non è basata su nuovi dati (ed è quindi un pezzo di ricerca a sé stante), ma è una critica dei metodi utilizzati in una pubblicazione.
Tali commenti tecnici sono costantemente pubblicati sui giornali e gli autori di Realclimate sono stati naturalmente coinvolti nella scrittura o oggetto di tali commenti. Un esempio significativo è stato un commento a Science che mostrava che una verifica di Von Storch et al. (2004) riguardo alla ricostruzione climatica denominata “bastone da hockey” di Mann et al. (1998) “ era basata su una scorretta implementazione della procedura di ricostruzione”. Abbiamo discusso le implicazioni su Realclimate una volta apparso il commento. Un altro esempio recente è un commento di Schmith et al. su un articolo di Stefan apparso su Science, relativo all’aumento del livello del mare, si nota che ha sbagliato a considerare l’effetto di livellamento sull’autocorrelazione dei dati che ha usato. Nella sua risposta, Stefan ha riconosciuto questo errore ma ha dimostrato che non ha effetto sulle sue conclusioni principali.
Che agli autori originali sia consentito di rispondere ad un commento nello stesso numero della rivista, e che gli autori del commento arrivino ad esaminare questa risposta prima di decidere se mandare avanti il proprio commento, sono chiari segni di garanzia di una procedura imparziale, in aggiunta alla neutralità dell’editore della rivista e al fatto che revisori indipendenti supervisionino il processo. Anche se gli autori del ‘commento e replica’ continuano a restare per certi versi in disaccordo, questo processo di successivi commenti nella maggior parte dei casi risolve la questione fino alla soddisfazione della comunità scientifica. Questo sistema espone i fatti in una maniera imparziale e trasparente e fornisce agli esterni una buona base per giudicare chi abbia ragione. In questo modo esso fa progredire la scienza.

C’è tuttavia un modo diverso di criticare gli articoli scientifici, che è prevalente in blog come ClimateAudit. Questo modo implica di verificare, “con tutti i mezzi necessari”, qualsiasi articolo le cui conclusioni non siano gradite. Ciò può essere basato su semplici errori di stampa, fraintendimenti di base sui vari argomenti e “colpevolezza per associazione”, sebbene a volte venga avanzata occasionalmente un’argomentazione interessante. Dal momento che queste affermazioni vengono raramente verificate per vedere se ci sia un qualsiasi reale effetto sul risultato principale, l’esito è una serie di critiche fuorvianti, a prescindere dal fatto che alcune di queste critiche siano in realtà valide o salienti, il che dà l’impressione che ognuno di questi articoli sia senza valore e che tutti i loro autori siano nel migliore dei casi incompetenti, nel peggiore disonesti. E’ l’equivalente di sostenere di aver trovato degli errori ortografici in un articolo di giornale. Divertente per un po’, ma fondamentalmente irrilevante per comprendere un argomento o giudicare il valore del giornalista.

Mentre il fatto che vengano pubblicati commenti – anche piuttosto negativi – degli articoli nei blog è assolutamente ragionevole (dopo tutto, lo facciamo anche qui alle volte), affermazioni sul fatto che un particolare articolo sia stato “screditato” o “falsificato”, senza che sia stato (come minimo) sottoposto ad un processo di “peer-review”, dovrebbero essere considerate con estremo scetticismo. Allo stesso modo dovrebbero essere considerate le accuse di disonestà o cattiva condotta che non siano già state definitivamente ed inequivocabilmente dimostrate.
Ciò ci porta ad una recente osservazione di Hu McCulloch che un post su ClimateAudit.org dettagliatocce descrive in dettaglio un errore nell’articolo di Steig et al. su Nature sul cambiamento di temperatura in Antartico, non ha ricevuto da Steig et al. il credito dovuto quando hanno pubblicato un Corrigendum all’inizio di questo mese. In questo caso, il commento di McCulloch sull’articolo era pienamente valido, ma lui ha scelto di evitare il contesto del normale scambio scientifico – scrivendo invece i suoi commenti su ClimateAudit.org – e giocando al gioco del ‘ti ho beccato’ accusando di plagio quando non è stato citato.
McCulloch accusa Steig et al. di aver fatto propria la sua scoperta ovvero che Steig et al. stessi non avevano tenuto in conto l’autocorrelazione quando hanno calcolato la significatività dei trends. Mentre la versione dell’articolo pubblicata non includeva questa correzione, è evidente che gli autori erano a conoscenza dell’esigenza di farla, in quanto nel testo dell’articolo si afferma che la correzione era stata fatta. I calcoli corretti erano stati eseguiti usando metodi ben conosciuti, i cui dettagli sono disponibili in una miriade di libri di testo di statistica e articoli su rivista. Non ci può quindi essere nessuna pretesa di originalità da parte del Dr. McCulloch nè per l’idea di applicare una tal correzione nè per i metodi con cui farlo, tutte cose discusse nell’articolo originale. Se McCulloch fosse stato la prima persona a far notare a Steig et al. l’errore nell’articolo, o se avesse scritto direttamente a Nature prima che il Corrigendum fosse presentato, sarebbe stato appropriato riconoscerlo e gli autori sarebbero stati felici di farlo. Nel caso ci fosse confusione su questo, facciamo notare che, come discusso nel Corrigendum, l’errore non ha alcun impatto sulle principali conclusioni nell’articolo.
Non c’è nulla di sbagliato nelle critiche costruttive, e mettere in luce errori – anche quelli meno significativi – è importante e utile. La differenza, però, fra persone che cercano di trovare informazioni sul mondo reale e persone che vogliono solo segnare punti politicamente, consta nel cosa venga fatto di quegli errori. Questo è il test per un dialogo scientifico costruttivo. Accuse speciose di frode, plagio e simili non passano questo test; al contrario, queste cose semplicemente avvelenano l’atmosfera con una perdita per tutti.

.

Articolo originale su Realclimate.org

Traduzione di: Riccardo Mancioli, Tania Molteni e Riccardo Reitano
Revisione di: Simone Casadei.

Pubblicato su Climalteranti il 17/09/2009.

25 – Altre leggerezze

Roger Piellke Sr. in un recente post su un blog ha sollevato accuse molto forti contro RealClimate. Poichè provengono da un collega scienziato, riteniamo che sia il caso di rispondere direttamente.
L’affermazione che Pielke considera “disinformazione” è una singola frase da un post recente:

“Alcuni aspetti del cambiamento climatico stanno progredendo più velocemente di quanto non ci si aspettasse qualche anno fa – come l’aumento dei livelli del mare, l’aumento del calore immagazzinato nell’oceano e il restringimento del ghiaccio marino Artico.”

Prima di tutto, siamo sorpresi che Pielke abbia lanciato queste forti accuse contro RealClimate, poichè l’afffermazione di cui sopra semplicemente riassume alcuni risultati chiave del Rapporto di Sintesi del Congresso sul Clima di Copenhagen, di cui abbiamo discusso il mese scorso. Esso è un documento “peer-reviewed” scritto da 12 eminenti scienziati e “basato sui 16 interventi plenari al Congresso ed anche sui suggerimenti di più di 80 presidenti e co-presidenti delle 58 sessioni parallele tenute al Congresso”. Se Pielke fosse in disaccordo con i risultati di questi scienziati, sarebbe più logico rivolgersi a loro piuttosto che rivolgere a noi accuse insistenti. Ma ad ogni modo diamo un’occhiata ai tre punti della supposta disinformazione:

.

1. Livello del mare. Il rapporto di Sintesi mostra il grafico qui sotto e conclude:

“Dal 2007, lavori di comparazione delle proiezioni dell’IPCC del 1990 con le osservazioni mostrano che alcuni indicatori climatici stanno cambiando vicino al limite superiore dell’intervallo indicato dalle proiezioni o, come nel caso dell’aumento del livello del mare (fig. 1), a tassi ancora più elevati di quelli indicati dalle proiezioni del’IPCC”.


Questo grafico è un aggiornamento di Rahmstorf et al., Science 2007, con dati fino alla fine del 2008. (Notare che il confronto è con le proiezioni del TAR dell’IPCC, ma essendo le proiezioni dell’AR4 entro il 10% di quelle dei modelli del TAR non fa molta differenza)

Pielke sostiene che questo “NON È VERO” (maiuscolo e grassetto sono suoi), affermando che “l’andamento del livello del mare si è invece appiattito dal 2006” e mostrando questo grafico. Il grafico mostra un andamento del livello del mare durante tutto il periodo dei rilevamenti satellitari (dal 1993) di 3.2 +/- 0.4 mm/anno ed è molto simile ad un’analisi francese indipendente degli stessi dati satellitari mostrati nel rapporto di sintesi (linee blu sopra). La migliore stima dei modelli dell’IPCC per lo stesso periodo è 1.9 mm/anno (linee tratteggiate colorate all’interno dell’intervello di incertezza in grigio). Quindi la conclusione del Rapporto di Sintesi e del tutto corretta.

“L’appiattimento del livello del mare dal 2006” a cui si riferisce Pielke è non pertinente ed ingannevole per diverse ragioni (notare pure che Anthony Watts è andato anche oltre e ha dichiarato che il livello del mare dal 2006 ad oggi è in realtà “piatto”!). Innanzitutto, i trend su un così breve sotto-intervallo di qualche anno è estremamente variabile a causa delle variazioni naturali di breve periodo, e può dare qualunque risultato si voglia selezionando ad hoc un intervallo appropriato (come Pielke e Lomborg fanno entrambi). L’assurdita’ di questo approccio si può vedere prendendo un trend ancora piu’ recente, diciamo a partire dal Giugno 2007, che dà 5.3 +/- 2.2 mm/anno! Secondo punto, questo trend di breve periodo (1.6 +/- 0.9 mm/anno) non è nemmeno robusto fra i vari set di dati – l’analisi dei francesi mostrata sopra ha un trend dall’inizio del 2006 di 2.9 mm/anno, molto simile all’andamento di lungo periodo. Terzo punto, l’immagine riportata da Pielke per mostrare i dati senza correzione barometrica inversa – il breve e marcato picco a fine 2005, che rende l’andamento visivo (sempre una scelta infelice di metodologia statistica) quasi piatto da allora, scompare quando questo effetto viene considerato. Cio’ significa che il picco del 2005 era semplicemente dovuto alle fluttuazioni della pressione dell’aria e non ha nulla a che vedere con i cambiamenti climatici del volume oceanico. L’andamento nei dati dal 2006 con la correzione barometrica inversa è 2.1 +/- 0.8 mm/anno.

.


2. Contenuto di calore degli oceani.
Il Rapporto di Sintesi afferma:

Le stime attuali indicano che il riscaldamento degli oceani è circa il 50% superiore a quanto affermato precedentemente dall’IPCC.
Si tratta di una conclusione di una nuova analisi dei dati di contenuto di calore degli oceani pubblicata da Domingues et al., Nature 2008, applicata al periodo 1961-2003, lo stesso periodo analizzato nel rapporto IPCC. Pielke sostiene che questo “NON È VERO” e replica affermando: “Non c’è stato alcun riscaldamento statisticamente significativo della superficie degli oceani dal 2003”. Ebbene, ancora un volta questo non è rilevante ai fini di quanto effettivamente scritto nel Rapporto di Sintesi e, ancora una volta, Pielke fa riferimento ad un periodo di 5 anni, troppo breve per ricavarne trend statisticamente robusti in presenza di variabilità di breve termine e di problemi di accuratezza dei dati (la variabilità interannuale ad esempio cambia molto nei diversi data-sets relativi al contenuto di calore degli oceani):

Per buone ragioni, il Rapporto di Sintesi considera un intervallo temporale sufficientemente lungo da permettere confronti significativi. Ma in ogni caso, il trend dal 2003 al 2008 nei dati di Levitus (i dati di Domingues et al. non vanno oltre il 2003) è ancora positivo, ma con una incertezza (sia nel calcolo del trend sia sistematica) che rende impossibile affermare se ci sia stato un cambiamento significativo.

.

3. Ghiaccio nel mare Artico. Il Rapporto di Sintesi afferma:

Uno dei più impressionanti sviluppi avvenuti in seguito alla pubblicazione dell’ultimo report dell’IPCC è la rapida riduzione dell’area estiva del ghiaccio nel mare Artico. Nel 2007, l’area minima ricoperta è diminuita di circa 2 milioni di chilometri quadrati rispetto agli anni precedenti. Nel 2008, si è verificata una riduzione quasi altrettanto drammatica.

Questo declino sta chiaramente avvenendo più velocemente di quanto previsto dai modelli, come il grafico seguente mostra.

La dichiarazione di Pielke secondo cui questo “NON È VERO” è semplicemente basata sull’affermazione che “dal 2008 le anomalie sono realmente diminuite.”

Ebbene sì, è ancora la stessa cosa: il ragionamento di Pielke non è pertinente perché il Rapporto di Sintesi parla esplicitamente della estensione estiva minima del ghiaccio marino, raggiunta ogni settembre nel mare Artico, e noi non possiamo ancora sapere quale valore raggiungerà nel 2009. Inoltre, Pielke fa ancora riferimento ad un intervallo temporale (“dal 2008”!) che è troppo corto per avere qualcosa a che fare con i trend climatici.

Dobbiamo dunque concludere che non ci sono le basi per alcuna delle rozze affermazioni di Pielke contro di noi e, implicitamente, contro gli autori del Rapporto di Sintesi. La frase finale del suo post è, ironicamente, eloquente:

I media e i decisori politici che ciecamente accettano queste affermazioni o sono ingenui o stanno deliberatamente modificando i risultati scientifici per promuovere la loro particolare posizione difensiva.

Certamente.

.

Articolo originale su Realclimate.org

Traduzione di: Giulia Fiorese, Riccardo Reitano
Revisione di: Simone Casadei.

Pubblicato su Climalteranti il 17/07/2009.

24 – Un avvertimento da Copenhagen

Volantino Syntesis ReportA Marzo ha avuto luogo a Copenhagen la più grande conferenza sul clima dell’anno: 2500 partecipanti da 80 paesi, 1400 presentazioni scientifiche. La scorsa settimana, il Rapporto di Sintesi del Congresso di Copenhagen è stato consegnato al Primo Ministro danese Rasmussen a Bruxelles. La Danimarca ospiterà il round decisivo delle negoziazioni sul nuovo trattato di protezione del clima il prossimo dicembre.

Il congresso sul clima è stato organizzato da un’“Alleanza stellare” di università di ricerca: Copenhagen, Yale, Berkeley, Oxford, Cambridge, Tokyo, Pechino, per nominarne alcune. Il Rapporto di Sintesi è il più importante aggiornamento sulla scienza climatica dalla pubblicazione del rapporto IPCC 2007.

Cosa dice il rapporto? I nostri lettori più assidui saranno difficilmente sorpresi dalle scoperte sostanziali sugli aspetti fisici della scienza del clima, che per la maggior parte sono già state discusse nei nostri articoli. Alcuni aspetti del cambiamento climatico stanno progredendo più velocemente di quanto non ci si aspettasse qualche anno fa – come l’aumento dei livelli del mare, l’aumento del calore immagazzinato nell’oceano e il restringimento del ghiaccio marino Artico. “Le stime aggiornate sul futuro aumento del livello globale del mare sono circa il doppio delle proiezioni dell’IPCC del 2007”, dice il nuovo rapporto. E sottolinea che qualsiasi riscaldamento provocato sarà virtualmente irreversibile per almeno un migliaio di anni – a causa del lungo tempo di residenza della CO2 nell’atmosfera.

Può essere di maggior interesse il fatto che il congresso abbia anche riunito insieme economisti ed esperti di scienze sociali che fanno ricerca sulle conseguenze dei cambiamenti climatici e ne analizzano le possibili soluzioni. Qui, il rapporto sottolinea ancora una volta che un riscaldamento oltre i 2ºC è un pericolo:

Aumenti di temperatura sopra i 2ºC saranno difficili da gestire per le società contemporanee, e probabilmente provocheranno sconvolgimenti sociali ed ambientali per il resto del secolo ed oltre.

(Per inciso, fino ad ora 124 nazioni hanno ufficialmente dichiarato di sostenere l’obiettivo di limitare il riscaldamento globale a 2ºC o meno, inclusa l’UE – ma sfortunatamente non ancora gli Stati Uniti).

Alcuni rappresentanti dei media hanno fatto confusione sul fatto se sia ancora possibile o meno rispettare questa soglia di guardia dei 2ºC. La risposta del rapporto è un chiaro “sì” – a patto che si agisca rapidamente e con decisione:

La conclusione, sia dell’IPCC che di analisi successive, è semplice – riduzioni immediate e drammatiche delle emissioni di tutti i gas serra sono necessarie per rispettare la soglia di guardia dei 2ºC.

A causare confusione è stato apparentemente il fatto che il rapporto ritenga ormai come inevitabile che le concentrazioni di gas serra nell’atmosfera oltrepassino il futuro livello di stabilizzazione che ci manterrebbe al di sotto del riscaldamento di 2ºC. Ma questo superamento delle concentrazioni di gas serra non porterà necessariamente le temperature a oltrepassare la soglia dei 2ºC, a condizione che il superamento sia solo temporaneo. E’ come una pentola d’acqua su una stufa – assumiamo di accendere una debole fiamma che faccia aumentare la temperatura nella pentola gradualmente fino a 70°C e non oltre. Attualmente, l’acqua è a 40°C. Se alzo la fiamma per un minuto e poi la riabbasso, non significa che la temperatura dell’acqua oltrepasserà i 70ºC, a causa dell’inerzia del sistema. La stessa cosa accade con il clima – l’inerzia in questo caso è la capacità termica degli oceani.

Dal punto di vista delle scienze naturali, nulla ci impedisce di limitare il riscaldamento a 2ºC. Anche da un punto di vista economico e tecnologico ciò è interamente fattibile, come il rapporto mostra chiaramente. La palla è direttamente nell’arena politica, a Copenhagen, nella quale a dicembre dovranno essere prese le decisioni cruciali. Il rapporto di sintesi la mette giù in questo modo: sarebbe imperdonabile non agire.

Links correlati
Conferenza stampa del PIK sulla pubblicazione del rapporto di sintesi

Congresso di Copenhagen sul clima – con disponibili i files delle riunioni plenarie (link in basso a destra – il mio intervento rientra nella seconda parte della sessione di apertura, appena dopo il chairman, Pachauri dell’IPCC)

Incontro dei Premi Nobel a Londra – un incontro di alto livello tenutosi in Maggio i cui protagonisti hanno prodotto un importante memorandum che richiede un immediato intervento della politica: “Sappiamo cosa sia necessario che venga fatto. Non possiamo aspettare finchè non sarà troppo tardi”. Il nuovo Segretario all’Energia degli Stati Uniti Steven Chu ha partecipato per tutti e tre i giorni alle discussioni scientifiche – in quanti politici lo avrebbero fatto?

Articolo originale su Realclimate.org

Traduzione di: Tania Molteni
Revisione di: Simone Casadei.

Pubblicato su Climalteranti il 17/06/2009.

23 – Sull’ Over-fitting 1

(1: “Quando la taratura è eccessiva”)

Non tendo granchè a leggere altri blogs a parte dare il mio contributo a Realclimate. Specialmente sono poco interessato a perdere tempo a leggere quei blogs che sono pieni di attacchi ad hominem. Sembra però che qualche collega lo faccia, e qualcuno di loro mi ha incoraggiato a dare un’occhiata agli ultimi commenti sulla nostra storia della temperatura in Antartide. Siccome mi è capitato di insegnare ai miei studenti universitari l’analisi delle componenti principali proprio questa settimana, ho pensato che valesse la pena mettere un post pedagogico in merito all’oggetto della discussione (se non sapete cos’è l’analisi delle componenti principali (PCA), date un’occhiata al nostro post più recente: Dummy’s Guide to the Hockey Stick Controversy).

.

Per coloro che non la conoscono, consideriamo il semplice esempio che riporto qui di seguito. Supponiamo di aver misurato due variabili lungo un periodo di tempo (diciamo, temperatura e umidità e chiamiamole x e y). Ipotizziamo di avere 10 osservazioni simultanee di x e di y ma che, per sfortuna, uno dei nostri strumenti si rompa e ricominciamo a misurare le 10 osservazioni solo per la variabile x e nessuna per y. Fortunatamente sappiamo che x e y sono correlate fisicamente tra loro, così la nostra speranza è quella di poter usare i valori accoppiati per x e y in modo da stimare cosa sarebbe dovuta essere y se noi fossimo stati in grado di misurarla per tutta la durata dell’esperimento. Mettiamo su un grafico le due variabili x e y e cerchiamo una qualche funzione per l’interpolazione dei dati. Se abbiamo scelto una funzione corretta dovremmo essere in grado di stimare il valore di y per ogni valore arbitrario di x. La cosa ovvia che uno potrebbe provare, data l’apparente forma della curva in confronto ai dati, sarebbe quella di usare una polinomiale di secondo grado (che è una parabola).

Sembra vada bene , vero?
Beh…no. In realtà, per questo particolare esempio, avremmo dovuto usare una linea retta. Questo diventa ovvio dopo aver riparato lo strumento rotto e aver fatto in modo di aumentare il campione di dati:

Naturalmente la nostra stima per la miglior curva di interpolazione è di per se incerta, e quando consideriamo un numero maggiore di dati, ci ritroviamo con un risultato leggermente diverso (mostrato dalla linea verde tratteggiata). Siamo però molto più vicini all’ipotesi corretta utilizzando tale retta piuttosto di utilizzare la parabola che diverge notevolmente soprattutto per grandi valori di x.

Certamente la parabola sembrava avesse una migliore aderenza – dopotutto risulta essere più vicina ad un numero maggiore di dati che sembrano realmente curvare verso l’alto. Come avremmo potuto saperlo prima? Bene, avremmo potuto incrementare le nostre possibilità di avere ragione utilizzando alcune basilari applicazione statistiche (come ad esempio un test “chi – quadro”). I risultati ci avrebbero mostrato che non c’erano sufficienti gradi di libertà nei dati per giustificare l’impiego di una curva di ordine superiore (la quale riduce i gradi di libertà da 8 a 7 in questo esempio). La scelta della parabola, in questo caso, è un classico esempio di overfitting.

La semplice lezione è che non si dovrebbero utilizzare più parametri del necessario per l’interpolazione di una funzione (o più funzioni). Fare diversamente significa, molto spesso, andare incontro a grandi errori di interpolazione.

Usando l’analisi delle componenti principali (PCA) per la ricostruzione statistica di dati climatici, si evitano problemi di overfitting, in particolare scegliendo accuratamente il numero corretto di componenti principali (PC) da considerare. Nel semplice esempio proposto sopra, ci sono due diversi – ma entrambi importanti – test da applicare, uno a priori e uno a posteriori.

Per prima cosa siamo interessati a distinguere quelle componenti principali che possano essere relative ai veri “modi” di variabilità dei dati. Nel nostro caso siamo interessati a quelle componenti principali che rappresentano le variazioni della temperatura in Antartide che sono legate, per esempio, alle variazioni nella forza del vento circumpolare, della distribuzione del ghiaccio sul mare ecc. Sebbene i metodi lineari come l’analisi delle componenti principali (PCA) siano solo un’approssimazione dei reali comportamenti del sistema climatico, in genere le prime componenti principali (PC) – che per costruzione catturano la variabilità che si verifica su estese scale spaziali – sono strettamente legate con i sottostanti fenomeni fisici. Allo stesso tempo vogliamo evitare quelle componenti principali che difficilmente rappresentano la variabilità dei fenomeni fisici in maniera significativa, da una parte perché sono semplicemente “rumore” (rumore strumentale o una vera casuale variabilità nel clima) oppure perché rappresentano variazioni di esclusivo significato locale. Con questo non si vuole dire che la variabilità locale o la variabilità casuale del sistema non siano importanti, ma questo tipo di variabilità difficilmente viene ben rappresentata da un gruppo di variabili predittive che contengono meno informazioni rispetto alla serie originale di dati dalla quale sono state estratte le componenti principali.

L’approccio standard nel determinare quali componenti principali usare, è quello di usare il criterio di North et al. (1982), che fornisce una stima dell’incertezza negli autovalori della decomposizione lineare dei dati nelle sue componenti principali variabili rispetto al tempo e nei suoi autovettori (EOF) che variano rispetto allo spazio. La maggior parte delle componenti principali di ordine superiore (le ultime componenti principali) hanno una varianza non statisticamente significativa. Nel caso invece in cui anche le componenti principali di ordine inferiore – le prime componenti principali – (che spiegano la maggior parte della varianza) abbiano anche loro una varianza non significativa, bisogna essere cauti nella scelta di quali componenti utilizzare, perché l’analisi PCA di solito mischia la sottostante struttura spaziale e temporale dei dati che le componenti principali rappresentano. Si può facilmente dimostrare questo concetto creando artificialmente un data set spazio temporale partendo da delle semplici funzioni temporali (per esempio le funzioni seno e coseno), e aggiungendo un rumore casuale. L’analisi PCA estrarrà solo le funzioni originali se sono di ampiezza significativamente diversa.

La figura qui sotto mostra lo spettro degli autovalori – includendo le incertezze – relative sia ai dati delle temperature medie ricostruite da satellite e sia ai dati delle stazioni meteorologiche usate in Steig et al. 2009.

Possiamo notare che nei dati satellitari (il nostro data set predittore) ci sono 3 autovalori che stanno al di sopra degli altri. Si potrebbe ritenere di utilizzare 4 componenti principali, dal momento che usarne 5 porterebbe ad una leggera sovrapposizione. Pensare di utilizzarne più di 4 richiederebbe di utilizzarne almeno 6 e al massimo 7, per evitare di dover mantenere tutto il resto (a causa della sovrapposizione delle barre di errore). Per quanto riguarda i dati della stazione meteorologica (la nostra serie di dati predittiva), si potrebbe giustificare la scelta di utilizzare 4 PC, seguendo gli stessi criteri, o al massimo 7. In generale, questo suggerisce che considerando entrambi i data set, la scelta delle PC ricade da un minimo di 3 a un massimo di 7. Mantenerne solo 3 è una scelta molto ragionevole dal momento che la varianza spiegata dalle singole PC si riduce di molto nei dati satellitari dopo questo punto: ricordiamoci che stiamo cercando di evitare di inserire PC che rappresentano semplicemente rumore. Per semplici applicazioni di filtraggio (ad esempio l’elaborazione delle immagini) il rischio di trattenere troppo rumore è basso. Per estrapolazioni nel tempo – il problema della ricostruzione del clima – è fondamentale che le PC riescano ad approssimare le dinamiche del sistema. A tal fine, trattenere un minor numero di PC, ed in particolare solo quelle che si contraddistinguono per un grande cambiamento nella pendenza del grafico di cui sopra (cioè 3 o 4 PC nei dati effettivi) è la scelta più adatta, in quanto difficilmente è in grado di gonfiare il rumore che può essere presente nei dati.

In breve, a priori, non vorremmo trattenerne più di 7, e pochi come 3 PC è chiaramente giustificabile. Certamente non vorremmo mantenerne 9, 11, o 25 in quanto in questo modo è quasi certo provocare errori di estrapolazione. Cosa che ci porta al nostro test a posteriori: quanto lavorano bene le varie ricostruzioni, in funzione del numero di PC conservate?

Come per il semplice esempio x, y di cui sopra, vogliamo ora dare un’occhiata a come la nostra estrapolazione si confronta con la realtà. Per fare questo, abbiamo trattenuto alcuni dati, calibrato il modello (un calcolo separato per ogni numero di PC che vogliamo prendere in considerazione), e poi confrontato la ricostruzione risultante con i dati trattenuti. Tale calibrazione/test di verifica, sono stati, naturalmente, redatti nel nostro lavoro ed è il principale elemento che ha distinto la nostra pubblicazione dai precedenti lavori.

Come mostrato nella figura qui sotto, non c’è un gran cambiamento nella bontà del fittaggio (misurata in questo caso dal coefficiente di correlazione dei dati trattenuti e ricostruiti nella calibrazione / test di verifica), se uno usa 3, 4, 5 o 6 PC. Vi è una significativa (e continua) perdita, tuttavia, se se ne utilizzano più di 7. Possiamo quindi eliminare l’uso di più di 7 PC grazie a questa prova a posteriori. E poiché si guadagna poco ad usarne più di 3 o 4, la parsimonia indicherebbe di non usarne di più.

Ora il lettore attento può sottolineare che la capacità di ricostruzione (come calcolato con una semplice PCA e almeno con punteggi di correlazione) sembri essere più grande nell’Ovest dell’Antartide quando usiamo 4 PC, anziché 3 come nell’articolo. Tuttavia, come mostrato nella prima figura qui sotto, la scelta di più di 3 PC risulta nello stesso trend, o addirittura in trend maggiori, (soprattutto nell’Ovest dell’Antartide) rispetto ad utilizzare 3 PC. Naturalmente, possiamo ottenere trend più piccoli se usiamo solo due PCS, o più di 10, ma questo non può essere giustificato né con criteri a priori, nè a posteriori – non più di quanto lo si possa fare con 13, o 25 .* Il risultato è lo stesso che si usi una semplice PCA (come mi sono sostanzialmente imposto io qui, per semplicità di discussione), oppure l’algoritmo RegEM (abbiamo utilizzato entrambi i metodi nel documento):

In sintesi: la nostra scelta di mantenere 3 PC non è stata solo una ragionevole scelta a priori, ma comporta trend comparabili o più piccoli rispetto alle altre ragionevoli scelte a priori. L’uso di 4, 6 o 7 PC produce tendenze maggiori in Antartide Occidentale, e piccoli cambiamenti in Antartide Orientale. Utilizzandone più di 7 (almeno fino a 12) aumenta la tendenza in entrambe le aree. Questo per quanto riguarda l’affermazione, riportata su diversi siti web, che abbiamo volutamente scelto 3 PC al fine di massimizzare la stima della tendenza al riscaldamento!

Tutto questo discorso sulla statistica, ovviamente, può sviare dal fatto che il punto principale nel nostro articolo – il riscaldamento dell’Ovest dell’Antartide, analogo a quello della Penisola – sia evidente nei dati grezzi:


Trend grezzi di temperatura – in versioni diverse dei dati di temperatura mensili influenzati dalla copertura nuvolosa: (a) Comiso (trend decennale 1982-1999), (b) Monaghan et al. (1982-1999) c) Steig et al. (1982-1999), (d) Steig et al., (1982-2006).

Questo è, inoltre, ciò che ci si aspetta dalle dinamiche atmosferiche. Tempeste di bassa pressione difficilmente arrivano fino gli altipiani polari dell’Est Antartico, e lì le temperature sono determinate prevalentemente dalla radiazione, non dalle avvezioni come nell’Ovest Antartico e sulla Penisola. Questo è il motivo per cui i modelli di circolazione globale che simulano correttamente la circolazione atmosferica osservata e i cambiamenti del ghiaccio marino – in aumento intorno la gran parte dell’Est Antartico, ma in diminuzione al largo della costa dell’Ovest Antartico e della Penisola – concordano anche nella struttura e nell’ampiezza dei trend di temperatura che noi osserviamo:

Figura 3b da Goosse et al., 2009, mostra il trend di temperatura (1960-2000) simulato con un modello accoppiato oceano-atmosfera di complessità intermedia che usa l’assimilazione dei dati per forzare il modello a concordare con le variazioni di temperatura superficiale osservate dalle stazioni meteorologiche di superficie. Non sono stati usati dati di temperatura da satellite. Le aree in giallo nella simulazione rappresentano un riscaldamento fra 0.1 e 0.2 gradi/decade e l’arancione fra 0.2 e 0.3 gradi/decade.

Un ultimo punto: risulta alquanto bizzarro che sia stato speso uno sforzo tale per cercare di trovare errori nel nostro lavoro sulla temperatura dell’Antartico. Sembra che questo sia il risultato di una persistente convinzione che mettendo in difficoltà un gruppo di scienziati l’intera costruzione del ‘global warming’ crollerà. Questo e’ abbastanza ingenuo, come abbiamo discusso in precedenza. L’ironia è che il nostro studio è stato in gran parte incentrato sul cambiamento climatico regionale che può ben essere in buona parte dovuto alla variabilità naturale, come diciamo chiaramente nell’articolo. Ciò sembra essere sfuggito a gran parte della blogsfera, comunque.

* Mentre lavoravo a questo post, qualcuno chiamato “Ryan O” ha postato una lunga discussione dove affermava di trovare un miglior accordo che nel nostro articolo usando 13 PC. Questo è strano in quanto contraddice il mio risultato secondo cui usando così tante PC si degrada significativamente la capacità della ricostruzione. Sembra che ciò che sia stato fatto è prima di aggiustare i dati da satellite in modo da concordare meglio con i dati misurati al suolo, e poi eseguire i calcoli della ricostruzione. Questo non ha alcun senso: si riduce il tutto a pre-ottimizzare i dati di validazione (che si suppone siano indipendenti), violando cosi’ del tutto il concetto di “validazione”. Con questo non voglio dire che un qualsiasi aggiustamento dei dati satellitari sia ingiustificato, ma non può essere fatto in questo modo se uno vuole usare i dati come verifica. (E i risultati della verifica ottenuti in questo modo di certo non possono essere confrontati con i risultati della verifica basati su dati satellitari non modificati).

Inoltre, l’affermazione fatta da “Ryan O” che i nostri calcoli “gonfino” i trend di temperatura nei dati è assolutamente speciosa. Tutto quello che ha fatto è stato prendere i nostri risultati, aggiungere altre PC (che portano a un trend inferiore in questo caso), e poi sottrarre quelle PC (ritornando in questo modo al trend originale). In altre parole, 2+1-1=2.

Avendo detto che in definitiva lo scopo di questo post è pedagogico, concluderò notando che forse qualcosa abbiamo imparato in questa occasione: sembra che usando i nostri metodi e i nostri dati, anche un sedicente “scettico” sia in grado di ottenere sostanzialmente gli stessi risultati che abbiamo ottenuto noi: un riscaldamento di lungo periodo praticamente su tutta la calotta antartica.

Articolo originale su Realclimate.org

Traduzione di: Riccardo Mancioli, Fabio Sferra, Lighea Speziale, Riccardo Reitano

Revisione di: Simone Casadei.

Pubblicato su Climalteranti il 17/06/2009.

22 – ACRIM vs PMOD

Due recenti articoli (Lockwood & Frolich, 2008 – ‘LF08’; Scafetta & Willson, 2009 – ‘SW09’) confrontano l’analisi dell’irradianza solare totale (TSI) e il modo in cui le misurazioni della TSI sono combinate in modo da formare una lunga serie consistente di dati provenienti da diverse missioni satellitari. I due documenti giungono a conclusioni completamente opposte per quanto riguarda il trend a lungo termine. Allora quale dei due (sempre che almeno uno dei due lo sia) è corretto, quindi? E, soprattutto, è veramente importante?
Questo è un problema molto comune quando si ha a che fare con lunghe serie di dati satellitari. Ogni satellite dura solo pochi anni, cosicché una serie di dati di 30 anni deve essere cucita insieme con dati provenienti da diversi satelliti. Ciascuno di questi strumenti può avere una diversa calibrazione, inoltre può essere soggetto a derive non-climatiche dovute al degrado della strumentazione o a effetti orbitali. In questo modo, resta sempre un certo grado di ambiguità quando si uniscono serie di dati. Questo problema spiega almeno una parte della differenza tra i trend di temperatura troposferica RSS e UAH, e delle analisi CERES/ERBE che sono già state discusse di recente.
Le differenze tra PMOD e ACRIM sono già state discusse da “SkepticalScientist” e “Tamino”, quindi di seguito si riporta solo un aggiornamento alla luce dei due articoli recenti. La questione importante è il cosiddetto ‘ACRIM-gap’, ovvero il tempo che è intercorso da quando la strumentazione ACRIM-I ha cessato di funzionare a quando la ACRIM-II ha iniziato le osservazioni (da metà 1989 a fine 1991), e come i dati provenienti da questi due strumenti siano stati combinati tra loro utilizzando altre osservazioni che si sovrapponevano. Si noti che il termine ‘ACRIM’ per le serie temporali di Willson et al. denota semplicemente il fatto che la serie temporale sia stata messa insieme da alcune persone che lavoravano nel gruppo scientifico ACRIM, e non che questi usino dati satellitari diversi.
Il punto centrale in questi articoli è cosa implica il “gap ACRIM” per i livelli di TSI durante il minimo solare dei cicli solari 21 e 22. Mentre PMOD suggerisce che i livelli della TSI durante questi minimi siano simili, ACRIM suggerisce che il livello della TSI sia più alto durante il minimo del ciclo 22. SW08 addirittura asserisce che c’è stato un trend positivo dei minimi.
LF08 conclude che PMOD sia più realistico, in quanto il cambiamento dei livelli della TSI durante i minimi solari, suggerito da ACRIM, non è coerente con la nota relazione fra TSI e i raggi cosmici galattici (GCR). E’ ben noto che il flusso dei GCR è in genere basso quando il livello di attività solare è alto poiché i campi magnetici solari sono più estesi e schermano il sistema solare dai GCR (particelle cariche). Tuttavia i due effetti non vanno sempre di pari passo, quindi questa è più un’indicazione che una conclusione.
E’ anche chiaro dai dati strumentali che la TSI tende ad aumentare con il livello di attività solare – almeno in corrispondenza del ciclo solare. LF08 sostiene che se il trend dei minimi di ACRIM fosse corretto, significherebbe che le precedenti ricostruzioni della TSI basate su, ad esempio, le macchie solari non sono corrette, e molti studi sulle variazioni climatiche passate sarebbero errati. Ciò non significa che i dati ACRIM siano inutili, ma che ci sono incertezze riguardanti la relazione fra i livelli della TSI e l’attività solare su scale temporali diverse.
In SW09 non ho trovato una descrizione sufficientemente dettagliata della metodologia usata nella loro analisi per poter giudicare il vero valore del loro lavoro. L’articolo fornisce un link al materiale ausiliario che non funziona. Tuttavia, le figure nell’articolo non sono veramente convincenti visto che non so come siano state fatte.
Inoltre, ho trovato che SW09 crei un pò di confusione, poiché da l’impressione che la composizione PMOD si basi sui dati ERBS/ERBE durante il gap di ACRIM (“Il team di PMOD usa il database sparso ERBS/ERBE per collegare il gap di ACRIM, conformando ad esso la maggiore cadenza Nimbus 7/ERB facendo degli aggiustamenti dovuti a …”). Tuttavia le informazioni in LF08 dicono che PMOD ha usato HF da Nimbus 7 (ERB).
L’analisi di PMOD include un aggiustamento per correggere un problema tecnico nei dati ERB (cambio di orientazione e/o spegnimento), ma SW09 sostiene – senza portare argomentazioni convincenti – che questa correzione non possa essere giustificata.
La composizione ACRIM non prende in considerazione un salto durante il gap ACRIM dovuto a cambiamenti strumentali. SW09 mostra un confronto fra diverse analisi e il modello di TSI di Krivova et al. (2007), ma dopo ammette che quest’ultimo modello di TSI è in disaccordo con le misure sulle scale temporali decennali. Inoltre, quando la TSI non è raccordata sul gap ACRIM, c’è una chiara incoerenza fra TSI e GCR.
Update: La mia conclusione è che l’articolo di LF08 è molto più convincente di SW09 sul se i dati di TSI debbano essere raccordati sul gap ACRIM. Ma questa probabilmente non è la parola finale su questo argomento.

Articolo originale su Realclimate.org

Traduzione di: Giulia Fiorese, Riccardo Reitano
Revisione di: Simone Casadei

Pubblicato su Climalteranti il 18/5/2009.

 

 

21 – Gli effetti degli Aerosol e il clima, seconda parte: il ruolo della nucleazione e dei raggi cosmici

Nella Parte I ho discusso di come gli aerosol siano agenti nucleanti e di come essi crescano. In questo post esporrò di come i cambiamenti nella nucleazione e nella ionizzazione possano influenzare i risultati complessivi.

I raggi cosmici
I raggi cosmici galattici (GCR) sono particelle energetiche che hanno origine nello spazio e penetrano l’atmosfera terrestre. Sono un’importante sorgente di ionizzazione in atmosfera, oltre alla radioattività terrestre proveniente ad esempio dal radon (emessa naturalmente dalla superficie terrestre). Sopra gli oceani e oltre i 5 km di altitudine, i GCR sono la fonte dominante. La loro intensità varia nel corso del ciclo solare undecennale, con un massimo prossimo al minimo solare. Carslaw et al. danno una bella panoramica delle relazioni potenziali tra i raggi cosmici, le nubi e il clima. Durante la prima metà del 20° secolo l’irradianza solare è leggermente aumentata, e i raggi cosmici sono successivamente diminuiti. RealClimate ha pubblicato molti post in precedenza sui presunti legami tra GCR e clima, per esempio qui, qui e qui.
Il ruolo degli ioni

Il ruolo svolto dagli ioni in relazione alle molecole neutrali (scariche) nel processo di nucleazione è tuttora oggetto di intensa discussione. Per esempio, basandosi sullo stesso set di dati, Yu e Turco hanno trovato un contributo molto più alto di nucleazione indotta da ioni (rispetto al totale di particelle prodotte) di quanto non abbiano trovato Laakso et al.. L’evidenza di un determinato meccanismo di nucleazione è spesso di natura indiretta, e dipende da parametri incerti. La gran parte della letteratura indica una potenziale importanza della nucleazione indotta da ioni nell’alta troposfera, ma la sensazione generale è che i meccanismi neutrali di nucleazione (cioè che non coinvolgono gli ioni) è probabile che prevalgano nettamente. La maggior parte degli studi in campo, comunque, è stata condotta in ambienti terrestri, laddove sopra gli oceani l’entità della nucleazione è generalmente più bassa a causa delle minori concentrazioni di vapor d’acqua. Almeno da un punto di vista teorico, ciò consente alla nucleazione indotta da ioni una maggior possibilità di fare la differenza sopra gli oceani (anche se il tasso di produzione di ioni è inferiore).

Il tasso di produzione di ioni (che sopra la terra aumenta con la quota da ~10 fino a ~50 coppie di ioni per cm3 per secondo) pone un limite a quale possa essere il tasso di formazione di particelle dovuto alla nucleazione indotta da ioni. Basandosi sul suo modello per la nucleazione indotta da ioni, Yu ha trovato che alle basse quote il numero di particelle prodotte è più sensibile ai cambiamenti di intensità dei raggi cosmici. Ad un primo sguardo, ciò può sembrare un risultato sorprendente alla luce dell’aumento dell’intensità dei raggi cosmici in corrispondenza dell’aumento di altitudine. La ragione è che, alle alte quote, il fattore limitante per la formazione di particelle è la disponibilità di acido solforico piuttosto che di ioni. Sopra una certa intensità di GCR, aumentare ulteriormente la ionizzazione potrebbe persino portare ad una diminuzione della nucleazione indotta da ioni, in quanto la durata di vita dei clusters di ioni è ridotta (a causa dell’aumentata ricombinazione di ioni positivi e negativi). Al contrario, alle basse quote la formazione delle particelle può, in determinate circostanze, essere limitata dal tasso di ionizzazione, e un aumento della ionizzazione porta ad un aumento della nucleazione.

Quanto è importante la nucleazione per il clima?
Diversi esercizi modellistici sono stati fatti per studiare questa questione. La forte dipendenza dai dati in ingresso e dalle assunzioni usate, ad esempio mettere in relazione le emissioni di particelle primarie e le parametrizzazioni della nucleazione, e le diverse sensitività testate, impediscono una stima complessiva. Ciononostante, è chiaro che globalmente la nucleazione è importante per il numero di nuclei di condensazione delle nuvole (CCN), ad esempio in assenza di nucleazione nello strato limite planetario il numero di CCN sarebbe il 5% in meno (Wang e Penner) o il 3-20% in meno (Spracklen et al.), e in uno studio recente di follow-up, hanno concluso che il numero di gocce delle nuvole sarebbe il 13-16% in meno (in confronto al 2000 e al 1850 rispettivamente). Pierce and Adams hanno usato un approccio diverso e hanno guardato alla variazione del numero previsto di CCN come risultato dell’utilizzo di diversi schemi di nucleazione. Il numero di CCN troposferici risulta variato del 17% (e i CCN all’interno dello strato limite del 12%) fra i modelli che usano diverse parametrizzazioni della velocità di nucleazione. Da notare che le velocità di nucleazione mediate globalmente differivano di un fattore di un milione (!).

E’ da notare che la sensitività del numero di CCN con la nucleazione dipende fortemente dalla quantità di emissioni primarie e dagli aerosol organici secondari (SOA) formati. Questi sono essi stessi molto incerti, cosa che limita ulteriormente la nostra capacità di comprensione della connessione fra nucleazione e CCN. Se ci saranno più emissioni primarie, ci sarà più competizione tra gli aerosol per comportarsi come CCN. Se una maggiore quantità di composti organici si separerà verso la fase aerosol (per formare SOA), la crescita a dimensioni da CCN sarà più rapida.
Localmente, è stato osservato che la formazione di particelle contribuisce in modo significativo al numero di CCN; la seconda figura nella Parte I mostra un esempio di aerosol appena nucleati che sono cresciuti abbastanza da influenzare la formazione di nuvole. Kerminen et al. hanno osservato un evento simile, seguito dall’attivazione di parte degli aerosol nucleati in gocce di nuvole, fornendo così una connessione diretta fra la formazione di aerosol e l’attivazione di gocce di nuvole.

Quanto sono importanti i raggi cosmici per il clima?

Al recente meeting dell’AGU (Dicembre 2008) Jeff Pierce ha presentato i risultati sugli effetti potenziali dei GCR sul numero di CCN (il loro articolo è al momento in corso di stampa presso GRL). Sono state usate due diverse parametrizzazioni della nucleazione indotta da ioni (Modgil et al. e una assunzione di “limite-ionico” che tutti gli ioni contribuiscano a formare una nuova particella). Il modello è stato fatto girare sia con alto che con basso flusso di raggi cosmici per simulare le condizioni durante un massimo ed un minimo solari rispettivamente. Casualmente questo risulta essere compatibile con il cambiamento del flusso di raggi cosmici nel corso del 20° secolo (concentrato in gran parte nella prima metà), e ammonta a un 20% di cambiamento nella produzione ionica troposferica. Con entrambi i meccanismi di nucleazione indotta da ioni, questo porta ad un 20% di cambiamento nella nucleazione di particelle mediata globalmente, ma solo ad un cambiamento dello 0.05% dei CCN mediati globalmente. Gli autori hanno concluso che questo è stato “di gran lunga troppo piccolo per avere effetti rilevanti nelle proprietà delle nuvole, sia che fosse basato su scala temporale decennale (ciclo solare) o sui cambiamenti della scala temporale climatica dei raggi cosmici”. Per rendere conto di alcuni cambiamenti rilevati nella copertura nuvolosa, sarebbe necessario un cambiamento nei CCN dell’ordine del 10%. Ulteriori studi di questo tipo certamente troveranno altri numeri, ma forse è meno probabile che la conclusione qualitativa, come riportata sopra, cambierà drammaticamente. Il futuro ce lo dirà, naturalmente.

Conclusioni riassuntive

Le particelle appena nucleate devono crescere di circa un fattore 100.000 in massa prima che possano efficacemente diffondere la radiazione solare o essere attivate in una goccia di nuvola (e così avere effetto sul clima). Hanno a disposizione circa 1-2 settimane per farlo (tempo medio di residenza nell’atmosfera), ma una gran parte verranno eliminate prima dalle particelle più grandi. Quale frazione di particelle nucleate sopravviverà per poter quindi interagire con il bilancio radiativo dipende da molti fattori, specialmente la quantità di vapore condensabile (che porta alla crescita delle nuove particelle) e la quantità di particelle pre-esistenti (che agiscono da pozzo per il vapore così come per le particelle piccole). Stime, basate su modelli, dell’effetto della nucleazione nello strato limite sulla concentrazione di nuclei di condensazione delle nuvole (CCN) stanno nell’intervallo fra il 3% e il 20%. Ciononostante, la nostra conoscenza sulle velocità di nucleazione è ancora molto limitata, il che ostacola una stima accurata del suo potenziale effetto climatico. Allo stesso modo, i potenziali effetti dei raggi cosmici galattici (GCR) può essere stimato solo molto grossolanamente. In uno studio recente si è trovato che un cambiamento nell’intensità dei GCR, come quello tipicamente osservato nel ciclo solare di 11 anni, potrebbe, al massimo, causare un cambiamento dello 0.1% nel numero dei CCN. Questo è probabilmente troppo piccolo per produrre effetti evidenti nelle proprietà delle nuvole.

Articolo originale su Realclimate.org

Traduzione di: Emanuele Eccel, Riccardo Reitano

Revisione di: Simone Casadei.

Pubblicato su Climalteranti il 23/4/2009.

 

 

 

20 – La formazione degli Aerosol e il clima, prima parte

L’impatto che gli aerosol hanno sul clima è si rilevante, ma anche molto incerto. Ci sono svariate ragioni, una di queste è l’incertezza su come e quanto velocemente si formino per nucleazione nell’atmosfera. Qui, nella prima parte, proporrò una breve sintesi di alcuni dei processi basilari che sono importanti nel determinare gli effetti che gli aerosol hanno sul clima, ponendo attenzione in particolare sulla loro formazione. Questo è rilevante anche per meglio comprendere, e auspicabilmente quantificare, gli ipotetici effetti sul clima dei raggi cosmici galattici di cui discuterò in un post successivo.

Contesto
Gli aerosol sono particelle liquide o solide sospese in atmosfera (che non includono gocce d’acqua o cristalli di ghiaccio). Posso essere entrambi emessi direttamente in atmosfera (aerosol primari come la polvere) o formati in atmosfera per condensazione (aerosol secondari come i solfati). Quasi tutte le loro proprietà, e quindi gli effetti, sono dipendenti dalla dimensione: la dimensione della particella regola la velocità cui le particelle precipitano (e quindi il tempo di vita atmosferico), la loro interazione con la radiazione, il loro impatto sulle nuvole o anche i loro effetti sulla salute. Le loro dimensioni sono molto varie, si estendono da pochi nanometri a decine di micron. In questi link (qui, qui e qui (in tedesco)) si trovano siti con ottime spiegazioni introduttive agli aerosol e ai loro effetti sul clima. Anche RealClimate ha pubblicato alcuni post sullo stesso argomento qui e qui.

Effetti sul clima degli aerosol

Le particelle di aerosol possono influenzare il clima in diversi modi: possono disperdere e assorbire (nel caso del black carbon) la radiazione solare (effetti diretti). Possono inoltre fungere da nuclei di condensazione delle nuvole (CCN) attorno ai quali le nuvole si possono formare, e in tal modo influenzano la riflettività delle nuvole e il loro tempo di vita (effetti indiretti). Il black carbon può avere un altro effetto indiretto cambiando l’albedo della neve e del ghiaccio, ma questo non è l’argomento di questo post. Gli effetti indiretti degli aerosol sono le fonti di incertezza più grandi nella stima dell’impatto dell’uomo sul cambiamento climatico (qui è disponibile una sintesi). L’idea principale è che maggiori CCN determinino un maggior numero di gocce, tuttavia più piccole, nelle nuvole composte da particelle allo stato liquido. La nube risultante è più riflettente (primo effetto indiretto). A causa della ridotta dimensione delle gocciole della nube, potrebbe interrompersi la formazione delle precipitazioni, avendo come risultato un allungamento della vita della nuvola e un ampliamento della copertura nuvolosa (secondo effetto indiretto).

La massa di una particella di aerosol appena nucleata è 100000 volte più piccola di quella di un aerosol “vecchio” che ha le dimensioni ottimali per influenzare il clima. Come regola empirica approssimativa si assume che le particelle debbano crescere oltre i 100nm (1 nm = 10^-9 m) per diventare attive da un punto di vista climatico; al di sotto di questa dimensione non si attivano facilmente dentro una goccia di nuvola e non disperdono in modo molto efficiente la radiazione solare. È quindi non immediatamente ovvio che gli effetti sul clima degli aerosol dipenderanno in modo assai forte dalla nucleazione; la dipendenza è probabilmente considerevolmente smorzata, perché possono accadere molte cose alla particella di aerosol quando raggiunge l’età adeguata.

Formazione degli aerosol

I gas in tracce maggiormente presenti in genere non nucleano nuovi aerosol (o non condensano in quelli esistenti), perché sono troppo volatili (i.e. hanno un’alta pressione di vapore alla saturazione e quindi evaporano facilmente). Essi devono prima essere ossidati (solitamente sotto l’influenza della luce solare) per produrre un composto con una pressione di vapore inferiore. L’esempio principale di questo è l’ossidazione del biossido di zolfo (SO2) in acido solforico (H2SO4), che ha una pressione di vapore molto bassa. L’ H2SO4 può quindi condensare con il vapor acqueo (e forse composti organici e/o ammoniaca) per formare cluster stabili di molecole: una nuova particella ha tipicamente un diametro di 1-2 nm. Gli ioni possono pure avere un ruolo, abbassando la barriera di energia da superare: le forze attrattive fra le molecole sono maggiori quando una di loro e’ carica. Guarda qui e qui per una review dei processi di nucleazione atmosferica.

Anziché nucleare in una nuova particella, l’ H2SO4 potrebbe anche condensare in una particella di aerosol esistente, facendola crescere in dimensioni. A causa di questa competizione per il vapore, la nucleazione è più probabile che accada quando sono presenti solo pochi aerosol.

Crescita degli aerosol
La condensazione di altro vapore su di un aerosol già nucleato lo fa crescere in dimensione. Tuttavia, altri processi ostacolano la sua possibilità di diventare abbastanza grande da influenzare in modo significativo il clima: due aerosol possono scontrarsi, in un processo chiamato coagulazione. La coagulazione è particolarmente efficace fra nanoparticelle e particelle più grandi (di qualche centinaio di nanometri). Esso causa la crescita in dimensione della più grande, mentre la più piccola (appena nucleata) sparisce. In presenza di numerosi aerosol molto piccoli in giro (i.e. dopo un evento di nucleazione), essi possono anche coagulare assieme. Questo fa si che crescano in dimensione, ma decresce la loro concentrazione numererica. I processi di diminuzione del numero di aerosol (deposizione e coagulazione con particelle più grandi) sono più efficienti quando questi sono molto piccoli.

figura nucleazione e condensazione

Figura 1: Vari fattori influenzano il punto fino al quale la nucleazione contribuisce al numero di Nuclei di Condensazione delle Nuvole (CCN). (Figura in parte basata su una presentazione all’AGU di Jeff Pierce)

Misure
La formazione di nuove particelle è stata osservata in tutto il globo, dai Poli ai Tropici, dalle città alle aree remote, e da luoghi in superficie fino all’alta troposfera (guarda qui per una review di queste osservazioni). Fra questi luoghi, solo la nucleazione nella troposfera libera e nelle vicinanze di nubi sembra essere in accordo con le previsioni teoriche. Nella maggior parte degli altri casi il numero delle particelle di aerosol prodotte è sottostimato. Questo ha portato allo sviluppo di approcci semi-empirici per descrivere la nucleazione. Studi di laboratorio hanno tipicamente trovato dipendenze molto più forti sull’ H2SO4 rispetto alle misure in atmosfera. Un fattore confondente è che le particelle fra 1 e 2 nanometri appena formate non possono essere direttamente misurate con strumentazione disponibile commercialmente (sebbene ci siano nuovi sviluppi in questo campo). La nucleazione avviene in una sorta di terra di nessuno fra la fase gassosa e la fase liquida, sulla quale conosciamo sorprendentemente poco.

link immagine nucleazione

Figura 2: Misure di una nucleazione atmosferica e dell’evento di crescita nella Lower Fraser Valley, Canada. I colori danno la concentrazione numerica (normalizzata), dove il rosso indica un incremento nella concentrazione di particelle nucleate, le quali crescono fino all’intervallo di dimensione dei CCN (da Mozurkewich et al.).

Quindi cosa è necessario affinché la nucleazione avvenga? Fra le condizioni favorevoli ci sono una sorgente intensa di vapore condensabile; un’alta intensità di radiazione UV; una bassa area superficiale degli aerosol; umidità relativa alta; bassa temperatura; presenza di ioni; e processi atmosferici di rimescolamento. In differenti condizioni ambientali possono verificarsi diversi meccanismi di nucleazione. Ad esempio, nei fumi industriali e sulle aree urbane può essere presente abbastanza acido solforico da formare nuove particelle e farle crescere fino ad una dimensione stabile. L’ammoniaca potrebbe neutralizzare i cluster acidi, e quindi aiutare a stabilizzarli. Sopra le aree forestali, ci si aspetta che il ruolo relativo dei composti organici sia molto maggiore (sebbene resti una forte correlazione di eventi di nucleazione con l’acido solforico). Lungo le coste, i composti dello iodio sono probabilmente coinvolti nel processo di nucleazione. Nell’alta troposfera, la densità di ioni è normalmente più elevata, mentre quella dell’acido solforico è inferiore. Il ruolo relativo della nucleazione indotta dalla densità ionica può quindi essere maggiore lì. Il ruolo dominante dell’acido solforico è rimasto negli anni una conclusione stabile, mentre i ruoli potenziali dei composti organici e degli ioni sono ancora fortemente dibattuti.

Nella parte II, discuterò dell’importanza potenziale della nucleazione e dei raggi cosmici galattici sui cambiamenti climatici.

Articolo originale su Realclimate.org

Traduzione di: Federico Antognazza, Riccardo Reitano

Revisione di: Simone Casadei.

Pubblicato su Climalteranti il 18/4/2009.

 

 

 

12 – Lo stato dell’Antartide: più caldo o più freddo?

Due di noi (Eric e Mike) sono co-autori di un articolo che sta uscendo questa settimana (22 gennaio 2009) su Nature. Sulla stampa non specializzata e in vari blogs sono già apparse interpretazioni fuorvianti riguardo ai nostri risultati che vogliamo stroncare sul nascere.

Il nostro studio indica che l’Antartide si è riscaldato durante gli ultimi 50 anni e in particolar modo nella sua mappa antartideparte occidentale (si veda la figura). I risultati si basano su una composizione statistica di dati di temperatura registrati da satellite e da stazioni meteorologiche. I risultati non dipendono solo dalle statistiche. Come riportato nell’articolo, queste misure sono confermate da altri dati indipendenti ottenuti da stazioni meteorologiche automatiche nonché dai nuovi risultati degli studi di Bromwich, Monaghan e altri (si veda qui il riassunto che hanno presentato all’AGU) il cui precedente articolo su JGR è stato indicato in contraddizione con i nostri dati. C’è inoltre un articolo che sta per uscire su Climate Dynamics (Goosse ed altri) che utilizza un modello di circolazione generale, basato su dati integrati (ma non quelli satellitari usati nel nostro studio), che fornisce i nostri stessi identici risultati. Inoltre, l’idea che i nostri dati possano semplicemente riflettere variazioni di temperatura nello strato di inversione vicino al suolo, può essere scartata sulla base di altri dati completamente indipendenti che mostrano come il significativo riscaldamento dell’Antartide Occidentale si estenda decisamente nella troposfera. Infine, i nostri risultati sono già stati confermati da una serie di temperature registrate all’interno della calotta di ghiaccio (un metodo del tutto indipendente) in almeno una località dell’Antartide Occidentale (Barret et al. hanno registrato lo stesso incremento di temperatura che registriamo noi, ma a partire dal 1930 anziché dal 1957; si veda in proposito il loro articolo in uscita su GRL).

Alcune cose importanti che l’articolo non riporta:

1) I nostri risultati non contraddicono gli studi precedenti che indicano come alcune zone dell’Antartide si siano raffreddate. Perchè? Perchè quegli studi erano basati su serie di dati più brevi (20-30 anni, non 50 anni) ed inoltre il raffreddamento era limitato all’Antartide Orientale. Anche i nostri risultati mostrano questo andamento, come appare chiaramente confrontando i risultati ottenuti negli ultimi 50 anni (1957-2006; questo studio) con quelli ottenuti nel periodo compreso tra il 1969 ed il 2000 (studi precedenti), riportati nella figura sotto.

2) I nostri risultati non contraddicono necessariamente l’interpretazione, ampiamente accettata, di un mappa antartide_2recente raffreddamento dell’Antartide Orientale che era stata proposta da David Thompson (Colorado State) e Susan Solomon (NOAA Aeronomy lab). In un importante articolo pubblicato su Science, questi autori hanno presentato evidenze che indicano che questo raffreddamento è legato ad un incremento nell’intensità delle correnti occidentali circumpolari che può essere ricondotto a variazioni nella stratosfera, in gran parte riconducibili alla perdita di ozono tramite reazione fotochimica. Fino agli ultimi anni ‘70 non si erano verificate sostanziali perdite di ozono ed è solo in seguito che è cominciato un raffreddamento significativo nell’Antartide Orientale.

3) Il nostro articolo non discute se il recente riscaldamento dell’Antartide possa far parte di un andamento di lungo periodo. Le carote di ghiaccio forniscono prove indipendenti che l’Antartide si sia riscaldato lungo gran parte del ventesimo secolo, tuttavia nell’Antartide Occidentale il tutto è complicato dalla forte influenza di eventi riconducibili al fenomeno del Nino. Sui nostri lavori pubblicati fino ad oggi (Schneider e Steig, PNAS) mostriamo che gli anni ’40 (specificatamente la decade 1935-1945) sono stati i più caldi del ventesimo secolo nell’Antartide Occidentale, grazie ad un riscaldamento eccezionalmente vasto avvenuto in quegli anni nella parte tropicale del Pacifico.

E allora cosa mostrano i nostri risultati? Essenzialmente che, in generale, i cambiamenti climatici in Antartide durante l’ultima parte del ventesimo secolo sono stati decisamente trascurati. È ben noto che la Penisola Antartica si è riscaldata, probabilmente durante gli ultimi 100 anni (nel 1901 si cominciarono a registrare le temperature nella sub-Antartica Isola delle Orcadi; questi dati mostrano un riscaldamento praticamente continuo). Inoltre i nostri risultati indicano che l’Antartide Orientale si è raffreddato durante gli anni ’80 e ’90 (anche se non ad una velocità statisticamente significativa). Tuttavia l’Antartide Occidentale, cui nessuno ha mai dedicato troppa attenzione (per quanto riguarda le variazioni di temperatura), si è riscaldato rapidamente almeno durante gli ultimi 50 anni.

Per il momento si è solo cominciato a tentare di capire perchè l’Antartide Occidentale si stia riscaldando. Nel nostro articolo sosteniamo che questo sarebbe dovuto sostanzialmente ad un incremento dei flussi atmosferici provenienti da nord (ovvero dalle latitudini più calde) di modo che una maggior quantità di aria calda ha raggiunto l’Antartide Occidentale. Nel linguaggio della climatologia statistica questo equivale a dire che il cosiddetto “zonal wave 3 pattern” (nota: si tratta di una particolare struttura di circolazione atmosferica) si è verificato più frequentemente (si veda Raphael, GRL 2004). Ciò che accompagna questa variazione nella circolazione atmosferica è la riduzione del ghiaccio marino nella regione interessata (se in generale il ghiaccio marino dell’Antartide è mediamente aumentato, si sono verificati probabilmente dei decrementi significativi al largo delle coste dell’Antartide Occidentale durante gli ultimi 25 anni e probabilmente anche più a lungo). Questo infatti è un processo che si autoalimenta (meno ghiaccio marino, acqua più calda, aria ascendente, pressione più bassa, più perturbazioni).

Naturalmente è ovvio chiedersi se queste variazioni nella circolazione siano semplicemente legate ad una “variabilità naturale” o se siano forzate dai cambiamenti delle concentrazioni dei gas serra in atmosfera. Senza dubbio molti studi affronteranno questo problema in seguito al nostro lavoro. Un articolo recentemente apparso su Nature Geoscience di Gilet et al. ha esaminato gli andamenti delle temperature in Antartide e nell’Artico ed ha concluso che “le variazioni di temperatura in entrambe le regioni possono essere attribuite all’azione umana”. Sfortunatamente i nostri risultati non sono arrivati in tempo utile per poter essere utilizzati in quell’articolo. Tuttavia crediamo che sia logico aggiornare quel lavoro includendo anche i nostri risultati. Attendiamo dunque la realizzazione di questo nuovo studio.

Post Scriptum) È necessario commentare se e in quale modo i nostri risultati possono influenzare le varie proiezioni modellistiche relative ai cambiamenti climatici futuri. Come discusso nell’articolo, i modelli che includono integralmente l’oceano e l’atmosfera tendono a non concordare molto bene in Antartide. Questi mostrano tutti un generale riscaldamento ma differiscono significativamente nella loro struttura spaziale. Come efficacemente riassunto in un articolo di Connolley e Bracegirdle su GRL, i modelli differiscono anche nella distribuzione del ghiaccio marino e questo comportamento risulta chiaramente legato alle diverse distribuzioni di temperatura. Queste differenze non sono necessariamente dovute al fatto che ci sia qualcosa di sbagliato nella fisica del modello (nonostante le descrizioni del ghiaccio marino variano certamente in maniera notevole da modello a modello e certamente talune sono migliori in certi modelli piuttosto che in altri) quanto piuttosto al fatto che piccole differenze nei campi di vento tra i vari modelli causano grosse differenze nelle distribuzioni spaziali del ghiaccio marino e della temperatura dell’aria. Questo significa che un’accurata proiezione delle future variazioni di temperatura in Antartide, ad una scala spaziale inferiore a quella continentale, non può che essere basata sulla media e sulle variazioni di diverse corse modellistiche, e /o sulle medie di molti modelli. Così succede che la media dei 19 modelli in AR4 fornisce dei risultati simili ai nostri, indicando un riscaldamento significativo dell’Antartide Occidentale durante gli ultimi decenni (si veda la figura 1 del lavoro di Connolley e Bracegirdl).

Articolo originale su Realclimate.org

Traduzione di: Paolo Gabrielli

Revisione di: Simone Casadei

Pubblicato su Climalteranti il: 27/1/2009

 

 

 

11 – Le sintesi e la manipolazione della temperatura del 2008

L’aspetto più interessante in merito ai dati complessi è che chiunque può descriverli con qualsiasi numero di affermazioni, ognuna delle quali può essere vera di per sé, pur portando ad interpretazioni del tutto differenti. Così possiamo stare certi che leggeremo presto che il 2008 è stato più caldo di qualsiasi anno nel 20° secolo (con l’eccezione del 1998), che questo è stato il più freddo di questo secolo (che inizia con il 2001), e che 7 o 8 dei 9 anni più caldi si sono verificati dopo il 2000. Senza dubbio assisteremo anche ad un numero di dichiarazioni che vere non sono; il 2008 non è l’anno più freddo di questa decade (lo è stato il 2000), il riscaldamento globale non si è fermato, la CO2 continua ad essere un gas serra, e la variabilità cui si assiste è prevista dai modelli climatici stessi. Dunque, il post di oggi è dedicato a scartare la montatura mediatica e a guardare piuttosto al quadro d’insieme.

Come al solito, oggi escono le medie dell’”anno meteorologico” per le temperature superficiali registrate (GISTEMP, HadCRU, NCDC). Questo periodo va da dicembre dello scorso anno fino alla fine di novembre del 2008 ed è chiamato così perché in questo modo è più facile ragionare in termini di stagioni piuttosto che seguire l’anno del calendario. L’anno può dunque essere suddiviso, usando le iniziali dei mesi, in DGF (inverno), MAM (primavera), GLA (estate) e SON (autunno). Ciò è più sensato che prendere gennaio e febbraio di un inverno e dicembre dall’inverno successivo, come si fa nel calcolo della media sul calendario solare. Ma dal momento che la correlazione tra le medie sul periodo dicembre-novembre e quelle sul periodo gennaio-dicembre è molto alta (r = 0.997), in pratica la differenza è piccola. I valori annuali sono un po’ più utili delle anomalie mensili per determinare i trends di lungo periodo, ma essi sono ancora soggetti a rumore significativo.

Linea in fondo: nelle analisi D-N 2008 GISTEMP, HadCRU e NCDC vi erano rispettivamente 0.43, 0.42 e 0.47°C in più rispetto alla linea di riferimento 1951-1980. Nell’analisi GISTEMP sia Ottobre che Novembre sono risultati abbastanza caldi (0.58°C), il primo leggermente superiore alla stima del secondo in quanto sono stati rilevati più dati. Questo mette il 2008 al nono (o ottavo) posto nella classifica degli anni caldi,ma considerata l’incertezza nelle stime, la reale posizione potrebbe essere compresa tra la sesta e la quindicesima posizione. Con un approccio più robusto, le medie degli ultimi 5 anni sono significativamente più alte rispetto a qualsiasi altra dello scorso secolo. L’ultima decade è di gran lunga la più calda registrata a livello globale. Le conclusioni di questa grande figura sono le stesse se si guarda a qualunque set di dati, sebbene i numeri effettivi siano lievemente differenti (principalmente correlati all’estrapolazione dei dati – in particolar modo nell’Artico).

Quindi cosa fare con i dati dell’ultimo anno? Come prima cosa ci aspettiamo che ci siano delle oscillazioni sul valore medio globale di temperatura. Nessun modello climatico ha mai mostrato un incremento delle temperature da un anno all’altro per il riscaldamento globale attualmente atteso. Un grosso fattore in quelle oscillazioni è rappresentato da ENSO – se si verifica un evento di El Niño caldo o un evento di La Niña fredda determina una differenza apprezzabile nelle anomalie della media globale – circa 0.1-0.2°C per gli eventi significativi. Si è verificata una significativa Niña all’inizio di quest’anno (ed è pienamente incluso nel valore medio annuale D-N), e questo ha indubbiamente giocato un ruolo nel freddo relativo di questo anno. Vale la pena sottolineare che anche il 2000 è stato caratterizzato da una Niña di una simile portata ma questa è stata notevolmente più fredda rispetto a quella di quest’ultimo anno.

ENSO è solo un fattore della variabilità annuale, non è l’unico. Esistono altre fonti sia di variabilità interna che di forzanti esterne. Le altre variazioni interne possono essere difficili da caratterizzare (non è semplice come se fosse una super-posizione di tutti gli acronimi climatici che abbiate sentito come NAO+SAM+PDO+AMO+MJO ecc), ma le forzanti (naturali) esterne sono un po’ più semplici. Le due fonti principali sono la variabilità vulcanica e la forzante solare. Non ci sono state eruzioni vulcaniche significative da un punto di vista climatico dal 1991, e quindi questo non è un fattore. Ad ogni modo, siamo in coincidenza di un minimo solare. Gli impatti del ciclo solare sulla registrazione della temperatura della superficie non sono unanimemente riconosciuti, ma possono raggiungere una variazione pari a 0.1 ºC dal minimo solare al massimo solare, con un ritardo di un anno o due. Quindi per il 2008 ci si potrebbe aspettare una deviazione sotto il trend (la differenza tra la media solare e il minimo solare, ed aspettarsi che l’impatto non sia ancora pienamente percepito) fino a 0.05 ºC. Non un segnale molto grande, e non in grado di spostare le posizioni della classifica in maniera significativa.

Ci sono state alcune infervorate argomentazioni, prima di quest’anno, che sostenevano che “tutto il riscaldamento globale è stato cancellato” dall’anomalia legata alla Niña. Questo è sempre stato ridicolo e adesso che la maggior parte di questa anomalia è passata, non stiamo trattenendo il respiro aspettando che le solite fonti titolino “il riscaldamento globale adesso è tornato”.

In una prospettiva più lunga, i trends delle medie degli ultimi 30 anni non sono molto influenzati da un singolo anno (GISTEMP: 1978-2007 0.17+/-0.04ºC/decade; 1979-2008 0.16+/-0.04 – OLS trends, dati annuali, 95% di intervallo di confidenza, nessuna correzione per l’auto-correlazione; identico per HadCRU); continuano ad essere saldamente in rialzo. Le proiezioni dello scenario B di Hansen et al 1988 sono allo stesso modo poco influenzate (GISTEMP 1984-2008 0.19+/-0.05 (LO-index) 0.22+/-0.07 (Met-station index); HansenB 1984-2008 0.25+/-0.05 ºC/decade) – le proiezioni risultano di poco più calde di quanto ci si possa attendere dato il leggero incremento (~10%) della forzante nella proiezione rispetto a quanto accaduto nella realtà. I dati di quest’anno non cambiano quindi di molto le nostre aspettative.

In conclusione, come discusso in precedenza, quello che i modelli climatici hanno o non hanno previsto lo possiamo vedere tutti. Nonostante i molteplici avvertimenti sull’uso dei cambiamenti a breve termine per trarre conclusioni sulla tendenza a lungo termine, questi confronti verranno ancora fatti.
Quindi, giusto per divertimento, ecco un confronto delle osservazioni con le proiezioni del modello dal 1999 al 2008 usando il 1999 come riferimento. Il risultato potrebbe essere sorprendente per alcuni:

andamenti T vari modelli

Si possono ottenere grafici leggermente differenti facendo variare l’anno di partenza, quindi non si tratta di qualcosa di assoluto. Scegliere un singolo anno come punto di partenza é piuttosto soggettivo e porta l’aspetto visivo a variare, mentre guardare gli andamenti nel complesso é piú consistente.
In ogni caso, il grafico mostra che nei modelli, come nei dati, alcuni anni risulteranno sopra il trend e altri al di sotto. Chiunque si sorprenda di questo si puó considerare solo ingenuo o…beh, lo sapete.

Riguardo ai prossimi anni, le nostre aspettative non sono molto cambiate. E’ previsto che l’inverno che arriva sia ENSO-neutrale, quindi su questa base di partenza ci si aspetterebbe un prossimo anno piú caldo di questo (anche se probabilmente non andrá oltre il primato).
Tralasciando la possibilitá di eruzioni vulcaniche notevoli, non vedo ragioni per cui le tendenze decennali dovrebbero distanziarsi dalla previsione di ~0.2oC/decade.

Update: per vostra informazione, lo stesso grafico come sopra, con il 1990 e il 1979 come riferimenti.

Articolo originale su Realclimate.com

Traduzione di: Federico Antognazza, Emanuele Eccel, Fabio Sferra, Lighea Speziale

Revisione di: Simone Casadei

Pubblicato su Climalteranti il: 7/1/2009

 

 

8 – Attenzione alla differenza!

Continua la confusione sui trends delle temperature mondiali: il concetto, erroneo, che “l’effetto serra si è fermato” continua a vivere nella mente di alcune persone. Abbiamo già discusso i motivi per cui questa argomentazione presenti alcuni difetti. Allora come mai non li abbiamo convinti?

Il cardine di questa confusione ha inizio nel dataset HadCRUT 3V, che è solo una tra le numerose stime dei dati sul riscaldamento globale, che indica il minimo cambiamento nell’ultimo decennio. Altre analisi sulle temperature, invece suggeriscono un riscaldamento del pianeta ben più marcato. Quindi, potremmo pensare che il dataset HadCRUT 3V rappresenti la stima più bassa, sempre che un riscaldamento globale possa essere definito in un così limitato arco temporale.

Un confronto con altri dataset di temperatura come il NASA/GISS (in rosa nella figura a sinistra), rivela alcune differenze. Inoltre è possibile fare dei confronti con dei dati generati da un modello (ri-analisi), tenendo però presente che bisogna essere molto cauti con questi dati, dal momento che non sono appropriati per studi sul cambiamento climatico di lungo periodo (in quanto forniscono una alterazione dei trends, per lo meno a livello locale). Ad ogni modo, le informazioni che abbiamo raccolto da dataset indipendenti indicano un aumento delle temperature medie globali anche al di là dell’ultimo decennio.

Tutte le questioni scientifiche hanno a che fare con un certo livello di incertezza (barre di errore), e questa può essere ridotta solo se si riesce a provare che è stata influenzata da un fattore esterno (contaminazione) o se alcuni dati non sono rappresentativi per lo studio in questione. Quindi se alcuni dati non sono corretti, è giusto escluderli in modo da ridurre le barre di errore. Questo però richiede una prova solida e convincente di una rappresentazione fuorviante della realtà da parte dei dati, e non si possono prendere le stime più basse e sostenere che rappresentino il valore più elevato senza provare che tutti i dati con valori più alti siano sbagliati. In altre parole, considerare le stime più basse ed utilizzarle come limite massimo non ha assolutamente alcun senso (sebbene alcuni che si dichiarano “statistici” abbiano fatto questo errore!).

Un altro aspetto è che alcuni dataset – come i dati forniti dal Climate Research Unit (CRU) – hanno una copertura incompleta con molte lacune nella zona Artica, dove altri dati suggeriscono invece i più forti aumenti della temperatura. La figura qui sotto mostra queste lacune nella disponibilità dei dati, facendo un confronto tra il dataset HadCRUT 3V e la ri-analisi NCEP.

Didascalia della figura: differenza fra la temperatura media del periodo Ottobre ’07 – Settembre ’08 e la temperatura media del periodo 1961-1990 secondo il dataset HadCRUT 3V (in alto a sinistra) e la ri-analisi NCEP (in alto a destra). Di seguito è riportato un confronto dell’evoluzione della temperatura media sui 12 mesi, latitudine compresa tra 60N-90N (in rosso= NCEP; in nero= HadCRUT).

I dati di ri-analisi sono i risultati di modelli atmosferici dove i dati osservati sono stati inseriti nei modelli e usati per correggere la simulazione, in modo da provare ad ottenere la miglior possibile descrizione dell’atmosfera reale. Tuttavia è importante notare che la ri-analisi NCEP ed altre ri-analisi (ad esempio ERA40) non sono considerate adatte per lo studio dei trends, a causa dei cambiamenti nei sistemi di osservazione (nuovi satelliti ecc.). Tuttavia un confronto tra le ri-analisi e le osservazioni può far emergere alcune differenze che possono suggerire dove andare a cercare i problemi.

Didascalia della figura: la figura animata mostra la differenza di temperatura tra i due periodi di 5 anni, 1999-2003 e 2004-2008. Tali risultati non mostrano le tendenze a lungo termine, ma è un dato di fatto che si sono registrate temperature elevate nell’artico nel corso degli anni recenti.
Il recente riscaldamento dell’Artico è visibile nel grafico animato a destra che mostra la differenza della temperatura media delle ri-analisi NCEP tra i periodi 2004-2008 e 1999-2003.

Il report NOAA sull’Artico era basato sul data set CRUTEM 3v (vedi figura sotto) che esclude le temperature sopra l’oceano – mostrando perciò persino una figura ancor meno completa delle temperature nell’Artico. i numeri che ho ottenuto suggeriscono che più dell’80% dei singoli domini di griglia posti a nord del 60 parallelo contengono valori mancanti riguardo l’ultima decade.

Didascalia della figura: differenza tra le temperature medie del periodo novembre 2007 – ottobre 2008 e la temperatura media stimata da CRUTEM 3v (in alto a sinistra) e la rianalisi NCEP (in alto a destra) per il periodo 1961-1990. Sotto è riportato il confronto dell’andamento della temperatura media sui 12 mesi tra le latitudini 60N e 90N.

Comunque la cosa divertente è che le temperature dell’Artico nell’ultimo decennio stimate da CRUTEM 3v sono più vicine alle stime corrispondenti dalle ri-analisi NCEP rispetto ai dati più completi di HadCRUT 3v.
Questo può essere una coincidenza. Le ri-analisi utilizzano dati addizionali per completare i dati mancanti – es. misure da satellite e previsioni basate sulle leggi della fisica. Perciò, la temperatura in aree prive di osservazioni è in teoria fisicamente consistente con le temperature vicine e con lo stato dell’atmosfera (circolazione atmosferica).

La figura sotto mostra un simile confronto tra HadCRUT3v e GISTEMP (fonte NASA/GISS). Quest’ultimo fornisce una rappresentazione dell’Artico più completa considerando una correlazione spaziale condotta attraverso un’ estrapolazione/interpolazione nello spazio. Ma GISTEMP non possiede davvero una migliore base empirica nell’Artico, ma l’effetto dall’estrapolazione (mediante l’inserimento di valori in corrispondenza dei dati mancanti) fornisce maggior peso alle recenti temperature più alte nell’Artico.

Didascalia della figura: l’anomalia della temperatura media del 2007 a confronto con la media 1961-1990: (in alto a sinistra) HadCRUT3v, (in alto a destra) GISTEMP, e (in basso) l’evoluzione della temperatura per l’Artico (GISTEMP in rosso, HadCRUT 3v in nero).

Un confronto tra le temperature sul periodo di 30 anni disponibile più recente (1978-2007) mostra elevate temperature su parti della Russia (figura sotto – pannello in altro a sinistra), e la differenza tra i dati GISTEMP e HadCRUT 3v mostra un buon accordo eccetto che per il circolo polare Artico e in qualche settore marino (pannello in alto a destra). L’evoluzione temporale della media nell’emisfero boreale per i due set di dati è mostrata nel pannello più in basso, mostrando un buon accordo sulla maggior parte del periodo, ma le stime rilevate attraverso GISTEMP negli ultimi 10 anni sono leggermente più elevate (il valore medio globale non è stato mostrato in quanto il mio computer non possiede sufficiente memoria per un’analisi completa, ma i due set di dati mostrano simili andamenti nel AR4 dell’IPCC).

Didascalia della figura: (in alto a sinistra) anomalia media rilevata dal data set HadCRUT 3V T(2m) nel periodo 1976 – 2005 (wrt to 1950 -1980); in alto a destra la differenza GISS –HadCRUT 3V in media nel periodo 1976 – 2005 e, in basso, le variazioni delle medie delle temperature nell’emisfero nord (rosso=GISTEMP, nero =HadCRUT 3v).

Da notare che la scarsa estensione dei ghiacci della calotta artica durante le scorse estati è una prova evidente delle alte temperature in quelle regioni.

L’insufficiente copertura di osservazioni è stata rilevata dall’AR4 dell’ IPCC e da Gillet et al. (Nature Geoscience, 2008), i quali affermano che il riscaldamento osservato nell’Artico e nell’Antartico non sono coerenti con la variabilità climatica interna e le sole forzanti naturali ma sono direttamente imputabili all’aumento dei livelli dei gas ad effetto serra.

Hanno fatto presente anche che il riscaldamento alle latitudini polari è probabile che abbia impatti misurabili sull’ecologia e sulla società (ad esempio).

Nel loro studio, ci sono almeno 15 domini della griglia con dati validi (ogni dominio solitamente rappresenta una misura) durante il periodo 1900 – 2008. In aggiunta a ciò le sole osservazioni valide che hanno usato dell’Emisfero Nord venivano dai confini dell’Artico, ben lontane dal centro stesso dell’Artico. La situazione è un po’ migliore per l’Antartico (con un’osservazione vicino al Polo Sud). Nondimeno, il titolo “Attribuzione del riscaldamento ai poli all’attività umana” (l’ho enfatizzato io) è un po’ ingannevole. Ciò è vero per alcune zone alle alte latitudini ma ai poli no.

Lo studio di valutazione del contributo dell’attività umana al riscaldamento dei poli era basato su serie di temperature mediate sui 5 anni e a estensioni spaziali mediamente corrispondenti a settori di 90° (cioè a quattro differenti settori); i settori e i periodi con dati invalidi non venivano considerati.

Ci sono alcune limitazioni nel loro studio: i Global Climate Models (GCMs) non riproducono molto bene il periodo caldo a cavallo del decennio 1930 – 1940 nell’Artico, e le differenze geografiche, in un numero limitato di domini della griglia delle osservazioni, possono essere state cancellate nel GCMs considerando il valore medio nei settori di 90°.

Il riscaldamento dell’Artico nel decennio 1930 – 1940 probabilmente non è stato forzato esternamente, ma ci si potrebbe anche chiedere se i modelli non siano stati in grado di considerare tutte le variazioni interne perché pochi modelli riproducono simili caratteristiche. Inoltre, gli attuali GCMs hanno presentato dei problemi per quanto concerne la rappresentazione delle caratteristiche del ghiaccio artico (che tende ad essere troppo esteso), del contenuto di calore dell’oceano e mancano di considerare la continua diminuzione dell’estensione del ghiaccio artico stesso. La maggior parte di questi problemi si presentano nella differenza con tutti i dati che non siano CRUTEM 3v ma ci sono anche alcune incertezze associate alla mancanza di dati nelle regioni polari.

L’analisi campione ottimale poggia sull’assunzione che le simulazioni di controllo con i GMC riproducano in maniera realistica la variabilità climatica. Penso che i GCM facciano un buon lavoro per la maggior parte del pianeta, ma ricerche indipendenti suggeriscono l’esistenza di problemi locali nell’Artico dovuti ad una cattiva rappresentazione dell’estensione della banchisa. Ciò potrebbe non aver inficiato molto l’analisi, se il problema fosse limitato all’alto Artico. Inoltre, i risultati hanno suggerito una corrispondenza uno a uno nei trends tra simulazioni e le osservazioni, ma l’analisi ha mostrato un coefficiente di regressione di 2-4 per le forzanti naturali. Ciò mi suggerisce che possono esserci problemi con l’analisi o con i GCM.

Probabilmente questa non è l’ultima parola sulla questione. Perlomeno, non sono ancora convinto sull’attribuzione. Il tutto si riduce ad un’insufficienza di dati empirici (vale a dire le osservazioni), alle limitazioni dei GCM alle alte latitudini e a mancanze troppo grandi nei dati. Ma i cambiamenti dichiarati nell’Artico sono in accordo con la teoria AGW . L’ironia sembra sia che il mondo reale mostra segni di cambiamenti più drammatici di quanto previsto dai GCM, specialmente se si considera l’estensione della banchisa.

La mancanza di dati nella regione polare è un problema e la campagna dell’Anno Polare Internazionale (IPY – International Polar Year), attualmente in corso, costituisce un enorme sforzo internazionale concertato per migliorare i dati. I dati sono insostituibili, indipendentemente dalle potenzialità del modello, poiché la scienza richiede che la teoria sia provata con dati empirici indipendenti. Le ri-analisi forniscono una descrizione dell’atmosfera fisicamente consistente – suggerendo alte temperature nell’Artico – ma potremo essere sicuri di questo soltanto quando saremo stati effettivamente sul campo e avremo condotto delle misurazioni reali (alcune possono essere fatte anche via satellite).

Articolo originale su RealClimate.org
Traduzione di: Federico Antognazza, Riccardo Mancioli, Tania Molteni, Fabio Sferra
Revisione di: Simone Casadei

Pubblicato su Climalteranti il: 30/11/2008

5 responses so far

5 Responses to “Buon 35° compleanno, riscaldamento globale!”

  1. NoWayOuton Set 24th 2010 at 08:28

    Che dire, un tuffo nel passato. Un passato in cui, semplici calcoli e ipotesi alla mano, si scrivevano articoli convincenti. Si potebbe andare ancora piu’ indietro, ma il messaggio e’ gia’ chiaro: i sofismi, i dettagli, le conclamate incertezze, gli aspetti ancora poco noti, etc., sono solo un pretesto. Per noi non scienziati d’avanguardia, senza tante storie e tanti fronzoli il discorso e’ semplice (e valido): giratela come volete ma emettiamo una enormita’ di CO2, il pianeta si scalda e bisogna fermarlo. Se il motore scalda troppo ci lascia a piedi, meglio non dimenticarlo.

  2. Antonioon Set 24th 2010 at 11:20

    Si, il post è bello proprio perchè mostra come le cose basilari erano già chiare 35 anni fa
    I dettagli sono si importanti, ma non cambiano la sostanza.
    Sotto questa luce molte polemiche recenti trovano la loro giusta dimensione, di diversivi…

  3. Gianfrancoon Set 28th 2010 at 10:38

    Sarebbe ora che l’Accademia delle Scienze di Svezia conferisse il Premio Nobel a personaggi come Broecker o Hansen.
    Incidentalmente ve la immaginate la faccia di Zichichi? corre a buttarsi nell’Etna come Empedocle…

  4. […] Riferimento: Global Warming e dintorni: dati e analisi Certo che il movimento dell’antropogenic global warming, i modelli previsionali IPCC……hanno in questi ultimi anni contribuito a seminare i germi di un fiorente impegno per la ricerca scientifica e la passione amatoriale climatologica. Un capolavoro strategico….finalmente porre il clima al centro delle priorit

  5. […] dati di base, alcune tendenze sono indiscutibili ( aumento dei gas climalteranti in atmosfera, aumento delle temperature, riduzione dei ghiacci, […]

Translate