Notizie e approfondimenti sul clima che cambiaPosts RSS Comments RSS

RealClimate US tradotto in italiano

-

Climalteranti traduce e pubblica i post di RealClimate US di maggiore interesse per il dibattito italiano.

Chi volesse segnalare la propria disponibilità a collaborare alle traduzioni può inviare una mail a segreteria@climalteranti.it

-

INDICE:

42 – L’inevitabilità dell’innalzamento del livello del mare

41Il riscaldamento globale è arrivato anche in Antartide Occidentale

40 - Le metriche degli eventi estremi 

39 - Tanto rumore per… il metano

38 – Riscaldamento globale e contenuto di calore degli oceani

37 – La fusione dei ghiacci in Groenlandia

36 – Un inverno freddo in un mondo che si sta scaldando?

35 – Buon 35° compleanno, riscaldamento globale!

34 – A conclusione del 4° Anno Polare Internazionale

33 – Aggiornamenti sull’accumulo di calore negli oceani

32 – Il metano artico in movimento?

31 – SEALEVELGATE

30 – L’IPCC non è infallibile (incredibile!)

29 – Aggiornamenti dei confronti tra i dati modellistici

28 – Hey Ya! (mal)

27 – Servizi climatici

26 – La soluzione delle dispute tecniche in ambito scientifico

25 – Altre leggerezze

24 – Un avvertimento da Copenhagen

23 – Sull’ Over-fitting

22 – ACRIM vs PMOD

21 – Gli effetti degli Aerosol e il clima, seconda parte: il ruolo della nucleazione e dei raggi cosmici

20 – La formazione degli Aerosol e il clima, prima parte

19 – Con tutto il dovuto rispetto

18 – Il tempo di risposta tra temperatura e CO2. (Gore l’ha azzeccato)

17 – Consiglio per un giovane blogger del clima

16 – Incendi e calore estremo nell’Australia sudorientale

15 – Irreversibile non significa inarrestabile

14 – Un aggiornamento dell’indice globale dei ghiacciai

13 – Il mare raggiungerà “I livelli dell’ultima era glaciale”

12 – Lo stato dell’Antartide: più caldo o più freddo?

11 – Le sintesi e la manipolazione della temperatura del 2008

10 – Buchi dell’ozono e raggi cosmici

9 – Il report “Non IPCC

8 – Attenzione alla differenza!

7 – Greenspan, Einstein e Reich

6 – Ancora i trends troposferici tropicali (ancora)

5 – Palin sul riscaldamento globale

4 – Quanto aumenterà il livello del mare?

3 – La scommessa sul raffreddamento globale – II parte

2 – Cosa dicono realmente i modelli dell‘IPCC

1 – Raffreddamento Globale – scommettiamo?

 

-

-

-

-

-

-

34 – A conclusione del 4° Anno Polare Internazionale

Questa settimana si è tenuta a Lillestrøm, appena fuori Oslo, la “Oslo Science Conference” la più grande conferenza di sempre, dicono gli organizzatori, sulle scienze polari. Vale la pena guardare alcune delle registrazioni online, e personalmente ho trovato la presentazione di David Barber (“On Thin Ice: The Arctic and Climate Change”, qui il link al video) affascinante ma anche un po’ allarmante.

Le tempeste e la neve influenzano la crescita del ghiaccio marino poiché uno strato di neve su di esso lo isola dall’atmosfera, più fredda, e ne impedisce la crescita. I venti e la massa aggiunta possono portarlo alla rottura, cosicché la quantità di ghiaccio pluriennale è minore di quanto ci si aspetti; il ghiaccio si è degradato e frantumato. Una missione su un rompighiaccio canadese sembra sia riuscita a rompere lastre di ghiaccio molto più spesse di quanto si pensasse grazie alla maggior debolezza del ghiaccio. Fanno anche parte di questa storia le più recenti inversioni del Beaufort Gyre, l’insolita risacca, e il ghiaccio recente sopra i blocchi di ghiaccio più vecchio che ha fatto credere ai satelliti che ci sia più ghiaccio pluriennale che nella realtà. Nel frattempo al NSIDC danno un ghiaccio marino stagionale sotto tono.

Il messaggio principale che ho portato a casa dalla Conferenza è che il ghiaccio marino è più importante di quanto credessi in precedenza. Sembra più chiaro ora che gioca un ruolo nell’amplificazione artica, cosa che ormai sta davvero emergendo.

C’è chi sostiene che la riduzione del ghiaccio marino possa spiegare gli inverni freddi nell’emisfero nord, ma non ne sono ancora convinto. Gli inverni freddi sono dovuti ad una Oscillazione Artica debole, e quindi allo spostamento di masse d’aria che portano aria fredda polare verso sud, e nelle regioni polari questa aria viene sostituita da aria più mite. Quindi, un cambiamento del regime dei venti e temperature più miti possono favorire la riduzione del ghiaccio marino.

Il ghiaccio marino antartico è in media aumentato negli ultimi 30 anni, ma non dappertutto. Sia il generale aumento in Antartico orientale che la cospicua diminuzione in Antartico occidentale vengono attribuite al buco dell’ozono e ai corrispondenti cambiamenti nell’Oscillazione Antartica, sebbene ciò probabilmente non spiega cosa stia succedendo in inverno. In Antartico non è stato osservato alcun chiaro segno di amplificazione polare, tipo quello visto in Artico, e una spiegazione per questo potrebbe essere che il continente Antartico possiede una copertura di ghiaccio con una enorme inerzia termica. Ma i dati dalle carote di ghiaccio mostrano che in passato l’amplificazione polare e’ stata presente pure lì. Ciononostante, nell’emisfero nord l’Artico è caratterizzato da un oceano polare con ghiaccio marino in diminuzione. In entrambi i casi, i cambiamenti nelle masse d’aria e nei venti sono importanti a livello di variabilità interannuale e interdecadale, e per spiegare gli inverni freddi in Eurasia e il ghiaccio marino intorno all’Antartide.

.

Articolo originale su Realclimate.org

Traduzione di Riccardo Reitano, revisione di Simone Casadei.

Pubblicato su Climalteranti il 23/06/2010.

-

-

-

-

-

-

-

-

33 – Aggiornamenti sull’accumulo di calore negli oceani

E’ uscito un nuovo articolo su Nature di questa settimana sul trend recente del contenuto termico oceanico scritto da un numeroso gruppo di oceanografi guidati da John Lyman del PMEL. Il loro obiettivo è l’incertezza che circonda i vari tentativi di creare un insieme di dati omogeneizzati sul contenuto termico oceanico che affronti opportunamente i vari cambiamenti di strumenti e i bias di copertura che hanno afflitto i tentativi precedenti.

Abbiamo discusso questo tema diverse volte per l’importanza che riveste nel diagnosticare lo squilibrio radiativo a lungo termine dell’atmosfera. Essenzialmente, se c’è stata più energia in arrivo al limite dell’atmosfera di quella in uscita, deve essere andata da qualche parte – e questo “qualche parte” è essenzialmente l’oceano. (Altri serbatoi per questa energia, come la superficie della terra o lo scioglimento del ghiacci sono molto più piccoli e possono in gran parte essere trascurati).

Il problema principale è stato che nel tempo la rete di sonde XBT e i lanci di CTD sono stati sostituiti dalla rete di sonde flottanti ARGO che ha una migliore copertura e una strumentazione più omogenea. Tuttavia, mettere assieme la vecchia e la nuova rete e trattare i bias specifici delle sonde XBT è difficile. Una XBT (eXpendable Bathy-Thermograph) è una sonda che viene lanciata dalle navi le cui letture delle temperature in funzione del tempo vengono trasformate in un profilo in profondità sulla base della conoscenza su quanto velocemente la sonda affonda. Sfortunatamente, questa relazione è complicata e dipende dalla temperatura dell’acqua, dalla profondità, dal produttore della sonda, etc. Diversi gruppi – lavorando sugli stessi dati grezzi – che nelle XBT erano presenti bias associati ad una scorretta calibrazione e hanno tentato di fare correzioni migliori.

L’ultimo articolo è un tentativo per far convergere il consenso di molte delle persone coinvolte nel lavoro precedente e mostra quanto sia stato intenso il riscaldamento dell’oceano degli ultimi decenni. Infatti, la ‘miglior stima’ dei cambiamenti nei primi 700m sembra consistere in un riscaldamento maggiore di quello previsto dai dati NODC e persino maggiore di quello che i modelli stavano suggerendo:
E’ interessante notare che la variabilità interannuale – in particolare nella fase di transizione tra i due sistemi di osservazione (diciamo 1995-2005) – dipende molto dal modo esatto in cui si fanno le correzioni, mentre il trend a più lungo termine è solido.

Tutto ciò si lega direttamente ai commenti di Kevin Trenberth in questo recente articolo e in un commento di accompagnamento all’articolo di Lyman che, mentre i cambiamenti del bilancio energetico nel lungo termine sono spiegabili, i cambiamenti di breve periodo sono ancora estremamente difficili da quantificare.

Come sempre, è improbabile che questa sia l’ultima parola sull’argomento, ma è un’ulteriore prova che il pianeta fondamentalmente si sta comportando proprio secondo quanto pensano gli scienziati. Il che non è necessariamente una buona notizia.

.

Articolo originale su Realclimate.org

Traduzione di Riccardo Reitano e Daniela Zecca, revisione di Simone Casadei.

Pubblicato su Climalteranti il 16/06/2010.

-

 

-

-

-

 

 

 

 

32 – Il metano artico in movimento?

Il metano è come l’ala radicale del ciclo del carbonio, nell’atmosfera di oggi è un gas serra più potente, per molecola, della CO2, e ha una concentrazione atmosferica che può cambiare più rapidamente di quanto possa quella della CO2. E’ stato dato un copertura notevole risalto sui giornali ad un nuovo articolo pubblicato su Science questa settimana dal titolo “Estesa fuoriuscita di metano in atmosfera dai sedimenti della piattaforma artica Siberiana orientale“, che arriva sulla scia di una manciata di articoli correlati tra loro sul metano nell’ultimo anno o giù di lì. E’ giunto il momento di aver paura?

No. C’è abbastanza CO2 di cui aver paura, mentre il metano è la ciliegina sulla torta. Immagina di essere in autostrada su un auto a 60 miglia l’ora e ti stai avvicinando al traffico bloccato, e ti accorgi che il pedale del freno è rotto. Questa è la CO2. Poi ti accorgi che anche l’acceleratore è bloccato, così che quando urter5ai il camion davanti a te starai andando a 90 miglia l’ora invece che a 60. Questo è il metano. E’ questo il momento di preoccuparsi? No, ti saresti già da preoccupare per ill pedale del freno rotto. Il metano fa vendere giornali, ma non è il grosso della storia, nè sembra in grado di cambiare le regole del gioco della questione più grossa, che è la CO2.

[Le velocità riportate dell’auto riflettono le forzanti radiative relative di metano e CO2 antropogenici. David]

Per un quadro generale sugli idrati di metano vi rimandiamo a questo riferimento. L’articolo su Science di questa settimana è di Shakhova et al., il seguito di un articolo del 2005 su GRL. L’osservazione del 2005 una consisteva in elevate concentrazioni di metano nelle acque dell’oceano della piattaforma Siberiana, presumibilmente causate dalla emissione di gas dai sedimenti causava causa a sua volta di un eccesso di metano in atmosfera. Il nuovo articolo aggiunge le osservazioni di picchi di metano in aria sopra l’acqua, confermando la fuoriuscita di metano dalla colonna d’acqua, invece di essere ossidato in CO2 in acqua, ad esempio. I nuovi dati consentono di quantificare il flusso di metano in atmosfera da questa regione, a trovano che questa regione compete con il flusso di metano da tutto il resto degli oceani.

Ciò che manca in questi stessi studi è una prova che il rilascio di gas dalla piattaforma siberiana sia un fenomeno nuovo, un feedback climatico, piuttosto che semplicemente un fenomeno “nature-as-usual”, determinato dalla ritirata di permafrost sommerso residuo, rimasto dall’ultima era glaciale. Comunque, altri articoli recenti domanda affrontano l’argomento.

Westbrook et al 2009 hanno pubblicato immagini sonar sbalorditive di pennacchi diffusivi di bolle provenienti da sedimenti al largo delle Spitzbergen, in Norvegia. Le bolle stanno salendo da una linea sul fondo marino che corrisponde al limite della stabilità dell’idrato di metano, un limite che in una colonna d’acqua in via di riscaldamento ritirerebbe tenderebbe ad alzarsi verso la superficie dell’acqua. Uno studio modellistico di Reagan e Moridis del 2009 supporta l’idea che le bolle osservate possano essere una risposta al riscaldamento osservato della colonna d’acqua, determinato dal riscaldamento antropogenico del clima.

Un altro articolo recente, di Dlugokencky et al. 2009, descrive un incremento nella concentrazione di metano nell’aria nel 2007, e cerca di capire da cosa sia originato. Le concentrazioni atmosferiche di metano sono aumentate dal livello preantropogenico fino a circa l’anno 1993, a quel punto si sono improvvisamente stabilizzate. Il metano è un gas dal tempo di residenza in atmosfera basso, quindi dovrebbe stabilizzarsi se il flusso emissivo fosse costante, ma la forma della curva di concentrazione suggeriva una repentina diminuzione del tasso di emissione, derivante dal collasso dell’attività economica nell’ex blocco sovietico, o dal prosciugamento delle zone umide, o qualsiasi delle diverse spiegazioni proposte e irrisolte.

(Forse nel Sud Dakota dovrebbe passare una legge che affermi che il metano è influenzato dall’astrologia!). Un precedente incremento della concentrazione di metano nel 1998 potrebbe essere spiegato tramite l’effetto di El Nino sulle zone umide, ma l’incremento nel 2007 non è così semplice da spiegare. La concentrazione è rimasta stabile nel 2008, il che significa almeno che la variabilità interannuale è importante nel ciclo del metano e rende difficile poter dire se il tasso emissivo medio di lungo periodo stia aumentando in un modo che possa essere in accordo con una nuova retroazione del carbonio.

In ogni caso, fino ad ora è al massimo un feedback molto piccolo. Il Margine Siberiano è del confrontabile con il resto del mondo per importanza come sorgente di metano, ma la sorgente oceanica è complessivamente molto più piccola della sorgente terrestre. La gran parte del metano in atmosfera proviene dalle zone umide, naturali e artificiali associate all’agricoltura del riso. L’oceano è la patata piccola, e c’è sufficiente incertezza nel bilancio del metano per far rientrare degli aggiustamenti nelle sorgenti senza stravolgere granchè i carri delle mele.

Potrebbe essere questo solo l’inizio di ciò che diventerà un enorme feedback di carbonio in futuro? E’ possibile, ma è necessario tenere due cose a mente. Una è che non c’è ragione di fissarsi con il metano in particolare. Il metano è un gas dal basso tempo di residenza in atmosfera , mentre la CO2 essenzialmente si accumula nel ciclo del carbonio atmosfera/oceano, cosicchè alla fine la forzante climatica per l’accumulo della CO2 formata dall’ossidazione del metano può essere altrettanto importante della concentrazione “transitoria” dello stesso metano. L’altra cosa da ricordare è che non c’e’ ragione di fissarsi con gli idrati di metano in particolare, in contrasto al carbonio immagazzinato nelle torbe del permafrost Artico ad esempio. Ci vuole tempo affinchè le torbe si degradino ma pure per gli idrati ci vuole tempo per sciogliersi, essendo limitati dal trasporto di calore. In genere non esplodono improvvisamente.
Per cambiare le carte in tavola nel futuro del clima terrestre, il metano dovrebbe degassare in atmosfera in modo catastrofico, in una scala dei tempi che sia più rapida della vita media decennale del metano in aria. Fino ad ora nessuno ha mai visto o proposto un meccanismo che possa fare in modo che ciò accada.

References
Dlugokencky et al., Observational constraints on recent increases in the atmospheric CH4 burden. GEOPHYSICAL RESEARCH LETTERS, VOL. 36, L18803, doi:10.1029/2009GL039780, 2009
Reagan, M. and G. Moridis, Large-scale simulation of methane hydrate dissociation along the West Spitsbergen Margin, GEOPHYSICAL RESEARCH LETTERS, VOL. 36, L23612, doi:10.1029/2009GL041332, 2009
Shakhova et al., Extensive Methane Venting to the Atmosphere from Sediments of the East Siberian Arctic Shelf, Science 237: 1246-1250, 2010
Shakhova et al., The distribution of methane on the Siberian Arctic shelves: Implications for the marine methane cycle, GEOPHYSICAL RESEARCH LETTERS, VOL. 32, L09601, doi:10.1029/2005GL022751, 2005
Westbrook, G., et al, Escape of methane gas from the seabed along the West Spitsbergen continental margin, GEOPHYSICAL RESEARCH LETTERS, VOL. 36, L15608, doi:10.1029/2009GL039191, 2009

.

Articolo originale su Realclimate.org

Traduzione di: Tania Molteni e Riccardo Reitano.

Pubblicato su Climalteranti il 16/03/2010.

-

31 – SEALEVELGATE

Immaginate la situazione seguente. Nell’ultimo report dell’IPCC vengono previsti fino a 3 metri di innalzamento del livello dei mari entro la fine del secolo. Ma i siti web degli scettici mettono in luce alcune incongruenze (o “trucchi”, per usare le loro stesse parole).
Per prima cosa, sebbene le proiezioni dell’ IPCC sulle temperature forniscano un riscaldamento massimo di 6.4 °C (Tab. SPM3), il limite superiore dell’innalzamento dei mari e’ stato calcolato assumendo un riscaldamento di 7.6 °C.
In secondo luogo, l’IPCC ha scelto di calcolare l’andamento del sea-level fino all’anno 2105, invece del 2100 – tanto per aggiungere un po’ piu’ di allarmismo. Peggio ancora, il report IPCC mostra che negli ultimi 40 anni il livello dei mari si e’ innalzato di circa il 50% in meno rispetto a quanto previsto dai suoi modelli – cionondimeno, quegli stessi stessi modelli vengono utilizzati per fare delle proiezioni sul futuro!
Infine, le medesime proiezioni assumono un massiccio decremento della copertura dei ghiacci, in contrasto con quanto osservato nel passato.
Nonostante alcuni scienziati all’interno dell’IPCC abbiano segnalato per tempo come tutto questo possa condurre ad un problema di credibilita’, l’IPCC ha deciso di andare avanti in ogni caso.

Adesso la blogosfera ed i suoi megafoni mediatici stanno affilando le lame: teste dovranno cadere!

Impensabile? Gia’. Sono certo che l’IPCC non farebbe mai nulla di simile.
Ecco come sono andate le cose, in realta’.

Nell’ultimo report, l’IPCC ha previsto fino ad un massimo di 59 cm di innalzamento del livello dei mari, entro la fine del secolo. Ma RC ha subito evidenziato alcuni problemi nel merito.

Per prima cosa, sebbene le proiezioni dell’ IPCC sulle temperature forniscano un riscaldamento massimo di 6.4 oC, il limite superiore dell’innalzamento dei mari e’ stato calcolato assumendo un riscaldamento di soli 5.2 oC. – con una conseguente riduzione della stima finale di circa 15 cm.
In secondo luogo, l’IPCC ha scelto di calcolare l’andamento del sea-level fino all’anno 2095, invece del 2100 – tanto per tagliare via altri 5 cm. Ma la cosa peggiore e’ che il report dell’IPCC
mostra come negli ultimi 40 anni il livello dei mari sia in realta’ aumentato del 50% in piu’ rispetto a quanto stimato dai suoi stessi modelli – ciononostante, quegli stessi modelli vengono utlizzati per fare proiezioni sul futuro! E inine, tali proiezioni assumono che la copertura del ghiaccio antartico sia aumentata, determinando quindi un abbassamento del livello del mare, in contrasto con quanto osservato per il passato. (**)

Nonostante alcuni scienziati all’interno dell’IPCC abbiano segnalato per tempo come tutto questo possa condurre ad un problema di credibilita’, l’IPCC ha deciso di andare avanti in ogni caso.

Non se ne e’ accorto nessuno.

Il motivo per il quale faccio menzione di tutto questo è che c’è una lezione da apprendere.
L’IPCC non avrebbe mai pubblicato un limite superiore tanto poco plausibile come quello di 3 metri, e tuttavia non ha esitato a riportare un limite altrettanto poco plausibile, per quanto è basso, di 59 cm. E questo perche’ all’interno della cultura dell’IPCC, essere “allarmisti” è male, mentre essere “conservatori” (ovvero, sottostimare la potenziale severita’ degli eventi) è bene.

Va notato che questa cultura e’ l’esatto contrario dello “sbagliare nella direzione meno dannosa” (assumere che sia meglio avere sovrastimato il problema determinando l’ingresso in una low-carbon society un po’ prima del necessario, piuttosto che averlo sottostimato, inondando citta’ costiere e intere Isole-nazione).
Tanto per sgomberare il campo da ogni possibile fraintendimento: sono nella maniera piu’ assoluta contrario all’esagerazione dei cambiamenti climatici finalizzata a “sbagliare nella direzione meno dannosa”. Sono profondamente convinto del fatto che gli scienziati debbano evitare di sbagliare in qualsiasi direzione, mentre devono sempre fornire la stima piu’ equilibrata di cui siano capaci (motivo per il quale spesso mi sono espresso contro l’esagerazione “allarmista” nella scienza del clima; vedi ad esempio qui e qui).

Perchè penso che questo problema dell’IPCC sia di gran lunga peggiore dell’errore sull’Himalaya? Perchè non è una svista sfuggita ad un autore del Working Group 2 che ha mancato di seguire correttamente le procedure e ha citato un fonte inaffidabile. Piuttosto, è il risultato di combattute delibere degli esperti climatici del Working Group 1. Contrariamente all’errore sull’Himalaya, questa è una delle previsioni centrali dell’IPCC, discussa in modo prominente nel Summary for Policy Makers.
Cosa è andato storto in questo caso deve essere verificato attentamente mentre si considerano i miglioramenti futuri da apportare alla procedura dell’IPCC.

E vediamo se ora abbiamo imparato la lezione, questa volta sulla società e i media. Questa evidenza di una sottostima di un problema climatico dell’IPCC, presentata da uno dei principali autori dell’IPCC che studia il livello del mare, sarà altrettanto largamente riportata e discussa quanto, per dire, le affermazioni errate di un blogger sull’ “Amazongate”.

P.S. Risultati recenti sul livello del mare.
Un certo numero di valutazioni di ampio respiro sono venute fuori dall’ultimo rapporto dell’IPCC, tutte che concludono che l’innalzamento globale del livello del mare potrebbere essere oltre un metro:
la valutazione del Dutch Delta Commission, il Rapporto di Sintesi del Congresso sul Clima di Copenhagen, il rapporto del Copenhagen Diagnosis così come il Rapporto dello SCAR sui Cambiamenti Climatici in Antartide.
Questa è anche la conclusione di un certo numero di pubblicazioni peer-review recenti:
Rahmstorf 2007, Horton et al. 2008, Pfeffer et al. 2008, Grinsted et al. 2009, Vermeer and Rahmstorf 2009, Jevrejeva et al. 2010 (in stampa su GRL). L’eccezione significativa – Siddall et al. 2009 – è stata ritirata dagli autori dopo che abbiamo abbiamo mostrato alcuni errori numerici su RealClimate. Questo è un buon esempio di auto-correzione nella scienza (in palese contrasto con la pratica degli scettici del clima di perpetuare all’infinito false informazioni). Piuttosto stranamente, Fox News è riuscita a rigirare questa storia nel titolo “More Questions About Validity of Global Warming Theory“.

** Sui numeri mostrati prima.
Riguardo i numeri attuali nell’IPCC AR4, bisogna modificare la stima superiore di 59 cm aggiungendo 15 cm per renderla applicabile ai 6.2 °C di riscaldamento (non solo 5.2 °C) e 5 cm per farla arrivare al 2100 (non solo fino al 2095). Così risulta essere 79 cm. Bisogna aggiungere il 50% per correggere per la sottostima dell’innalzamento del livello del mare passato e si ottiene 119 cm.
Per il caso ipotetico all’inizio del post, basta introdurre errori simili nell’altra direzione. Aggiungiamo 31 cm per arrivar fino a 7.6 °C e all’anno 2105 (questa è una stima conservativa ma risulta in un numero tondo, 150 cm). Assumiamo ora di avere un modello che in confronto con i dati reali del livello del mare sale il 50% in meno (piuttosto che il 50% in più): così si arriva ai 3 metri citati prima. Per i dettagli, guardate i numeri sul livello del mare dell’IPCC.

.

Articolo originale su Realclimate.org

Traduzione di: Riccardo Reitano e Alessio Bellucci.

Pubblicato su Climalteranti il 16/03/2010.

-

30 – L’IPCC non è infallibile (incredibile!)

Come tutte le iniziative umane, anche l’IPCC non è perfetto. Nonostante gli enormi sforzi volti a produrre i suoi report con molteplici livelli di “peer review”, verranno alla luce alcuni errori. La maggior parte di questi saranno di minor rilievo e senza conseguenze, ma qualche volta potrebbero essere più sostanziali. Come molte persone sono a conoscenza (e come John Nieslen-Gammon ha sottolineato in un post lo scorso mese e come Rick Piltz oggi ripropone oggi), è presente un’affermazione nel secondo volume dell’IPCC (Working Group 2, WG2), riguardo il tasso di regressione dei ghiacciai dell’Himalaya che non è corretto e non adeguatamente documentato.

L’affermazione, contenuta nel capitolo sugli impatti climatici in Asia, è quella secondo cui la probabilità della “scomparsa entro l’anno 2035” dei ghiacciai dell’Himalaya è “molto alta” se la Terra continua a surriscaldarsi con la stessa velocità (WG 2, Capitolo 10, pag. 493), e viene riferita come fonte un rapporto del World Wildlife Fund del 2005. Esaminando le bozze e i commenti (disponibili qui), si segnala che l’affermazione è stata scarsamente commentata nelle revisioni, e che il riferimento al WWF (2005) sembra essere stata un’aggiunta dell’ultimo minuto (non compare nella prima e nella seconda bozza). Questa asserzione non è fatta né all’interno del riassunto per i decisori politici, né nel rapporto di sintesi globale, e cosi non può essere descritta come una “asserzione centrale” dell’IPCC. Comunque, l’affermazione ha alcune ricevuto l’attenzione della stampa fin dalla pubblicazione, in particolar modo di quella Indiana, quanto meno secondo quanto riportato da Google News, sebbene non fosse da noi ben nota prima del mese scorso.

E’ quindi ovvio che questo errore dovrebbe essere corretto (tramite un qualche tipo di rettifica alla relazione WG2 forse), ma è importante rendersi conto che questo non significa che i ghiacciai himalayani godano di ottima salute. Non è cosiì, e ci potranno essere gravi conseguenze per le risorse idriche se il ritiro continua. Si veda anche questo documento di revisione (Ren et al, 2006) su un sottoinsieme di questi ghiacciai.


Didascalia: il ghiacciaio di East Rongbuk, ai piedi del monte Everest, ha perso 90-120 m di ghiaccio in quest’area dal 1921.

Più in generale, il sistema peer-review funziona bene per rendere i report dell’IPCC credibili, perché molti occhi diversi, con diversi punti di vista e conoscenza controllano lo stesso testo. Questo fa sì che il prodotto risultante rifletta più del solo parere di un singolo autore. In questo caso, sembra che non lo abbiano letto abbastanza persone con un’esperienza importante, o se lo hanno fatto, non lo hanno commentato pubblicamente. Questo potrebbe essere correlato al fatto che questo testo è contenuto nella relazione sugli impatti del Secodo Gruppo di Lavoro , che non riceve la stessa attenzione da parte della comunità dei fisici e degli scienziati rispetto a quanta ne riceva la relazione del Primo Gruppo di Lavoro (che è quella che generalmente guardano le persone che leggono Realclimate). Nel Primo Gruppo di Lavoro, le dichiarazioni sul ritiro continuo dei ghiacciai sono molto più generali e le norme sulle citazioni di letteratura non soggetta allapeer-review sono state rispettate molto di più.

Tuttavia, in generale, la scienza degli impatti climatici è meno chiara delle basi fisiche disponibili per il cambiamento climatico, e la letteratura è quantitativamente inferiore, quindi c’è inevitabilmente una maggiore ambiguità nelle dichiarazioni del Secondo Gruppo di Lavoro.

Nei rapporti futuri (ed è attualmente in corso l’organizzazione dell’AR5 per il 2013), saranno necessari ulteriori sforzi per garantire che i legami fra il Primo Gruppo di Lavoro e gli altri due rapporti siano più stretti, e che la comunità delle scienze fisiche sia incoraggiata ad essere più attiva negli altri gruppi.

In sintesi, il metro di giudizio di una organizzazione non è determinato dalla semplice presenza di errori, ma da come li affronta quando vengono evidenziati. L’attuale discussione sui ghiacciai Himalayani è quindi per l’IPCC una buona opportunità per migliorare ulteriormente le proprie procedure e concentrarsi di più su cosa l’IPCC dovrebbe fare nei periodi compresi fra le pubblicazioni dei principali rapporti.

Aggiornamento: questa comunicazione presentata all’AGU lo scorso dicembre da Karkel et al. è il miglior riassunto dello stato attuale dei ghiacciai dell’Himalaya e delle varie fonti di disinformazione che stanno girando a riguardo. Tratta di questo argomento, del rapporto Raina e dell’articolo recente di Lau et al..

Traduzione di Federico Antognazza, Lighea Speziale, Riccardo Reitano
Revisione di Simone Casadei

Pubblicato su Climalteranti il 04/02/2010.

-

29 – Aggiornamenti dei confronti tra i dati modellistici

Vale la pena ogni tanto guardare indietro per vedere come si comportano le proiezioni fatte. Visto che stiamo arrivando alla fine di un altro anno, possiamo aggiornare tutti i grafici delle medie annuali con un altro singolo dato. Statisticamente non è che sia così importante, ma le persone sembrano interessate, quindi perchè no?
Ad esempio, eccovi l’aggiornamento del grafico che mostra le anomalie medie annue dai modelli IPCC AR4 rappresentate in confrontoalle temperature superficiali misurate tramite elaborazione HadCRUT3v e GISTEMP (non ha importanza quale). Tutti sono stati riferiti al periodo di base 1980-1999 (come nel report 2007 dell’IPCC) e la regione in grigio racchiude il 95% delle corse dei modelli. Il numero per il 2009 è la media Gennaio-Novembre.

Come si può notare, ora che siamo usciti dal recente calodovuto a La Niña, le temperature sono di nuovo nel mezzo del range stimato dai modelli. Se l’attuale fase di El Niño continua in primavera, possiamo aspettarci un 2010 ancora più caldo. Ma è da tener presente, come sempre, che i trend a breve termine (15 anni o meno) non possono essere previsti in maniera attendibile in funzione delle forzanti. Vale anche la pena rilevare che le simulazione dei modelli dell’AR4 sono un “insieme di possibilità” e variano in modo sostanziale fra loro in funzione delle forzanti imposte, della dimensione della variabilità interna e ovviamente della sensitività. Quindi, benchè coprano un grande intervallo di situazioni possibili, la media di queste simulazioni non è la “verità”.
C’è in giro chi sostiene che nessun modello riesce a spiegare le recenti variazioni della temperatura media globali (George Will ha sostenuto questo il mese scorso ad esempio). Naturalmente, presa letteralmente l’affermazione è vera per forza. Nessuna simulazione di un modello climatico può corrispondere alla esatta tempistica della variabilità interna del clima anni dopo. Ma qualcos’altro è coinvolto, specificatamente, che nessun modello ha prodotto alcuna realizzazione della variabilità interna che abbia dato un trend di breve periodo simili a quelli che abbiamo osservato. E questo è semplicemente non vero.
Possiamo vederlo nel dettaglio in modo un po’ più chiaro. Il trend dei dati della media annua HadCRUT3v nel periodo 1998-2009 (assumendo che l’anno fino ad oggi sia una buona stima del valore finale) è 0.06+/-0.14 °C/decade (notare che questo è positivo!). Se volete un trend negativo (sebbene non significativo), allora potete scegliere il periodo 2002-2009 del record GISSTEMP che è -0.04+/-0.23 °C/decade. L’intervallo dei trend nelle simulazioni modellistiche per questi due periodi temporali sono [-0.08,0.51] e [-0.14,0.55], e in ciascun caso ci sono molteplici corse del modello che hanno un trend inferiore a quello osservato (5 simulazioni in entrambi i casi). Quindi “un modello” ha mostrato un trend consistente con la “pausa” attuale. Comunque, che questi modelli l’abbiano mostrata è solo una coincidenza e non bisognerebbe assumere che questi modelli siano migliori degli altri. Se la “pausa” nel mondo reale fosse avvenuta in un altro momento, altri modelli avrebbero avuto un accordo migliore.
Un’altra figura che vale la pena di aggiornare è il confronto dei cambiamenti del contenuto termico oceanico dei modelli con gli ultimi dati dal NODC. Purtroppo, non ho a portata di mano i risultati del modello oltre il 2003, ma il confronto fra i dati trimestrali (fino alla fine di Settembre) e i dati annuali con il risultato del modello è ancora utile.

(Nota, non sono proprio sicuro su quale linea di riferimento considerare per questo confronto. I modelli sono semplicemente la differenza dal controllo, mentre le osservazioni sono prese così come sono dal NOAA). Ho esteso linearmente i valori del modello della media ensemble per il periodo successivo al 2003 (usando una regressione dal periodo 1993-2002) per avere una grossolana idea di dove quelle realizzazioni sarebbero potute andare.
Infine, rivediamo la proiezione GCM più vecchia di tutte, Hansen et al (1988). Lo scenario B in quell’articolo risulta un pochino alto rispetto alla reale crescita delle forzanti (di circa il 10%), e il vecchio modello GISS aveva una sensibilità climatica che era un po’ più alta (4.2 °C per il raddoppio della CO2) dell’attuale miglior stima (~3ºC).

E’ più utile probabilmente pensare ai trend, e per il periodo dal 1984 al 2009 (la data del 1984 è stata scelta poichè è quando queste proiezioni sono iniziate), lo scenario B ha un trend di 0.26+/-0.05 °C/decade (incertezza al 95%, nessuna correzione per l’autocorrelazione). Secondo i dati GISTEMP e HadCRUT3 (assumendo che la stima per il 2009 sia corretta), i trend sono 0.19+/-0.05 °C/decade (da notare che l’indice delle stazioni meteorologiche di GISTEMP riporta 0.21+/-0.06 °C/decade). Correzioni per l’autocorrelazione renderebbero le incertezze maggiori, ma per come sono, la differenza fra i trend è appena significativa.

Sembra quindi che la proiezione “B” di Hansen et al sia probabilmente un po’ più calda rispetto al mondo reale, ma assumendo (un po’ incautamente) che il trend di 26 anni scali linearmente con la sensitività e con il forcing, potremmo usare questo disaccordo per stimare la sensitività del mondo reale. Questo ci darebbe 4.2/(0.26*0.9)*0.19=~ 3.4 ºC. Ovviamente, le barre di errore sono alquanto larghe (le stimo circa +/-1ºC per l’incertezza nei veri trend sottostanti e nelle forzanti reali), ma e’ interessante notare che la migliore sensitività stimata dedotta da questa proiezione è molto vicina a ciò che in ogni caso pensiamo. Come referenza, i trend nei modelli dell’AR4 per lo stesso periodo hanno un intervallo 0.21+/-0.16 °C/decade (95%). Da notare inoltre che la proiezione di Hansen et al. aveva una chiara capacità predittiva rispetto all’ipotesi nulla di nessun ulteriore riscaldamento.
Quelli di voi con l’occhio acuto avranno notato un paio di differenze fra la varianza nei modelli dell’AR4 nel primo paragrafo e il modello di Hansen et al. nell’ultimo. Questa è una caratteristica reale. Il modello usato a metà degli anni ’80 aveva una rappresentazione molto semplice dell’oceano – consentiva semplicemente alle temperature nello strato rimescolato di cambiare a seconda del cambiamento dei flussi alla superficie. Non conteneva nessuna variabilità dinamica dell’oceano, nessun evento El Niño, nessuna variabilità Atlantica multidecennale, etc. e quindi la varianza di anno in anno era inferiore a quella che ci si aspetterebbe. I modelli odierni hanno componenti dinamiche oceaniche e una maggiore variabilità oceanica di vario tipo, e credo che sia nettamente più vicina alla realtà dei modelli antiquati degli anni ’80, ma la grande differenza nella variabilità simulata implica che c’e’ ancora strada da fare.

Per concludere, nonostante il fatto che queste sono metriche relativamente rozze rispetto alle quali giudicare i modelli, e c’è un sostanziale livello di variabilità non forzata, gli accordi con le osservazioni sono alquanto buoni, e stiamo arrivando al punto in cui una migliore selezione dei modelli a seconda della loro capacità potrebbe presto essere possibile. Ma ci sarà dell’altro su questo punto nel nuovo anno.
Traduzione di Riccardo Reitano
Revisione di Simone Casadei

Pubblicato su Climalteranti il 20/01/2010.

-

28 – Hey Ya! (mal)

Notizie interessanti questo week-end. Apparentemente tutto ciò che abbiamo fatto durante le nostre carriere e’ una “ENORME menzogna” (sic) perchè tutta la fisica radiativa, la storia climatica, le misure strumentali, i modelli e le osservazioni satellitari risultano essere basate su 12 alberi in una oscura parte della Siberia. Chi lo sapeva?

Infatti, secondo sia il National Review che il Daily Telegraph (e chi non darebbe fiducia a queste fonti?), persino l’uso di un elevatore da parte di Al Gore in “Un Inconvinient Truth” fu fatto per mettere in risalto gli anelli di alcuni alberi selezionati ad arte, invece che l’aumento delle concentrazioni della CO2 negli ultimi 200 anni come tutti pensavano.

A chi dovremmo prestare fede? Ad Al Gore con i suoi “fatti” e “scienza soggetta a peer review” o ai praticanti di “Scienza dei blog”? Sicuramente, la scelta è chiara …

Seriamente, molti di voi avranno notato questa settimana ancora altra “blogorrea” sugli anelli degli alberi. L’obiettivo del giorno è una particolare serie di alberi (definita “una cronologia in dendroclimatologia) che è stata messa insieme per la prima volta da due russi, Hantemirov and Shiyatov, nei tardi ’90 (e pubblicata nel 2002). Questa cronologia pluri-millenaria proveniente da Yamal (in Siberia nordoccidentale) è stata minuziosamente messa insieme da centinaia di alberi sub-fossili seppelliti nei sedimenti dei delta dei fiumi. Essi hanno usato un sottoinsieme dei 224 alberi che gli è risultato essere sufficientemente lungo e sensibile (basato sulla variabilità inter-annuale) integrato con i dati di 17 alberi vivi per creare una registrazione climatica di “Yamal”.

Una parte preliminare di questi dati è stata usata anche da Keith Briffa nel 2000 (processato usando un diverso algoritmo da quello usato da H&S per renderlo consistente con altre due serie delle alte latitudini settentrionali), per creare un’altra registrazione “Yamal” pensata per migliorare la rappresentazione della variabilità climatica di lungo periodo.

Dato che le registrazioni climatiche lunghe sono poche e mal distribuite non è sorprendente che vengano usate nelle ricostruzioni del clima. Le diverse ricostruzioni hanno usato metodi diversi e hanno fatto selezioni diverse dei dati originari a seconda di quali fossero gli scopi di studio. Gli studi migliori tendono a verificare la robustezza delle loro conclusioni togliendo diverse sotto-parti dei dati o escludendone intere classi (come gli anelli degli alberi) per verificare quale differenza se ne ottiene cosicchè in genere non ci sono molte discussioni su nessuna particolare registrazione proxy (nonostante quello che si può leggere altrove).

*****

A questo punto arriva Steve McIntyre, auto-proclamatosi assassino degli hockey sticks, che dichiara senza alcuna evidenza di qualunque genere che Briffa non solo ha ri-processato i dati dei Russi, ma li ha anche apparentemente selezionati per ottenerne il segnale voluto. Queste accuse sono state fatte senza una qualsivoglia evidenza.

McIntyre ha basato la sua “critica” su un test condotto aggiungendo casualmente un set di dati trovato su internet proveniente da un’altra località in Yamal. C’è stata gente che ha scritto intere tesi su come costruire le cronologie con gli anelli degli alberi in modo da evitare effetti da dati terminali e preservare il maggior segnale climatico possibile. Stranamente nessuno ha mai suggerito di prendere semplicemente un set di dati, togliere gli alberi verso i quali si abbiano delle obiezioni politiche e sostituirli con un altro set trovato in giro sul web.

La dichiarazione di Keith Briffa descrive chiaramente lo sfondo sul quale si sono svolti questi studi e rifiuta categoricamente le accuse di McIntyre. Significa questo che la cronologia di Yamal esistente è sacrosanta? Assolutamente no – tutti questi proxy records sono soggetti a revisione con l’aggiunta di nuovi (rilevanti) dati e se le registrazioni cambiano significativamente in funzione di queste aggiunte non è chiaro finchè questa operazione non viene fatta.

Quello che è chiaro, comunque, e’ che c’è un modello caratteristico facilmente predicibile per le reazioni a questi post sui blog che è stato discusso molto volte. Come abbiamo detto l’ultima volta in cui c’è stata una polemica di questo tipo:

“Comunque, in alcuni settori c’è chiaramente un desiderio latente e profondamente sentito di ridurre l’intero problema del riscaldamento globale ad una fantasia statistica o ad un errore. Questo ha portato a dei veri e propi salti mortali alle conclusioni quando questo argomento ha raggiunto la blosfera.”

Plus ça change…

La tempistica di queste mini-tempeste dei blog e’ sempre la stessa. Viene fatta un’accusa non verificata di illecito basata sul nulla, e viene istantaneamente “telegrafata” nella sfera dei negazionisti mentre viene abbellita strada facendo per essere applicata a qualunque cosa abbia la forma dell’hokey-stick e a chiunque e a tutti gli scienziati, anche a quelli nemmeno lontanamente correlati. I soliti sospetti diventano isterici per la gioia che finalmente “l’imbroglio” e’ stato scoperto e ci si scambia congratulazioni. Dopo poco ci si accorge che nessuna costruzione scientifica è crollata e la ricerca continua sul problema “reale” che senza dubbio deve solo essere trovato. Fin troppo spesso la storia torna a spuntare nuovamente perchè qualche opinionista o blogger non vuole, o non gli interessa, fare i compiti a casa. L’effetto netto sulla gente comune? Confusione. L’effetto netto sulla scienza? Zero.

Detto questo, sembra che McIntyre non abbia investigato direttamente nessuna delle ridicole estrapolazioni dei suoi supposti risultati evidenziati prima, sebbene abbia chiaramente messo in movimento il gioco. Senza alcun dubbio avra’ scritto al National Review, al Telegraph e ad Antony Watts per chiarire i loro errori e confidiamo nel fatto che le correzioni appariranno al più presto … Si, certo.

Ma può essere vero che tutte le Hockey sticks siano fatte in Siberia? Di seguito un’inchiesta esclusiva di RealClimate.

Cominciamo con l’originale “MBH [Michael E. Mann, Raymond S. Bradley , NdT] hockey stick” così come replicata da Wahl and Ammann:

Hmmm… nessuna traccia delle cronologie di Yamal qui. E che dire della mazza da hockey ottenuta da Oerlemans dalla ritirata dei ghiacciai dal 1600?

Eh no, nemmeno lì, nessuna serie di Yamal. E i risultati di Osborn and Briffa, robusti anche quando vengono rimossi tre qualunque dei record?,

Forse la mazza da hockey dalle ricostruzioni delle temperature dei fori geodetici?

No. Cosa dire allora delle mazze da hockey delle concentrazioni di CO2 dalle carote di ghiaccio e dalle misure dirette?

Ma neanche pressappoco… Cosa dobbiamo pensare sull’impatto della ricostruzione artica di Kaufman et al 2009 quando si esclude Yamal?

Oh. E la mazza da hockey che si ottiene quando non si usano per niente gli anelli degli alberi (curva blu)?

No. Bene, allora che dire della lama della mazza da hockey dalle registrazioni strumentali stesse?

No, ancora no. Ma un momento, forse c’è una novità: (idea originale di Lucia):

Macché….

Si potrebbe pensare che alcune cose si spieghino da sole, ma apparentemente c’è chi le cose non le capisce per niente, dunque vediamo di essere estremamente chiari. La scienza procede per confutazioni di assunzioni e di risultati di altri, con il desiderio comune di avvicinarsi alla “verità”. Non c’è niente di male quando la gente costruisce nuove dendrocronologie o testa la robustezza di risultati precedenti su dati aggiornati o con nuovi metodi. E non c’è niente di male nemmeno a pensare a cosa succederebbe se fosse tutto sbagliato. Ciò che invece è opinabile è sommare criticismo tecnico con accuse di scorrettezza scientifica non documentate, ingiustificate e non verificate. Steve McIntyre insiste a dire che dovrebbe essere trattato da professionista. Ma è professionale continuare a diffamare scienziati con vaghe insinuazioni e perfide storielle inventate di sana pianta fuori contesto, invece di sottoporre a peer review il suo lavoro? Il nostro continua a non assumersi alcuna responsabilità per le ridicole fantasie e le esagerazioni diffuse dai suoi sostenitori, e sembra anzi felice di crogiolarsi nel plauso di questi, piuttosto che rettificare le cattive interpretazioni da lui suscitate. Se davvero vuole cambiare, si trova davanti ad una chiara possibilità: o continuare a recitare la parte del Don Chisciotte per la platea, o produrre qualcosa di costruttivo che sia davvero meritevole di pubblicazione.

Il processo di peer-review non è niente di sinistro e non prende parte ad alcun complotto globale; piuttosto, esso è il procedimento mediante il quale si è forzati a vincolare la propria retorica ai loro veri risultati. In generale, non è possibile spacciare suggerimenti imprecisi su qualcosa che potrebbe essere importante per il quadro generale senza davvero mostrare che lo è. E’ importante davvero se qualcosa “conta”, altrimenti, per quel che varrà, ci si potrebbe limitare a correggere gli errori di ortografia.

E allora vai, Steve, sorprendici.

Aggiornamento: Briffa e colleghi hanno risposto con un’estesa (e, a mio avvisto, convincente) rigetto dell’articolo di McIntyre.

.

Articolo originale su Realclimate.org

Traduzione di: Emanuele Eccel e Riccardo Reitano.
Revisione di: Simone Casadei.

Pubblicato su Climalteranti il 03/11/2009.

-

27 – Servizi climatici

Ho di recente partecipato alla Terza Conferenza Mondiale sul Clima (WCC-3), ospitata dall’Organizzazione Mondiale Meteorologica (WMO) a Ginevra. La maggior parte degli interventi era volta a fornire i “servizi climatici” (CS) e a coordinarli in modo globale. Ma cosa sono i servizi climatici, e quanto di quello che è stato previsto è scientificamente fattibile?

Climate services è piuttosto un nuovo termine che implica la fornitura di informazioni climatiche rilevanti sull’adattamento ai cambiamenti e alle deviazioni climatiche, la pianificazione di lungo periodo e lo sviluppo di sistemi semplici di prima attenzione (EW).

CS riguardano sia i dati riguardanti il clima passato che quello futuro, e di solito coinvolgono le procedure di disaggregazione per fornire informazioni su scala regionale e locale. Questo può essere riassunto dai contenuti del sito http://www.climateservices.gov/ (si veda inoltre questo link a un articolo relativo i servizi climatici nazionali degli Stati Uniti).

Durante la WCC-3 si è sottolineato il fatto che CS debbano non solo comunicare informazioni rilevanti, ma che queste informazioni debbano anche essere “tradotte” ai non esperti in modo che possano agire in tempo.

Una preoccupazione espressa durante la WCC-3 riguarda il fatto che i modelli climatici globali non forniscono ancora una descrizione sufficientemente accurata degli aspetti regionali e locali del clima. I modelli hanno inoltre serie limitazioni quando sono utilizzati per previsioni stagionali o decennali. I modelli climatici erano in origine progettati per fornire un’ampia immagine del nostro sistema climatico, e il fatto che ENSO, i cicloni, vari fenomeni ondosi (osservati nel mondo reale) appaiano negli output dei modelli, sebbene con differenze nei dettagli, ci da una maggior confidenza che essi possano fotografare i reali processi fisici. Per le previsioni climatiche, questi dettagli, spesso rappresentati dai modelli, devono essere più accurati.

Sebbene gli aspetti dinamici e le scale regionali siano importanti, occorre tenere a mente che i modelli atmosferici che simulanoil trasferimento radiativi atmosferico rappresentano il cuore della teoria che sta alle spalle dell’AGW, e che l’AGW coinvolge le scale temporali più lunghe. Alcuni scienziati dubitano fortemente di questi modelli di trasferimento radiativo, che sono strettamente correlati agli algoritmi utilizzati per l’analisi remota per il calcolo delle temperature (es: nei satelliti). Se qualcuno interpreta il Nuovo report degli scienziati della WCC-3 come se la situazione non sia più così tremenda come precedentemente pensato, questi è incorso in una grossa delusione. Piuttosto l’opinione è che i cambiamenti climatici siano inevitabili, e che dobbiamo stabilire gli strumenti per pianificare e affrontare i problemi.

Esistono comunque alcuni segnali che incertezze ed errori sistematici nei modelli climatici globali (GCMs) possano essere ridotti aumentando la risoluzione spaziale (e temporale), o includendo una rappresentazione realistica della stratosfera. I problemi associati alla descrizione del clima a livello locale e regionale non può essere corretta semplicemente attraverso la disaggregazione.

Una preoccupazione consisteva nel fatto che una parte di codice chiamata “parametrizzazione” (impiegata nei modelli per descrivere l’effetto principale dei processi fisici che avvengono ad una scala spaziale troppo piccola per la griglia del modello) può non essere sufficientemente buona per il lavoro di simulazione di tutti gli aspetti climatici locali. Per questo motivo è stato richiesto uno sforzo coordinato a livello globale per provvedere alle risorse di calcolo e alla simulazione climatica.

Alcuni relatori hanno sottolineato l’importanza di un reale set globale di osservazioni climatiche. In questo contesto è altresì cruciale la condivisione dei dati senza restrizioni, e inoltre è cruciale aiutare i paesi poveri affinchè riescano a fare misure di elevata qualità.

Sebbene durante la WCC-3 l’attenzione sia stata posta sull’adattamento, si è anche sottolineato come la mitigazione sia ancora un obbligo se si vogliono evitare serie calamità climatiche. Si è concluso che occorre passare da una strategia di “gestione delle catastrofi” a una politica di “gestione del rischio”.

Un triste esempio che mostra che non ci siamo ancora arrivati sono state le alluvioni previste sull’Africa centroccidentale di Giugno – Agosto 2008. È successo per la prima volta nella storia che la Croce Rossa ha inviato un allarme preventivo basato su una previsione. Sfortunatamente, si verifcò una mancanza di volontà di donare fondi prima che il disastro si fosse verificato e, tristemente, la previsione risultò essere estremamente accurata. La domanda è se stiamo facendo lo stesso errore quando analogamente verrà il turno dei cambiamenti climatici.

Le relazioni della conferenza sono state postate sul sito della WMO WCC-3. Oltre alle tematiche scientifiche, un certo numero di relatori ha discusso di politica. Esiste anche un nuovo libro – Climate Senses – che è stato pubblicato di recente per la WCC-3, che tratta delle previsioni sul clima e delle informazioni per i decisori.

.

Articolo originale su Realclimate.org

Traduzione di: Federico Antognazza
Revisione di: Simone Casadei.

Pubblicato su Climalteranti il 20/09/2009.

-

26 – La soluzione delle dispute tecniche in ambito scientifico

Uno dei punti di forza della scienza è la sua capacità di risolvere le controversie attraverso procedure e standard generalmente accettati. Molte questioni scientifiche (in modo particolare quelle più tecniche) non sono oggetto di opinioni ma hanno risposte precise.
Gli scienziati documentano le loro procedure e scoperte nella letteratura scientifica soggetta al processo di peer-review in modo tale che queste possano essere sottoposte a verifica da parte di altri. La maniera corretta di verificare i risultati è, naturalmente, anche attraverso la letteratura soggetta a peer-review in modo tale che il controllo stesso segua gli stessi standard della documentazione come è stato fatto per arrivare alla scoperta originale.
Questa verifica può essere in forma di un nuovo documento indipendente oppure sottoforma di un commento relativo ad un documento già pubblicato. Quest’ultima è la via appropriata se la verifica non è basata su nuovi dati (ed è quindi un pezzo di ricerca a sé stante), ma è una critica dei metodi utilizzati in una pubblicazione.
Tali commenti tecnici sono costantemente pubblicati sui giornali e gli autori di Realclimate sono stati naturalmente coinvolti nella scrittura o oggetto di tali commenti. Un esempio significativo è stato un commento a Science che mostrava che una verifica di Von Storch et al. (2004) riguardo alla ricostruzione climatica denominata “bastone da hockey” di Mann et al. (1998) “ era basata su una scorretta implementazione della procedura di ricostruzione”. Abbiamo discusso le implicazioni su Realclimate una volta apparso il commento. Un altro esempio recente è un commento di Schmith et al. su un articolo di Stefan apparso su Science, relativo all’aumento del livello del mare, si nota che ha sbagliato a considerare l’effetto di livellamento sull’autocorrelazione dei dati che ha usato. Nella sua risposta, Stefan ha riconosciuto questo errore ma ha dimostrato che non ha effetto sulle sue conclusioni principali.
Che agli autori originali sia consentito di rispondere ad un commento nello stesso numero della rivista, e che gli autori del commento arrivino ad esaminare questa risposta prima di decidere se mandare avanti il proprio commento, sono chiari segni di garanzia di una procedura imparziale, in aggiunta alla neutralità dell’editore della rivista e al fatto che revisori indipendenti supervisionino il processo. Anche se gli autori del ‘commento e replica’ continuano a restare per certi versi in disaccordo, questo processo di successivi commenti nella maggior parte dei casi risolve la questione fino alla soddisfazione della comunità scientifica. Questo sistema espone i fatti in una maniera imparziale e trasparente e fornisce agli esterni una buona base per giudicare chi abbia ragione. In questo modo esso fa progredire la scienza.

C’è tuttavia un modo diverso di criticare gli articoli scientifici, che è prevalente in blog come ClimateAudit. Questo modo implica di verificare, “con tutti i mezzi necessari”, qualsiasi articolo le cui conclusioni non siano gradite. Ciò può essere basato su semplici errori di stampa, fraintendimenti di base sui vari argomenti e “colpevolezza per associazione”, sebbene a volte venga avanzata occasionalmente un’argomentazione interessante. Dal momento che queste affermazioni vengono raramente verificate per vedere se ci sia un qualsiasi reale effetto sul risultato principale, l’esito è una serie di critiche fuorvianti, a prescindere dal fatto che alcune di queste critiche siano in realtà valide o salienti, il che dà l’impressione che ognuno di questi articoli sia senza valore e che tutti i loro autori siano nel migliore dei casi incompetenti, nel peggiore disonesti. E’ l’equivalente di sostenere di aver trovato degli errori ortografici in un articolo di giornale. Divertente per un po’, ma fondamentalmente irrilevante per comprendere un argomento o giudicare il valore del giornalista.

Mentre il fatto che vengano pubblicati commenti – anche piuttosto negativi – degli articoli nei blog è assolutamente ragionevole (dopo tutto, lo facciamo anche qui alle volte), affermazioni sul fatto che un particolare articolo sia stato “screditato” o “falsificato”, senza che sia stato (come minimo) sottoposto ad un processo di “peer-review”, dovrebbero essere considerate con estremo scetticismo. Allo stesso modo dovrebbero essere considerate le accuse di disonestà o cattiva condotta che non siano già state definitivamente ed inequivocabilmente dimostrate.
Ciò ci porta ad una recente osservazione di Hu McCulloch che un post su ClimateAudit.org dettagliatocce descrive in dettaglio un errore nell’articolo di Steig et al. su Nature sul cambiamento di temperatura in Antartico, non ha ricevuto da Steig et al. il credito dovuto quando hanno pubblicato un Corrigendum all’inizio di questo mese. In questo caso, il commento di McCulloch sull’articolo era pienamente valido, ma lui ha scelto di evitare il contesto del normale scambio scientifico – scrivendo invece i suoi commenti su ClimateAudit.org – e giocando al gioco del ‘ti ho beccato’ accusando di plagio quando non è stato citato.
McCulloch accusa Steig et al. di aver fatto propria la sua scoperta ovvero che Steig et al. stessi non avevano tenuto in conto l’autocorrelazione quando hanno calcolato la significatività dei trends. Mentre la versione dell’articolo pubblicata non includeva questa correzione, è evidente che gli autori erano a conoscenza dell’esigenza di farla, in quanto nel testo dell’articolo si afferma che la correzione era stata fatta. I calcoli corretti erano stati eseguiti usando metodi ben conosciuti, i cui dettagli sono disponibili in una miriade di libri di testo di statistica e articoli su rivista. Non ci può quindi essere nessuna pretesa di originalità da parte del Dr. McCulloch nè per l’idea di applicare una tal correzione nè per i metodi con cui farlo, tutte cose discusse nell’articolo originale. Se McCulloch fosse stato la prima persona a far notare a Steig et al. l’errore nell’articolo, o se avesse scritto direttamente a Nature prima che il Corrigendum fosse presentato, sarebbe stato appropriato riconoscerlo e gli autori sarebbero stati felici di farlo. Nel caso ci fosse confusione su questo, facciamo notare che, come discusso nel Corrigendum, l’errore non ha alcun impatto sulle principali conclusioni nell’articolo.
Non c’è nulla di sbagliato nelle critiche costruttive, e mettere in luce errori – anche quelli meno significativi – è importante e utile. La differenza, però, fra persone che cercano di trovare informazioni sul mondo reale e persone che vogliono solo segnare punti politicamente, consta nel cosa venga fatto di quegli errori. Questo è il test per un dialogo scientifico costruttivo. Accuse speciose di frode, plagio e simili non passano questo test; al contrario, queste cose semplicemente avvelenano l’atmosfera con una perdita per tutti.

.

Articolo originale su Realclimate.org

Traduzione di: Riccardo Mancioli, Tania Molteni e Riccardo Reitano
Revisione di: Simone Casadei.

Pubblicato su Climalteranti il 17/09/2009.

-

25 – Altre leggerezze

Roger Piellke Sr. in un recente post su un blog ha sollevato accuse molto forti contro RealClimate. Poichè provengono da un collega scienziato, riteniamo che sia il caso di rispondere direttamente.
L’affermazione che Pielke considera “disinformazione” è una singola frase da un post recente:

“Alcuni aspetti del cambiamento climatico stanno progredendo più velocemente di quanto non ci si aspettasse qualche anno fa – come l’aumento dei livelli del mare, l’aumento del calore immagazzinato nell’oceano e il restringimento del ghiaccio marino Artico.”

Prima di tutto, siamo sorpresi che Pielke abbia lanciato queste forti accuse contro RealClimate, poichè l’afffermazione di cui sopra semplicemente riassume alcuni risultati chiave del Rapporto di Sintesi del Congresso sul Clima di Copenhagen, di cui abbiamo discusso il mese scorso. Esso è un documento “peer-reviewed” scritto da 12 eminenti scienziati e “basato sui 16 interventi plenari al Congresso ed anche sui suggerimenti di più di 80 presidenti e co-presidenti delle 58 sessioni parallele tenute al Congresso”. Se Pielke fosse in disaccordo con i risultati di questi scienziati, sarebbe più logico rivolgersi a loro piuttosto che rivolgere a noi accuse insistenti. Ma ad ogni modo diamo un’occhiata ai tre punti della supposta disinformazione:

.

1. Livello del mare. Il rapporto di Sintesi mostra il grafico qui sotto e conclude:

“Dal 2007, lavori di comparazione delle proiezioni dell’IPCC del 1990 con le osservazioni mostrano che alcuni indicatori climatici stanno cambiando vicino al limite superiore dell’intervallo indicato dalle proiezioni o, come nel caso dell’aumento del livello del mare (fig. 1), a tassi ancora più elevati di quelli indicati dalle proiezioni del’IPCC”.


Questo grafico è un aggiornamento di Rahmstorf et al., Science 2007, con dati fino alla fine del 2008. (Notare che il confronto è con le proiezioni del TAR dell’IPCC, ma essendo le proiezioni dell’AR4 entro il 10% di quelle dei modelli del TAR non fa molta differenza)

Pielke sostiene che questo “NON È VERO” (maiuscolo e grassetto sono suoi), affermando che “l’andamento del livello del mare si è invece appiattito dal 2006″ e mostrando questo grafico. Il grafico mostra un andamento del livello del mare durante tutto il periodo dei rilevamenti satellitari (dal 1993) di 3.2 +/- 0.4 mm/anno ed è molto simile ad un’analisi francese indipendente degli stessi dati satellitari mostrati nel rapporto di sintesi (linee blu sopra). La migliore stima dei modelli dell’IPCC per lo stesso periodo è 1.9 mm/anno (linee tratteggiate colorate all’interno dell’intervello di incertezza in grigio). Quindi la conclusione del Rapporto di Sintesi e del tutto corretta.

“L’appiattimento del livello del mare dal 2006″ a cui si riferisce Pielke è non pertinente ed ingannevole per diverse ragioni (notare pure che Anthony Watts è andato anche oltre e ha dichiarato che il livello del mare dal 2006 ad oggi è in realtà “piatto”!). Innanzitutto, i trend su un così breve sotto-intervallo di qualche anno è estremamente variabile a causa delle variazioni naturali di breve periodo, e può dare qualunque risultato si voglia selezionando ad hoc un intervallo appropriato (come Pielke e Lomborg fanno entrambi). L’assurdita’ di questo approccio si può vedere prendendo un trend ancora piu’ recente, diciamo a partire dal Giugno 2007, che dà 5.3 +/- 2.2 mm/anno! Secondo punto, questo trend di breve periodo (1.6 +/- 0.9 mm/anno) non è nemmeno robusto fra i vari set di dati – l’analisi dei francesi mostrata sopra ha un trend dall’inizio del 2006 di 2.9 mm/anno, molto simile all’andamento di lungo periodo. Terzo punto, l’immagine riportata da Pielke per mostrare i dati senza correzione barometrica inversa – il breve e marcato picco a fine 2005, che rende l’andamento visivo (sempre una scelta infelice di metodologia statistica) quasi piatto da allora, scompare quando questo effetto viene considerato. Cio’ significa che il picco del 2005 era semplicemente dovuto alle fluttuazioni della pressione dell’aria e non ha nulla a che vedere con i cambiamenti climatici del volume oceanico. L’andamento nei dati dal 2006 con la correzione barometrica inversa è 2.1 +/- 0.8 mm/anno.

.


2. Contenuto di calore degli oceani.
Il Rapporto di Sintesi afferma:

Le stime attuali indicano che il riscaldamento degli oceani è circa il 50% superiore a quanto affermato precedentemente dall’IPCC.
Si tratta di una conclusione di una nuova analisi dei dati di contenuto di calore degli oceani pubblicata da Domingues et al., Nature 2008, applicata al periodo 1961-2003, lo stesso periodo analizzato nel rapporto IPCC. Pielke sostiene che questo “NON È VERO” e replica affermando: “Non c’è stato alcun riscaldamento statisticamente significativo della superficie degli oceani dal 2003”. Ebbene, ancora un volta questo non è rilevante ai fini di quanto effettivamente scritto nel Rapporto di Sintesi e, ancora una volta, Pielke fa riferimento ad un periodo di 5 anni, troppo breve per ricavarne trend statisticamente robusti in presenza di variabilità di breve termine e di problemi di accuratezza dei dati (la variabilità interannuale ad esempio cambia molto nei diversi data-sets relativi al contenuto di calore degli oceani):

Per buone ragioni, il Rapporto di Sintesi considera un intervallo temporale sufficientemente lungo da permettere confronti significativi. Ma in ogni caso, il trend dal 2003 al 2008 nei dati di Levitus (i dati di Domingues et al. non vanno oltre il 2003) è ancora positivo, ma con una incertezza (sia nel calcolo del trend sia sistematica) che rende impossibile affermare se ci sia stato un cambiamento significativo.

.

3. Ghiaccio nel mare Artico. Il Rapporto di Sintesi afferma:

Uno dei più impressionanti sviluppi avvenuti in seguito alla pubblicazione dell’ultimo report dell’IPCC è la rapida riduzione dell’area estiva del ghiaccio nel mare Artico. Nel 2007, l’area minima ricoperta è diminuita di circa 2 milioni di chilometri quadrati rispetto agli anni precedenti. Nel 2008, si è verificata una riduzione quasi altrettanto drammatica.

Questo declino sta chiaramente avvenendo più velocemente di quanto previsto dai modelli, come il grafico seguente mostra.

La dichiarazione di Pielke secondo cui questo “NON È VERO” è semplicemente basata sull’affermazione che “dal 2008 le anomalie sono realmente diminuite.”

Ebbene sì, è ancora la stessa cosa: il ragionamento di Pielke non è pertinente perché il Rapporto di Sintesi parla esplicitamente della estensione estiva minima del ghiaccio marino, raggiunta ogni settembre nel mare Artico, e noi non possiamo ancora sapere quale valore raggiungerà nel 2009. Inoltre, Pielke fa ancora riferimento ad un intervallo temporale (“dal 2008”!) che è troppo corto per avere qualcosa a che fare con i trend climatici.

Dobbiamo dunque concludere che non ci sono le basi per alcuna delle rozze affermazioni di Pielke contro di noi e, implicitamente, contro gli autori del Rapporto di Sintesi. La frase finale del suo post è, ironicamente, eloquente:

I media e i decisori politici che ciecamente accettano queste affermazioni o sono ingenui o stanno deliberatamente modificando i risultati scientifici per promuovere la loro particolare posizione difensiva.

Certamente.

.

Articolo originale su Realclimate.org

Traduzione di: Giulia Fiorese, Riccardo Reitano
Revisione di: Simone Casadei.

Pubblicato su Climalteranti il 17/07/2009.

-

24 – Un avvertimento da Copenhagen

Volantino Syntesis ReportA Marzo ha avuto luogo a Copenhagen la più grande conferenza sul clima dell’anno: 2500 partecipanti da 80 paesi, 1400 presentazioni scientifiche. La scorsa settimana, il Rapporto di Sintesi del Congresso di Copenhagen è stato consegnato al Primo Ministro danese Rasmussen a Bruxelles. La Danimarca ospiterà il round decisivo delle negoziazioni sul nuovo trattato di protezione del clima il prossimo dicembre.

Il congresso sul clima è stato organizzato da un’“Alleanza stellare” di università di ricerca: Copenhagen, Yale, Berkeley, Oxford, Cambridge, Tokyo, Pechino, per nominarne alcune. Il Rapporto di Sintesi è il più importante aggiornamento sulla scienza climatica dalla pubblicazione del rapporto IPCC 2007.

Cosa dice il rapporto? I nostri lettori più assidui saranno difficilmente sorpresi dalle scoperte sostanziali sugli aspetti fisici della scienza del clima, che per la maggior parte sono già state discusse nei nostri articoli. Alcuni aspetti del cambiamento climatico stanno progredendo più velocemente di quanto non ci si aspettasse qualche anno fa – come l’aumento dei livelli del mare, l’aumento del calore immagazzinato nell’oceano e il restringimento del ghiaccio marino Artico. “Le stime aggiornate sul futuro aumento del livello globale del mare sono circa il doppio delle proiezioni dell’IPCC del 2007”, dice il nuovo rapporto. E sottolinea che qualsiasi riscaldamento provocato sarà virtualmente irreversibile per almeno un migliaio di anni – a causa del lungo tempo di residenza della CO2 nell’atmosfera.

Può essere di maggior interesse il fatto che il congresso abbia anche riunito insieme economisti ed esperti di scienze sociali che fanno ricerca sulle conseguenze dei cambiamenti climatici e ne analizzano le possibili soluzioni. Qui, il rapporto sottolinea ancora una volta che un riscaldamento oltre i 2ºC è un pericolo:

Aumenti di temperatura sopra i 2ºC saranno difficili da gestire per le società contemporanee, e probabilmente provocheranno sconvolgimenti sociali ed ambientali per il resto del secolo ed oltre.

(Per inciso, fino ad ora 124 nazioni hanno ufficialmente dichiarato di sostenere l’obiettivo di limitare il riscaldamento globale a 2ºC o meno, inclusa l’UE – ma sfortunatamente non ancora gli Stati Uniti).

Alcuni rappresentanti dei media hanno fatto confusione sul fatto se sia ancora possibile o meno rispettare questa soglia di guardia dei 2ºC. La risposta del rapporto è un chiaro “sì” – a patto che si agisca rapidamente e con decisione:

La conclusione, sia dell’IPCC che di analisi successive, è semplice – riduzioni immediate e drammatiche delle emissioni di tutti i gas serra sono necessarie per rispettare la soglia di guardia dei 2ºC.

A causare confusione è stato apparentemente il fatto che il rapporto ritenga ormai come inevitabile che le concentrazioni di gas serra nell’atmosfera oltrepassino il futuro livello di stabilizzazione che ci manterrebbe al di sotto del riscaldamento di 2ºC. Ma questo superamento delle concentrazioni di gas serra non porterà necessariamente le temperature a oltrepassare la soglia dei 2ºC, a condizione che il superamento sia solo temporaneo. E’ come una pentola d’acqua su una stufa – assumiamo di accendere una debole fiamma che faccia aumentare la temperatura nella pentola gradualmente fino a 70°C e non oltre. Attualmente, l’acqua è a 40°C. Se alzo la fiamma per un minuto e poi la riabbasso, non significa che la temperatura dell’acqua oltrepasserà i 70ºC, a causa dell’inerzia del sistema. La stessa cosa accade con il clima – l’inerzia in questo caso è la capacità termica degli oceani.

Dal punto di vista delle scienze naturali, nulla ci impedisce di limitare il riscaldamento a 2ºC. Anche da un punto di vista economico e tecnologico ciò è interamente fattibile, come il rapporto mostra chiaramente. La palla è direttamente nell’arena politica, a Copenhagen, nella quale a dicembre dovranno essere prese le decisioni cruciali. Il rapporto di sintesi la mette giù in questo modo: sarebbe imperdonabile non agire.

Links correlati
Conferenza stampa del PIK sulla pubblicazione del rapporto di sintesi

Congresso di Copenhagen sul clima – con disponibili i files delle riunioni plenarie (link in basso a destra – il mio intervento rientra nella seconda parte della sessione di apertura, appena dopo il chairman, Pachauri dell’IPCC)

Incontro dei Premi Nobel a Londra – un incontro di alto livello tenutosi in Maggio i cui protagonisti hanno prodotto un importante memorandum che richiede un immediato intervento della politica: “Sappiamo cosa sia necessario che venga fatto. Non possiamo aspettare finchè non sarà troppo tardi”. Il nuovo Segretario all’Energia degli Stati Uniti Steven Chu ha partecipato per tutti e tre i giorni alle discussioni scientifiche – in quanti politici lo avrebbero fatto?

Articolo originale su Realclimate.org

Traduzione di: Tania Molteni
Revisione di: Simone Casadei.

Pubblicato su Climalteranti il 17/06/2009.

-

23 – Sull’ Over-fitting 1

(1: “Quando la taratura è eccessiva”)

Non tendo granchè a leggere altri blogs a parte dare il mio contributo a Realclimate. Specialmente sono poco interessato a perdere tempo a leggere quei blogs che sono pieni di attacchi ad hominem. Sembra però che qualche collega lo faccia, e qualcuno di loro mi ha incoraggiato a dare un’occhiata agli ultimi commenti sulla nostra storia della temperatura in Antartide. Siccome mi è capitato di insegnare ai miei studenti universitari l’analisi delle componenti principali proprio questa settimana, ho pensato che valesse la pena mettere un post pedagogico in merito all’oggetto della discussione (se non sapete cos’è l’analisi delle componenti principali (PCA), date un’occhiata al nostro post più recente: Dummy’s Guide to the Hockey Stick Controversy).

.

Per coloro che non la conoscono, consideriamo il semplice esempio che riporto qui di seguito. Supponiamo di aver misurato due variabili lungo un periodo di tempo (diciamo, temperatura e umidità e chiamiamole x e y). Ipotizziamo di avere 10 osservazioni simultanee di x e di y ma che, per sfortuna, uno dei nostri strumenti si rompa e ricominciamo a misurare le 10 osservazioni solo per la variabile x e nessuna per y. Fortunatamente sappiamo che x e y sono correlate fisicamente tra loro, così la nostra speranza è quella di poter usare i valori accoppiati per x e y in modo da stimare cosa sarebbe dovuta essere y se noi fossimo stati in grado di misurarla per tutta la durata dell’esperimento. Mettiamo su un grafico le due variabili x e y e cerchiamo una qualche funzione per l’interpolazione dei dati. Se abbiamo scelto una funzione corretta dovremmo essere in grado di stimare il valore di y per ogni valore arbitrario di x. La cosa ovvia che uno potrebbe provare, data l’apparente forma della curva in confronto ai dati, sarebbe quella di usare una polinomiale di secondo grado (che è una parabola).

Sembra vada bene , vero?
Beh…no. In realtà, per questo particolare esempio, avremmo dovuto usare una linea retta. Questo diventa ovvio dopo aver riparato lo strumento rotto e aver fatto in modo di aumentare il campione di dati:

Naturalmente la nostra stima per la miglior curva di interpolazione è di per se incerta, e quando consideriamo un numero maggiore di dati, ci ritroviamo con un risultato leggermente diverso (mostrato dalla linea verde tratteggiata). Siamo però molto più vicini all’ipotesi corretta utilizzando tale retta piuttosto di utilizzare la parabola che diverge notevolmente soprattutto per grandi valori di x.

Certamente la parabola sembrava avesse una migliore aderenza – dopotutto risulta essere più vicina ad un numero maggiore di dati che sembrano realmente curvare verso l’alto. Come avremmo potuto saperlo prima? Bene, avremmo potuto incrementare le nostre possibilità di avere ragione utilizzando alcune basilari applicazione statistiche (come ad esempio un test “chi – quadro”). I risultati ci avrebbero mostrato che non c’erano sufficienti gradi di libertà nei dati per giustificare l’impiego di una curva di ordine superiore (la quale riduce i gradi di libertà da 8 a 7 in questo esempio). La scelta della parabola, in questo caso, è un classico esempio di overfitting.

La semplice lezione è che non si dovrebbero utilizzare più parametri del necessario per l’interpolazione di una funzione (o più funzioni). Fare diversamente significa, molto spesso, andare incontro a grandi errori di interpolazione.

Usando l’analisi delle componenti principali (PCA) per la ricostruzione statistica di dati climatici, si evitano problemi di overfitting, in particolare scegliendo accuratamente il numero corretto di componenti principali (PC) da considerare. Nel semplice esempio proposto sopra, ci sono due diversi – ma entrambi importanti – test da applicare, uno a priori e uno a posteriori.

Per prima cosa siamo interessati a distinguere quelle componenti principali che possano essere relative ai veri “modi” di variabilità dei dati. Nel nostro caso siamo interessati a quelle componenti principali che rappresentano le variazioni della temperatura in Antartide che sono legate, per esempio, alle variazioni nella forza del vento circumpolare, della distribuzione del ghiaccio sul mare ecc. Sebbene i metodi lineari come l’analisi delle componenti principali (PCA) siano solo un’approssimazione dei reali comportamenti del sistema climatico, in genere le prime componenti principali (PC) – che per costruzione catturano la variabilità che si verifica su estese scale spaziali – sono strettamente legate con i sottostanti fenomeni fisici. Allo stesso tempo vogliamo evitare quelle componenti principali che difficilmente rappresentano la variabilità dei fenomeni fisici in maniera significativa, da una parte perché sono semplicemente “rumore” (rumore strumentale o una vera casuale variabilità nel clima) oppure perché rappresentano variazioni di esclusivo significato locale. Con questo non si vuole dire che la variabilità locale o la variabilità casuale del sistema non siano importanti, ma questo tipo di variabilità difficilmente viene ben rappresentata da un gruppo di variabili predittive che contengono meno informazioni rispetto alla serie originale di dati dalla quale sono state estratte le componenti principali.

L’approccio standard nel determinare quali componenti principali usare, è quello di usare il criterio di North et al. (1982), che fornisce una stima dell’incertezza negli autovalori della decomposizione lineare dei dati nelle sue componenti principali variabili rispetto al tempo e nei suoi autovettori (EOF) che variano rispetto allo spazio. La maggior parte delle componenti principali di ordine superiore (le ultime componenti principali) hanno una varianza non statisticamente significativa. Nel caso invece in cui anche le componenti principali di ordine inferiore – le prime componenti principali – (che spiegano la maggior parte della varianza) abbiano anche loro una varianza non significativa, bisogna essere cauti nella scelta di quali componenti utilizzare, perché l’analisi PCA di solito mischia la sottostante struttura spaziale e temporale dei dati che le componenti principali rappresentano. Si può facilmente dimostrare questo concetto creando artificialmente un data set spazio temporale partendo da delle semplici funzioni temporali (per esempio le funzioni seno e coseno), e aggiungendo un rumore casuale. L’analisi PCA estrarrà solo le funzioni originali se sono di ampiezza significativamente diversa.

La figura qui sotto mostra lo spettro degli autovalori – includendo le incertezze – relative sia ai dati delle temperature medie ricostruite da satellite e sia ai dati delle stazioni meteorologiche usate in Steig et al. 2009.

Possiamo notare che nei dati satellitari (il nostro data set predittore) ci sono 3 autovalori che stanno al di sopra degli altri. Si potrebbe ritenere di utilizzare 4 componenti principali, dal momento che usarne 5 porterebbe ad una leggera sovrapposizione. Pensare di utilizzarne più di 4 richiederebbe di utilizzarne almeno 6 e al massimo 7, per evitare di dover mantenere tutto il resto (a causa della sovrapposizione delle barre di errore). Per quanto riguarda i dati della stazione meteorologica (la nostra serie di dati predittiva), si potrebbe giustificare la scelta di utilizzare 4 PC, seguendo gli stessi criteri, o al massimo 7. In generale, questo suggerisce che considerando entrambi i data set, la scelta delle PC ricade da un minimo di 3 a un massimo di 7. Mantenerne solo 3 è una scelta molto ragionevole dal momento che la varianza spiegata dalle singole PC si riduce di molto nei dati satellitari dopo questo punto: ricordiamoci che stiamo cercando di evitare di inserire PC che rappresentano semplicemente rumore. Per semplici applicazioni di filtraggio (ad esempio l’elaborazione delle immagini) il rischio di trattenere troppo rumore è basso. Per estrapolazioni nel tempo – il problema della ricostruzione del clima – è fondamentale che le PC riescano ad approssimare le dinamiche del sistema. A tal fine, trattenere un minor numero di PC, ed in particolare solo quelle che si contraddistinguono per un grande cambiamento nella pendenza del grafico di cui sopra (cioè 3 o 4 PC nei dati effettivi) è la scelta più adatta, in quanto difficilmente è in grado di gonfiare il rumore che può essere presente nei dati.

In breve, a priori, non vorremmo trattenerne più di 7, e pochi come 3 PC è chiaramente giustificabile. Certamente non vorremmo mantenerne 9, 11, o 25 in quanto in questo modo è quasi certo provocare errori di estrapolazione. Cosa che ci porta al nostro test a posteriori: quanto lavorano bene le varie ricostruzioni, in funzione del numero di PC conservate?

Come per il semplice esempio x, y di cui sopra, vogliamo ora dare un’occhiata a come la nostra estrapolazione si confronta con la realtà. Per fare questo, abbiamo trattenuto alcuni dati, calibrato il modello (un calcolo separato per ogni numero di PC che vogliamo prendere in considerazione), e poi confrontato la ricostruzione risultante con i dati trattenuti. Tale calibrazione/test di verifica, sono stati, naturalmente, redatti nel nostro lavoro ed è il principale elemento che ha distinto la nostra pubblicazione dai precedenti lavori.

Come mostrato nella figura qui sotto, non c’è un gran cambiamento nella bontà del fittaggio (misurata in questo caso dal coefficiente di correlazione dei dati trattenuti e ricostruiti nella calibrazione / test di verifica), se uno usa 3, 4, 5 o 6 PC. Vi è una significativa (e continua) perdita, tuttavia, se se ne utilizzano più di 7. Possiamo quindi eliminare l’uso di più di 7 PC grazie a questa prova a posteriori. E poiché si guadagna poco ad usarne più di 3 o 4, la parsimonia indicherebbe di non usarne di più.

Ora il lettore attento può sottolineare che la capacità di ricostruzione (come calcolato con una semplice PCA e almeno con punteggi di correlazione) sembri essere più grande nell’Ovest dell’Antartide quando usiamo 4 PC, anziché 3 come nell’articolo. Tuttavia, come mostrato nella prima figura qui sotto, la scelta di più di 3 PC risulta nello stesso trend, o addirittura in trend maggiori, (soprattutto nell’Ovest dell’Antartide) rispetto ad utilizzare 3 PC. Naturalmente, possiamo ottenere trend più piccoli se usiamo solo due PCS, o più di 10, ma questo non può essere giustificato né con criteri a priori, nè a posteriori – non più di quanto lo si possa fare con 13, o 25 .* Il risultato è lo stesso che si usi una semplice PCA (come mi sono sostanzialmente imposto io qui, per semplicità di discussione), oppure l’algoritmo RegEM (abbiamo utilizzato entrambi i metodi nel documento):

In sintesi: la nostra scelta di mantenere 3 PC non è stata solo una ragionevole scelta a priori, ma comporta trend comparabili o più piccoli rispetto alle altre ragionevoli scelte a priori. L’uso di 4, 6 o 7 PC produce tendenze maggiori in Antartide Occidentale, e piccoli cambiamenti in Antartide Orientale. Utilizzandone più di 7 (almeno fino a 12) aumenta la tendenza in entrambe le aree. Questo per quanto riguarda l’affermazione, riportata su diversi siti web, che abbiamo volutamente scelto 3 PC al fine di massimizzare la stima della tendenza al riscaldamento!

Tutto questo discorso sulla statistica, ovviamente, può sviare dal fatto che il punto principale nel nostro articolo – il riscaldamento dell’Ovest dell’Antartide, analogo a quello della Penisola – sia evidente nei dati grezzi:


Trend grezzi di temperatura – in versioni diverse dei dati di temperatura mensili influenzati dalla copertura nuvolosa: (a) Comiso (trend decennale 1982-1999), (b) Monaghan et al. (1982-1999) c) Steig et al. (1982-1999), (d) Steig et al., (1982-2006).

Questo è, inoltre, ciò che ci si aspetta dalle dinamiche atmosferiche. Tempeste di bassa pressione difficilmente arrivano fino gli altipiani polari dell’Est Antartico, e lì le temperature sono determinate prevalentemente dalla radiazione, non dalle avvezioni come nell’Ovest Antartico e sulla Penisola. Questo è il motivo per cui i modelli di circolazione globale che simulano correttamente la circolazione atmosferica osservata e i cambiamenti del ghiaccio marino – in aumento intorno la gran parte dell’Est Antartico, ma in diminuzione al largo della costa dell’Ovest Antartico e della Penisola – concordano anche nella struttura e nell’ampiezza dei trend di temperatura che noi osserviamo:

Figura 3b da Goosse et al., 2009, mostra il trend di temperatura (1960-2000) simulato con un modello accoppiato oceano-atmosfera di complessità intermedia che usa l’assimilazione dei dati per forzare il modello a concordare con le variazioni di temperatura superficiale osservate dalle stazioni meteorologiche di superficie. Non sono stati usati dati di temperatura da satellite. Le aree in giallo nella simulazione rappresentano un riscaldamento fra 0.1 e 0.2 gradi/decade e l’arancione fra 0.2 e 0.3 gradi/decade.

Un ultimo punto: risulta alquanto bizzarro che sia stato speso uno sforzo tale per cercare di trovare errori nel nostro lavoro sulla temperatura dell’Antartico. Sembra che questo sia il risultato di una persistente convinzione che mettendo in difficoltà un gruppo di scienziati l’intera costruzione del ‘global warming’ crollerà. Questo e’ abbastanza ingenuo, come abbiamo discusso in precedenza. L’ironia è che il nostro studio è stato in gran parte incentrato sul cambiamento climatico regionale che può ben essere in buona parte dovuto alla variabilità naturale, come diciamo chiaramente nell’articolo. Ciò sembra essere sfuggito a gran parte della blogsfera, comunque.

* Mentre lavoravo a questo post, qualcuno chiamato “Ryan O” ha postato una lunga discussione dove affermava di trovare un miglior accordo che nel nostro articolo usando 13 PC. Questo è strano in quanto contraddice il mio risultato secondo cui usando così tante PC si degrada significativamente la capacità della ricostruzione. Sembra che ciò che sia stato fatto è prima di aggiustare i dati da satellite in modo da concordare meglio con i dati misurati al suolo, e poi eseguire i calcoli della ricostruzione. Questo non ha alcun senso: si riduce il tutto a pre-ottimizzare i dati di validazione (che si suppone siano indipendenti), violando cosi’ del tutto il concetto di “validazione”. Con questo non voglio dire che un qualsiasi aggiustamento dei dati satellitari sia ingiustificato, ma non può essere fatto in questo modo se uno vuole usare i dati come verifica. (E i risultati della verifica ottenuti in questo modo di certo non possono essere confrontati con i risultati della verifica basati su dati satellitari non modificati).

Inoltre, l’affermazione fatta da “Ryan O” che i nostri calcoli “gonfino” i trend di temperatura nei dati è assolutamente speciosa. Tutto quello che ha fatto è stato prendere i nostri risultati, aggiungere altre PC (che portano a un trend inferiore in questo caso), e poi sottrarre quelle PC (ritornando in questo modo al trend originale). In altre parole, 2+1-1=2.

Avendo detto che in definitiva lo scopo di questo post è pedagogico, concluderò notando che forse qualcosa abbiamo imparato in questa occasione: sembra che usando i nostri metodi e i nostri dati, anche un sedicente “scettico” sia in grado di ottenere sostanzialmente gli stessi risultati che abbiamo ottenuto noi: un riscaldamento di lungo periodo praticamente su tutta la calotta antartica.

Articolo originale su Realclimate.org

Traduzione di: Riccardo Mancioli, Fabio Sferra, Lighea Speziale, Riccardo Reitano

Revisione di: Simone Casadei.

Pubblicato su Climalteranti il 17/06/2009.

-

22 – ACRIM vs PMOD

Due recenti articoli (Lockwood & Frolich, 2008 – ‘LF08′; Scafetta & Willson, 2009 – ‘SW09′) confrontano l’analisi dell’irradianza solare totale (TSI) e il modo in cui le misurazioni della TSI sono combinate in modo da formare una lunga serie consistente di dati provenienti da diverse missioni satellitari. I due documenti giungono a conclusioni completamente opposte per quanto riguarda il trend a lungo termine. Allora quale dei due (sempre che almeno uno dei due lo sia) è corretto, quindi? E, soprattutto, è veramente importante?
Questo è un problema molto comune quando si ha a che fare con lunghe serie di dati satellitari. Ogni satellite dura solo pochi anni, cosicché una serie di dati di 30 anni deve essere cucita insieme con dati provenienti da diversi satelliti. Ciascuno di questi strumenti può avere una diversa calibrazione, inoltre può essere soggetto a derive non-climatiche dovute al degrado della strumentazione o a effetti orbitali. In questo modo, resta sempre un certo grado di ambiguità quando si uniscono serie di dati. Questo problema spiega almeno una parte della differenza tra i trend di temperatura troposferica RSS e UAH, e delle analisi CERES/ERBE che sono già state discusse di recente.
Le differenze tra PMOD e ACRIM sono già state discusse da “SkepticalScientist” e “Tamino”, quindi di seguito si riporta solo un aggiornamento alla luce dei due articoli recenti. La questione importante è il cosiddetto ‘ACRIM-gap’, ovvero il tempo che è intercorso da quando la strumentazione ACRIM-I ha cessato di funzionare a quando la ACRIM-II ha iniziato le osservazioni (da metà 1989 a fine 1991), e come i dati provenienti da questi due strumenti siano stati combinati tra loro utilizzando altre osservazioni che si sovrapponevano. Si noti che il termine ‘ACRIM’ per le serie temporali di Willson et al. denota semplicemente il fatto che la serie temporale sia stata messa insieme da alcune persone che lavoravano nel gruppo scientifico ACRIM, e non che questi usino dati satellitari diversi.
Il punto centrale in questi articoli è cosa implica il “gap ACRIM” per i livelli di TSI durante il minimo solare dei cicli solari 21 e 22. Mentre PMOD suggerisce che i livelli della TSI durante questi minimi siano simili, ACRIM suggerisce che il livello della TSI sia più alto durante il minimo del ciclo 22. SW08 addirittura asserisce che c’è stato un trend positivo dei minimi.
LF08 conclude che PMOD sia più realistico, in quanto il cambiamento dei livelli della TSI durante i minimi solari, suggerito da ACRIM, non è coerente con la nota relazione fra TSI e i raggi cosmici galattici (GCR). E’ ben noto che il flusso dei GCR è in genere basso quando il livello di attività solare è alto poiché i campi magnetici solari sono più estesi e schermano il sistema solare dai GCR (particelle cariche). Tuttavia i due effetti non vanno sempre di pari passo, quindi questa è più un’indicazione che una conclusione.
E’ anche chiaro dai dati strumentali che la TSI tende ad aumentare con il livello di attività solare – almeno in corrispondenza del ciclo solare. LF08 sostiene che se il trend dei minimi di ACRIM fosse corretto, significherebbe che le precedenti ricostruzioni della TSI basate su, ad esempio, le macchie solari non sono corrette, e molti studi sulle variazioni climatiche passate sarebbero errati. Ciò non significa che i dati ACRIM siano inutili, ma che ci sono incertezze riguardanti la relazione fra i livelli della TSI e l’attività solare su scale temporali diverse.
In SW09 non ho trovato una descrizione sufficientemente dettagliata della metodologia usata nella loro analisi per poter giudicare il vero valore del loro lavoro. L’articolo fornisce un link al materiale ausiliario che non funziona. Tuttavia, le figure nell’articolo non sono veramente convincenti visto che non so come siano state fatte.
Inoltre, ho trovato che SW09 crei un pò di confusione, poiché da l’impressione che la composizione PMOD si basi sui dati ERBS/ERBE durante il gap di ACRIM (“Il team di PMOD usa il database sparso ERBS/ERBE per collegare il gap di ACRIM, conformando ad esso la maggiore cadenza Nimbus 7/ERB facendo degli aggiustamenti dovuti a …”). Tuttavia le informazioni in LF08 dicono che PMOD ha usato HF da Nimbus 7 (ERB).
L’analisi di PMOD include un aggiustamento per correggere un problema tecnico nei dati ERB (cambio di orientazione e/o spegnimento), ma SW09 sostiene – senza portare argomentazioni convincenti – che questa correzione non possa essere giustificata.
La composizione ACRIM non prende in considerazione un salto durante il gap ACRIM dovuto a cambiamenti strumentali. SW09 mostra un confronto fra diverse analisi e il modello di TSI di Krivova et al. (2007), ma dopo ammette che quest’ultimo modello di TSI è in disaccordo con le misure sulle scale temporali decennali. Inoltre, quando la TSI non è raccordata sul gap ACRIM, c’è una chiara incoerenza fra TSI e GCR.
Update: La mia conclusione è che l’articolo di LF08 è molto più convincente di SW09 sul se i dati di TSI debbano essere raccordati sul gap ACRIM. Ma questa probabilmente non è la parola finale su questo argomento.

Articolo originale su Realclimate.org

Traduzione di: Giulia Fiorese, Riccardo Reitano
Revisione di: Simone Casadei

Pubblicato su Climalteranti il 18/5/2009.

21 – Gli effetti degli Aerosol e il clima, seconda parte: il ruolo della nucleazione e dei raggi cosmici

Nella Parte I ho discusso di come gli aerosol siano agenti nucleanti e di come essi crescano. In questo post esporrò di come i cambiamenti nella nucleazione e nella ionizzazione possano influenzare i risultati complessivi.

I raggi cosmici
I raggi cosmici galattici (GCR) sono particelle energetiche che hanno origine nello spazio e penetrano l’atmosfera terrestre. Sono un’importante sorgente di ionizzazione in atmosfera, oltre alla radioattività terrestre proveniente ad esempio dal radon (emessa naturalmente dalla superficie terrestre). Sopra gli oceani e oltre i 5 km di altitudine, i GCR sono la fonte dominante. La loro intensità varia nel corso del ciclo solare undecennale, con un massimo prossimo al minimo solare. Carslaw et al. danno una bella panoramica delle relazioni potenziali tra i raggi cosmici, le nubi e il clima. Durante la prima metà del 20° secolo l’irradianza solare è leggermente aumentata, e i raggi cosmici sono successivamente diminuiti. RealClimate ha pubblicato molti post in precedenza sui presunti legami tra GCR e clima, per esempio qui, qui e qui.
Il ruolo degli ioni

Il ruolo svolto dagli ioni in relazione alle molecole neutrali (scariche) nel processo di nucleazione è tuttora oggetto di intensa discussione. Per esempio, basandosi sullo stesso set di dati, Yu e Turco hanno trovato un contributo molto più alto di nucleazione indotta da ioni (rispetto al totale di particelle prodotte) di quanto non abbiano trovato Laakso et al.. L’evidenza di un determinato meccanismo di nucleazione è spesso di natura indiretta, e dipende da parametri incerti. La gran parte della letteratura indica una potenziale importanza della nucleazione indotta da ioni nell’alta troposfera, ma la sensazione generale è che i meccanismi neutrali di nucleazione (cioè che non coinvolgono gli ioni) è probabile che prevalgano nettamente. La maggior parte degli studi in campo, comunque, è stata condotta in ambienti terrestri, laddove sopra gli oceani l’entità della nucleazione è generalmente più bassa a causa delle minori concentrazioni di vapor d’acqua. Almeno da un punto di vista teorico, ciò consente alla nucleazione indotta da ioni una maggior possibilità di fare la differenza sopra gli oceani (anche se il tasso di produzione di ioni è inferiore).

Il tasso di produzione di ioni (che sopra la terra aumenta con la quota da ~10 fino a ~50 coppie di ioni per cm3 per secondo) pone un limite a quale possa essere il tasso di formazione di particelle dovuto alla nucleazione indotta da ioni. Basandosi sul suo modello per la nucleazione indotta da ioni, Yu ha trovato che alle basse quote il numero di particelle prodotte è più sensibile ai cambiamenti di intensità dei raggi cosmici. Ad un primo sguardo, ciò può sembrare un risultato sorprendente alla luce dell’aumento dell’intensità dei raggi cosmici in corrispondenza dell’aumento di altitudine. La ragione è che, alle alte quote, il fattore limitante per la formazione di particelle è la disponibilità di acido solforico piuttosto che di ioni. Sopra una certa intensità di GCR, aumentare ulteriormente la ionizzazione potrebbe persino portare ad una diminuzione della nucleazione indotta da ioni, in quanto la durata di vita dei clusters di ioni è ridotta (a causa dell’aumentata ricombinazione di ioni positivi e negativi). Al contrario, alle basse quote la formazione delle particelle può, in determinate circostanze, essere limitata dal tasso di ionizzazione, e un aumento della ionizzazione porta ad un aumento della nucleazione.

Quanto è importante la nucleazione per il clima?
Diversi esercizi modellistici sono stati fatti per studiare questa questione. La forte dipendenza dai dati in ingresso e dalle assunzioni usate, ad esempio mettere in relazione le emissioni di particelle primarie e le parametrizzazioni della nucleazione, e le diverse sensitività testate, impediscono una stima complessiva. Ciononostante, è chiaro che globalmente la nucleazione è importante per il numero di nuclei di condensazione delle nuvole (CCN), ad esempio in assenza di nucleazione nello strato limite planetario il numero di CCN sarebbe il 5% in meno (Wang e Penner) o il 3-20% in meno (Spracklen et al.), e in uno studio recente di follow-up, hanno concluso che il numero di gocce delle nuvole sarebbe il 13-16% in meno (in confronto al 2000 e al 1850 rispettivamente). Pierce and Adams hanno usato un approccio diverso e hanno guardato alla variazione del numero previsto di CCN come risultato dell’utilizzo di diversi schemi di nucleazione. Il numero di CCN troposferici risulta variato del 17% (e i CCN all’interno dello strato limite del 12%) fra i modelli che usano diverse parametrizzazioni della velocità di nucleazione. Da notare che le velocità di nucleazione mediate globalmente differivano di un fattore di un milione (!).

E’ da notare che la sensitività del numero di CCN con la nucleazione dipende fortemente dalla quantità di emissioni primarie e dagli aerosol organici secondari (SOA) formati. Questi sono essi stessi molto incerti, cosa che limita ulteriormente la nostra capacità di comprensione della connessione fra nucleazione e CCN. Se ci saranno più emissioni primarie, ci sarà più competizione tra gli aerosol per comportarsi come CCN. Se una maggiore quantità di composti organici si separerà verso la fase aerosol (per formare SOA), la crescita a dimensioni da CCN sarà più rapida.
Localmente, è stato osservato che la formazione di particelle contribuisce in modo significativo al numero di CCN; la seconda figura nella Parte I mostra un esempio di aerosol appena nucleati che sono cresciuti abbastanza da influenzare la formazione di nuvole. Kerminen et al. hanno osservato un evento simile, seguito dall’attivazione di parte degli aerosol nucleati in gocce di nuvole, fornendo così una connessione diretta fra la formazione di aerosol e l’attivazione di gocce di nuvole.

Quanto sono importanti i raggi cosmici per il clima?

Al recente meeting dell’AGU (Dicembre 2008) Jeff Pierce ha presentato i risultati sugli effetti potenziali dei GCR sul numero di CCN (il loro articolo è al momento in corso di stampa presso GRL). Sono state usate due diverse parametrizzazioni della nucleazione indotta da ioni (Modgil et al. e una assunzione di “limite-ionico” che tutti gli ioni contribuiscano a formare una nuova particella). Il modello è stato fatto girare sia con alto che con basso flusso di raggi cosmici per simulare le condizioni durante un massimo ed un minimo solari rispettivamente. Casualmente questo risulta essere compatibile con il cambiamento del flusso di raggi cosmici nel corso del 20° secolo (concentrato in gran parte nella prima metà), e ammonta a un 20% di cambiamento nella produzione ionica troposferica. Con entrambi i meccanismi di nucleazione indotta da ioni, questo porta ad un 20% di cambiamento nella nucleazione di particelle mediata globalmente, ma solo ad un cambiamento dello 0.05% dei CCN mediati globalmente. Gli autori hanno concluso che questo è stato “di gran lunga troppo piccolo per avere effetti rilevanti nelle proprietà delle nuvole, sia che fosse basato su scala temporale decennale (ciclo solare) o sui cambiamenti della scala temporale climatica dei raggi cosmici”. Per rendere conto di alcuni cambiamenti rilevati nella copertura nuvolosa, sarebbe necessario un cambiamento nei CCN dell’ordine del 10%. Ulteriori studi di questo tipo certamente troveranno altri numeri, ma forse è meno probabile che la conclusione qualitativa, come riportata sopra, cambierà drammaticamente. Il futuro ce lo dirà, naturalmente.

Conclusioni riassuntive

Le particelle appena nucleate devono crescere di circa un fattore 100.000 in massa prima che possano efficacemente diffondere la radiazione solare o essere attivate in una goccia di nuvola (e così avere effetto sul clima). Hanno a disposizione circa 1-2 settimane per farlo (tempo medio di residenza nell’atmosfera), ma una gran parte verranno eliminate prima dalle particelle più grandi. Quale frazione di particelle nucleate sopravviverà per poter quindi interagire con il bilancio radiativo dipende da molti fattori, specialmente la quantità di vapore condensabile (che porta alla crescita delle nuove particelle) e la quantità di particelle pre-esistenti (che agiscono da pozzo per il vapore così come per le particelle piccole). Stime, basate su modelli, dell’effetto della nucleazione nello strato limite sulla concentrazione di nuclei di condensazione delle nuvole (CCN) stanno nell’intervallo fra il 3% e il 20%. Ciononostante, la nostra conoscenza sulle velocità di nucleazione è ancora molto limitata, il che ostacola una stima accurata del suo potenziale effetto climatico. Allo stesso modo, i potenziali effetti dei raggi cosmici galattici (GCR) può essere stimato solo molto grossolanamente. In uno studio recente si è trovato che un cambiamento nell’intensità dei GCR, come quello tipicamente osservato nel ciclo solare di 11 anni, potrebbe, al massimo, causare un cambiamento dello 0.1% nel numero dei CCN. Questo è probabilmente troppo piccolo per produrre effetti evidenti nelle proprietà delle nuvole.

Articolo originale su Realclimate.org

Traduzione di: Emanuele Eccel, Riccardo Reitano

Revisione di: Simone Casadei.

Pubblicato su Climalteranti il 23/4/2009.

20 – La formazione degli Aerosol e il clima, prima parte

L’impatto che gli aerosol hanno sul clima è si rilevante, ma anche molto incerto. Ci sono svariate ragioni, una di queste è l’incertezza su come e quanto velocemente si formino per nucleazione nell’atmosfera. Qui, nella prima parte, proporrò una breve sintesi di alcuni dei processi basilari che sono importanti nel determinare gli effetti che gli aerosol hanno sul clima, ponendo attenzione in particolare sulla loro formazione. Questo è rilevante anche per meglio comprendere, e auspicabilmente quantificare, gli ipotetici effetti sul clima dei raggi cosmici galattici di cui discuterò in un post successivo.

Contesto
Gli aerosol sono particelle liquide o solide sospese in atmosfera (che non includono gocce d’acqua o cristalli di ghiaccio). Posso essere entrambi emessi direttamente in atmosfera (aerosol primari come la polvere) o formati in atmosfera per condensazione (aerosol secondari come i solfati). Quasi tutte le loro proprietà, e quindi gli effetti, sono dipendenti dalla dimensione: la dimensione della particella regola la velocità cui le particelle precipitano (e quindi il tempo di vita atmosferico), la loro interazione con la radiazione, il loro impatto sulle nuvole o anche i loro effetti sulla salute. Le loro dimensioni sono molto varie, si estendono da pochi nanometri a decine di micron. In questi link (qui, qui e qui (in tedesco)) si trovano siti con ottime spiegazioni introduttive agli aerosol e ai loro effetti sul clima. Anche RealClimate ha pubblicato alcuni post sullo stesso argomento qui e qui.

Effetti sul clima degli aerosol

Le particelle di aerosol possono influenzare il clima in diversi modi: possono disperdere e assorbire (nel caso del black carbon) la radiazione solare (effetti diretti). Possono inoltre fungere da nuclei di condensazione delle nuvole (CCN) attorno ai quali le nuvole si possono formare, e in tal modo influenzano la riflettività delle nuvole e il loro tempo di vita (effetti indiretti). Il black carbon può avere un altro effetto indiretto cambiando l’albedo della neve e del ghiaccio, ma questo non è l’argomento di questo post. Gli effetti indiretti degli aerosol sono le fonti di incertezza più grandi nella stima dell’impatto dell’uomo sul cambiamento climatico (qui è disponibile una sintesi). L’idea principale è che maggiori CCN determinino un maggior numero di gocce, tuttavia più piccole, nelle nuvole composte da particelle allo stato liquido. La nube risultante è più riflettente (primo effetto indiretto). A causa della ridotta dimensione delle gocciole della nube, potrebbe interrompersi la formazione delle precipitazioni, avendo come risultato un allungamento della vita della nuvola e un ampliamento della copertura nuvolosa (secondo effetto indiretto).

La massa di una particella di aerosol appena nucleata è 100000 volte più piccola di quella di un aerosol “vecchio” che ha le dimensioni ottimali per influenzare il clima. Come regola empirica approssimativa si assume che le particelle debbano crescere oltre i 100nm (1 nm = 10^-9 m) per diventare attive da un punto di vista climatico; al di sotto di questa dimensione non si attivano facilmente dentro una goccia di nuvola e non disperdono in modo molto efficiente la radiazione solare. È quindi non immediatamente ovvio che gli effetti sul clima degli aerosol dipenderanno in modo assai forte dalla nucleazione; la dipendenza è probabilmente considerevolmente smorzata, perché possono accadere molte cose alla particella di aerosol quando raggiunge l’età adeguata.

Formazione degli aerosol

I gas in tracce maggiormente presenti in genere non nucleano nuovi aerosol (o non condensano in quelli esistenti), perché sono troppo volatili (i.e. hanno un’alta pressione di vapore alla saturazione e quindi evaporano facilmente). Essi devono prima essere ossidati (solitamente sotto l’influenza della luce solare) per produrre un composto con una pressione di vapore inferiore. L’esempio principale di questo è l’ossidazione del biossido di zolfo (SO2) in acido solforico (H2SO4), che ha una pressione di vapore molto bassa. L’ H2SO4 può quindi condensare con il vapor acqueo (e forse composti organici e/o ammoniaca) per formare cluster stabili di molecole: una nuova particella ha tipicamente un diametro di 1-2 nm. Gli ioni possono pure avere un ruolo, abbassando la barriera di energia da superare: le forze attrattive fra le molecole sono maggiori quando una di loro e’ carica. Guarda qui e qui per una review dei processi di nucleazione atmosferica.

Anziché nucleare in una nuova particella, l’ H2SO4 potrebbe anche condensare in una particella di aerosol esistente, facendola crescere in dimensioni. A causa di questa competizione per il vapore, la nucleazione è più probabile che accada quando sono presenti solo pochi aerosol.

Crescita degli aerosol
La condensazione di altro vapore su di un aerosol già nucleato lo fa crescere in dimensione. Tuttavia, altri processi ostacolano la sua possibilità di diventare abbastanza grande da influenzare in modo significativo il clima: due aerosol possono scontrarsi, in un processo chiamato coagulazione. La coagulazione è particolarmente efficace fra nanoparticelle e particelle più grandi (di qualche centinaio di nanometri). Esso causa la crescita in dimensione della più grande, mentre la più piccola (appena nucleata) sparisce. In presenza di numerosi aerosol molto piccoli in giro (i.e. dopo un evento di nucleazione), essi possono anche coagulare assieme. Questo fa si che crescano in dimensione, ma decresce la loro concentrazione numererica. I processi di diminuzione del numero di aerosol (deposizione e coagulazione con particelle più grandi) sono più efficienti quando questi sono molto piccoli.

figura nucleazione e condensazione

Figura 1: Vari fattori influenzano il punto fino al quale la nucleazione contribuisce al numero di Nuclei di Condensazione delle Nuvole (CCN). (Figura in parte basata su una presentazione all’AGU di Jeff Pierce)

Misure
La formazione di nuove particelle è stata osservata in tutto il globo, dai Poli ai Tropici, dalle città alle aree remote, e da luoghi in superficie fino all’alta troposfera (guarda qui per una review di queste osservazioni). Fra questi luoghi, solo la nucleazione nella troposfera libera e nelle vicinanze di nubi sembra essere in accordo con le previsioni teoriche. Nella maggior parte degli altri casi il numero delle particelle di aerosol prodotte è sottostimato. Questo ha portato allo sviluppo di approcci semi-empirici per descrivere la nucleazione. Studi di laboratorio hanno tipicamente trovato dipendenze molto più forti sull’ H2SO4 rispetto alle misure in atmosfera. Un fattore confondente è che le particelle fra 1 e 2 nanometri appena formate non possono essere direttamente misurate con strumentazione disponibile commercialmente (sebbene ci siano nuovi sviluppi in questo campo). La nucleazione avviene in una sorta di terra di nessuno fra la fase gassosa e la fase liquida, sulla quale conosciamo sorprendentemente poco.

link immagine nucleazione

Figura 2: Misure di una nucleazione atmosferica e dell’evento di crescita nella Lower Fraser Valley, Canada. I colori danno la concentrazione numerica (normalizzata), dove il rosso indica un incremento nella concentrazione di particelle nucleate, le quali crescono fino all’intervallo di dimensione dei CCN (da Mozurkewich et al.).

Quindi cosa è necessario affinché la nucleazione avvenga? Fra le condizioni favorevoli ci sono una sorgente intensa di vapore condensabile; un’alta intensità di radiazione UV; una bassa area superficiale degli aerosol; umidità relativa alta; bassa temperatura; presenza di ioni; e processi atmosferici di rimescolamento. In differenti condizioni ambientali possono verificarsi diversi meccanismi di nucleazione. Ad esempio, nei fumi industriali e sulle aree urbane può essere presente abbastanza acido solforico da formare nuove particelle e farle crescere fino ad una dimensione stabile. L’ammoniaca potrebbe neutralizzare i cluster acidi, e quindi aiutare a stabilizzarli. Sopra le aree forestali, ci si aspetta che il ruolo relativo dei composti organici sia molto maggiore (sebbene resti una forte correlazione di eventi di nucleazione con l’acido solforico). Lungo le coste, i composti dello iodio sono probabilmente coinvolti nel processo di nucleazione. Nell’alta troposfera, la densità di ioni è normalmente più elevata, mentre quella dell’acido solforico è inferiore. Il ruolo relativo della nucleazione indotta dalla densità ionica può quindi essere maggiore lì. Il ruolo dominante dell’acido solforico è rimasto negli anni una conclusione stabile, mentre i ruoli potenziali dei composti organici e degli ioni sono ancora fortemente dibattuti.

Nella parte II, discuterò dell’importanza potenziale della nucleazione e dei raggi cosmici galattici sui cambiamenti climatici.

Articolo originale su Realclimate.org

Traduzione di: Federico Antognazza, Riccardo Reitano

Revisione di: Simone Casadei.

Pubblicato su Climalteranti il 18/4/2009.

19 – Con tutto il dovuto rispetto

Alcuni anni fa c’era una bella commedia (la cui origine ci sfugge) che dava esempi di come gli inglesi userebbero la loro lingua mentre parlano con un forestiero per dire esattamente l’opposto di ciò che comunemente si intende. Questo permetteva agli inglesi di sentirsi superiori senza effettivamente danneggiare le relazioni internazionali. Un esempio era la frase “con il dovuto rispetto” che comunemente implica che chi parla ha un grande rispetto per la sua controparte, mentre in realtà chi la dice intende che non ha neppure il minimo rispetto per il suo interlocutore. Il dovuto rispetto è esattamente zero.

Questo pensiero ci è venuto in mente quando questa settimana alcuni di noi hanno aperto l’email per trovarci una bozza di pubblicità mandata dal Cato Institute (i.e. Pat Michaels) cercando dei sottoscrittori prima di essere pubblicata sui “maggiori quotidiani americani” al più presto: Immagine volantino Cato
Ci sono una serie di dettagli divertenti. Mentre siamo curiosi sulle credenziali di “Dr. N. Qui”, certamente comprendiamo perchè stiano cercando un pò più di assortimento nella lista. Più sorprendente (e alquanto ironicamente) la mailing list per le richieste di sottoscrizioni contiene un certo numero di scienziati che non concordano per nulla con queste opinioni. E’ come se Michaels e il Cato in realtà credessero che queste varie liste di scienziati “dissenzienti” derivino da accurate riflessioni finalizzate a supportare il loro ordine del giorno. Sembrano essere stati pilotati dalla loro stessa disinformazione.

Come esercizio per i nostri lettori, forse la gente vorrebbe speculare su chi finirà nella lista pubblicata? (Amesso che venga pubblicata). La Spice Girl Ginger sarà probabilmente fuori forma, ma potrebbero anche migliorare lo screening stavolta …

La cosa più divertente sono le note a piè di pagina che vengono utilizzate per sostenere le loro argomentazioni. Ce ne sono quattro: il nuovo Swanson e Tsonis (GRL, 2009), Brohan et al (JGR, 2006) (che è citato perché fornisce un collegamento con i dati delle temperature HadCRU), Pielke et al (BAMS, 2005), e lo spesso deriso Douglass et al. (IJoC, 2008).

In questi articoli, non si trovano le prove per supportare le frasi attribuite a loro nel testo principale. Vale a dire:

I cambiamenti della temperature di superficie nell’ultimo secolo sono stati episodici e modesti e ad oggi non c’è stato nessun riscaldamento globale netto da oltre un decennio.

Bene, la prima parte della frase è esattamente quello che ci si aspetta, con un modesto trend di lungo periodo in presenza di variabilità interna e non è in contrapposizione con l’ultima parte della frase. Dire che “Il riscaldamento globale si è fermato” è particolarmente lacunoso dal momento che si basa su una finta ignoranza delle statistiche di breve periodo, e facendo attenzione alle serie di dati che si utilizzano. Inoltre richiede una scelta ad hoc dell’anno iniziale, essendo il periodo “esattamente un decennio” o 12 anni, quindi tutti i trend sono positivi.

L’uso del recente articolo di Swanson e Tsonis è semplicemente opportunismo. Quegli autori dicono specificatamente che i loro risultati non sono in nessun modo in contraddizione con l’idea di un trend di riscaldamento globale di lungo periodo. Al contrario, loro stanno cercando di caratterizzare la variabilità interna che tutti sanno che esiste.

Dopo aver controllato la crescita della popolazione e i valori immobiliari, non vi è stato nessun incremento nei danni dovuti a gravi fenomeni atmosferici

Questo riporta un breve commento nel BAMS che non presentava alcuna ricerca originale. Le ultime figure mostrano che i danni relativi al tempo atmosferico sono aumentati marcatamente, nonostante per la meteorologia ci sia una componente legata al cambiamento climatico difficile da evidenziare data la grande crescita di infrastrutture vulnerabili e la relativa carenza di dati. Il dato di fatto che non sia stato chiaramente dimostrato un netto trend relativo ai danni correlato con il riscaldamento globale non implica che si possa affermare definitivamente che non vi siano effetti correlati. Potrebbe essercene uno (o no), ma è difficile stabilire un’attribuzione formale. Comunque, qualsiasi attribuzione si concluda che ci sia, evidenziare che ci sono altri problemi nel mondo non implica che non valga la pena di preoccuparsi del cambiamento climatico antropogenico. Allo stesso modo, qualcuno potrebbe affermare che siccome gli infortuni al ginocchio sono aumentati sulle piste da sci nel tempo, non si dovrebbero curare i casi di influenza.

I modelli elaborati dai calcolatori, che prevedono un rapido cambiamento della temperatura, falliscono miseramente nel tentativo di spiegare il recente comportamento del clima..

Miseramente? Scelta di parole molto strana… e anche una strana scelta di riferimenti. Questo è di certo lo stesso articolo (Douglas et al.) che ha usato statistiche completamente incoerenti e ha deliberatamente fallito nell’evidenziare la strutturale incertezza nelle osservazioni. In modo non sorprendente Michaels non referenzia la demolizione piuttosto comprensibile della metodologia di Douglass pubblicata da Santer et al. (2008) (e della quale uno di noi è stato co-autore). Fondamentalmente, comunque, le temperature attuali sono ancora all’interno dell’intervallo di incertezza dei modelli anche se puoi scegliere ad hoc la tua data di partenza. Nessuno si aspetta che il mondo reale (una singola realizzazione) segua il trend medio forzato tutte le volte. Come si considera questo fatto, è un errore, una miseria o altrimenti?

E’ molto più interessante ciò che non è stato citato. L’affermazione del Presidente Obama “La scienza è oltre i dibattiti e i fatti sono chiari”, non può realisticamente riferirsi a ogni argomento nel mondo scientifico o ad ogni fatto potenziale. Invece egli probabilmente si riferisce ai fatti basilari e quasi del tutto incontestati che:

1) la CO2 e gli altri gas serra sono aumentati a causa dell’attività umana. Le emissioni di CO2 in particolare continuano a crescere con una velocità elevata;

2) l’effetto di questi gas serra è quello di scaldare il clima ed è molto probabile che la maggior parte del riscaldamento occorso negli ultimi 50 anni sia stato in effetti veicolata dalla loro crescita

3) la sensitività del clima è molto probabilmente ampia abbastanza da poter prevedere conseguenze gravi se le emissioni di carbonio continuano su questo passo.

Saremmo stupefatti se Michaels contestasse questo, dato che si sa che concorda sul fatto che la stima dell’intervallo di sensitività del clima dell’IPCC è probabile sia corretta e non ha mai dubitato sul contributo umano all’aumento della CO2 e degli altri gas serra. Lui e i suoi colleghi hanno persino condotto analisi che mostrano che, dopo aver corretto gli effetti di ENSO, non vi è assolutamente alcun segno di rallentamento del riscaldamento globale.

Invece questo è il classico diversivo: ignori i fatti che non contesti, ne selezioni altri che sono ambigui e insinui che, dato che sono soggetti ad un qualche dibattito, allora non ne conosciamo nulla. Presumibilmente, Michaels (e Cato) pensa che questo genere di non-senso sia politicamente utile e che possa essere corretto. Ma dovrebbe dichiararlo scientificamente difendibile, noi dovremmo rispondere:

“Con tutto il dovuto rispetto, Dr. Michaels, questo non è vero”

Articolo originale su Realclimate.org

Traduzione di: Federico Antognazza, Riccardo Reitano, Fabio Sferra

Revisione di: Simone Casadei

Pubblicato su Climalteranti il: 1/4/2009

18 – Il tempo di risposta tra temperatura e CO2 (Gore l’ha a

zzeccato)

Quando tengo delle conferenze sui cambiamenti climatici, la domanda che mi fanno più frequentemente è questa: “Il rapporto tra le emissioni di CO2 e la temperatura che risultano dai carotaggi glaciali [antartici] non mostra che sono le [variazioni di] temperatura a guidare quelle di CO2, e non viceversa?”.

Alla luce di tutto ciò, suona come una domanda ragionevole. Del resto, non si tratta di una sorpresa, perché questa è una delle più popolari affermazioni fatte dai negazionisti del riscaldamento globale. Inoltre, ha avuto un’alta risonanza circa due settimane fa, quando è stata fatta dal deputato Joe Barton nel suo tentativo di tentare di screditare la testimonianza al Congresso di Al Gore. Barton ha detto:

Nel suo film, mostra un andamento di temperatura e lo paragona ai livelli delle emissioni di CO2 nel corso di un periodo di 600.000 anni, come essi sono ricostruiti dai carotaggi glaciali. Lei afferma che questa è una prova del legame tra l’aumento delle emissioni di CO2 ed il riscaldamento globale. Tuttavia, un esame più attento di questi fatti rivela qualcosa di completamente diverso. Ho un articolo tratto dalla rivista Science, che mostrerò al momento opportuno, che spiega che, storicamente, un aumento delle concentrazioni di CO2 non è preceduto da un aumento delle temperature, ma in realtà lo segue con un ritardo da 200 a 1000 anni. I livelli di CO2 sono aumentati dopo che la temperatura è aumentata. La temperatura sembra guidare le emissioni di CO2, e non viceversa. Su questo punto, Signor Vice Presidente, lei non si sbaglia di poco. Sbaglia totalmente.

Naturalmente, coloro che sono stati attenti riconosceranno che Gore non ha sbagliato completamente. Infatti, questo tema è stato affrontato molto bene in molti posti. Infatti, Jeff Severinghaus ha affrontato questo argomento in uno dei nostri primi post di RealClimate già nel lontano 2004. La questione continua a tornare a galla, e Jeff ha recentemente ricevuto una lettera di richiesta al riguardo. La sua risposta allo scrittore della lettera è riprodotta integralmente alla fine di questo post. Qui di seguito c’è il mio pensiero sull’argomento.

Prima di tutto, dire “storicamente” è fuorviante, perché Barton sta in realtà parlando di cambiamenti di CO2 su tempi scala molto lunghi (glaciale-interglaciale). Su tempi scala storici, le emissioni di CO2 hanno sicuramente guidato, e non seguito, le temperature. Ma in ogni caso, non importa per quanto riguarda questo problema (il riscaldamento globale). Noi sappiamo perché le emissioni di CO2 stanno aumentando adesso, e le conseguenze dirette a livello di radiazione delle emissioni di CO2 sul clima sono note da più di 100 anni. In assenza di interventi umani, i livelli di CO2 aumentano e diminuiscono nel corso del tempo, a causa degli scambi di carbonio tra biosfera, atmosfera e oceani e, su tempi molto più lunghi, litosfera (vale a dire le rocce, le riserve di petrolio, carbone, le rocce di carbonato). I tassi di tali scambi sono ora completamente sopraffatti dalla velocità con cui stiamo estraendo carbonio da quest’ultima serie di serbatoi e convertendolo in CO2 atmosferica. Nessuna scoperta fatta con le carote di ghiaccio cambia questi fatti di base.

In secondo luogo, l’idea che ci potrebbe essere un ritardo delle concentrazioni di CO2 nei confronti dei cambiamenti di temperatura (durante i cambiamenti climatici glaciale-interglaciale), non è di certo una novità per la comunità scientifica del clima. Infatti, Claude Lorius, Jim Hansen e altri hanno essenzialmente previsto questo risultato già 17 anni fa, in un articolo di riferimento che ha affrontato la causa delle variazioni di temperatura osservate nelle registrazioni delle carote glaciali antartiche, ben prima che i dati mostrassero che le emissioni di CO2 potrebbero seguire in ritardo le temperature. In tale lavoro (Lorius et al., 1990), essi dicono che:

i cambiamenti nelle concentrazioni di CO2 e CH4 hanno svolto un ruolo significativo nelle variazioni glaciale-interglaciale del clima amplificando, insieme con la crescita e il decadimento delle coltri glaciali dell’emisfero settentrionale, la relativamente debole forzante orbitale

Quello di cui si parla qui è l’influenza del cambiamento della forzante radiativa stagionale dovuto all’oscillazione della Terra intorno al sole (la ben nota teoria di Milankovitch delle ere glaciali), combinato con il feedback positivo dell’albedo delle coltri glaciali (meno ghiaccio = meno riflessione della luce solare = temperature maggiori) e le concentrazioni dei gas a effetto serra (temperature più elevate = più CO2 = temperature maggiori). Pertanto, sia le emissioni di CO2 sia il volume dei ghiacci dovrebbero apparire un po’ in ritardo rispetto alle temperature, a seconda dei tempi di risposta caratteristici di queste diverse componenti del sistema climatico. Il volume dei ghiacci dovrebbe essere in ritardo rispetto alle temperature di circa 10000 anni, a causa del periodo di tempo relativamente lungo necessario per aumentare o ridurre le coltri glaciali. Ci si aspetta che le emissioni di CO2 siano in ritardo sulle temperature di circa 1000 anni, che è il tempo di scala atteso dalle variazioni nella circolazione oceanica e la forza della “pompa del carbonio” (cioè fotosintesi biologiche marine) che trasferisce il carbonio dall’atmosfera all’oceano profondo.

Diversi lavori recenti hanno infatti dimostrato che vi è ritardo di CO2 sulla temperatura. Non sappiamo realmente l’entità di tale ritardo, anche se Barton suppone di sì, perché è molto difficile porre le documentazioni delle emissioni di CO2 da carote glaciali allo stesso tempo di quelli di temperatura dalle stesse carote di ghiaccio, a causa del ritardo temporale nell’intrappolamento dell’atmosfera da quando la neve è compressa in ghiaccio (il ghiaccio, in qualsiasi momento, sarà sempre di età superiore alle bolle di gas che racchiude, e la differenza di età è di per sé incerta). Al momento, i migliori calcoli pubblicati mostrano valori simili a quelli citati da Barton (presumibilmente, presi da questo lavoro di Monnin et al. (2001), o da questo di Caillon et al. (2003)). Ma il calcolo può essere fatto bene solo quando la variazione di temperatura è molto elevata, in particolare nelle terminazioni glaciali (il graduale passaggio dal clima freddo glaciale al clima caldo interglaciale). Cosa importante, ci vogliono più di 5000 anni perché questo cambiamento si verifichi, e questo ritardo ne costituisce solo una piccola frazione (anzi, un lavoro recentemente presentato di cui sono a conoscenza suggerisce che il ritardo è addirittura minore di 200 anni). Quindi non è capitato che l’aumento della temperatura è terminato quando le emissioni di CO2 sono iniziate a salire. Piuttosto, vanno molto di pari passo, con la temperatura che continua a salire al crescere delle emissioni di CO2. In altre parole, le emissioni di CO2 si comportano come un amplificatore, come suggerito da Lorius, Hansen e colleghi.

Ora, se c’è una piccola critica che si potrebbe fare a Gore, è quella per come tratta questo tema nel film (come abbiamo già sottolineato nella nostra recensione). Come si può vedere, però, correggere questo punto effettivamente rafforza ulteriormente le affermazioni di Gore, invece di indebolirle. Ecco perché:

La registrazione delle temperature indicata nella carota glaciale non si riferisce al globo terrestre, ma si tratta di un archivio delle variazioni di temperatura locale in Antartide. Il resto del mondo in effetti segue da vicino le variazioni polari, ma le variazioni di temperatura media globale sono inferiori. Anche se non sappiamo esattamente il motivo per cui le variazioni delle emissioni di CO2 si verifichino a lungo termine (i meccanismi sono ben noti, i dettagli no), si sa che per comprendere l’entità delle variazioni della temperatura globale è necessario tener conto delle emissioni di CO2. Questo è un punto critico. Non siamo in grado di spiegare le osservazioni di temperatura senza considerare le emissioni di CO2. Tuttavia, le emissioni di CO2 da sole non spiegano tutte le variazioni, e la relazione tra temperature e CO2 non è quindi in alcun modo lineare. Cioè, ad un determinato quantitativo di incremento delle concentrazioni di CO2 come quello misurato nelle carote glaciali non deve necessariamente corrispondere una certa quantità di aumento della temperatura. Gore mostra la forte correlazione tra temperature e CO2 nei dati dalle carote di ghiaccio, e poi illustra il livello attuale di CO2 (384 ppm), lasciando all’occhio dello spettatore l’estrapolazione della curva di temperatura verso l’alto, in parallelo con l’aumento della CO2. Gore in realtà non fa l’errore di disegnare la curva della temperatura, ma la conseguenza è ovvia: le temperature saliranno molto. Ma, come illustrato nella figura qui sotto, la semplice estrapolazione di questa correlazione nel futuro pone la temperatura antartica a livelli alti, intorno a 10 °C più di oggi, nel prossimo futuro e non al termine ultimo del secolo come nella stragrande maggioranza delle proiezioni (come abbiamo discusso qui).

link grafico Realclimate

La temperatura media globale era inferiore durante i periodi glaciali per due motivi principali:

1) c’erano solo circa 190 ppm di CO2 in atmosfera, ed altri importanti gas ad effetto serra (CH4 e N2O) avevano concentrazioni anche inferiori;

2) la superficie della terra era più riflettente, a causa della presenza di molto ghiaccio e neve sul terreno, e molto più ghiaccio marino rispetto a oggi (cioé l’albedo era più elevata). Come discusso molto bene da Jim Hansen, nel suo recente articolo su Scientific American, la seconda di queste due influenze è la maggiore, rappresentando circa i 2/3 del totale della forzante radiativa, mentre CO2 e gli altri gas a effetto serra spiegano il rimanente 1/3. Anche in questo caso, ciò era già noto nel 1990, al momento dell’articolo di Lorius et al. precedentemente citato.

Quello che avrebbe dovuto fare Gore è estrapolare la curva di temperatura con un opportuno ridimensionamento di scala – tenendo conto che la CO2 rappresenta circa 1/3 della variazione totale – invece di lasciarlo fare ad occhio dal pubblico. Se avesse fatto così, avrebbe trasmesso l’informazione che solo 1/3 della variazione di temperatura è dovuta alla semplice correlazione con i valori di CO2 mostrati dalle carote glaciali. Questo avrebbe dato l’impressione che il punto di equilibrio per il riscaldamento dell’Antartide dovuto al raddoppio delle concentrazioni di CO2 dovrebbe superate le temperature attuali di circa 3 °C, in ottimo accordo con quanto è previsto da parte dello stato dell’arte dei modelli climatici (si noti che gli stessi modelli prevedono un significativo ritardo nel raggiungimento dell’equilibrio a causa della grande capacità termica del mare dell’emisfero meridionale, cosa che è in ottimo accordo con i dati, che mostrano un riscaldamento dell’Antartide molto più modesto negli ultimi 100 anni). Quindi, se si scalano le variazioni di temperatura in Antartide con quelle della temperatura globale, allora la sensitività del clima globale al raddoppio delle concentrazioni di CO2 diventa 2-3 °C, perfettamente in linea con la sensitività climatica dell’IPCC (nota dai calcoli di Arrhenius più di 100 anni fa).

In sintesi, i dati fondamentali delle carote glaciali non sono in alcun modo in contraddizione con la nostra comprensione della relazione tra le concentrazioni di CO2 ed i valori di temperatura, e non vi è nulla di fondamentalmente sbagliato in ciò che dice Gore nel film. Inoltre, Gore avrebbe potuto usare i dati delle carote glaciali per sottolineare e dare più forza ad un ulteriore punto: che questi dati forniscono un buon test indipendente della sensitività climatica, che dà un risultato in eccellente accordo con i risultati dei modelli.

Un ultimo punto: nelle critiche a Gore, Barton sottolinea anche che la CO2 è stata talvolta molto più elevata di quanto lo sia attualmente. Questo è vero: CO2 può aver raggiunto livelli di 1000 parti per milione (ppm) – forse anche molto più elevati – in un lontano passato geologico (ad esempio, nell’Eocene, circa 55 milioni di anni fa). Quello che Barton si è dimenticato di dire è che la Terra era molto, molto più calda in quell’epoca. In ogni caso, è più rilevante che la CO2 non ha mai superato circa 290 ppm nel corso degli ultimi 650.000 anni (almeno), fino all’aumento più recente, inequivocabilmente dovuto alle attività umane.

Eric Steig

Qui di seguito c’è la lettera scritta a Jeff Severinghaus, e la sua risposta:

Caro Jeff,

ho letto il tuo articolo “Che cosa ci racconta il ritardo della CO2 rispetto alle temperature nelle carote di ghiaccio sul riscaldamento globale?” Tu dici che la CO2 non avvia il riscaldamento, ma può amplificare i riscaldamenti già in corso. L’ovvia domanda che viene in mente è se i livelli di CO2 sono in ritardo, o no, anche nei periodi in cui inizia il raffreddamento dopo un ciclo di riscaldamento … anche in uno di 5000 anni?

Se i livelli di CO2 sul pianeta Terra sono in ritardo anche nei periodi di raffreddamento, allora come possono essere, i livelli di CO2, connessi in modo causale ai periodi di riscaldamento terrestre? Non sono sicuro di come le registrazioni delle carote di ghiaccio siano legate ai tempi di risposta di CO2 durante i periodi di raffreddamento. Se ci fosse un ritardo dei livelli di CO2 anche dopo l’inizio di un periodo di raffreddamento, quindi sembrerebbe che i livelli di CO2 non solo non avvierebbero i periodi di riscaldamento, ma sarebbero anche scorrelati con la comparsa dei periodi di raffreddamento. Sembrerebbe quindi che i livelli attuali di CO2 siano piuttosto impotenti come amplificatore in ogni caso… riscaldamento o raffreddamento. Stiamo parlando del pianeta Terra, dopo tutto, e non di Venere, su cui la pressione atmosferica è molte volte superiore a quella della Terra.

Se ci fosse un intervallo di tempo anche dopo l’inizio del raffreddamento, allora sembrerebbe che alcuni meccanismi aggiuntivi guidano attualmente le variazioni di temperatura. Quindi qual è la differenza temporale tra i livelli di CO2 all’inizio di un periodo di raffreddamento al termine di un periodo di riscaldamento e la storia temporale delle variazioni di temperatura nelle carote di ghiaccio?

Caro John,

I raffreddamenti sembrano essere causati principalmente ed inizialmente dall’aumento della distanza Terra-Sole durante l’estate boreale, a causa dei cambiamenti dell’orbita terrestre. Poiché l’orbita non è circolare, ma ellittica, la radiazione solare è inferiore in alcuni momenti dell’anno, rispetto ad altri. Questa è la cosiddetta ipotesi di Milankovitch [veramente si dovrebbe dire "teoria" - Eric], di cui forse hai sentito parlare. Proprio come durante i riscaldamenti, CO2 è in ritardo durante i raffreddamenti di un migliaio di anni, in alcuni casi anche di tremila anni.

Non commettiamo però l’errore di credere che questi riscaldamenti e raffreddamenti debbano avere una sola causa. È ben noto che vi sono coinvolti una molteplicità di fattori, tra cui il cambiamento dell’albedo planetaria, variazioni nella concentrazione di ossido di azoto, in quella di metano, ed in quella di CO2. So che sarebbe intellettualmente soddisfacente il fatto di identificare una singola causa per alcuni fenomeni osservati, ma purtroppo questo non è il modo in cui la natura funziona nella maggior parte dei casi.

Né vi è alcun obbligo per cui una sola causa operi nell’intero periodo di tempo del riscaldamento, lungo 5000 anni, ed in quello di raffreddamento, lungo 70000 anni.

Pertanto, non è logico sostenere che, poiché CO2 non provoca riscaldamento o raffreddamento nei primi mille anni o giù di lì, allora non può aver causato riscaldamento neanche nelle molte migliaia di anni del periodo compreso tra i due.

Pensa alle malattie del cuore – uno potrebbe essere tentato di sostenere che una determinata condizione cardiaca del paziente è stata causata esclusivamente dal fatto che ha mangiato patatine fritte a pranzo ogni giorno per 30 anni. Ma in realtà il periodo di 10 anni di mancato esercizio fisico a causa del lavoro sedentario, nel mezzo di questo intervallo di tempo, potrebbe aver avuto un peso decisivo. Solo perché uno stile di vita sedentario non ha causato l’inizio né la fine della formazione delle placche, tu escluderesti che la vita sedentaria possa avere un ruolo di contributo causale?

C’è una ricca letteratura su questo argomento. Se sei veramente interessato, ti esorto a leggerla.

Il contributo di CO2 ai raffreddamenti e riscaldamenti glaciale-interglaciale ammonta a circa un terzo dell’ampiezza completa, o circa la metà se si includono il metano e l’ossido di azoto.

Pertanto non si può asserire che i gas a effetto serra siano la principale causa delle ere glaciali. Nessuno scienziato credibile ha mai sostenuto questa posizione (anche se nel film di Al Gore era abbastanza implicita). Il contributo guida fondamentale è stato studiato a lungo, e continua ad esserlo, ed è la modifica da parte delle variazioni orbitali della distribuzione dell’irraggiamento solare sulla superficie terrestre, come si è modificata da variazioni orbitali. Questa ipotesi è stata proposta da James Croll nel 19° secolo, raffinata matematicamente da Milankovitch nel 1940, e continua a superare numerosi test critici ancora oggi.

I gas a effetto serra sono considerati più come un feedback biogeochimico, avviato dalle variazioni orbitali, e poi di nuovo retro-alimentato ad amplificare il riscaldamento una volta che è già in corso. Peraltro, il ritardo di CO2 di circa 1000 anni corrisponde abbastanza strettamente al tempo atteso necessario a far “sfiatare” l’eccesso di CO2 derivante dalla respirazione fuori dalle profondità oceaniche attraverso le correnti oceaniche naturali. Così lo sfasamento è abbastanza vicino a quello che ci si aspetterebbe, se CO2 agisse come un feedback.

Il tempo di risposta di metano ed ossido di azoto alle variazioni climatiche si misura in decenni. Quindi questi feedback operano molto più rapidamente.

Il contributo quantitativo di CO2 ai raffreddamenti e riscaldamenti delle ere glaciali è pienamente coerente con l’attuale comprensione delle proprietà di riscaldamento della CO2, come è evidente nelle proiezioni dell’IPCC sul futuro riscaldamento di 3±1,5 °C in seguito ad un raddoppio della concentrazione di CO2. Quindi non vi è alcuna incoerenza tra [la teoria di] Milankovitch e l’attuale riscaldamento globale.

Spero che questo [discorso] sia illuminante.

Jeff

Articolo originale su Realclimate.org

Traduzione di: Claudio Cassardo

Pubblicato su Climalteranti il: 25/3/2009

17 – Consiglio per un giovane blogger del clima

Congratulazioni! Hai appena compiuto il primo passo nel tentativo di comunicare le tue competenze e i tuoi pensieri al mondo esterno, che viene superficialmente servito dalle sue fonti tradizionali di informazione quando si tratta di questioni complesse e rilevanti socialmente, come i cambiamenti climatici. Il tuo obiettivo di chiarificare la scienza (o le opzioni politiche, le considerazioni etiche o semplicemente esporre i tuoi punti di vista) è uno sforzo nobile e ti auguriamo buona fortuna e un ampio numero di lettori. Tuttavia sii conscio che stai infilando il tuo blog in acque a volte insidiose. Le cose peggiori possono accadere ai migliori blogger. Quindi, in uno spirito di blog-cameratismo, e in luce della nostra esperienza e osservazione, ti offriamo qualche consiglio che potrebbe aiutarti a navigare nel clima politico relativamente indenni.

Sii onesto con te stesso e con i tuoi lettori. Se il tuo obiettivo è di educare, dillo. Se di spingere per maggiori fondi per i tuoi progetti, o sostenere una determinata politica, sii diretto su questo. Non essere in ogni caso sorpreso se le persone spendono il loro tempo cercando secondi fini in quello che fai. Esiste una scuola di pensiero per la quale ogni discorso pubblico dev’essere diretto verso l’azione pubblica e un apporto puro di informazioni è una cosa che non esiste. Comunque, questo viene spesso interpretato nel senso che tutti i discorsi pubblici debbano essere pro o contro una specifica proposta, e questo non ha senso. Si può criticare l’uso improprio della scienza del clima da parte di George Will o di Alexander Cockburn senza essere d’accordo o meno, o addirittura senza aver neanche letto le loro proposte politiche pubbliche. Ovviamente il corollario di questa posizione, ovvero che ognuna di queste critiche delle tue affermazioni deve essere essa stessa diretta a supporto dell’azione politica opposta, è raramente apprezzata. D’altra parte, dare per scontato che la critica delle tue affermazioni deve essere politicamente motivata è spesso un errore: a volte è vero, ma ci sono un buon numero di eccezioni che confermano che questo non andrebbe fatto.

Sappi che ci sono persone che ti traviseranno. Viene percepito che la scienza del clima abbia implicazioni politiche, economiche ed etiche. Buona parte di ció che viene discusso in realtà non ha alcuna di tali implicazioni, ma la “scientifizzazione” di discorsi politici su questo tema conferma che fare microanalisi di un lavoro pubblicato o postare su blog è una pratica comune. Sostenitori di tutte le parti (anche se con una predominanza di quelle al di fuori della corrente principale) esamineranno se un nuovo risultato o commento sembra inserirsi nel loro specifico interesse, e lo strombazzeranno in giro se è così. Le motivazioni possono spaziare da specificamente politiche fino al desiderio di pubblicità o di una posizione, anche se i motivi precisi sono spesso oscuri e nella maggior parte dei casi non vale neanche la pena discuterne. Così gli anelli degli alberi del XV secolo diventano uno spunto contro il Protocollo di Kyoto, come i flagelli batterici vengono chiamati in causa quando si parla del ruolo della religione nella vita pubblica.

Nel mondo specifico dei blog legati al clima ci sono numerosi canali entro i quali le esposizioni erronee ottengono ampia diffusione. Matt Drudge, ad esempio, spende una quantità straordinaria di tempo nel cercare storie pazze sulla climatologia nelle fonti d’informazione borderline ed evidenziandole nel molto letto Drudge Report. Marc Morano (il quale sembra stia lasciando il suo posto di membro dello staff del senatore Inhofe) è un lettore molto diligente dei blogs climatici (Pielke2, WUWT, RC etc.) e qualsiasi esposizione erronea trovata o critiche che possono essere male interpretate, è prontamente segnalata in moltissime e-mail. Da lì, ad essere fortunati, ulteriori errate interpretazioni potrebbero trovare spazio nello show di Rush Limbaugh (tramite Roy Spencer), o da Glenn Beck come argomentazioni da scartare che confermano (a loro) la perfidia della corrente principale della climatologia.

Fai attenzione che l’impatto che hai potrebbe essere molto differente dall’impatto che pensi dovresti avere. Fino ad oggi, se ti ritrovi costantemente citato erroneamente o segnalato nel supportare idee e posizioni che non condividi, pensa al motivo di tutto ciò. Probabilmente sarai accusato di ‘difesa nascosta’ cioè di appoggiare segretamente coloro che ti citano erroneamente. Se non fosse effettivamente così, ricorda che l’abbandono della responsabilità per le tue parole (cioè “come potevo sapere che sarei stato citato erroneamente così spesso?”) non è una opzione che ti lascia molta integrità. Essere mal citato una volta potrebbe essere una sfortuna, esserlo più volte puzza di negligenza.

Non aspettarti che il mondo sia equo. Leggi “Bambi contro Godzilla” di Mamet, e in particolare la sezione che contiene questa frase:

“In queste competizioni di menzogne, la parte che realmente subisce la mistificazione, la parte con un vero programma realizzabile, o che possegga un prodotto effettivamente utile, è in grave svantaggio; è bloccata in una posizione che non può abbandonare, e, così, non può usare le sue qualità in elucubrazioni, distrazioni, drammi e sotterfugi.”

Poichè sei presumibilmente legato ad un complesso coerente di idee, non sarai in grado di usare dieci argomenti inconsistenti mutuamente contradittori nello stesso paragrafo, o di impegnarti in una selezione artificiosa, in una distorsione o in intenzionali cattive citazioni. Tuttavia occasionalmente è istruttivo mostrare cosa avresti potuto affermare se non avessi avuto questi principi etici.

Non lasciare che critiche del tutto infondate ti infastidiscano. Se parli nella sfera pubblica, sicuro come la notte segue il giorno, verrai criticato. Alcune critiche sono costruttive e ti aiuteranno a identificare la tua voce. Molte non lo sono. Se avrai successo, inizierai a confrontarti con un simulacro online di te stesso che porta il tuo nome e posto di lavoro ma che non condivide nessuna delle tue idee, non ha alcun tratto caratteriale da mantenere e sarebbe del tutto estraneo a chiunque ti abbia effettivamente conosciuto. Ignoralo o ignorala. Ci sono persone che saranno sempre più contente di demonizzare gli oppositori che di interagire onestamente con persone vere.

Non diffamare le persone. Questo non dovrebbe essere necessario dirlo, ma accusare banalmente gli scienziati di disonestà, furto, cattiva pratica accademica e frode ti esclude con buona probabilità dai discorsi seri. Invece servirà a marginalizzarti – sebbene potresti guadagnare dei seguaci devoti in uno specifico ambito. Non sorprenderti se, come conseguenza, altre persone inizieranno a reagire negativamente ai tuoi commenti.

Correggi gli errori. Ancora, dovrebbe essere ovvio che mantenere dell’integrità richiede che gli errori di fatto siano corretti il prima possibile.

Rammenta che, sebbene parli per te stesso, se prendi le posizioni della principale corrente di pensiero, sarai percepito come se parlassi per l’intera comunità della scienza del clima. Perciò non criticare anonimi “scienziati” in generale quando vuoi essere specifico, e non assumere che il contesto in cui stai parlando sia immediatamente ovvio per la comprensione di lettori occasionali.

Evita l’uso di un linguaggio che può essere facilmente frainteso. Questo è difficile.

Non usare alcuna metafora da Seconda Guerra Mondiale. Mai. Questo rende troppo facile per le persone far ricorso alla retorica e al falso oltraggio. Comunque tieni saldamente in pugno i tuoi punti di vista, l’appropiatezza di queste immagini è sempre difficile da vendere, e non ti sarà data alcuna occasione di promuovere la tua argomentazione. Questo è perciò quasi semprecontroproducente e può essere esteso a qualunque tipo di linguaggio manicheo.

Se sarai additato dai propagandisti, fai tua quella attenzione come se indossassi una medaglia d’onore. Sarai in una compagnia davvero buona.

Se vieni coinvolto in una “tempesta da blog”, sappi che anche questa passerà. Essere individuati come bersaglio non è molto divertente (chiedi a Heidi Cullen). Ma il ciclo di vita di una schermaglia legata ai blog dura generalmente pochi giorni, e il mondo dei blog nell’insieme soffre di estremo disordine dovuto alla mancanza di attenzione. Dopo aver scoperto che lunedì il tuo post e i tuoi commenti erano l’argomento di cui tutti parlavano, probabilmente giovedì non verrà più neanche citato.

Riconosci che l’umorismo è di gran lunga più efficiente dell’offesa. Ma tenta ed elevati al di sopra del livello del camposcuola. Pensa a Jon Stewart piuttosto che a Rodney Dangerfield.

Se tutto quello detto sopra non ti dissuade completamente dall’idea, benvenuto nel mondo dei blog! La tua voce è sicuramente necessaria!

Articolo originale su Realclimate.org

Traduzione di: Federico Antognazza, Riccardo Reitano, Martino Salvaro, Lighea Speziale

Revisione di: Simone Casadei

Pubblicato su Climalteranti il: 21/3/2009

16 – Incendi e calore estremo nell’Australia sudorientale

Sabato 7 febbraio 2009, l’Australia ha vissuto il suo peggiore disastro naturale da oltre 100 anni, quando incendi disastrosi hanno ucciso più di 200 persone e distrutto più di 1800 case nello stato di Victoria, Australia. Questi incendi hanno avuto luogo in un giorno di temperature elevate a livelli senza precedenti nel Sud dell’Australia, parte di un’ondata di calore iniziata 10 giorni prima, e di un periodo record di siccità.

Questo è stato scritto a Melbourne, Australia, esattamente una settimana dopo gli incendi, appena il tempo sufficiente di fermarsi e riflettere su questa tragedia e le condizioni meteorologiche estreme che hanno portato a questo. Per prima cosa, vorrei esprimere la mie sincera solidarietà per tutti coloro che hanno perso delle persone care o amici e a tutti coloro che hanno sofferto per questo disastro.

A livello globale i media hanno dato ampio spazio a questo disastro naturale e, naturalmente, speculazioni sul possibile ruolo del cambiamento climatico su questi incendi. Quindi, è il cambiamento climatico ad aver causato questi incendi? La risposta semplice è “No!” Il cambiamento climatico non ha dato vita agli incendi. Sfortunatamente, sembra che uno o più incendi possano essere stati accesi da piromani, altri possono essere stati causati accidentalmente ed altri ancora dalla caduta di linee elettriche, fulmini o altre cause naturali.

Forse c’è un modo diverso di esporre la questione: in che modo, se esiste una relazione, il cambiamento climatico può aver influito su questi incendi?

Per rispondere a questa domanda, dobbiamo andare a vedere la storia degli incendi e del clima torrido avvenuti negli ultimi 100 anni circa. Gli incendi avvengono regolarmente nel SudEst dell’Australia con precedenti disastrosi incendi nel “Mercoledì delle Ceneri”, il 16 febbraio 1983, e il “Venerdi Nero”, il 13 gennaio 1939, ed entrambi hanno portato a significative perdite di vite umane e proprietà immobiliari. Per fortuna un report recente “Condizioni meteorologiche favorevoli agli incendi nel SudEst dell’Australia: tendenze recenti e impatti del cambiamento climatico previsto” (rif. 1) nel 2007 ha fornito una valutazione esauriente su questo argomento. Inoltre l’Ufficio Meteorologico Australiano con la sua “Dichiarazione Speciale sul Clima” (rif 2) descrive l’ondata di calore straordinaria e le condizioni di siccità al momento degli incendi.

A seguito degli incendi del Venerdì Nero, è stato creato negli anni ‘60 l’indice MacArthur sul pericolo di incendio delle foreste (FFDI), che è un indicatore empirico delle condizioni meteorologiche associate con un pericolo alto o estremo di incendio, e con la difficoltà di spegnimento dell’incendio. L’indice FFDI è il prodotto di termini relativi agli esponenziali di temperatura massima, umidità relativa, velocità del vento, e aridità del combustibile (misurata usando un fattore di siccità). Ognuno di questi termini è relativo a fattori ambientali che influenzano la gravità delle condizioni dell’incendio. La formula del FFDI è fornita nel report sulle Condizioni meteorologiche favorevoli agli incendi nel SudEst dell’Australia. La scala FFDI è usata per classificare la pericolosità dell’incendio e la dichiarazione dei giorni di divieto totale di accensione fuochi in Victoria

Classificazione pericolosità di incendio Intervallo FFDI
Alto da 12 a 25
Molto alto da 25 a 50
Estremo >50

La scala FFDI è stata creata in modo tale che il disastroso incendio del Venerdì Nero del 1939 abbia un valore FFDI pari a 100.

Per capire le condizioni ambientali associate al disastroso incendio del 7 febbraio 2009 dobbiamo considerare ogni singolo fattore e il possibile ruolo che ha avuto il cambiamento climatico nel determinarlo.

Temperatura massima: questo è il fattore più semplice da considerare. Il 7 febbraio sono state registrate temperature massime elevate sia a Melbourne sia in gran parte di Victoria (rif. 2). A Melbourne, sulla base di una serie storica di osservazioni lunga più di 100 anni, è stato registrato un nuovo record di temperatura massima pari a 46.4°C, 0.8°C più elevato del precedente record assoluto, registrato durante il Venerdì Nero (Black Friday) del 1939 e di 3°C superiore al precedente massimo di febbraio, registrato l’8 febbraio 1983 (lo stesso giorno in cui una terribile tempesta di polvere colpì Melbourne). Ma forse l’isola di calore della città di Melbourne ha influenzato questi nuovi records. Questo può essere vero per Melbourne, ma numerose altre stazioni nello stato di Victoria hanno misurato il 7 febbraio temperature massime da record di tutti i tempi, tra cui anche il sito rurale di particolare qualità ambientale di Laverton, vicino Melbourne, in cui è stata misurata una temperatura massima pari a 47.5°C, ben 2.5°C superiore rispetto al massimo precedente del 1983. L’ondata di calore estrema del 7 febbraio è arrivata dopo un’altra ondata di calore da record 10 giorni prima, durante la quale Melbourne ha vissuto per tre giorni di fila con temperature massime superiori ai 43°C tra il 28 e il 30 gennaio; un episodio simile non si era mai verificato nei 154 anni di osservazioni disponibili per Melbourne. Un’immagine impressionante delle anomalie di temperatura al suolo associate a questa ondata di calore è disponibile sul sito dell’Osservatorio Terrestre della NASA.

Gli aumenti della temperatura media e della temperatura massima media in Australia sono stati attribuiti ai cambiamenti climatici di origine antropica, come riportato nel Quarto Rapporto dell’IPCC, in cui viene data una migliore stima del contributo antropogenico agli aumenti della temperatura massima media di circa 0.6°C dal 1950 al 1999 (Karoly and Braganza, 2005). In una recente analisi degli eventi estremi osservati e modellizzati in Australia è stata trovata una tendenza all’aumento dei valori estremi di temperatura e un significativo incremento della durata delle ondate di calore dal 1957 al 1999 (Alexander e Arblaster, 2009). Pertanto, il cambiamento climatico di origine antropica costituisce probabilmente un importante fattore che ha contribuito alle temperature massime senza precedenti misurate il 7 febbraio 2009.

Umidità relativa: valori di umidità relativa bassi a livelli record sono stati misurati a Melbourne e in altri siti dello stato di Victoria il 7 febbraio, con valori minimi del 5% nel tardo pomeriggio. Anche se non sono disponibili lunghe serie storiche di dati di umidità di alta qualità per l’Australia, il bassissimo tasso di umidità è probabilmente associato alla eccezionale scarsità di precipitazioni verificatasi dall’inizio dell’anno a Melbourne e alla prolungata onda di calore. Non ci sono studi specifici che hanno attribuito la riduzione dell’umidità relativa in Australia ai cambiamenti climatici di origine antropica, tuttavia questo è consistente con l’aumento delle temperature e la diminuzione delle precipitazioni, attesi a causa dei cambiamenti climatici nel Sud dell’Australia.

Velocità del vento: i pericolosi ed eccezionali incendi nel Sud Est dell’Australia sono associati a forti venti settentrionali che portano con loro aria calda e secca dall’Australia centrale. Le condizioni meteorologiche ed i venti settentrionali il 7 febbraio erano simili a quelli in occasione del Mercoledì delle Ceneri (Ash Wednesday) e del Venerdì Nero (Black Friday), e i venti davvero sostenuti non sembrano né essere eccezionali né collegati al cambiamento climatico.

Il fattore siccità: come precedentemente menzionato, la città di Melbourne e buona parte dello stato di Victoria hanno subito il record di scarsità di pioggia relativamente al primo periodo dell’anno. Melbourne ha registrato 35 giorni consecutivi senza piogge misurabili fino al 7 Febbraio, il secondo periodo più lungo di sempre senza pioggia, ed il periodo fino all’8 Febbraio, con un totale di soli 2.2 mm, è stato il più secco inizio d’anno per Melbourne in più di 150 anni (rif. 2). Questa situazione fu preceduta da 12 anni di precipitazioni medie molto al di sotto della media su buona parte del Sud Est dell’Australia, con un record di scarsità di pioggia sui 12 anni nel sud dello stato di Victoria (rif. 2). Questo ha contribuito al valore estremamente basso di umidità (3-5 %) rilevato il 7 febbraio 2009. Mentre si prevede che il Sud Est dell’Australia verrà interessato da minori precipitazioni e più siccità a causa deii cambiamenti climatici antropogenici, risulta difficile quantificare i contributi relativi della variabilità naturale e del cambiamento climatico per la siccità dell’inizio del 2009.

Sebbene studi specifici che quantificano l’influenza del cambiamento climatico sulla cresciuta probabilità di pericolo di incendi estremi nel Sud Est dell’Australia non siano ancora stati realizzati, è molto probabile che tale influenza ci sia stata. Gli incrementi a lungo termine nella temperatura massima sono stati attribuiti al cambiamento climatico antropogenico. L’FFDI per un numero di siti nello stato di Victoria il 7 febbraio ha registrato valori mai raggiunti prima, variando tra 120 e 190, molto maggiore delle condizioni meteorologiche del “Mercoledì delle Ceneri” e del “Venerdì Nero” ed abbastanza al di sopra del livello “catastrofico” nella scala del pericolo d’incendi (rif. 1).

Certamente, gli impatti dei cambiamenti climatici antropogenici sugli incendi nel Sud Est dell’Australia o in qualsiasi altra parte del mondo non sono nuovi o inaspettati. Nel 2007, il Quarto Rapporto dell’IPCC nel capitolo del WGII “Australia e Nuova Zelanda” concluse:

Un incremento del pericolo d’incendi in Australia è probabilmente associato ad un ridotto intervallo tra un incendio e l’altro, ad una cresciuta intensità del fuoco, ad una diminuzione degli spegnimenti e ad una maggiore velocità di propagazione del fuoco. Nel Sud Est dell’Australia la frequenza di giornate con pericolo molto alto o estremo di incendi è probabilmente destinato a salire tra il 4 e il 25% entro il 2020 e tra il 15 e il 70% entro il 2050.

In maniera simile al caso australiano, incrementi osservati e previsti negli incendi delle foreste sono stati legati al cambiamento climatico nell’Ovest degli Stati Uniti, in Canada ed in Spagna (Westerling et al, 2006; Gillett et al, 2004; Pausas, 2004). Mentre risulta difficile separare le influenze della variabilità climatica, del cambiamento climatico e delle modifiche nelle strategie di gestione degli incendi a fronte degli osservati aumenti dell’attività degli incendi, è chiaro che il cambiamento climatico stia aumentando la probabilità di condizioni ambientali associate all’estremo pericolo di incendi nel Sud Est dell’Australia ed in numerose altre parti del mondo.

Riferimenti e ulteriori pubblicazioni:

(1) Bushfire Weather in Southeast Australia: Recent Trends and Projected Climate Change Impacts, C. Lucas et al, Consultancy Report prepared for the Climate Institute of Australia by the Bushfire CRC and CSIRO, 2007.

(2) Special Climate Statement from the Australian Bureau of Meteorology “The exceptional January-February 2009 heatwave in south-eastern Australia”

Karoly, D. J., and K. Braganza, 2005: Attribution of recent temperature changes in the Australian region. J. Climate, 18, 457-464.

Alexander, L.V., and J. M. Arblaster, 2009: Assessing trends in observed and modelled climate extremes over Australia in relation to future projections. Int. J Climatol., available online.

Hennessy, K., et al., 2007: Australia and New Zealand. Climate Change 2007: Impacts, Adaptation and Vulnerability. Contribution of Working Group II to the Fourth Assessment Report of the Intergovernmental Panel on Climate Change, M.L. Parry, et al., Eds., Cambridge University Press, Cambridge, UK, 507-540.

Westerling, A. L., et al., 2006: Warming and Earlier Spring Increase Western U.S. Forest Wildfire Activity. Science, 313, 940.

Gillett, N. P., et al., 2004: Detecting the effect of climate change on Canadian forest fires. Geophys. Res. Lett., 31, L18211, doi:10.1029/2004GL020876.

Pausas, J. G., 2004: Changes In Fire And Climate In The Eastern Iberian Peninsula (Mediterranean Basin). Climatic Change, 63, 337–350.

Articolo originale su Realclimate.org

Traduzione di: Giulia Fiorese, Martino Salvaro, Fabio Sferra

Revisione di: Simone Casadei

Pubblicato su Climalteranti il: 25/2/2009

15 – Irreversibile non significa inarrestabile

Susan Solomon, luminare per le tematiche legate al buco dell’ozono, membro dell’IPCC vincitrice del Premio Nobel, e i suoi colleghi, hanno appena pubblicato un articolo intitolato “Cambiamenti climatici irreversibili a causa delle emissioni di anidride carbonica” nei Proceedings della Accademia Nazionale delle Scienze. Noi di realclimate abbiamo ricevuto molte chiamate da parte di giornalisti per quanto riguarda questo articolo e, qualcuno di loro sembra aver inteso che l’apocalisse stia per colpirci. Qualche anno fa, Dennis Avery e Fred Singer hanno usato la parola “inarrestabile” come vessillo di battaglia per quanto riguarda il fatto che il riscaldamento osservato sia un processo naturale e perciò non ci sia nulla che l’umanità possa fare per cercare di cambiarne il corso. Quindi, secondo la retorica visione della loro associazione si potrebbe affermare Inarrestabile = brucia baby brucia! Attenzione, non confondiamo “irreversibile” con “inarrestabile”. Uno significa che non si torna indietro, mentre l’altro significa che non si può fermare. Sono aggettivi molto diversi. Non disperiamo!

Solomon e colleghi sottolineano che le continue e non limitate emissioni di CO2 nell’atmosfera avrebbero conseguenze climatiche che persisterebbero per un migliaio di anni, che loro operativamente definiscono come “per sempre”, nel senso di “irreversibile”. Non è esattamente una novità scientifica che la concentrazione atmosferica della CO2, dopo un’immissione nel ciclo del carbonio di nuova CO2 da combustibili fossili, permanga per migliaia di anni più elevata rispetto ai livelli naturali. La concentrazione atmosferica della CO2 presenterà una netta impennata in corrispondenza della fine dell’era dei combustibili fossili, quindi, una volta che l’umanità sarà divenuta indipendente dal carbonio (immaginate!) la concentrazione di CO2 incomincerà a calare, rapidamente all’inizio ma dopo pochi secoli si stabilizzerà in una “lunga coda” che persisterà per centinaia di migliaia di anni.

Questa “lunga coda” è stata prevista per la prima volta da un modello del ciclo del carbonio realizzato da Walzer e Kasting nel 1992. Il mio primissimo post su Realclimate era intitolato “Fino a quando durerà il riscaldamento globale?”, riguardava proprio questa lunga “coda”. Ecco qui un articolo tratto dalla rivista Climatic Change che fa il punto sui modelli del ciclo del carbonio riportati in letteratura, modelli che mostrano tutti la lunga coda. Un certo numero di noi sostenitori della lunga coda si sono riuniti (elettronicamente) per realizzare il “Progetto di Intercomparazione dei Modelli a Lunga Coda”, LTMIP, come per gli altri modelli PMIP e OCMIP (i primi risultati appariranno presto nell’Annual Reviews di Earth and Planetary Sciences). Vi ho anche scritto un libro a proposito.

Le molecole che realmente contengono carbonio nei combustibili fossili si diffondono negli altri serbatoi di carbonio nelle parti rapide del ciclo del carbonio, dissolvendosi negli oceani ed entrando nel ciclo fotosintetico delle piante terrestri. La diffusione del carbonio è analoga ad una piccola quantità d’acqua che viene versata in un punto di un lago: essa si diffonde rapidamente nel resto del lago, piuttosto che rimanere bloccata là dove è stata versata, e il livello del lago cresce di un po’ in ogni sua parte. Fuor di metafora, nel ciclo del carbonio, il contenuto di CO2 atmosferica aumenta insieme al contenuto degli altri serbatoi di carbonio.

In definitiva, la frazione atmosferica di CO2 emessa è determinata in larga parte dal volano chimico degli oceani; si può ottenere una buona stima con un semplice calcolo basato su un oceano ben miscelato, ignorando tutte le complicazioni come le differenze di temperatura, la circolazione e la biologia. L’oceano decide che la frazione atmosferica di un rilascio di CO2, dopo la sua diffusione negli altri comparti veloci del ciclo del carbonio, sarà nell’ordine del 10 – 30 %. Il solo modo a lungo termine per accelerare la rimozione di CO2 nella lunga coda sarebbe di rimuovere attivamente la CO2 dall’aria, la qual cosa personalmente ritengo, in prospettiva, sarà necessaria. Ma in questo caso l’effetto volano dell’oceano lavorerebbe contro di noi, rilasciando CO2 per “compensare” i nostri sforzi.

Come risultato della lunga coda, qualsiasi impatto climatico originato da una maggiore CO2 nell’aria sarà essenzialmente irreversibile. A questo punto la domanda è: quali sono gli impatti della CO2 sul clima? Diventa più caldo, questo è chiaro, e il livello dei mari aumenta. L’aumento del livello dei mari è una conseguenza profonda della lunga coda del riscaldamento globale, perchè la risposta nel passato, su scale temporali geologiche, è stata di decine di metri per °C di cambiamento nella temperatura media globale, circa 100 volte più forte della previsione IPCC per il 2100 (circa 0,2 metri per °C). Il terzo impatto che guadagna l’immortalità grazie alla lunga coda sono le precipitazioni. In questo caso la storia convenzionale è stata che i modelli climatici non sono molto in accordo tra loro nel prevedere i cambiamenti di precipitazioni su scala regionale in risposta ad un aumento della CO2. Apparentemente ciò sta cambiando con la suite AR4 delle corse dei modelli, come Solomon et al hanno dimostrato nella loro Figura 3. Inoltre, c’è un quadro degli impatti da siccità consistente con il riscaldamento in alcuni luoghi, per esempio nel Sud Ovest degli Stati Uniti, sia negli ultimi decenni che nel Medioevo. Le specifiche di una previsione sui fenomeni di siccità dovuti al riscaldamento globale stanno iniziando a essere approfondite.

Forse la disperazione che abbiamo sentito nelle domande dei nostri intervistatori è derivata dall’osservazione, nell’articolo, che la temperatura continuerà ad aumentare anche se le emissioni di CO2 fossero fermate oggi. Ma dovete ricordare che i cambiamenti intervenuti nel clima fino ad adesso, sia osservati che attribuiti, sono minori se paragonati alla previsione business-as-usual per la fine del secolo. Sono le emissioni ulteriori di cui dobbiamo preoccuparci. Il cambiamento climatico è come un ingranaggio, che carichiamo emettendo CO2. Una volta che giriamo la manovella, non è facile tornare indietro al clima naturale. Ma possiamo ancora decidere di smettere di girare la manovella, e prima lo faremo meglio sarà.

Walker JCG, Kasting JF. 1992. Effects of fuel and forest conservation on future levels of atmospheric carbon dioxide. Palaeogeogr. Palaeoclimatol. Palaeoecol. (Glob. Planet. Change Sect.) 97:151–89

Articolo originale su Realclimate.org

Traduzione di: Emanuele Eccel, Riccardo Mancioli, Tania Molteni

Revisione di: Simone Casadei

Pubblicato su Climalteranti il: 10/2/2009

14 – Un aggiornamento dell’indice globale dei ghiacciai

Per le serie delle temperature globali abbiamo a disposizione GISTEMP, NCDC e HadCRUT. Ognuno di questi gruppi di ricerca ha lavorato sodo per assimilare i dati delle temperature globali in indici di temperatura globale accurati e affidabili. L’equivalente per i ghiacciai alpini è il World Glacier Monitoring Service (WGMS) ovvero il Servizio Mondiale di Monitoraggio dei Ghiacciai, che registra il bilancio di massa e il comportamento della fronte dei ghiacciai. Fin dal 1986, WGMS ha mantenuto e pubblicato una raccolta di informazioni sui cambiamenti dei ghiacciai in corso che iniziarono nel 1960 con il Permanent Service on Fluctuations of glaciers (Servizio Permanente sulle Fluttuazioni dei Ghiacciai). Questo programma negli ultimi 10 anni si è sforzato di acquisire, pubblicare e verificare le misure di variazione frontale e quelle di bilancio di massa dei ghiacciai montani provenienti da tutto il mondo e organizzati su base temporale. Guidato da Wilfried Haeberli con l’assistenza di Isabelle Roer, Michael Zemp, Martin Hoelzle dell’Università di Zurigo, il gruppo di lavoro ha sviluppato una recente pubblicazione, “Global Glacier Changes: facts and figures” (Cambiamenti Globali dei Ghiacciai: fatti e dati) pubblicata congiuntamente con l’UNEP. Questa pubblicazione riassume le informazioni raccolte e conferite dai corrispondenti nazionali del WGMS e raffigura la risposta globale dei ghiacciai ai cambiamenti climatici, così come la risposta regionale.

La salute di un ghiacciaio montano è solitamente determinata monitorando il comportamento della fronte e/o del suo bilancio di massa. Il bilancio di massa di un ghiacciaio è la differenza fra l’accumulo e l’ablazione (fusione e sublimazione) e può essere alterato dalle variazioni di temperatura e delle precipitazioni nevose causate dai cambiamenti climatici. Un ghiacciaio con un continuo bilancio negativo è in disequilibrio e si ritirerà. Un ghiacciaio con un
continuo bilancio positivo è in disequilibrio e avanzerà per ristabilire il suo equilibrio. L’avanzata di un ghiacciaio aumenta l’estensione del ghiacciaio stesso alle quote inferiori dove l’ablazione è più alta, compensando l’incremento dell’accumulo. Il ritiro di un ghiacciaio consta nella perdita dei settori più bassi del ghiacciaio stesso. Siccome le alte quote sono più fredde, la scomparsa della parte più bassa del ghiacciaio riduce l’ablazione totale, incrementando il bilancio di massa e, potenzialmente, ristabilendo l’equilibrio. Se un ghiacciaio è privo di un consistente accumulo è in disequilibrio (stato non stazionario) con il clima e si ritirerà inesorabilmente finchè non si realizzerà un cambiamento climatico verso condizioni più fredde e più nevose (Pelto, 2006; Paul et al., 2007).

In termini di bilancio di massa i due grafici riportati indicano la media annuale del bilancio di massa dei link immagine realclimateghiacciai considerati dal WGMS e la media del bilancio cumulato dei ghiacciai monitorati con più di 30 anni di dati e di tutti i ghiacciai monitorati. I trend dimostrano perché i ghiacciai montani si stiano attualmente ritirando: i bilanci di massa sono significativamente e consistentemente negativi. Il bilancio di massa è espresso in cambiamenti di spessore in termini di equivalente d’acqua. Una perdita di 0.9 m di equivalente d’acqua è la stessa cosa di una perdita di 1.0 m di spessore del ghiacciaio, siccome la densità del ghiaccio è minore della densità dell’acqua. La perdita cumulata degli ultimi 30 anni equivale a tagliare una spessa fetta dal ghiacciaio medio. La tendenza è molto coerente fra una regione e l’altra. La figura a destra è l’indice annuale del bilancio di massa glaciale dal WGMS (se questo fosse un bilancio aziendale sarebbe già ora in bancarotta). L’indice cumulato del bilancio di massa, basato su 30 ghiacciai con 30 anni di dati e su tutti i ghiacciai non è apprezzabilmente diverso (la linea tratteggiata è per un sottoinsieme di 30 ghiacciai di riferimento, siccome non tutti i 30 ghiacciai hanno fornito i dati complessivi per tutti gli ultimi anni):

link immagine realclimate2

Il grafico per i ghiacciai del Nord America non è molto diverso, individualmente o collettivamente. La prossima figura mostra il bilancio cumulato annuale dei ghiacciai del Nord America che afferiscono al WGMS con almeno 15 anni di registrazione:

link immagine realclimate3

Il secondo parametro riportato dal WGMS è il comportamento della fronte del ghiacciaio. I valori per i link immagine realclimate4ghiacciai sono generalmente esaminati su base annuale (molti altri ghiacciai aggiuntivi sono esaminati periodicamente). Il campione mostra una netta prevalenza dei ghiacciai delle Alpi Europee, ma il complesso globale e regionale delle registrazioni è simile, ad eccezione della Nuova Zelanda. Il numero di ghiacciai che avanzano rispetto ai ghiacciai che si ritirano nel diagramma sottostante del WGMS mostra nel 2005 un minimo nella percentuale dei ghiacciai in avanzata in Europa, Asia e nord America. In Asia e in Alaska, sono state effettuate indagini estese sulle fronti mediante immagini satellitari e fotografie aeree che mostrano trend di ritiro a lungo termine. Questi risultati indicano che il 95% dei ghiacciai si sta ritirando, ma non rispecchiano pienamente il ritiro annuale della fronte che emerge dall’archivio dei dati del WGMS. Nel 2005 sono stati controllati 442 ghiacciai: 26 avanzavano, 18 erano stazionari e 398 si ritiravano, risulta così che “solo” il 90% dei ghiacciai si sta ritirando. Sempre nel 2005, per la prima volta non si sono osservati in Svizzera ghiacciai in avanzata. Dei 26 ghiacciai in avanzata, 15 erano in Nuova Zelanda. Complessivamente c’è però stata una sostanziale perdita dell’11% del volume dei ghiacciai della Nuova Zelanda dal 1975 al 2005 (Salinger et al), ma il numero di ghiacciai in avanzamento è ancora significativo.

Che i ghiacciai si stiano riducendo in termini di volume (bilancio di massa) e di lunghezza (comportamento della fronte) non sono novità. La notizia è lo sviluppo di un significativo indice globale del comportamento dei ghiacciai. Come fornitore di dati al WGMS, posso riferire che il controllo di qualità e il livello di dettaglio richiesto nel presentare i dati è in aumento. Anche il grado di partecipazione ai programmi glaciologici è in aumento. Entrambi sono importanti e porteranno ad un ulteriore miglioramento dell’indice glaciologico, con più dati rappresentativi da tutto il mondo.

Addendum:

i dati di bilancio di massa per il ghiacciaio Ciardoney, nel massiccio del Gran Paradiso sono disponibili qui.

\" width=
“Il ghiacciaio Pasterze presso il massiccio del Grossglockner, Austria: una serie di cartelli mostra chiaramente l’inesorabile ritiro del ghiacciaio, che perde ogni anno mediamente 15 metri di lunghezza e dai 3 ai 5 m di spessore (riduzione di massa 1990-2000 pari a 140 milioni di metri cubi). Foto Luca Lombroso, 2 agosto 2007″

Articolo originale su Realclimate.org

Traduzione di: Luca Lombroso

Revisione di: Luca Mercalli, Simone Casadei

Pubblicato su Climalteranti il: 3/2/2009

13 – Il mare raggiungerà “I livelli dell’ultima era glaciale”

immagine spiaggia coogeIl tabloid britannico Daily Mirror ha recentemente titolato che “il mare si innalzerà ai livelli dell’ultima era glaciale”. Certamente molti dei nostri lettori comprendono quanto terrificante possa essere tale previsione: il livello dei mari durante l’ultima era glaciale era fino a 120 m più basso di oggi. Le nostre spiagge preferite, come Coogee a Sydney o Darß sulla costa baltica tedesca, diverrebbero alte e asciutte, e porti come Rotterdam o Tokyo si ritroverebbero ben lontani dal mare. Provate ad immaginare…

Ma guardando oltre la stupidità del titolo (un altro caso di sciatteria nel riportare le notizie scientifiche), qual è la vera storia che ci sta dietro? L’articolo del Mirror (come molti altri) faceva riferimento a un articolo di Grinsted, Moore and Jevrejeva pubblicato su Climate Dynamics (vedi l’articolo e i materiali multimediali). Gli autori concludono nell’articolo che entro il 2100 il livello globale del mare potrebbe innalzarsi tra 0.7 e 1.1 m per lo scenario di emissione B1, e tra 1.1 e 1.6 m per lo scenario A1FI.

La metodologia con cui gli autori stimano tali cifre si basa sulla formula semi-empirica che connette il livello marino globale alla temperatura globale, adattata ai dati osservati. Essa assume che, a seguito di un cambio nella temperatura globale, il livello dei mari si avvicinerà esponenzialmente ad un nuovo livello di equilibrio con una scala temporale ?. In questo modo si estende il metodo semi-empirico che avevo proposto in Science nel 2007. Io assumevo che i dati del passato ci indicassero il tasso iniziale di innalzamento (e questo tasso iniziale è utile per proiezioni se la scala temporale ? è lunga in confronto all’orizzonte temporale in esame). Il nuovo articolo cerca di ottenere sia la scala temporale ? che il cambiamento del livello del mare all’equilibrio finale adattando il modello ai dati del passato.

Quindi, il mio approccio è un caso speciale del modello più generale di Grinsted, come si può vedere inserendo la loro equazione (1) in (2): precisamente si tratta del caso speciale di lunghi tempi di risposta (? >> 100 anni circa). E’ quindi di conforto e anche piacevole ricevere la conferma che gli autori ottengono lo stesso mio risultato per il loro caso “storico” (dove si ricava ? = 1200 anni), così come i loro calcoli con ? = infinito, nonostante essi abbiano usato un diverso archivio di dati di livello marino (fino al 1850 all’indietro, laddove io avevo usato i dati di Church&White 2006 che iniziano nel 1880) ed un’analisi statistica più elaborata.

Comunque, trovo che la loro determinazione di t abbia una base piuttosto vacillante dato che le serie di dati usate sono troppo brevi per determinare con attendibilità una scala temporale così lunga. Ciò che le loro statistiche suggeriscono, d’altra parte, non può essere giusto – si vede dal fatto che ottengono risultati contraddittori per differenti serie di dati (per esempio, 1200+/- 500 anni per il caso “Historical” e 210 +/- 70 anni per il caso “Moberg”). Non possono essere entrambi corretti, quindi gli intervalli ristretti di incertezza sono probabilmente una sottostima dell’incertezza.

Il problema diventa ancor più lampante quando si guarda al livello del mare all’equilibrio previsto dall’integrazione dei loro dati. Dai dati paleoclimatici (vedi Figura) ci aspettiamo che per ogni grado di variazione di temperatura il cambiamento del livello del mare all’equilibrio finale sia tra i 10 e i 30 metri (come ho discusso nel mio articolo in Science – questa era la mia base per considerare che t debba essere molto lunga). Grinsted et al. ottengono dall’integrazione dei loro dati, invece, che il cambiamento dovrebbe rimanere solo sui 1.3 +/- 0.4 metri (per il caso “Moberg”, che secondo loro è il più probabile) – vedi Figura. Ciò vuol dire che per portare il livello del mare ad abbassarsi di circa 120 metri, livello ben definito per l’Ultimo Massimo Glaciale, si sarebbe dovuto verificare secondo il loro modello un raffreddamento globale di circa 90° C.
E per il futuro, il modello prevederebbe che lo scioglimento di tutto il ghiaccio in Groenlandia e nell’Antartico (corrispondente a 65 metri di aumento del livello del mare) avrebbe bisogno di 50° C di riscaldamento globale. Questa carenza di realismo conta, perchè è direttamente collegata con la t breve: l’aumento del livello del mare, osservato nel secolo scorso, può essere o integrato su una t breve e un aumento piccolo all’equilibrio, oppure su una t lunga e un aumento elevato all’equilibrio (valutato per ogni grado). Io considero l’ultimo caso come quello realistico.

proiezioni livello del mare futuro

La temperatura media globale e il livello del mare (riferito ad oggi) in tempi diversi nella storia della Terra, con la proiezione per l’anno 2100 (che non è una variazione ad equilibrio raggiunto!). La linea rossa mostra l’equilibrio “più probabile” secondo Grinsted et al. [Modificato dopo Archer (2006) e WBGU 2006; si veda pagina 33 per riferimenti e commento).

Grinsted et al. hanno applicato alcuni vincoli sui dati paleoclimatici, ma si basano su un fraintendimento dei dati stessi. Assumono (il loro vincolo 3) che l’ultima era interglaciale sia stata globalmente 3-5° C più calda del presente- anche se il riferimento citato a supporto (il capitolo sul paleoclima dell’IPCC, di cui io sono co-autore) spiega che si tratta di temperature estive artiche. Questo riscaldamento estivo dell’Artico è dovuto a cambiamenti orbitali che provocano un raffreddamento in ogni altra parte del pianeta, come risulta nei cambiamenti medi globali che sono molto piccoli (vedi per esempio Kubatzki et al. 2000).
Grinsted et al. commettono lo stesso errore per il clima glaciale (il loro vincolo 4), in cui assumono che le temperature massime glaciali furono globalmente di 17° C più basse del presente- il riferimento citato spiega già nell’abstract è da applicarsi solo alle latitudini comprese tra 40° N e 80° N. Il raffreddamento glaciale è stato altamente disomogeneo, con un raffreddamento globale medio stimato tra i 4 e i 7° C (vedi Schneider et al. 2006, “Quanto fu freddo l’Ultimo Massimo Glaciale?”).
Questi paleo-vincoli malmessi portano Grinsted et al. a limitare l’aumento all’equilibrio del livello del mare ad una frazione di ciò che i dati mostrano nella Figura sovrastante, e questo esclude una buona integrazione dei dati per t su lunghe scale temporali.

Per questi motivi, non sono convinto del breve t trovato (o assunto) da Grinsted et al., che costituisce la principale differenza rispetto al mio precedente studio, e continuerei a sostenere che un tempo di equilibrio molto lungo sia un’ipotesi più robusta. Si noti che (a differenza di Gristed et al.) questo non significa che ci si avvicini all’equilibrio in modo esponenziale con un’unica scala temporale, cosa che è in se stessa discutibile visti i diversi processi coinvolti. Si assume solo che il tasso iniziale di aumento sia in scala con la temperatura e che sia rilevante sulle scale temporali di interesse. Guardando i lati positivi, Gristed et al. hanno mostrato che i dati integrati e l’innalzamento del livello del mare nel caso di t grande è robusto rispetto al metodo statistico e al data set scelti.

Miglioramenti dell’approccio semi-empirico sono benvenuti – io stesso avevo auspicato che il mio articolo stimolasse la ricerca in quella direzione. Anche se gli approcci empirici non ci daranno risposte definitive sul futuro livello del mare, visto che il passato non può mai essere un perfetto analogo del futuro, tuttavia queste analisi possono essere utili per comprendere come il livello del mare si sia comportato in passato e, quindi, cosa questo possa implicare per i comportamenti futuri. Una cosa però è certa: non mi preoccuperei troppo che il livello del mare possa scendere ai livelli glaciali durante questo secolo.

Articolo originale su Realclimate.org

Traduzione di: Emanuele Eccel, Giulia Fiorese, Lighea Speziale

Revisione di: Simone Casadei

Pubblicato su Climalteranti il: 5/2/2009

12 – Lo stato dell’Antartide: più caldo o più freddo?

Due di noi (Eric e Mike) sono co-autori di un articolo che sta uscendo questa settimana (22 gennaio 2009) su Nature. Sulla stampa non specializzata e in vari blogs sono già apparse interpretazioni fuorvianti riguardo ai nostri risultati che vogliamo stroncare sul nascere.

Il nostro studio indica che l’Antartide si è riscaldato durante gli ultimi 50 anni e in particolar modo nella sua ”mappaparte occidentale (si veda la figura). I risultati si basano su una composizione statistica di dati di temperatura registrati da satellite e da stazioni meteorologiche. I risultati non dipendono solo dalle statistiche. Come riportato nell’articolo, queste misure sono confermate da altri dati indipendenti ottenuti da stazioni meteorologiche automatiche nonché dai nuovi risultati degli studi di Bromwich, Monaghan e altri (si veda qui il riassunto che hanno presentato all’AGU) il cui precedente articolo su JGR è stato indicato in contraddizione con i nostri dati. C’è inoltre un articolo che sta per uscire su Climate Dynamics (Goosse ed altri) che utilizza un modello di circolazione generale, basato su dati integrati (ma non quelli satellitari usati nel nostro studio), che fornisce i nostri stessi identici risultati. Inoltre, l’idea che i nostri dati possano semplicemente riflettere variazioni di temperatura nello strato di inversione vicino al suolo, può essere scartata sulla base di altri dati completamente indipendenti che mostrano come il significativo riscaldamento dell’Antartide Occidentale si estenda decisamente nella troposfera. Infine, i nostri risultati sono già stati confermati da una serie di temperature registrate all’interno della calotta di ghiaccio (un metodo del tutto indipendente) in almeno una località dell’Antartide Occidentale (Barret et al. hanno registrato lo stesso incremento di temperatura che registriamo noi, ma a partire dal 1930 anziché dal 1957; si veda in proposito il loro articolo in uscita su GRL).

Alcune cose importanti che l’articolo non riporta:

1) I nostri risultati non contraddicono gli studi precedenti che indicano come alcune zone dell’Antartide si siano raffreddate. Perchè? Perchè quegli studi erano basati su serie di dati più brevi (20-30 anni, non 50 anni) ed inoltre il raffreddamento era limitato all’Antartide Orientale. Anche i nostri risultati mostrano questo andamento, come appare chiaramente confrontando i risultati ottenuti negli ultimi 50 anni (1957-2006; questo studio) con quelli ottenuti nel periodo compreso tra il 1969 ed il 2000 (studi precedenti), riportati nella figura sotto.

2) I nostri risultati non contraddicono necessariamente l’interpretazione, ampiamente accettata, di un ”mapparecente raffreddamento dell’Antartide Orientale che era stata proposta da David Thompson (Colorado State) e Susan Solomon (NOAA Aeronomy lab). In un importante articolo pubblicato su Science, questi autori hanno presentato evidenze che indicano che questo raffreddamento è legato ad un incremento nell’intensità delle correnti occidentali circumpolari che può essere ricondotto a variazioni nella stratosfera, in gran parte riconducibili alla perdita di ozono tramite reazione fotochimica. Fino agli ultimi anni ‘70 non si erano verificate sostanziali perdite di ozono ed è solo in seguito che è cominciato un raffreddamento significativo nell’Antartide Orientale.

3) Il nostro articolo non discute se il recente riscaldamento dell’Antartide possa far parte di un andamento di lungo periodo. Le carote di ghiaccio forniscono prove indipendenti che l’Antartide si sia riscaldato lungo gran parte del ventesimo secolo, tuttavia nell’Antartide Occidentale il tutto è complicato dalla forte influenza di eventi riconducibili al fenomeno del Nino. Sui nostri lavori pubblicati fino ad oggi (Schneider e Steig, PNAS) mostriamo che gli anni ’40 (specificatamente la decade 1935-1945) sono stati i più caldi del ventesimo secolo nell’Antartide Occidentale, grazie ad un riscaldamento eccezionalmente vasto avvenuto in quegli anni nella parte tropicale del Pacifico.

E allora cosa mostrano i nostri risultati? Essenzialmente che, in generale, i cambiamenti climatici in Antartide durante l’ultima parte del ventesimo secolo sono stati decisamente trascurati. È ben noto che la Penisola Antartica si è riscaldata, probabilmente durante gli ultimi 100 anni (nel 1901 si cominciarono a registrare le temperature nella sub-Antartica Isola delle Orcadi; questi dati mostrano un riscaldamento praticamente continuo). Inoltre i nostri risultati indicano che l’Antartide Orientale si è raffreddato durante gli anni ’80 e ’90 (anche se non ad una velocità statisticamente significativa). Tuttavia l’Antartide Occidentale, cui nessuno ha mai dedicato troppa attenzione (per quanto riguarda le variazioni di temperatura), si è riscaldato rapidamente almeno durante gli ultimi 50 anni.

Per il momento si è solo cominciato a tentare di capire perchè l’Antartide Occidentale si stia riscaldando. Nel nostro articolo sosteniamo che questo sarebbe dovuto sostanzialmente ad un incremento dei flussi atmosferici provenienti da nord (ovvero dalle latitudini più calde) di modo che una maggior quantità di aria calda ha raggiunto l’Antartide Occidentale. Nel linguaggio della climatologia statistica questo equivale a dire che il cosiddetto “zonal wave 3 pattern” (nota: si tratta di una particolare struttura di circolazione atmosferica) si è verificato più frequentemente (si veda Raphael, GRL 2004). Ciò che accompagna questa variazione nella circolazione atmosferica è la riduzione del ghiaccio marino nella regione interessata (se in generale il ghiaccio marino dell’Antartide è mediamente aumentato, si sono verificati probabilmente dei decrementi significativi al largo delle coste dell’Antartide Occidentale durante gli ultimi 25 anni e probabilmente anche più a lungo). Questo infatti è un processo che si autoalimenta (meno ghiaccio marino, acqua più calda, aria ascendente, pressione più bassa, più perturbazioni).

Naturalmente è ovvio chiedersi se queste variazioni nella circolazione siano semplicemente legate ad una “variabilità naturale” o se siano forzate dai cambiamenti delle concentrazioni dei gas serra in atmosfera. Senza dubbio molti studi affronteranno questo problema in seguito al nostro lavoro. Un articolo recentemente apparso su Nature Geoscience di Gilet et al. ha esaminato gli andamenti delle temperature in Antartide e nell’Artico ed ha concluso che “le variazioni di temperatura in entrambe le regioni possono essere attribuite all’azione umana”. Sfortunatamente i nostri risultati non sono arrivati in tempo utile per poter essere utilizzati in quell’articolo. Tuttavia crediamo che sia logico aggiornare quel lavoro includendo anche i nostri risultati. Attendiamo dunque la realizzazione di questo nuovo studio.

Post Scriptum) È necessario commentare se e in quale modo i nostri risultati possono influenzare le varie proiezioni modellistiche relative ai cambiamenti climatici futuri. Come discusso nell’articolo, i modelli che includono integralmente l’oceano e l’atmosfera tendono a non concordare molto bene in Antartide. Questi mostrano tutti un generale riscaldamento ma differiscono significativamente nella loro struttura spaziale. Come efficacemente riassunto in un articolo di Connolley e Bracegirdle su GRL, i modelli differiscono anche nella distribuzione del ghiaccio marino e questo comportamento risulta chiaramente legato alle diverse distribuzioni di temperatura. Queste differenze non sono necessariamente dovute al fatto che ci sia qualcosa di sbagliato nella fisica del modello (nonostante le descrizioni del ghiaccio marino variano certamente in maniera notevole da modello a modello e certamente talune sono migliori in certi modelli piuttosto che in altri) quanto piuttosto al fatto che piccole differenze nei campi di vento tra i vari modelli causano grosse differenze nelle distribuzioni spaziali del ghiaccio marino e della temperatura dell’aria. Questo significa che un’accurata proiezione delle future variazioni di temperatura in Antartide, ad una scala spaziale inferiore a quella continentale, non può che essere basata sulla media e sulle variazioni di diverse corse modellistiche, e /o sulle medie di molti modelli. Così succede che la media dei 19 modelli in AR4 fornisce dei risultati simili ai nostri, indicando un riscaldamento significativo dell’Antartide Occidentale durante gli ultimi decenni (si veda la figura 1 del lavoro di Connolley e Bracegirdl).

Articolo originale su Realclimate.org

Traduzione di: Paolo Gabrielli

Revisione di: Simone Casadei

Pubblicato su Climalteranti il: 27/1/2009

11 – Le sintesi e la manipolazione della temperatura del 2008

L’aspetto più interessante in merito ai dati complessi è che chiunque può descriverli con qualsiasi numero di affermazioni, ognuna delle quali può essere vera di per sé, pur portando ad interpretazioni del tutto differenti. Così possiamo stare certi che leggeremo presto che il 2008 è stato più caldo di qualsiasi anno nel 20° secolo (con l’eccezione del 1998), che questo è stato il più freddo di questo secolo (che inizia con il 2001), e che 7 o 8 dei 9 anni più caldi si sono verificati dopo il 2000. Senza dubbio assisteremo anche ad un numero di dichiarazioni che vere non sono; il 2008 non è l’anno più freddo di questa decade (lo è stato il 2000), il riscaldamento globale non si è fermato, la CO2 continua ad essere un gas serra, e la variabilità cui si assiste è prevista dai modelli climatici stessi. Dunque, il post di oggi è dedicato a scartare la montatura mediatica e a guardare piuttosto al quadro d’insieme.

Come al solito, oggi escono le medie dell’”anno meteorologico” per le temperature superficiali registrate (GISTEMP, HadCRU, NCDC). Questo periodo va da dicembre dello scorso anno fino alla fine di novembre del 2008 ed è chiamato così perché in questo modo è più facile ragionare in termini di stagioni piuttosto che seguire l’anno del calendario. L’anno può dunque essere suddiviso, usando le iniziali dei mesi, in DGF (inverno), MAM (primavera), GLA (estate) e SON (autunno). Ciò è più sensato che prendere gennaio e febbraio di un inverno e dicembre dall’inverno successivo, come si fa nel calcolo della media sul calendario solare. Ma dal momento che la correlazione tra le medie sul periodo dicembre-novembre e quelle sul periodo gennaio-dicembre è molto alta (r = 0.997), in pratica la differenza è piccola. I valori annuali sono un po’ più utili delle anomalie mensili per determinare i trends di lungo periodo, ma essi sono ancora soggetti a rumore significativo.

Linea in fondo: nelle analisi D-N 2008 GISTEMP, HadCRU e NCDC vi erano rispettivamente 0.43, 0.42 e 0.47°C in più rispetto alla linea di riferimento 1951-1980. Nell’analisi GISTEMP sia Ottobre che Novembre sono risultati abbastanza caldi (0.58°C), il primo leggermente superiore alla stima del secondo in quanto sono stati rilevati più dati. Questo mette il 2008 al nono (o ottavo) posto nella classifica degli anni caldi,ma considerata l’incertezza nelle stime, la reale posizione potrebbe essere compresa tra la sesta e la quindicesima posizione. Con un approccio più robusto, le medie degli ultimi 5 anni sono significativamente più alte rispetto a qualsiasi altra dello scorso secolo. L’ultima decade è di gran lunga la più calda registrata a livello globale. Le conclusioni di questa grande figura sono le stesse se si guarda a qualunque set di dati, sebbene i numeri effettivi siano lievemente differenti (principalmente correlati all’estrapolazione dei dati – in particolar modo nell’Artico).

Quindi cosa fare con i dati dell’ultimo anno? Come prima cosa ci aspettiamo che ci siano delle oscillazioni sul valore medio globale di temperatura. Nessun modello climatico ha mai mostrato un incremento delle temperature da un anno all’altro per il riscaldamento globale attualmente atteso. Un grosso fattore in quelle oscillazioni è rappresentato da ENSO – se si verifica un evento di El Niño caldo o un evento di La Niña fredda determina una differenza apprezzabile nelle anomalie della media globale – circa 0.1-0.2°C per gli eventi significativi. Si è verificata una significativa Niña all’inizio di quest’anno (ed è pienamente incluso nel valore medio annuale D-N), e questo ha indubbiamente giocato un ruolo nel freddo relativo di questo anno. Vale la pena sottolineare che anche il 2000 è stato caratterizzato da una Niña di una simile portata ma questa è stata notevolmente più fredda rispetto a quella di quest’ultimo anno.

ENSO è solo un fattore della variabilità annuale, non è l’unico. Esistono altre fonti sia di variabilità interna che di forzanti esterne. Le altre variazioni interne possono essere difficili da caratterizzare (non è semplice come se fosse una super-posizione di tutti gli acronimi climatici che abbiate sentito come NAO+SAM+PDO+AMO+MJO ecc), ma le forzanti (naturali) esterne sono un po’ più semplici. Le due fonti principali sono la variabilità vulcanica e la forzante solare. Non ci sono state eruzioni vulcaniche significative da un punto di vista climatico dal 1991, e quindi questo non è un fattore. Ad ogni modo, siamo in coincidenza di un minimo solare. Gli impatti del ciclo solare sulla registrazione della temperatura della superficie non sono unanimemente riconosciuti, ma possono raggiungere una variazione pari a 0.1 ºC dal minimo solare al massimo solare, con un ritardo di un anno o due. Quindi per il 2008 ci si potrebbe aspettare una deviazione sotto il trend (la differenza tra la media solare e il minimo solare, ed aspettarsi che l’impatto non sia ancora pienamente percepito) fino a 0.05 ºC. Non un segnale molto grande, e non in grado di spostare le posizioni della classifica in maniera significativa.

Ci sono state alcune infervorate argomentazioni, prima di quest’anno, che sostenevano che “tutto il riscaldamento globale è stato cancellato” dall’anomalia legata alla Niña. Questo è sempre stato ridicolo e adesso che la maggior parte di questa anomalia è passata, non stiamo trattenendo il respiro aspettando che le solite fonti titolino “il riscaldamento globale adesso è tornato”.

In una prospettiva più lunga, i trends delle medie degli ultimi 30 anni non sono molto influenzati da un singolo anno (GISTEMP: 1978-2007 0.17+/-0.04ºC/decade; 1979-2008 0.16+/-0.04 – OLS trends, dati annuali, 95% di intervallo di confidenza, nessuna correzione per l’auto-correlazione; identico per HadCRU); continuano ad essere saldamente in rialzo. Le proiezioni dello scenario B di Hansen et al 1988 sono allo stesso modo poco influenzate (GISTEMP 1984-2008 0.19+/-0.05 (LO-index) 0.22+/-0.07 (Met-station index); HansenB 1984-2008 0.25+/-0.05 ºC/decade) – le proiezioni risultano di poco più calde di quanto ci si possa attendere dato il leggero incremento (~10%) della forzante nella proiezione rispetto a quanto accaduto nella realtà. I dati di quest’anno non cambiano quindi di molto le nostre aspettative.

In conclusione, come discusso in precedenza, quello che i modelli climatici hanno o non hanno previsto lo possiamo vedere tutti. Nonostante i molteplici avvertimenti sull’uso dei cambiamenti a breve termine per trarre conclusioni sulla tendenza a lungo termine, questi confronti verranno ancora fatti.
Quindi, giusto per divertimento, ecco un confronto delle osservazioni con le proiezioni del modello dal 1999 al 2008 usando il 1999 come riferimento. Il risultato potrebbe essere sorprendente per alcuni:

”andamenti

Si possono ottenere grafici leggermente differenti facendo variare l’anno di partenza, quindi non si tratta di qualcosa di assoluto. Scegliere un singolo anno come punto di partenza é piuttosto soggettivo e porta l’aspetto visivo a variare, mentre guardare gli andamenti nel complesso é piú consistente.
In ogni caso, il grafico mostra che nei modelli, come nei dati, alcuni anni risulteranno sopra il trend e altri al di sotto. Chiunque si sorprenda di questo si puó considerare solo ingenuo o…beh, lo sapete.

Riguardo ai prossimi anni, le nostre aspettative non sono molto cambiate. E’ previsto che l’inverno che arriva sia ENSO-neutrale, quindi su questa base di partenza ci si aspetterebbe un prossimo anno piú caldo di questo (anche se probabilmente non andrá oltre il primato).
Tralasciando la possibilitá di eruzioni vulcaniche notevoli, non vedo ragioni per cui le tendenze decennali dovrebbero distanziarsi dalla previsione di ~0.2oC/decade.

Update: per vostra informazione, lo stesso grafico come sopra, con il 1990 e il 1979 come riferimenti.

Articolo originale su Realclimate.com

Traduzione di: Federico Antognazza, Emanuele Eccel, Fabio Sferra, Lighea Speziale

Revisione di: Simone Casadei

Pubblicato su Climalteranti il: 7/1/2009

10 – Buchi dell’ozono e raggi cosmici

Navigando recentemente nella blogosfera, mi sono imbattuto in un interessante trafiletto sul metodo e sul ”bucoprogresso scientifico, e sulle loro ricadute scientifiche (h/t Hank Roberts). Il tema riguarda il buco di ozono sopra l’Antartide ed il possibile ruolo dei raggi cosmici nella sua variabilità sui tempi scala del ciclo solare. I blogger di questo link appartengono ad un piccolo gruppo di ricerca presso l’Università di Sherbrooke in Canada, che si considerano contrari alle più importanti comunità di chimici della stratosfera e le cui idee si sono insinuate al di fuori di ogni apprezzamento da parte del più sciocco dei soliti sospetti.

La storia è venuta fuori all’inizio del 2008, quando il ricercatore Q.B. Lu previde che, questo anno, il buco di ozono Antartico sarebbe stato il più grande mai verificatosi a causa dell’azione di un maggiore flusso di raggi cosmici galattici (GCR), perché ci troviamo in un minimo di attività solare ed i GCR sono correlati inversamente all’attività solare. Il picco del buco dell’ozono di quest’anno ora si è già verificato, e la previsione può quindi essere confermata o smentita. Sfortunatamente per il Dr. Lu, quest’anno il buco dell’ozono è stato solo nella media del decennio: un risultato non troppo favorevole per la sua teoria.

Questa storia mi ha fatto un po’ incuriosire anche su questo aspetto. In primo luogo, non ho capito il motivo per cui i raggi cosmici dovrebbero avere un ruolo nella riduzione dello strato di ozono: la maggior parte degli effetti dei raggi cosmici di cui si discute abitualmente ruotano attorno alle connessioni nubi-aerosol, ma non ci sono molte nubi nella stratosfera dove si forma il buco dell’ozono, e quelle che ci sono (le nubi stratosferiche polari, PSC) sono molto più sensibili agli sbalzi di temperatura e vapore acqueo che non agli aerosol di fondo. Facendo ulteriori indagini, si scopre che questa idea è in voga da alcuni anni (qui i riferimenti in merito) ed è già stata discussa nella letteratura dedicata all’ozono.

Quindi cominciamo con la teoria di fondo. La chimica della stratosfera standard (vincitrice di un premio Nobel) collega la riduzione dello strato di ozono al crescente carico di cloro (Cl) nella stratosfera, che distrugge cataliticamente l’ozono e proviene dalla dissociazione per fotolisi dei cloro-fluoro-carburi (CFC) di origine umana, i cui valori sono alti in stratosfera. Nella notte polare, la presenza di PSC consente ad una specifica classe di reazioni eterogenee coinvolgenti Cl di verificarsi sulla superficie delle particelle di nube, cosa che risulta molto efficiente nella distruzione dell’ozono. Di qui si comprende come mai vi sia un buco di ozono nel vortice polare antartico, molto freddo. Poiché I PSC sono molto sensibili alla temperatura, il freddo vortice invernale spesso preannuncia una grande riduzione dello strato di ozono nella primavera successiva (si noti che la riduzione polare dello strato di ozono si verifica soltanto in presenza di radiazione solare, quindi è un fenomeno tipico della primavera in entrambi gli emisferi). Questa spiegazione non è messa in dubbio, a tutt’ora (beh, almeno dagli scienziati seri). Anche noi di RealClimate abbiamo usato questa relazione per prevedere (con successo) un evento di riduzione dello strato di ozono Artico particolarmente grande nel 2005.

La teoria del Dr. Lu presuppone un ulteriore meccanismo di rilascio di Cl dai CFC, attraverso l’effetto dei GCR. In particolare, Lu suggerisce che l’azione dei GCR sui CFC connessi ai PSC provochi un maggior rilascio di Cl, quindi immettendo potenzialmente più Cl proprio dove questo potrebbe causare in modo più efficace la riduzione polare dell’ozono. Le prove di questa asserzione provengono dalle correlazioni tra la perdita di ozono ed i GCR (su un paio di cicli solari) e da alcuni suggestivi esperimenti di laboratorio. Si noti che questo non mette in discussione la fonte di Cl di origine antropica, che proviene ancora dai CFC.

Tuttavia, la teoria di Lu e colleghi è stata fortemente contestata in letteratura (ad esempio, qui, qui e qui). I ”graficicommenti si concentrano su due aspetti principali: la debolezza delle correlazioni (vedi figura), e l’evidenza accessoria che non vi è alcuna prova evidente della distruzione dei CFC nel vortice polare stesso. In realtà, le correlazioni dei CFC con le traiettorie delle massa d’aria nella stratosfera superiore sono molto stabili, il che indica che la conversione dei CFC per fotolisi è di gran lunga la sorgente dominante di Cl. Queste confutazioni sembrano abbastanza interessanti, e qui l’idea del Dr. Lu sui GCR non sembra aver molto sostegno. Tuttavia, Lu la sta ancora portando avanti, e lo dimostra il comunicato stampa di quest’anno, poche settimane prima della previsione, che metterebbe alla prova la teoria. Uno potrebbe pensare che le idee del Dr. Lu siano sbagliate, ma non si può non sottolineare la sua audacia nel metterle alla prova.

Come detto in precedenza, la non eccezionale diminuzione di ozono registratasi nel presente anno indebolisce molto le correlazioni che sono il cuore dell’idea di Lu. Prevedo quindi che è improbabile che questa idea verrà discussa molto di più in letteratura, tranne in un esempio di come le idee interessanti possano nascere, essere discusse, testate e (in questo caso) trovate insufficienti. Infatti così avviene il progresso scientifico.

Ma, come è stato spesso osservato, la sfera dei bastian contrari è un mondo a sé stante. Era inevitabile che la pubblicizzata notizia sul legame tra GCR e buco dell’ozono avrebbe richiamato la vecchia scuola di scettici sulla riduzione dello strato di ozono e di fautori del “tutto-è-causato-dal-Sole” fuori dalle loro tane. Tim Ball è uscito alla carica. Ora il Dr. Ball è uno scettico da lunga data dell’influenza umana sulla riduzione dello strato di ozono, come pure sui cambiamenti climatici, e così non ha potuto resistere all’occasione di opinare su tutte le teorie di origine antropica:

Alimentata dall’isteria ambientale e dalla determinazione a mostrare che tutti i cambiamenti nel mondo naturale sono dovuti alle attività umane, l’asserzione che i CFC stanno distruggendo l’ozono è saltata fuori direttamente da un’ipotesi non suffragata da fatti scientifici.

Egli ha incluso anche dichiarazioni standard che asseriscono che gli scienziati sostengono che i CFC accusati per la riduzione dello strato di ozono privino il mondo in via di sviluppo del raffreddamento (oh mamma mia!); come se non vi sia stato in ogni caso un cambiamento nella riduzione dello strato di ozono (nonostante mostri una serie di grafici che dimostrano questo, ovviamente – si veda anche qui) e così via …. Egli ha tuttavia notato che le teorie del Dr. Lu non modificano nessuna delle prescrizioni generali legate alla riduzione dello strato di ozono (anche se egli si confonde relativamente all’impatto del CO2 stratosferico sulle temperature – le fa diminuire, non aumentare). Ma il vero premio va all’”inarrestabile” Dennis Avery che suggerisce che le teorie del dottor Lu confermeranno il legame tra i GCR ed i cambiamenti climatici:

Se il Polo Sud avrà un massimo di buco dell’ozono nelle prossime settimane, si rafforzerà il flusso di raggi cosmici, favorendo la creazione di un Riscaldamento Moderno guidato dalle variazioni solari piuttosto che dalla CO2 emesso dall’uomo.

Con la stessa logica, dovremmo supporre che, poiché il sale rende migliore il gusto del cibo, il gesto di gettarlo dietro le spalle deve portare fortuna. Cioè, i due fatti sono semplicemente non collegati. Ma sono piuttosto sicuro che egli non accetterà il logico corollario. Inutile dire che questo è un attaccarsi a tutto molto debole. Ma, per citare un recente articolo di Monbiot:

Non vi è alcuna piscina così poco profonda nella quale non possano annegare un migliaio di blogger.

Pare, neppure un buco di ozono.

Articolo originale su Realclimate.com

Traduzione di: Claudio Cassardo

Revisione di: Simone Casadei

Pubblicato su Climalteranti il: 11/1/2009

9 – Il report “Non IPCC”

Ancora nel segno della bufala del Fraser Institute su cui abbiamo relazionato lo scorso anno, S. Fred Singer e la sua allegra banda di negazionisti luminari (finanziati dal noto “Heartland Institute” di cui abbiamo detto in precedenza) ha scodellato una “valutazione” parimenti disonesta della scienza del cambiamento climatico all’inizio di quest’anno nella forma di quello che essi definiscono “rapporto del NIPCC” (dove la lettera N sta probabilmente per “Non”, o forse per “Nonsense”). Pare che la cosa sia stata fatta ricircolare visto che Singer e Heartland stanno promuovendo nuovamente la loro visione critica, rincarandola, della “Conferenza sul Cambiamento Climatico” di marzo. Recentemente ci è stato chiesta la nostra opinione sul rapporto e così abbiamo deciso che alla fine era l’ora di opinare. Ecco, dunque.

Il fatto che il titolo stesso del sommario del rapporto (“La natura, non l’attività umana, regola il clima”) già di per sé rappresenti una falsa dicotomia – per non dire altro – non è un bell’inizio. Il fatto che i caratteri usati e l’impostazione grafica siano identici a quelli del vero rapporto IPCC è un altro segnale che questo rapporto non sia proprio all’altezza (e ci riporta alla mente l’infame fasullo articolo del PNAS che accompagnava la prima “petizione dell’Oregon”).

Leggendo l’indice, il rapporto ha otto capitoli (in aggiunta ad un’introduzione e al capitolo sulle conclusioni). Cinque di questi, sorprendentemente, hanno titoli che sono semplicemente falsi. I rimanenti tre capitoli pongono domande fuorvianti e in malafede, se non semplicemente disoneste, cui gli autori forniscono “risposte”. Di fatto, il rapporto è un tale massiccio rigurgito di luoghi comuni e frottole ormai screditate, che una sua recensione sarebbe una fatica di Ercole (e in questo forse sta la strategia: se non riesci a convincere la gente con la scienza effettiva, allora martellala di informazioni).

In ogni caso, proprio perché molte di queste cose sono già state trattate in precedenza, è ormai a disposizione una gran quantità di materiale che ne mostra gli errori. Per cui, invece di rigurgitare tutte le contrapposizioni, ci riferiremo semplicemente a un indice di queste confutazioni.
Come alcuni di voi sapranno, abbiamo predisposto uno strumento proprio per questa evenienza: il RealClimate Wiki. Vediamo come funziona…

Il Capitolo 2 “Quanto del moderno riscaldamento climatico è antropogenico” getta via la classica affermazione, già peraltro discreditata, “l’hockey stick è screditato” e aggiunge una delle frasi preferite secondo cui “la CO2 non guida il cambiamento, ma segue la temperatura”. Ci sono anche affermazioni come “le osservazioni e le proiezioni modellistiche non corrispondono”, “il riscaldamento non coincide con gli aumenti dei gas serra” e, non poteva certo mancare, “la misura strumentale non è affidabile”. Naturalmente, siamo stati quantomeno contrariati di non leggere nulla riguardo all’argomentazione principale dei negazionisti, ovvero: “Ma gli scienziati avevano previsto un raffreddamento globale durante gli anni ’70”!

Continuiamo con il Capitolo 3, “La gran parte del riscaldamento attuale è dovuto a cause naturali”. La risposta veloce al titolo del capitolo è, ovviamente, “uhm, no, non è così”. Il capitolo trae le sue conclusioni dividendo equamente le responsabilità tra le due falsità gemelle secondo cui tutto è causato dai cicli naturali e dal sole!

Se stai diventando impaziente per vedere le classiche mazzate ai modelli, non temere: per te c’è tutto il Capitolo 4 (“I modelli climatici non sono affidabili”) che offre il solito mix di descrizioni fasulle su come funzionano realmente i modelli climatici e contiene numerose conclusioni irrilevanti su retroazioni e processi che si suppongono mancanti. Fortunatamente, RealClimate Wiki vi offre tutte le smentite necessarie in un solo click.

Il capitolo 5, denominato faziosamente “E’ improbabile che il tasso di crescita del livello del mare aumenti”, é basato su dichiarazioni errate secondo cui le proiezioni dell’aumento del livello del mare sono esagerate, e l’IPCC ha presumibilmente abbassato le proiezioni dell’aumento futuro del livello del mare.
Il capitolo 6, “I gas serra antropici riscaldano gli oceani?”, se preso alla lettera, pone una domanda piuttosto imbarazzante (“Non fate i polli!I gas serra sono ‘gas’: riscaldano l’atmosfera e la superficie e un’atmosfera più calda traferisce parte di quel calore all’oceano sottostante. Avete ancora molto da imparare.”)
Il capitolo 7 (“Quanto sappiamo sull’anidride carbonica nell’atmosfera?”) risponde alla domanda che pone con il solito paradosso sul fatto che l’aumento di CO2 sia probabilmente una cosa naturale, o che non ci si puó fidare delle serie storiche dei dati della CO2, o ancora che la CO2 non sta comunque aumentando tanto rapidamente quanto era stato previsto.
I capitoli 8 e 9 offrono per i negazionisti gli elementi utili ad affermare che, nonostante tutto ció che hanno detto finora sia stato confutato e si sia arrivati all’inevitabile conclusione che il cambiamento climatico di natura antropica sia (1) una realtá e che (2) ci saranno cambiamenti ancora piú profondi se si continua per la strada percorsa finora, “le cose andranno comunque bene per noi”.

In conclusione, ci piacerebbe metterci nei panni dei nostri lettori. Alcuni di noi hanno pensato che il report “NIPCC” fosse talmente e palesemente privo di senso, che non gli avremmo nemmeno dovuto dare un’opportunitá di alcuna pubblicitá. D’altra parte questo dá alla “wiki” di RealClimate una buona opportunità per un test di prova. Speriamo di espandere questa risorsa in futuro e saremmo davvero felici di dare il benvenuto a qualsiasi aiuto esterno (giá ora molto proviene dal lavoro di alcuni dediti volontari, grazie!).
Se avete voglia e tempo per aiutare a organizzare questo lavoro, lasciateci una riga e noi vi inseriremo.

Articolo originale su Realclimate.com
Traduzione di: Emanuele Eccel, Giulia Fiorese, Lighea Speziale
Revisione di: Simone Casadei

Pubblicato su Climalteranti il: 10/12/2008

8 – Attenzione alla differenza!

Continua la confusione sui trends delle temperature mondiali: il concetto, erroneo, che “l’effetto serra si è fermato” continua a vivere nella mente di alcune persone. Abbiamo già discusso i motivi per cui questa argomentazione presenti alcuni difetti. Allora come mai non li abbiamo convinti?

Il cardine di questa confusione ha inizio nel dataset HadCRUT 3V, che è solo una tra le numerose stime dei dati sul riscaldamento globale, che indica il minimo cambiamento nell’ultimo decennio. Altre analisi sulle temperature, invece suggeriscono un riscaldamento del pianeta ben più marcato. Quindi, potremmo pensare che il dataset HadCRUT 3V rappresenti la stima più bassa, sempre che un riscaldamento globale possa essere definito in un così limitato arco temporale.

”"Un confronto con altri dataset di temperatura come il NASA/GISS (in rosa nella figura a sinistra), rivela alcune differenze. Inoltre è possibile fare dei confronti con dei dati generati da un modello (ri-analisi), tenendo però presente che bisogna essere molto cauti con questi dati, dal momento che non sono appropriati per studi sul cambiamento climatico di lungo periodo (in quanto forniscono una alterazione dei trends, per lo meno a livello locale). Ad ogni modo, le informazioni che abbiamo raccolto da dataset indipendenti indicano un aumento delle temperature medie globali anche al di là dell’ultimo decennio.

Tutte le questioni scientifiche hanno a che fare con un certo livello di incertezza (barre di errore), e questa può essere ridotta solo se si riesce a provare che è stata influenzata da un fattore esterno (contaminazione) o se alcuni dati non sono rappresentativi per lo studio in questione. Quindi se alcuni dati non sono corretti, è giusto escluderli in modo da ridurre le barre di errore. Questo però richiede una prova solida e convincente di una rappresentazione fuorviante della realtà da parte dei dati, e non si possono prendere le stime più basse e sostenere che rappresentino il valore più elevato senza provare che tutti i dati con valori più alti siano sbagliati. In altre parole, considerare le stime più basse ed utilizzarle come limite massimo non ha assolutamente alcun senso (sebbene alcuni che si dichiarano “statistici” abbiano fatto questo errore!).

Un altro aspetto è che alcuni dataset – come i dati forniti dal Climate Research Unit (CRU) – hanno una copertura incompleta con molte lacune nella zona Artica, dove altri dati suggeriscono invece i più forti aumenti della temperatura. La figura qui sotto mostra queste lacune nella disponibilità dei dati, facendo un confronto tra il dataset HadCRUT 3V e la ri-analisi NCEP.

”"

Didascalia della figura: differenza fra la temperatura media del periodo Ottobre ’07 – Settembre ’08 e la temperatura media del periodo 1961-1990 secondo il dataset HadCRUT 3V (in alto a sinistra) e la ri-analisi NCEP (in alto a destra). Di seguito è riportato un confronto dell’evoluzione della temperatura media sui 12 mesi, latitudine compresa tra 60N-90N (in rosso= NCEP; in nero= HadCRUT).

I dati di ri-analisi sono i risultati di modelli atmosferici dove i dati osservati sono stati inseriti nei modelli e usati per correggere la simulazione, in modo da provare ad ottenere la miglior possibile descrizione dell’atmosfera reale. Tuttavia è importante notare che la ri-analisi NCEP ed altre ri-analisi (ad esempio ERA40) non sono considerate adatte per lo studio dei trends, a causa dei cambiamenti nei sistemi di osservazione (nuovi satelliti ecc.). Tuttavia un confronto tra le ri-analisi e le osservazioni può far emergere alcune differenze che possono suggerire dove andare a cercare i problemi.

”"

Didascalia della figura: la figura animata mostra la differenza di temperatura tra i due periodi di 5 anni, 1999-2003 e 2004-2008. Tali risultati non mostrano le tendenze a lungo termine, ma è un dato di fatto che si sono registrate temperature elevate nell’artico nel corso degli anni recenti.
Il recente riscaldamento dell’Artico è visibile nel grafico animato a destra che mostra la differenza della temperatura media delle ri-analisi NCEP tra i periodi 2004-2008 e 1999-2003.

Il report NOAA sull’Artico era basato sul data set CRUTEM 3v (vedi figura sotto) che esclude le temperature sopra l’oceano – mostrando perciò persino una figura ancor meno completa delle temperature nell’Artico. i numeri che ho ottenuto suggeriscono che più dell’80% dei singoli domini di griglia posti a nord del 60 parallelo contengono valori mancanti riguardo l’ultima decade.

”"

Didascalia della figura: differenza tra le temperature medie del periodo novembre 2007 – ottobre 2008 e la temperatura media stimata da CRUTEM 3v (in alto a sinistra) e la rianalisi NCEP (in alto a destra) per il periodo 1961-1990. Sotto è riportato il confronto dell’andamento della temperatura media sui 12 mesi tra le latitudini 60N e 90N.

Comunque la cosa divertente è che le temperature dell’Artico nell’ultimo decennio stimate da CRUTEM 3v sono più vicine alle stime corrispondenti dalle ri-analisi NCEP rispetto ai dati più completi di HadCRUT 3v.
Questo può essere una coincidenza. Le ri-analisi utilizzano dati addizionali per completare i dati mancanti – es. misure da satellite e previsioni basate sulle leggi della fisica. Perciò, la temperatura in aree prive di osservazioni è in teoria fisicamente consistente con le temperature vicine e con lo stato dell’atmosfera (circolazione atmosferica).

La figura sotto mostra un simile confronto tra HadCRUT3v e GISTEMP (fonte NASA/GISS). Quest’ultimo fornisce una rappresentazione dell’Artico più completa considerando una correlazione spaziale condotta attraverso un’ estrapolazione/interpolazione nello spazio. Ma GISTEMP non possiede davvero una migliore base empirica nell’Artico, ma l’effetto dall’estrapolazione (mediante l’inserimento di valori in corrispondenza dei dati mancanti) fornisce maggior peso alle recenti temperature più alte nell’Artico.

”"

Didascalia della figura: l’anomalia della temperatura media del 2007 a confronto con la media 1961-1990: (in alto a sinistra) HadCRUT3v, (in alto a destra) GISTEMP, e (in basso) l’evoluzione della temperatura per l’Artico (GISTEMP in rosso, HadCRUT 3v in nero).

Un confronto tra le temperature sul periodo di 30 anni disponibile più recente (1978-2007) mostra elevate temperature su parti della Russia (figura sotto – pannello in altro a sinistra), e la differenza tra i dati GISTEMP e HadCRUT 3v mostra un buon accordo eccetto che per il circolo polare Artico e in qualche settore marino (pannello in alto a destra). L’evoluzione temporale della media nell’emisfero boreale per i due set di dati è mostrata nel pannello più in basso, mostrando un buon accordo sulla maggior parte del periodo, ma le stime rilevate attraverso GISTEMP negli ultimi 10 anni sono leggermente più elevate (il valore medio globale non è stato mostrato in quanto il mio computer non possiede sufficiente memoria per un’analisi completa, ma i due set di dati mostrano simili andamenti nel AR4 dell’IPCC).

”"

Didascalia della figura: (in alto a sinistra) anomalia media rilevata dal data set HadCRUT 3V T(2m) nel periodo 1976 – 2005 (wrt to 1950 -1980); in alto a destra la differenza GISS –HadCRUT 3V in media nel periodo 1976 – 2005 e, in basso, le variazioni delle medie delle temperature nell’emisfero nord (rosso=GISTEMP, nero =HadCRUT 3v).

Da notare che la scarsa estensione dei ghiacci della calotta artica durante le scorse estati è una prova evidente delle alte temperature in quelle regioni.

L’insufficiente copertura di osservazioni è stata rilevata dall’AR4 dell’ IPCC e da Gillet et al. (Nature Geoscience, 2008), i quali affermano che il riscaldamento osservato nell’Artico e nell’Antartico non sono coerenti con la variabilità climatica interna e le sole forzanti naturali ma sono direttamente imputabili all’aumento dei livelli dei gas ad effetto serra.

Hanno fatto presente anche che il riscaldamento alle latitudini polari è probabile che abbia impatti misurabili sull’ecologia e sulla società (ad esempio).

Nel loro studio, ci sono almeno 15 domini della griglia con dati validi (ogni dominio solitamente rappresenta una misura) durante il periodo 1900 – 2008. In aggiunta a ciò le sole osservazioni valide che hanno usato dell’Emisfero Nord venivano dai confini dell’Artico, ben lontane dal centro stesso dell’Artico. La situazione è un po’ migliore per l’Antartico (con un’osservazione vicino al Polo Sud). Nondimeno, il titolo “Attribuzione del riscaldamento ai poli all’attività umana” (l’ho enfatizzato io) è un po’ ingannevole. Ciò è vero per alcune zone alle alte latitudini ma ai poli no.

Lo studio di valutazione del contributo dell’attività umana al riscaldamento dei poli era basato su serie di temperature mediate sui 5 anni e a estensioni spaziali mediamente corrispondenti a settori di 90° (cioè a quattro differenti settori); i settori e i periodi con dati invalidi non venivano considerati.

Ci sono alcune limitazioni nel loro studio: i Global Climate Models (GCMs) non riproducono molto bene il periodo caldo a cavallo del decennio 1930 – 1940 nell’Artico, e le differenze geografiche, in un numero limitato di domini della griglia delle osservazioni, possono essere state cancellate nel GCMs considerando il valore medio nei settori di 90°.

Il riscaldamento dell’Artico nel decennio 1930 – 1940 probabilmente non è stato forzato esternamente, ma ci si potrebbe anche chiedere se i modelli non siano stati in grado di considerare tutte le variazioni interne perché pochi modelli riproducono simili caratteristiche. Inoltre, gli attuali GCMs hanno presentato dei problemi per quanto concerne la rappresentazione delle caratteristiche del ghiaccio artico (che tende ad essere troppo esteso), del contenuto di calore dell’oceano e mancano di considerare la continua diminuzione dell’estensione del ghiaccio artico stesso. La maggior parte di questi problemi si presentano nella differenza con tutti i dati che non siano CRUTEM 3v ma ci sono anche alcune incertezze associate alla mancanza di dati nelle regioni polari.

L’analisi campione ottimale poggia sull’assunzione che le simulazioni di controllo con i GMC riproducano in maniera realistica la variabilità climatica. Penso che i GCM facciano un buon lavoro per la maggior parte del pianeta, ma ricerche indipendenti suggeriscono l’esistenza di problemi locali nell’Artico dovuti ad una cattiva rappresentazione dell’estensione della banchisa. Ciò potrebbe non aver inficiato molto l’analisi, se il problema fosse limitato all’alto Artico. Inoltre, i risultati hanno suggerito una corrispondenza uno a uno nei trends tra simulazioni e le osservazioni, ma l’analisi ha mostrato un coefficiente di regressione di 2-4 per le forzanti naturali. Ciò mi suggerisce che possono esserci problemi con l’analisi o con i GCM.

Probabilmente questa non è l’ultima parola sulla questione. Perlomeno, non sono ancora convinto sull’attribuzione. Il tutto si riduce ad un’insufficienza di dati empirici (vale a dire le osservazioni), alle limitazioni dei GCM alle alte latitudini e a mancanze troppo grandi nei dati. Ma i cambiamenti dichiarati nell’Artico sono in accordo con la teoria AGW . L’ironia sembra sia che il mondo reale mostra segni di cambiamenti più drammatici di quanto previsto dai GCM, specialmente se si considera l’estensione della banchisa.

La mancanza di dati nella regione polare è un problema e la campagna dell’Anno Polare Internazionale (IPY – International Polar Year), attualmente in corso, costituisce un enorme sforzo internazionale concertato per migliorare i dati. I dati sono insostituibili, indipendentemente dalle potenzialità del modello, poiché la scienza richiede che la teoria sia provata con dati empirici indipendenti. Le ri-analisi forniscono una descrizione dell’atmosfera fisicamente consistente – suggerendo alte temperature nell’Artico – ma potremo essere sicuri di questo soltanto quando saremo stati effettivamente sul campo e avremo condotto delle misurazioni reali (alcune possono essere fatte anche via satellite).

Articolo originale su RealClimate.org
Traduzione di: Federico Antognazza, Riccardo Mancioli, Tania Molteni, Fabio Sferra
Revisione di: Simone Casadei

Pubblicato su Climalteranti il: 30/11/2008

7 – Greenspan, Einstein e Reich

Dopo la notevole ammissione da parte di Alan Greenspan che la sua “teoria” economica aveva una falla fondamentale, ho riflettuto molto su tutte quelle mail ricevute da parte di persone che pretendevano di aver trovato una “falla fondamentale” nella teoria dell’effetto serra. Queste mail spaziavano tra divertenti affermazioni circa i cambiamenti del campo magnetico terrestre, a favole che sostengono come il “peso” dell’anidride carbonica la tenga confinata al suolo. Se l’autore di queste mail mi sembrava serio, allora lo trattavo in maniera altrettanto seria facendo del mio meglio per fornire un risposta utile. È capitato però di trovarmi coinvolto in un dibattito sterile che ignorava addirittura i principali e ben noti principi della fisica. In questi casi ho tagliato corto con la discussione, semplicemente perché non avevo tempo. Questo può avermi procurato qualche risposta critica che mi accusava di essere prevenuto. Altri invece mi potrebbero aver dato dell’ingenuo per essermi preoccupato di rispondere a tutti senza criterio.

È possibile però che, da qualche parte in quel marasma di lettere e domande, giaccia un’idea brillante che meriti di essere ascoltata e che addirittura possa cambiare il corso della storia scientifica. Come si fa a capirne la differenza? Beh, conosco una storia che veniva raccontata nella mia famiglia e che credo possa dare qualche esempio in merito.

La storia in questione riguarda Wilhem Reich, il controverso psicoanalista Freudiano (1897 – 1957). Reich era un conoscente personale di mio prozio, William Steig, il creatore di Shrek e illustratore dei libri di Reich stesso. Reich pensava di aver fatto un’importante scoperta nel campo della fisica, capace di provare l’esistenza di una forma di energia sconosciuta fino ad allora, che chiamò “energia orgonica”. Per provare ciò costruì un “accumulatore di energia orgonica” (in sostanza era una scatola le cui pareti erano costituite da strati alternati di materiale organico e di metallo) con la quale fece alcuni accurati esperimenti che dimostrarono che la temperatura dentro tale scatola aumentava al di sopra della temperatura ambiente esterna. Fece ulteriori calcoli che (pensava) dimostrassero che l’incremento di temperatura era più grande di quanto si potesse spiegare con la semplice termodinamica, doveva quindi esserci una fonte di energia ulteriore che attribuì alla misteriosa “energia orgonica”. Inviò i calcoli a Albert Einstein il quale, molto cortesemente, gli rispose dimostrandogli che i suoi calcoli erano sbagliati. Reich allora gli scrisse di nuovo, mostrandogli che chi si stava sbagliando era lui. Einstein non gli rispose mai. Qualcuno nella mia famiglia sostiene che il comportamento di Einstein era una prova che non sapesse cosa rispondere. Molti però, potrebbero ritenere che Einstein decise che aveva meglio da fare piuttosto che continuare a discutere di un argomento che non avrebbe portato da nessuna parte e quindi lasciò perdere.

Questo aneddoto è particolarmente importante per la mia famiglia in quanto mio nonno Henry, il fratello di William, morì di cancro mentre cercava di curarsi sottoponendosi a cure che prevedevano delle sedute in un accumulatore orgonico. Naturalmente non ritengo Wilheim Reich responsabile della morte di mio nonno, ma è evidente che Reich si sbagliava mentre Einstein aveva ragione.

Un momento però, voi potreste pensare: “ragazzi, voi di Real Climate non siete Albert Einstein!”. E’ vero, però anche noi, come Albert Einstein, siamo costantemente oggetto di critiche da parte di ogni tipo di scienziati. Questo processo si chiama “peer review” ovvero il continuo controllo e scrutinio da parte di persone qualificate che lavorano e studiano nello stesso campo scientifico di chi propone una teoria. Non è un processo perfetto ma fornisce uno strumento capace di separare quei concetti o idee che hanno un fondamento scientifico da altre che non hanno alcun senso.

È interessante sottolineare che il discorso di Greenspan circa l’economia non sia mai stato sottoposto ad un processo simile.

Potrebbe esserci una lezione da imparare in tutto questo!

Articolo originale su Realclimate.org
Traduzione di: Riccardo Mancioli
Revisione di: Aldo Pozzoli
Pubblicato su Climalteranti il: 01/11/2008

6 – Ancora i trends troposferici tropicali (ancora)

Molti lettori ricorderanno una nostra critica di un articolo della fine dello scorso anno di Douglass (Douglass et al.) sui trend di temperatura tropicale troposferica e la discussione delle revisioni in corso dei dati osservati. Alcuni ricorderanno come nel mondo dei blog si sia gridato ai quattro venti come il lavoro di Douglass fosse la prova definitiva del fallimento di tutti i modelli. A quell’epoca fu criticata la nostra stessa critica perchè le nostre correzioni non erano state sottoposte a una rivista soggetta al sistema della peer-review. Tuttavia questa fu una piccola ingiustizia (e possibilmente un piccolo falso) perché un gruppo di noi aveva in realtà presentato un articolo meglio argomentato che ripercorreva gli stessi punti principali. Di certo, il processo di revisione comporta un tempo maggiore rispetto a quello di una pubblicazione di un post in un blog e cosi si è dovuto attendere sino ad oggi per l’apparizione sul sito internet del giornale.

Il nuovo articolo redatto da 17 autori (guidati da Ben Santer), opera un lavoro migliore di confronto dei diversi trends nei dati atmosferici con i modelli ed è molto accurato nel considerare le incertezze sistematiche in tutti gli aspetti del confronto (non come in Douglass et al). La conclusione è che mentre esiste una residua incertezza nei trend tropicali negli ultimi 30 anni, non si osserva una chiara discrepanza tra le stime attese dai modelli ed i dati osservati. È anzi disponibile una spiegazione che giustifica il risultato in termini relativamente semplici.

Oltre a ciò, l’articolo esamina le proprietà statistiche del test usato da Douglass et al. e trova qualche risultato molto strano. In particolare, il fatto che il loro test dovrebbe formalmente rifiutare in maniera automatica un abbinamento una volta su 20 (vale a dire un 5% di significatività), in realtà scarta 16 confronti utili su 20! E curiosamente, più dati si hanno, meno il test funziona (figura 5 nell’articolo). L’altro aspetto discusso nell’articolo è l’importanza di imbattersi in errori sistematici all’interno dei set di dati. Questi sono proprio gli stessi punti che si erano trattati nel nostro post sul blog, ma ora esposti con una chiarezza molto maggiore. Le origini dei dati sono ora completamente aggiornati e viene utilizzato un intervallo di sorgenti molto più ampio – non solo di diversi output da satellite, ma anche le diverse analisi dei dati della sonda radio.

Il risultato finale è ben sintetizzato nella riassuntiva figura 6 dall’articolo:

”Dispersione

La banda grigia rappresenta la dispersione 2-sigma dei modelli (mentre la banda gialla è la dispersione permessa dal test difettoso di Douglass et al.) Le altre linee sono le diverse stime ottenute dai dati. Le incertezze in entrambi precludono qualsiasi obiezione di un’ovvia discrepanza – un risultato che si può ottenere solo da una selezione parziale dei dati migliori e riducendo erroneamente nelle simulazioni la dispersione attesa.

Ampliando leggermente l’osservazione, ritengo che questo esempio mostri abbastanza chiaramente come l’attività dei blogs possa giocare un ruolo costruttivo nel progresso della scienza (una qualcosa già discusso poco tempo fa).

Data l’enormità dell’errore in questo particolare articolo (che allora era evidente a molte persone) il fatto che il post sia apparso rapidamente sul blog ha allertato la comunità sui problemi relativi all’articolo anche se non si trattava di un’analisi comprensibile. Il tempo intercorso tra l’uscita dell’articolo originale e questa nuova analisi è di circa 10 mesi. L’articolo risultante è certamente molto migliore di quanto potesse essere qualsiasi post di blog e infatti si muove ben oltre una semplice confutazione. Questo dimostra chiaramente che non esiste conflitto tra il processo di revisione e il mondo dei blog. In conclusione, un articolo appropriato necessita di più tempo e fornisce un risultato migliore rispetto a un post su un blog, ma un blog può evidenziare i punti essenziali molto rapidamente ed evitare che altre persone perdano il proprio tempo.

Revisione di: Simone Casadei
Articolo originale su Realclimate.org
Traduzione di: Federico Antognazza

Pubblicato su Climalteranti il: 26/10/2008

5 – Palin sul riscaldamento globale

Qui a RealClimate comprensibilmente abbiamo un forte interesse sui punti di vista dei candidati a Presidente e Vice-presidente in merito al riscaldamento globale e alla emissioni di anidride carbonica. Cosa le loro posizioni comporteranno per le azioni future sui cambiamenti climatici è di per se significativo, ma al di là di questo l’abilità di riferirsi all’evidenza scientifica più solida in questo caso serve come filo conduttore per l’approccio dei candidati alla scienza.

Qualunque altra cosa possiate dire sui candidati, è incoraggiante che sia John McCain che Barack Obama siano favorevoli ad un’azione obbligatoria volta a ridurre le emissioni di anidride carbonica statunitensi.

Ma iniziamo con il Governatore Sarah Palin, la prescelta da McCain come Vice-presidente. La posizione di Palin sul riscaldamento globale è stata abbastanza chiaramente dichiarata in questa recente intervista con il Newsmax, dove lei afferma che ”un cambiamento del clima avrà ripercussioni sull’Alaska più che in ogni altro Stato, a causa della nostra posizione geografica. Non sono una di quelle che vuole attribuire tutto questo all’opera dell’uomo”. Come questo si può conciliare con la posizione di McCain? Hanno deciso di non essere d’accordo? Che cosa significherà questo sulle future azioni, se McCain vincesse le elezioni, specialmente in vista del fatto che, come Cheney, Palin sarà probabilmente incaricata di occuparsi della politica energetica ?.

Il recente dibattito della Vice-presidente fa chiarezza sull’argomento. Una trascrizione completa del dibattito è qui.

Palin sembra tentare di evitare l’intera questione affermando che la causa non è importante. Quando il moderatore le ha chiesto “cosa è vero e cosa è falso su ciò che abbiamo sentito, letto, discusso e dibattuto circa le cause del cambiamento climatico” Palin ha risposto come segue:

”PALIN: Si, bene, essendo l’unico Stato artico della nazione e essendone io il governatore, posso dire che l’Alaska sente e vede l’impatto del cambiamento climatico più di qualunque altro Stato. E sappiamo che è reale. Non sono una di quelle che vuole attribuire all’uomo o all’attività dell’uomo tutte le colpe del cambiamento climatico. Ci sono alcune responsabilità dovute all’attività dell’uomo ma anche altre ai cambiamenti ciclici di temperatura del nostro pianeta.”

Sono abbastanza sicuro che quest’ultima affermazione è un confuso tentativo per ribadire quanto detto nell’intervista con Newsmax, ma voi siete i giudici. A differenza della precedente citazione, questo almeno è un cenno nella direzione di riconoscere (timidamente) la possibilità di un’influenza umana. Ciò che è importante è quello che segue:

”Ma ci sono reali cambiamenti in atto nel nostro clima. E non voglio discutere sulle cause. Quello di cui voglio discutere è, come abbiamo intenzione di agire positivamente sugli impatti?”.

Abbiamo il coraggio di dire che, in realtà, fa molta differenza sapere quale sia la causa del riscaldamento del pianeta? Se veramente le emissioni di anidride carbonica non sono un elemento importante della causa, che senso avrebbe per McCain (o per chiunque altro) presentare una politica di riduzione delle emissioni? Anche se sei della corrente di pensiero che sostiene sia meglio adattarsi che mitigare, conoscere la causa è una parte importante per sapere a quale tipo di cambiamento climatico ci si debba adeguare, quanto potrà durare e quanto potrà peggiorare.

La risposta di Biden in confronto, è stata diretta, chiara e semplice:

”BIDEN: credo sia opera dell’uomo. Penso che sia chiaramente opera dell’uomo, e guarda, questo spiega probabilmente la più grande differenza tra John McCain e Barack Obama e tra Sara Palin e Joe Biden- Governatore Sarah Palin e Joe Biden”.

Se non capite quale sia la causa è praticamente impossibile arrivare ad una soluzione. In realtà sappiamo qual’è la causa. La causa è umana. Questa è la causa. Ecco perché la calotta polare si sta sciogliendo”.

Bene, forse ha tralasciato il tipo di chiarimenti e riserve che avresti aggiunto per spiegare il recente scioglimento dei ghiacci del mare artico se fossi ad una conferenza dell’American Geo-Physical Union invece che ad un dibattito vicepresidenziale.

Nel complesso però la dichiarazione arriva al cuore della questione.

Uno può anche dubitare sull’impegno della Palin ad affrontare le conseguenze del cambiamento climatico. Sicuramente include fare qualcosa per salvare gli orsi polari, ormai lo Stato dell’Alaska (contro il parere dei propri biologi della fauna selvatica) ha citato in giudizio il Dipartimento degli Interni per la sua decisione di classificare l’orso polare come specie “minacciata”, e questo nonostante l’amministrazione Bush abbia posto così tante riserve su questo elenco che è rimasto senza valore. Questo è confermato dal fatto che la breve relazione presentata al Dipartimento aveva coinvolto una serie di scettici sul cambiamento climatico (incluso il Marshall Institute di Willie Soon)

Il ruolo di Palin nel portare questo caso non è stato marginale , è stata molto al centro degli sforzi e ha sempre messo in dubbio il nesso di causalità tra anidride carbonica e riscaldamento globale nel promuovere la causa. Già all’inizio del 2006 aveva scritto al Segretario Kempthorne ”Quando un habitat di una specie (in questo caso il mare artico) è in declino a causa dei cambiamenti climatici, ma non ci sono attività umane che possono essere regolamentate o modificate per produrre un cambiamento, che cosa fate?” Ulteriori informazioni su Palin della lotta contro la decisione di classificare gli orsi come specie minacciata e il suo punto di vista sui problemi scientifici interessati può essere trovato qui.

Cogliamo l’occasione per rendere noto che Biden ha colto l’occasione del dibattito per riaffermare la posizione di Obama già da molto tempo a favore del “carbone pulito”. ”Se questo è un bene o un male dipende dalla misura in cui i candidati capiscono cosa significhi veramente questo termine. Dal punto di vista del riscaldamento globale l’unico carbone “pulito” sarebbe il carbone bruciato con 100% di cattura e immagazzinamento dell’anidride carbonica – sicuramente degno di ricerca e di un progetto pilota, ma non ad ogni modo una tecnologia che può, attualmente, essere considerata come la soluzione del problema (e naturalmente il termine “pulita” anche in questo caso è relativo, dato che quello che l’estrazione mineraria causa alla colline della West Virginia e ai fiumi è tutt’altro che “pulito”).

Eccoci qui. Noi riportiamo. Voi decidete.

Articolo originale su Realclimate.org
Traduzione di: Elisa Bruni
Revisione di: Stefano Caserini
Pubblicato su Climalteranti il: 18/10/2008

4 – Quanto aumenterà il livello del mare?

…è la domanda che in molti si sono posti da quando è uscito il report AR4 dell’IPCC. In quel momento abbiamo analizzato con attenzione il contenuto del report e abbiamo notato che l’ambito riguardante i processi dinamiche relativi alle calotte glaciali era davvero incerto ed effettivamente precludeva la definizione di una “soglia massima” su quanto ci si sarebbe potuti aspettare in merito a questi fenomeni. I numeri che apparivano su alcune testate (fino a 59 cm entro il 2100) non avevano tenuto conto di questa incertezza.

In un articolo più recente, il nostro Stefan Rahmstorf ha fatto uso di un semplice modello di regressione per suggerire che l’innalzamento del livello del mare (SLR) poteva raggiungere da 0.5 a 1.4 metri oltre i livelli del 1990 entro il 2100, ma non venivano considerati i processi individuali come i cambiamenti dinamici delle calotte glaciali, essendo il modello unicamente basato su come il livello globale del mare sia stato collegato al riscaldamento globale nel corso degli ultimi 120 anni. Come puntualizzava Stefan, qualsiasi comportamento non-lineare o di soglia delle calotte glaciali potrebbe condurre ad un innalzamento del livello del mare più veloce di quanto questa stima proponga. Perciò diverse voci abbastanza caute hanno sottolineato la natura “fortemente sconosciuta” di questo problema suggerendo che, basandosi su dati paleoclimatici (per esempio), era veramente difficile escludere che gli aumenti del livello del mare fossero da misurare in piedi e non in pollici. (E’ da notare anche che il SLR è un indicatore soggetto ad un tempo di risposta molto elevato e continuerà per secoli a seguire il momento in cui si saranno stabilizzate le temperature atmosferiche).

Il primo articolo che ha cercato di valutare i limiti futuri sulle perdite dinamiche dalle calotte glaciali è apparso su Science questa settimana. Pfeffer et al. hanno analizzato i ghiacciai in Groenlandia e in Antartide occidentale e hanno fatto alcuni semplici calcoli su quanto velocemente le calotte glaciali potrebbero esaurirsi dinamicamente.

Buone notizie: escludono che si superino i 2 metri di innalzamento del livello del mare per via dello scioglimento dei ghiacci della sola Groenlandia nel prossimo secolo. Questo è comunque più di chiunque altro abbia mai suggerito e potrebbe essere paragonabile alla quantità che si sciolse durante il periodo Eemiano (125.000 anni fa) (guarda questo post per saperne di più).

Cattive notizie: non possono però escludere che si alzi fino a 2 metri in totale.

In breve, stimano che includendo i processi dinamici delle calotte glaciali vi sia un SLR proiettato al 2100 nel range compreso tra 80cm e 2 metri e suggeriscono che gli 80 cm dovrebbero essere il valore di “default”. Ciò è notevole sotto diversi punti di vista: innanzitutto queste sono le stime più alte dell’innalzamento del livello del mare entro il 2100 che sono state pubblicate in letteratura fino ad oggi, e secondo, mentre loro non tengono in considerazione la piena incertezza su altri aspetti dell’SLR considerati dall’IPCC, in ogni caso i loro “numeri” sono nettamente i più elevati. E questa settimana l’olandese “Delta Commission” ha pubblicato la sua stima sul SLR, che l’Olanda necessita di pianificare (p.111): da 55 a 110 cm globalmente e un po’ più per l’Olanda, basandosi su un gran numero di input degli scienziati.

Per timore che i lettori pensino che questo non sia un grosso problema, le stime per il numero di persone che verrebbero colpite da 1 metro di innalzamento del livello del mare va oltre i 100 milioni, soprattutto in Asia. E’ di una certa rilevanza recente il fatto che l’ondata di tempesta causata da Gustav a New Orleans ha raggiunto 30 cm dal massimo livello di contenimento degli argini. 1 altro metro causato dall’aumento del livello marino globale porterebbe molta più acqua nella “boccia”.

Perciò le migliori stime sul SLR proveniente dalle calotte glaciali rimane un’alta priorità per gli esperti del clima. Modelli più sofisticati e una comprensione più profonda si stanno avvicinando e auspicabilmente questi risultati saranno presto disponibili.

Avevamo intenzione di non commentare oltre, ma abbiamo appena visto la copertura mediatica iniziale di questo risultato presentato come un declassamento le previsioni! (esemplificato da questa nota di Reuters, tratta principalmente dal comunicato stampa dell’U. Colorado). Avviene esattamente l’opposto. Noi insistiamo che nessuno (e vuol dire nessuno) ha pubblicato una stima di più di 2 metri di SLR entro il 2100. Significativamente, la dichiarazione sull’articolo che suggerisce l’opposto non ha alcuna referenza.

Ci sono state sicuramente delle asserzioni non corrette e testate che hanno titolato che ci si debba aspettare un aumento del livello del mare di 6 metri entro il 2100, ma per la maggior parte sono basati sulla confusione tra un aumento passeggero con l’eventuale aumento del livello del mare che potrebbe durare centinaia se non migliaia di anni. E prima che qualcuno si alzi per dire di Al Gore, faremo notare preventivamente che lui non fece nessuna previsione per il 2100 o per qualsiasi altra scala temporale. Trovo che chi ci si avvicina di più è Jim Hansen, il quale afferma che “è quasi inconcepibile che il cambiamento climatico BAU non produca un cambiamento del livello del mare dell’ordine di metri sulla scala temporale secolare”. Questa non è però nemmeno una previsione specifica per il 2100, né necessariamente una in disaccordo con i limiti di Pfepper et al.

Dunque, questo report dei media è un esempio classico di come gli scienziati vengano colti di sorpresa provando a controbattere miti supposti ma finiscano per perpetuarne altri, e perdano un’opportunità di educare effettivamente il pubblico. Il problema non è che la gente pensa che raggiungeremo i 6 metri di SLR in questo secolo, ma consiste nel fatto che la gente pensa che non ci sarà niente di cui parlare. Articoli come quelli nella nota di Reuters (o del National Geographic) stanno dando dunque un fondamentale disservizio alla comprensione del problema da parte del pubblico.

Aggiornamento: Marc Robert invia questo fumetto illustrando il problema…

Articolo originale su Realclimate.org
Traduzione di: Laura Scognamillo
Revisione di: Simone Casadei, Stefano Caserini
Pubblicato il: 18/09/2008

3 – La scommessa sul raffreddamento globale – II parte

La scorsa settimana avevamo proposto una scommessa sulla previsione di “arresto del riscaldamento globale” apparsa in Nature da Keenlyside et al. e avevamo promesso di presentare in seguito il nostro caso scientifico. Eccolo qui.

Ecco i motivi per i quali pensiamo che la loro previsione non sia robusta:

Grafico

http://www.realclimate.org/index.php/archives/2008/05/the-global-cooling-bet-part-2/

Figura 4 da Keenlyside et al ’08. La linea rossa mostra le osservazioni (HadCRU3 dataset), la linea nera uno scenario standard dell’IPCC (guidata dalla salita osservata all’anno 2000 e da allora in poi secondo lo scenario di emissione A1B), e i punti verdi con le barre mostrano le previsioni individuali con le temperature della superficie del mare inizializzate. Tutte sono espresse come una medie sui 10 anni.

  1. La figura 4 mostra che uno scenario standard del riscaldamento globale dell’IPCC ha un andamento leggermente migliore per la temperatura media globale relativa agli ultimi 50 anni, rispetto al loro nuovo metodo con temperature della superficie del mare inizializzate (si vedano anche i coefficienti di correlazione dati in alto nel riquadro). E’ estremamente notevole che lo scenario del riscaldamento standard abbia un andamento migliore dato che non contiene dati osservati inclusi. La curva verde, che presenta un set di previsioni individuali per 10 anni e non in serie temporale, inizia ogni volta ancora vicina al clima osservato, perché è inizializzata con le temperature della superficie del mare osservate. Così, per costruzione, non può andare lontana, in contrasto con lo scenario nero “libero”. Quindi ci si aspetterebbe che le previsioni in verde seguano un andamento migliore rispetto allo scenario in nero. Il fatto che non sia questo il caso, mostra che la loro tecnica di inizializzazione non migliora la previsione del modello per la temperatura globale.
  2. Le loro “previsioni fredde” non hanno superato il test per la fase di hindcast. Le temperature globali con una media di 10 anni sono aumentate in modo monotono durante l’intero periodo da loro considerato (si veda la linea rossa). Il metodo sembra però aver già prodotto due false previsioni di raffreddamento: una nel decennio centrato nel 1970, e una nel decennio centrato nel 1999.
  3. La loro previsione non risultava troppo fredda soltanto per gli anni dal 1994 al 2004, ma sembra quasi certo che lo sia anche dal 2000 al 2010. Per far sì che la loro previsione 2000-2010 risulti corretta, tutti i mesi rimanenti di questo periodo dovrebbero essere freddi quanto il mese di gennaio del 2008, di gran lunga il mese più freddo di quel decennio finora. Ciò richiederebbe quindi un freddo estremo per i prossimi due anni e mezzo.
  4. Anche per le temperature europee (nella loro figura 3c, non parte della nostra scommessa), la capacità previsionale del loro metodo non fa effetto. Il loro metodo ha preannunciato diverse volte un raffreddamento dal 1970, ma da allora le temperature europee sono aumentate in modo monotono. Ci si ricordi che le previsioni iniziano sempre vicino alla linea rossa; quasi ogni singolo pronostico per l’Europa è risultato errato per essere troppo freddo rispetto a quanto è effettivamente accaduto. Vi è qui, perciò, una deviazione sistematica delle previsioni.
  5. Una delle affermazioni chiave esposte nell’articolo è che il metodo permette di prevedere il comportamento dell’indice MOC (Meridional Overturning Circulation) nell’Atlantico. Non sappiamo cosa stia facendo effettivamente il MOC per l’assenza di dati, così gli autori diagnosticano lo stato del MOC dalle temperature della superficie del mare, per riportare semplicemente: un Atlantico settentrionale caldo comporta una forte MOC, uno freddo invece comporta un MOC debole (sebbene sia di certo un poco più complesso). Il loro metodo spinge le temperature della superficie del mare del modello verso quelle osservate prima che inizi la previsione. Ma questo può indurre alla risposta corretta del MOC? Supporre che la superficie dell’Atlantico del modello sia troppo fredda, comporterebbe un MOC troppo debole. Le temperature superficiali del modello sono così spinte ad essere più calde. Ma se viene fatto questo, si rendono le acque della superficie più leggere, con la tendenza ad indebolire il MOC anziché rinforzarlo! Con questo metodo, dunque, ci sembra improbabile che si possa arrivare ad un risultato corretto del MOC. Saremmo contenti di vedere questo testato nella situazione di un “modello perfetto”, dove il SST-restoring è stato applicato per provare e fare le previsioni del modello per accordarsi ad una simulazione precedente (dove si hanno molte più informazioni). Se non funziona in quel caso, non funzionerà nel mondo reale.
  6. Quando i modelli non sono più guidati dalle temperature della superficie del mare osservate, per calcolare liberamente le temperature della superficie del mare, sono affetti da qualcosa come uno “shock associato”. E’ molto difficile, forse impossibile, evitare quanto gli esperimenti a “modello perfetto” hanno mostrato (es. Rahmstorf, Climate Dynamics 1995 ). Questo problema presenta una formidabile sfida per il tipo di previsione cercata da Keenlyside et al., dove si verifica appena un “passaggio” per liberare le temperature della superficie del mare al principio della previsione. In risposta allo “shock associato”, un modello completerà un’oscillazione del MOC sui prossimi decenni, di una dimensione simile a quella vista nelle simulazioni di Keenlyside et al. Abbiamo il sospetto che questo “shock associato”, che non è una variabilità climatica realistica ma un modello artefatto, potssa aver giocato un ruolo importante in quelle simulazioni. Un test sarebbe quello nell’ambito di un “modello perfetto”, come menzionato prima, o un’analisi del budget della radiazione della rete nei run liberi e ritarati, una differenza significativa di cui si potrebbe discutere a lungo.
  7. Per verificare come si comporta il modello di Keenlyside et al. per il MOC, dobbiamo dare un’occhiata alla skill map della Figura 1a. Questa mostra aree blu per il Mare del Labrador, il Mare di Norvegia-Islanda-Groenlandia e per la regione della Corrente del Golfo. Queste aree blu indicano “skill negative”, cioè il metodo di assimilazione dei loro dati rende le cose peggiori piuttosto che migliorare la previsione. Queste sono le regioni critiche per il MOC e indica che per entrambe le due ragioni 5 e 6, il loro metodo non è capace di prevedere correttamente le variazioni del MOC. Tuttavia il loro metodo mostra di buoni risultati in alcune regioni, e ciò è utile ed importante. Tuttavia, questa prestazione potrebbe derivare dall’avvezione delle anomalie della temperatura della superficie da parte della circolazione oceanica principale piuttosto che dalle variazioni del MOC. Potrebbe anche essere un tema interessante da ricercare in futuro.
  8. Tutti i modelli climatici usati dall’IPCC, disponibili pubblicamente nell‘archivio del modello CMIP3, includono la variabilità intrinseca del MOC così come la variabilità del Pacifico tropicale o dell’Oscillazione del Nord Atlantico. Alcuni di questi includono anche una stima della variabilità solare nella forzante. Così, in teoria, tutti questi modelli dovrebbero mostrare una sorta di raffreddamento scoperto da Keenlyside et al.,eccetto che questi modelli dovrebbero mostrarlo in un momento casuale e non in un momento specifico. Il secondo è l’innovazione cercata dopo questo studio. Il problema è che gli altri modelli mostrano che un raffreddamento di una media decennale in uno scenario di riscaldamento globale ragionevole è estremamente improbabile e raramente accaduto – vedi il post di ieri. Questo suggerisce che la previsione del raffreddamento globale data da Keenlyside et al. stia fuori dal range della variabilità naturale trovata nei modelli climatici (e probabilmente anche nel mondo reale) ed è forse un artefatto del metodo di inizializzazione.

La nostra valutazione potrebbe certamente essere sbagliata, dovevamo fidarci del materiale pubblicato, mentre Keenlyside et al. avevano accesso ai dati completi del modello e ci hanno lavorato per mesi. Ma la cosa simpatica di questa previsione è che entro alcuni anni avremo la risposta, perché queste sono previsioni testabili a breve termine, di cui noi saremo felici di sapere di più.

Perché abbiamo proposto una scommessa su questa previsione? Principalmente perché eravamo interessati allo spazio globale dato dai media che la faceva apparire come se una pausa imminente del riscaldamento globale fosse quasi un dato di fatto piuttosto che una previsione sperimentale. Potrebbe ritorcersi contro l’intera comunità di studiosi delle scienze climatiche se la previsione si rivelasse errata. Persino oggi, il fatto che alcuni scienziati abbiano predetto un raffreddamento globale negli anni ’70 è ancora usato per minare la credibilità delle scienze climatiche, anche se in quel momento era solo una piccola minoranza di scienziati a fare le proprie affermazioni, ma senza mai convincere gli altri loro colleghi. Se diversi gruppi di scienziati hanno una scommessa pubblica che ruota intorno a questo tema, sarà segno per il pubblico che questa previsione non ha un consenso ampiamente supportato dagli studiosi di climatologia, in contrasto con i report dell’IPCC (e su questo siamo completamente d’accordo con Keenlyside e i suoi colleghi). Alcuni report dei media hanno persino insinuato che programmagli scenari dell’IPCC siano stati rimpiazzati ora da questa previsione “migliorata”.

Inquadrare tutto ciò sotto forma di scommessa aiuta anche a chiarire cos’era esattamente la previsione e quali dati la falsificherebbero. Non fu completamente chiaro per noi dall’articolo e abbiamo intrapreso una corrispondenza con gli autori per capirne di più. Ciò permette agli autori di affermare: “Aspetta, questo non è come intendevamo la previsione, ma ci piacerebbe scommettere su una previsione modificata come la seguente…”. Tra l’altro, siamo contenti di negoziare sull’oggetto della scommessa, non lo stiamo facendo per soldi. Saremmo felici di scommettere su, diciamo, una donazione per un progetto per la protezione della foresta pluviale, o fermare le emissioni di un centinaio di tonnellate di CO2 dell’Emission Trading Market europeo.

Speriamo, dunque, che questa discussione aiuterà a chiarire i temi e invitiamo Keenlyside et al. a scrivere un post qui (e in KlimaLounge) per dare la loro opinione a riguardo.

Articolo originale su Realclimate.org
Traduzione di: Laura Scognamillo
Pubblicato su Climalteranti il: 8/09/2008

2 – Cosa dicono realmente i modelli dell‘IPCC

Durante i due mesi appena trascorsi è stato scritto molto nel blog su cosa predicano i modelli usati nell’IPCC 4th Assessment Report (AR4) sulla variabilità naturale in presenza di un andamento a lungo termine di crescita dei gas serra. Purtroppo la maggior parte del dibattito è stata basata su grafici, modelli di equilibrio energetico e descrizioni di una forzante, piuttosto che sull‘insieme pieno dei modelli accoppiati atmosfera-oceano. Ciò ha portato ad alcuni brusii piuttosto forti, ma male informati, sulle tendenze sul breve periodo.

Abbiamo già discusso su quanto un’analisi dei dati a breve termine possa essere fuorviante e abbiamo anche precedentemente commentato quanto l’uso dell’incertezza complessivamente determini confusione sull’insieme di possibili traiettorie. Gli effettivi output dei modelli sono disponibili da tempo, ed è piuttosto sorprendente che nessuno li abbia ancora esaminati attentamente, data l’attenzione che il tema ha guadagnato.

Per questo nel presente post esamineremo direttamente cosa mostrano effettivamente le simulazioni di un singolo modello.

Innanzitutto, come è la dispersione dei risultati delle simulazioni? La figura seguente traccia l’anomalia della temperatura media globale per 55 realizzazioni individuali del 20° secolo e la loro prosecuzione nel 21° secolo, in base allo scenario del SRES A1B. Per i nostri scopi questo scenario è abbastanza vicino alle effettive forzanti degli ultimi anni, nonostante sia un’approssimazione valida alle simulazioni presenti e a quelle probabili in futuro. La stessa media ponderata dell’ensemble è tracciata in alto. Questo non è del tutto simile a quanto rappresentato dall’IPCC (poiché loro prima effettuano la media fra varie applicazioni di un singolo modello e poi mediano fra diversi modelli), ma in questo caso la differenza è minore.

”anomalie

Dovrebbe risultare evidente, da quanto segnato nel grafico, che la tendenza a lungo termine (il segnale del riscaldamento globale) sia robusta, ma è altrettanto ovvio che il comportamento a breve termine di qualsiasi realizzazione individuale non lo sia. Questo è l’impatto della variabilità stocastica non correlata nei modelli (il tempo atmosferico) che è associata con le mode interannuali o interdecennali dei modelli (questi possono essere associati, per esempio, con la variabilità del Pacifico tropicale o con le oscillazioni nella circolazione oceanica). Questa variabilità ha una diversa dimensione per modelli differenti e di quanto potrebbe essere dedotto dalle osservazioni, e in un’analisi più sofisticata potrebbe essere aggiustata . Tuttavia, per questo post, è sufficiente usarle “così come sono”.

Possiamo definire la variabilità molto semplicemente guardando la serie di regressioni (lineari ai minimi quadrati) su vari segmenti temporali e disegnando la distribuzione. Questa figura mostra i risultati del periodo tra il 2000 e il 2007 e dal 1995 al 2014 (incluso) insieme con un fit gaussiano alle distribuzioni. Questi due periodi sono stati scelti perché corrispondono ad alcune analisi precedenti. L’andamento medio (e la moda) in entrambi i casi è di circa 0.2°C/decennio (com’è già stato ampiamente detto) e non vi è una differenza significativa tra le tendenze nel corso dei due periodi. Vi è certamente una grande differenza nella deviazione standard, la quale dipende fortemente dalla lunghezza del segmento.

”trend

Nel corso di soli 8 anni, si è assistito ad una serie di regressioni da -0.23°C/decennio a 0.61°C/decennio. Si noti che questo è stato un periodo privo di eruzioni vulcaniche e così la variazione è quasi esclusivamente interna (alcuni modelli hanno inclusa la variabilità del ciclo solare, che darà una piccola differenza).

Il modello con l’andamento maggiore ha un range da -0.21 a 0.61°C/decennio in 4 realizzazioni diverse, confermando il ruolo della variabilità interna. 9 simulazioni su 55 hanno un andamento negativo durante questo periodo.

Durante il periodo più lungo, la distribuzione diventa più stretta e il campo si restringe da -0.04 a 0.42°C/decennio. Si noti che anche in un periodo di 20 anni vi è almeno una realizzazione con un andamento negativo. Per quel modello, le 5 realizzazioni differenti danno una serie di andamenti da -0.04 a 0.19°C/decennio.

Quindi:

  • Non è fondato affermare che i modelli accoppiati di circolazione globale (GCMs) aumentano la temperatura in modo monotono con l’incremento di gas serra. La variabilità naturale non scompare perché vi è un andamento a lungo termine. L’insieme medio è in crescita monotona in assenza di grandi eruzioni vulcaniche , ma questa è una componente obbligata del cambiamento climatico, non una singola realizzazione o qualsiasi cosa che possa succedere nel mondo reale.
  • Non si può sostenere che un trend negativo osservato negli ultimi 8 anni sarebbe inconsistente con i modelli. L’affermazione analoga che la proiezione dell’IPCC di circa 0.2°C/decennio nei prossimi decenni verrebbe falsificata da una tale osservazione è ugualmente falsa.
  • Nel corso di 20 anni, potrebbe essere più fondato discutere di un andamento negativo oltre il 95% nei limiti dell’intervallo di confidenza dell’andamento previsto (l’unico run del modello dell’ensemble suggerisce che potrebbe accadere solo nel ~2% del tempo).

Un problema collegato da sollevare è ogni quanto tempo dovremmo aspettarci un nuovo record della temperatura media globale. Anche questa è una funzione della variabilità naturale (più piccola è, prima ci si aspetta un nuovo record). Possiamo esaminare i run di un singolo modello per guardare alla distribuzione. C’è un aspetto problematico, che si collega all’incertezza nelle osservazioni. Ad esempio, mentre per la serie GISTEMP nel 2005 la temperatura è stata leggermente più calda rispetto al 1998, non è successo altrettanto nei dati dell’HadCRU. Così, ciò che ci interessa realmente è il tempo d’attesa per il prossimo record inoppugnabile, cioè un record che sia almeno 0.1°C più caldo del precedente (cosicché risulterebbe chiaro in tutti gli archivi di dati basati sulle osservazioni). Questo richiederà ovviamente più tempo.

Questo grafico mostra la distribuzione cumulata dei tempi d’attesa per nuovi record nei modelli che vanno dal 1990 al 2030. Le curve dovrebbero essere lette come la percentuale di nuovi record che si vedrebbero aspettando X anni. Le due curve sono per un nuovo record di qualsiasi dimensione (nero) e per un record evidente (> 0.1°C sul precedente, rosso). Il risultato principale è che con una probabilità del 95%, entro 8 anni, potrebbe esservi un nuovo record, ma che per un record evidente bisognerebbe aspettare 18 anni per avere un simile intervallo di confidenza. Come detto sopra, questo risultato dipende dall’importanza della variabilità naturale che varia a seconda dei diversi modelli. Così l’attesa nel mondo reale non sarebbe esattamente quella che qui è descritta, ma essa è, probabilmente, razionalmente indicativa.

”Probabilità

Possiamo anche vedere come i risultati del Keenlyside et al siano paragonabili alla variabilità naturale nelle simulazioni standard (non inizializzate). Nei loro esperimenti, la media decennale del periodo 2001-2010 e 2006-2015 risulta più fredda del periodo 1995 al 2004 (usando l’approssimazione più vicina ai loro risultati con solo dati annuali). Nei run dell’IPCC accade solo in una simulazione, e solo per la prima media decennale, non nella seconda. Questo implica che ci possa essere altro oltre alla semplice variabilità interna del loro modello. Possiamo anche esaminare specificatamente lo stesso modello in un run non inizializzato. In quel caso, la differenza tra le prime medie decennali copre il range da 0.09° a 0.19°C, significativamente oltre lo zero. Per il secondo periodo, il range è tra 0.16 e 0.32°C. Si potrebbero fare ipotesi sull’esistenza di un raffreddamento implicito al loro processo di inizializzazione. Sarebbe istruttivo provare qualcosa di simile ad un esperimento con un “modello perfetto” (dove si prova a replicare un altro run di un modello piuttosto che il mondo reale), per investigare oltre questo aspetto.

Infine, vorrei soltanto mettere in evidenza che per molti di questi esempi, le affermazioni che sono circolate riguardavano lo spettro delle risposte dei modelli IPCC, ma senza che qualcuno abbia verificato quali siano queste risposte. Dato che l’archivio di questi modelli esiste ed è pubblicamente disponibile, non vi sono più scuse. Dunque, se si vuole fare un’affermazione sui risultati del modello dell’IPCC, prima si devono scaricare!

Molte grazie a Sonya Miller per aver presentato queste medie dell’archivio dell’IPCC.

Articolo originale su Realclimate.org

Traduzione di: Laura Scognamillo

Pubblicato su Climalteranti il: 8/09/2008


01 – Raffreddamento Globale – scommettiamo?

Di Stefan Rahmstorf, Michael Mann, Ray Bradley, William Connolley, David Archer e Caspar Ammann.

Il raffreddamento globale appare come “il favorito del momento”. Inizialmente vi fu un dibattito mediatico piuttosto fuorviato sul tema dell’arresto del riscaldamento globale, basato sulle temperature osservate più o meno durante gli 8 anni precedenti. (vedi relativo our post ) Ora, un dibattito completamente nuovo sta catturando l’immaginazione generale, affrontando un tema proposto da un gruppo di scienziati tedeschi, i quali la scorsa settimana, nel giornale Nature (Keenlyside et al. 2008), hanno predetto una pausa del riscaldamento globale.

In particolare, propongono due previsioni sulla temperatura globale, come è discusso negli ultimi paragrafi del loro articolo e illustrato nella figura 4 (vedi sotto). La prima previsione riguarda l’intervallo di tempo che va dal 2000 al 2010, mentre la seconda va dal 2005 al 2015 (*). Per queste due medie di 10 anni, gli autori predicono quanto segue:

“…la previsione iniziale indica uno scarso raffreddamento relativo alle condizioni dal 1994 al 2004”

Il grafico mostra questo: le temperature nei due intervalli previsti (i punti verdi che appaiono al 2005 e 2010) sono quasi le stesse ed entrambe sono inferiori a quelle osservate tra il 1994 e il 2004 (la fine della linea rossa nel grafico).

GRAFICO

”keenlyside

Figura 4, da Keenlyside et al ‘08

Gli autori fanno anche delle previsioni regionali, ma ovviamente è stata questa previsione globale ad attrarre la maggior parte delle storie sui giornali di tutto il mondo (es. BBC News, Reuters, Bloomberg e così via), a causa della sua apparente contraddizione con il riscaldamento globale. Gli autori enfatizzano questo aspetto nella dichiarazione fatta ai media, dal titolo: Il riscaldamento globale farà una breve pausa? Will Global Warming Take a Short Break?

Il fatto che questo raffreddamento sia un piccolo inconveniente temporaneo e non avrebbe cambiato nulla rispetto al riscaldamento globale è scontato ed è stato ampiamente discusso altrove (es. here). Ma vi è un’altra questione che è stata raramente dibattuta: Queste previsioni risultano corrette?

Noi pensiamo di no e siamo seriamente pronti a scommettervi dei soldi. Abbiamo fatto una verifica accurata assieme agli autori: loro sostengono che questa sia una previsione seria e non soltanto un esperimento metodologico, ma se credono veramente che la loro previsione abbia più del 50%di probabilità di essere corretta, dovrebbero accettare la nostra offerta di scommessa; dovrebbe essere denaro facile per loro. Se non accettano la nostra scommessa, dobbiamo chiederci quanto loro credano veramente in questa previsione.

La scommessa che proponiamo è molto semplice e riguarda la previsione globale specifica fatta da loro sull’ articolo del Nature. Se la temperatura media tra il 2000 e il 2010 (la loro prima previsione) risulta più bassa o uguale alla temperatura media tra il 1994 e il 2004 (*), noi pagheremo € 2500. Se, invece, risulterà più calda, loro pagheranno noi i € 2500. Questa scommessa verrà decisa entro la fine del 2010. Offriamo lo stesso per la loro seconda previsione: Se tra il 2005 e il 2015 (*) risulterà più fredda o uguale rispetto al periodo 1994-2004 (*), noi daremo loro € 2500, viceversa loro pagheranno la stessa somma a noi. La base per il confronto della temperatura sarà il set di dati HadCRUT3 usato dagli autori nel loro articolo.

Per essere corretti, la scommessa necessita di una clausola liberatoria nel caso di una grande eruzione vulcanica o in cui un grosso meteorite colpisca la Terra e causi un raffreddamento che arrivi al di sotto del livello compreso tra il 1994 e il 2004. In questo caso, la previsione di Keenlyside et al. non potrebbe più essere verificata e la scommessa cadrebbe.

La scommessa avrebbe bisogno anche di un arbitro neutrale, per cui noi proponiamo, per esempio, il direttore dell’ Hadley Centre, fonte dei dati usati da Keenlyside et al., o una commissione composta da colleghi neutrali. Questo arbitro neutrale dovrebbe anche decidere se un evento d’impatto come un’eruzione o unmeteorite è grande abbastanza per far cadere la scommessa.

Discuteremo ancora, qui, delle ragioni scientifiche del nostro giudizio, ma prima vogliamo sentire daKeenlyside et al. se accetteranno o no la nostra scommessa. La nostra amichevole sfida è fatta, ma speriamo che la accettino con sportività.

(*) Adottiamo qui la definizione degli intervalli di 10 anni così come appare nel loro articolo, dal 1 novembre del primo anno al 31 ottobre dell’ultimo anno. cioè: 2000-2010 significa dal 1 novembre del 2000 al 31 ottobre del 2010.

Traduzione di: Laura Scognamillo

Articolo originale su Realclimate.org

Pubblicato su Climalteranti il: 18/07/2008