Notizie e approfondimenti sul clima che cambiaPosts RSS Comments RSS

Archive for the 'Temperature' Category

Le variazioni climatiche durante l’ultimo milione di anni: mandanti, killer e alibi (seconda parte)

Nella prima parte di questo post abbiamo individuato i “mandanti” delle variazioni climatiche durante l’ultimo milione di anni (variazioni dei parametri orbitali). Cercheremo ora di analizzare le possibili dinamiche interne con cui avvengono questi cambiamenti climatici.

Le variazioni dell’albedo terrestre (l’energia solare riflessa dal pianeta) sono causate dall’espansione e dal ritiro delle grandi calotte di ghiaccio (superfici riflettenti fino al 90% dell’energia solare incidente) presenti nell’emisfero settentrionale durante i periodi glaciali, la calotta nordamericana della Laurentide (Fig. 1) e la calotta Scandinava, nonché dalle variazioni del livello dei mari (più scuri e quindi maggiormente assorbenti  rispetto alle terre emerse). La Groenlandia e l’Antartide non hanno invece giocato un ruolo determinante nella variazione dell’albedo terrestre in quanto le carote di ghiaccio hanno fornito prova diretta che ambedue le calotte di ghiaccio sono persistite durante il presente ed i passati periodi interglaciali, sfatando in questo modo anche il mito della “Groenlandia verde” medievale. Le variazioni di anidride carbonica in atmosfera nell’ultimo milione di anni sono avvenute invece in conseguenza del confinamento sul fondo degli oceani durante i periodi glaciali e del rilascio in atmosfera durante i periodi interglaciali. Le variazioni di metano invece si sono verificate in conseguenza dell’attività biologica più/meno intensa nelle zone umide della fascia intertropicale e boreale del pianeta durante i periodi caldi/freddi.


Fig. 1: Ritiro della calotta glaciale Nord Americana della Laurentide durante l’ultima deglaciazione.

Uno dei meccanismi classici che spiega le variazioni climatiche su scala orbitale suggerisce che variazioni dell’inclinazione e della direzione dell’asse terrestre avrebbero ridistribuito ciclicamente l’energia solare sull’emisfero nord in modo da indurre la formazione oppure la fusione delle grandi calotte di ghiaccio nordamericana e scandinava. Questo avrebbe causato una significativa variazione dell’albedo globale che avrebbe modificato mediante un’azione di feedback il bilancio energetico planetario e quindi la temperatura globale. Questa variazione di temperatura avrebbe a sua volta modificato i flussi di anidride carbonica e di metano dalle “sorgenti” (gli oceani e le zone umide) verso i “pozzi” (gli oceani ed i processi ossidativi di conversione), causando variazioni della loro concentrazione atmosferica che avrebbero amplificato la variazione iniziale di temperatura con un’ulteriore azione di feedback.

Le carote di ghiaccio dell’Antartide evidenziano il legame strettissimo che esiste tra le variazioni di temperatura e dei gas serra (Fig. 2 post precedente). Tuttavia, come abbiamo visto, analizzando nel dettaglio questi record si è notato che le variazioni di temperatura precedono di 800 ± 600 anni le variazioni di concentrazione di anidride carbonica durante l’ultima fase di deglaciazione. Questo fatto viene spesso erroneamente indicato come un “alibi” sufficiente per scagionare l’anidride carbonica dal suo ruolo di “killer” nel produrre i cambiamenti climatici su scala orbitale (come discusso su Climalteranti anche qui). Tuttavia questo ritardo sarebbe in accordo col meccanismo classico secondo il quale le variazioni di concentrazione dell’anidride carbonica in atmosfera seguirebbero le variazioni di temperatura indotte dalle variazioni dell’albedo e con il fatto che il rilascio dagli oceani dell’anidride carbonica avverrebbe su tempi dell’ordine delle diverse centinaia di anni.

Se ci sono ormai pochi dubbi su quali siano i “mandanti” ed i “killer” su una scala temporale orbitale, esistono però molti punti di domanda relativi alla dinamica e alla successione dei fatti. Una pecca emergente del meccanismo classico illustrato è che, osservando diversi record climatici, si desumerebbe che alla fine dell’ultima epoca glaciale (20 mila anni fa), l’Antartide avrebbe cominciato a riscaldarsi prima della Groenlandia mettendo in crisi il ruolo di guida dell’emisfero nord. Oggi si stanno valutando dei meccanismi alternativi tra i quali alcuni punterebbero l’attenzione su una ridistribuzione orbitale del flusso dell’energia solare alle basse latitudini, il quale avrebbe causato uno spostamento delle fasce tropicali e temperate. Una dislocazione verso nord avrebbe accresciuto il sollevamento delle polveri continentali ed il loro fallout nell’Oceano Meridionale. Questo, fertilizzato, avrebbe visto incrementare i processi fotosintetici assorbendo in questo modo più anidride carbonica dall’atmosfera con una conseguente diminuzione della temperatura terrestre (iron hypothesis). Secondo una recentissima ipotesi una dislocazione opposta delle fasce tropicali e temperate verso sud avrebbe invece interrotto il fallout di polveri continentali e indotto, attraverso l’azione dei venti occidentali, un processo di upwelling delle acque profonde circolanti attorno all’Antartide, le quali avrebbero rilasciato in atmosfera l’eccesso di anidride carbonica conservata nelle profondità oceaniche durante i periodi glaciali, causando quindi un aumento di temperatura. Ambedue questi processi potrebbero poi essere stati amplificati da successive variazioni dell’albedo.

In conclusione, solo la combinazione delle azioni di feedback (indotte dalle variazioni orbitali) dell’albedo e ai gas serra riesce a spiegare le più importanti variazioni di temperatura avvenute durante gli ultimi cicli climatici ma la successione degli eventi ed i meccanismi con cui questo è avvenuto sono ancora da chiarire. Oggi l’anidride carbonica ed il metano hanno raggiunto dei livelli di concentrazione in atmosfera che non sono mai stati riscontrati durante gli ultimi 800 mila anni nelle carote di ghiaccio dell’Antartide (Fig. 2, post precedente). Le analisi isotopiche dei gas serra presenti in atmosfera e nelle carote di ghiaccio indicano in maniera inequivocabile che l’uomo è il responsabile di questa anomalia.


Fig. 2: L’entrata del passaggio di Nord Ovest libera dai ghiacci nell’agosto del 2006.

Citando Stefano Caserini, se A qualcuno (non) piace(sse) caldo ma…. caldissimo, la storia climatica del nostro pianeta suggerisce che avremmo perfino un altro modo per scaldare ulteriormente il pianeta. Virtualmente si potrebbe pensare di liberare il mare Artico dai ghiacci in modo da diminuire l’albedo del pianeta, aumentando l’assorbimento dell’energia solare e quindi la temperatura globale. Ecco quindi come un processo tipicamente di feedback rispondente ad una causa primaria orbitale diverrebbe una causa primaria di origine antropogenica. Meglio probabilmente continuare ad emettere anidride carbonica attraverso la combustione dei gas fossili: un meccanismo che sembra garantire il massimo risultato con il minimo sforzo.

Testo di Paolo Gabrielli.

29 responses so far

Le variazioni climatiche durante l’ultimo milione di anni: mandanti, killer e alibi (prima parte)

Il luogo climaticamente più ostile del pianeta è probabilmente l’Antartide Orientale. Qui le temperature medie annuali sono dell’ordine di -55 ºC e le precipitazioni di circa 2-3 cm di acqua equivalente all’anno. Nonostante l’Antartide sia un vero e proprio deserto, in diversi milioni di anni si è sviluppata una calotta di ghiaccio che è spessa fino a 4 km.

Le scarse precipitazioni nevose, accumulandosi anno dopo anno, si sono trasformate in ghiaccio conservando memoria delle caratteristiche dell’atmosfera al momento della loro deposizione. Le carote di ghiaccio estratte dalla calotta antartica sono dei cilindri di circa 10 cm di diametro e lunghi fino ad oltre 3 km. Queste costituiscono un vero e proprio archivio di informazioni climatiche ed ambientali fino a circa 1 milione di anni fa.

Nel ghiaccio dell’Antartide, la temperatura locale nelle epoche passate è ricavabile dalla misura degli isotopi stabili di ossigeno e idrogeno; le condizioni idrologiche nei vicini continenti nonché l’intensità della circolazione atmosferica dalle polveri eoliche intrappolate; le caratteristiche degli altri aerosol dagli ioni maggiori e dagli elementi in traccia. Tuttavia le informazioni più peculiari fornite dalle carote sono conservate in bollicine d’aria intrappolate nel ghiaccio nelle quali si possono determinare le concentrazioni dei gas serra, tra cui l’anidride carbonica ed il metano, nell’atmosfera del passato.


Fig. 1 Dome C, Antartide Orientale. Posto a 3200 m di quota, questo sito è stato teatro del progetto europeo di perforazione della calotta antartica (EPICA) grazie anche al supporto del Progetto Nazionale per le Ricerche in Antartide (PNRA).

I gas serra rimangono intrappolati nel ghiaccio in maniera particolare in quanto penetrano lo strato superficiale di firn (neve trasformata caratterizzata da alta porosità) e attraverso complessi processi di diffusione giungono fino al cosiddetto punto di “close off” (a circa 50-120 m di profondità in questi ghiacci), ove in seguito alla quasi completata trasformazione in ghiaccio, i pori di firn si occludono intrappolando le bolle d’aria e con loro i gas serra. Ne segue che il ghiaccio nel quale si misurano gli isotopi stabili, indicatori della temperatura, è più vecchio dei gas serra anche di diverse migliaia di anni.

A causa di questa differenza di età, l’età dei gas è soggetta ad una correzione che comporta un’incertezza di circa 600 anni che, come vedremo, é quasi pari al reale ritardo del record dell’anidride carbonica rispetto a quello della temperatura pari a 800 anni. Uno studio recente mostra tuttavia come in realtà un ritardo di 800 anni sia con ogni probabilità sovrastimato. La questione è ancora da dirimere completamente ma, se da una parte si esclude che le variazioni dei gas serra anticipino quelle di temperatura, a questo punto non si può escludere che queste siano in realtà sostanzialmente sincrone.

Comparando gli andamenti della temperatura e dei gas serra su una scala temporale dell’ordine delle diverse centinaia di migliaia di anni, quello che salta subito all’occhio (Fig. 2) è la loro grande variabilità e nello stesso tempo la loro marcata correlazione. In questi record si alternano cicli della durata di circa 100 mila anni composti da una modalità standard più fredda (periodi glaciali, 70-90 mila anni ) e di un’altra breve e più calda (periodi interglaciali, 10-30 mila anni). Facendo un’analisi delle frequenze principali che compongono questi andamenti si trova che sono costituiti sostanzialmente dalla combinazione di tre cicli di circa 100, 40 e 20 mila anni. Questi cicli, previsti da Milankovitch fin dal 1930, corrispondo a delle variazioni orbitali estremamente regolari e prevedibili a cui è soggetto il nostro pianeta, dovute ad interazioni gravitazionali con gli altri pianeti (rispettivamente, la variazione dell’eccentricità dell’orbita terrestre, dell’inclinazione e della direzione dell’asse terrestre nello spazio). Queste variazioni orbitali costituiscono la causa prima delle variazioni climatiche su questa scala temporale, definita per l’appunto orbitale.


Fig. 2 – Il progetto EPICA ha ricostruito le variazioni di temperatura dell’Antartide e delle concentrazioni di anidride carbonica (in parti per milione) e di metano (in parti per miliardo) in atmosfera fino a quasi un milione di anni fa.

Nonostante le variazioni di temperatura registrate durante gli ultimi cicli climatici (non solo nelle carote di ghiaccio polari ma anche in molti altri archivi climatici estratti a diverse latitudini) siano molto ampie, queste possono essere state influenzate solo in minima parte dalle variazioni dell’energia solare entrante nel sistema terrestre. I cicli di 40 e 20 mila anni relativi all’inclinazione e alla direzione dell’asse terrestre non possono infatti influenzare l’input globale di energia solare ma ne ridistribuiscono unicamente il flusso in funzione della latitudine. Solamente il ciclo di 100 mila anni legato all’eccentricità è in grado di produrre una piccola variazione dell’energia solare intercettata dal nostra pianeta. Tuttavia questa non è in grado di spiegare la larga oscillazione di temperatura (6 ºC circa a livello globale) registrata ogni 100 mila anni al termine dei periodi glaciali. Curiosamente il ciclo climatico di 100 mila anni ha fatto misteriosamente la sua comparsa solamente 1 milione di anni fa (Mid-Pleistocene revolution). Questo ciclo non costituisce dunque una modalità standard nella storia climatica del nostro pianeta, a differenza dei cicli di 40 e 20 mila anni che hanno invece caratterizzato il clima terrestre per diversi milioni di anni.

Se le variazioni dell’energia solare in entrata nel sistema terrestre non sono in grado di spiegare l’ampiezza delle fluttuazioni globali di temperatura ricorrenti ogni 100 mila anni, ne possono essere collegate ai cicli di 40 e 20 mila anni, le cause principali della variabilità climatica su scala orbitale, vanno ricercate nelle variazioni dell’energia in uscita dal nostro pianeta. Ecco allora che entrano in azione delle componenti interne al sistema terrestre che, sollecitate dalle tre cause primarie orbitali evidenziate, sono in grado di influenzarne il bilancio energetico globale mediante le cosiddette azioni di feedback. Le componenti interne più importanti sono le variazioni dell’albedo (l’energia solare riflessa dal pianeta) e delle concentrazioni dei gas serra in atmosfera.

Dopo aver individuato i “mandanti” orbitali delle variazioni climatiche durante l’ultimo milione di anni, nella seconda parte di questo post cercheremo di ricostruire le possibili dinamiche di questi cambiamenti.

Testo di Paolo Gabrielli.

19 responses so far

Dicembre 2008 e gennaio 2009: eccezionali veramente?

Sintesi: l’analisi a scala globale dei dati relativi al bimestre dicembre ’08-gennaio ’09 appena trascorso mostra che tale periodo non può essere considerato eccezionale non solo dal punto di vista climatico (in quanto una singola stagione non dice nulla sul clima), ma neppure da quello meteorologico, in quanto le anomalie termiche e pluviometriche riscontrate hanno riguardato soltanto una piccola porzione del territorio nazionale (peraltro compatibili con quelle verificatesi negli anni precedenti) mentre a livello globale l’anomalia termica e’ addirittura stata positiva.

a

Fa freddo. È questo il commento un po’ generale che imperversa ormai dall’inizio di dicembre. Ma non vorrei qui ripetere per l’ennesima volta quale sia la differenza tra tempo meteorologico e clima (concetto già ribadito più volte nei post precedenti), quanto piuttosto insistere sul fatto che occorre sempre analizzare i dati nella loro globalità, non in singole stazioni. Infatti, se anche l’inverno 2008-09 avesse fatto registrare in qualche stazione italiana, o anche, al limite, in tutta Italia, i valori minimi di temperatura delle serie storiche (cosa che, come vedremo, non è vera), non si potrebbe comunque parlare di cambiamento del clima, ma solo di un evento o di una serie di eventi, al limite insoliti; inoltre, analizzando la situazione globale, si scoprirebbe che questo evento probabilmente è bilanciato da una altrettanto significativa anomalia calda in altre zone del mondo.
Il mio obbiettivo è quindi quello di rispondere alla domanda: “quest’anno è stato freddo o no?” facendo chiarezza ed esaminando i dati disponibili.
Non essendo ancora terminato l’inverno (che meteorologicamente finisce a fine febbraio), possiamo commentare i primi due mesi dell’inverno meteorologico 2008-2009 usando le mappe meteorologiche che ho creato utilizzando i dati messi a disposizione dalla NOAA (National Oceanic and Atmospheric Administration) su questo sito. È un giochino interessante e chiunque può divertirsi facendosi la propria climatologia: si possono visualizzare una ventina di variabili sulla porzione del globo terrestre che più interessa, alla risoluzione spaziale di 2.5 gradi in longitudine e latitudine (cioè circa 125 Km alle nostre latitudini, non sufficiente per i dettagli locali ma sufficiente per gli andamenti generali), e si può calcolare l’anomalia della grandezza considerata, cioè la differenza fra il valore registrato in un certo periodo e il valore medio su un periodo di riferimento. NOAA ha scelto come periodo di riferimento il 1968-1996, che è un po’ diverso dal trentennio abitualmente scelto come riferimento 1961-90 (volendo, con un po’ di tempo in più si può scegliere il periodo che si vuole) ma le differenze non sono poi così significative. Ho quindi creato i grafici delle anomalie di temperatura e precipitazione relative agli ultimi due mesi di dicembre 2008 e gennaio 2009 confrontandoli con le medie.
Cominciamo a vedere la mappa che riporta le anomalie a scala globale (Fig. 1 – i colori blu e rosso scuro evidenziano, come nei rubinetti, le zone rispettivamente con anomalia negativa e positiva).

T superf dic08-gen09

Figura 1 – Anomalia di temperatura superficiale sul globo terrestre 1 Dicembre 2008 – 30 Gennaio 2009 rispetto al periodo di riferimento 1968-1996. Grafico generato dalle informazioni NOAA.

Beh, sicuramente non si può dire che, a scala globale, sia stato un bimestre freddo. Ci sono, è vero, dei minimi (Antartide, Stati Uniti, Cile), ma anche dei massimi, in particolare sulle regioni del Polo Nord, nei pressi delle isole Svalbard (fino a 12 °C!). Facendo uno zoom sull’emisfero Nord (Fig. 2), si notano delle ampie zone con anomalie positive sull’Africa, sulle zone polari, sul Pacifico, e due piccole aree al centro degli Stati Uniti e sull’Ungheria, mentre sono presenti alcune zone di anomalia negativa sul Canada e sugli Stati Uniti orientali, nei pressi dell’Alaska, e in altre quattro piccole zone distribuite tra Europa, Africa settentrionale e Asia. Come chiunque può vedere, l’estensione delle aree con anomalia positiva è nettamente maggiore di quelle con anomalia negativa, per cui si può dire che, per quanto riguarda l’emisfero nord, il bimestre considerato è stato più caldo della norma.

T emisfero Nord dic08-gen09

Figura 2 – Anomalia di temperatura superficiale sull’emisfero Nord nel periodo 1 Dicembre 2008 – 30 Gennaio 2009 rispetto al periodo di riferimento 1968-1996. Grafico generato dalle informazioni NOAA.

I dettagli sulla zona europea (Fig. 3) e sull’Italia (Fig. 4) riportano un numero maggiore di isolinee e mostrano una zona con anomalie negative di temperatura con i minimi sulla Francia centrale e sul Marocco estesa dalla Germania meridionale fino all’Africa nord-occidentale, e che lambisce anche l’Italia nordoccidentale. Il resto dell’Italia si trova in una zona intermedia che confina con un’area molto ampia di anomalie termiche positive che si estende dal Mediterraneo orientale verso nord.

T superf europa dic08-gen09

Figura 3 – Anomalia di temperatura superficiale sull’Europa nel periodo 1 Dicembre 2008 – 30 Gennaio 2009 rispetto al periodo di riferimento 1968-1996. Grafico generato dalle informazioni NOAA.

T superf Italia dic 08-gen09

Figura 4 – Anomalia di temperatura superficiale sull’Italia nel periodo 1 Dicembre 2008 – 30 Gennaio 2009 rispetto al periodo di riferimento 1968-1996. Grafico generato dalle informazioni NOAA.

Dunque, si è effettivamente registrata un’anomalia di temperatura lievemente negativa su una parte del territorio nazionale, del resto confermata anche dall’analisi condotta dal Centro Nazionale di Meteorologia e Climatologia Aeronautica sul Bollettino Climatico di Gennaio 2009. Quanto è significativo questo dato? Per rispondere a questa domanda, ho generato le mappe relative alle anomalie di temperatura sul territorio nazionale e sulle aree limitrofe relative agli ultimi 12 periodi invernali dicembre-gennaio (reperibili su questo sito). La loro analisi mostra chiaramente che questo bimestre non è stato né l’unico né il più freddo nel periodo considerato. Se è vero, infatti, che ci sono stati dei bimestri nettamente più caldi (1997-98, 2000-01, e il famigerato 2006-07), è anche vero che non mancano gli anni con anomalie negative (1998-99 solo sul sud Italia, 1999-2000, 2001-2, 2003-4, 2004-5 solo sul nord Italia, e poi il bimestre 2005-6, molto più freddo su tutto il territorio nazionale rispetto a quello attuale).
Per un maggiore dettaglio su una singola località, tra tutte le possibili scegliamo Torino, un po’ perché ci abito, ma soprattutto perché, grazie all’encomiabile meticolosità ventennale di Luca Mercalli e Gennaro Di Napoli, culminato nel libro “Il clima di Torino” (un’enciclopedia di oltre 900 pagine, disponibile su questo sito della Società Meteorologica Italiana) appena pubblicato, sono disponibili i dati di temperatura dal 1753, di pioggia giornaliera dal 1802 e di neve cumulata giornaliera dal 1787 (quest’ultima è la serie più lunga al mondo), tutte omogeneizzate, e le analisi su tali dati. Paragonando la temperatura invernale a Torino con la media relativa al periodo 1961-90 (Fig. 5), si osserva come sostanzialmente si sia verificata una leggera anomalia negativa, pari rispettivamente a –0.4°C per le minime ed a –0.7°C per le massime, dovuta principalmente alle irruzioni fredde dei primi 12 giorni di dicembre e da Natale all’11 gennaio.

T Torino

Figura 5 – Andamento delle temperature minime e massime giornaliere rilevate a Torino nel periodo 1 novembre 2008 – 16 febbraio 2009 paragonate con i valori medi relativi al trentennio 1961-1990. Dati forniti dalla Società Meteorologica Italiana, elaborazioni a cura di Daniele Cat Berro e Luca Mercalli.

La stima provvisoria della temperatura media a Torino relativa al trimestre invernale (dicembre-febbraio) è di 3.3°C (manca però metà febbraio), simile all’inverno 2005-06 (3.4 °C) ed inferiore alla media 1961-90 (3.8 °C), come si può vedere nella Fig. 6.

T Torino inverno

Figura 6 – Andamento delle temperature medie del trimestre invernale dicembre-febbraio durante l’intero arco delle misure relative alla serie storica di Torino. Dati forniti dalla Società Meteorologica Italiana, elaborazioni a cura di Daniele Cat Berro e Luca Mercalli.

E per quanto riguarda le precipitazioni, che cosa si può dire? Analizzando i grafici delle anomalie del rateo di precipitazione (in mm/giorno) sull’Italia (Fig. 7), si nota l’evidente area di anomalia positiva (colore blu) che coinvolge l’intero territorio nazionale nell’ultimo bimestre, con un picco evidente sulle regioni meridionali italiane: il 2008-09 è stato effettivamente un bimestre abbastanza piovoso (o nevoso, in certe zone).

Piogge Italia

Figura 7 – Anomalia di rateo di precipitazione (mm/giorno) sull’Italia nel periodo 1 Dicembre 2008 – 30 Gennaio 2009 rispetto al periodo di riferimento 1968-1996. Grafico generato dalle informazioni NOAA.

Ma il confronto con gli altri 12 bimestri invernali riportati su questo sito per gli ultimi 12 bimestri invernali dicembre-gennaio mostra che, sulle regioni meridionali italiane, anomalie simili si sono verificate anche in altri anni (in particolare nei quattro inverni consecutivi dal 2002-3 al 2005-6, e nel 2007-8), mentre per quanto riguarda il nord Italia le anomalie positive sono state effettivamente molto più rare.
A Torino, in particolare (Fig. 8), dal 1° novembre al 20 febbraio, si sono accumulati ben 518.7 mm, dovuti principalmente ai due eventi di inizio novembre (120 mm) e metà dicembre (211 mm), e tale quantitativo rappresenta il record di tutta la serie per quanto riguarda il periodo novembre-febbraio (il record precedente fu registrato nel lontano 1825-26, con 509.4 mm).

Pioggia e  neve Torino 08-09

Figura 8 – Precipitazioni (pioggia e neve fusa) giornaliere accumulate nel periodo novembre 2008 – febbraio 2009 registrate a Torino: confronto con la media del trentennio 1961-90 e con il massimo quadrimestrale precedente. Dati forniti dalla Società Meteorologica Italiana, elaborazioni a cura di Daniele Cat Berro e Luca Mercalli.

Le temperature più rigide e le precipitazioni più abbondanti a Torino hanno avuto come conseguenza un incremento notevole del numero e dell’intensità delle nevicate: a fronte di una media di 7.2 giorni con nevicate nel periodo 1961-90, nel 2008-09 si è visto nevicare in 14 giornate (Fig. 9), valore nettamente inferiore al massimo storico di 30 episodi del 1837 (ma in tale epoca si stava uscendo dalla Piccola Età Glaciale), ma nettamente superiore a quelli degli ultimi anni (era dal 1986 che non nevicava così frequentemente: 16 giorni).

giorni neve Torino

Figura 9 – Giorni con nevicate nel periodo novembre 2008 – febbraio 2009 a Torino e quantitativo di neve accumulata giornaliera. Dati forniti dalla Società Meteorologica Italiana, elaborazioni a cura di Daniele Cat Berro e Luca Mercalli.

Il manto totale depositatosi in città nel trimestre dicembre-febbraio è stato di 66 cm (di cui 32 cm tra il 6 e l’8 gennaio), valore nettamente superiore alla media 1961-90 (28 cm) ed ai valori tipici degli ultimi anni (quando in ben tre casi – nel 1988-89, 1989-90 e 2006-07 – non nevicò affatto in città: si veda la Fig. 10).

neve Torino

Figura 10 – Neve fresca accumulata nell’anno idrologico registrata presso gli osservatori della serie storica di Torino dal 1787 a oggi. Dati forniti dalla Società Meteorologica Italiana, elaborazioni a cura di Daniele Cat Berro e Luca Mercalli.

L’analisi appena condotta, sia pure parziale poiché la stagione non è ancora terminata, mostra comunque che il bimestre appena trascorso non può essere considerato eccezionale non solo dal punto di vista climatico (in quanto una singola stagione non dice nulla sul clima), ma neppure da quello meteorologico, in quanto le anomalie riscontrate sono compatibili con quelle verificatesi negli anni precedenti.
L’Italia settentrionale, ed in particolare quella nordoccidentale, ha registrato temperature leggermente inferiori alla norma e precipitazioni superiori alla norma, almeno per quanto riguarda gli ultimi 12 bimestri invernali, fatto che ha comportato un incremento nel numero delle nevicate anche a quote di pianura. I valori termici registrati in Italia nordoccidentale nello scorso inverno si sono avvicinati alle medie relative al periodo di riferimento 1961-90 e, forse proprio per questo motivo, sono state percepite come insolitamente fredde se paragonate con quelle registrate negli ultimi inverni. L’Italia meridionale ha invece registrato sia temperature sia, soprattutto, precipitazioni superiori alla norma, cosa peraltro già verificatasi frequentemente negli ultimi 12 anni.

Testo di: Claudio Cassardo

13 responses so far

Perchè sono attendibili le serie storiche dei dati di temperatura globale

L’evidenza osservativa di un significativo incremento della temperatura media dell’aria in prossimità della superficie terrestre costituisce un dato importante nel contesto dell’attuale dibattito sull’effetto climalterante delle emissioni antropiche. Questo incremento, ben evidenziato dalla figura 1, è sovrapposto ad una significativa variabilità interannuale nonché ad una importante variabilità su scala decennale, ma è comunque chiaramente identificabile, tanto che 17 dei venti anni più caldi dell’intero periodo coperto dalle osservazioni strumentali cadono nel ventennio 1988-2007.

Figura 1: andamento della temperatura media globale in prossimità della superficie terrestre nel periodo 1856-2007. I valori sono espressi come scarti rispetto ai valori medi calcolati sul periodo 1961-1990. Fonte: University of East Anglia.

I dati rappresentati in figura 1 suscitano spesso numerosi interrogativi da parte di chi non si occupa professionalmente della ricostruzione o dell’analisi di serie storiche di dati meteorologici, in quanto non è facile capire come si possa effettivamente disporre di un numero di misure termometriche di alta qualità così elevato da permettere la ricostruzione dell’evoluzione del valor medio planetario della temperatura dell’aria per un periodo di oltre 150 anni.

In realtà lo sviluppo delle osservazioni meteorologiche affonda le sue radice in un passato molto più lontano di quanto non si creda comunemente e la prima rete sinottica, ovvero la rete del Cimento, risale addirittura al ‘600. A questa prima rete, che ha continuato ad operare per circa 15 anni, ne hanno fatto seguito molte altre, anche se fino alla seconda metà dell’800 tutte le iniziative hanno avuto una durata abbastanza limitata nel tempo e sono sempre state condotte in modo pioneristico e in assenza di metodologie standardizzate riconosciute universalmente.

Il primo tentativo di pervenire realmente ad un sistema di osservazioni meteorologiche standardizzato a scala planetaria è probabilmente costituito da una conferenza tenutasi a Bruxelles nel 1853. Questa conferenza viene considerata come il primo passo verso la cooperazione meteorologica internazionale, cooperazione che si è poi rafforzata rapidamente negli anni successivi fino a portare alla fondamentale conferenza di Vienna (1873), nel cui ambito è nata la International Meteorological Organisation (IMO), ovvero l’organizzazione che si è poi evoluta nella attuale World Meteorological Organisation (WMO).

La lettura degli atti di questa conferenza e delle conferenze che si sono succedute nei decenni successivi evidenzia in modo molto chiaro i notevoli sforzi prodotti negli ultimi tre decenni dell’800 per pervenire ad una reale standardizzazione delle osservazioni meteorologiche.

È peraltro importante sottolineare come già alla fine dell’800 le osservazioni non includessero solo i Paesi più avanzati, ma coprissero una significativa frazione dell’intero Pianeta, comprese alcune aree oceaniche che venivano coperte grazie al traffico marittimo. Nonostante ciò la copertura era comunque ancora lontana dall’essere globale e vi era la completa mancanza di osservazioni sistematiche in quota. Questi limiti vengono superati solo nella seconda parte del ventesimo secolo, dapprima con lo sviluppo di una rete planetaria di misure da termosondaggio quindi, in tempi più recenti, con lo sviluppo delle misure da satellite.

L’esistenza di una rete planetaria di osservatori meteorologici non è comunque l’unica condizione necessaria per poter studiare l’evoluzione a lungo termine del clima della Terra. Tale attività richiede infatti anche che i dati siano facilmente accessibili e che su di essi vengano effettuate una serie di analisi volte ad accertarne la qualità, l’omogeneità e la reale capacità di rappresentare l’intero Pianeta.

Il primo ricercatore che ha cercato di fronteggiare questi problemi è probabilmente stato Köppen che, tra il 1870 ed il 1880, ha organizzato ed elaborato un dataset di oltre 100 stazioni osservative, con l’obiettivo di produrre la prima stima dell’evoluzione della temperatura a scala globale della storia della meteorologia. Successivamente, la realizzazione di ricerche di questo tipo è stata notevolmente facilitata da una risoluzione della International Meteorological Organisation del 1923 che ha avviato una sistematica raccolta e pubblicazione di tutte le più significative serie di dati termometrici, pluviometrici e barometrici allora esistenti al mondo. Questa risoluzione ha portato al “World Weather Records”, una monumentale opera con serie di dati a risoluzione mensile relative a centinaia di stazioni di osservazione sparse in tutto il mondo. Questa raccolta ha poi continuato a venire regolarmente aggiornata nei decenni successivi e, a partire dagli anni ’60, i dati sono anche stati digitalizzati. Ai dataset globali vanno poi aggiunti numerosi dataset a carattere più locale (da nazionale a continentale), creati soprattutto nel corso degli ultimi decenni, nell’ambito di un grande numero di progetti volti a recuperare un frazione sempre più consistente dell’enorme patrimonio di informazioni che spesso giacciono ancora inutilizzate in archivi cartacei sparsi in tutto il Pianeta.

È quindi naturale come le stime dell’evoluzione a lungo termine della temperatura dell’aria in prossimità della superficie terrestre che si sono succedute al primo tentativo di Köppen si siano avvalse della disponibilità di una base di dati sempre più ampia, passando da un centinaio a 3000-4000 stazioni. A questi dati, relativi alle terre emerse, si aggiungono poi oggi numerose serie relative alle aree oceaniche. Esse consistono sostanzialmente di dati relativi alla temperatura superficiale dell’acqua, variabile che viene solitamente assunta come ben rappresentativa della temperatura dell’aria sugli oceani. Questi dati sono raccolti da lungo tempo grazie a navi mercantili e militare e, più recentemente, anche grazie ad una rete planetaria di stazioni ancorate a boe oceaniche.

Le più moderne stime dell’evoluzione a lungo termine della temperatura media planetaria dell’aria in prossimità della superficie terrestre si basano quindi sull’integrazione dei dati di diverse migliaia di stazioni osservative con una vasta mole di dati relativi alle aree oceaniche. Esse si avvalgono inoltre di un articolato insieme di procedure per il controllo della qualità e dell’omogeneità dei dati, nonché di tecniche di spazializzazione molto efficaci che consentono di gestire i problemi connessi con la distribuzione spaziale non uniforme delle serie disponibili (si veda ad esempio l’articolo di Brohan et al., 2006 “Uncertainty estimates in regional and global observed temperature changes: a new dataset from 1850” – J. Geophysical
Research ). Queste procedure, unitamente alla vasta letteratura disponibile sull’argomento, consentono oggi anche di valutare l’incertezza delle ricostruzioni ottenute. Essa è dovuta, da una parte al fatto che le serie storiche di dati meteorologici sono influenzate da disomogeneità ed errori indotti sia dagli strumenti di misura che dalle metodologie di osservazione e, dall’altra, dal fatto che, per quanto numerose, le misure disponibili non sono realmente rappresentative dell’intero Pianeta. Proprio per questa ragione una corretta ricostruzione dell’evoluzione della temperatura globale deve essere accompagnata da un’indicazione del relativo margine di incertezza. Questa indicazione è effettivamente presente nelle ricostruzioni più moderne e grazie ad essa è possibile per esempio affermare, come indicato nel quarto assessment report dell’IPCC, che il riscaldamento globale nel periodo 1906-2005 è stato di 0.74 ± 0.18 (°C), dove la cifra che segue la stima più probabile del trend indica l’intervallo entro il quale si ritiene che il trend abbia il 95% di probabilità di collocarsi effettivamente.

Il valore di incertezza relativamente contenuto delle stime relative al riscaldamento verificatosi nel corso dell’ultimo secolo è, come già visto, sicuramente frutto di sofisticate metodologie di analisi che consentono di massimizzare l’informazione che può essere estratta dai dati disponibili. Accanto a queste metodologie gioca però un ruolo fondamentale anche la buona qualità di molte delle serie osservative. La qualità delle osservazioni meteorologiche è infatti da lungo tempo un obiettivo fondamentale della comunità del settore; essa è peraltro sempre stata considerata con grande attenzione dall’Organizzazione Meteorologica Mondiale (si veda qui). Così, anche se esistono esempi di stazioni gestite e/o collocate in modo del tutto inadeguato, accanto ad esse vi è una grande maggioranza di situazioni nelle quali le osservazioni vengono effettuate in modo corretto e nelle quali viene prestata grande attenzione alle misure.

Testo di: Maurizio Maugeri

21 responses so far

Raffreddamento globale, ghiacci Artici, previsioni dell’IPCC

NOTA INFORMATIVA del Focal Point IPCC – Italia del 15 gennaio 2009.

La Redazione di www.climalteranti.it pubblica una nota informativa a cura di Sergio Castellari, inerente al dibattito sui cambiamenti climatici improvvisamente riaccesosi a seguito di alcune pubblicazioni apparse su importanti organi di informazione italiani.

In questi ultimi giorni sui media sono apparse notizie riguardo un rallentamento o blocco del riscaldamento globale a causa delle imponenti nevicate in varie zone Italiane e del pianeta e riguardo la forte crescita dei ghiacci marini Artici che sarebbero tornati ai livelli del 1979. Infine, alcuni articoli citano le “previsioni catastrofiche“ fatte dall’IPCC come ormai obsolete o anzi completamente errate (ad esempio qui, qui o qui).
E’ necessario fare alcuni chiarimenti.

Meteorologia e climatologia:

Bisogna stare molto attenti a non confondere una analisi meteorologica con una analisi climatica. Il sistema clima è un sistema complesso, che include l’atmosfera, gli oceani, le terre emerse, la criosfera e la biosfera. Generalmente il clima viene definito come “il tempo meteorologico medio” su scale temporali lunghe (almeno 30 anni). Quindi le condizioni climatiche vengono definite in termini di proprietà statistiche (ad esempio, il valore medio della temperatura atmosferica superficiale in una regione).
Quindi un cambiamento climatico può essere definito come una variazione significativa statisticamente dello stato medio del clima o della sua variabilità, persistente per un periodo esteso (tipicamente decenni o più). Un cambiamento climatico implica una variazione delle proprietà statistiche e non può essere associato ad un evento singolo (una alluvione, una tempesta di neve ecc.) Non ha senso la domanda: “L’alluvione in un dato luogo e giorno è causata da un cambiamento climatico?” Ha invece senso la domanda: “Un cambiamento climatico può comportare una aumentata probabilità che si verifichino fenomeni alluvionali?”
Quindi dare un senso climatico (fine del riscaldamento globale, inizio di un raffreddamento globale) ad una settimana di gelo in Italia significa fare una dichiarazione non basata su un corretto approccio scientifico.

Ma l’anno 2008 è stato veramente un anno freddo?

Questa è di nuovo una domanda generica, freddo rispetto a cosa e su quali scale temporali? Andando a vedere le due serie temporali di temperature media globali superficiali raccolte ed analizzate dal NCDC (National Climatic Data Center) della NOAA (National Ocean Atmophere Administration) (USA) e dal Met Office Hadley Centre (UK) si può chiaramente vedere che il 2008 non è stato un anno “freddo” in queste serie
temporali rispetto a medie a lungo termine. Il rapporto preliminare (perché ancora non considera il mese di dicembre 2008) del NCDC dichiara che l’anno 2008 potrà essere uno dei 10 anni più caldi dal 1880 (inizio della serie termometrica globale) rispetto alla media del 20esimo secolo. Inoltre il mese di novembre 2008 è stato il quarto novembre più caldo della serie globale dal 1880 e l’agosto 2008 si è posizionato al decimo posto come agosto più caldo nella serie temporale.
Questo trend è confermato anche dalla serie globale del Met Office Hadley Centre. Quasi tutti gli anni del nuovo millennio stanno tra i 10 anni più caldi di entrambi le serie termometriche globali. Negli ultimi 10 anni le temperature sono cresciute più lentamente rispetto ai decenni precedenti, ma ragionando su tempi lunghi è evidente un trend di crescita di temperature. Questo non significa che l’anno 2009 sarà necessariamente più caldo del 2008: il 2009 potrebbe essere l’anno più freddo dal 1980, ma il trend di crescita globale di temperature rimarrebbe se il 2010 ed il 2011 saranno di nuovo anni più caldi rispetto ad una media a lungo termine. Il valore di temperatura globale di un anno non può modificare una tendenza a lungo termine.

I ghiacci artici che tornano ai livelli del 1979:

Alcuni articoli stranieri ed italiani, citando i dati dell’University of Illinois’s Arctic Climate Research Center, hanno spiegato che l’estensione del ghiaccio marino artico è tornata a crescere ed ha raggiunto l’estensione del 1979. Intanto la crescita invernale del ghiaccio marino Artico è un normale processo stagionale: l’estensione diminuisce in estate e ricresce in inverno. Però negli ultimi anni come mostrato dal NSIDC (National Snow And Ice Data Center) (USA), qualcosa è cambiato. L’estensione di ghiaccio marino Artico (sea ice extent) ha raggiunto il record minimo nel settembre 2007, seguito dal settembre 2008 e settembre 2005, confermando che esiste un trend negativo nella estensione di ghiaccio marino estivo osservato negli ultimi 30 anni.

Se si cercano i dati dell’University of Illinois’s Arctic Climate Research Center al loro sito  si può arrivare al sito Criosphere Today del Polar Research Group – University of Illinois dove, controllando i grafici, si può vedere che l’estensione del ghiaccio marino (sea ice area) dell’Emisfero Nord nel dicembre 2008 non raggiunge il livello del 1979, mentre il sea ice area dell’Emisfero Sud nell’estate 2008 ha raggiunto il livello dell’estate 1979!

Per l’Artico il NSIDC ha comunicato il 7 gennaio (2008 Year-in-Review) che:
• l’estensione del ghiaccio marino (sea ice extent) nel dicembre 2008 è stata di 12.53 milioni di km2, 830,000 milioni di km2 di meno della media 1979 – 2000;
• il ghiaccio marino del 2008 ha mostrato una estensione ben sotto alla media (wellbelow- average ice extents) durante l’intero anno 2008;
• dal 12 al 19 dicembre 2008 la crescita stagionale di ghiaccio marino Artico si è interrotta probabilmente a causa di un sistema anomalo di pressione atmosferica combinato all’effetto delle temperature marine superficiali più calde nel Mare di Barents.

Le “previsioni” dell’IPCC:

Innanzitutto esistono vari tipi di modelli:
1. Modelli di previsione meteorologica operativa: grandi modelli computazionali, che integrano le equazioni del moto atmosferico, accoppiate con opportune rappresentazioni degli scambi di materia e calore con la superficie terrestre e che forniscono le previsioni meteorologiche;
2. Modelli di previsione stagionale: stessi modelli atmosferici, ma accoppiati a all’oceano e sono utilizzati per prevedere fenomeni come El Nino;
3. Modelli del Sistema Terra (Earth System Models): modelli dell’atmosfera ed oceano tra loro accoppiati, ma accoppiati anche ad altri modelli che rappresentano la superficie, il ghiaccio marino, la vegetazione, la chimica atmosferica, il ciclo del carbonio e gli aerosol.
Per gi studi dei possibili climi a 50 o 100 anni si usano i Modelli del Sistema Terra, ma in maniera diversa dai modelli di previsione meteorologica. Nel campo della predicibilità di un sistema come il sistema clima si possono avere due tipi di previsioni: “Previsioni di Primo Tipo” (o Problemi ai Valori Iniziali) e “Previsioni di Secondo Tipo” (o Problemi ai Parametri). Le cosiddette previsioni climatiche dell’IPCC sono previsioni del secondo tipo: dato il sistema clima soggetto a variazioni di un forzante esterno, sono previsioni delle variazioni delle proprietà statistiche del sistema clima al variare dei parametri esterni. Queste previsioni non dipendono dai valori iniziali, come le previsioni del Primo Tipo che sono poi le previsioni meteorologiche e che hanno un limite intrinseco a circa due settimane.

Queste previsioni climatiche si definiscono in realtà proiezioni climatiche e cercano di rispondere alle seguenti domande:

1. Assumendo che la composizione atmosferica vari secondo un certo scenario di emissione, allora quale sarà ad esempio tra 30, 50 e 100 anni la probabilità di avere una temperatura media più alta di 3°C rispetto a quella attuale?

2. Come sarà distribuita sul globo questa variazione della temperatura media prevista?

Queste proiezioni si possono chiamare anche scenari climatici, perché come variazione di forzanti esterni (gas serra ed aerosol) usano scenari di concentrazione che derivano da scenari di emissioni. Questi scenari di emissioni sono descrizioni plausibili dello sviluppo futuro delle emissioni di gas serra e aerosol, basate su un insieme coerente ed internamente consistente di assunzioni sulle forze che le guidano (soprattutto economiche, tassi di sviluppo tecnologico, andamento dei mercati, sviluppo demografico, ecc.).

E’ importante sottolineare che la dinamica caotica del clima terrestre e dei moti atmosferici pone un limite teorico alla possibilità di eseguire Previsioni del Primo Tipo. Infatti il sistema clima è un sistema fisico complesso con un comportamento non lineare su molte scale temporali e che include molte possibili instabilità dinamiche. Però la natura caotica del sistema clima non pone alcun limite teorico alla possibilità di eseguire Previsioni del Secondo Tipo. Quindi è più semplice eseguire Previsioni di Secondo Tipo (in altre parole previsioni climatiche di tipo statistico) per i prossimi 100 anni assumendo possibili variazioni dei forzanti esterni, che estendere di qualche giorno il termine delle previsioni meteorologiche.
Queste previsioni statistiche vengono effettuate in vari centri di modellistica climatica in varie parti del mondo (anche in Italia, ad esempio al Centro Euro-Mediterraneo per i Cambiamenti Climatici – CMCC) e fino ad oggi quasi tutti i modelli climatici del tipo Earth System Models hanno usato gli stessi scenari di emissioni chiamati IPCC-SRES al fine di poter confrontare i risultati. Questi scenari di emissioni sono molti e presuppongono diversi sviluppi socioeconomici a livello globale e quindi diversi livelli di emissioni al fine di poter“catturare” il possibile futuro climatico della Terra.

In conclusione, queste previsioni sono scenari climatici o proiezioni climatiche e non previsioni meteorologiche a lungo termine.

7 responses so far

Il riscaldamento globale si è fermato nel 1998?

E due. Oggi è arrivata la seconda mail di un amico che mi dice: ma che succede a Beppe Caravita ?
Ecco un pezzo della mail: “Beppe Caravita… ha sviluppato un certo scetticismo sul global warming (vedi ad esempio qui e anche qui). Come sappiamo, non è il solo, ma lo scetticismo ideologico alla Battaglia lo capisco facilmente, mentre quello che vedo emergere in persone dallo spirito libero (come Beppe o altri), vorrei capirlo meglio”.

Beppe Caravita, giornalista del Sole 24 ore e autore del blog Network Games, l’ho conosciuto ad un seminario sul clima rivolto ai giornalisti, organizzato dal “Kyoto Desk” della Regione Lombardia.

Un seminario riuscito, anche se non molto partecipato, ma che ricordo per tre fatti che mi stupirono.
Il primo fu che a Sergio Castellari, con me fra i relatori, qualcuno rubò il libro “Verdi fuori, rossi dentro” di Franco Battaglia e Renato Angelo Ricci. Libro che a Sergio avevano regalato e che aveva portato per mostrarmelo… lasciato sul tavolo dei relatori durante la pausa pranzo.. al ritorno.. sparito ! Incredibile.
Il secondo fatto strano fu che i giornalisti intervenuti avevano mostrato un’opinione per la loro categoria molto peggiore di quella che io avevo, e che non era granchè (vedi qui)
Il terzo fatto è che contrariamente alle mie aspettative, Caravita si era mostrato più preoccupato di me per il global warming. Se non ricordo male (nel caso, chiedo scusa) Caravita si diceva molto molto preoccupato per i possibili “tipping point” del sistema climatico… diceva che non ci aveva dormito la notte… e aveva scritto di questo sul suo blog.
Andai a leggere sul suo blog (qui e qui): i toni erano in effetti preoccupati. D’altronde, i motivi ci sono: il tema dei tipping point è molto serio: alcuni articoli scientifici (come questo di Rahmstorf et al.) che hanno inquadrato il tema hanno aggiunto preoccupazione per la crisi climatica, pur se è chiaro che l’unico tipping point che sarà superato nei prossimi decenni sarà quello del ghiaccio marino artico.

È possibile, dunque, che Beppe Caravita abbia cambiato idea ?
Non solo per i toni usati verso uno dei più importanti istituti di ricerca sul tema climatico, il NASA Goddard Institute for Spaces Studies, di James Hansen e Gavin Smidth
(qui “…un’altra pessima figura per il Goddard Institute for Spaces Studies, di cui è direttore James Hansen, il grande sostenitore del global warming antropogenico, e consigliere scientifico di Al Gore. Francamente comincio ad essere un po’ stufo di questo gioco delle tre tavolette…. “).
Si tratta di uno dei soliti piccoli (anzi, molto piccoli) aggiustamenti delle temperature del pianeta, di cui si possono leggere le opposte posizioni su ClimateAudit.org e Realclimate.org. Un tema che mi è apparso piuttosto insignificante, tanto che il post di Realclimate non è stato tradotto in italiano.

Caravita ha dubbi sul fatto che il riscaldamento globale sia in corso (nell’ultimo post sul tema pone la domanda “ha ragione o torto chi sostiene che il global warming si è fermato dal 1998?”)
Si tratta di una domanda che ha ripetuto tante volte, anche in post precedenti mostrando anche grafici in cui si vede la CO2 che aumenta e la temperatura che non aumenta in modo simile.
È un argomento che circola in modo ossessivo fra i negazionisti, ma che è poco fondato.
Ne avevo già parlato nel mio libro (pag. 60) in cui avevo mostrato come in realtà per la serie dati del GISS, il 1998 non è più l’anno più caldo ma viene superato dal 2005. E che se si allarga lo sguardo all’andamento delle temperature negli ultimi 30 anni o degli ultimi 130 anni, la tendenza è chiara: il 1998 è solo un anno con temperature un po’ più alte di quanto avrebbero dovuto essere per assicurare una crescita regolare ed evitare fraintendimenti.

Andamento delle temperature globali dal 1977 al 2007: variazioni rispetto alla temperatura del 1998. (da Caserini, 2008)

In una delle prime traduzione di realclimate, disponibile qui, è raccontato come il fatto che la temperatura non salga in modo costante, come la CO2, è assolutamente in linea con la comprensione fisica del sistema climatico. C’è anche una figura che mostra la probabilità di un record di temperature: per avere un nuovo record di temperature c’è più del 25 % di probabilità di aspettare più di 10 anni.

Posso solo aggiungere il ricordo di quest’estate, a Bonassola. La spiaggia è stata svuotata dalle barche, i primi ombrelloni sono stati tolti: sta arrivando la mareggiata di ferragosto, dicono quelli del posto. Eppure il mare è lontano. Mi siedo sulla spiaggia a leggere, guardo le onde avanzare. Eppure non avanzano, ossia le onde sembrano non risalire la spiaggia. Ogni tanto c’è un onda più lunga, ma subito dopo molte sono piccole, inferiori alle precedenti.
E’ passato tanto tempo prima di veder da vicino la spuma della prima onda. Ma come tanti altri sono rimasto ancora al mio posto, le onde successive stavano lontane.
Dopo un po’ è arrivata l’onda che ha bagnato l’asciugamano.

Testo di: Stefano Caserini

16 responses so far

Voglia di superfreddo

«Se il Sole continuerà a restare senza macchie, sulla Terra potrebbe arrivare un freddo glaciale». Questa l’apertura di un articolo del Corriere della Sera del 7 ottobre.

Per quanto riguarda il ciclo delle macchie solari, esiste un insieme di misure, dirette e indirette, che ormai ci hanno fatta capire molto di come e quanto il nostro astro ci scalda e quante macchie solari ci sono. Fra le più autorevoli previsioni sul ciclo delle macchie solari disponibile on-line c’è quella del Marshall Space Flight Center: il prossimo massimo è atteso fra il 2011 e il 2012.

Sono previsioni, hanno i loro margini di errori, ma non si brancola nel buio.

Nello studio del clima si è capito anche, certo con ancora dei margini di incertezza, come la variazione della forza del sole ha influito sul clima del pianeta negli ultimi millenni e degli ultimi secoli.

Uno degli ultimi studi ben fatti, quello di Lockwood M., Frohlich C. (2007) ha concluso che

Tutti i parametri del Sole che possono avere un’influenza sul clima negli ultimi 20 anni sono andati in una direzione opposta a quella richiesta per spiegare l’aumento osservato delle temperature medie.

Se si va più indietro, si vede che la forzante solare ha con alta probabilità influito sulle temperature del famoso periodo caldo medioevale (PCM) e della piccola era glaciale (PEG). La ricostruzione delle temperature più accreditata per gli ultimi 2000 anni mostra che le differenze fra le temperature medie nell’emisfero nord fra il PCM e la PEG sono state di circa 0.5-0.6 °C, distribuite in diversi secoli.

Uno degli ultimi importanti studio usciti più recentemente non ha cambiato le cose.

Dunque,

1) la probabilità che il sole rimanga senza macchie solari per tanti anni, tanto da innestare un’era glaciale, è molto molto basso.

2) con le loro variazioni normali le macchie solari saranno un fattore del tutto secondario sul futuro andamento delle temperature

3) le irregolarità possibili in ogni andamento ciclico non potranno cambiare più di tanto l’aumento futuro delle temperature. Atteso nel 2100 secondo le previsioni dell’IPCC in un range fra 1.8 e 4°C.

Una variazione delle macchie solari tipo quella del XVII secolo non porterà alcuna piccola era glaciale, al limite, ridurrà leggermente un riscaldamento comunque molto pericoloso per l’uomo e gli ecosistemi.

Secondo lo stesso Prof. David Hathaway, citato nell’articolo, l’attuale andamento delle macchie solari “It wouldn’t cause cooling, it just might decrease the rate at which the Earth is heating”

Conclusione: il rischio di passare dal supercaldo al superfreddo a causa delle macchie solari o della loro assenza è praticamente nullo. Non ci sarà la piccola era glaciale. Dopo l’episodio del maggio 2008, in cui era girato l’allarme per un raffreddamento dei prossimi 10 anni (vedi nomination del titolista de La Repubblica), un’altra volta è stato un infondato allarme per un presunto imminente freddo futuro a fare notizia. È come se, all’inizio dell’inverno, ci fosse una gran voglia di suonare l’allarme per il freddo. E si che di notizie sulle preoccupazioni per il riscaldamento futuro ce ne sarebbero come chiaramente evidenziato da una moltitudine di lavori scientifici (si veda ad esempio: qui e qui).

Testo di: Stefano Caserini, Giulio De Leo

4 responses so far

« Prev


Translate