Notizie e approfondimenti sul clima che cambiaPosts RSS Comments RSS

Archive for the 'Proiezioni' Category

Il livello del mare nel V Rapporto IPCC

Pubblichiamo la traduzione di un importante post pubblicato su Realclimate da Stephan Rahmstorf, su uno dei più importanti impatti dei cambiamenti climatici, l’innalzamento del livello del mare. Il post è un po’ lungo ma merita davvero di essere letto.

 

Cosa sta accadendo al livello del mare? Questa è stata forse la questione più controversa nel IV rapporto IPCC del 2007. Il nuovo rapporto del Gruppo Intergovernativo sui Cambiamenti Climatici è stato pubblicato da poco, e qui vorrei discutere quello lIPCC ha da dire sul livello dei mari (come ho fatto qui, dopo il rapporto).

Entriamo nel vivo della questione con il seguente grafico che ben riassume le principali conclusioni circa del livello del mare passato e futuro: (1) il livello globale del mare è in aumento, (2) questo aumento sta accelerando sin dal periodo pre-industriale e (3) accelererà ulteriormente in questo secolo. Le proiezioni per il futuro sono molto più significative e più credibili di quelle del 4° rapporto, ma probabilmente ancora un po’ conservative, come vedremo in dettaglio più avanti. Per le elevate emissioni l’IPCC ora prevede un aumento globale di 52-98 cm entro il 2100, che minaccerebbe la sopravvivenza delle città costiere e intere nazioni insulari. Ma anche con la riduzione delle emissioni aggressive, è comunque previsto un incremento di 28-61 cm. Anche in questo scenario molto ottimista potremmo assistere ad oltre mezzo metro di innalzamento del livello del mare, con gravi ripercussioni su molte zone costiere, tra cui l’erosione costiera e un rischio notevolmente aumentato di inondazioni.

IPCC_AR5_13.27

Fig. 1. Aumento del livello del mare passato e futuro. Per il passato, i dati proxy sono mostrati in viola chiaro e dati mareografici in blu. Per il futuro, sono riportate le proiezioni IPCC per le emissioni molto elevate (rosso, scenario RCP8.5 ) ed emissioni molto basse (blu, scenario RCP2.6). Fonte : IPCC AR5 fig. 13.27. x

 

 

 

 

 

 

 

 

 

 

 

Continue Reading »

3 responses so far

Perché le precipitazioni saranno più intense nella regione Euro-Mediterranea

Nel precedente post abbiamo visto come nella zona Euro-Mediterranea i modelli utilizzati da numerosi centri di ricerca prevedono in uno scenario ad alte emissioni l’aumento della frequenza e entità degli eventi di precipitazioni molto intense, rappresentate dallo “stiramento” della coda della distribuzione della precipitazione.

Questa proiezioni sono consistenti con l’aumento della capacità dell’atmosfera di trattenere acqua, definito dall’equazione di Clausius–Clapeyron. Questa relazione permette di stabilire la quantità di acqua che può essere presente in un volume d’aria in funzione dal valore di temperatura, ed  è particolarmente rilevante per gli eventi intensi di precipitazione (Tebaldi et al. 2006, Giorgi et al. 2011), quelli che più di tutti tendono a svuotare la colonna d’acqua disponibile in atmosfera (Allen and Ingram 2002, Allan and Soden 2008). Secondo l’equazione di Clausius-Clapeyron, per ogni aumento di temperatura di 1oC, l’atmosfera aumenta la propria capacità di trattenere acqua del 7%.

Nel lavoro presentato nel precedente post, la differenza tra il 99mo percentile ed il 90mo percentile  (99p-90p) della precipitazione giornaliera ottenuta dalle simulazioni CMIP5 viene utilizzata per quantificare le potenziali variazioni nella larghezza della parte destra della distribuzione di precipitazione (ovvero del range di valori che possono essere attribuiti ad un evento di precipitazione intensa) in uno scenario di clima futuro per la fine del ventunesimo secolo. Continue Reading »

10 responses so far

In futuro precipitazioni più intense nella regione Euro-Mediterranea

Secondo i modelli matematici, nella regione Euro-Mediterranea col procedere del surriscaldamento globale in un potenziale scenario ad alte emissioni aumenterà l’intensità delle precipitazioni e la frequenza degli eventi di precipitazioni molto intense.

 

In un lavoro pubblicato sulla rivista Journal of Climate, con alcuni colleghi ho studiato come possono variare gli eventi di precipitazione intensa in un clima più caldo sulla regione Euro-Mediterranea.

La ricerca ha utilizzato i risultati ottenuti da 20 modelli climatici (vedi elenco in appendice in fondo al post) partecipanti al quinto Coupled Model Intercomparison Project (CMIP5, Meehl  and Bony 2012, Taylor et al. 2012), gli stessi modelli utilizzati nella stesura del quinto Assessment Report (AR5) dell’IPCC.

I cambiamenti associati alle precipitazioni intense sono stati valutati mediante il confronto dei risultati ottenuti durante l’ultimo quarantennio del ventunesimo secolo (2061-2100) e il periodo storico (1966-2005) assumendo come scenario di clima futuro l’RCP8.5 (Representative Concentration Pathway 8.5), Riahi et al. 2011). Continue Reading »

8 responses so far

“2052”, ritorno al (grigio) futuro

Un nuovo meditato scenario di Jørgen Randers sul futuro che ci aspetta se i decisori non decidono e prevale l’inerzia.

 

Mentre l’IPCC analizza, commenta e riassume tutte le posizioni espresse su riviste scientifiche e assimilabili, necessariamente giungendo a posizioni intermedie di consenso, singoli esperti, basandosi sulla loro storia, possono proporre scenari che ritengono a loro avviso i più probabili.

Jørgen Randers ha tutte le carte in regole per proporre, nel suo ultimo libro “2052”, uno scenario complessivo, globale e regionale, degli andamenti economici e sociali: un terzo di vita passato da ricercatore, un terzo da policymaker, ed un terzo nel mondo del business.

Sulla scorta di questa esperienza Randers sostiene che i decisori che contano oggi trascurano i cambiamenti climatici e fanno poco o nulla: nei migliori dei casi citano retoricamente il problema, a volte indicono qualche esperimento pilota, ma non si passa davvero a quella trasformazione epocale che la sfida richiederebbe. E quindi che succederà? PIL sempre al centro delle policy, crescita affaticata dall’esaurimento progressivo delle risorse più a buon mercato e, novità rilevante, costi rapidamente crescenti a causa del mancato adattamento Gli investimenti per la mitigazione crescono troppo lentamente e aumentano quelli necessitati, a valle degli eventi climatici estremi. Insomma: tante nuove ricostruzioni di città dopo gli alluvioni, dopo le frane, dopo gli uragani, ecc. Continue Reading »

7 responses so far

Esaurimento dei combustibili fossili, riscaldamento globale e innalzamento del livello del mare

Gli autori di uno studio da poco pubblicato su Global and Planetary Change spiegano come il progressivo esaurimento dei combustibili fossili convenzionali non sarà in grado di limitare l’aumento del livello del mare che, alla fine di questo secolo, sarà più alto di almeno 80 cm rispetto al livello del 2000 e alla fine del ventiduesimo secolo sarà compreso tra 150 e 230 cm, con gravissimi impatti in molte aree del pianeta.

 

Dalla fine dell’ultima glaciazione, circa 15 mila anni fa, il livello medio globale degli oceani è cresciuto di circa 130 m fino a raggiungere quello che ha caratterizzato gli ultimi 7 mila anni, un periodo dal clima relativamente stabile (si veda ad esempio questo precedente post sulla ricostruzione del livello del mare negli ultimi 2000 anni). Tuttavia, a causa del recente aumento delle temperature indotto dalle attività umane, nel corso del ventesimo secolo il livello medio globale degli oceani è aumentato di circa 17 cm (si veda figura 1), con una certa variabilità geografica tra le diverse regioni del pianeta. Sulla base di scenari “business as usual” (ovvero quelli che assumono che le future emissioni di CO2 di origine fossile continueranno ad aumentare approssimativamente con lo stesso trend attuale), l’ultimo rapporto IPCC nel 2007 ha proposto una proiezione dell’innalzamento del livello del mare nel corso del ventunesimo secolo tra 18 e 59 cm, a seconda dello scenario emissivo considerato (figura 1). Tenendo conto dei rapidi cambiamenti dinamici nelle calotte polari e nei ghiacci continentali (vedi sotto), tale innalzamento potrebbe tuttavia salire fino a 80 cm (figura 1). Di conseguenza ci si aspetta che sarà uno dei più importanti effetti del riscaldamento globale antropogenico e che i suoi impatti sugli ecosistemi terrestri e la società umana saranno tra le sue conseguenze più significative e visibili.

 

Figura 1. L’aumento del livello medio globale del mare (rispetto al 1990) osservato dal 1880 al 2009 (Church & White, 2011) e le proiezioni per il ventunesimo secolo basate sul modello semi-empirico duale (Vermeer & Rahmstorf, 2009) confrontate con quelle ottenute con i modelli climatici dell’IPCC per il rapporto del 2007 (scenari SRES). Il quarto rapporto IPCC ha anche stimato un livello massimo che include il contributo proveniente dalla fusione delle calotte polari e dei ghiacci continentali. Continue Reading »

22 responses so far

2015, nessun picco di riscaldamento previsto

Un articolo di Repubblica contiene in un box redazionale due errori di segno opposto sul futuro del clima del pianeta.

 

Su Repubblica di venerdì 4 maggio 2012 è stato pubblicato un interessante articolo del corrispondente dagli Stati Uniti, Federico Rampini, intitolato “Il complotto del clima
L’articolo ha avuto una grande visibilità, con attacco in prima pagina di spalla (titolo “Il complotto per negare l’allarme clima”), e tre pagine intere dell’inserto R2, che ospitava anche un articolo di Mark Hertsgaard intitolato “Pensano solo ai profitti e non al futuro dell’umanità”.
L’articolo è la recensione di un libro appena uscito negli USA (non ancora in Italia, purtroppo), “Private empire”, in cui l’autore Steve Coll racconta con una approfondita inchiesta “il ruolo sistematico del gruppo petrolifero nel falsificare per anni la scienza sul cambiamento climatico, finanziare ogni sorta di teorie negazioniste, influenzando l’opinione pubblica e interferendo sul dibattito politico americano”.
La frase sopra riportata è presente nell’articolo di Rampini, e va intesa nel senso che la scienza del clima proposta da ExxonMobile era falsa; a scanso di equivoci, è meglio ricordare che la scienza del clima vera, cioè quella sintetizzata nei rapporti IPCC, non è stata falsificata, nonostante gli sforzi e i finanziamenti delle lobby petrolifere.
Non è una notizia particolarmente nuova, in quanto l’azione delle lobby USA per cercare di confondere l’opinione pubblica sui pericoli del pianeta era già stata raccontata in libri, film, rapporti e specifici siti web; ma questa corposa indagine è senz’altro benvenuta e ancora utile. Continue Reading »

34 responses so far

Una previsione da cestinare

La rivista “Normale”, periodico semestrale dell’Associazione Normalisti, ha pubblicato di recente una “disfida” fra me e Nicola Scafetta sul tema dei cambiamenti climatici, che si può leggere qui (pagine 2-16).

Come in occasioni precedenti, la formula ha previsto due articoli iniziali e due reciproche repliche. I lettori possono quindi farsi un’idea di rispettivi argomenti; l’analisi degli argomenti utilizzati da Scafetta nella sua replica saranno oggetto di un prossimo post.

Voglio qui ritornare su quanto già scritto in quanto due errori redazionali hanno alterato le due ultime immagini della mia replica, che ripropongo in questo post.

La figura 3 corretta è questa a fianco, e rappresenta la ricostruzione delle temperature degli ultimi 2000 anni nella zona artica. Le temperature sono espresse in termini di variazioni rispetto al valore medio 1961-1990. La linea retta rappresenta la tendenza media fino al 1900. Fonte del grafico è il lavoro di Kaufman pubblicato su Science, che avevo pubblicato nel mio libro Guida alle leggende sul clima che cambia con il permesso degli autori.

Continue Reading »

43 responses so far

Clima passato e futuro: perché la Scienza avanza – prima parte

La Scienza è andata avanti sia nel processo di  conoscenza delle cause delle variazioni accadute in passato, sia nella capacità di simulare il clima futuro. Il Prof. Enrico Bellone, richiamando una frase  riportata in un recente libro del Prof. Guido Visconti, sostiene il contrario e secondo noi commette un errore. Partendo da un’attenta analisi del libro di Visconti si scopre che le cose non stanno proprio così: in particolare, soprattutto nella seconda parte si scoprono tante altre affermazioni discutibili, spesso contraddittorie e confuse. Qua e là traspare anche un certo livore personale dell’autore nei confronti degli utilizzatori dei modelli di simulazione del clima, che vengono reputati non come scienziati che svolgono il loro lavoro di ricerca con passione e coscienza, ma piuttosto come personaggi a caccia solo di fama e fondi di ricerca. Dispiace constatare  che per difendere delle tesi scientifiche si usino anche argomentazioni del genere: evidentemente  quando non si hanno forti contrapposizioni tecniche da addurre a difesa delle proprie tesi, anche le frasi “ad effetto” si ritiene possano aiutare.

.

PRIMA PARTE: La Scienza è andata avanti, e non poco, nel comprendere il clima.

.

Nel successivo commento alla lettera che un gruppo di scienziati italiani ha inviato alla rivista “Le Scienze” (vedi qui), il Prof. Bellone, per perorare le sue tesi, fa riferimento ad una frase che il Prof. Guido Visconti riporta nel suo libro “Clima Estremo” (anno 2005, editore Boroli, pag. 165 – vedi qui) che recita testualmente: “…la Scienza non è in grado di spiegare le variazioni climatiche che sono avvenute in passato: pertanto non si capisce come la stessa Scienza potrebbe essere in grado di prevedere quello che avverrà nel prossimo futuro. Malgrado ciò organismi internazionali come l’IPCC annunciano con cadenza regolare previsioni per i prossimi 50 o 100 anni. Questa apparente capacità previsionale è la stessa che ha dato notorietà e quindi assicurato fondi, ad un’intera classe scientifica negli ultimi 20 anni”.

Questa frase stimola l’apertura di un dibattito interessante e che mi auguro possa approfondirsi anche con chi è “scettico” sulle responsabilità antropiche al riscaldamento globale; in questa prima parte si vorrebbe smontare il paradigma che nel settore delle scienze del clima e della previsione degli scenari futuri la comunità scientifica sia praticamente ancora all’anno zero o quasi, come si vuol far credere con affermazioni del genere. Continue Reading »

38 responses so far

I modelli del clima e la gestione dell’incertezza

Riassunto

Si discute in questo post dell’utilità dei modelli di simulazione del clima. Pur con le incertezze che caratterizzano le simulazioni climatiche, alcuni risultati prodotti dai GCM hanno una chiara e dimostrabile solidità. Hanno quindi un “valore”, nel senso che potrebbero permettere, da subito, di proporre azioni di adattamento per mitigare alcuni degli impatti negativi del cambiamento climatico, almeno in quelle aree del pianeta dove i risultati delle simulazioni sembrano essere più certi.

 

 

L’intervista di Giuliano Ferrara a Franco Prodi e Fulco Pratesi recentemente trasmessa da Radio 24 offre lo spunto per qualche riflessione su alcuni dei temi affrontati, che vanno dalla affidabilità degli strumenti in uso per la modellazione del Clima sino al ruolo degli scienziati nel contesto del dibattito sui cambiamenti climatici. Userò in questo post le tesi espresse durante l’intervista solo come pretesto per approfondire la discussione, senza alcuna intenzione di alimentare polemiche che a mio avviso non servono molto per la crescita delle conoscenze. Il tema centrale è quello di capire come debbano essere gestite le incertezze proprie degli strumenti della modellistica del clima al fine di fornire delle simulazioni Utili e di “Valore” (nel seguito svilupperò tale concetto) e che permettano ai policy-makers di scegliere ottimali azioni di adattamento e di mitigazione agli impatti del cambiamento climatico.

In sostanza nell’intervista Franco Prodi afferma che i General Circulation Model (GCM) sono ancora indietro ed incapaci di rappresentare le complessità del sistema integrato Atmosfera, Biosfera, Idrosfera. E quindi le simulazioni climatiche che ne derivano sono incerte e insicure e quindi con questi strumenti è molto difficile prendere decisioni. Sto sicuramente schematizzando ma mi sembra che il succo del discorso sia più o meno questo.

Alcune contestazioni possono essere fatte a queste tesi. Innanzi tutto non rappresentano bene la realtà attuale dei GCM e sembrano essere anche un po’ datate, nel senso che non fanno giustizia del grande processo di miglioramento percorso nel campo della modellistica climatica in questi ultimi 15-20 anni (si guardi ad esempio ai risultati del progetto Ensembles finanziato dalla Unione Europea). In seconda battuta viene anche da chiedersi come ci si potrebbe muovere in questo settore senza utilizzare i GCM, pur con tutte le loro incertezze, nonché con tutti i sistemi di regionalizzazione del clima, siano essi di natura deterministica (i modelli regionali del clima, RCM, vedasi la home page del progetto UE-Prudence: http://prudence.dmi.dk/) piuttosto che dinamico-statistica (vedasi la homepage del progetto EU Stardex: http://www.cru.uea.ac.uk/cru/projects/stardex/).

Per di più, frenando l’uso della modellistica globale in quanto ancora “acerba” nel suo livello di descrizione delle complessità del sistema Atmosfera-idrosfera-biosfera, viene da chiedersi come si possa allo stesso tempo sperare di poter disporre in un qualche futuro di quell’ “earth model” a cui si fa riferimento nell’intervista, in grado di fornire quelle “certezze” che oggi non abbiamo. Sempre schematizzando, se comprendo bene le argomentazioni di FP, un modello del clima, per poter essere usato, dovrebbe essere sostanzialmente “perfetto”, nel senso che dovrebbe rappresentare “tutti” i processi fisici presenti in atmosfera, “tutti” i feedback, “tutte” le non linearità, “tutte” le scale di moto. Se così stanno i termini del problema, c’è qualche speranza di successo in questa pretesa di perfezione ?

Intanto la prima cosa da chiedersi è perché si usano i modelli e se si potrebbe farne a meno.

Per sviluppare il ragionamento devo fare una piccola digressione, tornando un attimo all’abc della fisica dell’atmosfera. Come noto, il sistema atmosfera non è un laboratorio galileiano in senso stretto, in quanto è impossibile soddisfare l’esigenza di ripetibilità di un esperimento all’interno di un laboratorio “per definizione” non riproducibile. E’ solo merito della modellistica se è possibile oggi, in senso più ampio, compiere degli “esperimenti”, in genere chiamati “esperimenti numerici” all’interno di un “laboratorio virtuale” che simula l’atmosfera reale. E’ oggi possibile, grazie ai modelli di atmosfera trascritti su codici di calcolo e mediante l’uso di supercomputer, usare l’atmosfera del modello al posto della realtà ed eseguire al suo interno studi di sensitivity, valutando scenari diversi al variare di qualche parametro: possiamo alzare o abbassare montagne, modificare tipi di suolo e crearne diversi scenari di umidità, proporre forcing esterni diversi (ad esempio di gas serra), mutare l’input radiativo da parte del sole. E’ possibile con i modelli ri-creare artificialmente quel “laboratorio” che ogni scienza che si rispetti deve avere per il solo stesso fatto di essere classificata come scienza. Va da se che essendo una riproduzione della realtà, il laboratorio “modello GCM” non è la realtà. E quindi contiene delle inevitabili approssimazioni e, talvolta, anche gravi inesattezze. La domanda che ci si pone relativa alla legittimità di un loro uso è quindi fondata e merita una risposta non frettolosa.

Per rispondere è utile fare un parallelismo con i modelli che permettono ai previsori meteo di fare le previsioni del tempo e che sono parenti stretti dei GCM che si usano per il clima, almeno per quanto riguarda la forma dell’apparato matematico che li caratterizza (set di equazioni differenziali che descrivono i processi di conservazione di energia, momento, acqua e che caratterizzano la meccanica e termodinamica dell’atmosfera e degli oceani). Anche in questo caso i modelli numerici di previsione sono inesatti (Numerical Weather Prediction models, NWP, per saperne di più, ottimo è il link alle lecture notes di ECMWF).

Sussistono dei problemi di sensibilità ai valori iniziali a causa della non linearità delle equazioni che caratterizzano modelli del genere. La loro parte “adiabatica” (che descrive ad esempio le avvezioni di temperatura o di quantità di moto) è in genere meglio descritta dai processi “fisici”, quali ad esempio quelli che descrivono il trasporto di calore verso o dal suolo, la microfisica delle nubi, i processi radiativi, i fenomeni convettivi ecc.. Il risultato di queste incertezze descrittive si traduce in errori di previsione: capita quindi che tali modelli facciano piovere troppo o troppo poco oppure presentino errori di localizzazione, nello spazio e nel tempo, dei massimi di pioggia o di altre idrometeore come la neve, così come di anomalie del campo termico o anemologico. Certi fallimenti di previsione siano più frequenti in concomitanza di certe tipologie di configurazioni “bariche”, mentre in altre gli errori sono inferiori. Così come pure la qualità delle previsioni dipende in buona parte anche dalle stagioni.

C’è allora da chiedersi: ma i modelli NWP rappresentano bene la realtà ?

La risposta è, ineluttabilmente: talvolta si, talvolta no. E, con tale consapevolezza, è bene usare questi strumenti per fare le previsioni meteo? La risposta può essere, a mio parere, solo positiva. Oggi nessun previsore meteo al mondo può fare a meno di usare questi strumenti se si pone l’obiettivo di cercare di prevedere il tempo in maniera “quantitativa” su un orizzonte temporale di 2-10 giorni. A tal riguardo c’è anche da chiedersi cosa ne sarebbe della Scienza della Previsione del tempo se all’inizio degli anni ’50 Fjörtoft, Charney e von Neumann (Numerical integration of the barotropic vorticity equation; 1950, Tellus, 2, 237-254) non avessero proposto di usare la loro semplificata modellistica meteorologica usando un modello barotropico dell’atmosfera, che è un lontano antenato dei modelli a equazioni primitive che si usano oggi. Magari, se così non fosse stato, oggi saremmo ancora qui a parlare di…“presagi” e non invece, ad esempio, di previsioni quantitative di occorrenza di piogge in una data area e in un dato istante temporale. (Il materiale sulla storia della previsione numerica è praticamente infinito, suggerisco questa presentazione di Adrian Simmons, scaricabile dal sito di ECMWF: http://www.ecmwf.int/publications/unpublished/2006/temperton/pdf/simmons.pdf)

In ogni caso, pur con tutte le incertezze del caso su cui ho detto poco fa, con questi modelli “incerti” si possono fare, almeno in media, decorose previsioni meteo, in grado di permettere ai decisori…di decidere. E’ infatti grazie a questi “incerti” modelli che si producono le allerte per il sistema di Protezione Civile, ad esempio. E sono le previsioni di questi modelli che forniscono l’input ai modelli idrologici per la previsione delle piene fluviali, oppure a quelli della qualità dell’aria oppure dello stato del mare. La possibilità di prendere decisioni corrette è particolarmente rilevante, a mio parere, in questo contesto.

Con il nuovo approccio del “valore economico” delle previsioni meteo o delle simulazioni climatiche (Katz e Murphy, 2000: “Economic Value of Weather and Climate Forecasts”, Climate Change, volume 45, 1573-1480) il “focus” non è più solo dato tanto alla “Qualità” di una previsione (o di una simulazione climatica) ma anche (e forse più) al suo “Valore” o “Utilità”, che si traduce nella capacità di quella previsione (o di quella simulazione climatica) di far prendere ad un policymaker decisioni più corrette di quanto potrebbe fare senza ricorrere a questi supporti modellistici. In questa ottica e a parità di qualità, una previsione può essere di più alto o basso valore a seconda dell’utente a cui è diretta. Per chiarire il punto, ogni policymaker che deve assumere delle decisioni applica sempre un ragionamento di tipo costo/beneficio nel quale confronta i costi di un’azione mitigatrice di un danno potenziale causato, ad esempio, da un evento meteo pericoloso, con il costo del danno che potrebbe avere se non decidesse di applicare alcuna azione mitigatrice a contrasto di quell’evento meteo pericoloso previsto. Pertanto, la probabilità di occorrenza di un evento meteo pericoloso si compone con il rapporto tra il “Costo” dell’azione mitigatrice e il “Danno” causato dalla non azione e permette di ottimizzare la scelta.

Tornando ai modelli GCM del clima, al giorno d’oggi sappiamo abbastanza quali siano i loro limiti, gli errori sistematici, dove si collocano arealmente. In sostanza conosciamo abbastanza bene i limiti di utilizzo di questi strumenti. E sappiamo anche che con tutte le diversità e le incertezze che caratterizzano questi strumenti, accade lo stesso che per certi indicatori del clima molti GCM offrano scenari concordi e possano offrire simulazioni di accettabile “Valore”, e possono essere quindi già in grado di far prendere decisioni corrette. Ad esempio tutti i GCM prevedono globalmente un aumento considerevole di temperatura, nei prossimi decenni. Dovremmo tenerne conto in qualche modo? Si potrebbe obiettare che quello che è forse vero a scala globale è meno vero a scala regionale. Questa asserzione è abbastanza vera; tuttavia accade che su certe sotto-aree del pianeta (per non fare un esempio che ci tocchi: il Mediterraneo) gli stessi sistemi di modellazione globale dicano lo stesso cose analoghe. Ad esempio risulta incontrovertibile che il bacino del Mediterraneo avrà in futuro delle estati più calde e, parallelamente, una diminuzione delle piogge (si veda la figura sottostante, tratta dal cap. 11 dell’IPCC-AR4-WG1.


(Fonte: Figura 11.5 IPCC AR4-WG1-cap.11, pag.875)
Cambiamenti di temperatura e precipitazione in Europa da simulazioni di 21 Modelli Globali con scenario A1B. Riga in alto, da sinistra a destra: cambiamenti della temperatura (°C) media annuale, in Inverno (DJF) ed Estate tra il 1980-1999 e il 2080-2099, mediata sui 21 modelli. Riga in mezzo: come la riga in alto ma per il rapporto tra le precipitazioni (%) del 2080-2099 e quelle del periodo 1980-1999. Riga in basso: numero di modelli (sul totale di 21) in cui si prevede un aumento di precipitazione.

E quindi, stante l’informazione di possibili estati più calde e meno piovose, non si potrebbe iniziare a fare qualcosa di più per diminuire il rischio desertificazione in aree del sud-Italia ? Oppure, non abbiamo già sufficienti conoscenze per iniziare a proporre politiche di miglioramento nell’uso delle risorse idriche che potrebbero calare in uno scenario del genere? Oppure ancora non potremmo accelerare quelle azioni di salvaguardia del territorio finalizzate a minimizzare il rischio di alluvioni sui piccoli bacini idrografici italiani, visto che potremmo avere in futuro, con “buona probabilità”, delle piogge di più breve durata e di più elevata intensità? Sicuramente siamo già in grado di quantificare il rapporto costo/perdita di possibili azioni di adattamento o mitigazione alternative; è allora necessario comporre questa conoscenza con le probabilità di occorrenza, ancorché incerte, degli scenari climatici, per avere uno spettro di azioni da adottare che siano le più efficaci e utili possibile.

Tornando all’altro aspetto connesso al ruolo dello scienziato che viene toccato nell’intervista, che non è disgiunto dalle argomentazioni fatte sino ad ora, anche qui è necessario un approfondimento. Nell’intervista si afferma che se per un politico l’uso del principio di prudenza può anche essere cosa saggia, per uno scienziato così non dovrebbe essere. Egli deve basare le sue tesi solo su fatti certi e non su supposizioni incerte. Sulla base di questa asserzione mi riesce difficile capire a pieno quale sia il ruolo di uno scienziato oggi. E ancora, nel contesto delle problematiche aperte dal problema dei cambiamenti climatici, è bene che uno scienziato non usi un principio di precauzione nei suggerimenti che fornisce ai politici? E’ divenuta veramente così neutrale la scienza? Più ragionevolmente, io penserei invece che un principio di precauzione si debba sempre usare e debba basarsi su una concreta analisi di quel rapporto costo/danno di cui ho parlato prima. E quindi, ritornando alla discussione sull’uso dei modelli, anche tenendo conto delle incertezze che i sistemi di previsione oggi hanno, risulta prudente affermare che, pur essendo plausibile che qualcosa potrebbe accadere al sistema climatico ma non avendo adesso delle certezze, è corretto non fare nulla per mitigare gli impatti del Climate Change?

Ma avremo mai delle certezze?

Credo sia fuori discussione che l’intera storia della scienza abbia ormai sentenziato che non esistono delle certezze, ma che nel tempo la conoscenza evolve ed è possibile solo proporre delle migliori approssimazioni della realtà. Con Newton e la sua teoria della gravitazione universale si pensava ci fosse la spiegazione “di tutto”, poi è venuto Einstein e la relatività generale ha rimesso in discussione non poche di quelle certezze. E lo stesso si potrebbe dire della rivoluzione della meccanica quantica rispetto alle conoscenze classiche che sino all’inizio del novecento hanno dominato il pensiero scientifico globale.

In conclusione, può oggi uno scienziato dissociarsi dall’obbligo di entrare nel vivo delle decisioni su un tema come il Climate Change? E come potrebbe decidere un policymaker cosa fare se lo scienziato su cui si appoggia non prende posizione perché logorato dalla mancanza di certezze?

Testo di Carlo Cacciamani

31 responses so far

Un bel libro con una Prefazione poco aggiornata

Fra i libri più belli pubblicati negli ultimi anni sui cambiamenti climatici va senza dubbio citato “Piccola lezione sul clima” di Kerry Emanuel, professore di Scienze dell’Atmosfera al MIT di Cambridge.
immagine copertina libro KerryIl libro è la traduzione di un saggio di rara chiarezza e sintesi “Phaeton’s Reins. The human hand in climate change “, pubblicato su Boston Review all’inizio del 2007 (disponibile anche sul web qui o qui).
Il testo di Kerry è seguito da una Postfazione di Judith Layzer e William Moomaw, docenti di politiche ambientali al MIT e alla Tuft University, che in poche pagine forniscono una egualmente agevole e precisa rappresentazione del recente dibattito sulle politiche climatiche nel 2008.

Nella versione italiana la Prefazione è curata dal Prof. Franco Prodi, ex-direttore dell’istituto di scienza dell’atmosfera e del clima del Consiglio Nazionale delle ricerche (ISAC-CNR), contiene a mio parere diversi errori, descritti in seguito, con l’auspicio che, se condivisi dal Prof. Prodi stesso, possano essere corretti nelle future edizioni (si spera numerose) del libro.

1) (pag. 11) I range delle “previsioni”
“Quanto carente sia la conoscenza del sistema clima è quindi dimostrato dall’ampia forbice degli scenari prospettati alla fine di questo secolo, per la temperatura dell’aria (da uno a otto gradi), per l’innalzamento del livello dei mari (da pochi centimetri a metri), per parlare solo dei parametri più discussi”.

E’ un argomento già citato da Prodi (ad esempio qui), ma le cose non stanno proprio così: l’ampiezza della forbice non è dovuta solo alla carenza nell’incertezza del sistema clima, ma all’incertezza su quali saranno le emissioni di gas serra. Se infatti si guarda la famosa figura del Quarto Rapporto IPCC sulla proiezione delle temperature, si nota come una larga parte della variazione delle temperature è dovuta ai diversi scenari emissivi, alle emissioni di gas serra che avverranno nei prossimi decenni. link grafici IPCCL’incertezza dovuta alla conoscenza del sistema clima è grande per ogni scenario, ma è molto inferiore (vedasi figura sopra): la forbice data dalla prima deviazione standard intorno alla media è circa un grado, l’intervallo più probabile (linee grigie sulla sinistra) varia da 2 gradi dello scenario B1ai 4 gradi dello scenario A2.

2) (Pag. 14) “I modelli sono nella loro infanzia”
È una frase usata spesso nel passato per descrivere lo stato dei modelli climatici. Se ne trova traccia in famosi articoli di taglio negazionista (ad esempio Robinson et al., 1998: “Predictions of global warming are based on computer climate modeling, a branch of science still in its infancy”) o comunque sullo stato dei modelli di parecchi anni or sono. La storia della modellistica climatica è ormai trentennale, sono coinvolti decine di centri di ricerca di tutto il mondo. I modelli hanno da anni incluso parametrizzazioni per gli aerosol e le nubi; in modo insoddisfacente, migliorabile, ma se ne parla da anni e si potrebbe almeno dire che oggi sono nella loro adolescenza. Le incertezze sono ancora tante e quindi c’è ancora tanto da fare per i modellisti; ma se il termine “infanzia” significa la fase iniziale e primordiale dello sviluppo, già a fine anni ’90 i modelli climatici vi erano usciti.

3) (Pag. 15) Le temperature nella piccola era glaciale e nel periodo caldo medioevale
“Se consideriamo l’ultimo millennio, variazioni di poco superiori (probabilmente da 1 a 1,3 °C) hanno prodotto la piccola era glaciale (dal 1400 al 1850) ed il pericolo di riscaldamento conosciuto come “Optimum medioevale” (1000-1300)…”
La frase non è molto chiara perché non chiarisce rispetto a quale periodo sarebbero state le temperature superiori di 1-1,3°C. Probabilmente ci si riferisce alle temperature di inizio secolo, rispetto alle quali nelle pagine prime (Pag. 13 e 14) si cita un aumento di 1,3 per l’Italia e di 0,7 °C per il l’intero pianeta. Le ricostruzioni più accreditate forniscono range molto più limitati nelle variazioni delle temperature della piccola era glaciale e del periodo caldo medioevale, variazioni che hanno riguardato per lo più l’emisfero nord, e mostrano come l’attuale riscaldamento sia del tutto anomalo se confrontato con quello dei precedenti 1300 anni. L’ultima sintesi dell’IPCC recita “Le temperature medie nell’emisfero Nord durante la seconda metà del XX secolo sono state molto probabilmente più alte di qualsiasi altro periodo di 50 anni negli ultimi 500 anni e probabilmente le più alte almeno negli ultimi 1300 anni”.

4) (Pag. 18) Le concentrazioni di CO2
“È noto, poiché lo si misura con precisione, che il valore dell’anidride carbonica, ora intorno a 360 parti per milione, è aumentato del 31% dal 1750 ad oggi”.
Le concentrazioni di CO2 attuali non sono intorno a 360 ppm, ma intorno a 380 ppm, come del resto scrive Kerry nello stesso libro a pag. 42 e a pag. 77. Non si tratta di un refuso perché l’aumento del 31% porta proprio a 360 ppm; per arrivare a 380 ppm l’aumento è almeno del 35 %. Tralasciando il fatto che Kerry ha scritto il saggio nel 2006, e nel 2008 le concentrazioni di CO2 erano già di circa 384-385 ppm.
La concentrazione di 360 ppm di CO2 nell’atmosfera si è avuta intorno al 1995.

5) (Pag. 23) “Il protocollo di Kyoto, ora messo di nuovo in discussione…”
Come in un intervento dell’Ottobre 2008 il prof. Prodi descrive scenari di messa in discussione del Protocollo di Kyoto, oggi di fatto superati dal fatto che il Protocollo è entrato in vigore da quattro anni e lascerà fra pochi anni il posto ad un nuovo accordo internazionale, approvato probabilmente già tra pochi mesi nella COP15 a Copenhagen.

6) (Pag. 23-24) La somma incerta
Verso la fine della prefazione le incertezze presenti nella scienza del clima sono ancora sottolineate, laddove si legge di “…grave incertezza di scenario che caratterizza lo stato attuale della conoscenza”,  “…non si può ancora parlare di previsione climatica affidabile”, oppure “…non stupisce che vi siano scienziati che sostengono questo principio di precauzione e scienziati che vi si oppongono sulla base della considerazione che la scarsa conoscenza di alcuni addendi rende la somma incerta”.

Nella prefazione si trova anche in altri punti (es. pag. 11) una confusione fra previsione e proiezione (ossia fra previsioni di primo e di secondo tipo, si veda il precedente post). Come ben scrive anche Kerry (pag. 53-54) i modelli predittivi non riescono a garantire  affidabilità oltre le due settimane; ma altra cosa sono le proiezioni sul lungo periodo (es. 50 o 100 anni) del valore medio di alcuni parametri climatici.
Tali cautele sembrano eccessive se confrontate a quanto scrive Kerry nel successivo saggio, ad esempio “e dato che i rischi di conseguenze pesantemente sfavorevoli sono molto alti e che possiamo prevenirli, la prudenza ci dovrebbe indurre ad agire immediatamente”.

In conclusione, pur se l’analisi di Franco Prodi appare in alcuni aspetti poco aggiornata, si concorda pienamente con le prime e le ultime tre righe della Prefazione: quelle che la aprono (pag. 9) “Non capita spesso di imbattersi in uno scritto che si condivide a tal punto da desiderare di averlo scritto noi stessi”, e quelle che la chiudono (pag. 25), invitando alla lettura del libro di Kerry Emanuel, “alla sua prosa scientificamente impeccabile, ma anche piana ed accattivante”. Cosa non facile quando si parla di clima.

Testo di Stefano Caserini, con il contributo di Aldo Pozzoli

7 responses so far

L’inevitabilità delle azioni di adattamento

Con questo post inizia una nuova sezione di Climalteranti.it, che si occupa delle recensioni di libri sui cambiamenti climatici.

Mettiamoci l’anima in pace: alcuni cambiamenti climatici sono inevitabili. Come mostrato da alcuni importanti lavori scientifici, alcuni cambiamenti climatici futuri sono già “decisi” dagli attuali livelli di CO2 nell’atmosfera, si manifesteranno e dureranno per secoli. Pur se è ancora possibile limitare la dimensione dei cambiamenti climatici futuri, per quante politiche e azioni saremo in grado di mettere in pratica per ridurre le emissioni, queste non basteranno a tenere i cambiamenti climatici sotto una certa soglia. In questo panorama appare necessario, oltre che utile, sviluppare strategie di adattamento al clima che avremo davanti nei prossimi decenni. In assenza di simili strategie, ci troveremo a fronteggiare una perdita di Pil compresa tra 0,12 e lo 0,20%, pari a una riduzione del reddito nazionale di circa 20/30 miliardi di euro, l’equivalente di un’importante manovra finanziaria.
Questi numeri si leggono nel libro Cambiamenti climatici e strategie di adattamento in Italia. Una valutazione economica  (Il Mulino editore, 2009), in cui Carlo Carraro raccoglie gli esiti di un progetto di ricerca a cui hanno collaborato l’Agenzia per la Protezione dell’Ambiente e del Territorio (attuale ISPRA), il Centro Euromediterraneo per i Cambiamenti Climatici e la Fondazione Eni Enrico Mattei.

I numeri appena citati non annunciano catastrofi, non ci parlano di danni enormemente ingenti che il sistema economico italiano potrebbe trovarsi ad affrontare; il libro mette l’accento sull’esigenza di intraprendere politiche che richiedono strategie di lungo periodo. E lo fa a partire dalla metodologia utilizzata. La ricerca prende in considerazione i danni attesi dai cambiamenti climatici dopo che l’intero sistema economico avrà compiuto un adattamento autonomo, avrà cioè reagito agli effetti negativi dando luogo a un nuovo equilibrio. È a questo punto, che la ricerca calcola il danno atteso dai cambiamenti climatici.
Un altro elemento di originalità del lavoro di Carraro, sta nell’aver considerato il sistema economico italiano all’interno del contesto mondiale; in altre parole, lo studio analizza le reazioni che gli impatti dei cambiamenti climatici potranno indurre nei flussi di commercio e di capitali a livello internazionale tra l’Italia e gli altri Paesi e poi, anche qui, si procede ad analizzare i nuovi equilibri realizzati.
In sintesi, quindi, il libro è il frutto di un metodo di ricerca e di analisi che dà forma ai risultati attraverso un percorso molto delineato. Il primo passo consiste nell’analisi degli impatti fisici che i cambiamenti climatici avranno sul nostro territorio; il secondo passo riguarda la valutazione economica di questi impatti; infine, attraverso un modello dell’economia mondiale, gli impatti si traducono in cambiamenti che richiedono aggiustamenti, riadattamenti del sistema che vengono considerati fino a calcolare il danno complessivo per l’economia italiana.
Ecco qualche numero. In Italia, 16.500 km quadrati di terreno sono considerati vulnerabili al rischio di desertificazione, il che vuol dire che per questi terreni è prevista una diminuzione di resa agricola che, in completa assenza di politiche e strategie di adattamento, potrebbe essere calcolata in una cifra che oscilla tra gli 11,5 (nel caso di terreni adibiti a pascolo) e i 412,5 milioni di dollari l’anno (nel caso di terreni irrigati). Un altro esempio:  l’innalzamento della temperatura potrebbe costare nel 2030 una diminuzione del turismo straniero sulle nostre Alpi del 21,2%, mentre nel 2080 i danni del climate change sulle aree costiere della penisola sarebbero pari a 108 milioni di dollari in assenza di politiche e strategie di adattamento, costo che invece scenderebbe a circa 17 milioni se si adottassero azioni di protezioni delle coste. Dati significativi si possono trarre anche dall’osservazione di eventi passati, come ad esempio l’ondata di calore del 2003: se in quell’occasione avessimo adottato misure di adattamento, si sarebbero potuti risparmiare 134 milioni di euro.
Niente catastrofi, si diceva, anche perché il sistema economico ridistribuisce costi e benefici, danni e vantaggi: l’impatto dei cambiamenti climatici è di natura essenzialmente distributiva. E così, ad esempio, a fronte di una diminuzione di turismo internazionale possiamo attenderci un incremento di turismo interno e alcune aree saranno più esposte ai rischi della desertificazione, altre ne potranno beneficiare con la possibilità di coltivare nuovi prodotti.
Il libro segnala inoltre la difficoltà nello stimare costi “non di mercato”, ovvero quelli che vanno a insistere su realtà non soggette a scambio, e quindi senza prezzo (ad esempio la biodiversità e il patrimonio artistico e architettonico), nonché le incertezze nel ridurre gli impatti ad una dimensione unica, quella monetaria.
Ma la cosa certa è che se non saremo pronti ai cambiamenti, se non sapremo adattare il nostro sistema economico ad un clima che sicuramente sarà diverso, il prezzo sarà sicuramente più alto. E questo nel libro di Carraro è scritto a chiare lettere. Qualcuno, all’estero, ci sta già pensando e sta progettando strategie di adattamento di lungo periodo. Quando i cambiamenti climatici mostreranno in maniera più evidente i loro impatti, chi si sarà mosso prima si farà trovare pronto. E in Italia?

Testo di Mauro Buonocore, Centro Euromediterraneo per i Cambiamenti Climatici

Carlo Carraro
Cambiamenti climatici e strategie di adattamento in Italia
Una valutazione economica
Il Mulino, 2009
pp. 528, € 39,00

8 responses so far

Raffreddamento globale, ghiacci Artici, previsioni dell’IPCC

NOTA INFORMATIVA del Focal Point IPCC – Italia del 15 gennaio 2009.

La Redazione di www.climalteranti.it pubblica una nota informativa a cura di Sergio Castellari, inerente al dibattito sui cambiamenti climatici improvvisamente riaccesosi a seguito di alcune pubblicazioni apparse su importanti organi di informazione italiani.

In questi ultimi giorni sui media sono apparse notizie riguardo un rallentamento o blocco del riscaldamento globale a causa delle imponenti nevicate in varie zone Italiane e del pianeta e riguardo la forte crescita dei ghiacci marini Artici che sarebbero tornati ai livelli del 1979. Infine, alcuni articoli citano le “previsioni catastrofiche“ fatte dall’IPCC come ormai obsolete o anzi completamente errate (ad esempio qui, qui o qui).
E’ necessario fare alcuni chiarimenti.

Meteorologia e climatologia:

Bisogna stare molto attenti a non confondere una analisi meteorologica con una analisi climatica. Il sistema clima è un sistema complesso, che include l’atmosfera, gli oceani, le terre emerse, la criosfera e la biosfera. Generalmente il clima viene definito come “il tempo meteorologico medio” su scale temporali lunghe (almeno 30 anni). Quindi le condizioni climatiche vengono definite in termini di proprietà statistiche (ad esempio, il valore medio della temperatura atmosferica superficiale in una regione).
Quindi un cambiamento climatico può essere definito come una variazione significativa statisticamente dello stato medio del clima o della sua variabilità, persistente per un periodo esteso (tipicamente decenni o più). Un cambiamento climatico implica una variazione delle proprietà statistiche e non può essere associato ad un evento singolo (una alluvione, una tempesta di neve ecc.) Non ha senso la domanda: “L’alluvione in un dato luogo e giorno è causata da un cambiamento climatico?” Ha invece senso la domanda: “Un cambiamento climatico può comportare una aumentata probabilità che si verifichino fenomeni alluvionali?”
Quindi dare un senso climatico (fine del riscaldamento globale, inizio di un raffreddamento globale) ad una settimana di gelo in Italia significa fare una dichiarazione non basata su un corretto approccio scientifico.

Ma l’anno 2008 è stato veramente un anno freddo?

Questa è di nuovo una domanda generica, freddo rispetto a cosa e su quali scale temporali? Andando a vedere le due serie temporali di temperature media globali superficiali raccolte ed analizzate dal NCDC (National Climatic Data Center) della NOAA (National Ocean Atmophere Administration) (USA) e dal Met Office Hadley Centre (UK) si può chiaramente vedere che il 2008 non è stato un anno “freddo” in queste serie
temporali rispetto a medie a lungo termine. Il rapporto preliminare (perché ancora non considera il mese di dicembre 2008) del NCDC dichiara che l’anno 2008 potrà essere uno dei 10 anni più caldi dal 1880 (inizio della serie termometrica globale) rispetto alla media del 20esimo secolo. Inoltre il mese di novembre 2008 è stato il quarto novembre più caldo della serie globale dal 1880 e l’agosto 2008 si è posizionato al decimo posto come agosto più caldo nella serie temporale.
Questo trend è confermato anche dalla serie globale del Met Office Hadley Centre. Quasi tutti gli anni del nuovo millennio stanno tra i 10 anni più caldi di entrambi le serie termometriche globali. Negli ultimi 10 anni le temperature sono cresciute più lentamente rispetto ai decenni precedenti, ma ragionando su tempi lunghi è evidente un trend di crescita di temperature. Questo non significa che l’anno 2009 sarà necessariamente più caldo del 2008: il 2009 potrebbe essere l’anno più freddo dal 1980, ma il trend di crescita globale di temperature rimarrebbe se il 2010 ed il 2011 saranno di nuovo anni più caldi rispetto ad una media a lungo termine. Il valore di temperatura globale di un anno non può modificare una tendenza a lungo termine.

I ghiacci artici che tornano ai livelli del 1979:

Alcuni articoli stranieri ed italiani, citando i dati dell’University of Illinois’s Arctic Climate Research Center, hanno spiegato che l’estensione del ghiaccio marino artico è tornata a crescere ed ha raggiunto l’estensione del 1979. Intanto la crescita invernale del ghiaccio marino Artico è un normale processo stagionale: l’estensione diminuisce in estate e ricresce in inverno. Però negli ultimi anni come mostrato dal NSIDC (National Snow And Ice Data Center) (USA), qualcosa è cambiato. L’estensione di ghiaccio marino Artico (sea ice extent) ha raggiunto il record minimo nel settembre 2007, seguito dal settembre 2008 e settembre 2005, confermando che esiste un trend negativo nella estensione di ghiaccio marino estivo osservato negli ultimi 30 anni.

Se si cercano i dati dell’University of Illinois’s Arctic Climate Research Center al loro sito  si può arrivare al sito Criosphere Today del Polar Research Group – University of Illinois dove, controllando i grafici, si può vedere che l’estensione del ghiaccio marino (sea ice area) dell’Emisfero Nord nel dicembre 2008 non raggiunge il livello del 1979, mentre il sea ice area dell’Emisfero Sud nell’estate 2008 ha raggiunto il livello dell’estate 1979!

Per l’Artico il NSIDC ha comunicato il 7 gennaio (2008 Year-in-Review) che:
• l’estensione del ghiaccio marino (sea ice extent) nel dicembre 2008 è stata di 12.53 milioni di km2, 830,000 milioni di km2 di meno della media 1979 – 2000;
• il ghiaccio marino del 2008 ha mostrato una estensione ben sotto alla media (wellbelow- average ice extents) durante l’intero anno 2008;
• dal 12 al 19 dicembre 2008 la crescita stagionale di ghiaccio marino Artico si è interrotta probabilmente a causa di un sistema anomalo di pressione atmosferica combinato all’effetto delle temperature marine superficiali più calde nel Mare di Barents.

Le “previsioni” dell’IPCC:

Innanzitutto esistono vari tipi di modelli:
1. Modelli di previsione meteorologica operativa: grandi modelli computazionali, che integrano le equazioni del moto atmosferico, accoppiate con opportune rappresentazioni degli scambi di materia e calore con la superficie terrestre e che forniscono le previsioni meteorologiche;
2. Modelli di previsione stagionale: stessi modelli atmosferici, ma accoppiati a all’oceano e sono utilizzati per prevedere fenomeni come El Nino;
3. Modelli del Sistema Terra (Earth System Models): modelli dell’atmosfera ed oceano tra loro accoppiati, ma accoppiati anche ad altri modelli che rappresentano la superficie, il ghiaccio marino, la vegetazione, la chimica atmosferica, il ciclo del carbonio e gli aerosol.
Per gi studi dei possibili climi a 50 o 100 anni si usano i Modelli del Sistema Terra, ma in maniera diversa dai modelli di previsione meteorologica. Nel campo della predicibilità di un sistema come il sistema clima si possono avere due tipi di previsioni: “Previsioni di Primo Tipo” (o Problemi ai Valori Iniziali) e “Previsioni di Secondo Tipo” (o Problemi ai Parametri). Le cosiddette previsioni climatiche dell’IPCC sono previsioni del secondo tipo: dato il sistema clima soggetto a variazioni di un forzante esterno, sono previsioni delle variazioni delle proprietà statistiche del sistema clima al variare dei parametri esterni. Queste previsioni non dipendono dai valori iniziali, come le previsioni del Primo Tipo che sono poi le previsioni meteorologiche e che hanno un limite intrinseco a circa due settimane.

Queste previsioni climatiche si definiscono in realtà proiezioni climatiche e cercano di rispondere alle seguenti domande:

1. Assumendo che la composizione atmosferica vari secondo un certo scenario di emissione, allora quale sarà ad esempio tra 30, 50 e 100 anni la probabilità di avere una temperatura media più alta di 3°C rispetto a quella attuale?

2. Come sarà distribuita sul globo questa variazione della temperatura media prevista?

Queste proiezioni si possono chiamare anche scenari climatici, perché come variazione di forzanti esterni (gas serra ed aerosol) usano scenari di concentrazione che derivano da scenari di emissioni. Questi scenari di emissioni sono descrizioni plausibili dello sviluppo futuro delle emissioni di gas serra e aerosol, basate su un insieme coerente ed internamente consistente di assunzioni sulle forze che le guidano (soprattutto economiche, tassi di sviluppo tecnologico, andamento dei mercati, sviluppo demografico, ecc.).

E’ importante sottolineare che la dinamica caotica del clima terrestre e dei moti atmosferici pone un limite teorico alla possibilità di eseguire Previsioni del Primo Tipo. Infatti il sistema clima è un sistema fisico complesso con un comportamento non lineare su molte scale temporali e che include molte possibili instabilità dinamiche. Però la natura caotica del sistema clima non pone alcun limite teorico alla possibilità di eseguire Previsioni del Secondo Tipo. Quindi è più semplice eseguire Previsioni di Secondo Tipo (in altre parole previsioni climatiche di tipo statistico) per i prossimi 100 anni assumendo possibili variazioni dei forzanti esterni, che estendere di qualche giorno il termine delle previsioni meteorologiche.
Queste previsioni statistiche vengono effettuate in vari centri di modellistica climatica in varie parti del mondo (anche in Italia, ad esempio al Centro Euro-Mediterraneo per i Cambiamenti Climatici – CMCC) e fino ad oggi quasi tutti i modelli climatici del tipo Earth System Models hanno usato gli stessi scenari di emissioni chiamati IPCC-SRES al fine di poter confrontare i risultati. Questi scenari di emissioni sono molti e presuppongono diversi sviluppi socioeconomici a livello globale e quindi diversi livelli di emissioni al fine di poter“catturare” il possibile futuro climatico della Terra.

In conclusione, queste previsioni sono scenari climatici o proiezioni climatiche e non previsioni meteorologiche a lungo termine.

7 responses so far

Voglia di superfreddo

«Se il Sole continuerà a restare senza macchie, sulla Terra potrebbe arrivare un freddo glaciale». Questa l’apertura di un articolo del Corriere della Sera del 7 ottobre.

Per quanto riguarda il ciclo delle macchie solari, esiste un insieme di misure, dirette e indirette, che ormai ci hanno fatta capire molto di come e quanto il nostro astro ci scalda e quante macchie solari ci sono. Fra le più autorevoli previsioni sul ciclo delle macchie solari disponibile on-line c’è quella del Marshall Space Flight Center: il prossimo massimo è atteso fra il 2011 e il 2012.

Sono previsioni, hanno i loro margini di errori, ma non si brancola nel buio.

Nello studio del clima si è capito anche, certo con ancora dei margini di incertezza, come la variazione della forza del sole ha influito sul clima del pianeta negli ultimi millenni e degli ultimi secoli.

Uno degli ultimi studi ben fatti, quello di Lockwood M., Frohlich C. (2007) ha concluso che

Tutti i parametri del Sole che possono avere un’influenza sul clima negli ultimi 20 anni sono andati in una direzione opposta a quella richiesta per spiegare l’aumento osservato delle temperature medie.

Se si va più indietro, si vede che la forzante solare ha con alta probabilità influito sulle temperature del famoso periodo caldo medioevale (PCM) e della piccola era glaciale (PEG). La ricostruzione delle temperature più accreditata per gli ultimi 2000 anni mostra che le differenze fra le temperature medie nell’emisfero nord fra il PCM e la PEG sono state di circa 0.5-0.6 °C, distribuite in diversi secoli.

Uno degli ultimi importanti studio usciti più recentemente non ha cambiato le cose.

Dunque,

1) la probabilità che il sole rimanga senza macchie solari per tanti anni, tanto da innestare un’era glaciale, è molto molto basso.

2) con le loro variazioni normali le macchie solari saranno un fattore del tutto secondario sul futuro andamento delle temperature

3) le irregolarità possibili in ogni andamento ciclico non potranno cambiare più di tanto l’aumento futuro delle temperature. Atteso nel 2100 secondo le previsioni dell’IPCC in un range fra 1.8 e 4°C.

Una variazione delle macchie solari tipo quella del XVII secolo non porterà alcuna piccola era glaciale, al limite, ridurrà leggermente un riscaldamento comunque molto pericoloso per l’uomo e gli ecosistemi.

Secondo lo stesso Prof. David Hathaway, citato nell’articolo, l’attuale andamento delle macchie solari “It wouldn’t cause cooling, it just might decrease the rate at which the Earth is heating”

Conclusione: il rischio di passare dal supercaldo al superfreddo a causa delle macchie solari o della loro assenza è praticamente nullo. Non ci sarà la piccola era glaciale. Dopo l’episodio del maggio 2008, in cui era girato l’allarme per un raffreddamento dei prossimi 10 anni (vedi nomination del titolista de La Repubblica), un’altra volta è stato un infondato allarme per un presunto imminente freddo futuro a fare notizia. È come se, all’inizio dell’inverno, ci fosse una gran voglia di suonare l’allarme per il freddo. E si che di notizie sulle preoccupazioni per il riscaldamento futuro ce ne sarebbero come chiaramente evidenziato da una moltitudine di lavori scientifici (si veda ad esempio: qui e qui).

Testo di: Stefano Caserini, Giulio De Leo

4 responses so far