Notizie e approfondimenti sul clima che cambiaPosts RSS Comments RSS

Archive for the Tag 'Franco Prodi'

Assegnato il premio “A qualcuno piace caldo” 2011

In seguito alla votazione effettuata dai membri del Comitato Scientifico di Climalteranti.it, i vincitori del premio “A qualcuno piace caldo” per l’anno 2011 sono risultati essere Luigi Vigliotti e la rivista Sapere.
Il premio che sarà inviato dal Comitato Scientifico ai premiati è una copia del libro “Il pianeta che scotta. Capire il dibattito sui cambiamenti climatici“, di Luca Fiorani e Antonello Pasini.

 

 PREMIO “A QUALCUNO PIACE CALDO” 2011

 

Luigi Vigliotti e

 

Motivazione

Per aver rispettivamente scritto e pubblicato (nel numero di febbraio 2011) un incredibile articolo intitolato “Un futuro con ghiaccio e seltz”, contenente numerosi errori, notizie e argomenti infondati sulla scienza del clima, a partire dal sottotitoloL’allarme “Global Warming ha motivazioni in buona parte culturali e potrebbe distoglierci dall’eventualità, questa sì scientificamente certa, di una prossima glaciazione”. Continue Reading »

21 responses so far

Ancora errori da Franco Prodi sul clima

In un’intervista pubblicata da Repubblica del 20 maggio, il Prof. Franco Prodi ha affermato che “in questi 50 anni il clima in Italia è cambiato davvero poco”, che il riscaldamento in Italia “è nella media internazionale” e che “non siamo in condizione di prevedere il cambiamento climatico futuro”. I dati e la letteratura scientifica mostrano un quadro molto diverso.

.

È già capitato su questo blog di raccontare le imprecisioni e gli errori in cui incorre Franco Prodi quando parla e scrive di cambiamenti climatici. Numeri sballati, fraintendimenti, che l’hanno fatto diventare il climatologo preferito da Giuliano Ferrara e da chi vuole negare la gravità della situazione climatica.
L’intervista pubblicata su Repubblica di Venerdì 20 maggio si inserisce nel medesimo filone; un articolo che ha avuto lo spazio di un’intera pagina, con un affermazione in grande risalto nel titolo “Il nostro clima non è cambiato”.

Il clima è cambiato, eccome
Nell’articolo il Prof. Prodi sostiene infatti che “in questi 50 anni il clima in Italia è cambiato davvero poco” e che a proposito di surriscaldamento del pianeta “siamo nella media internazionale”.
Come mostreremo anche nei prossimi post, le cose non stanno affatto così. I dati e la letteratura scientifica disponibili offrono il quadro opposto. Se si considera il periodo di riferimento del Quarto Rapporto IPCC, dal 1906 al 2005, le temperature in Italia sono aumentate di 1,3 °C, il 75 % in più dell’aumento della media globale (0.74°C). Continue Reading »

43 responses so far

COP15: luci, ombre …e bufale

L’accordo di Copenhagen del 18 dicembre 2009 rappresenta sicuramente una delusione per quanti avevano posto grandi aspettative nella COP15, la quindicesima sessione della Conferenza delle Parti sui cambiamenti climatici.

I 13 giorni di negoziati intensi, le centinaia di conferenze, discorsi ufficiali e conferenze stampa, le tante mostre e le numerose manifestazioni sono stati un momento indubbiamente importante per la storia delle politiche sui cambiamenti climatici.

Il materiale prodotto dalla COP15 è imponente, sia per le decisioni ufficiali (www.unfcc.int), che per gli atti delle conferenze (ad esempio qui e qui sia per i tantissimi video in cui si possono rivedere molti passaggi fondamentali della COP. Continue Reading »

43 responses so far

Il 1912.. praticamente ieri

Le argomentazioni negazioniste sul clima sono a volte complesse e richiedono spiegazioni interessanti ma un po’ impegnative (un esempio in questa traduzione di Realclimate).
Altre volte sono semplici e già sentite, ma lasciano comunque molto amaro in bocca. .
È il caso dell’ultima performance di Giuliano Ferrara, che dai microfoni di Radio24, nella sua trasmissione del 29 aprile “Parliamone con l’elefante”, ha imbastito una puntata sui cambiamenti climatici a tratti interessante, ma in generale estremamente carente dal punto di vista scientifico.
Dall’audio della trasmissione o dalla trascrizione (grazie a Maurizio Morabito) si può notare come dal dialogo con Franco Prodi e Fulco Pratesi, ospiti del programma, siano emerse, a fianco di alcune tesi anche di buon senso, una serie notevole di affermazioni fuorvianti e prive di alcun fondamento scientifico.

.

Soliti – sbagliati – argomenti
Franco Prodi ha riproposto le sue tesi sulla debolezza delle “previsioni climatiche”, già discusse in un precedente post di Climalteranti.
Anche le tesi negazioniste di Pietro Vietti, giornalista de Il Foglio, diretto dallo stesso Ferrara, sono già state sentite e confutate, ad esempio “sono 10 anni che le temperature non aumentano” (vedi qui) e “L’Antartide sono anni che sta crescendo e l’Artico in questi giorni ha raggiunto un’estensione, la maggiore degli ultimi dieci anni” (vedi qui) .
Sul fatto che gli ambientalisti e gli scienziati del clima hanno di colpo sostituito subdolamente il termine “riscaldamento globale” col nuovo termine “cambiamenti climatici” (perché “visto che il tempo cambia da sempre ci azzeccano sia che la temperatura aumenti che diminuisca…) basterebbe guardare come si chiamano l’organismo scientifico internazionale e la Convenzione dell’ONU che da più di 15 anni stanno cercando di affrontare questo problema. Continue Reading »

38 responses so far

I modelli del clima e la gestione dell’incertezza

Riassunto

Si discute in questo post dell’utilità dei modelli di simulazione del clima. Pur con le incertezze che caratterizzano le simulazioni climatiche, alcuni risultati prodotti dai GCM hanno una chiara e dimostrabile solidità. Hanno quindi un “valore”, nel senso che potrebbero permettere, da subito, di proporre azioni di adattamento per mitigare alcuni degli impatti negativi del cambiamento climatico, almeno in quelle aree del pianeta dove i risultati delle simulazioni sembrano essere più certi.

 

 

L’intervista di Giuliano Ferrara a Franco Prodi e Fulco Pratesi recentemente trasmessa da Radio 24 offre lo spunto per qualche riflessione su alcuni dei temi affrontati, che vanno dalla affidabilità degli strumenti in uso per la modellazione del Clima sino al ruolo degli scienziati nel contesto del dibattito sui cambiamenti climatici. Userò in questo post le tesi espresse durante l’intervista solo come pretesto per approfondire la discussione, senza alcuna intenzione di alimentare polemiche che a mio avviso non servono molto per la crescita delle conoscenze. Il tema centrale è quello di capire come debbano essere gestite le incertezze proprie degli strumenti della modellistica del clima al fine di fornire delle simulazioni Utili e di “Valore” (nel seguito svilupperò tale concetto) e che permettano ai policy-makers di scegliere ottimali azioni di adattamento e di mitigazione agli impatti del cambiamento climatico.

In sostanza nell’intervista Franco Prodi afferma che i General Circulation Model (GCM) sono ancora indietro ed incapaci di rappresentare le complessità del sistema integrato Atmosfera, Biosfera, Idrosfera. E quindi le simulazioni climatiche che ne derivano sono incerte e insicure e quindi con questi strumenti è molto difficile prendere decisioni. Sto sicuramente schematizzando ma mi sembra che il succo del discorso sia più o meno questo.

Alcune contestazioni possono essere fatte a queste tesi. Innanzi tutto non rappresentano bene la realtà attuale dei GCM e sembrano essere anche un po’ datate, nel senso che non fanno giustizia del grande processo di miglioramento percorso nel campo della modellistica climatica in questi ultimi 15-20 anni (si guardi ad esempio ai risultati del progetto Ensembles finanziato dalla Unione Europea). In seconda battuta viene anche da chiedersi come ci si potrebbe muovere in questo settore senza utilizzare i GCM, pur con tutte le loro incertezze, nonché con tutti i sistemi di regionalizzazione del clima, siano essi di natura deterministica (i modelli regionali del clima, RCM, vedasi la home page del progetto UE-Prudence: http://prudence.dmi.dk/) piuttosto che dinamico-statistica (vedasi la homepage del progetto EU Stardex: http://www.cru.uea.ac.uk/cru/projects/stardex/).

Per di più, frenando l’uso della modellistica globale in quanto ancora “acerba” nel suo livello di descrizione delle complessità del sistema Atmosfera-idrosfera-biosfera, viene da chiedersi come si possa allo stesso tempo sperare di poter disporre in un qualche futuro di quell’ “earth model” a cui si fa riferimento nell’intervista, in grado di fornire quelle “certezze” che oggi non abbiamo. Sempre schematizzando, se comprendo bene le argomentazioni di FP, un modello del clima, per poter essere usato, dovrebbe essere sostanzialmente “perfetto”, nel senso che dovrebbe rappresentare “tutti” i processi fisici presenti in atmosfera, “tutti” i feedback, “tutte” le non linearità, “tutte” le scale di moto. Se così stanno i termini del problema, c’è qualche speranza di successo in questa pretesa di perfezione ?

Intanto la prima cosa da chiedersi è perché si usano i modelli e se si potrebbe farne a meno.

Per sviluppare il ragionamento devo fare una piccola digressione, tornando un attimo all’abc della fisica dell’atmosfera. Come noto, il sistema atmosfera non è un laboratorio galileiano in senso stretto, in quanto è impossibile soddisfare l’esigenza di ripetibilità di un esperimento all’interno di un laboratorio “per definizione” non riproducibile. E’ solo merito della modellistica se è possibile oggi, in senso più ampio, compiere degli “esperimenti”, in genere chiamati “esperimenti numerici” all’interno di un “laboratorio virtuale” che simula l’atmosfera reale. E’ oggi possibile, grazie ai modelli di atmosfera trascritti su codici di calcolo e mediante l’uso di supercomputer, usare l’atmosfera del modello al posto della realtà ed eseguire al suo interno studi di sensitivity, valutando scenari diversi al variare di qualche parametro: possiamo alzare o abbassare montagne, modificare tipi di suolo e crearne diversi scenari di umidità, proporre forcing esterni diversi (ad esempio di gas serra), mutare l’input radiativo da parte del sole. E’ possibile con i modelli ri-creare artificialmente quel “laboratorio” che ogni scienza che si rispetti deve avere per il solo stesso fatto di essere classificata come scienza. Va da se che essendo una riproduzione della realtà, il laboratorio “modello GCM” non è la realtà. E quindi contiene delle inevitabili approssimazioni e, talvolta, anche gravi inesattezze. La domanda che ci si pone relativa alla legittimità di un loro uso è quindi fondata e merita una risposta non frettolosa.

Per rispondere è utile fare un parallelismo con i modelli che permettono ai previsori meteo di fare le previsioni del tempo e che sono parenti stretti dei GCM che si usano per il clima, almeno per quanto riguarda la forma dell’apparato matematico che li caratterizza (set di equazioni differenziali che descrivono i processi di conservazione di energia, momento, acqua e che caratterizzano la meccanica e termodinamica dell’atmosfera e degli oceani). Anche in questo caso i modelli numerici di previsione sono inesatti (Numerical Weather Prediction models, NWP, per saperne di più, ottimo è il link alle lecture notes di ECMWF).

Sussistono dei problemi di sensibilità ai valori iniziali a causa della non linearità delle equazioni che caratterizzano modelli del genere. La loro parte “adiabatica” (che descrive ad esempio le avvezioni di temperatura o di quantità di moto) è in genere meglio descritta dai processi “fisici”, quali ad esempio quelli che descrivono il trasporto di calore verso o dal suolo, la microfisica delle nubi, i processi radiativi, i fenomeni convettivi ecc.. Il risultato di queste incertezze descrittive si traduce in errori di previsione: capita quindi che tali modelli facciano piovere troppo o troppo poco oppure presentino errori di localizzazione, nello spazio e nel tempo, dei massimi di pioggia o di altre idrometeore come la neve, così come di anomalie del campo termico o anemologico. Certi fallimenti di previsione siano più frequenti in concomitanza di certe tipologie di configurazioni “bariche”, mentre in altre gli errori sono inferiori. Così come pure la qualità delle previsioni dipende in buona parte anche dalle stagioni.

C’è allora da chiedersi: ma i modelli NWP rappresentano bene la realtà ?

La risposta è, ineluttabilmente: talvolta si, talvolta no. E, con tale consapevolezza, è bene usare questi strumenti per fare le previsioni meteo? La risposta può essere, a mio parere, solo positiva. Oggi nessun previsore meteo al mondo può fare a meno di usare questi strumenti se si pone l’obiettivo di cercare di prevedere il tempo in maniera “quantitativa” su un orizzonte temporale di 2-10 giorni. A tal riguardo c’è anche da chiedersi cosa ne sarebbe della Scienza della Previsione del tempo se all’inizio degli anni ’50 Fjörtoft, Charney e von Neumann (Numerical integration of the barotropic vorticity equation; 1950, Tellus, 2, 237-254) non avessero proposto di usare la loro semplificata modellistica meteorologica usando un modello barotropico dell’atmosfera, che è un lontano antenato dei modelli a equazioni primitive che si usano oggi. Magari, se così non fosse stato, oggi saremmo ancora qui a parlare di…“presagi” e non invece, ad esempio, di previsioni quantitative di occorrenza di piogge in una data area e in un dato istante temporale. (Il materiale sulla storia della previsione numerica è praticamente infinito, suggerisco questa presentazione di Adrian Simmons, scaricabile dal sito di ECMWF: http://www.ecmwf.int/publications/unpublished/2006/temperton/pdf/simmons.pdf)

In ogni caso, pur con tutte le incertezze del caso su cui ho detto poco fa, con questi modelli “incerti” si possono fare, almeno in media, decorose previsioni meteo, in grado di permettere ai decisori…di decidere. E’ infatti grazie a questi “incerti” modelli che si producono le allerte per il sistema di Protezione Civile, ad esempio. E sono le previsioni di questi modelli che forniscono l’input ai modelli idrologici per la previsione delle piene fluviali, oppure a quelli della qualità dell’aria oppure dello stato del mare. La possibilità di prendere decisioni corrette è particolarmente rilevante, a mio parere, in questo contesto.

Con il nuovo approccio del “valore economico” delle previsioni meteo o delle simulazioni climatiche (Katz e Murphy, 2000: “Economic Value of Weather and Climate Forecasts”, Climate Change, volume 45, 1573-1480) il “focus” non è più solo dato tanto alla “Qualità” di una previsione (o di una simulazione climatica) ma anche (e forse più) al suo “Valore” o “Utilità”, che si traduce nella capacità di quella previsione (o di quella simulazione climatica) di far prendere ad un policymaker decisioni più corrette di quanto potrebbe fare senza ricorrere a questi supporti modellistici. In questa ottica e a parità di qualità, una previsione può essere di più alto o basso valore a seconda dell’utente a cui è diretta. Per chiarire il punto, ogni policymaker che deve assumere delle decisioni applica sempre un ragionamento di tipo costo/beneficio nel quale confronta i costi di un’azione mitigatrice di un danno potenziale causato, ad esempio, da un evento meteo pericoloso, con il costo del danno che potrebbe avere se non decidesse di applicare alcuna azione mitigatrice a contrasto di quell’evento meteo pericoloso previsto. Pertanto, la probabilità di occorrenza di un evento meteo pericoloso si compone con il rapporto tra il “Costo” dell’azione mitigatrice e il “Danno” causato dalla non azione e permette di ottimizzare la scelta.

Tornando ai modelli GCM del clima, al giorno d’oggi sappiamo abbastanza quali siano i loro limiti, gli errori sistematici, dove si collocano arealmente. In sostanza conosciamo abbastanza bene i limiti di utilizzo di questi strumenti. E sappiamo anche che con tutte le diversità e le incertezze che caratterizzano questi strumenti, accade lo stesso che per certi indicatori del clima molti GCM offrano scenari concordi e possano offrire simulazioni di accettabile “Valore”, e possono essere quindi già in grado di far prendere decisioni corrette. Ad esempio tutti i GCM prevedono globalmente un aumento considerevole di temperatura, nei prossimi decenni. Dovremmo tenerne conto in qualche modo? Si potrebbe obiettare che quello che è forse vero a scala globale è meno vero a scala regionale. Questa asserzione è abbastanza vera; tuttavia accade che su certe sotto-aree del pianeta (per non fare un esempio che ci tocchi: il Mediterraneo) gli stessi sistemi di modellazione globale dicano lo stesso cose analoghe. Ad esempio risulta incontrovertibile che il bacino del Mediterraneo avrà in futuro delle estati più calde e, parallelamente, una diminuzione delle piogge (si veda la figura sottostante, tratta dal cap. 11 dell’IPCC-AR4-WG1.


(Fonte: Figura 11.5 IPCC AR4-WG1-cap.11, pag.875)
Cambiamenti di temperatura e precipitazione in Europa da simulazioni di 21 Modelli Globali con scenario A1B. Riga in alto, da sinistra a destra: cambiamenti della temperatura (°C) media annuale, in Inverno (DJF) ed Estate tra il 1980-1999 e il 2080-2099, mediata sui 21 modelli. Riga in mezzo: come la riga in alto ma per il rapporto tra le precipitazioni (%) del 2080-2099 e quelle del periodo 1980-1999. Riga in basso: numero di modelli (sul totale di 21) in cui si prevede un aumento di precipitazione.

E quindi, stante l’informazione di possibili estati più calde e meno piovose, non si potrebbe iniziare a fare qualcosa di più per diminuire il rischio desertificazione in aree del sud-Italia ? Oppure, non abbiamo già sufficienti conoscenze per iniziare a proporre politiche di miglioramento nell’uso delle risorse idriche che potrebbero calare in uno scenario del genere? Oppure ancora non potremmo accelerare quelle azioni di salvaguardia del territorio finalizzate a minimizzare il rischio di alluvioni sui piccoli bacini idrografici italiani, visto che potremmo avere in futuro, con “buona probabilità”, delle piogge di più breve durata e di più elevata intensità? Sicuramente siamo già in grado di quantificare il rapporto costo/perdita di possibili azioni di adattamento o mitigazione alternative; è allora necessario comporre questa conoscenza con le probabilità di occorrenza, ancorché incerte, degli scenari climatici, per avere uno spettro di azioni da adottare che siano le più efficaci e utili possibile.

Tornando all’altro aspetto connesso al ruolo dello scienziato che viene toccato nell’intervista, che non è disgiunto dalle argomentazioni fatte sino ad ora, anche qui è necessario un approfondimento. Nell’intervista si afferma che se per un politico l’uso del principio di prudenza può anche essere cosa saggia, per uno scienziato così non dovrebbe essere. Egli deve basare le sue tesi solo su fatti certi e non su supposizioni incerte. Sulla base di questa asserzione mi riesce difficile capire a pieno quale sia il ruolo di uno scienziato oggi. E ancora, nel contesto delle problematiche aperte dal problema dei cambiamenti climatici, è bene che uno scienziato non usi un principio di precauzione nei suggerimenti che fornisce ai politici? E’ divenuta veramente così neutrale la scienza? Più ragionevolmente, io penserei invece che un principio di precauzione si debba sempre usare e debba basarsi su una concreta analisi di quel rapporto costo/danno di cui ho parlato prima. E quindi, ritornando alla discussione sull’uso dei modelli, anche tenendo conto delle incertezze che i sistemi di previsione oggi hanno, risulta prudente affermare che, pur essendo plausibile che qualcosa potrebbe accadere al sistema climatico ma non avendo adesso delle certezze, è corretto non fare nulla per mitigare gli impatti del Climate Change?

Ma avremo mai delle certezze?

Credo sia fuori discussione che l’intera storia della scienza abbia ormai sentenziato che non esistono delle certezze, ma che nel tempo la conoscenza evolve ed è possibile solo proporre delle migliori approssimazioni della realtà. Con Newton e la sua teoria della gravitazione universale si pensava ci fosse la spiegazione “di tutto”, poi è venuto Einstein e la relatività generale ha rimesso in discussione non poche di quelle certezze. E lo stesso si potrebbe dire della rivoluzione della meccanica quantica rispetto alle conoscenze classiche che sino all’inizio del novecento hanno dominato il pensiero scientifico globale.

In conclusione, può oggi uno scienziato dissociarsi dall’obbligo di entrare nel vivo delle decisioni su un tema come il Climate Change? E come potrebbe decidere un policymaker cosa fare se lo scienziato su cui si appoggia non prende posizione perché logorato dalla mancanza di certezze?

Testo di Carlo Cacciamani

31 responses so far

Un bel libro con una Prefazione poco aggiornata

Fra i libri più belli pubblicati negli ultimi anni sui cambiamenti climatici va senza dubbio citato “Piccola lezione sul clima” di Kerry Emanuel, professore di Scienze dell’Atmosfera al MIT di Cambridge.
immagine copertina libro KerryIl libro è la traduzione di un saggio di rara chiarezza e sintesi “Phaeton’s Reins. The human hand in climate change “, pubblicato su Boston Review all’inizio del 2007 (disponibile anche sul web qui o qui).
Il testo di Kerry è seguito da una Postfazione di Judith Layzer e William Moomaw, docenti di politiche ambientali al MIT e alla Tuft University, che in poche pagine forniscono una egualmente agevole e precisa rappresentazione del recente dibattito sulle politiche climatiche nel 2008.

Nella versione italiana la Prefazione è curata dal Prof. Franco Prodi, ex-direttore dell’istituto di scienza dell’atmosfera e del clima del Consiglio Nazionale delle ricerche (ISAC-CNR), contiene a mio parere diversi errori, descritti in seguito, con l’auspicio che, se condivisi dal Prof. Prodi stesso, possano essere corretti nelle future edizioni (si spera numerose) del libro.

1) (pag. 11) I range delle “previsioni”
“Quanto carente sia la conoscenza del sistema clima è quindi dimostrato dall’ampia forbice degli scenari prospettati alla fine di questo secolo, per la temperatura dell’aria (da uno a otto gradi), per l’innalzamento del livello dei mari (da pochi centimetri a metri), per parlare solo dei parametri più discussi”.

E’ un argomento già citato da Prodi (ad esempio qui), ma le cose non stanno proprio così: l’ampiezza della forbice non è dovuta solo alla carenza nell’incertezza del sistema clima, ma all’incertezza su quali saranno le emissioni di gas serra. Se infatti si guarda la famosa figura del Quarto Rapporto IPCC sulla proiezione delle temperature, si nota come una larga parte della variazione delle temperature è dovuta ai diversi scenari emissivi, alle emissioni di gas serra che avverranno nei prossimi decenni. link grafici IPCCL’incertezza dovuta alla conoscenza del sistema clima è grande per ogni scenario, ma è molto inferiore (vedasi figura sopra): la forbice data dalla prima deviazione standard intorno alla media è circa un grado, l’intervallo più probabile (linee grigie sulla sinistra) varia da 2 gradi dello scenario B1ai 4 gradi dello scenario A2.

2) (Pag. 14) “I modelli sono nella loro infanzia”
È una frase usata spesso nel passato per descrivere lo stato dei modelli climatici. Se ne trova traccia in famosi articoli di taglio negazionista (ad esempio Robinson et al., 1998: “Predictions of global warming are based on computer climate modeling, a branch of science still in its infancy”) o comunque sullo stato dei modelli di parecchi anni or sono. La storia della modellistica climatica è ormai trentennale, sono coinvolti decine di centri di ricerca di tutto il mondo. I modelli hanno da anni incluso parametrizzazioni per gli aerosol e le nubi; in modo insoddisfacente, migliorabile, ma se ne parla da anni e si potrebbe almeno dire che oggi sono nella loro adolescenza. Le incertezze sono ancora tante e quindi c’è ancora tanto da fare per i modellisti; ma se il termine “infanzia” significa la fase iniziale e primordiale dello sviluppo, già a fine anni ’90 i modelli climatici vi erano usciti.

3) (Pag. 15) Le temperature nella piccola era glaciale e nel periodo caldo medioevale
“Se consideriamo l’ultimo millennio, variazioni di poco superiori (probabilmente da 1 a 1,3 °C) hanno prodotto la piccola era glaciale (dal 1400 al 1850) ed il pericolo di riscaldamento conosciuto come “Optimum medioevale” (1000-1300)…”
La frase non è molto chiara perché non chiarisce rispetto a quale periodo sarebbero state le temperature superiori di 1-1,3°C. Probabilmente ci si riferisce alle temperature di inizio secolo, rispetto alle quali nelle pagine prime (Pag. 13 e 14) si cita un aumento di 1,3 per l’Italia e di 0,7 °C per il l’intero pianeta. Le ricostruzioni più accreditate forniscono range molto più limitati nelle variazioni delle temperature della piccola era glaciale e del periodo caldo medioevale, variazioni che hanno riguardato per lo più l’emisfero nord, e mostrano come l’attuale riscaldamento sia del tutto anomalo se confrontato con quello dei precedenti 1300 anni. L’ultima sintesi dell’IPCC recita “Le temperature medie nell’emisfero Nord durante la seconda metà del XX secolo sono state molto probabilmente più alte di qualsiasi altro periodo di 50 anni negli ultimi 500 anni e probabilmente le più alte almeno negli ultimi 1300 anni”.

4) (Pag. 18) Le concentrazioni di CO2
“È noto, poiché lo si misura con precisione, che il valore dell’anidride carbonica, ora intorno a 360 parti per milione, è aumentato del 31% dal 1750 ad oggi”.
Le concentrazioni di CO2 attuali non sono intorno a 360 ppm, ma intorno a 380 ppm, come del resto scrive Kerry nello stesso libro a pag. 42 e a pag. 77. Non si tratta di un refuso perché l’aumento del 31% porta proprio a 360 ppm; per arrivare a 380 ppm l’aumento è almeno del 35 %. Tralasciando il fatto che Kerry ha scritto il saggio nel 2006, e nel 2008 le concentrazioni di CO2 erano già di circa 384-385 ppm.
La concentrazione di 360 ppm di CO2 nell’atmosfera si è avuta intorno al 1995.

5) (Pag. 23) “Il protocollo di Kyoto, ora messo di nuovo in discussione…”
Come in un intervento dell’Ottobre 2008 il prof. Prodi descrive scenari di messa in discussione del Protocollo di Kyoto, oggi di fatto superati dal fatto che il Protocollo è entrato in vigore da quattro anni e lascerà fra pochi anni il posto ad un nuovo accordo internazionale, approvato probabilmente già tra pochi mesi nella COP15 a Copenhagen.

6) (Pag. 23-24) La somma incerta
Verso la fine della prefazione le incertezze presenti nella scienza del clima sono ancora sottolineate, laddove si legge di “…grave incertezza di scenario che caratterizza lo stato attuale della conoscenza”,  “…non si può ancora parlare di previsione climatica affidabile”, oppure “…non stupisce che vi siano scienziati che sostengono questo principio di precauzione e scienziati che vi si oppongono sulla base della considerazione che la scarsa conoscenza di alcuni addendi rende la somma incerta”.

Nella prefazione si trova anche in altri punti (es. pag. 11) una confusione fra previsione e proiezione (ossia fra previsioni di primo e di secondo tipo, si veda il precedente post). Come ben scrive anche Kerry (pag. 53-54) i modelli predittivi non riescono a garantire  affidabilità oltre le due settimane; ma altra cosa sono le proiezioni sul lungo periodo (es. 50 o 100 anni) del valore medio di alcuni parametri climatici.
Tali cautele sembrano eccessive se confrontate a quanto scrive Kerry nel successivo saggio, ad esempio “e dato che i rischi di conseguenze pesantemente sfavorevoli sono molto alti e che possiamo prevenirli, la prudenza ci dovrebbe indurre ad agire immediatamente”.

In conclusione, pur se l’analisi di Franco Prodi appare in alcuni aspetti poco aggiornata, si concorda pienamente con le prime e le ultime tre righe della Prefazione: quelle che la aprono (pag. 9) “Non capita spesso di imbattersi in uno scritto che si condivide a tal punto da desiderare di averlo scritto noi stessi”, e quelle che la chiudono (pag. 25), invitando alla lettura del libro di Kerry Emanuel, “alla sua prosa scientificamente impeccabile, ma anche piana ed accattivante”. Cosa non facile quando si parla di clima.

Testo di Stefano Caserini, con il contributo di Aldo Pozzoli

7 responses so far