Notizie e approfondimenti sul clima che cambiaPosts RSS Comments RSS

2 Giugno 2009

Due Appuntamenti

Categorie: Comunicazione, Dibattito  -  Postato da: 

Si svolgeranno questa settimana due incontri pubblici che hanno come tema le conoscenze e le incertezze sui cambiamenti climatici, il cuore dei contenuti di Climalteranti.it.
Tutti i lettori sono invitati, potrebbe essere un modo diverso per confrontarsi.

.


Giovedi’ 4 giugno a Parma

.

Intitolato “Leggende, errori e certezze  sul clima che cambia”, il seminario scientifico ha lo scopo di discutere le conoscenze scientifiche, i problemi aperti e la capacità previsionale in merito al clima che cambia.

Parteciperanno:

– Prof. Antonio Navarra, Direttore del Centro Euro-Mediterraneo per i Cambiamenti Climatici
– Ing. Stefano Caserini, Docente di Fenomeni di Inquinamento presso il Politecnico di Milano
– Prof. Giulio De Leo, Docente di Ecologia Applicata presso l’Università degli Studi di Parma

Seguirà tavola rotonda con numerosi partecipanti
Ore 15, Sala Aurea Camera di Commercio di Parma, Via Verdi 2.

.


Venerdi’ 5 giugno a Milano

.

Presentazione del libro “A qualcuno piace caldo”

Parteciperanno:

– Stefano Caserini, autore del libro, Politecnico di Milano
– Telmo Pievani, Università di Milano Bicocca
– Paolo Gabrielli, Ohio State University
– Amelia Beltramini, Ordine dei giornalisti di Milano
– Antonello Pasini, CNR Roma

Modera l’incontro Mario Grosso, Politecnico di Milano

Ore 13, Politecnico di Milano, Aula S01, Piazza Leonardo da Vinci 32.

.


7 commenti

22 Maggio 2009

Zichicche (n+1): i batteri dormiglioni

Categorie: Abbagli, Artico e Antartico, Emissioni, Esagerazioni, Ghiacci, Giornali, Offese, Titoli  -  Postato da: 

Riassunto

In questo post si narra di un’altra teoria del Prof. Zichichi priva di alcun fondamento scientifico, apparsa recentemente in prima pagina su un quotidiano nazionale pur essendo stata riciclata da un articolo di 4 anni prima. Chi non fosse al corrente dell’abitudine del prof. Zichichi ad affermazioni infondate sul problema dei cambiamenti climatici, potrebbe essere portato a credere che questo articolo, presentato da un giornale nazionale in prima pagina, possa avere un qualche fondamento, qualche collegamento con il dibattito scientifico sul clima.
L’articolo citato è invece un altro caso di disinformazione sul tema climatico, un’altra occasione perduta per informare correttamente su una materia che, per le sue implicazioni socio-economiche ed energetiche, è e sarà importante e cruciale per il futuro del nostro Paese.

.

L’aumento della concentrazione dei gas serra in atmosfera sarebbe dovuto alla respirazione dei batteri nei ghiacciai delle calotte polari. Questa è l’ultima  teoria, senza alcun fondamento scientifico, pubblicata sulla prima pagina de Il Giornale dello scorso 23 aprile (pag. 38 “Il G8 sul clima. Vi spiego chi sta barando sui gas serra”.
L’accusa è pesante:  ci sarebbe chi sta barando, chi (cioè gli scienziati di tutto il pianeta), pur sapendo come stanno davvero le cose, dice dell’altro, ingannando l’opinione pubblica e i governi di tutto il mondo. Questa teoria, è sostenuta dal Prof. Antonino Zichichi che molto si è speso negli ultimi anni per confutare con ogni mezzo le evidenze dei cambiamenti climatici.

Una novità su cui imperversa il silenzio dei media
Dopo una rapida spiegazione del principio delle “sorgenti” e dei “pozzi” di CO2 e di gas serra,  Zichichi arriva alla spiegazione di quello che per lui sarebbe un inganno mondiale: “Ed ecco una novità su cui imperversa il silenzio dei media. Nessuno finora aveva pensato che potessero partecipare al bilancio dei gas-serra anche le calotte polari”. Continua a leggere…


Tags: , ,
56 commenti

13 Maggio 2009

I modelli del clima e la gestione dell’incertezza

Categorie: Adattamento, Incertezza, Meteorologia, Modelli Climatici, Previsioni, Proiezioni  -  Postato da: 

Riassunto

Si discute in questo post dell’utilità dei modelli di simulazione del clima. Pur con le incertezze che caratterizzano le simulazioni climatiche, alcuni risultati prodotti dai GCM hanno una chiara e dimostrabile solidità. Hanno quindi un “valore”, nel senso che potrebbero permettere, da subito, di proporre azioni di adattamento per mitigare alcuni degli impatti negativi del cambiamento climatico, almeno in quelle aree del pianeta dove i risultati delle simulazioni sembrano essere più certi.

 

 

L’intervista di Giuliano Ferrara a Franco Prodi e Fulco Pratesi recentemente trasmessa da Radio 24 offre lo spunto per qualche riflessione su alcuni dei temi affrontati, che vanno dalla affidabilità degli strumenti in uso per la modellazione del Clima sino al ruolo degli scienziati nel contesto del dibattito sui cambiamenti climatici. Userò in questo post le tesi espresse durante l’intervista solo come pretesto per approfondire la discussione, senza alcuna intenzione di alimentare polemiche che a mio avviso non servono molto per la crescita delle conoscenze. Il tema centrale è quello di capire come debbano essere gestite le incertezze proprie degli strumenti della modellistica del clima al fine di fornire delle simulazioni Utili e di “Valore” (nel seguito svilupperò tale concetto) e che permettano ai policy-makers di scegliere ottimali azioni di adattamento e di mitigazione agli impatti del cambiamento climatico.

In sostanza nell’intervista Franco Prodi afferma che i General Circulation Model (GCM) sono ancora indietro ed incapaci di rappresentare le complessità del sistema integrato Atmosfera, Biosfera, Idrosfera. E quindi le simulazioni climatiche che ne derivano sono incerte e insicure e quindi con questi strumenti è molto difficile prendere decisioni. Sto sicuramente schematizzando ma mi sembra che il succo del discorso sia più o meno questo.

Alcune contestazioni possono essere fatte a queste tesi. Innanzi tutto non rappresentano bene la realtà attuale dei GCM e sembrano essere anche un po’ datate, nel senso che non fanno giustizia del grande processo di miglioramento percorso nel campo della modellistica climatica in questi ultimi 15-20 anni (si guardi ad esempio ai risultati del progetto Ensembles finanziato dalla Unione Europea). In seconda battuta viene anche da chiedersi come ci si potrebbe muovere in questo settore senza utilizzare i GCM, pur con tutte le loro incertezze, nonché con tutti i sistemi di regionalizzazione del clima, siano essi di natura deterministica (i modelli regionali del clima, RCM, vedasi la home page del progetto UE-Prudence: http://prudence.dmi.dk/) piuttosto che dinamico-statistica (vedasi la homepage del progetto EU Stardex: http://www.cru.uea.ac.uk/cru/projects/stardex/).

Per di più, frenando l’uso della modellistica globale in quanto ancora “acerba” nel suo livello di descrizione delle complessità del sistema Atmosfera-idrosfera-biosfera, viene da chiedersi come si possa allo stesso tempo sperare di poter disporre in un qualche futuro di quell’ “earth model” a cui si fa riferimento nell’intervista, in grado di fornire quelle “certezze” che oggi non abbiamo. Sempre schematizzando, se comprendo bene le argomentazioni di FP, un modello del clima, per poter essere usato, dovrebbe essere sostanzialmente “perfetto”, nel senso che dovrebbe rappresentare “tutti” i processi fisici presenti in atmosfera, “tutti” i feedback, “tutte” le non linearità, “tutte” le scale di moto. Se così stanno i termini del problema, c’è qualche speranza di successo in questa pretesa di perfezione ?

Intanto la prima cosa da chiedersi è perché si usano i modelli e se si potrebbe farne a meno.

Per sviluppare il ragionamento devo fare una piccola digressione, tornando un attimo all’abc della fisica dell’atmosfera. Come noto, il sistema atmosfera non è un laboratorio galileiano in senso stretto, in quanto è impossibile soddisfare l’esigenza di ripetibilità di un esperimento all’interno di un laboratorio “per definizione” non riproducibile. E’ solo merito della modellistica se è possibile oggi, in senso più ampio, compiere degli “esperimenti”, in genere chiamati “esperimenti numerici” all’interno di un “laboratorio virtuale” che simula l’atmosfera reale. E’ oggi possibile, grazie ai modelli di atmosfera trascritti su codici di calcolo e mediante l’uso di supercomputer, usare l’atmosfera del modello al posto della realtà ed eseguire al suo interno studi di sensitivity, valutando scenari diversi al variare di qualche parametro: possiamo alzare o abbassare montagne, modificare tipi di suolo e crearne diversi scenari di umidità, proporre forcing esterni diversi (ad esempio di gas serra), mutare l’input radiativo da parte del sole. E’ possibile con i modelli ri-creare artificialmente quel “laboratorio” che ogni scienza che si rispetti deve avere per il solo stesso fatto di essere classificata come scienza. Va da se che essendo una riproduzione della realtà, il laboratorio “modello GCM” non è la realtà. E quindi contiene delle inevitabili approssimazioni e, talvolta, anche gravi inesattezze. La domanda che ci si pone relativa alla legittimità di un loro uso è quindi fondata e merita una risposta non frettolosa.

Per rispondere è utile fare un parallelismo con i modelli che permettono ai previsori meteo di fare le previsioni del tempo e che sono parenti stretti dei GCM che si usano per il clima, almeno per quanto riguarda la forma dell’apparato matematico che li caratterizza (set di equazioni differenziali che descrivono i processi di conservazione di energia, momento, acqua e che caratterizzano la meccanica e termodinamica dell’atmosfera e degli oceani). Anche in questo caso i modelli numerici di previsione sono inesatti (Numerical Weather Prediction models, NWP, per saperne di più, ottimo è il link alle lecture notes di ECMWF).

Sussistono dei problemi di sensibilità ai valori iniziali a causa della non linearità delle equazioni che caratterizzano modelli del genere. La loro parte “adiabatica” (che descrive ad esempio le avvezioni di temperatura o di quantità di moto) è in genere meglio descritta dai processi “fisici”, quali ad esempio quelli che descrivono il trasporto di calore verso o dal suolo, la microfisica delle nubi, i processi radiativi, i fenomeni convettivi ecc.. Il risultato di queste incertezze descrittive si traduce in errori di previsione: capita quindi che tali modelli facciano piovere troppo o troppo poco oppure presentino errori di localizzazione, nello spazio e nel tempo, dei massimi di pioggia o di altre idrometeore come la neve, così come di anomalie del campo termico o anemologico. Certi fallimenti di previsione siano più frequenti in concomitanza di certe tipologie di configurazioni “bariche”, mentre in altre gli errori sono inferiori. Così come pure la qualità delle previsioni dipende in buona parte anche dalle stagioni.

C’è allora da chiedersi: ma i modelli NWP rappresentano bene la realtà ?

La risposta è, ineluttabilmente: talvolta si, talvolta no. E, con tale consapevolezza, è bene usare questi strumenti per fare le previsioni meteo? La risposta può essere, a mio parere, solo positiva. Oggi nessun previsore meteo al mondo può fare a meno di usare questi strumenti se si pone l’obiettivo di cercare di prevedere il tempo in maniera “quantitativa” su un orizzonte temporale di 2-10 giorni. A tal riguardo c’è anche da chiedersi cosa ne sarebbe della Scienza della Previsione del tempo se all’inizio degli anni ’50 Fjörtoft, Charney e von Neumann (Numerical integration of the barotropic vorticity equation; 1950, Tellus, 2, 237-254) non avessero proposto di usare la loro semplificata modellistica meteorologica usando un modello barotropico dell’atmosfera, che è un lontano antenato dei modelli a equazioni primitive che si usano oggi. Magari, se così non fosse stato, oggi saremmo ancora qui a parlare di…“presagi” e non invece, ad esempio, di previsioni quantitative di occorrenza di piogge in una data area e in un dato istante temporale. (Il materiale sulla storia della previsione numerica è praticamente infinito, suggerisco questa presentazione di Adrian Simmons, scaricabile dal sito di ECMWF: http://www.ecmwf.int/publications/unpublished/2006/temperton/pdf/simmons.pdf)

In ogni caso, pur con tutte le incertezze del caso su cui ho detto poco fa, con questi modelli “incerti” si possono fare, almeno in media, decorose previsioni meteo, in grado di permettere ai decisori…di decidere. E’ infatti grazie a questi “incerti” modelli che si producono le allerte per il sistema di Protezione Civile, ad esempio. E sono le previsioni di questi modelli che forniscono l’input ai modelli idrologici per la previsione delle piene fluviali, oppure a quelli della qualità dell’aria oppure dello stato del mare. La possibilità di prendere decisioni corrette è particolarmente rilevante, a mio parere, in questo contesto.

Con il nuovo approccio del “valore economico” delle previsioni meteo o delle simulazioni climatiche (Katz e Murphy, 2000: “Economic Value of Weather and Climate Forecasts”, Climate Change, volume 45, 1573-1480) il “focus” non è più solo dato tanto alla “Qualità” di una previsione (o di una simulazione climatica) ma anche (e forse più) al suo “Valore” o “Utilità”, che si traduce nella capacità di quella previsione (o di quella simulazione climatica) di far prendere ad un policymaker decisioni più corrette di quanto potrebbe fare senza ricorrere a questi supporti modellistici. In questa ottica e a parità di qualità, una previsione può essere di più alto o basso valore a seconda dell’utente a cui è diretta. Per chiarire il punto, ogni policymaker che deve assumere delle decisioni applica sempre un ragionamento di tipo costo/beneficio nel quale confronta i costi di un’azione mitigatrice di un danno potenziale causato, ad esempio, da un evento meteo pericoloso, con il costo del danno che potrebbe avere se non decidesse di applicare alcuna azione mitigatrice a contrasto di quell’evento meteo pericoloso previsto. Pertanto, la probabilità di occorrenza di un evento meteo pericoloso si compone con il rapporto tra il “Costo” dell’azione mitigatrice e il “Danno” causato dalla non azione e permette di ottimizzare la scelta.

Tornando ai modelli GCM del clima, al giorno d’oggi sappiamo abbastanza quali siano i loro limiti, gli errori sistematici, dove si collocano arealmente. In sostanza conosciamo abbastanza bene i limiti di utilizzo di questi strumenti. E sappiamo anche che con tutte le diversità e le incertezze che caratterizzano questi strumenti, accade lo stesso che per certi indicatori del clima molti GCM offrano scenari concordi e possano offrire simulazioni di accettabile “Valore”, e possono essere quindi già in grado di far prendere decisioni corrette. Ad esempio tutti i GCM prevedono globalmente un aumento considerevole di temperatura, nei prossimi decenni. Dovremmo tenerne conto in qualche modo? Si potrebbe obiettare che quello che è forse vero a scala globale è meno vero a scala regionale. Questa asserzione è abbastanza vera; tuttavia accade che su certe sotto-aree del pianeta (per non fare un esempio che ci tocchi: il Mediterraneo) gli stessi sistemi di modellazione globale dicano lo stesso cose analoghe. Ad esempio risulta incontrovertibile che il bacino del Mediterraneo avrà in futuro delle estati più calde e, parallelamente, una diminuzione delle piogge (si veda la figura sottostante, tratta dal cap. 11 dell’IPCC-AR4-WG1.


(Fonte: Figura 11.5 IPCC AR4-WG1-cap.11, pag.875)
Cambiamenti di temperatura e precipitazione in Europa da simulazioni di 21 Modelli Globali con scenario A1B. Riga in alto, da sinistra a destra: cambiamenti della temperatura (°C) media annuale, in Inverno (DJF) ed Estate tra il 1980-1999 e il 2080-2099, mediata sui 21 modelli. Riga in mezzo: come la riga in alto ma per il rapporto tra le precipitazioni (%) del 2080-2099 e quelle del periodo 1980-1999. Riga in basso: numero di modelli (sul totale di 21) in cui si prevede un aumento di precipitazione.

E quindi, stante l’informazione di possibili estati più calde e meno piovose, non si potrebbe iniziare a fare qualcosa di più per diminuire il rischio desertificazione in aree del sud-Italia ? Oppure, non abbiamo già sufficienti conoscenze per iniziare a proporre politiche di miglioramento nell’uso delle risorse idriche che potrebbero calare in uno scenario del genere? Oppure ancora non potremmo accelerare quelle azioni di salvaguardia del territorio finalizzate a minimizzare il rischio di alluvioni sui piccoli bacini idrografici italiani, visto che potremmo avere in futuro, con “buona probabilità”, delle piogge di più breve durata e di più elevata intensità? Sicuramente siamo già in grado di quantificare il rapporto costo/perdita di possibili azioni di adattamento o mitigazione alternative; è allora necessario comporre questa conoscenza con le probabilità di occorrenza, ancorché incerte, degli scenari climatici, per avere uno spettro di azioni da adottare che siano le più efficaci e utili possibile.

Tornando all’altro aspetto connesso al ruolo dello scienziato che viene toccato nell’intervista, che non è disgiunto dalle argomentazioni fatte sino ad ora, anche qui è necessario un approfondimento. Nell’intervista si afferma che se per un politico l’uso del principio di prudenza può anche essere cosa saggia, per uno scienziato così non dovrebbe essere. Egli deve basare le sue tesi solo su fatti certi e non su supposizioni incerte. Sulla base di questa asserzione mi riesce difficile capire a pieno quale sia il ruolo di uno scienziato oggi. E ancora, nel contesto delle problematiche aperte dal problema dei cambiamenti climatici, è bene che uno scienziato non usi un principio di precauzione nei suggerimenti che fornisce ai politici? E’ divenuta veramente così neutrale la scienza? Più ragionevolmente, io penserei invece che un principio di precauzione si debba sempre usare e debba basarsi su una concreta analisi di quel rapporto costo/danno di cui ho parlato prima. E quindi, ritornando alla discussione sull’uso dei modelli, anche tenendo conto delle incertezze che i sistemi di previsione oggi hanno, risulta prudente affermare che, pur essendo plausibile che qualcosa potrebbe accadere al sistema climatico ma non avendo adesso delle certezze, è corretto non fare nulla per mitigare gli impatti del Climate Change?

Ma avremo mai delle certezze?

Credo sia fuori discussione che l’intera storia della scienza abbia ormai sentenziato che non esistono delle certezze, ma che nel tempo la conoscenza evolve ed è possibile solo proporre delle migliori approssimazioni della realtà. Con Newton e la sua teoria della gravitazione universale si pensava ci fosse la spiegazione “di tutto”, poi è venuto Einstein e la relatività generale ha rimesso in discussione non poche di quelle certezze. E lo stesso si potrebbe dire della rivoluzione della meccanica quantica rispetto alle conoscenze classiche che sino all’inizio del novecento hanno dominato il pensiero scientifico globale.

In conclusione, può oggi uno scienziato dissociarsi dall’obbligo di entrare nel vivo delle decisioni su un tema come il Climate Change? E come potrebbe decidere un policymaker cosa fare se lo scienziato su cui si appoggia non prende posizione perché logorato dalla mancanza di certezze?

Testo di Carlo Cacciamani


Tags: , , , ,
31 commenti

9 Maggio 2009

Le variazioni climatiche durante l’ultimo milione di anni: mandanti, killer e alibi (seconda parte)

Categorie: Artico e Antartico, Ghiacci, Oceani, Paleoclimatologia, Proxy, Temperature  -  Postato da: 

Nella prima parte di questo post abbiamo individuato i “mandanti” delle variazioni climatiche durante l’ultimo milione di anni (variazioni dei parametri orbitali). Cercheremo ora di analizzare le possibili dinamiche interne con cui avvengono questi cambiamenti climatici.

Le variazioni dell’albedo terrestre (l’energia solare riflessa dal pianeta) sono causate dall’espansione e dal ritiro delle grandi calotte di ghiaccio (superfici riflettenti fino al 90% dell’energia solare incidente) presenti nell’emisfero settentrionale durante i periodi glaciali, la calotta nordamericana della Laurentide (Fig. 1) e la calotta Scandinava, nonché dalle variazioni del livello dei mari (più scuri e quindi maggiormente assorbenti  rispetto alle terre emerse). La Groenlandia e l’Antartide non hanno invece giocato un ruolo determinante nella variazione dell’albedo terrestre in quanto le carote di ghiaccio hanno fornito prova diretta che ambedue le calotte di ghiaccio sono persistite durante il presente ed i passati periodi interglaciali, sfatando in questo modo anche il mito della “Groenlandia verde” medievale. Le variazioni di anidride carbonica in atmosfera nell’ultimo milione di anni sono avvenute invece in conseguenza del confinamento sul fondo degli oceani durante i periodi glaciali e del rilascio in atmosfera durante i periodi interglaciali. Le variazioni di metano invece si sono verificate in conseguenza dell’attività biologica più/meno intensa nelle zone umide della fascia intertropicale e boreale del pianeta durante i periodi caldi/freddi.


Fig. 1: Ritiro della calotta glaciale Nord Americana della Laurentide durante l’ultima deglaciazione.

Uno dei meccanismi classici che spiega le variazioni climatiche su scala orbitale suggerisce che variazioni dell’inclinazione e della direzione dell’asse terrestre avrebbero ridistribuito ciclicamente l’energia solare sull’emisfero nord in modo da indurre la formazione oppure la fusione delle grandi calotte di ghiaccio nordamericana e scandinava. Questo avrebbe causato una significativa variazione dell’albedo globale che avrebbe modificato mediante un’azione di feedback il bilancio energetico planetario e quindi la temperatura globale. Questa variazione di temperatura avrebbe a sua volta modificato i flussi di anidride carbonica e di metano dalle “sorgenti” (gli oceani e le zone umide) verso i “pozzi” (gli oceani ed i processi ossidativi di conversione), causando variazioni della loro concentrazione atmosferica che avrebbero amplificato la variazione iniziale di temperatura con un’ulteriore azione di feedback.

Le carote di ghiaccio dell’Antartide evidenziano il legame strettissimo che esiste tra le variazioni di temperatura e dei gas serra (Fig. 2 post precedente). Tuttavia, come abbiamo visto, analizzando nel dettaglio questi record si è notato che le variazioni di temperatura precedono di 800 ± 600 anni le variazioni di concentrazione di anidride carbonica durante l’ultima fase di deglaciazione. Questo fatto viene spesso erroneamente indicato come un “alibi” sufficiente per scagionare l’anidride carbonica dal suo ruolo di “killer” nel produrre i cambiamenti climatici su scala orbitale (come discusso su Climalteranti anche qui). Tuttavia questo ritardo sarebbe in accordo col meccanismo classico secondo il quale le variazioni di concentrazione dell’anidride carbonica in atmosfera seguirebbero le variazioni di temperatura indotte dalle variazioni dell’albedo e con il fatto che il rilascio dagli oceani dell’anidride carbonica avverrebbe su tempi dell’ordine delle diverse centinaia di anni.

Se ci sono ormai pochi dubbi su quali siano i “mandanti” ed i “killer” su una scala temporale orbitale, esistono però molti punti di domanda relativi alla dinamica e alla successione dei fatti. Una pecca emergente del meccanismo classico illustrato è che, osservando diversi record climatici, si desumerebbe che alla fine dell’ultima epoca glaciale (20 mila anni fa), l’Antartide avrebbe cominciato a riscaldarsi prima della Groenlandia mettendo in crisi il ruolo di guida dell’emisfero nord. Oggi si stanno valutando dei meccanismi alternativi tra i quali alcuni punterebbero l’attenzione su una ridistribuzione orbitale del flusso dell’energia solare alle basse latitudini, il quale avrebbe causato uno spostamento delle fasce tropicali e temperate. Una dislocazione verso nord avrebbe accresciuto il sollevamento delle polveri continentali ed il loro fallout nell’Oceano Meridionale. Questo, fertilizzato, avrebbe visto incrementare i processi fotosintetici assorbendo in questo modo più anidride carbonica dall’atmosfera con una conseguente diminuzione della temperatura terrestre (iron hypothesis). Secondo una recentissima ipotesi una dislocazione opposta delle fasce tropicali e temperate verso sud avrebbe invece interrotto il fallout di polveri continentali e indotto, attraverso l’azione dei venti occidentali, un processo di upwelling delle acque profonde circolanti attorno all’Antartide, le quali avrebbero rilasciato in atmosfera l’eccesso di anidride carbonica conservata nelle profondità oceaniche durante i periodi glaciali, causando quindi un aumento di temperatura. Ambedue questi processi potrebbero poi essere stati amplificati da successive variazioni dell’albedo.

In conclusione, solo la combinazione delle azioni di feedback (indotte dalle variazioni orbitali) dell’albedo e ai gas serra riesce a spiegare le più importanti variazioni di temperatura avvenute durante gli ultimi cicli climatici ma la successione degli eventi ed i meccanismi con cui questo è avvenuto sono ancora da chiarire. Oggi l’anidride carbonica ed il metano hanno raggiunto dei livelli di concentrazione in atmosfera che non sono mai stati riscontrati durante gli ultimi 800 mila anni nelle carote di ghiaccio dell’Antartide (Fig. 2, post precedente). Le analisi isotopiche dei gas serra presenti in atmosfera e nelle carote di ghiaccio indicano in maniera inequivocabile che l’uomo è il responsabile di questa anomalia.


Fig. 2: L’entrata del passaggio di Nord Ovest libera dai ghiacci nell’agosto del 2006.

Citando Stefano Caserini, se A qualcuno (non) piace(sse) caldo ma…. caldissimo, la storia climatica del nostro pianeta suggerisce che avremmo perfino un altro modo per scaldare ulteriormente il pianeta. Virtualmente si potrebbe pensare di liberare il mare Artico dai ghiacci in modo da diminuire l’albedo del pianeta, aumentando l’assorbimento dell’energia solare e quindi la temperatura globale. Ecco quindi come un processo tipicamente di feedback rispondente ad una causa primaria orbitale diverrebbe una causa primaria di origine antropogenica. Meglio probabilmente continuare ad emettere anidride carbonica attraverso la combustione dei gas fossili: un meccanismo che sembra garantire il massimo risultato con il minimo sforzo.

Testo di Paolo Gabrielli.


Tags:
29 commenti

6 Maggio 2009

Le variazioni climatiche durante l’ultimo milione di anni: mandanti, killer e alibi (prima parte)

Categorie: Artico e Antartico, Paleoclimatologia, Proxy, Temperature  -  Postato da: 

Il luogo climaticamente più ostile del pianeta è probabilmente l’Antartide Orientale. Qui le temperature medie annuali sono dell’ordine di -55 ºC e le precipitazioni di circa 2-3 cm di acqua equivalente all’anno. Nonostante l’Antartide sia un vero e proprio deserto, in diversi milioni di anni si è sviluppata una calotta di ghiaccio che è spessa fino a 4 km.

Le scarse precipitazioni nevose, accumulandosi anno dopo anno, si sono trasformate in ghiaccio conservando memoria delle caratteristiche dell’atmosfera al momento della loro deposizione. Le carote di ghiaccio estratte dalla calotta antartica sono dei cilindri di circa 10 cm di diametro e lunghi fino ad oltre 3 km. Queste costituiscono un vero e proprio archivio di informazioni climatiche ed ambientali fino a circa 1 milione di anni fa.

Nel ghiaccio dell’Antartide, la temperatura locale nelle epoche passate è ricavabile dalla misura degli isotopi stabili di ossigeno e idrogeno; le condizioni idrologiche nei vicini continenti nonché l’intensità della circolazione atmosferica dalle polveri eoliche intrappolate; le caratteristiche degli altri aerosol dagli ioni maggiori e dagli elementi in traccia. Tuttavia le informazioni più peculiari fornite dalle carote sono conservate in bollicine d’aria intrappolate nel ghiaccio nelle quali si possono determinare le concentrazioni dei gas serra, tra cui l’anidride carbonica ed il metano, nell’atmosfera del passato.


Fig. 1 Dome C, Antartide Orientale. Posto a 3200 m di quota, questo sito è stato teatro del progetto europeo di perforazione della calotta antartica (EPICA) grazie anche al supporto del Progetto Nazionale per le Ricerche in Antartide (PNRA).

I gas serra rimangono intrappolati nel ghiaccio in maniera particolare in quanto penetrano lo strato superficiale di firn (neve trasformata caratterizzata da alta porosità) e attraverso complessi processi di diffusione giungono fino al cosiddetto punto di “close off” (a circa 50-120 m di profondità in questi ghiacci), ove in seguito alla quasi completata trasformazione in ghiaccio, i pori di firn si occludono intrappolando le bolle d’aria e con loro i gas serra. Ne segue che il ghiaccio nel quale si misurano gli isotopi stabili, indicatori della temperatura, è più vecchio dei gas serra anche di diverse migliaia di anni.

A causa di questa differenza di età, l’età dei gas è soggetta ad una correzione che comporta un’incertezza di circa 600 anni che, come vedremo, é quasi pari al reale ritardo del record dell’anidride carbonica rispetto a quello della temperatura pari a 800 anni. Uno studio recente mostra tuttavia come in realtà un ritardo di 800 anni sia con ogni probabilità sovrastimato. La questione è ancora da dirimere completamente ma, se da una parte si esclude che le variazioni dei gas serra anticipino quelle di temperatura, a questo punto non si può escludere che queste siano in realtà sostanzialmente sincrone.

Comparando gli andamenti della temperatura e dei gas serra su una scala temporale dell’ordine delle diverse centinaia di migliaia di anni, quello che salta subito all’occhio (Fig. 2) è la loro grande variabilità e nello stesso tempo la loro marcata correlazione. In questi record si alternano cicli della durata di circa 100 mila anni composti da una modalità standard più fredda (periodi glaciali, 70-90 mila anni ) e di un’altra breve e più calda (periodi interglaciali, 10-30 mila anni). Facendo un’analisi delle frequenze principali che compongono questi andamenti si trova che sono costituiti sostanzialmente dalla combinazione di tre cicli di circa 100, 40 e 20 mila anni. Questi cicli, previsti da Milankovitch fin dal 1930, corrispondo a delle variazioni orbitali estremamente regolari e prevedibili a cui è soggetto il nostro pianeta, dovute ad interazioni gravitazionali con gli altri pianeti (rispettivamente, la variazione dell’eccentricità dell’orbita terrestre, dell’inclinazione e della direzione dell’asse terrestre nello spazio). Queste variazioni orbitali costituiscono la causa prima delle variazioni climatiche su questa scala temporale, definita per l’appunto orbitale.


Fig. 2 – Il progetto EPICA ha ricostruito le variazioni di temperatura dell’Antartide e delle concentrazioni di anidride carbonica (in parti per milione) e di metano (in parti per miliardo) in atmosfera fino a quasi un milione di anni fa.

Nonostante le variazioni di temperatura registrate durante gli ultimi cicli climatici (non solo nelle carote di ghiaccio polari ma anche in molti altri archivi climatici estratti a diverse latitudini) siano molto ampie, queste possono essere state influenzate solo in minima parte dalle variazioni dell’energia solare entrante nel sistema terrestre. I cicli di 40 e 20 mila anni relativi all’inclinazione e alla direzione dell’asse terrestre non possono infatti influenzare l’input globale di energia solare ma ne ridistribuiscono unicamente il flusso in funzione della latitudine. Solamente il ciclo di 100 mila anni legato all’eccentricità è in grado di produrre una piccola variazione dell’energia solare intercettata dal nostra pianeta. Tuttavia questa non è in grado di spiegare la larga oscillazione di temperatura (6 ºC circa a livello globale) registrata ogni 100 mila anni al termine dei periodi glaciali. Curiosamente il ciclo climatico di 100 mila anni ha fatto misteriosamente la sua comparsa solamente 1 milione di anni fa (Mid-Pleistocene revolution). Questo ciclo non costituisce dunque una modalità standard nella storia climatica del nostro pianeta, a differenza dei cicli di 40 e 20 mila anni che hanno invece caratterizzato il clima terrestre per diversi milioni di anni.

Se le variazioni dell’energia solare in entrata nel sistema terrestre non sono in grado di spiegare l’ampiezza delle fluttuazioni globali di temperatura ricorrenti ogni 100 mila anni, ne possono essere collegate ai cicli di 40 e 20 mila anni, le cause principali della variabilità climatica su scala orbitale, vanno ricercate nelle variazioni dell’energia in uscita dal nostro pianeta. Ecco allora che entrano in azione delle componenti interne al sistema terrestre che, sollecitate dalle tre cause primarie orbitali evidenziate, sono in grado di influenzarne il bilancio energetico globale mediante le cosiddette azioni di feedback. Le componenti interne più importanti sono le variazioni dell’albedo (l’energia solare riflessa dal pianeta) e delle concentrazioni dei gas serra in atmosfera.

Dopo aver individuato i “mandanti” orbitali delle variazioni climatiche durante l’ultimo milione di anni, nella seconda parte di questo post cercheremo di ricostruire le possibili dinamiche di questi cambiamenti.

Testo di Paolo Gabrielli.


Tags:
19 commenti

1 Maggio 2009

99 Mesi ?!?

Categorie: Catastrofismo, Esagerazioni, Tipping point  -  Postato da: 

A volte capita di sentire qualcuno che sostiene la necessità di azioni urgenti contro i cambiamenti climatici, usando però argomenti poco fondati. È il caso del Principe Carlo d’Inghilterra, che nella sua recente visita in Italia ha tenuto un discorso di 30 minuti nella Sala della Lupa della Camera dei Deputati, in cui ha sostenuto in modo deciso la necessità della lotta ai cambiamenti climatici e di un futuro accordo nella prossima Conferenza sul clima di Copenaghen a dicembre.

Pur se molti dei frammenti del discorso filtrati da stampa e televisione sembrano essere del tutto condivisibili (ad esempio “La storia ci giudicherà per come il mondo avrà affrontato questa sfida”), ci lascia perplessi una frase pronunciata da Carlo, secondo cui rimangono solo “99 mesi prima di raggiungere il punto di non ritorno”.
La frase ha avuto un grande successo ed è subito ribalzata sui media con titoli come “99 mesi per salvare la Terra”, “Restano 99 mesi per salvare la Terra”, “Tra 99 mesi la catastrofe mondiale“. Pur se non siamo riusciti a trovare il discorso originale, da frasi come “il tempo scorre inesorabilmente: 99 mesi passeranno in un lampo e allora sarà troppo tardi per salvare la situazione” e “Il mese scorso, in Brasile, ho avvertito che le prove scientifiche indicano che abbiamo meno di cento mesi prima che saremo davanti al nostro Rubicone, e non ci sarà ritorno. Ora abbiamo solo 99 mesi prima di raggiungere il punto di non ritorno, con decisioni che determineranno il nostro futuro. Le lancette avanzano inesorabilmente; 99 mesi passeranno in un lampo”  sembra che sia chiaro: il Principe ha parlato proprio di 99 mesi.
99 mesi sono una cifra strana, corrispondono a 8 anni e 3 mesi. Fra 99 mesi saremo all’inizio dell’agosto 2017. Cosa succederà in tale data? L’idea che il tempo a disposizione sia così breve nasce, in realtà, da un articolo di carattere divulgativo, non supportato da particolari attività di ricerca scientifica ma solo dall’applicazione di un semplice modello, verosimilmente troppo semplice per lo scopo che vuole raggiungere, e comunque mai pubblicato su riviste peer-reviewed. La associazione Green New Deal Group ha lanciato questa idea nel luglio 2008 mentre una brevissima spiegazione tecnica si trova su questo sito. Scorrendo quest’ultimo documento, si nota come il conteggio si riferisca ad un istante di partenza stimato al 1° agosto 2008: l’ipotetico potenziale giorno X è quindi facilmente identificabile nel 30 novembre –1° dicembre 2016, ed il tempo mancante da tale data è continuamente aggiornato sul sito http://onehundredmonths.org/; da questo conteggio si può anche capire che, ormai, i mesi sono scesi a 92 circa, per cui Carlo è in ritardo di 7 mesi.
Ma cosa succederà esattamente in tale data e, soprattutto, come ci si arriva? Nel documento ci sono diversi riferimenti generici alle stime dell’IPCC, ma in realtà il punto principale è il raggiungimento del livello di concentrazione di 400 ppm di biossido di carbonio equivalente, che viene fatto corrispondere ad un incremento di temperatura media del pianeta pari a 2°C rispetto ai valori preindustriali. Il modello, tramite una stima semplificata delle emissioni previste nei prossimi anni e della relativa crescita dei valori di concentrazione, esegue pertanto una semplice regressione che porta a quella data.
Sono diversi i fattori che lasciano perplessi in questo modello (tra le altre cose il fatto che il valore di CO2 equivalente sia appunto inferiore a quello di CO2 reale), ma il più importante è l’asserzione che il valore di 400 ppm di CO2 equivalente rappresenti un punto di non ritorno per il sistema climatico, affermazione non supportata da alcuno studio scientifico.

 

 

Il tema della presenza di non linearità nel sistema climatico è una cosa seria e molto complessa: sono usciti alcuni lavori molto importanti (si veda ad esempio qui e qui, ma in nessuno di questi sono presenti delle quantificazioni di cifre così precise. Ci sono diverse parti del sistema climatico (i ghiacci artici, la calotta di ghiaccio della Groenlandia, la foresta amazzonica, la foresta boreale, la circolazione oceanica ecc) che possono raggiungere soglie critiche, ma probabilmente abbiamo a disposizione più di 99 (o, meglio, 92) mesi. Pur se ad esempio per quanto riguarda il Mar Glaciale Artico ci sia chi sostiene che sia già stato raggiunto un “tipping point”, e che quindi sia inevitabile che il mare artico possa liberarsi completamente dai ghiacci d’estate nei prossimi decenni, le proiezioni non sono semplici e non sono concordi.
Non esistono pertanto motivi per credere a questo particolare modello ed alle sue specifiche conclusioni. Anzi, la quantificazione dell’ urgenza con un numero che assomiglia alle cifre dei supermercati che terminano per 9, peraltro probabilmente mossa anche da “buone intenzioni”, potrebbe riverlarsi non solo inefficace ma addirittura controproducente, generando un allarmismo inutile che poi, al momento opportuno, ovvero nel dicembre 2016, potrebbe facilmente essere smentito. Infatti, perfino i modelli più sofisticati e complessi non consentono di fare previsioni così accurate. Intendiamoci: l’urgenza esiste, sia chiaro, ma non è possibile quantificarla così semplicemente e precisamente (per fortuna, perché se davvero fosse così saremmo messi male: 99 mesi sono davvero pochi!). Insomma, la tesi che nel dicembre 2016 scatterà il punto di non ritorno per il sistema climatico non ha nessun fondamento scientifico: fra 99 mesi NON ci sarà la fine del mondo, e non ci sarà un repentino peggioramento della situazione, anche se alcuni cambiamenti – quelli si – diventeranno irreversibili, almeno sulle scale temporali di interesse per l’uomo.
Il riferimento di Carlo d’Inghilterra ai 99 mesi va quindi interpretato come un messaggio che ha un significato simbolico e politico, lanciato al fine di catturare l’attenzione del grande pubblico e dei giornalisti, altrimenti insensibili alle preoccupazioni meno ad effetto del mondo scientifico: quello di non rimandare ad oltranza quei cambiamenti di cui c’è tanto bisogno e come tali dovrebbero essere iniziati subito. In effetti, da questo punto di vista c’è ampiamente riuscito, perché la frase “99 mesi per salvare il pianeta” fornisce su Google più di 50.000 risultati.
Del resto, nell’ambito della discussione del “dopo Kyoto” c’è stato un cambiamento decisivo della strategia per combattere i cambaimenti climatici. L’obiettivo non è infatti più quello originario di Kyoto (di limitare le emissioni di una certa percentuale fissata a priori) ma è quello, nuovo, di assicurarsi che la concentrazione di CO2 non superi una soglia al di sopra della quale si ritiene che i cambiamenti (ed i relativi danni a società e ambiente) non siano più sostenibili. Fissata questa soglia di anidride carbonica (peraltro ancora non nota), si può calcolare di quanto si debbano limitare le emissioni. Tenuto conto del tasso di crescita della concentrazione di CO2, in effetti non rimangono molti anni prima di raggiungere la soglia di 400 ppm menzionata dal rapporto di Green New Deal Group, o quella di 500 ppm menzionata da altri studi, e probabilmente questo è il modo in cui dovrebbe essere interpretato il messaggio del principe Carlo d’Inghilterra.

Testo di Stefano Caserini, Claudio Cassardo, Claudio Della Volpe, Giulio del Leo, Paolo Gabrielli


Tags:
7 commenti

26 Aprile 2009

La radiazione cosmica… non ce la fa

Categorie: Influenza del sole  -  Postato da: 

Raggi cosmiciPer chi non vuole riconoscere il ruolo preponderante dei gas serra di origine antropica nell’influenzare le temperature del recente passato e del futuro, si presenta il problema di trovare candidati alternativi.
Sebbene ne siano stati proposti altri (vulcani, macchie solari, emissioni naturali, ecc.), una delle tesi più diffuse anche in Italia propone una significativa influenza delle variazioni della radiazione cosmica sulla temperatura del pianeta. La teoria ha ormai più di 10 anni (è stata proposta fra il 1997 e il 2000 da pubblicazioni di Friis-Christensen, Svensmark e Marsh) ed è stata di fatto già archiviata dal dibattito scientifico sul clima come una teoria non confermata dai dati.
Secondo questa teoria, a determinare le variazioni del clima del pianeta sarebbe la radiazione cosmica, chiamata GCRI (galactic cosmic ray intensity), che influenzerebbe in modo significativo la copertura  nuvolosa; quest’ultima altererebbe il bilancio energetico e quindi le temperature del pianeta.
Pur se un effetto di questo tipo esiste, molti lavori hanno mostrato come sia secondario rispetto ad altri fattori (es. i gas serra).
La review degli studiosi coordinati dall’IPCC ha mostrato nel Quarto Rapporto, da un lato come la variabilità della forzante solare dal 1750 al 2005 sia meno di un decimo rispetto a quella dei gas serra, dall’altro che la comprensione dei meccanismi con cui l’attività del sole influenza il clima del pianeta e la formazione di nubi e aerosol è ancora bassa.
Per questo sono molto utili i progressi della conoscenza scientifica, e per il contesto italiano è particolarmente utile il lavoro dei collaboratori di Climalteranti.it, che hanno tradotto due degli ultimi post di Realclimate (qui e qui), riguardanti proprio l’influenza della radiazione cosmica su nubi e aerosol.

La conclusione a cui si è giunti anche negli ultimi studi è in linea con quella di studi precedenti (la forza dei raggi cosmici è troppo bassa per influenzare significativamente le nubi e il clima), ma è comunque interessante cercare di capire il perché.
Buona lettura, quindi.

Testo di Stefano Caserini, Paolo Gabrielli e Riccardo Reitano

PS: Da notare che la traduzione dei post di Realclimate avviene ad opera di una ventina fra studenti, dottorandi e studiosi delle tematiche ambientali di tutta Italia, coordinati da Riccardo Reitano dell’università di Catania.
Un significativo esempio di collaborazione interuniversitaria gratuita volta al progresso della conoscenza scientifica del clima e delle sue variazioni. Chi volesse contribuire alle traduzioni può inviare una email a segreteria chiocciolina climalteranti punto it.


76 commenti

17 Aprile 2009

Un bel libro con una Prefazione poco aggiornata

Categorie: Comunicazione, Errori, IPCC, Modelli Climatici, Proiezioni, Protocollo di Kyoto, Recensione  -  Postato da: 

Fra i libri più belli pubblicati negli ultimi anni sui cambiamenti climatici va senza dubbio citato “Piccola lezione sul clima” di Kerry Emanuel, professore di Scienze dell’Atmosfera al MIT di Cambridge.
immagine copertina libro KerryIl libro è la traduzione di un saggio di rara chiarezza e sintesi “Phaeton’s Reins. The human hand in climate change “, pubblicato su Boston Review all’inizio del 2007 (disponibile anche sul web qui o qui).
Il testo di Kerry è seguito da una Postfazione di Judith Layzer e William Moomaw, docenti di politiche ambientali al MIT e alla Tuft University, che in poche pagine forniscono una egualmente agevole e precisa rappresentazione del recente dibattito sulle politiche climatiche nel 2008.

Nella versione italiana la Prefazione è curata dal Prof. Franco Prodi, ex-direttore dell’istituto di scienza dell’atmosfera e del clima del Consiglio Nazionale delle ricerche (ISAC-CNR), contiene a mio parere diversi errori, descritti in seguito, con l’auspicio che, se condivisi dal Prof. Prodi stesso, possano essere corretti nelle future edizioni (si spera numerose) del libro.

1) (pag. 11) I range delle “previsioni”
“Quanto carente sia la conoscenza del sistema clima è quindi dimostrato dall’ampia forbice degli scenari prospettati alla fine di questo secolo, per la temperatura dell’aria (da uno a otto gradi), per l’innalzamento del livello dei mari (da pochi centimetri a metri), per parlare solo dei parametri più discussi”.

E’ un argomento già citato da Prodi (ad esempio qui), ma le cose non stanno proprio così: l’ampiezza della forbice non è dovuta solo alla carenza nell’incertezza del sistema clima, ma all’incertezza su quali saranno le emissioni di gas serra. Se infatti si guarda la famosa figura del Quarto Rapporto IPCC sulla proiezione delle temperature, si nota come una larga parte della variazione delle temperature è dovuta ai diversi scenari emissivi, alle emissioni di gas serra che avverranno nei prossimi decenni. link grafici IPCCL’incertezza dovuta alla conoscenza del sistema clima è grande per ogni scenario, ma è molto inferiore (vedasi figura sopra): la forbice data dalla prima deviazione standard intorno alla media è circa un grado, l’intervallo più probabile (linee grigie sulla sinistra) varia da 2 gradi dello scenario B1ai 4 gradi dello scenario A2.

2) (Pag. 14) “I modelli sono nella loro infanzia”
È una frase usata spesso nel passato per descrivere lo stato dei modelli climatici. Se ne trova traccia in famosi articoli di taglio negazionista (ad esempio Robinson et al., 1998: “Predictions of global warming are based on computer climate modeling, a branch of science still in its infancy”) o comunque sullo stato dei modelli di parecchi anni or sono. La storia della modellistica climatica è ormai trentennale, sono coinvolti decine di centri di ricerca di tutto il mondo. I modelli hanno da anni incluso parametrizzazioni per gli aerosol e le nubi; in modo insoddisfacente, migliorabile, ma se ne parla da anni e si potrebbe almeno dire che oggi sono nella loro adolescenza. Le incertezze sono ancora tante e quindi c’è ancora tanto da fare per i modellisti; ma se il termine “infanzia” significa la fase iniziale e primordiale dello sviluppo, già a fine anni ’90 i modelli climatici vi erano usciti.

3) (Pag. 15) Le temperature nella piccola era glaciale e nel periodo caldo medioevale
“Se consideriamo l’ultimo millennio, variazioni di poco superiori (probabilmente da 1 a 1,3 °C) hanno prodotto la piccola era glaciale (dal 1400 al 1850) ed il pericolo di riscaldamento conosciuto come “Optimum medioevale” (1000-1300)…”
La frase non è molto chiara perché non chiarisce rispetto a quale periodo sarebbero state le temperature superiori di 1-1,3°C. Probabilmente ci si riferisce alle temperature di inizio secolo, rispetto alle quali nelle pagine prime (Pag. 13 e 14) si cita un aumento di 1,3 per l’Italia e di 0,7 °C per il l’intero pianeta. Le ricostruzioni più accreditate forniscono range molto più limitati nelle variazioni delle temperature della piccola era glaciale e del periodo caldo medioevale, variazioni che hanno riguardato per lo più l’emisfero nord, e mostrano come l’attuale riscaldamento sia del tutto anomalo se confrontato con quello dei precedenti 1300 anni. L’ultima sintesi dell’IPCC recita “Le temperature medie nell’emisfero Nord durante la seconda metà del XX secolo sono state molto probabilmente più alte di qualsiasi altro periodo di 50 anni negli ultimi 500 anni e probabilmente le più alte almeno negli ultimi 1300 anni”.

4) (Pag. 18) Le concentrazioni di CO2
“È noto, poiché lo si misura con precisione, che il valore dell’anidride carbonica, ora intorno a 360 parti per milione, è aumentato del 31% dal 1750 ad oggi”.
Le concentrazioni di CO2 attuali non sono intorno a 360 ppm, ma intorno a 380 ppm, come del resto scrive Kerry nello stesso libro a pag. 42 e a pag. 77. Non si tratta di un refuso perché l’aumento del 31% porta proprio a 360 ppm; per arrivare a 380 ppm l’aumento è almeno del 35 %. Tralasciando il fatto che Kerry ha scritto il saggio nel 2006, e nel 2008 le concentrazioni di CO2 erano già di circa 384-385 ppm.
La concentrazione di 360 ppm di CO2 nell’atmosfera si è avuta intorno al 1995.

5) (Pag. 23) “Il protocollo di Kyoto, ora messo di nuovo in discussione…”
Come in un intervento dell’Ottobre 2008 il prof. Prodi descrive scenari di messa in discussione del Protocollo di Kyoto, oggi di fatto superati dal fatto che il Protocollo è entrato in vigore da quattro anni e lascerà fra pochi anni il posto ad un nuovo accordo internazionale, approvato probabilmente già tra pochi mesi nella COP15 a Copenhagen.

6) (Pag. 23-24) La somma incerta
Verso la fine della prefazione le incertezze presenti nella scienza del clima sono ancora sottolineate, laddove si legge di “…grave incertezza di scenario che caratterizza lo stato attuale della conoscenza”,  “…non si può ancora parlare di previsione climatica affidabile”, oppure “…non stupisce che vi siano scienziati che sostengono questo principio di precauzione e scienziati che vi si oppongono sulla base della considerazione che la scarsa conoscenza di alcuni addendi rende la somma incerta”.

Nella prefazione si trova anche in altri punti (es. pag. 11) una confusione fra previsione e proiezione (ossia fra previsioni di primo e di secondo tipo, si veda il precedente post). Come ben scrive anche Kerry (pag. 53-54) i modelli predittivi non riescono a garantire  affidabilità oltre le due settimane; ma altra cosa sono le proiezioni sul lungo periodo (es. 50 o 100 anni) del valore medio di alcuni parametri climatici.
Tali cautele sembrano eccessive se confrontate a quanto scrive Kerry nel successivo saggio, ad esempio “e dato che i rischi di conseguenze pesantemente sfavorevoli sono molto alti e che possiamo prevenirli, la prudenza ci dovrebbe indurre ad agire immediatamente”.

In conclusione, pur se l’analisi di Franco Prodi appare in alcuni aspetti poco aggiornata, si concorda pienamente con le prime e le ultime tre righe della Prefazione: quelle che la aprono (pag. 9) “Non capita spesso di imbattersi in uno scritto che si condivide a tal punto da desiderare di averlo scritto noi stessi”, e quelle che la chiudono (pag. 25), invitando alla lettura del libro di Kerry Emanuel, “alla sua prosa scientificamente impeccabile, ma anche piana ed accattivante”. Cosa non facile quando si parla di clima.

Testo di Stefano Caserini, con il contributo di Aldo Pozzoli


Tags: ,
7 commenti

9 Aprile 2009

Esiste una “clausola di revisione” del Pacchetto 20-20-20 ?

Categorie: 20-20-20, Abbagli, Comunicazione, Dibattito, Errori, Mozioni, Politiche  -  Postato da: 

Al di là delle vistose carenze nella comprensione del problema dei cambiamenti climatici, la mozione approvata dall’aula del Senato contiene alcuni errori basilari nel ricostruire gli impegni assunti dall’Italia e dall’Europa in materia di cambiamenti climatici.
La mozione (1) cita l’esistenza di una “clausola di revisione” che sarebbe stata approvata a Dicembre e che permetterebbe la ridiscussione dell’intera strategia europea sul clima, ad esempio con l’approvazione di obiettivi meno cogenti. Nonostante di questa clausola abbiano parlato a lungo i media italiani (vedi ad esempio qui e qui), e la sua approvazione sia stata fatta passare per una “vittoria” del Governo Italiano, è facile verificare che questa clausola di revisione degli impegni europei sul clima, di fatto, non esiste.


***
Ma andiamo con ordine e riassumiamo quanto è successo.
Una delle richieste del governo italiano in occasione della riunione del Consiglio europeo dell’11-12 dicembre 2008, dove è stato discusso il pacchetto clima-energia (cosiddetto pacchetto 20-20-20), riguardava l’inserimento di una clausola di revisione dell’intero pacchetto di misure in funzione dei risultati che sarebbero stati conseguiti dalla Conferenza di Copenhagen nel dicembre 2009. L’obiettivo era quello di rivedere al ribasso il target di riduzione delle emissioni al 2020 in caso di mancato o insoddisfacente accordo a livello internazionale.
Un’altra richiesta del nostro governo riguardava la trasformazione dell’obbiettivo vincolante per la promozione delle fonti rinnovabili in un accordo di massima soggetto a revisione nel 2014.
Sulla stampa e anche in occasione di convegni nazionali sul tema della lotta ai cambiamenti climatici, si è parlato spesso di una non meglio definita clausola di revisione proposta dal governo italiano e accolta in sede di approvazione del pacchetto clima-energia da parte del Consiglio europeo (12 dicembre 2008) e del Parlamento europeo (17 dicembre 2008) in base alla procedura di co-decisione. Ciò è stato presentato come uno dei maggiori successi conseguiti dalla delegazione italiana.
Ma di che clausola si tratta?
Il pacchetto clima-energia è stato adottato, anche formalmente, dal Consiglio europeo del 6 aprile 2009 per cui conviene riferirsi ai testi ufficiali approvati in tale sede.

 

La Direttiva per la promozione delle fonti rinnovabili nell’articolo 23 (comma 8c) prevede che la Commissione, entro il 31 dicembre 2014, predisponga una relazione sull’implementazione della direttiva, in particolare con riferimento ai meccanismi di cooperazione al fine di agevolare il raggiungimento degli obiettivi nazionali di promozione delle fonti rinnovabili, e tragga le opportune conclusioni ai fini del raggiungimento dell’obiettivo comunitario. Sulla base di questa relazione la Commissione potrà presentare al Consiglio e al Parlamento europeo modifiche ai meccanismi di cooperazione per migliorarne l’efficacia ai fini del raggiungimento del target comunitario del 20% (L’articolo citato al comma 8a prevede la possibilità di aggiustare il valore del tasso di emissioni evitate legato all’utilizzo dei biocombustibili). Quindi la clausola di revisione in questo caso riguarda la possibilità di modificare i meccanismi di cooperazione tra i paesi UE e tra questi e paesi terzi (ovvero i meccanismi di flessibilità previsti dalla direttiva) e non la possibilità di modificare gli obiettivi nazionali che restano pertanto vincolanti.

La nuova Direttiva inclusa nel pacchetto clima-energia (il numero non è ancora stato assegnato) che modifica la direttiva attualmente in vigore (ovvero la direttiva 2003/87/EC che ha istituito il sistema europeo dei permessi negoziabili per la riduzione delle emissioni), disciplina gli aggiustamenti che saranno necessari in caso di sottoscrizione di un accordo internazionale per la riduzione delle emissioni nel periodo post-Kyoto.

L’articolo 1 della citata Direttiva (1), in particolare, chiarisce che la Direttiva intende disciplinare anche il possibile aumento dell’impegno di riduzione dal 20% al 30% (2).

Inoltre, in base all’articolo 28, entro tre mesi dalla firma di un accordo internazionale che assegni obbiettivi vincolanti di riduzione delle emissioni più stringenti del 20% già previsto con riferimento all’anno 1990, e come già stabilito dall’impegno sottoscritto dal Consiglio europeo della primavera 2007 per l’innalzamento del target europeo dal 20% al 30%, la Commissione europea produrrà una relazione focalizzata sui seguenti punti principali:
*   gli impegni sottoscritti dagli altri paesi industrializzati e dai paesi in via di sviluppo economicamente più avanzati;
*    le opzioni per l’Unione europea per innalzare l’obiettivo di riduzione delle emissioni al 30%, anche in funzione di quanto conseguito durante il periodo di adempimento del Protocollo di Kyoto;
*    la competitività delle industrie manifatturiere esposte a carbon leakage;
*    l’impatto dell’accordo internazionale sugli altri settori produttivi (inclusa l’agricoltura);
*    i problemi legati alla silvicoltura e destinazione d’uso del suolo nei paesi terzi;
*    la necessità di misure ulteriori per il raggiungimento degli obiettivi comunitari e nazionali.
Sulla base di questa relazione la Commissione presenterà eventualmente al Parlamento e al Consiglio europeo una proposta di revisione della direttiva EU ETS per renderla coerente con gli obiettivi previsti dall’accordo internazionale.

Quindi, in questo caso, la clausola di revisione è finalizzata esplicitamente a rendere più stringente l’impegno già sottoscritto dall’Unione europea.
Nel testo della direttiva non c’è alcuna menzione alla possibilità di rivedere verso il basso l’obiettivo vincolante del 20% al 2020 in caso di mancato accordo a livello internazionale per la riduzione delle emissioni.

Per completezza di informazione si riporta anche una frase inclusa nel documento delle conclusioni della Presidenza del Consiglio europeo del 12 dicembre 2008. Al punto 23 di tale documento si legge che saranno valutati gli effetti sulla competitività dell’industria e di altri settori economici (3).
Ma questo “assessment” è proprio quello indicato nell’elenco degli elementi riportati nell’art. 28 della nuova Direttiva ETS che la Commissione europea dovrà prendere in considerazione per rendere coerente gli impegni europei con quelli previsti dall’eventuale accordo internazionale.

La “raccomandazione” della mozione non ha quindi, di fatto, alcuno spazio in Europa.

Testo di: N.D.

(1)  Estratto  dal testo della mozione approvata (1-00107, testo 3, 1 aprile 2009)

apprezzata la posizione espressa dal Governo italiano nel vertice del dicembre 2008 a Bruxelles, che ha condotto il Consiglio dei Capi di Governo dell’Unione europea ad approvare una clausola di eventuale revisione da trattarsi nel marzo 2010 a seguito degli esiti del vertice mondiale di Copenhagen,

si raccomanda…
– di mantenere la linea espressa a Bruxelles di revisione dell’Accordo cosiddetto 20-20-20;
– di ottenere in sede di revisione dell’Accordo cosiddetto 20-20-20, alla luce delle considerazioni di cui in premessa:
a) una minor cogenza degli obiettivi quantitativi e temporali, escludendo, quindi a maggior ragione, ogni possibilità di loro inasprimento;
b) una complessiva nuova scrittura dell’Accordo 20-20-20 stesso anche in funzione del coinvolgimento dei Paesi in via di sviluppo, senza l’intervento dei quali il richiamato Accordo, quand’anche teoricamente efficace, diverrebbe sostanzialmente inutile e penalizzante per i pochi sottoscrittori;
….

(2) ” This Directive also provides for the reductions of greenhouse gas emissions to be increased so as to contribute to the levels of reductions that are considered scientifically necessary to avoid dangerous climate change.
This Directive also lays down provisions for assessing and implementing a stricter Community reduction commitment exceeding 20 %, to be applied upon the approval by the Community of an international agreement on climate change leading to greenhouse gas emission reductions exceeding those required in Article 9, as reflected in the 30 % commitment endorsed by the European Council of March 2007.”

(3) “The Commission will present to the European Council in March 2010 a detailed analysis of
the results of the Copenhagen Conference, including the move from 20 % to 30 % reduction.
On this basis the European Council will make an assessment of the situation, including its
effects on the competitiveness of European industry and the other economic sectors”.


Tags:
23 commenti

3 Aprile 2009

Plutone, un errore del 22600% e la calotta polare riformata

Categorie: Abbagli, Artico e Antartico, Bufale, Comunicazione, Errori, Ministero, Mozioni, Negazionisti, Politiche  -  Postato da: 

Per chi segue da tempo la nascita e l’evolversi delle argomentazioni negazioniste sul clima, la seduta del Senato della Repubblica Italiana del 1° aprile 2009 costituisce un evento d’indubbio interesse. Come per un esperto di epidemie la diffusione della pandemia è al tempo stesso un motivo di preoccupazione ed un’occasione per aumentare le conoscenze scientifiche sulla malattia, vedere condensati in interventi di pochi minuti anni e anni di discorsi negazionisti è motivo da un lato di sconforto, e dall’altro di svago.
Perché c’è da dire che il testo della mozione (si trova qui, è il terzo dall’inizio), e i discorsi che l’hanno sostenuta nell’aula del Senato da parte dei Senatori Possa, Malan e Fruttero sono a loro modo delle rarità: è difficile trovare, in altri testi o interventi orali, un’insieme di corbellerie sui cambiamenti climatici così esteso e variegato. Al confronto, sbiadisce il ricordo del convegno del 3 marzo scorso a Roma.
Negli interventi (il video si trova qui) si trovano citati e omaggiati quasi tutti i principali negazionisti climatici italiani, alcuni per sbagli addirittura di otto anni fa.
C’è Zichichi: “le previsioni dei modelli basati sull’effetto serra sono poco attendibili, perché ignorano le leggi della termodinamica” e “l’«equazione clima» non è in funzione solo della temperatura, ma dell’energia complessiva che circola sul pianeta in tutte le sue forme”.
Ci sono i cicli di Ortolani: “Le variazioni climatiche, nella storia del nostro pianeta, sono documentate dall’analisi stratigrafica delle successioni rocciose… il clima è sempre cambiato e le variazioni climatiche sono avvenute ciclicamente con il succedersi di periodi caldi e di periodi freddi e i cicli non hanno avuto durata ed ampiezza omogenee. Così le modificazioni tipo effetto serra si sono già verificate con durate di circa 150 – 200 anni…”.
C’è il cavallo di battaglia di Battaglia, Guidi, Gerelli, ecc: “Evidenze sperimentali suggeriscono invece una forte correlazione tra cambiamenti climatici e attività solare”.
C’è un classico di Mariani: “La CO2 non è un inquinante”.
C’è l’argomento principe di Georgiadis: “Si è dimostrato che se le misurazioni vengono fatte nelle aree urbane mostrano un innalzamento della temperatura, se fatte al di fuori mostrano che la temperatura tende alla stabilità“ (Teo, se non ti citavo mi sa che ti offendevi.. ;-))
C’è  persino un Battaglia d’antan, con l’errore della confusione fra la emissioni di Carbonio e quelle di CO2, a cui si somma un ulteriore errore di unità di misura: “L’applicazione integrale degli impegni di Kyoto ridurrebbe i 6 milioni di megatonnellate di CO2 prodotti all’anno a 5.850.000 megatonnellate”.
Ci sono poi i presunti errori dell’hockey-Stick (mostrati confrontando il grafico di Mann del 1999 con quello dell’IPCC del 1990!), la temperatura che da 10 anni non aumenta, Marte e Plutone che si scaldano, il livello dell’acqua negli oceani che non sta aumentando a ritmo preoccupante.
Manca, e su questo penso sia il caso di far partire una commissione d’inchiesta, la Groenlandia- Terra-Verde e i Vigneti-in-inghilterra-erano-tanti-nel-medioevo.

immagine Plutone

Se dovessi scegliere un podio d’onore delle bestialità negazioniste pronunciate, direi:

Terzo posto
Sarebbero da ricordare anche gli studi astronomici che dimostrano che da Marte a Plutone, praticamente in quasi tutto il sistema solare, si registrano aumenti di temperatura difficilmente causati dalle emissioni prodotte dalle attività umane sulla terra (Senatore Malan).
Il Senatore deve ricorrere ad altri pianeti, anche non del sistema solare come Plutone, per sostenere che l’uomo non è responsabile dei cambiamenti climatici. Per capire quanto tali pianeti siano simili alla Terra, si tenga conto che Marte non ha nuvole e non ha un campo magnetico, mentre Plutone ha un anno solare della durata di 280 anni terrestri.

Secondo posto
L’applicazione integrale degli impegni di Kyoto ridurrebbe i 6 milioni di megatonnellate di CO2 prodotti all’anno a 5.850.000 megatonnellate. Capite dunque quanto poco inciderebbe (Senatore Fluttero)
Secondo il Quarto Rapporto dell’IPCC le emissioni annue globali di CO2 nel periodo 2000–2005 sono state pari a circa 26500 megatonnellate. L’errore commesso è, quindi, solo del 22600%, ossia le emissioni effettive sono 226 volte inferiore a quanto detto dal Senatore.

Primo posto
Negli scorsi mesi si è riformata la calotta polare artica nella stessa estensione di venti o trenta anni fa (Senatore Possa).
Il Senatore confonde la variazione stagionale con quella su scala decennale: se si confrontano gli stessi mesi estivi, la diminuzione della calotta polare artica è stata di circa il 37 %: da 7.4 milioni di kmq (media 1979-1989) a 4.7 milioni di kmq (2008).

Ora, si può discutere di tutto, dalle isole di calore ai costi del Protocollo di Kyoto. Ma sostenere che non ci siano problemi per la calotta polare artica, è davvero difficile.
L’incredibile affermazione fornisce però una chiave per capire quale può essere la strategia per affrontare il problema del riscaldamento globale: dichiararlo risolto con una mozione votata da un’assemblea parlamentare.
In effetti, viste come stanno le cose, verrebbe voglia di votare a favore.

Testo di: Stefano Caserini, con un contributo di Claudio Cassardo


Tags: , , , , ,
207 commenti

1 Aprile 2009

Meraviglia, sconcerto, o qualche allegra risata?

Categorie: 20-20-20, Abbagli, Comunicazione, Errori, Ministero, Mozioni, Politiche, Protocollo di Kyoto  -  Postato da: 

Sul sito del Senato della Repubblica italiana è comparso il testo di una mozione, presentato da numerosi Senatori, che intende impegnare il Governo ad una serie si azioni volte di fatto a contrastare la politica europea sul clima.

immagine Senato Repubblica Italiana

Non si tratta di un pesce d’Aprile. Chi ha seguito i resoconti del convegno del 3 marzo non rimarrà sorpreso nel leggere il testo e ritrovarvi molti degli errori, dei fraintendimenti e delle mistificazioni sullo stato delle conoscenze del problema climatico di cui su questo sito abbiamo già parlato.
Nei prossimi giorni Climalteranti illustrerà con precisione i gravi errori presenti nel testo della mozione.
Si riporta nel frattempo il link ad un articolo recentemente pubblicato su EOS in cui vengono presentati i risultati di un’indagine condotta su oltre 3100 scienziati impegnati nella ricerca sul clima. Da questa indagine fra addetti ai lavori, già presentata da un post di Antonello Pasini,  si evince un sostanziale e generalizzato consenso sull’esistenza e sulle cause del cambiamento climatico, consenso che raggiunge il 97.5% fra gli intervistati con specifiche e riconosciute competenze in materia climatica.
Purtroppo, nonostante i ripetuti tentativi di mistificazione che non riconoscono o tentano di screditare o di ridurre a semplice opinione il lavoro rigoroso e onesto di migliaia di ricercatori di tutto il mondo, i cambiamenti climatici generati con probabilità molto elevata dalle attività umane sono un dato di fatto, una realtà che siamo costretti ad affrontare al pari di quanto altre potenze economiche in Europa e in Nord America hanno cominciato a fare. Prima iniziamo, meno ci verrà a costare.

Suggeriamo ai tanti lettori che ci hanno segnalato il caso, inviandoci il link del sito di Repubblica che vi ha dato risalto, a non preoccuparsi troppo: è tale l’inconsistenza scientifica del documento che c’è da scommettere che gli effetti principali che produrrà a livello europeo saranno meraviglia, sconcerto o, nella migliore delle ipotesi, sarcasmo e qualche risata.

Testo di: Stefano Caserini, Giulio de Leo, Paolo Gabrielli.


Tags: , ,
42 commenti

27 Marzo 2009

L’inevitabilità delle azioni di adattamento

Categorie: Adattamento, Comunicazione, Politiche, Proiezioni, Recensione  -  Postato da: 

Con questo post inizia una nuova sezione di Climalteranti.it, che si occupa delle recensioni di libri sui cambiamenti climatici.

Mettiamoci l’anima in pace: alcuni cambiamenti climatici sono inevitabili. Come mostrato da alcuni importanti lavori scientifici, alcuni cambiamenti climatici futuri sono già “decisi” dagli attuali livelli di CO2 nell’atmosfera, si manifesteranno e dureranno per secoli. Pur se è ancora possibile limitare la dimensione dei cambiamenti climatici futuri, per quante politiche e azioni saremo in grado di mettere in pratica per ridurre le emissioni, queste non basteranno a tenere i cambiamenti climatici sotto una certa soglia. In questo panorama appare necessario, oltre che utile, sviluppare strategie di adattamento al clima che avremo davanti nei prossimi decenni. In assenza di simili strategie, ci troveremo a fronteggiare una perdita di Pil compresa tra 0,12 e lo 0,20%, pari a una riduzione del reddito nazionale di circa 20/30 miliardi di euro, l’equivalente di un’importante manovra finanziaria.
Questi numeri si leggono nel libro Cambiamenti climatici e strategie di adattamento in Italia. Una valutazione economica  (Il Mulino editore, 2009), in cui Carlo Carraro raccoglie gli esiti di un progetto di ricerca a cui hanno collaborato l’Agenzia per la Protezione dell’Ambiente e del Territorio (attuale ISPRA), il Centro Euromediterraneo per i Cambiamenti Climatici e la Fondazione Eni Enrico Mattei.

I numeri appena citati non annunciano catastrofi, non ci parlano di danni enormemente ingenti che il sistema economico italiano potrebbe trovarsi ad affrontare; il libro mette l’accento sull’esigenza di intraprendere politiche che richiedono strategie di lungo periodo. E lo fa a partire dalla metodologia utilizzata. La ricerca prende in considerazione i danni attesi dai cambiamenti climatici dopo che l’intero sistema economico avrà compiuto un adattamento autonomo, avrà cioè reagito agli effetti negativi dando luogo a un nuovo equilibrio. È a questo punto, che la ricerca calcola il danno atteso dai cambiamenti climatici.
Un altro elemento di originalità del lavoro di Carraro, sta nell’aver considerato il sistema economico italiano all’interno del contesto mondiale; in altre parole, lo studio analizza le reazioni che gli impatti dei cambiamenti climatici potranno indurre nei flussi di commercio e di capitali a livello internazionale tra l’Italia e gli altri Paesi e poi, anche qui, si procede ad analizzare i nuovi equilibri realizzati.
In sintesi, quindi, il libro è il frutto di un metodo di ricerca e di analisi che dà forma ai risultati attraverso un percorso molto delineato. Il primo passo consiste nell’analisi degli impatti fisici che i cambiamenti climatici avranno sul nostro territorio; il secondo passo riguarda la valutazione economica di questi impatti; infine, attraverso un modello dell’economia mondiale, gli impatti si traducono in cambiamenti che richiedono aggiustamenti, riadattamenti del sistema che vengono considerati fino a calcolare il danno complessivo per l’economia italiana.
Ecco qualche numero. In Italia, 16.500 km quadrati di terreno sono considerati vulnerabili al rischio di desertificazione, il che vuol dire che per questi terreni è prevista una diminuzione di resa agricola che, in completa assenza di politiche e strategie di adattamento, potrebbe essere calcolata in una cifra che oscilla tra gli 11,5 (nel caso di terreni adibiti a pascolo) e i 412,5 milioni di dollari l’anno (nel caso di terreni irrigati). Un altro esempio:  l’innalzamento della temperatura potrebbe costare nel 2030 una diminuzione del turismo straniero sulle nostre Alpi del 21,2%, mentre nel 2080 i danni del climate change sulle aree costiere della penisola sarebbero pari a 108 milioni di dollari in assenza di politiche e strategie di adattamento, costo che invece scenderebbe a circa 17 milioni se si adottassero azioni di protezioni delle coste. Dati significativi si possono trarre anche dall’osservazione di eventi passati, come ad esempio l’ondata di calore del 2003: se in quell’occasione avessimo adottato misure di adattamento, si sarebbero potuti risparmiare 134 milioni di euro.
Niente catastrofi, si diceva, anche perché il sistema economico ridistribuisce costi e benefici, danni e vantaggi: l’impatto dei cambiamenti climatici è di natura essenzialmente distributiva. E così, ad esempio, a fronte di una diminuzione di turismo internazionale possiamo attenderci un incremento di turismo interno e alcune aree saranno più esposte ai rischi della desertificazione, altre ne potranno beneficiare con la possibilità di coltivare nuovi prodotti.
Il libro segnala inoltre la difficoltà nello stimare costi “non di mercato”, ovvero quelli che vanno a insistere su realtà non soggette a scambio, e quindi senza prezzo (ad esempio la biodiversità e il patrimonio artistico e architettonico), nonché le incertezze nel ridurre gli impatti ad una dimensione unica, quella monetaria.
Ma la cosa certa è che se non saremo pronti ai cambiamenti, se non sapremo adattare il nostro sistema economico ad un clima che sicuramente sarà diverso, il prezzo sarà sicuramente più alto. E questo nel libro di Carraro è scritto a chiare lettere. Qualcuno, all’estero, ci sta già pensando e sta progettando strategie di adattamento di lungo periodo. Quando i cambiamenti climatici mostreranno in maniera più evidente i loro impatti, chi si sarà mosso prima si farà trovare pronto. E in Italia?

Testo di Mauro Buonocore, Centro Euromediterraneo per i Cambiamenti Climatici

Carlo Carraro
Cambiamenti climatici e strategie di adattamento in Italia
Una valutazione economica
Il Mulino, 2009
pp. 528, € 39,00


Tags: , , ,
8 commenti

21 Marzo 2009

Il metodo Battaglia, ovvero dell’autoreferenzialità

Categorie: Comunicazione, Dibattito, Disinformazione, Errori, Ministero, Negazionisti, Peer-review, Politiche  -  Postato da: 

La maggior parte dell’intervento del Prof. Franco Battaglia al convegno dello scorso 3 marzo non ha riguardato il tema dei cambiamenti climatici, ma quello dell’energia. Come si può ascoltare nella registrazione audio che abbiamo trovato qui e qui, Battaglia ha spiegato le sue ricette per la produzione economica di energia e per far fronte al problema del picco del petrolio. La tesi da lui sostenuta, come in occasione passate, è l’inutilità del risparmio energetico, dell’efficienza energetica e delle energie rinnovabili, e la necessità di affidarsi interamente all’energia prodotta attraverso la fissione nucleare.
Alcune frasi sintomatiche sono “Di uranio come combustibile nucleare ce n’è per 10.000 anni…“, “Obama, il nuovo presidente degli Stati Uniti vuole creare nuovi posti di lavoro nel settore del fotovoltaici e dell’eolico e fa un grosso errore…” e “Non è la produzione di energia che crea posti di lavoro ma il consumo di energia”
Senza entrare troppo nel merito, che ci porterebbe fuori dall’obiettivo di questo blog, sorprende ancora la lontananza delle tesi di Battaglia da quanto proposto dal resto della comunità scientifica, come era avvenuto per le tesi sulle responsabilità umana sulle variazioni climatiche (vedi il post precedente). La stragrande maggioranza degli studi proposti nella letteratura scientifica propongono una risposta al problema climatico ed energetico formata da diverse strategie e tecnologie, in cui l’efficienza energetica e le energie rinnovabili giocano un ruolo importante: “Portfolio of options”, si dice in inglese. Ci sono intere riviste scientifiche che ne parlano, con ricerche che durano anni e alla fine sono pubblicate in lavori complessi ed interessanti, come ad esempio i famosi lavori di Pacala e Socolow, questo lavoro europeo, o la sintesi dell’IPCC.

Climalteranti ha quindi chiesto spiegazioni al Prof. Battaglia, in una breve intervista effettuata al termine del convegno del 3 marzo, il cui video è disponibile qui.
L’intervista merita di essere vista perché contiene la spiegazione di quello che potremmo chiamare il ”metodo Battaglia” per la produzione di una pubblicazione scientifica, che non si basa sul sottoporre le proprie tesi alle forche caudine della peer review, ma nel pubblicare un libretto per una casa editrice sconosciuta, con la prefazione di una personalità politica, e attendere che qualcuno prima o poi lo critichi.
Battaglia afferma di essere pronto a ritirare il libretto qualora qualcuno avanzasse delle critiche; le critiche sono arrivate, ma il prof. Battaglia non le ha forse viste.

In altre parole, mentre il metodo standard per una pubblicazione scientifica è:
1)    Si propone il lavoro ad una rivista scientifica del settore, dotata di sistemi di peer-review;
2)    Si risponde alle eventuali osservazioni pervenute durante la revisione;
3)    Si risottopone il lavoro che, se viene ritenuto valido, viene pubblicato
il metodo Battaglia è, invece:
1)    Si cerca una casa editrice sconosciuta per pubblicare la propria tesi;
2)    Si chiede ad una personalità politica di fama di scrivere una prefazione;
3)    Dopo la pubblicazione si evita di rispondere alle stroncature affermando che non ci sono critiche.

L’intervista contiene, poi, almeno due passaggi spassosi.
Il primo quando Battaglia risponde all’osservazione che “non si tratta di una pubblicazione scientifica” affermando “è una pubblicazione scientifica… perché l’ho scritta io…”.
Il secondo contiene la spiegazione del motivo della mancanza di pubblicazioni scientifiche del Prof. Battaglia sull’argomento in questione (energia), già mostrata sul tema del clima: gli argomenti delle strategie energetiche sono… “troppo semplici”.. “banali” ! Lui pubblica su argomenti di meccanica quantistica, che sono difficili, mica su questioni “semplici” come le strategie energetiche. La cosa strana è che nessuno lo invita a parlare di meccanica quantistica, mentre riesce a farsi passare come esperto di energia e di clima.
Certo che sono mattacchioni gli studiosi che pubblicano le loro analisi sulle strategie di mitigazione dei cambiamenti climatici su Energy, su Energy policy o su Climate policy, e che perdono tempo a pubblicare testi scientifici su questi temi, quando tutto è… così banale!

Guarda l’intervista realizzata da Climalteranti qui .

A cura di Stefano Caserini, con contributi di Claudio Cassardo, Paolo Gabrielli, Daniele Pernigotti, Marina Vitullo.


Tags:
21 commenti

13 Marzo 2009

Un convegno sul clima senza climatologi /2: il chiacchierone del clima

Categorie: Comunicazione, Dibattito, Disinformazione, Errori, Giornali, Negazionisti, Peer-review, Titoli  -  Postato da: 

Il secondo relatore al convegno dello scorso 3 marzo è stato il Prof. Franco Battaglia, che ha presentato il libretto “La natura, non l’attività dell’uomo, governa il clima”. L’intervento, di cui abbiamo trovato l’audio qui, è stato un condensato delle solite tesi negazioniste, la cui stroncatura è disponibile da più di due mesi.
Il Prof. Franco Battaglia non è certo un nome nuovo per il nostro sito. Dopo l’assegnazione del Premio “A qualcuno piace caldo 2007”, anche nel 2008 e 2009 non ha deluso le aspettative ed ha proseguito con articoli e interviste mirate a combattere quello che da anni definisce “il bluff del riscaldamento globale”. L’ultimo articolo è stato pubblicato in prima pagina su un quotidiano a tiratura nazionale l’8 gennaio 2009 “Io fisico controcorrente vi spiego il bluff del riscaldamento globale”. Dopo l’attacco iniziale “Scrivere proprio oggi sulla colossale balla del riscaldamento globale è, come s’usa dire, come sparare sulla croce rossa”, il Prof. Battaglia espone una rassegna di argomentazioni trite e ritrite, incurante delle stroncature già ricevute (si veda qui) e poi conclude con un finale in cui fa un appello per contrastare il nuovo corso della politica europea su clima e energia.
Anche al convegno del 3 marzo il Prof. Battaglia ha definito una “congettura”, una “isteria da caldo” la preoccupazione relativa al riscaldamento globale. È difficile che vi siano vie di mezzo, per chi usa queste “argomentazioni”: o il Prof. Battaglia ha capito tutto, oppure ha capito poco o nulla.

Ma quanto è attendibile il Prof. Battaglia in ambito climatologico?

Uno dei modi che la comunità scientifica internazionale usa per misurare il credito di cui gode uno scienziato è quella di valutare la sua produzione scientifica. Siamo andati quindi a cercare le pubblicazioni scientifiche del Prof. Franco Battaglia.
***
E’ necessario però fare innanzitutto due premesse riguardo cosa sono e dove si possono trovare le pubblicazioni scientifiche e come si può valutare oggettivamente la produzione scientifica complessiva di uno scienziato. Una pubblicazione scientifica è sostanzialmente un articolo che appare su una rivista qualificata che, prima di essere pubblicato, viene sottoposto  ad un processo di revisione affidato a scienziati competenti del ramo, ossia ad una peer review. La base dati di riferimento delle pubblicazioni è l’ISI Web of Knowledge (contiene solo riviste ISI, ossia le riviste internazionali più qualificate, in cui il materiale pubblicato è stato verificato). In questo database è presente anche una stima dell’ ”impact factor” di ogni rivista che, pur presentando ancora molti punti critici, indica la rilevanza della rivista stessa. La base dati di Google Scholar include invece anche pubblicazioni a carattere divulgativo (congressi, riviste, libri…), non sempre sottoposte a processi di peer-review. Tuttavia questo database può essere comunque idoneo per avere un’idea generale della produzione scientifica di uno scienziato con il grosso vantaggio di essere accessibile a tutti.
***
Per valutare l’autorità scientifica acquisita da uno scienziato durante il corso della sua carriera,
sono stati proposti diversi “indici”, come quello di Hirsch che si può calcolare mediante il database di ISI Web of Knowledge oppure utilizzando Google Scholar. Questi sistemi di valutazione sono diventati piuttosto popolari e, pur presentando diverse limitazioni, (discusse ad esempio qui), sono largamente accettati come misure sintetiche e oggettive della rilevanza e della quantità dei contributi scientifici. L’indice di Hirsch (h-index), sintetizza sostanzialmente la produttività scientifica di uno scienziato (numero di pubblicazioni) e l’impatto dei suoi articoli nella comunità scientifica (numero di citazioni). In breve un ricercatore ha un h-index pari a h se h dei suoi articoli sono stati citati ciascuno almeno h volte. Sembra difficile ma non lo è: richiamando il nome di un autore su Scholar Google (per Tizio Caio ad esempio: “author: t-caio” oppure “author: tizio-caio”) si ottengono le sue pubblicazioni elencate in ordine di rilevanza sulla base del numero di citazioni ottenute. Per ottenere l’h-index si procede dunque a contare le pubblicazioni fino a che queste non risultano pari o superiori al numero delle citazioni: questo numero è l’h-index.
L’h-index varia molto soprattutto in funzione degli anni di carriera e del successo di uno scienziato e può andare da circa 30-40 per scienziati che hanno acquisito un’indiscussa autorità e fama nel loro settore fino a qualche punto per i ricercatori all’inizio della loro carriera. Ma non solo…
***
Secondo il data base di Scholar Google, a partire dal 1982 il Prof. Franco Battaglia avrebbe pubblicato 16 articoli (ringraziamo anticipatamente chi volesse eventualmente segnalarcene di ulteriori) su riviste scientifiche ISI, l’ultimo dei quali nel 2004, con una media di circa un articolo ogni due anni. Nessuno di questi lavori è stato pubblicato su riviste che trattano temi legati in qualche modo all’ambiente e tanto meno alla climatologia. La sua produzione scientifica riguarda per lo più argomenti di chimica fisica teorica. Professionalmente, il Prof. Battaglia non sembra dunque essersi mai occupato di climatologia, meteorologia o di discipline affini alla fenomenologia dei problemi ambientali o alle politiche di risanamento.
Considerando dunque unicamente i suoi  16 articoli di chimica fisica, questi sono stati pubblicati su riviste con un impact factor medio di 2.2 e solo raramente sono stati citati su altre pubblicazioni scientifiche. Infatti, l’h-index totalizzato dal Prof. Battaglia dopo quasi 30 anni di carriera è pari a 3 ovvero unicamente 3 dei suoi articoli sono stati citati almeno 3 o più volte da altri autori. Tuttavia, sulle tematiche relative a clima ed energia, nonostante un’ampissima raccolta di articoli sui quotidiani, il Prof. Franco Battaglia non avrebbe neppure una pubblicazione scientifica ISI, e il suo h-index in questo settore sarebbe dunque pari a zero.
***
In conclusione, è importante chiarire che non si vuole qui insinuare che solo chi ha pubblicazioni scientifiche ad hoc può discutere di cambiamenti climatici e di politiche ambientali in quanto tutti hanno ovviamente il diritto di presentare i loro argomenti, indipendentemente dall’autorità acquisita nella comunità scientifica. Tuttavia sarebbe opportuno che chi è estraneo alla climatologia o più in generale alle tematiche ambientali fosse più cauto nell’accusare il resto della comunità scientifica di essere una banda di visionari. Sarebbe infine anche auspicabile che i mass media verificassero l’attendibilità della loro fonte prima di presentarla come un luminare di questo o quel settore o che almeno evidenziassero il carattere strettamente personale di alcune opinioni che non rientrano in un contesto di un più ampio e rigoroso dibattito scientifico.

A cura di Paolo Gabrielli, con contributi di Stefano Caserini, Claudio Della Volpe e Daniele Pernigotti

Articoli peer reviewed ISI del dott. Franco Battaglia


Tags: , ,
47 commenti

6 Marzo 2009

Un convegno sul clima senza climatologi /1 – Il supermondo e l’Hiroshima culturale.

Categorie: Comunicazione, Dibattito, Errori, IPCC, Negazionisti  -  Postato da: 

Il 3 marzo scorso si è svolto a Roma il convegno “Cambiamenti climatici e ambiente politico”, presentato nello scorso post a cui è seguito un acceso dibattito. Il dibattito è stato vivace anche nel blog di Antonello Pasini a seguito di un interessante e condivisibile post.
Ci sarà tutto il tempo per entrare nel merito delle tesi negazioniste riproposte anche in questa occasione romana.
Per iniziare segnaliamo l’audio dell’intervento introduttivo del Presidente della sessione scientifica, il Prof. Antonino Zichichi, che abbiamo trovato su YouTube.

foto prof Zichichi

Si tratta di 5 parti (link a ogni parte: Parte 1, Parte 2, Parte 3, Parte 4, Parte 5) di circa 5 minuti ognuna.
L’ascolto è divertente, e pur se alcune assurdità e frottole sono già state raccontate dallo stesso Zichichi, altre sono effettivamente originali.
Non ci sembra il caso di fare commenti se non fornire due informazioni.
La prima è che abbiamo verificato che non si tratta di una delle imitazioni del Prof. Zichichi da parte del comico Maurizio Crozza (esempio), ma proprio dell’intervento originale.
La seconda è che l’intervento è stato applaudito e nessuno dei successivi relatori ha avanzato alcuna perplessità o critica; se ne deduce che l’intervento è stato proprio preso sul serio (come si può leggere qui e qui).

Per invogliare all’ascolto abbiamo estratto alcune frasi, che di diritto vanno ad aggiungersi al catalogo delle “Zichicche” e che riproponiamo qui di seguito:

Parte 1:inizio
Grazie Presidente, io sono molto lieto di essere qui in quanto viviamo un momento che passerà nella storia del mondo: tra 2 o 3 secoli scriveranno di noi. E’ la prima volta che argomenti di natura non scientifica vengono portati come previsioni scientifiche…

Parte 1: min. 3.58
Se fosse vero quello che dicono gli specialisti dell’IPCC, io dovrei dire “Non c’e’ bisogno di fare esperimenti, sappiamo tutto, esiste il supermondo e vi spiego perché… ”

Parte 1: min. 4.24
…e infatti potrebbe darsi che al Centro Europeo di Ginevra, contrariamente a tutto quello che si dice, non venga scoperto il supermondo. E’ già successo 7 volte nella storia della scienza galileiana, l’ultima volta nel 1947, quando Enrico Fermi disse ai suoi collaboratori di Chicago: “Ragazzi forse – era molto prudente Fermi – abbiamo stavolta veramente capito tutto”.

Parte 2: min. 2.31
Questa matematica ha 2 punti di riferimento: uno è la nostra fisica, fondamentale , con la quale io sto lavorando al Cern, l’altro è invece la meteorologia.
Se noi siamo costretti a fare esperimenti per verificare se sono vere le nostre previsioni, come fanno questi signori a prevedere la fine del mondo, insomma, quasi… al punto da costringere tutti i capi di governo, incluso la più potente nazione del mondo, la più democratica e libera, gli Stati Uniti d’America, e il loro Presidente, a prendere decisioni che non sono corroborate da una struttura scientifica tale da permettere di prendere decisioni che costano miliardi di euro. Se noi scopriamo che non c’è il supermondo, questo non costa nulla alla società civile. Non c’è, e c’è un’altra cosa. Ma non abbiamo speso cento 200 3000 di miliardi di dollari, migliaia di miliardi di dollari di cui stiamo parlando. E questa è la parte matematica. Poi c’è la parte sperimentale…

Parte 3: min. 0.24
[Parlando della formazione delle nubi]… ancora oggi il fenomeno non è capito e nessuno può dire a me che lui lo sa, perché io lo incastro subito: non è vero. La NASA infatti ha lanciato 2 satelliti, adesso si chiama…[non comprensibile…] per studiare la formazione delle nuvole, come conseguenza di questo dibattito che la NASA prende seriamente. Quindi prima che l’uomo si mettesse in testa di capire come si formano le nuvole si fanno previsioni su che cosa? Sull’atmosfera!

Parte 3: min. 1.24
In un articolo di Geoscience è venuto fuori che è stato scoperto che la circolazione oceanica, io non voglio entrare in dettaglio sennò ci perdiamo, ma, l’oceano, grande quantità d’acqua, che ha quello che chiamano tapis roulant, un affare che circola e che va in superficie, a sud dell’oceano, e quindi sono acque calde. Queste acque calde, per circa 10 anni, salendo verso il nord si inabissavano, senza che nessuno ne capisse il motivo. Da dieci anni a questa parte questo inabissamento non è più avvenuto. Ecco perché la temperatura mostra segni di aumentare. Nell’ultimo inverno hanno ricominciato a precipitare dentro, ad riinabissarsi. Se questo fenomeno continua, vedete che il global warming sparisce, perché questo innalzamento di queste correnti oceaniche non è capito. Questo per dire un dettaglio dei numerosi dettagli…

Parte 3: min. 3.30
Nel motore atmosferico, qual è l’incidenza delle attività umane? E’ un tema sul quale si sono impegnate parecchie persone. Tra queste quello che io rispetto molto e’ Freeman Dayson, un grande fisico teorico,  che è stato con noi in diverse occasioni. E non c’è bisogno di grandi dettagli, per scoprire che sul motore meteorologico, l’incidenza delle attività umane, è inferiore al 10%. Ma diciamo in 10,  in verità è il 5-6%. E il 90 dove lo mettiamo? Io vado in banca: ho il 6 % delle azioni e comando sugli altri ?

Parte 4: min. 0.20
L’anidride carbonica non va demonizzata, è cibo per le piante, e l’effetto serra non va demonizzato. Questo è quanto Enrico Fermi chiamava Hiroshima culturale.

Parte 4: min. 2.10
L’alleanza tra scienza e forze politiche responsabili è l’unica via per uscire da questo stato di Hiroshima culturale. Siamo in piena Hiroshima culturale.

Parte 4: min. 2.40
L’IPCC è nata ad Erice, quanto era segretario generale della WMO, un nigeriano, che, per nostra fortuna era anche fisico, in gamba, professore al MIT. Ed io dissi a questo mio collega, ci conoscevamo come colleghi a Ginevra, visto che tu sei segretario generale, cerca di portare un po’ di scienza in questa attività, lui venne per 3 anni ad Erice e si entusiasmò del rigore che noi portiamo nei nostri seminari e mi invitò ad aprire il congresso mondiale della WMO, e in quella occasione, 1985…1986…, presentai dal punto di vista scientifico gli stessi argomenti di adesso… adesso sono aggiornati…

Parte 4: min. 3.52
Perché la scienza ha credibilità? Perché se dice…. come nasce la credibilità scientifica? Con Galileo e Newton, e la famosa cometa se non appariva come previsto da Newton, invece esplode l’interesse verso la scienza. La credibilità scientifica rischia di essere compromessa… ecco perché c’è bisogno di una forza politica responsabile.

Parte 4: min. 4.30
Quando si dice che ci sono 2500 scienziati del clima. Non è vero, non esistono 2500 scienziati del clima… infatti .. basta vedere i nomi di questi signori…

A cura di Stefano Caserini, Marina Vitullo, Daniele Pernigotti, Simone Casadei, Aldo Pozzoli, Cluadio Cassardo


Tags:
77 commenti

« Prev - Next »


Translate