Notizie e approfondimenti sul clima che cambiaPosts RSS Comments RSS

Archive for the 'Comunicazione' Category

Plutone, un errore del 22600% e la calotta polare riformata

Per chi segue da tempo la nascita e l’evolversi delle argomentazioni negazioniste sul clima, la seduta del Senato della Repubblica Italiana del 1° aprile 2009 costituisce un evento d’indubbio interesse. Come per un esperto di epidemie la diffusione della pandemia è al tempo stesso un motivo di preoccupazione ed un’occasione per aumentare le conoscenze scientifiche sulla malattia, vedere condensati in interventi di pochi minuti anni e anni di discorsi negazionisti è motivo da un lato di sconforto, e dall’altro di svago.
Perché c’è da dire che il testo della mozione (si trova qui, è il terzo dall’inizio), e i discorsi che l’hanno sostenuta nell’aula del Senato da parte dei Senatori Possa, Malan e Fruttero sono a loro modo delle rarità: è difficile trovare, in altri testi o interventi orali, un’insieme di corbellerie sui cambiamenti climatici così esteso e variegato. Al confronto, sbiadisce il ricordo del convegno del 3 marzo scorso a Roma.
Negli interventi (il video si trova qui) si trovano citati e omaggiati quasi tutti i principali negazionisti climatici italiani, alcuni per sbagli addirittura di otto anni fa.
C’è Zichichi: “le previsioni dei modelli basati sull’effetto serra sono poco attendibili, perché ignorano le leggi della termodinamica” e “l’«equazione clima» non è in funzione solo della temperatura, ma dell’energia complessiva che circola sul pianeta in tutte le sue forme”.
Ci sono i cicli di Ortolani: “Le variazioni climatiche, nella storia del nostro pianeta, sono documentate dall’analisi stratigrafica delle successioni rocciose… il clima è sempre cambiato e le variazioni climatiche sono avvenute ciclicamente con il succedersi di periodi caldi e di periodi freddi e i cicli non hanno avuto durata ed ampiezza omogenee. Così le modificazioni tipo effetto serra si sono già verificate con durate di circa 150 – 200 anni…”.
C’è il cavallo di battaglia di Battaglia, Guidi, Gerelli, ecc: “Evidenze sperimentali suggeriscono invece una forte correlazione tra cambiamenti climatici e attività solare”.
C’è un classico di Mariani: “La CO2 non è un inquinante”.
C’è l’argomento principe di Georgiadis: “Si è dimostrato che se le misurazioni vengono fatte nelle aree urbane mostrano un innalzamento della temperatura, se fatte al di fuori mostrano che la temperatura tende alla stabilità“ (Teo, se non ti citavo mi sa che ti offendevi.. ;-))
C’è  persino un Battaglia d’antan, con l’errore della confusione fra la emissioni di Carbonio e quelle di CO2, a cui si somma un ulteriore errore di unità di misura: “L’applicazione integrale degli impegni di Kyoto ridurrebbe i 6 milioni di megatonnellate di CO2 prodotti all’anno a 5.850.000 megatonnellate”.
Ci sono poi i presunti errori dell’hockey-Stick (mostrati confrontando il grafico di Mann del 1999 con quello dell’IPCC del 1990!), la temperatura che da 10 anni non aumenta, Marte e Plutone che si scaldano, il livello dell’acqua negli oceani che non sta aumentando a ritmo preoccupante.
Manca, e su questo penso sia il caso di far partire una commissione d’inchiesta, la Groenlandia- Terra-Verde e i Vigneti-in-inghilterra-erano-tanti-nel-medioevo.

immagine Plutone

Se dovessi scegliere un podio d’onore delle bestialità negazioniste pronunciate, direi:

Terzo posto
Sarebbero da ricordare anche gli studi astronomici che dimostrano che da Marte a Plutone, praticamente in quasi tutto il sistema solare, si registrano aumenti di temperatura difficilmente causati dalle emissioni prodotte dalle attività umane sulla terra (Senatore Malan).
Il Senatore deve ricorrere ad altri pianeti, anche non del sistema solare come Plutone, per sostenere che l’uomo non è responsabile dei cambiamenti climatici. Per capire quanto tali pianeti siano simili alla Terra, si tenga conto che Marte non ha nuvole e non ha un campo magnetico, mentre Plutone ha un anno solare della durata di 280 anni terrestri.

Secondo posto
L’applicazione integrale degli impegni di Kyoto ridurrebbe i 6 milioni di megatonnellate di CO2 prodotti all’anno a 5.850.000 megatonnellate. Capite dunque quanto poco inciderebbe (Senatore Fluttero)
Secondo il Quarto Rapporto dell’IPCC le emissioni annue globali di CO2 nel periodo 2000–2005 sono state pari a circa 26500 megatonnellate. L’errore commesso è, quindi, solo del 22600%, ossia le emissioni effettive sono 226 volte inferiore a quanto detto dal Senatore.

Primo posto
Negli scorsi mesi si è riformata la calotta polare artica nella stessa estensione di venti o trenta anni fa (Senatore Possa).
Il Senatore confonde la variazione stagionale con quella su scala decennale: se si confrontano gli stessi mesi estivi, la diminuzione della calotta polare artica è stata di circa il 37 %: da 7.4 milioni di kmq (media 1979-1989) a 4.7 milioni di kmq (2008).

Ora, si può discutere di tutto, dalle isole di calore ai costi del Protocollo di Kyoto. Ma sostenere che non ci siano problemi per la calotta polare artica, è davvero difficile.
L’incredibile affermazione fornisce però una chiave per capire quale può essere la strategia per affrontare il problema del riscaldamento globale: dichiararlo risolto con una mozione votata da un’assemblea parlamentare.
In effetti, viste come stanno le cose, verrebbe voglia di votare a favore.

Testo di: Stefano Caserini, con un contributo di Claudio Cassardo

207 responses so far

Meraviglia, sconcerto, o qualche allegra risata?

Sul sito del Senato della Repubblica italiana è comparso il testo di una mozione, presentato da numerosi Senatori, che intende impegnare il Governo ad una serie si azioni volte di fatto a contrastare la politica europea sul clima.

immagine Senato Repubblica Italiana

Non si tratta di un pesce d’Aprile. Chi ha seguito i resoconti del convegno del 3 marzo non rimarrà sorpreso nel leggere il testo e ritrovarvi molti degli errori, dei fraintendimenti e delle mistificazioni sullo stato delle conoscenze del problema climatico di cui su questo sito abbiamo già parlato.
Nei prossimi giorni Climalteranti illustrerà con precisione i gravi errori presenti nel testo della mozione.
Si riporta nel frattempo il link ad un articolo recentemente pubblicato su EOS in cui vengono presentati i risultati di un’indagine condotta su oltre 3100 scienziati impegnati nella ricerca sul clima. Da questa indagine fra addetti ai lavori, già presentata da un post di Antonello Pasini,  si evince un sostanziale e generalizzato consenso sull’esistenza e sulle cause del cambiamento climatico, consenso che raggiunge il 97.5% fra gli intervistati con specifiche e riconosciute competenze in materia climatica.
Purtroppo, nonostante i ripetuti tentativi di mistificazione che non riconoscono o tentano di screditare o di ridurre a semplice opinione il lavoro rigoroso e onesto di migliaia di ricercatori di tutto il mondo, i cambiamenti climatici generati con probabilità molto elevata dalle attività umane sono un dato di fatto, una realtà che siamo costretti ad affrontare al pari di quanto altre potenze economiche in Europa e in Nord America hanno cominciato a fare. Prima iniziamo, meno ci verrà a costare.

Suggeriamo ai tanti lettori che ci hanno segnalato il caso, inviandoci il link del sito di Repubblica che vi ha dato risalto, a non preoccuparsi troppo: è tale l’inconsistenza scientifica del documento che c’è da scommettere che gli effetti principali che produrrà a livello europeo saranno meraviglia, sconcerto o, nella migliore delle ipotesi, sarcasmo e qualche risata.

Testo di: Stefano Caserini, Giulio de Leo, Paolo Gabrielli.

42 responses so far

L’inevitabilità delle azioni di adattamento

Con questo post inizia una nuova sezione di Climalteranti.it, che si occupa delle recensioni di libri sui cambiamenti climatici.

Mettiamoci l’anima in pace: alcuni cambiamenti climatici sono inevitabili. Come mostrato da alcuni importanti lavori scientifici, alcuni cambiamenti climatici futuri sono già “decisi” dagli attuali livelli di CO2 nell’atmosfera, si manifesteranno e dureranno per secoli. Pur se è ancora possibile limitare la dimensione dei cambiamenti climatici futuri, per quante politiche e azioni saremo in grado di mettere in pratica per ridurre le emissioni, queste non basteranno a tenere i cambiamenti climatici sotto una certa soglia. In questo panorama appare necessario, oltre che utile, sviluppare strategie di adattamento al clima che avremo davanti nei prossimi decenni. In assenza di simili strategie, ci troveremo a fronteggiare una perdita di Pil compresa tra 0,12 e lo 0,20%, pari a una riduzione del reddito nazionale di circa 20/30 miliardi di euro, l’equivalente di un’importante manovra finanziaria.
Questi numeri si leggono nel libro Cambiamenti climatici e strategie di adattamento in Italia. Una valutazione economica  (Il Mulino editore, 2009), in cui Carlo Carraro raccoglie gli esiti di un progetto di ricerca a cui hanno collaborato l’Agenzia per la Protezione dell’Ambiente e del Territorio (attuale ISPRA), il Centro Euromediterraneo per i Cambiamenti Climatici e la Fondazione Eni Enrico Mattei.

I numeri appena citati non annunciano catastrofi, non ci parlano di danni enormemente ingenti che il sistema economico italiano potrebbe trovarsi ad affrontare; il libro mette l’accento sull’esigenza di intraprendere politiche che richiedono strategie di lungo periodo. E lo fa a partire dalla metodologia utilizzata. La ricerca prende in considerazione i danni attesi dai cambiamenti climatici dopo che l’intero sistema economico avrà compiuto un adattamento autonomo, avrà cioè reagito agli effetti negativi dando luogo a un nuovo equilibrio. È a questo punto, che la ricerca calcola il danno atteso dai cambiamenti climatici.
Un altro elemento di originalità del lavoro di Carraro, sta nell’aver considerato il sistema economico italiano all’interno del contesto mondiale; in altre parole, lo studio analizza le reazioni che gli impatti dei cambiamenti climatici potranno indurre nei flussi di commercio e di capitali a livello internazionale tra l’Italia e gli altri Paesi e poi, anche qui, si procede ad analizzare i nuovi equilibri realizzati.
In sintesi, quindi, il libro è il frutto di un metodo di ricerca e di analisi che dà forma ai risultati attraverso un percorso molto delineato. Il primo passo consiste nell’analisi degli impatti fisici che i cambiamenti climatici avranno sul nostro territorio; il secondo passo riguarda la valutazione economica di questi impatti; infine, attraverso un modello dell’economia mondiale, gli impatti si traducono in cambiamenti che richiedono aggiustamenti, riadattamenti del sistema che vengono considerati fino a calcolare il danno complessivo per l’economia italiana.
Ecco qualche numero. In Italia, 16.500 km quadrati di terreno sono considerati vulnerabili al rischio di desertificazione, il che vuol dire che per questi terreni è prevista una diminuzione di resa agricola che, in completa assenza di politiche e strategie di adattamento, potrebbe essere calcolata in una cifra che oscilla tra gli 11,5 (nel caso di terreni adibiti a pascolo) e i 412,5 milioni di dollari l’anno (nel caso di terreni irrigati). Un altro esempio:  l’innalzamento della temperatura potrebbe costare nel 2030 una diminuzione del turismo straniero sulle nostre Alpi del 21,2%, mentre nel 2080 i danni del climate change sulle aree costiere della penisola sarebbero pari a 108 milioni di dollari in assenza di politiche e strategie di adattamento, costo che invece scenderebbe a circa 17 milioni se si adottassero azioni di protezioni delle coste. Dati significativi si possono trarre anche dall’osservazione di eventi passati, come ad esempio l’ondata di calore del 2003: se in quell’occasione avessimo adottato misure di adattamento, si sarebbero potuti risparmiare 134 milioni di euro.
Niente catastrofi, si diceva, anche perché il sistema economico ridistribuisce costi e benefici, danni e vantaggi: l’impatto dei cambiamenti climatici è di natura essenzialmente distributiva. E così, ad esempio, a fronte di una diminuzione di turismo internazionale possiamo attenderci un incremento di turismo interno e alcune aree saranno più esposte ai rischi della desertificazione, altre ne potranno beneficiare con la possibilità di coltivare nuovi prodotti.
Il libro segnala inoltre la difficoltà nello stimare costi “non di mercato”, ovvero quelli che vanno a insistere su realtà non soggette a scambio, e quindi senza prezzo (ad esempio la biodiversità e il patrimonio artistico e architettonico), nonché le incertezze nel ridurre gli impatti ad una dimensione unica, quella monetaria.
Ma la cosa certa è che se non saremo pronti ai cambiamenti, se non sapremo adattare il nostro sistema economico ad un clima che sicuramente sarà diverso, il prezzo sarà sicuramente più alto. E questo nel libro di Carraro è scritto a chiare lettere. Qualcuno, all’estero, ci sta già pensando e sta progettando strategie di adattamento di lungo periodo. Quando i cambiamenti climatici mostreranno in maniera più evidente i loro impatti, chi si sarà mosso prima si farà trovare pronto. E in Italia?

Testo di Mauro Buonocore, Centro Euromediterraneo per i Cambiamenti Climatici

Carlo Carraro
Cambiamenti climatici e strategie di adattamento in Italia
Una valutazione economica
Il Mulino, 2009
pp. 528, € 39,00

8 responses so far

Il metodo Battaglia, ovvero dell’autoreferenzialità

La maggior parte dell’intervento del Prof. Franco Battaglia al convegno dello scorso 3 marzo non ha riguardato il tema dei cambiamenti climatici, ma quello dell’energia. Come si può ascoltare nella registrazione audio che abbiamo trovato qui e qui, Battaglia ha spiegato le sue ricette per la produzione economica di energia e per far fronte al problema del picco del petrolio. La tesi da lui sostenuta, come in occasione passate, è l’inutilità del risparmio energetico, dell’efficienza energetica e delle energie rinnovabili, e la necessità di affidarsi interamente all’energia prodotta attraverso la fissione nucleare.
Alcune frasi sintomatiche sono “Di uranio come combustibile nucleare ce n’è per 10.000 anni…“, “Obama, il nuovo presidente degli Stati Uniti vuole creare nuovi posti di lavoro nel settore del fotovoltaici e dell’eolico e fa un grosso errore…” e “Non è la produzione di energia che crea posti di lavoro ma il consumo di energia”
Senza entrare troppo nel merito, che ci porterebbe fuori dall’obiettivo di questo blog, sorprende ancora la lontananza delle tesi di Battaglia da quanto proposto dal resto della comunità scientifica, come era avvenuto per le tesi sulle responsabilità umana sulle variazioni climatiche (vedi il post precedente). La stragrande maggioranza degli studi proposti nella letteratura scientifica propongono una risposta al problema climatico ed energetico formata da diverse strategie e tecnologie, in cui l’efficienza energetica e le energie rinnovabili giocano un ruolo importante: “Portfolio of options”, si dice in inglese. Ci sono intere riviste scientifiche che ne parlano, con ricerche che durano anni e alla fine sono pubblicate in lavori complessi ed interessanti, come ad esempio i famosi lavori di Pacala e Socolow, questo lavoro europeo, o la sintesi dell’IPCC.

Climalteranti ha quindi chiesto spiegazioni al Prof. Battaglia, in una breve intervista effettuata al termine del convegno del 3 marzo, il cui video è disponibile qui.
L’intervista merita di essere vista perché contiene la spiegazione di quello che potremmo chiamare il ”metodo Battaglia” per la produzione di una pubblicazione scientifica, che non si basa sul sottoporre le proprie tesi alle forche caudine della peer review, ma nel pubblicare un libretto per una casa editrice sconosciuta, con la prefazione di una personalità politica, e attendere che qualcuno prima o poi lo critichi.
Battaglia afferma di essere pronto a ritirare il libretto qualora qualcuno avanzasse delle critiche; le critiche sono arrivate, ma il prof. Battaglia non le ha forse viste.

In altre parole, mentre il metodo standard per una pubblicazione scientifica è:
1)    Si propone il lavoro ad una rivista scientifica del settore, dotata di sistemi di peer-review;
2)    Si risponde alle eventuali osservazioni pervenute durante la revisione;
3)    Si risottopone il lavoro che, se viene ritenuto valido, viene pubblicato
il metodo Battaglia è, invece:
1)    Si cerca una casa editrice sconosciuta per pubblicare la propria tesi;
2)    Si chiede ad una personalità politica di fama di scrivere una prefazione;
3)    Dopo la pubblicazione si evita di rispondere alle stroncature affermando che non ci sono critiche.

L’intervista contiene, poi, almeno due passaggi spassosi.
Il primo quando Battaglia risponde all’osservazione che “non si tratta di una pubblicazione scientifica” affermando “è una pubblicazione scientifica… perché l’ho scritta io…”.
Il secondo contiene la spiegazione del motivo della mancanza di pubblicazioni scientifiche del Prof. Battaglia sull’argomento in questione (energia), già mostrata sul tema del clima: gli argomenti delle strategie energetiche sono… “troppo semplici”.. “banali” ! Lui pubblica su argomenti di meccanica quantistica, che sono difficili, mica su questioni “semplici” come le strategie energetiche. La cosa strana è che nessuno lo invita a parlare di meccanica quantistica, mentre riesce a farsi passare come esperto di energia e di clima.
Certo che sono mattacchioni gli studiosi che pubblicano le loro analisi sulle strategie di mitigazione dei cambiamenti climatici su Energy, su Energy policy o su Climate policy, e che perdono tempo a pubblicare testi scientifici su questi temi, quando tutto è… così banale!

Guarda l’intervista realizzata da Climalteranti qui .

A cura di Stefano Caserini, con contributi di Claudio Cassardo, Paolo Gabrielli, Daniele Pernigotti, Marina Vitullo.

21 responses so far

Un convegno sul clima senza climatologi /2: il chiacchierone del clima

Il secondo relatore al convegno dello scorso 3 marzo è stato il Prof. Franco Battaglia, che ha presentato il libretto “La natura, non l’attività dell’uomo, governa il clima”. L’intervento, di cui abbiamo trovato l’audio qui, è stato un condensato delle solite tesi negazioniste, la cui stroncatura è disponibile da più di due mesi.
Il Prof. Franco Battaglia non è certo un nome nuovo per il nostro sito. Dopo l’assegnazione del Premio “A qualcuno piace caldo 2007”, anche nel 2008 e 2009 non ha deluso le aspettative ed ha proseguito con articoli e interviste mirate a combattere quello che da anni definisce “il bluff del riscaldamento globale”. L’ultimo articolo è stato pubblicato in prima pagina su un quotidiano a tiratura nazionale l’8 gennaio 2009 “Io fisico controcorrente vi spiego il bluff del riscaldamento globale”. Dopo l’attacco iniziale “Scrivere proprio oggi sulla colossale balla del riscaldamento globale è, come s’usa dire, come sparare sulla croce rossa”, il Prof. Battaglia espone una rassegna di argomentazioni trite e ritrite, incurante delle stroncature già ricevute (si veda qui) e poi conclude con un finale in cui fa un appello per contrastare il nuovo corso della politica europea su clima e energia.
Anche al convegno del 3 marzo il Prof. Battaglia ha definito una “congettura”, una “isteria da caldo” la preoccupazione relativa al riscaldamento globale. È difficile che vi siano vie di mezzo, per chi usa queste “argomentazioni”: o il Prof. Battaglia ha capito tutto, oppure ha capito poco o nulla.

Ma quanto è attendibile il Prof. Battaglia in ambito climatologico?

Uno dei modi che la comunità scientifica internazionale usa per misurare il credito di cui gode uno scienziato è quella di valutare la sua produzione scientifica. Siamo andati quindi a cercare le pubblicazioni scientifiche del Prof. Franco Battaglia.
***
E’ necessario però fare innanzitutto due premesse riguardo cosa sono e dove si possono trovare le pubblicazioni scientifiche e come si può valutare oggettivamente la produzione scientifica complessiva di uno scienziato. Una pubblicazione scientifica è sostanzialmente un articolo che appare su una rivista qualificata che, prima di essere pubblicato, viene sottoposto  ad un processo di revisione affidato a scienziati competenti del ramo, ossia ad una peer review. La base dati di riferimento delle pubblicazioni è l’ISI Web of Knowledge (contiene solo riviste ISI, ossia le riviste internazionali più qualificate, in cui il materiale pubblicato è stato verificato). In questo database è presente anche una stima dell’ ”impact factor” di ogni rivista che, pur presentando ancora molti punti critici, indica la rilevanza della rivista stessa. La base dati di Google Scholar include invece anche pubblicazioni a carattere divulgativo (congressi, riviste, libri…), non sempre sottoposte a processi di peer-review. Tuttavia questo database può essere comunque idoneo per avere un’idea generale della produzione scientifica di uno scienziato con il grosso vantaggio di essere accessibile a tutti.
***
Per valutare l’autorità scientifica acquisita da uno scienziato durante il corso della sua carriera,
sono stati proposti diversi “indici”, come quello di Hirsch che si può calcolare mediante il database di ISI Web of Knowledge oppure utilizzando Google Scholar. Questi sistemi di valutazione sono diventati piuttosto popolari e, pur presentando diverse limitazioni, (discusse ad esempio qui), sono largamente accettati come misure sintetiche e oggettive della rilevanza e della quantità dei contributi scientifici. L’indice di Hirsch (h-index), sintetizza sostanzialmente la produttività scientifica di uno scienziato (numero di pubblicazioni) e l’impatto dei suoi articoli nella comunità scientifica (numero di citazioni). In breve un ricercatore ha un h-index pari a h se h dei suoi articoli sono stati citati ciascuno almeno h volte. Sembra difficile ma non lo è: richiamando il nome di un autore su Scholar Google (per Tizio Caio ad esempio: “author: t-caio” oppure “author: tizio-caio”) si ottengono le sue pubblicazioni elencate in ordine di rilevanza sulla base del numero di citazioni ottenute. Per ottenere l’h-index si procede dunque a contare le pubblicazioni fino a che queste non risultano pari o superiori al numero delle citazioni: questo numero è l’h-index.
L’h-index varia molto soprattutto in funzione degli anni di carriera e del successo di uno scienziato e può andare da circa 30-40 per scienziati che hanno acquisito un’indiscussa autorità e fama nel loro settore fino a qualche punto per i ricercatori all’inizio della loro carriera. Ma non solo…
***
Secondo il data base di Scholar Google, a partire dal 1982 il Prof. Franco Battaglia avrebbe pubblicato 16 articoli (ringraziamo anticipatamente chi volesse eventualmente segnalarcene di ulteriori) su riviste scientifiche ISI, l’ultimo dei quali nel 2004, con una media di circa un articolo ogni due anni. Nessuno di questi lavori è stato pubblicato su riviste che trattano temi legati in qualche modo all’ambiente e tanto meno alla climatologia. La sua produzione scientifica riguarda per lo più argomenti di chimica fisica teorica. Professionalmente, il Prof. Battaglia non sembra dunque essersi mai occupato di climatologia, meteorologia o di discipline affini alla fenomenologia dei problemi ambientali o alle politiche di risanamento.
Considerando dunque unicamente i suoi  16 articoli di chimica fisica, questi sono stati pubblicati su riviste con un impact factor medio di 2.2 e solo raramente sono stati citati su altre pubblicazioni scientifiche. Infatti, l’h-index totalizzato dal Prof. Battaglia dopo quasi 30 anni di carriera è pari a 3 ovvero unicamente 3 dei suoi articoli sono stati citati almeno 3 o più volte da altri autori. Tuttavia, sulle tematiche relative a clima ed energia, nonostante un’ampissima raccolta di articoli sui quotidiani, il Prof. Franco Battaglia non avrebbe neppure una pubblicazione scientifica ISI, e il suo h-index in questo settore sarebbe dunque pari a zero.
***
In conclusione, è importante chiarire che non si vuole qui insinuare che solo chi ha pubblicazioni scientifiche ad hoc può discutere di cambiamenti climatici e di politiche ambientali in quanto tutti hanno ovviamente il diritto di presentare i loro argomenti, indipendentemente dall’autorità acquisita nella comunità scientifica. Tuttavia sarebbe opportuno che chi è estraneo alla climatologia o più in generale alle tematiche ambientali fosse più cauto nell’accusare il resto della comunità scientifica di essere una banda di visionari. Sarebbe infine anche auspicabile che i mass media verificassero l’attendibilità della loro fonte prima di presentarla come un luminare di questo o quel settore o che almeno evidenziassero il carattere strettamente personale di alcune opinioni che non rientrano in un contesto di un più ampio e rigoroso dibattito scientifico.

A cura di Paolo Gabrielli, con contributi di Stefano Caserini, Claudio Della Volpe e Daniele Pernigotti

Articoli peer reviewed ISI del dott. Franco Battaglia

47 responses so far

Un convegno sul clima senza climatologi /1 – Il supermondo e l’Hiroshima culturale.

Il 3 marzo scorso si è svolto a Roma il convegno “Cambiamenti climatici e ambiente politico”, presentato nello scorso post a cui è seguito un acceso dibattito. Il dibattito è stato vivace anche nel blog di Antonello Pasini a seguito di un interessante e condivisibile post.
Ci sarà tutto il tempo per entrare nel merito delle tesi negazioniste riproposte anche in questa occasione romana.
Per iniziare segnaliamo l’audio dell’intervento introduttivo del Presidente della sessione scientifica, il Prof. Antonino Zichichi, che abbiamo trovato su YouTube.

foto prof Zichichi

Si tratta di 5 parti (link a ogni parte: Parte 1, Parte 2, Parte 3, Parte 4, Parte 5) di circa 5 minuti ognuna.
L’ascolto è divertente, e pur se alcune assurdità e frottole sono già state raccontate dallo stesso Zichichi, altre sono effettivamente originali.
Non ci sembra il caso di fare commenti se non fornire due informazioni.
La prima è che abbiamo verificato che non si tratta di una delle imitazioni del Prof. Zichichi da parte del comico Maurizio Crozza (esempio), ma proprio dell’intervento originale.
La seconda è che l’intervento è stato applaudito e nessuno dei successivi relatori ha avanzato alcuna perplessità o critica; se ne deduce che l’intervento è stato proprio preso sul serio (come si può leggere qui e qui).

Per invogliare all’ascolto abbiamo estratto alcune frasi, che di diritto vanno ad aggiungersi al catalogo delle “Zichicche” e che riproponiamo qui di seguito:

Parte 1:inizio
Grazie Presidente, io sono molto lieto di essere qui in quanto viviamo un momento che passerà nella storia del mondo: tra 2 o 3 secoli scriveranno di noi. E’ la prima volta che argomenti di natura non scientifica vengono portati come previsioni scientifiche…

Parte 1: min. 3.58
Se fosse vero quello che dicono gli specialisti dell’IPCC, io dovrei dire “Non c’e’ bisogno di fare esperimenti, sappiamo tutto, esiste il supermondo e vi spiego perché… ”

Parte 1: min. 4.24
…e infatti potrebbe darsi che al Centro Europeo di Ginevra, contrariamente a tutto quello che si dice, non venga scoperto il supermondo. E’ già successo 7 volte nella storia della scienza galileiana, l’ultima volta nel 1947, quando Enrico Fermi disse ai suoi collaboratori di Chicago: “Ragazzi forse – era molto prudente Fermi – abbiamo stavolta veramente capito tutto”.

Parte 2: min. 2.31
Questa matematica ha 2 punti di riferimento: uno è la nostra fisica, fondamentale , con la quale io sto lavorando al Cern, l’altro è invece la meteorologia.
Se noi siamo costretti a fare esperimenti per verificare se sono vere le nostre previsioni, come fanno questi signori a prevedere la fine del mondo, insomma, quasi… al punto da costringere tutti i capi di governo, incluso la più potente nazione del mondo, la più democratica e libera, gli Stati Uniti d’America, e il loro Presidente, a prendere decisioni che non sono corroborate da una struttura scientifica tale da permettere di prendere decisioni che costano miliardi di euro. Se noi scopriamo che non c’è il supermondo, questo non costa nulla alla società civile. Non c’è, e c’è un’altra cosa. Ma non abbiamo speso cento 200 3000 di miliardi di dollari, migliaia di miliardi di dollari di cui stiamo parlando. E questa è la parte matematica. Poi c’è la parte sperimentale…

Parte 3: min. 0.24
[Parlando della formazione delle nubi]… ancora oggi il fenomeno non è capito e nessuno può dire a me che lui lo sa, perché io lo incastro subito: non è vero. La NASA infatti ha lanciato 2 satelliti, adesso si chiama…[non comprensibile…] per studiare la formazione delle nuvole, come conseguenza di questo dibattito che la NASA prende seriamente. Quindi prima che l’uomo si mettesse in testa di capire come si formano le nuvole si fanno previsioni su che cosa? Sull’atmosfera!

Parte 3: min. 1.24
In un articolo di Geoscience è venuto fuori che è stato scoperto che la circolazione oceanica, io non voglio entrare in dettaglio sennò ci perdiamo, ma, l’oceano, grande quantità d’acqua, che ha quello che chiamano tapis roulant, un affare che circola e che va in superficie, a sud dell’oceano, e quindi sono acque calde. Queste acque calde, per circa 10 anni, salendo verso il nord si inabissavano, senza che nessuno ne capisse il motivo. Da dieci anni a questa parte questo inabissamento non è più avvenuto. Ecco perché la temperatura mostra segni di aumentare. Nell’ultimo inverno hanno ricominciato a precipitare dentro, ad riinabissarsi. Se questo fenomeno continua, vedete che il global warming sparisce, perché questo innalzamento di queste correnti oceaniche non è capito. Questo per dire un dettaglio dei numerosi dettagli…

Parte 3: min. 3.30
Nel motore atmosferico, qual è l’incidenza delle attività umane? E’ un tema sul quale si sono impegnate parecchie persone. Tra queste quello che io rispetto molto e’ Freeman Dayson, un grande fisico teorico,  che è stato con noi in diverse occasioni. E non c’è bisogno di grandi dettagli, per scoprire che sul motore meteorologico, l’incidenza delle attività umane, è inferiore al 10%. Ma diciamo in 10,  in verità è il 5-6%. E il 90 dove lo mettiamo? Io vado in banca: ho il 6 % delle azioni e comando sugli altri ?

Parte 4: min. 0.20
L’anidride carbonica non va demonizzata, è cibo per le piante, e l’effetto serra non va demonizzato. Questo è quanto Enrico Fermi chiamava Hiroshima culturale.

Parte 4: min. 2.10
L’alleanza tra scienza e forze politiche responsabili è l’unica via per uscire da questo stato di Hiroshima culturale. Siamo in piena Hiroshima culturale.

Parte 4: min. 2.40
L’IPCC è nata ad Erice, quanto era segretario generale della WMO, un nigeriano, che, per nostra fortuna era anche fisico, in gamba, professore al MIT. Ed io dissi a questo mio collega, ci conoscevamo come colleghi a Ginevra, visto che tu sei segretario generale, cerca di portare un po’ di scienza in questa attività, lui venne per 3 anni ad Erice e si entusiasmò del rigore che noi portiamo nei nostri seminari e mi invitò ad aprire il congresso mondiale della WMO, e in quella occasione, 1985…1986…, presentai dal punto di vista scientifico gli stessi argomenti di adesso… adesso sono aggiornati…

Parte 4: min. 3.52
Perché la scienza ha credibilità? Perché se dice…. come nasce la credibilità scientifica? Con Galileo e Newton, e la famosa cometa se non appariva come previsto da Newton, invece esplode l’interesse verso la scienza. La credibilità scientifica rischia di essere compromessa… ecco perché c’è bisogno di una forza politica responsabile.

Parte 4: min. 4.30
Quando si dice che ci sono 2500 scienziati del clima. Non è vero, non esistono 2500 scienziati del clima… infatti .. basta vedere i nomi di questi signori…

A cura di Stefano Caserini, Marina Vitullo, Daniele Pernigotti, Simone Casadei, Aldo Pozzoli, Cluadio Cassardo

77 responses so far

Per un dialogo corretto fra scienza e decisori politici: no ai convegni sul clima senza climatologi

Nonostante l’ormai schiacciante evidenza scientifica sulla rilevanza del problema dei cambiamenti climatici e sulle responsabilità umane e senza curarsi del fecondo e aperto dibattito che anima ormai da tempo le migliori università di tutto il mondo, fra cui Stanford, Princeton e Berkeley, su costi e benefici della lotta contro i cambiamenti climatici, in Italia continuano a fiorire le occasioni pubbliche e gli articoli della stampa con cui si cerca di mettere in discussione l’esistenza del riscaldamento del pianeta, il ruolo delle attività umane o la convenienza di azioni di mitigazione.

Ultima in ordine di tempo è stata la notizia (falsa), apparsa a gennaio su molti quotidiani nazionali, di una fase di forte espansione della calotta polare e dei ghiacci alpini. Nonostante l’inconsistenza di queste notizie emerga di solito dopo pochi giorni, preoccupa come queste false informazioni, così come altre posizioni non supportate da dati oggettivi e credibili, arrivino ad essere veicolate ai rappresentanti politici nazionali come se fossero la “verità scientifica” sul clima.

Sono questi i contorni dell’incontro che si terrà il 3 marzo a Roma ed al quale  parteciperanno in una tavola rotonda i Presidenti ed importanti rappresentanti delle Commissioni Ambiente di Camera e Senato.
È curioso che il panel di relatori chiamati a intervenire nella “sessione scientifica” non includa veri esperti della tematica climatica ma sia caratterizzato da una assoluta e ampiamente documentata faziosità e ostinazione nel negare sistematicamente, contro ogni evidenza scientifica, l’esistenza dei cambiamenti climatici e la loro rilevante componente antropica.
Con una strategia ormai largamente sperimentata, fra i relatori, che si alterneranno nell’incontro organizzato a Roma, sono presenti sì scienziati e docenti universitari ma tutti fondamentalmente privi di una specifica competenza scientifica sulla materia dei cambiamenti climatici: come se non bastasse, salvo alcune eccezioni, i professori e gli scienziati del convegno di Roma sono sostanzialmente privi di pubblicazioni su riviste scientifiche internazionali non solo sulle tematiche climatiche ma più in generale su quelle ambientali. In quanto tali risultano niente di più che semplici opinionisti, non più autorevoli di un climatologo che pontifica sullo stato di risanamento dei conti pubblici italiani o sulla cura migliore del tumore al cervello.

Spicca, invece, l’assoluta mancanza di contraddittorio e di rappresentanza di quei pur numerosi climatologi italiani (come Filippo Giorgi, Antonio Navarra e molti altri ancora) che si sono guadagnati con serietà, dedizione e impegno, un ruolo di rilievo nella comunità scientifica internazionale e che contano decine di pubblicazioni scientifiche anche di grande importanza sul tema, nonché  la collaborazione proprio con quell’IPCC del quale ora, in questo incontro, si vuole minare la credibilità.
Il documento a supporto delle tesi negazioniste, che sarà presentato come punto centrale del tavolo del 3 marzo a Roma (“La natura, non l’attività dell’uomo, governa il clima”), è già stato stroncato dalla comunità scientifica di tutto il mondo. Questo perché propone tesi non sostenute da dati affidabili ed in secondo luogo perché è stato creato con la collaborazione di scienziati non specializzati nello studio dei cambiamenti climatici.
La stroncatura del documento è da mesi disponibile su Realclimate, uno dei blog internazionali più autorevoli sulle tematiche climatiche, la cui traduzione è disponibile da dicembre sul sito Climalteranti.it. Il rapporto succitato ha otto capitoli; cinque di questi hanno titoli che sono semplicemente falsi. I rimanenti tre capitoli pongono domande fuorvianti e in malafede, se non semplicemente disoneste, cui gli autori forniscono “risposte” basate su una letteratura scadente e selezionata in modo da evitare accuratamente tutte le pubblicazioni successive che contraddicono le tesi precostituite.
Il rapporto è stato pubblicato dall’Heartland Institute, una nota organizzazione politica di stampo negazionista che in passato ha ricevuto finanziamenti dalle compagnie petrolifere, per il NIPCC (Nongovernmental International Panel on Climate Change), una sigla che richiama in modo ingannevole il panel scientifico dell’ONU e sembra essere stata creata proprio per generare confusione nell’opinione pubblica. L’NIPCC, lungi dall’essere connesso ad alcun progetto delle Nazioni Unite, è stato invece istituito includendo scienziati di scarsa competenza sulle tematiche climatiche. Nella stesura di questo rapporto non è stato previsto alcun processo di controllo e di verifica da parte del resto della comunità scientifica.  Da notare che decine di scienziati inseriti nell’elenco degli estensori del rapporto hanno negato la loro partecipazione a questo gruppo e hanno espresso tesi opposte a quelle sostenute nel volume.

L’unico italiano presente nell’NIPCC, che illustrerà il volume nel convegno del 3 marzo, è un docente universitario, il Prof. Franco Battaglia, già vincitore del Premio “A qualcuno piace caldo 2007” . Costui non ha al suo attivo alcuna pubblicazione scientifica ISI (quelle riconosciute a livello internazionale) non solo nel settore delle climatologia, ma anche più in generale in quello ambientale; autore di alcune pubblicazioni di fisica-chimica teorica di scarsa rilevanza, è conosciuto solo come autore di articoli su un quotidiano nazionale, di nessun valore scientifico.
L’unico relatore indicato come “climatologo”, Guido Guidi,  non è uno scienziato impegnato in ricerche sui cambiamenti climatici, bensì un maggiore dell’Aeronautica militare che si occupa di previsioni del tempo a medio termine. Guidi pubblica su un blog tesi spesso senza fondamento scientifico sul tema dei cambiamenti climatici (ad esempio, l’ultimo granchio preso si trova qui).

Come cittadini italiani e ricercatori impegnati a divulgare in modo corretto la problematica dei cambiamenti climatici intendiamo ribadire quanto segue:
•    Il documento scientifico che sarà presentato nel convegno di Roma del 3 marzo nei locali della Camera dei Deputati è privo di fondamento scientifico ed è stato elaborato in modo fazioso e non trasparente;
•    I dati scientifici disponibili a livello internazionale sono incontrovertibili nell’individuare un preoccupante riscaldamento del pianeta e nel riconoscere in questo un ruolo centrale dell’uomo;
•    Il dibattito scientifico sui cambiamenti climatici deve restare un dibattito aperto, e non deve essere portato avanti senza il coinvolgimento di chi davvero studia davvero la climatologia e si confronta in ambito scientifico a livello internazionale;
•    È grave presentare al mondo politico italiano uno spaccato non rappresentativo, anzi distorto,  di quello che pensa la comunità scientifica su questi temi, quando invece la comunità scientifica internazionale è fondamentalmente unanime sulla valutazione delle cause (antropiche) come sull’entità del problema e sulla necessità di intraprendere rapidamente delle drastiche misure correttive per la riduzione dei gas climalteranti.

Il Comitato Editoriale di Climalteranti.it

144 responses so far

Dicembre 2008 e gennaio 2009: eccezionali veramente?

Sintesi: l’analisi a scala globale dei dati relativi al bimestre dicembre ’08-gennaio ’09 appena trascorso mostra che tale periodo non può essere considerato eccezionale non solo dal punto di vista climatico (in quanto una singola stagione non dice nulla sul clima), ma neppure da quello meteorologico, in quanto le anomalie termiche e pluviometriche riscontrate hanno riguardato soltanto una piccola porzione del territorio nazionale (peraltro compatibili con quelle verificatesi negli anni precedenti) mentre a livello globale l’anomalia termica e’ addirittura stata positiva.

a

Fa freddo. È questo il commento un po’ generale che imperversa ormai dall’inizio di dicembre. Ma non vorrei qui ripetere per l’ennesima volta quale sia la differenza tra tempo meteorologico e clima (concetto già ribadito più volte nei post precedenti), quanto piuttosto insistere sul fatto che occorre sempre analizzare i dati nella loro globalità, non in singole stazioni. Infatti, se anche l’inverno 2008-09 avesse fatto registrare in qualche stazione italiana, o anche, al limite, in tutta Italia, i valori minimi di temperatura delle serie storiche (cosa che, come vedremo, non è vera), non si potrebbe comunque parlare di cambiamento del clima, ma solo di un evento o di una serie di eventi, al limite insoliti; inoltre, analizzando la situazione globale, si scoprirebbe che questo evento probabilmente è bilanciato da una altrettanto significativa anomalia calda in altre zone del mondo.
Il mio obbiettivo è quindi quello di rispondere alla domanda: “quest’anno è stato freddo o no?” facendo chiarezza ed esaminando i dati disponibili.
Non essendo ancora terminato l’inverno (che meteorologicamente finisce a fine febbraio), possiamo commentare i primi due mesi dell’inverno meteorologico 2008-2009 usando le mappe meteorologiche che ho creato utilizzando i dati messi a disposizione dalla NOAA (National Oceanic and Atmospheric Administration) su questo sito. È un giochino interessante e chiunque può divertirsi facendosi la propria climatologia: si possono visualizzare una ventina di variabili sulla porzione del globo terrestre che più interessa, alla risoluzione spaziale di 2.5 gradi in longitudine e latitudine (cioè circa 125 Km alle nostre latitudini, non sufficiente per i dettagli locali ma sufficiente per gli andamenti generali), e si può calcolare l’anomalia della grandezza considerata, cioè la differenza fra il valore registrato in un certo periodo e il valore medio su un periodo di riferimento. NOAA ha scelto come periodo di riferimento il 1968-1996, che è un po’ diverso dal trentennio abitualmente scelto come riferimento 1961-90 (volendo, con un po’ di tempo in più si può scegliere il periodo che si vuole) ma le differenze non sono poi così significative. Ho quindi creato i grafici delle anomalie di temperatura e precipitazione relative agli ultimi due mesi di dicembre 2008 e gennaio 2009 confrontandoli con le medie.
Cominciamo a vedere la mappa che riporta le anomalie a scala globale (Fig. 1 – i colori blu e rosso scuro evidenziano, come nei rubinetti, le zone rispettivamente con anomalia negativa e positiva).

T superf dic08-gen09

Figura 1 – Anomalia di temperatura superficiale sul globo terrestre 1 Dicembre 2008 – 30 Gennaio 2009 rispetto al periodo di riferimento 1968-1996. Grafico generato dalle informazioni NOAA.

Beh, sicuramente non si può dire che, a scala globale, sia stato un bimestre freddo. Ci sono, è vero, dei minimi (Antartide, Stati Uniti, Cile), ma anche dei massimi, in particolare sulle regioni del Polo Nord, nei pressi delle isole Svalbard (fino a 12 °C!). Facendo uno zoom sull’emisfero Nord (Fig. 2), si notano delle ampie zone con anomalie positive sull’Africa, sulle zone polari, sul Pacifico, e due piccole aree al centro degli Stati Uniti e sull’Ungheria, mentre sono presenti alcune zone di anomalia negativa sul Canada e sugli Stati Uniti orientali, nei pressi dell’Alaska, e in altre quattro piccole zone distribuite tra Europa, Africa settentrionale e Asia. Come chiunque può vedere, l’estensione delle aree con anomalia positiva è nettamente maggiore di quelle con anomalia negativa, per cui si può dire che, per quanto riguarda l’emisfero nord, il bimestre considerato è stato più caldo della norma.

T emisfero Nord dic08-gen09

Figura 2 – Anomalia di temperatura superficiale sull’emisfero Nord nel periodo 1 Dicembre 2008 – 30 Gennaio 2009 rispetto al periodo di riferimento 1968-1996. Grafico generato dalle informazioni NOAA.

I dettagli sulla zona europea (Fig. 3) e sull’Italia (Fig. 4) riportano un numero maggiore di isolinee e mostrano una zona con anomalie negative di temperatura con i minimi sulla Francia centrale e sul Marocco estesa dalla Germania meridionale fino all’Africa nord-occidentale, e che lambisce anche l’Italia nordoccidentale. Il resto dell’Italia si trova in una zona intermedia che confina con un’area molto ampia di anomalie termiche positive che si estende dal Mediterraneo orientale verso nord.

T superf europa dic08-gen09

Figura 3 – Anomalia di temperatura superficiale sull’Europa nel periodo 1 Dicembre 2008 – 30 Gennaio 2009 rispetto al periodo di riferimento 1968-1996. Grafico generato dalle informazioni NOAA.

T superf Italia dic 08-gen09

Figura 4 – Anomalia di temperatura superficiale sull’Italia nel periodo 1 Dicembre 2008 – 30 Gennaio 2009 rispetto al periodo di riferimento 1968-1996. Grafico generato dalle informazioni NOAA.

Dunque, si è effettivamente registrata un’anomalia di temperatura lievemente negativa su una parte del territorio nazionale, del resto confermata anche dall’analisi condotta dal Centro Nazionale di Meteorologia e Climatologia Aeronautica sul Bollettino Climatico di Gennaio 2009. Quanto è significativo questo dato? Per rispondere a questa domanda, ho generato le mappe relative alle anomalie di temperatura sul territorio nazionale e sulle aree limitrofe relative agli ultimi 12 periodi invernali dicembre-gennaio (reperibili su questo sito). La loro analisi mostra chiaramente che questo bimestre non è stato né l’unico né il più freddo nel periodo considerato. Se è vero, infatti, che ci sono stati dei bimestri nettamente più caldi (1997-98, 2000-01, e il famigerato 2006-07), è anche vero che non mancano gli anni con anomalie negative (1998-99 solo sul sud Italia, 1999-2000, 2001-2, 2003-4, 2004-5 solo sul nord Italia, e poi il bimestre 2005-6, molto più freddo su tutto il territorio nazionale rispetto a quello attuale).
Per un maggiore dettaglio su una singola località, tra tutte le possibili scegliamo Torino, un po’ perché ci abito, ma soprattutto perché, grazie all’encomiabile meticolosità ventennale di Luca Mercalli e Gennaro Di Napoli, culminato nel libro “Il clima di Torino” (un’enciclopedia di oltre 900 pagine, disponibile su questo sito della Società Meteorologica Italiana) appena pubblicato, sono disponibili i dati di temperatura dal 1753, di pioggia giornaliera dal 1802 e di neve cumulata giornaliera dal 1787 (quest’ultima è la serie più lunga al mondo), tutte omogeneizzate, e le analisi su tali dati. Paragonando la temperatura invernale a Torino con la media relativa al periodo 1961-90 (Fig. 5), si osserva come sostanzialmente si sia verificata una leggera anomalia negativa, pari rispettivamente a –0.4°C per le minime ed a –0.7°C per le massime, dovuta principalmente alle irruzioni fredde dei primi 12 giorni di dicembre e da Natale all’11 gennaio.

T Torino

Figura 5 – Andamento delle temperature minime e massime giornaliere rilevate a Torino nel periodo 1 novembre 2008 – 16 febbraio 2009 paragonate con i valori medi relativi al trentennio 1961-1990. Dati forniti dalla Società Meteorologica Italiana, elaborazioni a cura di Daniele Cat Berro e Luca Mercalli.

La stima provvisoria della temperatura media a Torino relativa al trimestre invernale (dicembre-febbraio) è di 3.3°C (manca però metà febbraio), simile all’inverno 2005-06 (3.4 °C) ed inferiore alla media 1961-90 (3.8 °C), come si può vedere nella Fig. 6.

T Torino inverno

Figura 6 – Andamento delle temperature medie del trimestre invernale dicembre-febbraio durante l’intero arco delle misure relative alla serie storica di Torino. Dati forniti dalla Società Meteorologica Italiana, elaborazioni a cura di Daniele Cat Berro e Luca Mercalli.

E per quanto riguarda le precipitazioni, che cosa si può dire? Analizzando i grafici delle anomalie del rateo di precipitazione (in mm/giorno) sull’Italia (Fig. 7), si nota l’evidente area di anomalia positiva (colore blu) che coinvolge l’intero territorio nazionale nell’ultimo bimestre, con un picco evidente sulle regioni meridionali italiane: il 2008-09 è stato effettivamente un bimestre abbastanza piovoso (o nevoso, in certe zone).

Piogge Italia

Figura 7 – Anomalia di rateo di precipitazione (mm/giorno) sull’Italia nel periodo 1 Dicembre 2008 – 30 Gennaio 2009 rispetto al periodo di riferimento 1968-1996. Grafico generato dalle informazioni NOAA.

Ma il confronto con gli altri 12 bimestri invernali riportati su questo sito per gli ultimi 12 bimestri invernali dicembre-gennaio mostra che, sulle regioni meridionali italiane, anomalie simili si sono verificate anche in altri anni (in particolare nei quattro inverni consecutivi dal 2002-3 al 2005-6, e nel 2007-8), mentre per quanto riguarda il nord Italia le anomalie positive sono state effettivamente molto più rare.
A Torino, in particolare (Fig. 8), dal 1° novembre al 20 febbraio, si sono accumulati ben 518.7 mm, dovuti principalmente ai due eventi di inizio novembre (120 mm) e metà dicembre (211 mm), e tale quantitativo rappresenta il record di tutta la serie per quanto riguarda il periodo novembre-febbraio (il record precedente fu registrato nel lontano 1825-26, con 509.4 mm).

Pioggia e  neve Torino 08-09

Figura 8 – Precipitazioni (pioggia e neve fusa) giornaliere accumulate nel periodo novembre 2008 – febbraio 2009 registrate a Torino: confronto con la media del trentennio 1961-90 e con il massimo quadrimestrale precedente. Dati forniti dalla Società Meteorologica Italiana, elaborazioni a cura di Daniele Cat Berro e Luca Mercalli.

Le temperature più rigide e le precipitazioni più abbondanti a Torino hanno avuto come conseguenza un incremento notevole del numero e dell’intensità delle nevicate: a fronte di una media di 7.2 giorni con nevicate nel periodo 1961-90, nel 2008-09 si è visto nevicare in 14 giornate (Fig. 9), valore nettamente inferiore al massimo storico di 30 episodi del 1837 (ma in tale epoca si stava uscendo dalla Piccola Età Glaciale), ma nettamente superiore a quelli degli ultimi anni (era dal 1986 che non nevicava così frequentemente: 16 giorni).

giorni neve Torino

Figura 9 – Giorni con nevicate nel periodo novembre 2008 – febbraio 2009 a Torino e quantitativo di neve accumulata giornaliera. Dati forniti dalla Società Meteorologica Italiana, elaborazioni a cura di Daniele Cat Berro e Luca Mercalli.

Il manto totale depositatosi in città nel trimestre dicembre-febbraio è stato di 66 cm (di cui 32 cm tra il 6 e l’8 gennaio), valore nettamente superiore alla media 1961-90 (28 cm) ed ai valori tipici degli ultimi anni (quando in ben tre casi – nel 1988-89, 1989-90 e 2006-07 – non nevicò affatto in città: si veda la Fig. 10).

neve Torino

Figura 10 – Neve fresca accumulata nell’anno idrologico registrata presso gli osservatori della serie storica di Torino dal 1787 a oggi. Dati forniti dalla Società Meteorologica Italiana, elaborazioni a cura di Daniele Cat Berro e Luca Mercalli.

L’analisi appena condotta, sia pure parziale poiché la stagione non è ancora terminata, mostra comunque che il bimestre appena trascorso non può essere considerato eccezionale non solo dal punto di vista climatico (in quanto una singola stagione non dice nulla sul clima), ma neppure da quello meteorologico, in quanto le anomalie riscontrate sono compatibili con quelle verificatesi negli anni precedenti.
L’Italia settentrionale, ed in particolare quella nordoccidentale, ha registrato temperature leggermente inferiori alla norma e precipitazioni superiori alla norma, almeno per quanto riguarda gli ultimi 12 bimestri invernali, fatto che ha comportato un incremento nel numero delle nevicate anche a quote di pianura. I valori termici registrati in Italia nordoccidentale nello scorso inverno si sono avvicinati alle medie relative al periodo di riferimento 1961-90 e, forse proprio per questo motivo, sono state percepite come insolitamente fredde se paragonate con quelle registrate negli ultimi inverni. L’Italia meridionale ha invece registrato sia temperature sia, soprattutto, precipitazioni superiori alla norma, cosa peraltro già verificatasi frequentemente negli ultimi 12 anni.

Testo di: Claudio Cassardo

13 responses so far

Dalla neve all’era glaciale – parte 2

La raffica di articoli e di servizi televisivi che hanno mal commentato il freddo e la neve dei primi giorni del 2009 non hanno sorpreso quanti da anni analizzano il modo in cui i mezzi di comunicazione si occupano di clima.
Altre volte, in altri mesi invernali un po’ freddi, era successa la stessa cosa. Ad esempio il freddo (anche allora nella norma) del gennaio 2003 porto’ ad un titolo “Non è ancora tempo di terra bruciata”, e le vignette sulla neve e il global warming non mancarono.

Gli articoli che sono stati pubblicati però contenevano alcune informazioni che attiravano l’attenzione perché più precise, legate a fatti clamorosi: il recupero dei ghiacci artici e l’avanzata dei ghiacci alpini.
Oltre all’articolo de La Stampa, già commentato in un precedente post , anche il Corriere della Sera ha lanciato la notizia, con un articolo del 6 gennaio a firma Franco Foresta Martin e il titolo a grandi caratteri: “E i ghiacciai non si ritirano più «L’ effetto serra sembra svanito»” .
Se fosse stata vera, questa del ritiro dei ghiacciai e della scomparsa dell’effetto serra sarebbe stata davvero una clamorosa smentita di diversi decenni di scienza del clima.
Ma non è così, si è trattato invece di una clamorosa bufala.
I dati dei ghiacciai sono in netta ed inequivocabile diminuzione in tutto il mondo, ed in particolare nell’arco Alpino. Se ne parla nell’ultima traduzione di Realclimate disponibile su Climalteranti.it 

Una ricerca effettuata nell’ambito del Progetto Kyoto Lombardia ha concluso che “i ghiacciai lombardi stanno subendo una riduzione di forte entità per lunghezza, superficie e per volume, da circa un secolo e mezzo, che negli ultimi due decenni potrebbe essere definita un vero e proprio “collasso””.
Se nella scienza del clima ci sono ancora punti incerti, non riguardano il ritiro dei ghiacciai. Sono dati così evidenti da essere difficilmente confutabili; d’altronde, sarebbe difficile spiegare che in un pianeta più caldo i ghiacci crescono.

Per spiegare come è nata e si è sviluppata questa ennesima bufala dell’aumento dei ghiacciai, si possono individuare quattro attori:
1.    Un ricercatore
2.    Un blog
3.    Un giornalista
4.    Un redattore – titolista

1) La fonte prima della notizia è stato il glaciologo Bill Chapman del centro di ricerche sul clima artico dell’ Università dell’ Illinois. Come ha fatto notare con grande precisione il Prof. Claudio della Volpe in un bel saggio intitolato “Ghiaccio Agghiacciante” pubblicato sul sito di ASPO-Italia, Chapman ha presentato in modo impreciso i dati, senza chiarire la differenza fra le due diverse serie di dati che descrivono l’estensione del ghiaccio marino artico, derivanti da sensori differenti e quindi non confrontabili. Per i dettagli si veda qui.
2) I dati sono stati interpretati in modo ulteriormente errato in un blog in cui si pubblicano spesso interventi negazionisti. Il curatore del blog, Michael Ascher, ha selezionato in modo arbitrario due punti della serie storica (sbagliata) dei ghiacci marini globali, per evidenziare una tendenza che non c’è.
3) Pur se di gente che sui blog scrive cose infondate o inesatte sul clima ce n’è parecchia (uno dei miei preferiti è www.meteolive.it, qui ne riportiamo un esempio) ), alcuni giornalisti italiani hanno dato spazio alla tesi di Archer, l’hanno amplificata grazie a imprecisioni e ad una generale confusione sul tema. Si è passati dal ghiaccio marino totale (che comunque non è tornato ai livelli del 1979) ai “ghiacci artici” (che sono in nettissima diminuzione). Il termine “marino” è scomparso quindi si è iniziato a parlare in generale di “ghiacci” e di “ghiacciai”, con riferimenti anche ai ghiacciai lombardi (pur se, come detto, anche loro sono in netto ritiro in particolare negli ultimi 30 anni). Non è solo l’abituale cura a rendere “più sexy” la notizia: si tratta proprio di fraintendimenti e di invenzioni.
4) I titolisti hanno, al solito, messo il carico: arriva l’era glaciale, il problema dell’effetto serra è svanito, i ghiacci non si ritirano. “L’effetto serra è svanito”, è messo tra virgolette nel titolo principale, ma nell’articolo non si trova chi sarebbe l’autore di tale affermazione.

Pur se un articolo di Repubblica e gli intereventi di Luca Mercalli a “Che tempo che fa” hanno contrastato la bufala con i grandi numeri dei loro lettori e ascoltatori, da colloqui con studenti e conoscenti mi sembra sia rimasta nell’opinione pubblica la sensazione generale che l’allarme per il problema del riscaldamento globale non sia molto fondato, che gli scienziati che avevano in passato lanciato l’allarme non siano molto affidabili; o almeno che il mondo della scienza sia diviso.
Come si dividono i torti in questa riuscita azione di disinformazione?
Sarà perché a me più vicino, il ricercatore dell’Università dell’Illinois”, fra tutti, mi sembra quello meno responsabile. Se non ha altro perché, inondato di email, ha smentito le affermazioni che gli erano state attribuite.
Chi non ha smentito è stato invece il Corriere della Sera. Che il 12 gennaio ha pubblicato a pag. 23 un breve articolo, non firmato, intitolato “Meno ghiacci? L’effetto serra non c’entra”, in cui ha confermato e ha rilanciato la bufala.
Questa volta partendo da un’articolo pubblicato su Nature Geoscience, in cui gli autori proponevano una stima diversa (ed inferiore a quelle precedenti) del futuro rateo di fusione dei ghiacci della Groenlandia, si è passati ad assolvere l’effetto serra per la diminuzione di tutti i “ghiacci”.
Finale dell’articolo ”Un risultato sulla stessa linea di quello annunciato dal Centro di ricerche sull’Artico dell’Università dell’Illinois, secondo cui i ghiacci artici hanno avuto una crescita rapidissima negli ultimi mesi del 2008 e il loro livello è tornato ad essere pari a quello registrato nel 1979”.
In effetti, due bufale possono essere sulla stessa linea. Ma c’è da sperare che qualcuno prima o poi informi i giornalisti del Corriere della Sera che tutti gli anni c’è una crescita rapida dei ghiacci dell’Artico, e sempre succede negli ultimi mesi dell’anno (e nei primi del successivo): in due periodi dell’anno chiamati “autunno” e “inverno”.

Testo di: Stefano Caserini

14 responses so far

A qualcuno piace la termodinamica

A seguito della pubblicazione dell’articolo “Troppo caldo o freddo? Decide la termodinamica“, Teodoro Georgiadis ci ha inviato questo scritto contenente alcune precisazioni, che il Comitato Editoriale di Climalteranti.it ha deciso di pubblicare in versione integrale pur non condividendone diversi passaggi.

Se suggerisco come incipit la lettura del libro di Stefano Caserini “A qualcuno piace caldo” saro’ accusato dagli amici “razionalisti” (dico bene Stefano?) di captatio benevolentia, ma saro’ altresi’ accusato dagli amici “scettici” (dico bene!) di una sorta di tradimento.
Confesso comunque un reato gia’ commesso dalle pagine dell’Almanacco della Scienza del CNR nella rubrica recensioni: poi, mi serve ricordarlo per organizzare i miei commenti ad una intervista fattami da Marco Pivato per le pagine di Tutto Scienze de La Stampa che e’ all’origine di questo mio contributo.
Perche’ partire dal libro di Stefano per commentare l’intervista? Perche’ in quel libro sono stato descritto molto simpaticamente, e oggettivamente sono stati anche riassunti alcuni elementi di come la penso sul problema climatico. Poi, come da aspettarsi, sia nel caso del libro, cosi’ come in quello dell’intervista, la trasposizione di una lettura in forma di divulgazione scritta e’ un “manufatto” che contiene una rappresentazione dell’anima narrante, non l’anima stessa.
Se c’e’ una cosa che non posso negare e’ quella di divertirmi a citare la frase, arrivatami almeno di millesima mano, che recita “nessuno crede ai modelli tranne chi li ha fatti, tutti credono ai dati tranne chi li ha presi”, e se dici queste cose poi non ti puoi aspettare di avere molte amicizie in giro per il nostro ambiente.
Questa frase puo’ rappresentare una sintesi del mio pensiero contenuta e nel libro e nell’intervista: curiosamente in un caso se ne evidenzia la debolezza rappresentativa dello stato dell’arte, nell’altro la forza. Altrettanto curiosamente nello sviluppo ‘al limite’ di questo ragionamento sono io a non riconoscermi piu’ di tanto.
Il nodo centrale attorno al quale si svolge l’intervista e’ quello della rappresentazione del mondo tramite i modelli, che il titolista traduce scolpendo la frase, come un epitaffio sul marmo, “finora solo modelli sbagliati”, e i dati  prodotti da reti sempre meno articolate.
Io non credo esista una guerra tra sperimentali e modellisti, cosi’ come non credo esista tra chi si sente scientificamente vicino a quanto espresso nei rapporti IPCC e chi per questi rapporti esprima uno scetticismo anche marcato. Catastrofisti e negazionisti sono categorie che lasciamo esistere solo per rispetto alla biodiversita’. Non e’ questa supposta guerra l’origine del problema.
Come tradurre correttamente allora un pensiero attorno al quale e’ aperto il dibattito?
La rete di misura mondiale si va impoverendo, almeno numericamente, e questo produce difficolta’ di rappresentazione del mondo reale e della complessita’ di questo mondo. I modelli, per quanto complessi in termini di numero di equazioni, hanno parametrizzazioni che molto limitatamente rappresentano la complessita’ delle interazioni. E’ la scarsa forza di questa interpretazione del mondo che genera il dibattito, che ci fa propendere per l’una o per l’altra ipotesi, e che ci fa dubitare nella nostra capacita’ di previsione del futuro, in piena e totale onesta’ culturale di tutti. The science is stated! Sappiamo gia’ tutto? Io so solo che tutte le volte che lo abbiamo detto ci siamo sorpresi un po’ stupidi e stupiti a vedere quanto altro ancora c’era da imparare.
Modelli sbagliati? No, modelli limitati. Dati sbagliati? No, dati non compiutamente rappresentativi. D’accordo? No? Bene parliamone.
Ma poi, ad un certo punto, nel dibattito si infila la politica: e anche questo e’ corretto, perche’ la politica deve ipotizzare la costruzione del mondo nel miglior modo possibile, e quindi chiede alla scienza. Io ritengo che sia questo il momento dove il sistema, che potrebbe essere ancora assolutamente virtuoso, si incrina ed e’ solo a causa di una questione di tempistiche: la politica vuole certezze ora, adesso, subito per esistere. La politica non si vuole scoprire stupita, la politica deve, agire e io credo che anche i  “very likely” dell’IPCC non accontentino un Ministro dell’Ambiente che deve assumersi le responsabilita’ di scelte.

Ma cosa c’entra allora la termodinamica??
Una rappresentazione del mondo povera, ovvero semplice, vuole che una grande macchina fatta di infinite interazioni fisiche, chimiche, biologiche, fatta di scale diversissime fisiche chimiche e biologiche, possa essere completamente rappresentata da un unico parametro, che tra l’altro di fisico ha cosi’ poco che risulta essere appena appena un indice. E questo indice sarebbe massimamente regolato da un unico composto con un funzionale semplicissimo, quando per descrivere il comportamento dell’acqua nei suoi soli passaggi di fase occorre ben piu’ di una enciclopedia.    Faccio fatica, veramente molta, a crederlo. Forse un giorno mi convincerete, forse viceversa. Per ora continuo a misurare alla superficie l’energia del sistema in tutte le sue forme, e mi basta passare da un campo di medica ad una tangenziale urbana, da un fiordo alle Svalbard alla macchia mediterranea, per scoprire che tutte le volte e’ una sorpresa vedere come l’energia scorra, si trasformi e spesso si disveli come fondamento della vita.
Pero’ e’ innegabile che la fantasia del politico, del gestore, venga colpita da questa semplice “suggestione” che gli risolve un sacco di problemi, che gli sposta i problemi di come gestisce il territorio a quelli piu’ globali di colpe lontane. Ricordo il Kavafis immagine kafavis wikipediadi “Perimenontas tous barbarous” (Aspettando i barbari):

Perche’ e’ gia’ notte e i barbari non vengono.
E’arrivato qualcuno dai confini
a dire che di barbari non ce ne sono piu’.

Come faremo adesso senza i barbari?
Dopotutto, quella gente era una soluzione.

L’intervista diceva questo? Forse si’ anche se fra apicini ci stanno delle semplificazioni di tante parole e tanti documenti che faccio un po’ fatica a digerire. Per quanto riguarda gli antichi pascoli della Groenlandia, confesso li’ ho anch’io  ho qualche difficolta’ a riconoscermi,  anche se devo ammettere che come figura retorica almeno una volta ne ho fatto accenno, simile: d’altronde sono un ricercatore, non sono un santo.

Testo di: Teodoro Georgiadis

26 responses so far

Raffreddamento globale, ghiacci Artici, previsioni dell’IPCC

NOTA INFORMATIVA del Focal Point IPCC – Italia del 15 gennaio 2009.

La Redazione di www.climalteranti.it pubblica una nota informativa a cura di Sergio Castellari, inerente al dibattito sui cambiamenti climatici improvvisamente riaccesosi a seguito di alcune pubblicazioni apparse su importanti organi di informazione italiani.

In questi ultimi giorni sui media sono apparse notizie riguardo un rallentamento o blocco del riscaldamento globale a causa delle imponenti nevicate in varie zone Italiane e del pianeta e riguardo la forte crescita dei ghiacci marini Artici che sarebbero tornati ai livelli del 1979. Infine, alcuni articoli citano le “previsioni catastrofiche“ fatte dall’IPCC come ormai obsolete o anzi completamente errate (ad esempio qui, qui o qui).
E’ necessario fare alcuni chiarimenti.

Meteorologia e climatologia:

Bisogna stare molto attenti a non confondere una analisi meteorologica con una analisi climatica. Il sistema clima è un sistema complesso, che include l’atmosfera, gli oceani, le terre emerse, la criosfera e la biosfera. Generalmente il clima viene definito come “il tempo meteorologico medio” su scale temporali lunghe (almeno 30 anni). Quindi le condizioni climatiche vengono definite in termini di proprietà statistiche (ad esempio, il valore medio della temperatura atmosferica superficiale in una regione).
Quindi un cambiamento climatico può essere definito come una variazione significativa statisticamente dello stato medio del clima o della sua variabilità, persistente per un periodo esteso (tipicamente decenni o più). Un cambiamento climatico implica una variazione delle proprietà statistiche e non può essere associato ad un evento singolo (una alluvione, una tempesta di neve ecc.) Non ha senso la domanda: “L’alluvione in un dato luogo e giorno è causata da un cambiamento climatico?” Ha invece senso la domanda: “Un cambiamento climatico può comportare una aumentata probabilità che si verifichino fenomeni alluvionali?”
Quindi dare un senso climatico (fine del riscaldamento globale, inizio di un raffreddamento globale) ad una settimana di gelo in Italia significa fare una dichiarazione non basata su un corretto approccio scientifico.

Ma l’anno 2008 è stato veramente un anno freddo?

Questa è di nuovo una domanda generica, freddo rispetto a cosa e su quali scale temporali? Andando a vedere le due serie temporali di temperature media globali superficiali raccolte ed analizzate dal NCDC (National Climatic Data Center) della NOAA (National Ocean Atmophere Administration) (USA) e dal Met Office Hadley Centre (UK) si può chiaramente vedere che il 2008 non è stato un anno “freddo” in queste serie
temporali rispetto a medie a lungo termine. Il rapporto preliminare (perché ancora non considera il mese di dicembre 2008) del NCDC dichiara che l’anno 2008 potrà essere uno dei 10 anni più caldi dal 1880 (inizio della serie termometrica globale) rispetto alla media del 20esimo secolo. Inoltre il mese di novembre 2008 è stato il quarto novembre più caldo della serie globale dal 1880 e l’agosto 2008 si è posizionato al decimo posto come agosto più caldo nella serie temporale.
Questo trend è confermato anche dalla serie globale del Met Office Hadley Centre. Quasi tutti gli anni del nuovo millennio stanno tra i 10 anni più caldi di entrambi le serie termometriche globali. Negli ultimi 10 anni le temperature sono cresciute più lentamente rispetto ai decenni precedenti, ma ragionando su tempi lunghi è evidente un trend di crescita di temperature. Questo non significa che l’anno 2009 sarà necessariamente più caldo del 2008: il 2009 potrebbe essere l’anno più freddo dal 1980, ma il trend di crescita globale di temperature rimarrebbe se il 2010 ed il 2011 saranno di nuovo anni più caldi rispetto ad una media a lungo termine. Il valore di temperatura globale di un anno non può modificare una tendenza a lungo termine.

I ghiacci artici che tornano ai livelli del 1979:

Alcuni articoli stranieri ed italiani, citando i dati dell’University of Illinois’s Arctic Climate Research Center, hanno spiegato che l’estensione del ghiaccio marino artico è tornata a crescere ed ha raggiunto l’estensione del 1979. Intanto la crescita invernale del ghiaccio marino Artico è un normale processo stagionale: l’estensione diminuisce in estate e ricresce in inverno. Però negli ultimi anni come mostrato dal NSIDC (National Snow And Ice Data Center) (USA), qualcosa è cambiato. L’estensione di ghiaccio marino Artico (sea ice extent) ha raggiunto il record minimo nel settembre 2007, seguito dal settembre 2008 e settembre 2005, confermando che esiste un trend negativo nella estensione di ghiaccio marino estivo osservato negli ultimi 30 anni.

Se si cercano i dati dell’University of Illinois’s Arctic Climate Research Center al loro sito  si può arrivare al sito Criosphere Today del Polar Research Group – University of Illinois dove, controllando i grafici, si può vedere che l’estensione del ghiaccio marino (sea ice area) dell’Emisfero Nord nel dicembre 2008 non raggiunge il livello del 1979, mentre il sea ice area dell’Emisfero Sud nell’estate 2008 ha raggiunto il livello dell’estate 1979!

Per l’Artico il NSIDC ha comunicato il 7 gennaio (2008 Year-in-Review) che:
• l’estensione del ghiaccio marino (sea ice extent) nel dicembre 2008 è stata di 12.53 milioni di km2, 830,000 milioni di km2 di meno della media 1979 – 2000;
• il ghiaccio marino del 2008 ha mostrato una estensione ben sotto alla media (wellbelow- average ice extents) durante l’intero anno 2008;
• dal 12 al 19 dicembre 2008 la crescita stagionale di ghiaccio marino Artico si è interrotta probabilmente a causa di un sistema anomalo di pressione atmosferica combinato all’effetto delle temperature marine superficiali più calde nel Mare di Barents.

Le “previsioni” dell’IPCC:

Innanzitutto esistono vari tipi di modelli:
1. Modelli di previsione meteorologica operativa: grandi modelli computazionali, che integrano le equazioni del moto atmosferico, accoppiate con opportune rappresentazioni degli scambi di materia e calore con la superficie terrestre e che forniscono le previsioni meteorologiche;
2. Modelli di previsione stagionale: stessi modelli atmosferici, ma accoppiati a all’oceano e sono utilizzati per prevedere fenomeni come El Nino;
3. Modelli del Sistema Terra (Earth System Models): modelli dell’atmosfera ed oceano tra loro accoppiati, ma accoppiati anche ad altri modelli che rappresentano la superficie, il ghiaccio marino, la vegetazione, la chimica atmosferica, il ciclo del carbonio e gli aerosol.
Per gi studi dei possibili climi a 50 o 100 anni si usano i Modelli del Sistema Terra, ma in maniera diversa dai modelli di previsione meteorologica. Nel campo della predicibilità di un sistema come il sistema clima si possono avere due tipi di previsioni: “Previsioni di Primo Tipo” (o Problemi ai Valori Iniziali) e “Previsioni di Secondo Tipo” (o Problemi ai Parametri). Le cosiddette previsioni climatiche dell’IPCC sono previsioni del secondo tipo: dato il sistema clima soggetto a variazioni di un forzante esterno, sono previsioni delle variazioni delle proprietà statistiche del sistema clima al variare dei parametri esterni. Queste previsioni non dipendono dai valori iniziali, come le previsioni del Primo Tipo che sono poi le previsioni meteorologiche e che hanno un limite intrinseco a circa due settimane.

Queste previsioni climatiche si definiscono in realtà proiezioni climatiche e cercano di rispondere alle seguenti domande:

1. Assumendo che la composizione atmosferica vari secondo un certo scenario di emissione, allora quale sarà ad esempio tra 30, 50 e 100 anni la probabilità di avere una temperatura media più alta di 3°C rispetto a quella attuale?

2. Come sarà distribuita sul globo questa variazione della temperatura media prevista?

Queste proiezioni si possono chiamare anche scenari climatici, perché come variazione di forzanti esterni (gas serra ed aerosol) usano scenari di concentrazione che derivano da scenari di emissioni. Questi scenari di emissioni sono descrizioni plausibili dello sviluppo futuro delle emissioni di gas serra e aerosol, basate su un insieme coerente ed internamente consistente di assunzioni sulle forze che le guidano (soprattutto economiche, tassi di sviluppo tecnologico, andamento dei mercati, sviluppo demografico, ecc.).

E’ importante sottolineare che la dinamica caotica del clima terrestre e dei moti atmosferici pone un limite teorico alla possibilità di eseguire Previsioni del Primo Tipo. Infatti il sistema clima è un sistema fisico complesso con un comportamento non lineare su molte scale temporali e che include molte possibili instabilità dinamiche. Però la natura caotica del sistema clima non pone alcun limite teorico alla possibilità di eseguire Previsioni del Secondo Tipo. Quindi è più semplice eseguire Previsioni di Secondo Tipo (in altre parole previsioni climatiche di tipo statistico) per i prossimi 100 anni assumendo possibili variazioni dei forzanti esterni, che estendere di qualche giorno il termine delle previsioni meteorologiche.
Queste previsioni statistiche vengono effettuate in vari centri di modellistica climatica in varie parti del mondo (anche in Italia, ad esempio al Centro Euro-Mediterraneo per i Cambiamenti Climatici – CMCC) e fino ad oggi quasi tutti i modelli climatici del tipo Earth System Models hanno usato gli stessi scenari di emissioni chiamati IPCC-SRES al fine di poter confrontare i risultati. Questi scenari di emissioni sono molti e presuppongono diversi sviluppi socioeconomici a livello globale e quindi diversi livelli di emissioni al fine di poter“catturare” il possibile futuro climatico della Terra.

In conclusione, queste previsioni sono scenari climatici o proiezioni climatiche e non previsioni meteorologiche a lungo termine.

7 responses so far

Dalla neve all’era glaciale – parte 1

L’arrivo del freddo e della neve dell’inverno ha portato anche quest’anno ad articoli in cui si afferma un rallentamento del riscaldamento del pianeta, o l’interruzione dell’aumento delle temperature  e l’inizio di un’era glaciale.
Non sono tesi nuove, e dell’infondatezza dell’allarme per il raffreddamento globale se ne è già parlato su Climalteranti.it (qui e qui).
Un recente post di Realclimate, disponibile  tradotto in italiano qui, chiarisce molte cose sull’attuale andamento delle temperature, su cui ritorneremo in futuro.

Fra gli articoli pubblicati in questi giorni, i due più incredibili sono stati pubblicati sue due fra i quotidiani italiani più letti: il Corriere della Sera “E i ghiacciai non si ritirano più «L’ effetto serra sembra svanito»” e La Stampa “Una piccola era glaciale come nel 1600”.
L’analisi di questi articoli è complessa perchè contengono una quantità di inesattezze, di errori, di mistificazioni da record, a cui si stenta a credere. La cosa che colpisce è che i due giornalisti, rispettivamente Francesco Saverio Alonzo e Franco Foresta Martin, abbiano pubblicato tesi infondate e confuse senza quel minimo di verifiche di attendibilità che avrebbe permesso di evitare tali brutte figure. I titolisti, poi, hanno ulteriormente esagerato.

In questa prima parte sarà esaminato l’articolo de La Stampa, un’intervista a Fred Goldberg, del Polar club svedese.
All’inizio si trova la frase “il pack si scioglie durante i mesi estivi, ma la scorsa primavera ricopriva mezzo diminuzione estensione dei ghiacci articimilione di chilometri quadrati in piú rispetto al 2007”. È una frase che non ha molto senso perchè non è possibile confrontare l’estensione dei ghiacci della “primavera” del 2008 con quella del 2007.
Il confronto fra le due primavere non avrebbe significato, perché, come detto, il pack si scioglie al polo nord nei mesi estivi e raggiunge il minimo in settembre.
Forse Goldman intendeva proporre un confronto fra i due minimi estivi. In effetti nel minimo del 2008 i ghiacci sono stati di circa mezzo milione di chilometri quadrati più estesi rispetto al minimo del 2007. Ma solo perché il minimo del 2007 è stato assolutamente eccezionale. Se si guarda il trend degli ultimi 30 anni, confrontato con le previsioni dei modelli, si vede che anche il dato del 2008 è preoccupante, non c’è stato un vero recupero e si è ampiamente al di sotto dell’andamento previsto negli anni precedenti.

I glaciologi hanno studiato attentamente i perchè del minimo del 2007 e nel recente convegno dell’AGU a San Francisco, nelle sessioni dedicate alla Criosfera c’è anche stato un approfondito dibattito sulle differenze nelle cause dei due minimi, sui trend, molto preoccupanti per il futuro del pack, chiamato anche ghiaccio marino artico (si vedano ad esempio gli abstract di sessione 1, sessione 2 e sessione 3).
Gli scienziati che studiano il ghiaccio marino artico ritengono il trend di diminuzione del ghiaccio marino artico inequivocabile, e probabile la scomparsa estiva del ghiaccio marino artico entro il 2030.
Alla domanda del giornalista “Esistono prove concrete di questa «ripresa » dei ghiacci anche al Polo Nord, dopo che rapporti nello stesso senso sono giunti dall’Antartide?”, la risposta data da Goldberg è fenomenale: “Sì, lo spessore dei ghiacci creò gravi problemi a una spedizione svedese che, a bordo del rompighiaccio Oden, non riuscì a forzare il pack a Nord della Groenlandia ed un’altra spedizione diretta alle isole a Nord delle Svalbard dovette desistere”.
Le “prove concrete” sarebbero i problemi dati ad un paio di spedizioni in alcuni imprecisati periodi in posti delineati in modo generico.
Si tratta di argomenti non scientifici, che hanno a che fare con notizie imprecisate e basate su impressioni, non su dati.
Non sorprende quindi che se si fa una ricerca si scopre che Fred Goldberg è un esperto di tecnologie per le saldature che si interessa di clima dal 2004, organizzando convegni e facendo dei viaggi ai poli.
L’articolo prosegue con altre tesi ugualmente infondate, con l’attribuzione alla corrente “La Nina” una ciclicità più o meno trentennale (non è così, vedi qui), il classico del “3.500 anni fa, il clima globale del nostro pianeta era superiore di 3 gradi a quello attuale” (molto poco probabile, vedi fig 2 qui) o che “ora ci attendono annate fredde colpa del Sole che non è mai stato cosí calmo come adesso”; fino alla conclusione che ha portato al titolo dell’articolo “fra non molto entreremo in una breve era glaciale, come quella che si verificò verso la metà del 1600”.
Niente paura: l’era glaciale sarà “breve”, durerà solo un paio di secoli…

Testo di: Stefano Caserini

22 responses so far

C’è anche un altro modo per non rispettare il Protocollo di Kyoto

”Se noi non rispetteremo gli obiettivi di Kyoto avremo delle penalizzazioni che possono ammontare a circa 450 milioni di euro l’anno, da qui al 2012”. Questa la stima del ministro dell’Ambiente, Stefania Prestigiacomo, in un’intervista rilasciata il 28 ottobre .
Che non rispettare gli obiettivi imposti dal Protocollo di Kyoto abbia un costo, è dunque assodato. Diverse invece sono le cause che potrebbero portare ad un non rispetto degli obblighi di Kyoto: prima tra tutte la perdita dell’eleggibilità.
Per eleggibilità si intende la presenza delle condizioni “formali” basilari che permettano di verficare effettivamente gli impegni sottoscritti: in altre termini la presenza di sistemi di stima delle emissioni di qualità soddisfacenti a ben definiti standard definiti dallo stesso Protocollo.
Le Decisioni della COP/MOP1 n. 9 e n.15 della Convenzione quadro sui cambiamenti climatici (UNFCCC) indicano come condizioni necessarie per il mantenimento del requisito di eleggibilità la produzione annuale dell’inventario nazionale delle emissioni di gas serra, l’istituzione e la gestione del Sistema nazionale per la realizzazione dell’Inventario nazionale dei gas serra (D.Lgs. 51/2008) e l’istituzione ed amministrazione del registro nazionale di Kyoto che include le transazioni dell’Emissions Trading (Dir. 2003/87/CE recepita dai D.Lgs. 216/2006 e D.Lgs. 51/2008).
L’eliggibità non deve essere solo “conquistata”, ma deve garantita in tutto il periodo di vigenza degli impegni.
Per quanto riguarda l’Italia, la stima e la trasmissione dell’Inventario delle emissioni di gas serra, la realizzazione e gestione del Sistema nazionale per la realizzazione dell’Inventario nazionale dei gas serra così come l’amministrazione e la gestione del registro nazionale sono compiti affidati all’ISPRA (*) .
La stima e la trasmissione delle emissioni di gas serra è stata fino ad oggi garantita da un gruppo di lavoro di 10 ricercatori (di cui 7 precari); la gestione del registro nazionale è al momento di fatto garantita da una sola ricercatrice con contratto atipico. Tale personale precario vede oggi compromessa la propria instabile situazione, a seguito della Legge 133/2008 , che opera pesanti restrizioni sul turn over, con il blocco delle stabilizzazioni dei precari, del rinnovo e proroga dei diversi tipi di contratto di lavoro.
E’ a rischio quindi non solo il mantenimento dell’eleggibilità per Kyoto, ma anche il rispetto della tempistica di comunicazione all’Unione Europea delle stime di gas serra (con conseguente attivazione della relative procedure d’infrazione), così come la piena operatività del registro nazionale. Le conseguenze sarebbero l’alterazione dei meccanismi di mercato del sistema di emission trading, transazioni valutabili nell’ordine di un miliardo di euro (1.000M€) nel periodo 2008-2012, con grave danno economico per le aziende italiane interessate.

Ci si chiede come l’Italia ritenga di onorare gli impegni presi a livello internazionale privandosi delle risorse necessarie: istituzioni preposte e personale appositamente formato, non immediatamente sostituibile, se non dopo anni di formazione specialistica.

Forse il nostro Paese, a differenza di altri, non considera la ricerca pubblica, e gli Enti che la svolgono, come una risorsa strategica su cui investire anche, e soprattutto, in tempo di crisi economica internazionale.
Una scelta miope: anche in questo caso i piccoli risparmi dell’oggi sarebbero largamente inferiori ai danni complessivi arrecati all’Italia.

(* ) L’ISPRA(Istituto Superiore per la Protezione e la Ricerca Ambientale) nasce dall’accorpamento di tre enti vigilati dal Ministero dell’Ambiente e della Tutela del Territorio e del Mare: APAT (Agenzia per la protezione dell’ambiente e dei servizi tecnici); ICRAM (Istituto centrale per la ricerca sulle acque marine); INFS (Istituto nazionale per la fauna selvatica) con il fine dichiarato di razionalizzare le spese di gestione e amministrazione degli enti. Il nuovo istituto, come riportato nel DL 112/08, eredita tutte le funzioni e le risorse dei tre enti accorpati.

Testo di: Marina Vitullo e Daniela Romano

7 responses so far

« Prev


Translate