Notizie e approfondimenti sul clima che cambiaPosts RSS Comments RSS

2009: un anno caldo che è sembrato freddo

Anche il 2009 va in archivio come un anno caldo rispetto alle medie trentennali climatiche, a dispetto dei molti che hanno annunciato l’arrivo di ere glaciali. Pur se il 2009 sarà ricordato da alcuni per le 2-3 ondate di freddo e la neve nei mesi freddi, il 2009 è risultato, globalmente, più caldo del 2003, di cui tutti gli europei ricordano la terribile estate.

.

Puntualmente, non appena l’inverno ha bussato alla porta con la prima, temporanea, ondata di freddo intenso che ha colpito anche buona parte dell’Europa e del Canada, sono spuntati come funghi diversi articoli che hanno sottolineato l’evento.
Qualcuno però non ha perso l’occasione per sparlare del riscaldamento globale, del vertice di Copenhagen, dei climatologi, ecc. (si veda ad esempio il lungo elenco di errori  apparso qui, in cui si confonde ancora una volta un singolo evento meteorologico con il clima). Non ci si deve stupire, del resto era già successo quasi un anno fa (si veda qui, qui e qui), ed in realtà si può dire che è stato così anche in passato (si veda ad esempio qui). Ora si prospetta, almeno in Italia, una nuova ondata di freddo, e quindi sappiamo cosa dovremo aspettarci…
Un’attenta analisi dei dati rivela che, in realtà, nonostante per alcuni giorni (il periodo visualizzato è il 14-22 dicembre, ed i dati visualizzati sono le anomalie di temperatura superficiale rispetto al periodo di riferimento 1968-1996 – tutti i grafici sono generati a partire dalle informazioni NOAA) le temperature siano state inferiori anche di 6°C rispetto alla norma sull’Europa centrale e sulla Scandinavia, e di oltre 10°C su una vasta area che dalla Siberia e Mongolia si estende fino alla Russia, altre zone del mondo hanno mostrato anomalie positive altrettanto vistose, come ad esempio la parte nordorientale del Canada, con un’anomalia di oltre 10°C, ed in generale tutta l’area artica.
Del resto, questo fa parte della normale variabilità meteorologica associata alla circolazione generale atmosferica, che d’inverno presenta ondulazioni di Rossby più marcate e disposte lungo i meridiani (a causa del maggior gradiente esistente tra le alte pressioni continentali, come quella siberiana, e le basse pressioni oceaniche, come quella sull’Islanda, generate dalla circolazione generale atmosferica – si veda ad esempio qui), permettendo grossi scambi di masse d’aria tra le alte e le basse latitudini.

Non è qui il caso di ribadire ancora la differenza tra tempo meteorologico e clima. Mentre può essere l’occasione per confrontare quanto è successo nel 2009 con i periodi di riferimento (di solito si sceglie un trentennio o un periodo equivalente). Per fare questa analisi, utilizzerò le mappe meteorologiche che ho creato utilizzando il software pubblico e i dati meteorologici gentilmente messi a disposizione dalla NOAA (National Oceanic and Atmospheric Administration) su questo sito. Il periodo di riferimento standard scelto da questo Ente è il 1968-1996 (volendo, si può cambiare questa scelta), e nel seguito lo definirò come “la norma”.
Rimandando qui per i dettagli sulle variazioni stagionali, si può dire che nel complesso tre stagioni su quattro (primavera, estate e autunno) hanno registrato anomalie positive sia in Europa che in Italia.

Si noti come la recente anomalia fredda invernale sull’Europa sia stata causata principalmente dall’ondata di freddo nel periodo 18-24 dicembre, ma sia anche stata attenuata dalla successiva ondata di caldo nel periodo 25-31 dicembre, che ha interessato tutta l’Europa centromeridionale, provocando anomalie di oltre 6°C tra Serbia e Bulgaria (in Italia tra +3°C e +4°C), e le latitudini settentrionali con anomalie di oltre +10°C (nello stesso periodo l’irruzione fredda si è ritirata più a nord interessando particolarmente Scandinavia e Russia con anomalie fino a -8°C), a riprova del fatto che il tempo è rapidamente mutevole d’inverno e si possono avere sbalzi termici di diversi gradi in poco tempo.

Anomalia di temperatura superficiale sull’Europa nel periodo 14-22 Dicembre 2009 rispetto al periodo di riferimento 1968-1996. Grafico generato dalle informazioni NOOA

Anomalia di temperatura superficiale sull’Europa nel periodo 24-31 Dicembre 2009 rispetto al periodo di riferimento 1968-1996. Grafico generato dalle informazioni NOOA

.

Abbiamo ora gli elementi utili per allargare l’analisi all’intero anno 2009, sempre relativamente all’Europa. Si può subito notare come, complessivamente, nonostante le ondate di freddo ricorrenti sia nei primi due mesi sia a dicembre, l’anno possa considerarsi complessivamente più caldo della norma sull’intera Europa, con le anomalie maggiori sul Mar Nero settentrionale e zone costiere adiacenti (+2°C) ed alle latitudini superiori a 70°N (fino a +5°C). L’Italia mostra un’anomalia positiva compresa tra 1°C e 1.5°C. Nel 2008, l’Italia aveva registrato all’incirca un’anomalia dello stesso ordine di grandezza, mentre a livello europeo la parte sudoccidentale era risultata nella media, e quella centroorientale più calda della media, fino a oltre 2°C. Si noti come, comunque, la zona a latitudini superiori a 70°N mostri sempre anomalie vistosamente positive, che nel 2009 sono risultate inferiori al 2008.

Anomalia di temperatura superficiale in Europa nel 2009 rispetto al periodo di riferimento 1968-1996. Grafico generato dalle informazioni NOOA

Anomalia di temperatura superficiale in Europa nel 2008 rispetto al periodo di riferimento 1968-1996. Grafico generato dalle informazioni NOOA

.


Anomalia di temperatura superficiale nel mondo nel 2009 rispetto al periodo di riferimento 1968-1996. Grafico generato dalle informazioni NOOA


.


Anomalia di temperatura superficiale nel mondo nel 2008 rispetto al periodo di riferimento 1968-1996. Grafico generato dalle informazioni NOOA

.

Anomalia di temperatura superficiale nell’emisfero nord nel 2009 rispetto al periodo di riferimento 1968-1996. Grafico generato dalle informazioni NOOA

Anomalia di temperatura superficiale nell’emisfero sud nel 2009 rispetto al periodo di riferimento 1968-1996. Grafico generato dalle informazioni NOOA

A livello globale, si può notare come le aree con anomalie positive siano di gran lunga in maggioranza rispetto alle pochissime zone che mostrano anomalie negative. Tra queste ultime, le più grandi sono situate sugli oceani a sud di Africa e Sud America, sulla Siberia e sulle Ande (quest’ultima è probabilmente frutto di un errore del modello), e tra Canada ed USA. Alcune anomalie mostrano lo stesso segno e la stessa collocazione dell’anno precedente: per esempio nei pressi dell’Alaska esull’Africa. Anche le aree polari continuano a mostrare ancora anomalie positive molto vistose, con il massimo a nord nei pressi delle Svalbard (oltre +4°C, ma anche la Groenlandia, sempre intorno a +2°C, non scherza) ed a sud nell’entroterra, con valori superiori localmente a +3°C.

Proprio quest’ultimo punto merita un approfondimento: contrariamente a quanto si legge (ad esempio qui, qui, o qui), anche l’Antartide, come l’Artide, si sta scaldando, come si nota anche osservando le anomalie sull’intero periodo 1991-2009, con ratei non troppo dissimili da quelli artici. Il numero di giorni in cui le temperature salgono sopra 0°C sta crescendo, ed il ghiaccio, in certi punti, nei giorni più caldi, fonde. Una riprova di questo è la recente riscoperta e localizzazione, fatta da una spedizione di ricercatori australiani, dei resti del primo aereo arrivato in Antartide quasi cento anni fa, nel 1911. Scoperta che, a detta dei ricercatori, è stata favorita da una fusione del ghiaccio, in anticipo rispetto alla media e favorita dalle condizioni climatiche (si veda questo pezzo su La Repubblica ed i relativi link). Un anno solo non rappresenta il clima, certamente; tuttavia, dal lontano 1911, i resti dell’aereo sono stati localizzati solo oggi, nel 2010.



Anomalie di temperatura superficiale nell’emisfero sud e nord relative al periodo 1991-2009 rispetto al periodo di riferimento 1961-1990: si noti che i colori delle scale dei due grafici non sono corrispondenti. Grafico generato dalle informazioni NOOA

.

L’organizzazione meteorologica mondiale (WMO) ha stimato alcuni giorni fa che, sulla base dei dati raccolti fino all’8 dicembre, il 2009 farà registrare un’anomalia di 0.44°C ± 0.11°C rispetto alla media 1961-90, piazzandosi al 5° posto tra gli anni più caldi (si veda qui). Allo stesso risultato sono giunti gli scienziati della NASA il 16 dicembre scorso (si veda qui: anomalia di 0.57°C, posizione 4° posto su 130 anni di dati – i due numeri sono compatibili tra loro, visto che l’errore di misura è di 0.1°C). I valori sopra riportati nelle mappe sono in linea con le previsioni fatte sulla base delle medie eseguite su un campione del 90% di dati, e indicano che anche il 2009 va ad aggiungersi alla serie di anni caldi.
Con buona pace di chi pontificava il ritorno delle ere glaciali (per esempio qui, qui, qui, qui, qui, qui).

.

Autore: Claudio Cassardo

67 responses so far

67 Responses to “2009: un anno caldo che è sembrato freddo”

  1. […] Climalteranti » 2009: un anno caldo che è sembrato freddo 8 Gennaio 2010 l0cutus Lascia un commento Passa ai commenti via climalteranti.it […]

  2. Marco Ferrarion Gen 8th 2010 at 13:27

    Forse ne avete già parlato, ma mi spiegate perché molti meteorologi sono negazionisti? Mi sembra quasi una costante sociologica, un po’ come il fatto che tra gli antievoluzionisti ci sono tanti ingegneri…

    Marco

  3. Simone82on Gen 8th 2010 at 16:04

    Sicuri sicuri che il 2009 sia globalmente più caldo del 2003? Io non ne sarei sicurissimo, poi molto dipende dalle variabili che si usano, a dimostrazione di come la scienza climatica non sia esattamente oggettiva come la si vuole dipingere:
    http://motls.blogspot.com/2009/12/uah-msu-temperatures-for-2009-and.html
    Se ho ben interpretato il post, secondo HadCRUT3 «2009 is gonna be cooler than 1998, 2005, 2003, 2002, and probably 2004, making it the 5th or more likely 6th warmest year on their record.». Potrei avere conferma di questa lettura da chi è più bravo di me ad analizzare queste tabelle?

  4. oca sapienson Gen 8th 2010 at 16:17

    @Claudio Cassardo
    Nella dida sotto la seconda figura, l’anomalia è il 34 dicembre… 🙂

    _ _ _ _ CORRETTO, grazie – Admin

    @Marco F.
    Ipotesi Salem a parte, credo che la risposta sia qui: http://fam.df.unibo.it/

  5. NoWayOuton Gen 8th 2010 at 16:33

    “l’anomalia è il 34 dicembre”
    sara’ l’output di un modello che, evidentemente, non sono affidabili … 😀

  6. Antonioon Gen 8th 2010 at 17:34

    @ Simone82
    Se tutta la mancanza di oggettività della scienza del clima è che un anno di un presunto periodo di raffreddamento può essere o il quarto o il quinto o sesto anno più caldo da quando esistono le misure, ci faccio la firma.
    Proprio non si riesce a ragionare sulla sostanza, ossia che continuiamo ad avere chiarissime anomalie positive nelle temperature medie globali ?

    @ Oca sapiens
    Non si capisce perchè la risposta debba essere all’università di Ferrara, la spieghi meglio magari

  7. oca sapienson Gen 8th 2010 at 18:16

    @NoWayOut

    Neanche a farlo apposta:
    Input di Motls “il 2009 è stato _più freddo_ del 2003” ecc.
    Output di Simone82 “Sicuri sicuri che il 2009 sia globalmente più caldo del 2003?”

    @Simone 82

    L’affermazione di Motls – gli ultimi 15 anni non mostrano alcun riscaldamento – si regge sulla sottrazione di variabilità che vede solo lui, come quella dovuta da 7 mesi al “fortissimo episodio El Nino”.
    Se segue il suo link o – http://www.esrl.noaa.gov/psd/people/klaus.wolter/MEI/ – s’accorge subito che è deboluccio.

  8. Paolo C.on Gen 8th 2010 at 19:37

    Ma è poi vero che il ’98 è stato l’anno più caldo?

    http://www.skepticalscience.com/1998-is-not-the-hottest-year-on-record.html

  9. NoWayOuton Gen 8th 2010 at 20:46

    @oca sapiens
    beh vedi, quando qualcuno (motls per non fare nomi) da una temperatura media globale “plus minus 0.005 °C” riuscendo a disquisire che “is statistically indistinguishable from 2006. ” senza ridere, merita davvero una folta corte di seguaci.
    Buffa e’ pure l’analisi finale sui limiti di confidenza del trend 1995-2009. Si accorge che “No conclusion about the slope can be made on either 99%, 95%, and not even 90% confidence level.” ma non gli passa per la testa che tutti gli altri trend che da sono privi di significato a maggior ragione.
    Non riesco mai a decidere se e’ semplice ignoranza o bieca malafede.

  10. oca sapienson Gen 9th 2010 at 01:17

    @Antonio
    Scusi, pensavo interessasse solo a Marco F.
    La formazione dei meteorologi fa pena, in Italia ci sono solo 2 lauree 3-2 serie, a Bologna e Roma Tor Vergata. A Ferrara non più.

    @Paolo C.
    Dipende dove si stava e cosa si faceva…

    @NoWayOut
    Motl è fuori da tanto, anche in fisica:
    dorigo.wordpress.com/2008/11/20/lubos-motls-apology

  11. giulioon Gen 10th 2010 at 01:12

    2009 in linea con gli anni precedenti, sostanziale e quasi incredibile stabilità di tutti gli anni 2000…

    e con questo (2009) fanno 11 anni che il riscaldamento globale è defunto 🙂

    arrivederci al prossimo, per fare 12 😉

    (voi intanto continuate a sfornare e commentare quelle cartine colorate di rosso, sono molto intriganti 🙂 )

  12. Claudioon Gen 10th 2010 at 03:21

    @giulio
    Riscaldamento globale defunto? non direi, visto che dal 2001, tranne il 2008, tutti gli anni sono i più caldi delle serie, ad eccezione del 1998. Per me non è importante quale è l’anno più caldo in assoluto e se il 2009 è 5° o 6°, o anche 7°: non è un torneo sportivo, e non c’è in ballo la qualificazione alla Champions League. E’ importante il fatto che la media sugli ultimi 10 anni 2000-9 è la più alta di sempre, sugli ultimi 20 (1990-2009) idem, ed anche sugli ultimi 30 (1980-2009). Vorrei fortemente essere smentito, ma temo che, tra trent’anni, diremo che la media 2010-2029 sarà più alta di quella 1980-2009.
    I confronti dei trend su periodi diversi (addiruttura a partire da UN ANNO!), come quelli sul sito motls, non li trovo molto significativi dal punto di vista statistico, anche perché usare periodi meno lunghi di 10 anni non ha valenza climatica.
    Per i colori, infine, capisco che lei possa essere allergico al rosso, ma di solito si usa tale colore per le anomalie positive, ed il blu per quelle negative, come sui rubinetti – se crede possiamo colorare anche di verde o blu le anomalie positive, ma i valori restano gli stessi…

  13. Stefano Caserinion Gen 10th 2010 at 10:45

    Direi che il dato del 2009 fa già capire che tutto il discutere di un presunto rallentamento del riscaldamento del pianeta è stato solo una grande perdita di tempo.
    Guardando sul web ormai questo argomento è sempre meno usato, ed è probabile che assieme all’argomento del raffreddamento globale sarà presto abbandonato (tranne che per Il Giornale e pochi altri).
    Secondo lo schema classico si passerà a discutere d’altro: prevedo un ritorno di fiamma per le critiche sull’affidabilità delle misure, quindi si parlerà che il riscaldamento globale fa bene perché con il freddo si sta peggio…

    In realtà è il decennio più caldo fra quelli in cui ci sono misure, se si guardano i 10 anni più caldi sono tutti – eccetto il 1998 – dell’ultimo decennio
    (si veda ad esempio la seconda slide in questo grafico http://unfccc.int/files/meetings/cop_15/climate_change_kiosk/application/pdf/09_12_14_metoffice.pdf)

  14. NoWayOuton Gen 10th 2010 at 11:06

    E’ noto che i trend decennali sono privi di validita’ statistica, per chi si prende la briga di guardar. Ma visto che continuano ad appassionare molte persone facciamo per un momento finta che lo siano. E per non parlare senza sapere di cosa parlo ho preso i dati e calcolato anno per anno i 31 trend decennali dal 1970 al 2000.

    Visto con il criterio (momentaneamente) adottato, il nostro global warming e’ un po’ pazzerello. Nonostante si consigli sempre a chi vuol andar lontano una corsa regolare, lui gia’ tante volte si e’ quasi fermato e ripartito poi a ritmi decisamente eccessivi. Insomma, fa un po’ il turista, si ferma lungo la strada a guardare un bel panorama, una chiesetta di campagna, ma poi si accorge che fa tardi e corre. Consiglierei un po’ di prudenza, se mi ascoltasse. Anche a chi ama fare certe affermazioni.

  15. Claudio Cassardoon Gen 10th 2010 at 15:26

    @NoWayOut
    “E’ noto che i trend decennali sono privi di validita’ statistica”
    Concordo sul “privi di validità” – più che statistica, direi climatica: infatti nel clima, di solito, si usano periodi di almeno 30 anni.
    Allo stesso modo, se proprio si vogliono analizzare i trend decennali negli ultimi 30 anni, anche se la cosa non ha validità climatica, si dovrebbero usare 3 dati, non 30: le medie di 1980-89, 1990-99 e 2000-09, oppure di decenni diversi, ma comunque 3 numeri. Analizzare anno per anno i trend decennali non ha alcun senso. Lo dimostra il fatto che, se uno provasse a valutare i trend decennali ogni anno con la concentrazione di CO2, la quale è indubbiamente in crescita (a meno che qualcuno non si metta in dubbio anche questo fatto – ormai non mi stupirei!), si troverebbero anche in questo caso molte oscillazioni.

  16. NoWayOuton Gen 10th 2010 at 19:20

    @Cassardo,
    capisco che il mio ragionamento era contorto, ho usato trend decennali senza alcuna validita’ facendo “per un momento finta che lo siano”. Era giusto per dire che anche in questo caso l’affermazione che il global warming si e’ fermato e’ priva di senso. Per farla breve, sono assolutamente daccordo con i rilievi che mi hai fatto 🙂

    Vorrei invece fare l’avvocato del diavolo (chiedo venia in anticipo! 🙂 ) per l’affermazione sulla validita’ statistica o climatica. Personalmente credo che la validita’ climatica di un trend (o di una media, poco cambia) su un range sia dettata dalla statistica, con il corollario di poter definire un criterio oggettivo da poter essere usato nell’analisi di altre quantita’ di interesse climatologico.

    A mio modo di vedere, cio’ che determina la lunghezza minima dell’intervallo temporale e’ in primis (ma non solo, ovviamente) la variabilita’ interannuale, tanto maggiore quest’ultima tanto maggiore l’intervallo temporale necessario. Se invece della temperatura media globale volessi analizzare, ad esempio, la concentrazione di CO2, sarebbe statisticamente/climatologicamente sufficiente un intervallo piu’ stretto poiche’ la variabilita’ interannuale e’ molto inferiore.

    Come dire, l’uovo (la validita’ statistica) e’ nato prima della gallina (la validita’ climatica)

  17. giulioon Gen 10th 2010 at 20:31

    @ Claudio

    la tua obiezione (dal 2001 tutti gli anni sono i più caldi della serie ect) non è pertinente.

    Io ho affermato: sono 11 anni che le temperature non crescono. Questo fatto è incontestabile. Sono rimaste straordinariamente stabili, direi forse anche entro gli errori di misura.

    Se non ha senso considerare periodi di tempo inferiori ai 10 anni come sostieni tu, allora eccoti accontentato, poichè questo (2009) è l’ 11esimo :-). Quindi siamo ufficialmente in un periodo di stasi termica globale. Il riscaldamento, al momento, non c’è. è defunto. risorgerà? forse ispirandosi ad esempi più illustri e tenendo a mente il valore simbolico del numero 3, magari lo farà fra 3 anni, o 3 decenni, o 3 secoli, chissà 🙂 il futuro ci darà la risposta…

  18. oca sapienson Gen 10th 2010 at 21:05

    NoWayOut
    giusto, l’uovo deve comprendere le variabilità interannuali o niente gallina. Però certe galline vecchie sono validissime anche senza oscillazioni oceaniche, cicli solari e tutti quei fronzoli decennali e multidecennali. Magari si spianano da soli.

  19. NoWayOuton Gen 10th 2010 at 21:49

    @oca sapiens
    concordo, gallina vecchia fa buon brodo. Io sono mentalmente antico e rozzo; come gia’ detto nel post sui modelli, per me basta e avanza la prima approssimazione. I dettagli li lascio a chi se ne occupa per mestiere.

  20. NoWayOuton Gen 10th 2010 at 21:53

    Dimenticavo:
    “Quindi siamo ufficialmente in un periodo di stasi termica globale.”
    La profondita’ scientifica del ragionamento e’ travolgente, ipse dixit, non c’e’ altro da aggiungere. Oh my dear Lord …

  21. Paolo C.on Gen 11th 2010 at 12:40

    Il GISS e la NOAA dicono che l’anno più caldo è stato il 2005, o sbaglio?

  22. NoWayOuton Gen 11th 2010 at 13:38

    Paolo C. non sbagli. Ma queste clasiffiche sono molto “ballerine” visto che le differenze sono dell’ordine di mezzo decimo di grado, meglio allargare la visuale.

  23. agrimensore gon Gen 11th 2010 at 16:38

    Salve, è la prima volta che scrivo in questo blog.
    Riagganciandomi al discorso di Giulio, vorrei evidenziare una questione di pura logica.
    Secondo me bisogna scegliere: se non sono sufficienti 10 anni per parlare di stabilità del clima, allora non è corretto nemmeno dare molta importanza ai valori annuali, cioè anche se il 2009 fosse stato un anno molto più caldo, non sarebbe significativo nel sostenere una variazione in aumento delle temperature dal punto di vista climatico.
    Ma a questo punto quando potremo verificare la bontà dei modelli adottati, cioè con dati a posteriori rispetto a quando sono stati creati?

  24. oca sapienson Gen 11th 2010 at 19:03

    @agrimensore
    Ha ragione. I ragazzi litigano sul primo in classifica perché son dei perdigiorno: conta la variazione sul tempo lungo, mica se era più caldo il 1998 o il 2005.

    Negli anni 70, famosi modelli avevano previsto l’aumento della temperatura globale in funzione di quello dei gas serra: la loro bontà è già stata verificata. Idem per i modelli più particolareggiati degli anni 80. Guardi questo confronto tra previsioni fatte nel 1987 e le misure effettuate da allora al 2006:
    http://pubs.giss.nasa.gov/docs/2006/2006_Hansen_etal_1.pdf
    Impressionante, no?

  25. Paolo C.on Gen 11th 2010 at 19:16

    @oca sapiens
    “I ragazzi litigano sul primo in classifica perché son dei perdigiorno: conta la variazione sul tempo lungo, mica se era più caldo il 1998 o il 2005.”

    E’ vero, ma siccome uno degli argomenti negazionisti preferiti è che il GW si è fermato nel ’98…

  26. agrimensore gon Gen 11th 2010 at 20:04

    @oca sapiens
    Innanzi tutto grazie per il riferimento.
    Premetto che effettivamente sono uno dei cosideti scettici rispetto all’idea che sono i gas serra la principale causa del GW, però non mi è proprio chiaro dall’articolo qual è la parte che verifica i GCM. Sono gli scenari a-b-c?
    Se è così ti riporto un pezzo dell’articolo che mi hai linkato:

    Because of this chaotic variability,
    a 17-year period is too brief for precise assessment of model
    predictions, but distinction among scenarios and comparison with
    the real world will become clearer within a decade.
    Close agreement of observed temperature change with simulations
    for the most realistic climate forcing (scenario B) is accidental,
    given the large unforced variability in both model and real world.

    Come vedi è lo stesso articolo a dire che i modelli vanno raffinati . Se è così, una volta raffinato il modello, la sua bontà si potrà verificare solo in seguito.
    Alternativamente, mi potresti far capire (non è retorico, lo chiedo sul serio) qual è la parte dell’articolo ove si evince che il modello fa match con la realtà?

  27. NoWayOuton Gen 11th 2010 at 22:12

    agrimensore,
    non mi sembra che quella frase che quoti dica che i modelli vanno raffinati. Piuttosto sostiene che la variabilita’ interannuale e’ grande e quindi difficilmente e’ possibile discriminare fra gli scenari B e C in un periodo breve.
    Il problema della variabilita’ interannuale per il confronto con i modelli ce lo porteremo dietro per sempre. Infatti, e per fortuna, i modelli vengono continuamente aggiornati e se si vuole valutare la capacita’ delle loro proiezioni si deve per forza di cose usare un modello “vecchio”. Non per niente la valutazione dei modelli non viene fatta sulla capacita’ di proiezione (per definizione basata su scenari) ma sulla riproduzione del passato noto. Ad esempio, dando in ingresso i dati delle forzanti da meta’ dell’800 ad oggi vedere se e’ riprodotto correttamente l’andamento misurato della temperatura.

  28. Teo Georgiadison Gen 11th 2010 at 23:54

    @ agrimensore e NowayOut
    scusate ma gli scenari a-b-c dell’articolo proposto da OcaSapiens sono scenari legati a differenti ipotesi di emissione. Quindi mi dispiace ma non sono la prova di nulla rispetto ai dati misurati ad oggi, e anch’io come dice agrimensore non riesco affatto a trovare nell’articolo la prova provata della bonta’ del modello ma solo una coincidenza grafica.
    Mi sembra che sia da spiegare meglio quell’impressonante no? di OcaSapiens

  29. agrimensore gon Gen 12th 2010 at 12:20

    Io vorrei che concordassimo almeno su una questione di metodo:
    1- qualcuno definisce una nuova teoria o modello basandosi su dati passati;
    2- questo qualcuno confronta i valori attesi con quelli ottenuti, successivamente alla definizione della teoria, dalla realtà o da un esperimento creato appositamente
    3- se dati attesi e quelli ottenuti coincidono, almeno in gran parte, la teoria prende consistenza;
    4- se i dati differiscono, l’estensore della teoria ha tutto il diritto di ipotizzare dei raffinamenti della teoria o delle falle bnell’esperimento, ma a questo punto DEVE ripetere il punto (2), non può dire che la teoria è convalidata.

    @NoWayOut
    La frase

    Because of this chaotic variability,
    a 17-year period is too brief for precise assessment of model

    mi pareva significasse che ci fosse necessità di un raffinamento, però può darsi che abbia equivocato.
    Ma poco dopo, viene proprio scritto:

    Indeed, moderate overestimate of global warming is likely because
    the sensitivity of the model used (12), 4.2°C for doubled CO2, is
    larger than our current estimate for actual climate sensitivity, which
    is 31°C for doubledCO2

    e questo significa che la teoria iniziale è stata modificata perchè i dati non combaciavano.
    Ora bisogna ritornare al punto (2)…

  30. giulioon Gen 12th 2010 at 13:03

    @ NoWayOut

    “ipse dixit” , ma l’ipse è Claudio, non io :-); difatti il postulato di “stasi termica globale” discende direttamente dalla sua affermazione che solo un periodo superiore ai 10 anni è climaticamente significativo..e questo è l’11esimo anno di stasi termica 🙂

    da parte mia non mi sarei mai azzardato a dire cosa è significativo e cosa non lo è 😉

  31. NoWayOuton Gen 12th 2010 at 13:40

    giulio,
    Claudio non si e’ permesso ne’, sono convinto, si permeterebbe mai di fare quell’affarmazione basandosi su un ragionamento cosi’ superficiale. La “logica” e la conseguente affermazione sono quindi, ai miei occhi, 100% tue.

  32. NoWayOuton Gen 12th 2010 at 14:12

    @agrimensore
    e la sorpresa sarebbe che dal 1988 ad oggi i modelli si sono evoluti?
    Come dicevo nel mio commento precedente, se si vogliono confrontare le proiezioni bisogna accontentarsi dei modelli vecchi e con il fatto che si basano su scenari che, ovviamente, non sono la realta’.

    C’e’ anche da intendersi su cosa si considera come “prova” di validita’ di un modello climatico. In senso stretto, siamo in presenza di un unico e non ripetibile esperimento, il clima passato. In questo senso, ad ogni nuovo modello devovrebbe essere chiesto di riprodurre quest’unico “esperimento”.
    La qualita’ delle proiezioni, invece, puo’ essere verificata solo a distanza di tempo. Ma basandosi su scenari, l’errore potrebbe essere piu’ nello scenario adottato che nel modello stesso e lascia aperta la porta ad osservazioni come quella di Teo che non si puo’ provare nulla e quella tua che il modello era “errato” tanto che e’ stato modificato.

    Personalmente credo che ad un modello bisogna chiedere prima di tutto di riprodurre il passato, senza questo passo non si puo’ andare da nessuna parte. Poi, a diistanza di tempo, vedere come sono andate le proiezioni con lo scenario piu’ simile a quella che si e’ dimostrata essere la realta’, magari scalandole (grossolanamente) per qualche parametro particolarmente importante di cui nel frattempo se ne e’ fatta una stima piu’ attendibile. (Ad esempio, il modello di Hansen del ’88 aveva una sensibilita’ climatica piu’ alta di quello che si oggi si pensa). Questo secondo passo non puo’ “provare” nulla, daccordo, ma l’indicazione che da puo’ essere abbastanza forte. E anche, questo e’ quanto il nostro irripetibile esperimento di geoingegneria ci consente di fare.

  33. agrimensore gon Gen 12th 2010 at 15:09

    @NoWayOut
    Fare un modello che fa combaciare i dati col passato non è, in genere, troppo difficile, ma non significa affatto aver trovato la chiave di lettura per il futuro. Tanto meno se si ripametrizza il modello in base a nuove esperienze. Faccio degli esempi.

    Es.1: se io ho deti sperimentali che legano due grandezze fisiche e li metto su un piano cartesiano, ottengo “n” punti. Ebbene, è concettualmente molto semplice trovare un polinomio di grado n-1 che passa per tutti quei punti, anche se la legge fisica del mondo reale è una sinusoide o un logaritmo naturale. Se trovo anche il punto n+1 posso sempre “raffinare” il modello variando i parametri e trovando il polinomio di grado n che include gli n+1 punti. Ma tale polinomio è del tutto inutile per un attività predittiva.

    Es. 2 (è solo un esempio per spiegarmi, non un paragone): avevo un caro collega, intelligente e simpatico, che diceva di aver trovato un modo per vincere al lotto, giocando costantemente con un certo sistema. Aveva un librettino con tutte le estrazioni del lotto delle ultime decine di anni e mi faceva vedere che applicando il suo sistema avrebbe vinto. Gli ho proposto di applicare virtualmente il suo sistema, cioè senza giocare realmente soldi, per le estrazioni future, e io avrei applicato il mio, del tutto casuale. I risultati sono stati identici (avremmo perso ambedue la stessa quantità di denaro).

    Es. 3 (parlando sempre per iperbole, senza voler essere offensivo): qualcuno ha provato addirittura a convincermi che esitono premonizioni o sogni in grado di fornire i numeri giusti sempre per il lotto. Quando abbiamo fatto più volte la prova, ovviamente il tale non ha mai azzeccato l’ambo, però mi ha detto che in realtà l’ambo doveva essere giocato per tre settimane anzichè una, o l’interpretazione corretta della premonizione indicava il 47 anzichè il 48 come erroneamente giocato e così via… Io sono rimasto scettico, perchè se si raffina una teoria poi bisogna comunque provarla.

    Non voglio assulatamente confrontare le teorie sul lotto con le previsioni dei GCM, ma rimane un punto fondamentale che un modello non può considerarsi valido per un’attività predittiva semplicemente perchè si correla bene, o abbastanza bene, con gli stessi dati su cui è costruito. Questo è solo un esercizio matematico di fit delle curve. Viceversa, bisogna provare che funzioni a partire da quando è stato definito.

  34. Antonioon Gen 12th 2010 at 16:18

    Caro Agrimensore, pensavo di non risponderle in quanto Lei ha esordito nel suo primo commento dicendo”vorrei evidenziare una questione di pura logica”, che è offensivo per chi legge perché adombra la possibilità che gli altri la logica non la usino.
    Ora ho cambiato idea. Penso sia il caso di avvisarla che il problema è che a Lei mancano i fondamentali, e non ha l’umiltà sufficiente per mettersi a studiare prima di fare il saputello.
    Vede, quando Lei fa capire che tutti quanti usano i modelli sono degli sprovveduti che non sanno nemmeno come si può validare un modello, ossia usarlo in modo scientificamente ragionevole, e si mette a fare la lezioncina, pecca non tanto di presunzione, quanto di mancanza originalità, ossia sono cose già dette e ridette, trite e ritrite.
    Ci sono interi progetti di ricerca che si sono posti quell’obbiettivo che dice lei. Se si guarda in giro anche su Internet trova tanto materiale
    Quando Lei scrive “fa combaciare i dati col passato non è, in genere, troppo difficile” io deduco che Lei un modello climatico non l’ha mai visto, non ci ha mai messo le mani. Non sa quali sono i processi non lineari o i feedback che contiene, che rendono far combaciare i dati storici con i risultati molto molto difficile. A meno che lei pensi di scrivere direttamente nei file di output, cosa comunque anche questa piuttosto laboriosa
    Mi toglie una curiosità? Quale è il modello più complesso su cui ha lavorato ? E’ un foglio excel con le sue belle polinomiali e i tre coefficientini da sistemare ?
    Ultimo suggerimento. Legga i due scritti sui modelli Ensembles scritti prima di questo post dal Dott. Cacciamani. Poi si legga il rapporto del modello Ensembles, poi mi faccia sapere se è ancora cosi’ convinto che sia tutto cosi’ semplice come dice Lei.
    Sul lavoro di Hansen trova a questo link la spiegazione, scritta due anni fa e mezzo or sono, delle cose che non ha capito http://www.realclimate.org/index.php/archives/2007/05/hansens-1988-projections/

  35. agrimensore gon Gen 12th 2010 at 17:13

    Sicuramente non sono stato chiaro.
    Quando dico che IN GENERE non è troppo difficile far combaciare i dati col passato, intendo dire che, in ogni branca del’attività umana, non del clima, possedere una serie di dati del passato consente, IN GENERE, in maniere non troppo difficile di elaborare una teoria che va bene per quei dati. Ho parlto del lotto, ma potrei parlare di altri giochi, senza voler far paragoni con i modelli GCM (mi pareva d’averlo scritto).

    Ne faccio solo una questione di metodo: una volta che uno elabara una teoria o un modello, secondo me, deve provare a validarlo con i dati successivi alla definizione del modello. Tanto più se il modello è stato oggetto di raffinamento.
    Se intende dire che ciò è avvenuto, beh, giro la sua risposta a NoWayOut, che pensava fosse impossibile nel caso dei modelli climatici (se ho ben compreso la risposta).

    Le tolgo la sua curiosità: il modello più complesso su cui ho lavorato, tanti anni fa, è un sistema esperto per la progettazione (motore inferenziale implementato con un vecchio linguaggio funzionale, il Lisp, ritenuto per adatto in ambito AI), progetto finanaziato dal CNR, con scienziati da tutto il mondo venuti all’Università per constatare i risultati. In realtà, la parte predittiva era limitata, quindi non mi sento di chiamarlo modello. Nè pretendo di essere un esperto.

    A parte ciò, sono sicuro che lei sarà molto esperto nel creare modelli, ma per me il punto è che se i risultati di un modello (o di una teoria o di un’ipotesi o di una congettura) si possono verificare con orizzonti trentennale, allora, sempre secondo me, sono assai difficilmente validabili. Non ho detto che sono sbagliati. Nel caso dei modelli con molti parametri, feed-back, complessità varie, e molti raffinamenti, questo principio dovrebbe essere esteso ancora di più.

    Infine, capisco il suo appunto, nel senso che chiamarla una questione di pura logica è impreciso, e mi spiace se le ha dato fastidio. Allora chiamamola così: una semplice considerazione.

    Spero di essere stato più chiaro stavolta, anche perchè, da regole del blog credo di aver esaurito i miei post a disposizione per fornire ulteriori chiarimenti.

  36. Alessandro Patrignanion Gen 12th 2010 at 19:01

    Un anno non puo’ significare niente climaticamente, e’ un anno di Nino e quindi caldo e il prossimo sara’ caldo almeno per i primi mesi proprio per il Nino e i suoi effetti leggermente ritardati in troposfera.

    Al livello climatico direi che la cosa importante è che il trend del decennio degli anni 2000 (2000-2009) ha visto una notevole frenata secondo tutte le misurazioni rispetto agli anni ’90:

    NOAA-ERSST: riduzione a 1/3, da 0,21°/decennio a 0,06°/decennio
    Hadcrut3: riduzione a 1/9, da 0,25°/decennio a 0,03°/decennio
    ERSST-Oceani: riduzione a 1/9, da 0,16°/decennio a 0,018°/decennio
    UAH: riduzione a 1/5, da 0,26°/decennio a 0,05°/decennio
    RSS: riduzione 1/20, da 0,32°/decennio a 0,015°/decennio

    Anche i trend a 20 e 30 anni sono in calo dal 2002-3, il maggior calo dal 1976 (inizio del Climate Change x cambio repentino della PDO e AMO).

    http://globalwarming.blog.meteogiornale.it/2010/01/10/trend-decennali-e-il-decennio-appena-passato/

    Questo in un decennio di forte aumento delle emissioni umane e urbanizzazione massima. Io sono un oservatore del clima che si e’ fatto una idea di una piuttosto scarsa ingerenza umana sul clima (10-20% al massimo) e quindi la cosa riesco a leggerla molto bene dal punto di vista climatico, ma mi chiedo come facciano a leggerla bene i sostenitori di una ingerenza molto forte dell’Uomo sul Clima.

  37. NoWayOuton Gen 12th 2010 at 19:06

    @agrimensore

    “a NoWayOut, che pensava fosse impossibile nel caso dei modelli climatici (se ho ben compreso la risposta)”

    Non intendevo questo. Ho solo cercato di elaborare sulle possibilita’ e le limitazioni insite nell'”esperimento” particolare che e’ il clima.
    Sulla facilita’ e semplicita’ del fare un modello climatico funzionante ci ripenserei un po’ piu’ a fondo, lasciando perdere i paragoni poco calzanti con l’estrapolazione di una funzione o, peggio ancora, con eventi casuali; qui si parla di leggi della fisica. Cosi’ facile non deve essere, non foss’altro perche’ non se ne vedono in giro poi cosi’ tanti e perche’ sono decenni che la gente ci studia per perfezionarli.

  38. agrimensore gon Gen 12th 2010 at 20:00

    @NoWayOut
    (mi permetto di rispondere perchè, dal tuo intervento, ho capito che si può derogare il limite dei 5).

    Hai proprio ragione. Anch’io, come te, penso che fare un modello climatico sia estremamente complesso, e tutta la mia ammirazione va a chi riesce a farne uno anche appena funzionante.
    E’ proprio per tale motivo che secondo me, se si vuole capire fino a che punto siano funzionanti bisogna testarli.
    Ora, se un modello è predittivo con orizzonte di circa un anno, cioè un anno basta per verificare i dati, è facile testarlo. Di cinque anni, beh, ci vuole un po’ di pazienza ma si può riuscire. Per trent’anni come si fa?

    Una soluzione, secondo me, potrebbe essere questa: se uno ha a disposizione un dataset di centoventi anni, faccio per dire, ne utilizza i primi 60 per costruire il modello ad occhi chiusi sugli altri sessanta, cioè non li conosce affatto. Successivamente usa la seconda parte del dataset per testare di fronte alla comunità scientifica il modello. Mi sembra, al momento, un po’ un’utopia, ma ci si potrebbe riuscire.

    Se però il test va male, il fatto di cambiare i parametri o di introdurne di nuovi per renderlo congruente il modello con i risultati, non ci garantisce che sia funzionante: bisogna reperire altri trenta, o meglio sessanta, anni di dati.

    Mi piacerebbe avere la tua (come quella degli altri) opinione su quest’ultimio principio, che racchiude il senso dei miei interventi (e dei miei esempi, che non vogliono assolatamente esssere paragoni).

  39. carlo cacciamanion Gen 13th 2010 at 00:12

    #agrimensore
    guardi che la validazione dei modelli, almeno quelli statistici, si fa anche come dice lei…non è affatto una utopia…

    le faccio un esempio che viene dalla mia esperienza personale. Per fare della regionalizzazione climatica si possono usare i RCMs oppure si fa del downscaling statistico. Esempio banale: si usa una equazione di regressione tra x (i predittori) e y (i predittandi). Ad esempio x è l’altezza della 500 mbar e y è la temperatura al suolo che si vuole ottenere.
    il legame è del tipo: y=A x+B ovviamente…con A e B costanti da stimare.
    Per corstruire il modello di regressione (cioè stimare A e B) si usano ad esempio 50 anni di dati osservati (di x e y) e poi il modello ottenuto si valida su un data set diverso ed indipendente (ad esempio altri 20 anni diversi successivi o precedenti). Se il modello ha qualche skill (ad esempio spiega una buona percentuale della variabilità di y, ma non solo…) allora si prende come x una simulazione di un GCM (girato in modalità di run di controllo, cioè sul clima attuale, ad esempio negli anni 1900-2000, e si prendono gli ultimi 50 anni della simulazione come x) e se la cosa funziona la si puo’ pensare di usare per fare uno scenario (si prende cioè come x una previsione di un GCM per un periodo futuro, esempio 2070-2100…).
    In questa maniera si valida il modello di downscaling (la regressione) prima su dati indipendenti osservati, poi lo si testa usando come predittore le x estratte da un GCM girato come run di controllo e se la cosa funziona benino (cioè si riproduce benino il clima attuale della y) allora lo si testa per fare lo scenario futuro con uno scenario fatto con il GCM usato in modalità scenario.
    C’è qualche trucco ?

  40. oca sapienson Gen 13th 2010 at 03:55

    @agrimensore
    proprio come dice Cacciamani.

    Uno scenario del 1988 ha esagerato la sensibilità, dice Hansen. E’ vero che “17 anni sono pochi”, ma se lei ci aggiunge le misure 2007-2009, 4,2° sembra più realistico di 3,1°. Speriamo che sia solo un’impressione.

    @Teo G.
    E’ impressionante anche per l’onestà: elenca lacune, incertezze, tiene conto di lavori che potrebbero invalidare il proprio ecc. Come i papers di Mann, Cox, Jones, Hulme, Meehl & Co. più citati e influenti per il “consenso”, non a caso.

    @Alessandro P.
    Nei dati che lei ha scelto in frenata* si vede che le temperature a terra (Hadcrut3) dell’ultimo decennio sono superiori a quelle dei 10, dei 20, dei 30… dei 150 anni precedenti. Alla fine lei si chiede come facciamo “a leggerci una ingerenza molto forte dell’Uomo sul Clima”. E’ strano che se lo chieda perché 3 righe prima s’è risposto da solo: “Questo in un decennio di forte aumento delle emissioni umane”. O ha un’altra spiegazione?

    *Un remake di Watts 2008?

  41. agrimensore gon Gen 13th 2010 at 11:14

    @ Cacciamani
    Grazie per le sue chiare delucidazioni.
    Non c’è trucco se la cosa funziona al primo colpo. Il trucco, a mio parere, ci sarebbe SOLO nel caso in cui, laddove le cose non funzionino al primo colpo, si introducesse un ulteriore parametro per reggere la simulazione col run di controllo. A quel punto, secondo me bisognerebbe cambiare l’intero set di dati, per i motivi che ho cercato di evidenziare nei post precedenti.
    Tra l’altro, quello che faccio un po’ fatica a capire in questo approccio, come sia possibile valutare la controreazioni, o in generale i vari feed-back positivi o negativi che siano, SE si parte con lo scenario DAL 2070. In altre parole, come si fa a calcolare le condizioni al contorno del 2069? Cerco di esemplificare allo scopo di chiarire il conceto in poche parole.
    Non conosco tutti i parametri del modello, ma uno potrebbe essere l’albedo terrestre. Se, ad esempio, dal 2010 al 2070, la superficie dei ghiacci fosse diminuita drasticamente, l’albedo diminuirebbe. Come fa il modello a tener conto di questa diminuzione?

    @oca sapiens
    io un’altra ipotesi di spiegazione ce l’avrei, ma prima di sbilanciarmi attendo gli esiti di un esperimento.

  42. agrimensore gon Gen 13th 2010 at 13:30

    Rettifica: onde evitare malintesi, prego chi legge il mio precedente post di sostituire la parola “problema” alla parola “trucco”, che potrebbe far pensare ad ipotesi di alterazioni fraudolente dei dati.
    Il post risponde quindi alla domanda “dov’è il problema?”, intesa in accezione epistemologica.

  43. oca sapienson Gen 13th 2010 at 21:21

    @agrimensore
    Per il “problema” ci vuole un back to basics, mi sa.
    http://www.csa.com/discoveryguides/models/review.php
    un po’ di modelli semplificati, hands on, per farsi un’idea della varietà
    http://geoflop.uchicago.edu/forecast/docs/models.html

    “valutazione dei feedback”
    rif. il IV rapporto Ipcc, nella bibliografia trova papers per varie parti del sistema – criosfera, biosfera, oceani, atmosfera – variamente abbinate. Da allora ne sono usciti centinaia di nuovi.

    “feedback dell’albedo”
    rif. un “classico” – http://www.agu.org/pubs/crossref/1989/89JD00011.shtml – e papers successivi di Meehl, Soden ecc.

    “come si fa calcolare le condizioni a contorno del 2069?”
    fisica, equazioni, software (Mac – Python):
    http://geosci.uchicago.edu/~rtp1/ClimateBook/ClimateBook.html

  44. Alessandro Patrignanion Gen 13th 2010 at 22:31

    @oca sapiens

    “Nei dati che lei ha scelto in frenata* si vede che le temperature a terra (Hadcrut3) dell’ultimo decennio sono superiori a quelle dei 10, dei 20, dei 30… dei 150 anni precedenti. Alla fine lei si chiede come facciamo “a leggerci una ingerenza molto forte dell’Uomo sul Clima”. E’ strano che se lo chieda perché 3 righe prima s’è risposto da solo: “Questo in un decennio di forte aumento delle emissioni umane”. O ha un’altra spiegazione?”

    Si, ho una spiegazione molto valida che comprende varie cose e in cui l’Uomo compare soprattutto per la quota parte di Land-use change, molto + che per le emissioni, ma la parte del leone e’ del sistema climatico stesso, senza alcun dubbio.
    Inoltre non capisco perche’ una onda calda di 30 anni circa, che da 10 pare essersi quasi fermata, dovrebbe essere necessariamente connessa alle emissioni umane. Credo proprio che stiamo peccando di protagonismo, come al solito nella storia. Gli anni 70 erano allineati piu’ o meno alle medie degli ultimi 3 secoli e l’unica cosa anomala sono questi ultimi 30 anni …. qualcosa e’ successo, rapidamente e violentemente con un climate change immediato ….. io guarderei prima a questo, la trave, piuttosto che le pagliuzze:

    http://globalwarming.blog.meteogiornale.it/2009/12/07/climate-change-il-1976/

  45. agrimensore gon Gen 14th 2010 at 14:17

    @oca sapiens

    Come per il post precedente, non so come ringraziarla per i link, ci ho trovato info che stavo cercando da tempo.

    Però, vorrei sottoporre alla sua attenzione un paio di passaggi sui link che ha postato.

    Questo lo trova nell’ultimo paragrafo del primo link:
    some model weaknesses persist in that they may have biases with PARAMETERS
    (il caps sul “parameters” l’ho messo io)

    Questo invece è fa parte dell’abstract del “classico” circa i feed-backs dell’albedo:
    We conclude that care is needed in quantifying these feedbacks and that previously published numbers are not all comparable.

    Mi sono anche fatto un’idea della variabilità dei modeli, come mi ha suggerito. Ovviamente ne ho dedotto che non c’è ancora convergenza sul modello migliore.

    Comunque il senso della mia domanda era su come era possibile far partire i GCM dal 2070 senza farli girare in precedenza per calcolare la condizioni al contorno.

    Infine, mi permetta un suggerimento OT anche da parte mia: se un giorno avrà voglia di provare a convincere uno scettico, su qualsiasi tema, anzichè dalla bibliografia, provi ad iniziare la discussione illustrando le sue idee. Vedrà che saprà essere molto più efficace.

  46. oca sapienson Gen 16th 2010 at 01:17

    @agrimensore
    non esiste un modello migliore, ma migliaia più o meno adatti a scopi e funzioni proprie. La maggior parte sono strumenti di ricerca, per testare possibili debolezze. Ognuno ne ha in alcuni parametri, ovvio. Il “classico” ne indicava, poi si sono messe boe in mare e satelliti in cielo, risultato: fine dell’ipotesi Iris, del modello Pielke sul land use e papers di Meehl et al.

    Scusi la curiosità, ma perché vuol far partire un GCM dal 2070 calcolandone le condizioni a contorno quando sono date dai GMC, GC(a)M, AGCM, OGCM ecc. 2010-2040 e 2040-2070?

    La ringrazio del suggerimento, ma penso che le convinzioni siano personali. Lei non è scettico sulla validità di un qualche risultato. Asserisce “è facile far combaciare i dati del passato”, è tutto “un fit di curve”, i modelli non sono stati testati ecc. Così nega la realtà sulla quale si basano le mie idee (ammesso che ne abbia). Posso solo provare a mostrargliela, decida lei se vederla o no.

  47. oca sapienson Gen 16th 2010 at 02:03

    @Alessandro P.
    Visto che non c’è più limite ai post, mi allargo.
    La variazione nel land use, di Pielke Sr, ha un contributo infimo al riscaldamento: da una lato le terre coltivate aumentano l’albedo (che Pielke non aveva calcolato), dall’altro la deforestazione diminuisce la CO2 assorbita;
    l’onda è calda da un secolo e mezzo, prima si scendeva piano piano verso il freddo;
    nel 2000-2009 la temperatura ha continuato ad aumentare, meno nell’emisfero nord e di più al polo nord e nell’emisfero sud;
    negli anni 70 sono state abbassate le emissioni delle polveri e il riscaldamento è ripreso, a dimostrare l’effetto delle attività umane sul clima.

    Il protagonismo non è dell’Uomo, ma di 6,8 miliardi di uomini con altrettante macchine al suo servizio e 60 miliardi di animali d’allevamento.

  48. ottimomassimoon Gen 17th 2010 at 12:36

    Potete dire quello che volete, fare tutti i calcoli di media moda e mediana, intervalli di confidenza, chi quadro, t di student, deviazioni standard e non, esaminare e confrontare statistiche ufficiali e sottufficiali, immagini dei satelliti e quello che vi pare.

    Dal 1997 fa più caldo, punto e basta.

    Una volta si tiravano fuori i vestiti invernali ad ottobre, ora se va bene a dicembre.
    Fino ai primi di luglio le giornate erano soleggiate ma con temperature gradevoli, e la sera era fresco (anche in agosto), ora si comincia già a maggio a passare i 30 °C, e continua così fino ad ottobre.
    Una volta (anche nel ’96) dopo ferragosto cominciava a piovere ogni santo pomeriggio, ed in breve l’aria si raffrescava.
    Trenta anni fa le precipitazioni erano distribuite e regolari, ora viene giù il finimondo concentrato in un paio di mesi o poco più, e poi stop.
    Le foglie sugli alberi iniziavano a cadere a metà settembre, ora sono belle verdi e ben attaccate ai rami anche a novembre inoltrato.
    Se di gennaio si lascia la macchina al sole, quando si entra il volante è caldo come d’estate.
    Il sole picchia sulla pelle e provoca una sensazione urente anche in pieno inverno.

    Non so quali siano le cause, se umane, naturali o entrambe le cose (il mio campo è la neurofarmacologia) e se queste ci siano veramente e siano verificabili, ma posso OSSERVARE, come singolo ed ignorante cittadino, che di regola è più caldo di quanto non fosse venti anni fa.

  49. Alessandro Patrignanion Gen 19th 2010 at 08:41

    @Oca Sapiens
    Ci vorrebbe troppo spazio per argomentare sui vari contributi agli equilibri climatici, quindi chiudo qui invitandola alla osservazione attenta sia del passato che di cio’ che effettivamente avviene ed e’ avvenuto in natura, le lascio alcuni spunti di riflessione e la saluto cordialmente:

    – il 95% dell’effetto serra e’ dovuto all’H2O
    – il 99,99% del calore arriva dal Sole
    – il 95% dell’Heat Content terrestre e’ nell’H2O
    – NON e’ vero che le temperature salgono da 150 anni, semmai da 100, dal minimo tra fine 800 e anni ’10. Il minimo fu in gran parte dovuto a condizioni vulcaniche. I 50 anni prima ci fu un buon calo.
    – Gli anni 60-70 sono allineati alla media climatica tra 1700 e 2000, che comprende quindi una parte della PEG, i minimi peg tra ‘500 e ‘700 furono preceduti da un forte calo dopo i massimi del periodo medievale, periodo che fu non dissimile dall’attuale. Il primo olocene ebbe un lungo periodo ben piu’ caldo dell’attuale (tra 1 e 2°).
    – Il vulcanesimo ha impattato fortemente TUTTI i minimi della PEG, quelli tra 1650 e 700, 1800-1820, 1888-1915
    – Osservi cosa e’ successo in stratosfera negli ultimi 30 anni, e osservi se ci sia calo delle temperature dopo il 1994 (dopo cioe’ il crollo dovuto al Pinatubo x depletion dell’ozono). Eppure dovrebbe esserci se c’e’ “forcing” CO2 … ma non c’e’.
    – Osservi molto bene il cambio climatico del 1944 e soprattutto quello del 1976 (ha il link nel post precedente). Quello che leggerà le racconta una storia che produce una immensa nuvola di H2O in atmosfera in modo immediato e potente, e l’H2O e’ IL gas serra terrestre.
    – Certo ci sono altri contributi che vanno studiati, ma le consiglio di studiare prima la REALTA’ e poi i dettagli.

  50. Paolo C.on Gen 19th 2010 at 10:40

    Intanto, i dati del GISS ci dicono che il 2009 è stato il secondo anno più caldo (il primo, per quanto riguarda l’emisfero meridionale) dopo il 2005:

    http://www.realclimate.org/index.php/archives/2010/01/2009-temperatures-by-jim-hansen/

    E meno male che il sole era al minimo…

  51. Vincenzoon Gen 19th 2010 at 12:56

    @ Patrignani

    ancora con il vapore acqueo
    che noia
    sono cose dette ridette e stradette
    giusto per non lasciarla nell’illussione di aver capito tutto, provi a leggere alcuni riferimenti che trova qui
    http://www.grist.org/article/water-vapor-accounts-for-almost-all-of-the-greenhouse-effect/

    Molte altre risposte sono qui
    http://www.grist.org/article/series/skeptics/

  52. Alessandro Patrignanion Gen 20th 2010 at 20:24

    @ Vincenzo
    Sara’ noioso ma la Scienza sta investendo milioni e milioni di dollari per cercare di capire realmente il ciclo dell’acqua in atmosfera e il suo ruolo sui cambiamenti climatici. Evidentemente le cose dette e ridette non hanno un gran fondamento.

    E non si aspetti che l’aumento di H2O atmosferica possa essere un feedback dell’aumento lento e graduale della CO2, osservi bene che e’ successo nel 1976: http://globalwarming.blog.meteogiornale.it/2009/05/29/il-vapore-in-atmosfera/

    Un saluto.

  53. Vincenzoon Gen 20th 2010 at 21:58

    @Patrignani

    mamma mia, mi sono letto la cosa che ha scritto su quel blog, mi sembra che le mancano le basi per capire cosa sta succedendo.
    Questo ragionare a spanne (“L’andamento ripropone abbastanza bene l’altezza del Sole sull’orizzonte nella nostra fascia”) non può portare da nessuna parte.
    Nelle ultime righe scrive “Io ho trovato questi dati molto interessanti anche se non ne conosco l’affidabilità…”. Grande… ma non è il caso prima di controllarla l’affidabilità ?

    Provi a leggere qui http://geotest.tamu.edu/userfiles/216/dessler09.pdf
    magari le si chiarisono le idee

    Infine, guardi che la scienza del clima sta studiando altre cose; qualche progetto di ricerca che studia il vapore d’acqua ci sarà di sicuro, ma milioni e milioni di dollari sono le solite esagerazioni. Io comunque non rispondero’ perchè non mi piacciono le discussioni a due.
    Se vuole credere che è tutta colpa del vapore acqueo va benissimo, contento Lei… Il mio consiglio comunque è di studiare bene prima di scrivere… vedrà che prima o poi se ne pentirà, fra un po’ di tempo (settimane ? mesi? anni?) guarderà indietro e sorriderà anche Lei alla sua ingenuità…

  54. Simone82on Gen 21st 2010 at 21:51

    @Antonio
    Che l’affermazione di Motl legata alla mancanza di riscaldamento da 15 anni sia falsa è sufficientemente dimostrabile guardando i grafici: non mi pare infatti che nel 2009 abbia fatto caldo come nel 1994… Tuttavia
    «Se tutta la mancanza di oggettività della scienza del clima è che un anno di un presunto periodo di raffreddamento può essere o il quarto o il quinto o sesto anno più caldo da quando esistono le misure, ci faccio la firma.»
    Anche io ovviamente, ma è un dato di fatto che se il 2009 è l’anno più caldo del decennio oppure il 4° anno più caldo del decennio, le cose cambino abbastanza. Poi, il trend di riscaldamento è sufficientemente chiaro, tuttavia se si vuole far finta di non vedere che dal 2003 in poi c’è calma piatta (la si chiami pure variabilità climatica o quel che si vuole, sempre di calma piatta si tratta), o arrivare a dire che oramai questo argomento è morto, va bene, anche l’IPCC non sbaglia mai… Ah no mi scusino, l’IPCC ha appena detto che le sue previsioni nei suoi rapporti sono sbagliate… Ahi ahi, possiamo certificare anche che certe argomentazioni dei cambioclimastisti catastrofisti sono morte… 😉

  55. Paolo C.on Gen 22nd 2010 at 10:30

    Col mio ultimo post disponibile segnalo quest’articolo dal blog di Nature:

    “Data gaps and errors may have masked warming”

    http://blogs.nature.com/climatefeedback/2010/01/ams2010_data_gaps_and_errors_m.html

  56. Simone82on Gen 22nd 2010 at 12:55

    @Paolo
    Leggiamole tutte le fonti:
    http://pielkeclimatesci.wordpress.com/2010/01/21/comment-on-ams2010-data-gaps-and-errors-may-have-masked-warming-by-olive-heffernan-at-the-weblog-climate-feedback/
    If the land surface temperatures were actually warmer than have been sampled, this results in even more divergence between the surface temperature and lower tropospheric temperature trends which we quantified in

    Klotzbach, P.J., R.A. Pielke Sr., R.A. Pielke Jr., J.R. Christy, and R.T. McNider, 2009: An alternative explanation for differential temperature trends at the surface and in the lower troposphere. J. Geophys. Res., 114, D21102, doi:10.1029/2009JD011841.

    While, whether the trends are positive or negative from 2003 to 2009 does not refute a longer time global warming (which could, of course, recommence), statements by Chris Folland and John Kennedy that can be easily shown to conflict with even a cursory examination of the data, will result in a dismissal of their conclusions by objective climate scientists.

    Quanto sopra a beneficio di chi dice che la storia del piattume recente è stata oramai abbandonata e a beneficio di chi legge gli articoli “as is”, senza collegarli a tutte le fonti disponibili sull’andamento della temperatura globale. La recente variabilità climatica e le grandi divergenze tra modelli e realtà (ed il fatto che tali divergenze sono attualmente scientificamente inspiegabili per mancanza di sufficienti conoscenze) che sono nuovamente state messe nero su bianco da Schwartz sono più che sufficienti a fare piazza pulita (si spera) del cambioclimatista catastrofista che affligge certa scienza moderna… Ora che pure l’IPCC comincia ad ammettere i suoi errori (non è mai troppo tardi), c’è speranza di lasciare Al Gore al suo destino e di tornare a fare vero dibattito scientifico?

  57. gpon Gen 22nd 2010 at 13:35

    Pultroppo se c’è qualcuno che non ammette mai gli errori è proprio Pielke, infatti è noto che Gavin Schimdt aveva individuato un vistoso errore nell’analisi di Klotzbach et al. e nonostante ciò il lavoro è stato pubblicato con il valore errato di amplificazione troposferica sulle aree di terra(1.2 anzichè il valore corretto di 0.95)…..

    http://julesandjames.blogspot.com/2009/11/klotzbach-ad-nauseam-2009.html

    Come se non bastasse il lavoro di Klotzbach et al. ignora le due ricostruzioni satellitari con i trend più forti( Vinnikov/Grody e Zou et al.)

  58. Alessandro Patrignanion Gen 22nd 2010 at 19:25

    @Vincenzo
    Quei dati sono su Climate Explorer e provengono da CRU. Il mio scrupolo sull’affidabilita’ riguarda il fatto che non vi e’ altra descrizione se non il tipo di dato (pressione parziale di vapore).

    per il resto lei e’ una persona sgradevole e offensiva quindi non mi abbasso certo a discutere con lei a cui credo servirebbe di studiare meglio le cose e acquisire una educazione migliore.

  59. ottimomassimoon Gen 22nd 2010 at 19:43

    “La Nazione”, 21 gennaio 2010, intervista a Giampiero Maracchi (Ordinario di Climatologia Università degli Studi di Firenze).
    Secondo lui il pianeta si sta riscaldando.
    Meno chiacchiere e più termocettori all’erta.

  60. Simone82on Gen 22nd 2010 at 22:48

    @gp
    Pielke è in grande e buona compagnia… Il titolo del post di quel del blog è tutto un programma, come il suo contenuto… Inoltre la controreplica di un membro del NASA GISS contro ricerche a lui contrarie, o viene pubblicato in un articolo peer review oppure le sue parole per me valgono uguali a 0.
    Inoltre è abbastanza nota l’esistenza di due trend differenti, l’uno di 0,18°, l’altro di 0,13° utilizzato da Christy nel gruppo di lavoro che dirige (negli ultimi anni sceso a 12,7°). Ma Christy è membro dell’IPCC o sbaglio? Forse è un Christy differente da quello a cui è stato messo in quarantena l’articolo per 11 mesi affinché la replica di Santer non apparisse come una replica, chiudendo alla base la discussione scientifica? La differenza di 0,05° non vedo come possa smontare la logica di Pielke, e cioè che se la ricostruzione su Nature è vera, il problema aumenta invece che diminuire. Questo prescinde dall’articolo di Klotzbach. A meno di non voler falsificare l’evidenza, come fa il Met Office UK che dice che i modelli hanno previsto l’attuale variabilità climatica quando di questa previsione non c’è uno straccio in nessun luogo né grafico. Quindi da qualche parte c’è un errore nella ricostruzione del sistema clima, punto. Quando i luminari di Real Climate ed amici ne prenderanno atto, la scienza avrà fatto un grande passo avanti.

    @ottimomassimo
    Anche secondo il 99% degli scienziati, compreso tutti quelli che criticano le ricostruzioni ed i modelli del CRU, a partire da Pielke.

  61. gpon Gen 23rd 2010 at 09:44

    Considerato che la fonte del dato errato ha ammesso l’errore….non capisco cosa serva di più per considerare errato il lavoro di Klobasch.
    Per il resto ripeto le ricostruzioni satellitari della bassa troposfera non sono due ma 4 escludere le due con i trend più forti non è corretto:

    http://www.star.nesdis.noaa.gov/smcd/emb/mscat/mscat_files/Zou.2009.ErrorStructure.pdf

    PS: La previsione decennale dell’Hadley è stata pubblicata su Smith et al. 2007 basta leggere la letteratura scientifica…

  62. Simone82on Gen 24th 2010 at 14:12

    @gp
    Non discuto sul fatto se l’articolo sia errato, per me può anche esserlo e non ho motivo di ritenere che non sia così (spero che anche Pielke se ne faccia una ragione visto che lo usa spesso e volentieri, io mi sono limitato ad un copia-incolla focalizzando l’attenzione sulle conclusioni logiche di Pielke stesso, non sull’art. citato). Ma sono abituato a pensare che le discussioni scientifiche si facciano sulle riviste scientifiche e non sui blog, in modo tale da permettere la pubblicazione scientifica, usabile a fini di peer review corretta, di dati corrispondenti al vero. In tal senso, chiedo se esiste una risposta ufficiale di Spencer e Christy a quell’articolo di Zou.
    Sapevo che le ricostruzioni erano 3-4, mi ero solo limitato a far notare che l’esistenza di più ricostruzioni era nota.

    PS: siamo OT rispetto al topic, quindi non ritengo corretto continuare in tal senso. La letteratura scientifica dice che la troposfera costituisce un problema per la teoria dell’AGW by CO2, e la ricostruzione di Nature amplifica questo problema. La cosa verrà ribadita in un prossimo studio in pubblicazione proprio sul Journal of Climate, dove si dirà anche che l’aumento di temperatura registrato è inferiore a quello che si sarebbe dovuto verificare in base alla teoria della CO2. Punto.

  63. ottimomassimoon Gen 25th 2010 at 20:19

    E allora significa che altri fattori, più o meno conosciuti, concorrono al riscaldamento del pianeta.

  64. stephon Gen 27th 2010 at 00:37

    @Simone82

    A) la stasi dal 2005 è solamente apparente. I 12 mesi più caldi nel dataset Giss L+O nel NH sono quelli compresi fra il maggio 2006 e l’aprile 2007, per il SH fra settembre 1997 e agosto 1998, ma tallonati da vicino dal Jan-Dec 2009. Comunque, in breve, il trend delle T globali continua a salire, e anzi:

    1) da un lato la variabilità interannuale sovrimposta rimane pienamente entro i limiti nei quali fluttuano la gran parte dei valori

    2) la maggior parte di essi, nell’ultimo decennio, rimane cmq sopra la linea del trend di fondo, il 2008 per es. è stato invece sotto (Nina + minimo solare)

    3) l’ultima considerazione ci dice fa intuire, come stia cambiando nel tempo il trend lineare: se non stesse cambiando (sovrimposto com’è alla variabilità interannuale) ci aspetteremmo di trovare una distribuzione più o meno equa dei valori al di sopra e dal di sotto della linea. Invece non è così. E infatti, considerando la funzione quadratica, scopriamo che sta accelerando!
    Adesso aspettiamo di vedere cosa ci riserveranno i prossimi anni, ma intanto ciò che avrebbe potuto frenare l’accelerazione e in seguito stabilizzare il trend è già stato annichilito in pieno quasi in un battibaleno.

    B) Non capisco bene questa continua eccitazione ossessiva fra i trend termici superficiali e troposferici. È ben noto (da anni!) che da un lato i modelli prevedono una risposta termica relativa nella troposfera medio-alta come conseguenza di qualsiasi tipo di fattore che amplifica il riscaldamento troposferico tropicale. Indipendentemente dalla causa: si tratta di un aspetto di natura fisica, vale a dire un feedback negativo dell’adiabatica umida indotta.
    D’altra parte sono altrettanto noti (e perlopiù in gran parte corretti) i bias raffreddanti nei rilevamenti satellitari dei canali “middle troposhere” indotti dal raffreddamento della bassa stratosfera (e si parla di modifiche sul trend fino a un decimo di grado a decennio!).
    Poi i satelliti, per loro costituzione, misurano T troposferiche (e alcuni con qualche influenza dalla bassa stratosfera, come detto) e *non* superficiali. Superficie e troposfera sono due cose fisicamente ben differenti (pur con qualche correlazione fra loro, e spesso con lag di qualche mese, vedi l’ENSO nella troposfera tropicale) e confrontare l’andamento dato da misure termiche di due entità fisiche diverse non ha molto senso. Fra l’altro, oltre al decoupling agito nei tropici dagli alisei e per es. nelle zone continentali invernali del NH dall’inversione, la temperatura troposferica globale è tanto influenzata dalle regioni tropicali quanto quella superficiale globale lo è dalle regioni continentali del NH (e secondariamente dalle zone artiche).__________________

  65. NoWayOuton Gen 27th 2010 at 11:10

    A proposito di temperature superficiali e troposferiche che, come ben detto da steph, sono due cose diverse, ci si dovrebbe piuttosto stupire del sostanziale similitudine fra loro almeno per quanto riguarda le medie annuali globali. Probabilmente non e’ un caso, ci sara’ della fisica dietro; ma non so speculare oltre su questo.

  66. Climalteranti » Tu quoque, Giorelloon Mar 1st 2010 at 10:11

    […] ad effetto, col rischio di scadere in una mistificazione totale della realtà. In sostanza basta un anno “normale” (cioè nella norma 1960-1990) e con un po’ di neve, alcune email rubate strumentalizzate senza veri motivi di merito, qualche errore irrilevante in un […]

  67. […] Come mia abitudine, per un commento immediato all’anno appena trascorso, mi ispiro alla fonte di dati immediatamente disponibile, e cioè quello del NCEP/NCAR [National Centers For Environmental Prediction’s and National Center for Atmospheric Research], che distribuisce gratuitamente, e con soli due giorni di ritardo, un notevole numero di dati utilissimi (tra cui le temperature in atmosfera), mediati su un grigliato di 2,5 gradi in longitudine e latitudine (alle nostre latitudini, significa circa 300 x 300 km quadrati). Si tratta di dati elaborati e non grezzi, il che permette la loro disponibilità con alcuni giorni di anticipo rispetto alle medie ottenute dall’analisi diretta dei dati delle stazioni, che debbono invece essere prima controllati, e consentono, quindi, una rapida analisi preliminare dell’anno appena trascorso. […]