Notizie e approfondimenti sul clima che cambiaPosts RSS Comments RSS

Clima passato e futuro: perché la Scienza avanza – prima parte

La Scienza è andata avanti sia nel processo di  conoscenza delle cause delle variazioni accadute in passato, sia nella capacità di simulare il clima futuro. Il Prof. Enrico Bellone, richiamando una frase  riportata in un recente libro del Prof. Guido Visconti, sostiene il contrario e secondo noi commette un errore. Partendo da un’attenta analisi del libro di Visconti si scopre che le cose non stanno proprio così: in particolare, soprattutto nella seconda parte si scoprono tante altre affermazioni discutibili, spesso contraddittorie e confuse. Qua e là traspare anche un certo livore personale dell’autore nei confronti degli utilizzatori dei modelli di simulazione del clima, che vengono reputati non come scienziati che svolgono il loro lavoro di ricerca con passione e coscienza, ma piuttosto come personaggi a caccia solo di fama e fondi di ricerca. Dispiace constatare  che per difendere delle tesi scientifiche si usino anche argomentazioni del genere: evidentemente  quando non si hanno forti contrapposizioni tecniche da addurre a difesa delle proprie tesi, anche le frasi “ad effetto” si ritiene possano aiutare.

.

PRIMA PARTE: La Scienza è andata avanti, e non poco, nel comprendere il clima.

.

Nel successivo commento alla lettera che un gruppo di scienziati italiani ha inviato alla rivista “Le Scienze” (vedi qui), il Prof. Bellone, per perorare le sue tesi, fa riferimento ad una frase che il Prof. Guido Visconti riporta nel suo libro “Clima Estremo” (anno 2005, editore Boroli, pag. 165 – vedi qui) che recita testualmente: “…la Scienza non è in grado di spiegare le variazioni climatiche che sono avvenute in passato: pertanto non si capisce come la stessa Scienza potrebbe essere in grado di prevedere quello che avverrà nel prossimo futuro. Malgrado ciò organismi internazionali come l’IPCC annunciano con cadenza regolare previsioni per i prossimi 50 o 100 anni. Questa apparente capacità previsionale è la stessa che ha dato notorietà e quindi assicurato fondi, ad un’intera classe scientifica negli ultimi 20 anni”.

Questa frase stimola l’apertura di un dibattito interessante e che mi auguro possa approfondirsi anche con chi è “scettico” sulle responsabilità antropiche al riscaldamento globale; in questa prima parte si vorrebbe smontare il paradigma che nel settore delle scienze del clima e della previsione degli scenari futuri la comunità scientifica sia praticamente ancora all’anno zero o quasi, come si vuol far credere con affermazioni del genere.
La prima cosa da dire analizzando quest’affermazione, e dispiace constatarlo, è che sia presente anche una certa dose di arroganza nel giudicare così male l’IPCC ed in generale un’intera classe di scienziati che parrebbe aver solo speculato sulla (falsa) capacità previsionale dei modelli del clima (AOGCMs) al solo scopo di assicurarsi dei fondi di ricerca.
Ma, tralasciando questi aspetti che sono per altro assai rilevanti e limitandosi ai soli aspetti tecnici, c’è da chiedersi come possa avere ancora cittadinanza l’idea che l’intera comunità scientifica non abbia fatto alcun passo avanti per spiegare le cause della variabilità climatica passata del pianeta Terra.

.

Crediamo sia fuori discussione che la Scienza tenda da sempre ad avere una maggiore comprensione dell’universo in generale, della natura e del clima terrestre. Il processo di conoscenza è inarrestabile e richiede l’individuazione di ipotesi organizzate in teorie, la cui validità va sempre posta al vaglio del confronto con la realtà della natura stessa.

.

Ora, in realtà, molto si sa sulla variabilità del clima e quali siano le cause di questa variabilità. Per altro, senza andare troppo lontano, già nel libro stesso di Visconti, e questa è la prima contraddizione se proprio si vuole, vengono fornite al lettore molte utili spiegazioni in merito alle possibili cause di questa variabilità. Ad esempio si descrivono in dettaglio i fattori di natura astronomica che spiegano l’evidente ciclicità di lunghissimo periodo (dell’ordine di 100.000 anni) nell’andamento dell’anidride carbonica (pag. 97), le cause probabili dell’occorrenza delle glaciazioni (pag. 83). Viene descritto quello che si conosce del ciclo del carbonio (pag. 84); trattando le scale temporali più recenti si discute delle possibili cause della piccola era glaciale occorsa tra il 15mo e 19mo secolo. Ma sono solo alcuni esempi. In realtà il libro, almeno nella prima sua parte, illustra bene queste cause. Ma allora, perché si deve dire che la Scienza non è “… in grado di spiegare le variazioni climatiche che sono avvenute in passato…” ? Abbiamo interpretato male ?

.

A guardare bene però, risulta evidente che i dubbi principali di Visconti non sono tanto connessi a quello che si sa (o meglio, che non si sa) del passato, quanto piuttosto alla possibilità di simulare il clima futuro facendo uso dei sistemi di modellistica globale (AOGCMs). E’ bene ricordare, come premessa, che questi oggetti fisico-matematici sono un esempio di strumento sofisticato che la Scienza si è data per valutare la validità di teorie dove sono introdotte le possibili cause, naturali e antropogeniche, che possono spiegare e modificare la variabilità del clima, sia a scala globale che a quella locale. Non essendo possibile riprodurre in laboratorio un “pezzo di atmosfera” e pretendere quindi che gli esperimenti siano “ripetibili”, è evidente che la modellistica risulta l’unica maniera per costruirsi un laboratorio virtuale “galileiano” sul quale sperimentare le leggi della Natura, nel caso di sistemi complessi come quello climatico.

.

La perplessità che questi strumenti possano avere una loro utilità, più volte espressa nel libro di Visconti, sarebbe concentrata nel fatto che il sistema climatico è caotico e sostanzialmente non prevedibile. Visconti fa riferimento spesso al modello di Lorenz (pag. 65 e seguenti; l’articolo  di Lorenz del 1963 sul Journal of Atmospheric Science si scarica da qui) e conclude dicendo che, vista la complessità e la non linearità del sistema climatico, non c’è speranza di poter eseguire previsioni per il futuro in quanto i sistemi modellistici sono molto sensibili alle condizioni iniziali e quindi, come si dice nel libro (pag. 70): “…il sistema rapidamente perderà la memoria delle condizioni iniziali e quindi la previsione del suo stato nel tempo futuro non avrà più senso”.

.

Il lettore non troppo esperto di queste materie, letto un “incipit” del genere, potrebbe a questo punto chiedersi, legittimamente, come possa essere possibile prevedere il clima tra 100 anni se si dice che il sistema climatico è caotico e non prevedibile neppure dopo 10-15 giorni, a causa appunto della sua intrinseca caoticità. Visconti in verità correttamente tenta di spiegare questa differenza tra previsione del “tempo” e simulazione “climatica”. Si legge infatti (pag. 74): “…un sottoprodotto dei modelli di previsione è rappresentato dai GCMs. Si tratta di modelli che vengono inizializzati con le osservazioni attraverso un sistema abbastanza sofisticato, i risultati dei GCMs dovrebbero essere indipendenti dalla condizione iniziale, perché dovrebbero convergere verso la rappresentazione del clima, sia esso attuale o futuro”.
Quindi sembra di capire che previsione meteorologica e previsione climatica siano cose diverse.  Con le simulazioni climatiche si tenta di simulare uno stato “medio” dell’atmosfera (attuale o futuro), con le previsioni del tempo si tenta di prevedere, deterministicamente,  il tempo in un istante preciso.

.

Ma allora questo significa che la pur indubbia caoticità dell’atmosfera può in qualche maniera essere “imbrigliata”, per così dire, e non è quindi escluso affatto a priori che i GCMs possano avere una loro predicibilità anche alle scale temporali lunghe proprie del clima e quindi essere per l’appunto in grado di riprodurre con una qualche ragionevolezza il clima reale, attuale o futuro che sia. E se questo è vero, non si comprendono bene le ragioni del perché questi strumenti non possono essere usati per valutare scenari climatici futuri, al variare, ad esempio, del forzante esterno causato da diversi scenari di  emissioni di gas serra.
Se tutto ciò è vero, da dove discende allora l’affermazione: “non si capisce come la stessa Scienza potrebbe essere in grado di prevedere quello che avverrà nel prossimo futuro”, enunciata con la potenza quasi di un assioma ?

.

Ma c’è un altro problema. Afferma Visconti, richiamando una tesi del 1994 di una ricercatrice del dipartimento di Storia dell’Università della California, c’è un’altra difficoltà quasi “filosofica” : i GCMs non sono verificabili né validabili (pag. 75). E’ bene dire, ed anche con una certa forza, che affermazioni del genere, sempre più citate a sproposito da un certo pensiero scettico che anche in Italia si sta diffondendo, non corrispondono alla realtà. La validazione è invece assolutamente possibile nei GCMs ed ha il valore che ha, alla stessa stregua della validazione dei modelli di previsione del tempo. La validazione dei GCMs avviene di norma confrontando i “run di controllo” che vengono “girati” per simulare il clima attuale (ad esempio il trentennio 1961-1990) con dei data set del tutto indipendenti e che non entrano in alcun modo nella simulazione (ad esempio, osservazioni globali di temperatura superficiale, precipitazioni, etc.).

.

Ora, è del tutto evidente che non possiamo verificare “adesso” se gli scenari al 2100 saranno corretti, né potremo farlo nel 2100, perché ahinoi siamo tutti essere mortali… Ci possiamo limitare a valutare ora l’errore nella riproduzione da parte dei GCMs del clima attuale, ad esempio del trentennio 1961-1990, e ipotizzare che questo errore possa mantenersi in futuro. Questa è sicuramente un’ipotesi di lavoro, ma del tutto legittima, che si porta dietro delle assunzioni di stazionarietà dell’errore la cui dimostrabilità non è per altro ovvia. Su questo punto c’è un forte dibattito, evidentemente, e per molti questa sarebbe una ragione sufficiente per dire che i GCMs sono non validabili e quindi, a differenza dei modelli che fanno le previsioni del tempo, non usabili.

.

A chi avanza un’obiezione del genere viene però da chiedere: ma non è sempre vero questo assunto anche per le previsioni del tempo che emettiamo oggi e che saranno validate tra 7 giorni ?
Chi ci autorizza infatti ad ipotizzare che, se la previsione emessa una settimana fa per oggi è stata corretta, ebbene sarà corretta anche quella che emettiamo oggi e che avrà validità tra sette giorni ?
Quello che possiamo fare, e che in effetti facciamo, è valutare statisticamente, sulla base di tante previsioni a 7 giorni emesse nel passato e per un gran numero di anni, l’errore atteso del modello di previsione che si usa (valutabile con una serie qualsivoglia di indici di qualità) e ipotizzare che questa stima dell’errore possa valere anche per il futuro. Perché se questa logica vale per le previsioni del tempo, non dovrebbe valere anche per le simulazioni climatiche? Solo perché non riusciremo a verificarlo proprio noi di persona ma lo potranno fare i nostri figli o nipoti?
E questa constatazione farebbe concludere “tout court” che i GCMs sono “logicamente” non validabili?

.

Tornando ad argomentazioni scientifiche un tantino più solide, un intero capitolo del report finale di Ensemble è dedicato al tema della validazione dei AOGCMs, così pure come l’intero capitolo 8 del quarto report di IPCC, 2007, AR4. Non si comprende veramente perché si continui a porre questo problema che è indubbiamente un falso problema. Viene il dubbio (perfido, e avanziamo subito le nostre scuse) che non sia noto a molti detrattori come siano veramente fatti e come si usino questi AOGCMs. Ma non è questo certo il caso del Prof. Visconti.

.

Quanto all’affidabilità dei AOGCMs , è un dato di fatto invece che gli strumenti di simulazione del clima dell’ultima generazione abbiamo fatto dei progressi considerevoli e diminuito in maniera evidente i loro margini di errore. Ad esempio in IPCC AR4 (cap.8) vengono confrontate le performances dei GCMs antecedenti l’anno 2000 con quelli disponibili già solo 5 anni dopo nel riprodurre il clima attuale e si nota in maniera evidente come, ad esempio, gli errori di riproduzione dei campi medi al suolo di temperatura, pressione atmosferica al suolo e precipitazione siano notevolmente diminuiti, pur con i margini di incertezza che sono per altro dichiarati in maniera molto precisa e con il massimo della trasparenza.
Peraltro, anche la gestione di tale incertezza è stata affrontata, anche qui la Scienza non è all’anno zero. Ed anche con diversi approcci: uno di questi metodi è l’uso delle tecniche di Ensemble di cui si è parlato diffusamente anche su altri post di climalteranti (vedi qui).

.

Fine prima parte

.

Testo: a cura di Carlo Cacciamani e Valentina Pavan

38 responses so far

38 Responses to “Clima passato e futuro: perché la Scienza avanza – prima parte”

  1. Vincenzoon Mar 20th 2010 at 17:16

    Compro il Corriere e ho avuto modo di constatare che Visconti viene usato sistematicamente per “neutralizzare” l’allarme per i cambiamenti climatici, ogni volta mettendo in risalto le incertezze che ci sono, sugli uragani o sulle temperature.
    Se non ricordo male poco tempo fa in un articolo attribuiva a Susan Solomon la tesi che il riscaldamento si è fermato negli ultimi dieci anni, e il titolo ci sguazzava.
    Forse Visconti non si rende conti di come viene strumentalizzato, e dispiace perché dovrebbe.

  2. Claudio Costaon Mar 20th 2010 at 20:09

    “Questa frase stimola l’apertura di un dibattito interessante e che mi auguro possa approfondirsi anche con chi è “scettico” sulle responsabilità antropiche al riscaldamento globale;”

    Colgo l’invito!

    Purtroppo non sono un esperto quindi la mia formula sarà quella del quesito, ma non per comandare come dice il Gabrielli, o per retorica, ma prorpio per la non conoscenza.

    – Quali sono le forzanti naturali, oltre alle emissioni dei vulcani, considerate dai modelli, se finora la variabilità solare è stata considerata costante, compresa la magnetica solare (Cacciamani)
    – E’ vero o no, che per la validazione o peggio per la costruzione dei modelli sia stato usato l’hockey stick di Mann, come affermato da Scafetta?
    – E’ vero o no che i modelli non riescono a spiegare il picco di caldo degli anni 1920
    1930?
    – E’ vero o no che i modelli non riescono spiegare il raffreddamento degli anni 1945 1975 perchè le concentrazioni dei solfati antropogenici sono solo nell’emisfero nord e nessuno spiega il raffreddamento del sud e perchè i solfati sono sfalsati con le temperature di almeno 10 anni?
    – E’ vero o no che i modelli non riescano a spiegare le ricostruzioni del passato di Moberg ed Esper dove ricordo che il delta T° tra corrente e medioevo è circa 10 volte meno rispetto all’hockey stick di Mann?
    – E’ vero no che le nuvole possono influenzare quasi 30 wmq di radiazione solare come dice Scafetta quindi la loro variabilità anche di pochi punti percentuali sarebbe in grado di mascherare o addirittura surclassare le supposte forzanti antropiche?
    – E’ vero o no che sui raffreddanti in particolari variabilità nuvolosa e aerosol le conoscenza sono poche o nulle come dichiarato nella tabella del radiative forcing nel capitolo 2 dell’AR4?
    – E’ vero o no che Hannsen nel 2005 ha quasi raddoppiato i valori dei raffreddanti (secondo Lindzen con un gioco di manopoline perchè non tornavano i conti) dimostrando in pratica che nel punultimo rapporto dell’ IPCC le stime delle forzanti erano profondamente sbagliate?
    – E’ vero o no che le stime della crescita del metano atmosferico sono completamente sfalsate rispetto alla realtà, ma i modelli girano stimando crescite molto più alte per il futuro ma sbagliate?

    Se tra le mie domande c’è qualche risposta “vero”: i modelli non sono affidabili, nemanco validati.

  3. Gianfrancoon Mar 21st 2010 at 15:54

    @ claudio costa

    Una curiosità marginale. L’articolo di Cacciamani e Pavan è comparso sul Climalteranti il 20 marzo (non so a che ora). Sono tre pagine abbondanti e dense (non è la vispa teresa). Ma alle 20 dello stesso giorno erano già pronte le sue 9 domande. Ma lei è straordinariamente veloce a leggere, capire e scrivere! Come fa?

    Un altro piccolo chiarimento. Capisco la fretta ma per favore sia più preciso: quante risposte “vero” dimostrano la sua affermazione che “i GCM non sono affidabili ne’ testati”? E quanti “non vero” ci vogliono secondo lei per falsificarla?

  4. Marcello Vichion Mar 21st 2010 at 16:21

    @costa
    Caro Dott. Costa, mi spiace constatare che i metodi che lei richiede per la verifica dell’affidabilita’ dei modelli climatici siano mutuati da “Chi vuol essere milionario”. Lei sa meglio di me che qualcuna delle sue domande tendenziose ha come risposta un “non esattamente” e che quindi dal suo punto di vista sia interpretabile come “risposta “vero””. Se vuole evitare la retorica come sostiene nel disclaimer iniziale, eviti anche i falsi sillogismi. Dal mio punto di vista, che credo di svolgere onestamente il mestiere di scienziato che lavora con modelli di cambiamenti climatici, non posso applicare le sue semplificazioni, e sono certo che non lo fa neanche lei quando si tratta della sua disciplina.
    Dal mio punto di vista, la verifica di un modello di clima per simulazioni di scenario di medio periodo (100 anni) sta nella sua capacita’ di riprodurre le variabili climatiche che sono caratteristiche del clima della terra come lo conosciamo ora, pertanto la distribuzione delle temperature osservate sulla terra e negli oceani, le medie climatologiche delle precipitazioni, la variabilità naturale di fenomeni quali El Nino e l’oscillazione Nord Atlantica.
    “Purtroppo” io non sono un esperto di zootecnia e quindi non mi sentirei di poter fare affermazioni di affidabilita’ sugli strumenti che utilizza quella disciplina. Mi permetta quindi di dirle che io non sono completamente sicuro che lei sappia come sono fatti i modelli di clima (e poi quali? lei ed io non immaginiamo nemmeno in quanti modi si possono fare simulazioni di processi climatici) e nemmeno di cosa siano “le forzanti” di cui parla o di come facciano effettivamente a “forzare” un modello di clima.
    Io credo che il post di Cacciamani e Pavan sia molto onesto e cerchi di spiegare delle metodologie di valutazione di un certo tipo di modelli che si usano per scenari climatici. E mi sembra invece che le sue cosiddette “domande” siano assolutamente fuori tema rispetto agli argomenti che si cercano di approfondire in questo post. Se vuole parlare invece di tecniche statistiche di valutazione delle incertezze, molto volentieri. Se vuole parlare di come si possono stimare le emissioni di metano dai vari comparti, ancora meglio (ma di nuovo saremme fuori argomento qui). Sono pero’ certo che discutendo di questi argomenti, troveremmo molti punti in comune con gli esperimenti che vengono condotti nella sua ed in altre discipline.

  5. Claudio Costaon Mar 21st 2010 at 20:26

    Domandare è lecito (visto che poi ci obbligano ad abbattere le emissioni e ci prelevano i soldi in bolletta per le rinnovabili)
    Rispondere cortesia!

    Finora non risposte! speravo di non dover leggere cose del genere: “Costa lei non sa e non capisce, quindi discutere con lei a nulla serve.”

    Io invece ne approfitto dell’invito ( e quando mi ricapita?) e rilancio le domande.

    – E’ vero o no? che la crescita di gas serra antropogenici riscaldanti (CO2 CH4 e N2O) dovrebbe indurre un aumento della concentrazione del vapore acqueo in atmosfera che secondo i firmatari della lettera di stima al Bellone Georgiadis et al nessuno ha mai visto?

    – E’ vero o no? che i modelli invece girano ipotizzano nel clima del futuro un feedback dovuto all’aumento del vapore che nessuno ha mai visto?

    – E’ vero o no? che nella stima delle emissioni di metano antropogenico le emissioni zoogeniche sono sommate a quelle antropogeniche (industria combustione fughe ecc) e che questo è un errore perchè le emisisoni zoogeniche sono in ciclo, quelle di oggi vanno a sostituire quelle emesso 4- 12 anni fa (lifetime del metano) senza alterare minimamente la concentrazione atmosferica di metano, ma tenendola costante ( se il n di animali resta tale) e senza alterare la concentrazione di CO2 ma tenendola costante perchè il bilancio del carbonio delle emissioni zoogeniche deve essere per forza uguale a zero (AR4 ch7) quindi senza dare nessun riscaldamento aggiuntivo???
    ( Per Cacciamani: questa sarà la mia domanda al congresso di venerdi a Montichiari dedicato ai veterinari susiatri come me)

    – E’ vero o no che la produzione di carne è la prima causa di riscaldamento globale come affermato su RAI TRE da Safran Foer dalla Dandini (beh questa è facile)

    per Vichi: se anche solo una delle mie domande ha risposta “vero” i modelli non sono affidabili certo in misura diversa a seconda delle risposte ( certo una discussione che mi permette solo tre repliche parte già monca)
    Intendiamoci il problema non sta nei modelli (di cui ovviamente non so nulla) ma nei valori e nelle forzanti inserite.
    A questo proposito i modelli girano considerando una lifetime della CO2 di:
    1 anno (Quirk) 10 anni (Revelle Segastald) 100 anni (Hansen) 300 anni Archer, 1000 anni Solomon????

  6. Marcello Vichion Mar 21st 2010 at 22:22

    @Costa
    Se lei ponesse un interrogativo solo senza usare la strategia del diluvio, allora forse ce la faremmo con 5 commenti. Comunque, provo in breve, anche perche’ ha aperto una linea interessante. Se il problema non sta nei modelli, ma negli scenari, allora perche’ mi parla di inaffidibiita’ dei modelli? Immagino che lei non voglia contraddire i dati di emissioni attuali cioe’ misurate nel corso degli ultimi 30 anni, a meno che non sia in grado di fornire stime migliori di quelle di organismi internazionali composti da esperti di settore, magari come lei.
    Immagino quindi che lei si riferisca alle stime future, perche’ da esse in effetti dipendono le scelte di mitigazione. Ed i costi, ovviamente. Lei non e’ il solo a pagare le bollette e lei non e’ il solo a rendersi conto che gran parte degli incentivi per le rinnovabili e di mitigazione in generale vengono in realta’ utilizzati in maniera impropria per fare speculazioni. Questo e’ un grave problema politico e sociale, non scientifico, e non ha niente a che vedere coi modelli. Anzi, al contrario, un modello le permetterebbe proprio di dimostrare il peso effettivo delle emissioni di metano rispetto agli altri gas, variando le concentrazioni in funzione dell’effettivo turnover (per favore, non mi parli di lifetime, che sembra che il metano decada come il carbonio 14).
    Infine, “A questo proposito i modelli girano considerando una lifetime della CO2 di:
    1 anno (Quirk) 10 anni (Revelle Segastald) 100 anni (Hansen) 300 anni Archer, 1000 anni Solomon????” e’ una frase senza senso. La maggior parte dei modelli, “girano” con una concentrazione di CO2 atmosferica che segue gli andamenti del XX secolo, quindi la sua lifetime non c’entra niente. Poi nel XXI secolo seguono degli scenari di concentrazione, che hanno o un storia socio-economica dietro piu’ o meno semplificata, oppure una stabilizzazione, o un aumento lineare o un milione di altre possibili ipotesi che vengono sempre chiamate come meritano: scenari! E di nuovo, la lifetime non c’entra niente.
    E discutere con lei invece serve, perche’ lei capisce molto bene la sua materia: purtroppo meno i modelli. E credo che il problema sia di nuovo l’imprecisa conoscenza, esattamente come a lei fa trasalire l’approssimazione applicata sulle emissioni zoogeniche da alcuni membri del WGII. Penso che sarebbero ben lieti di annoverarla tra gli esperti in merito, o se non altro di considerare i suoi lavori sull’argomento.
    Per le altre domande, la mia email e’ marcello.vichi@cmcc.it. Sono un biogeochimico e non un fisico e credo potrei aiutarla a chiarire alcuni punti che la spingono a demonizzare i modelli, ma lasciamo stare le macchie solari e parliamo di cicli degli elementi e del loro ruolo nel clima. Magari ci potrebbe venir fuori pure un post a 4 mani…

  7. carlo cacciamanion Mar 22nd 2010 at 01:54

    # Costa
    Sig. Costa, lei continua a porre domande a raffica su una quantità di temi disparati che lasciano francamente un po’ storditi. Da un lato, e senza ironia alcuna, mi congratulo per questo suo ampio spettro di conoscenze che le fanno porre domande così disparate su tanti argomenti diversi. Dall’altro lato pero’ si intuisce altrettanto bene dal modo un tantino aggressivo con cui pone le domande, che lei non vuole tentare di capire le ragioni di quelli che non la pensano come lei. Forse dovrebbe meditarci un po’ di più sopra. Non si comprende ad esempio questa sua fretta nel pretendere delle risposte praticamente in tempo reale su temi che richiederebbero qualche meditazione in più.
    Fatta questa premessina doverosa, torno subito ai suoi punti.
    Prima di rispondere pero’ a solo qualcuno dei suoi punti (io ho conoscenze più limitate, mi perdonerà), mi permetta di ricordarle che il dibattito che in qualche maniera io stimolavo nel mio post non era tanto sulle specificità degli argomenti, quanto piuttosto e più generalmente, in merito alla veridicità o falsità dell’affermazione, che Bellone prende a prestito da Visconti, quando afferma che “la Scienza del Clima non è in grado di interpretare in alcun modo le variazioni osservate del passato e quindi per questo non puo’ dir nulla sul futuro”.
    Come avrà letto io mi sono permesso di criticare tale affermazione perché la considero totalmente sbagliata. E le diro’ di più: non ho alcuna difficoltà ad ammettere che la modellistica climatica ha dei grandi margini di incertezza, quindi a dire parecchi “si” ai suoi provocatori “è vero ?” (l’ho per altro già scritto in diversi miei post, lo ammette serenamente anche IPCC in più di un passo del report AR4). Ma non per questo l’affermazione espressa da Bellone è corretta. Ammettere che ci sono dei limiti nella comprensione del Clima e nella sua modellazione è una totale ovvietà ma questo non vuol dire che, ad esempio, i GCMs sono tutti sbagliati e, molto di più, affermare che la Scienza è all’anno zero. Questo è palesemente falso, in quanto nonostante le incertezze, indubbie in molti casi, su tante altre cose invece l’incertezza è quasi nulla. Mi contraddica su questo punto. Ci pensi meglio e mi sappia dire.
    Venendo invece ai suoi quesiti provo a rispondere di nuovo a quelli dove penso di dire qualcosa di utile.

    1. le forzanti naturali
    Quali siano le forzanti naturali per l’atmosfera lei lo trova scritto nel quarto report dell’IPCC. Si tratta evidentemente del forcing solare, le immissioni di particolato di vario genere in atmosfera prodotto ad esempio dai vulcani, il forcing dall’oceano (scambi di calore, vapore e momento). Tutta questa roba è inserita dentro i modelli, in maniera più o meno sofisticata. C’è qualche tonnellata di letteratura su queste cose. A leggerla tutta non basta una vita…
    In particolare, sul tema della costante solare, che constato preoccupa molto, ho già espresso il mio parere in risposta ad un commento connesso ad un altro post. Glielo riporto fedelmente di nuovo per sua comodità: “….mi sembra che ci sia un certo consenso sul fatto che il trend del forcing solare negli ultimi anni (50-100 anni) non possa assolutamente rendere conto dell’aumento di temperatura così rilevante che si è osservato a scala globale. Cito, ad esempio, testualmente, dall’abstarct di un paper sicuramente non freschissimo ma di fonte autorevole: (Simulation of the influence of solar radiation variations on the global climate with an ocean-atmosphere general circulation model. 2007, Climate Dynamics, 13, N.11, autori: U. Cubasch et al.): “ The observed temperature rise over the most recent 30 and 100 years is larger than the trend in the solar forcing simulation during the same period, indicating a strong likelihood that, if the model forcing and response is realistic, other factors have contributed to the observed warming. Since the pattern of the recent observed warming agrees better with the greenhouse warming pattern than with the solar variability response, it is likely that one of these factors is the increase of the atmospheric greenhouse gas concentration”. Tutto ciò non esclude certo che l’effetto della variabilità solare ci sia, dice solo che non è la causa principale del warming così elevato rilevato a scala globale negli ultimi 50 anni. Se questa cosa è vera come io sono convinto che sia, ritengo che anche mantenere la costante solare appunto “costante” su scale temporali brevi (50-100 anni sono scale temporali brevi nel contesto della variabilità climatica di lungo periodo) possa essere del tutto accettabile e per niente scandaloso.

    2. Sulla validazione, l’uso dei dati dell’hockey stick di Mann, ecc….
    Il fatto stesso che lei mi chieda se per la “costruzione” dei modelli si sia usato l’hockey stick di Mann, mi fa capire che lei ha qualche confusione in merito a come funzionano questi GCM, cosa che per altro non le impedisce di criticarli, come si legge.
    Un GCM viene fatto girare per 100-200 anni, ad esempio 1900-2000 in modalità controllo e 2000-2100 in modalità scenario. I modelli non usano per niente i dati di temperatura al suolo per essere “costruiti”. Tra l’altro la temperatura al suolo non è neanche una variabile “prognostica” tra quelle che compongono il sistema di equazioni differenziali che il modello integra. In genere i GCM hanno come grandezze prognostiche la pressione al suolo, il geopotenziale in quota, l’umidità specifica (delle diverse fasi liquida, ghiaccio e vapore) e le due componenti della velocità del vento orizzontale (per la componente verticale ci sono diverse possibilità…). La temperatura al suolo, così come la precipitazione, viene “diagnosticata” ogni time step di integrazione nel tempo, a partire da queste grandezze primarie.
    E’ semmai durante la fase di “validazione” del GCM che vengono usati dei data set al suolo. Ma indipendenti. Non c’è overfitting di alcun genere, i data set che vengono usati sono descritti nel post (ho messo un link).

    3. La riproduzione dell’andamento termico globale
    E evidente che i modelli hanno un certo “spread” nel riprodurre l’andamento termico e su certi periodi ristretti mostrano anche degli errori talvolta elevati. E con questo ? Le è noto che i modelli di previsione del tempo (NWP) a 1-2 giorni sbagliano, di rado ma comunque sbagliano, le temperature previste anche di 4-5 gradi ? Se la sentirebbe per questo di dire che non servono nulla i NWP per il weather forecast ?
    Se guarda le simulazioni dei GCM (IPCC AR4 cap. 8 e 9) noterà che il trend della temperatura di lungo periodo è ben riprodotto e anche la variabilità interannuale non è per niente male. Noterà poi che solo introducendo il forcing antropogenico si puo’ ottenere (pur con le incertezze di cui sopra) un trend analogo a quello osservato. Con solo il forcing naturale no.
    In ogni caso, quello che i modelli sono capaci di fare o non fare lo trova scritto nel capitolo 9 di IPCC AR4. Lo trova qui: http://www.ipcc.ch/publications_and_data/ar4/wg1/en/ch9s9-4-1-2.html . Guardi la figura 9.5 dove potrà leggere dalla legenda (testualmente): “… simulations that incorporate anthropogenic forcings, including increasing greenhouse gas concentrations and the effects of aerosols, and that also incorporate natural external forcings provide a consistent explanation of the observed temperature record, whereas simulations that include only natural forcings do not simulate the warming observed over the last three decades. A variety of different forcings is used in these simulations”.
    E ancora, poco sotto, molto “onestamente” trova scritto: “…Larger interannual variations are seen in the observations than in the ensemble mean model simulation of the 20th century because the ensemble averaging process filters out much of the natural internal interannual variability that is simulated by the models. The interannual variability in the individual simulations that is evident in Figure 9.5 suggests that current models generally simulate large-scale natural internal variability quite well, and also capture the cooling associated with volcanic eruptions on shorter time scales”. Come vede, il report IPCC non nasconde i problemi. Ma il fatto che ci siano dei problemi, delle incertezze, non può far concludere che i GCMs si debbano prendere e buttare nella spazzatura. Significa che bisogna “gestire” questa incertezza. Ad esempio con l’uso di un approccio di Ensemble.

    4. Le Nubi
    Per quanto riguarda la descrizione delle nubi, non so d’acchito rispondere alla sua domanda, Marcello mi puo’ aiutare magari. Le garantisco pero’ che anche per le nubi sono stati fatti dei grandi passi avanti rispetto ad esempio al Terzo report IPCC nella comprensione dei meccanismi fisici e del feedback delle nubi. Ma è evidente che le nubi siano ancora un problema. Che non viene nascosto, per altro. In IPCC trova scritto (testualmente): “…Despite some advances in the understanding of the physical processes that control the cloud response to climate change and in the evaluation of some components of cloud feedbacks in current models, it is not yet possible to assess which of the model estimates of cloud feedback is the most reliable” .

    Ora, se questa affermazione a lei basta per dire che i GCM sono totalmente inadeguati, io le posso solo dire che sta commettendo un grave errore. Per una ragione, se vuole, anche pragmatica: pur con le inadeguatezze con cui le nubi possono essere descritte (che in ogni caso sono diminuite di molto rispetto al TAR) i GCM sono lo stesso in grado di ricostruire dei pattern spaziali di temperatura e di precipitazione assai realistici. Puo’ essere un effetto di errori che si compensano, puo’ essere che in realtà gli schemi di parametrizazione delle nubi (piu’ stratiformi alle medie latitudini, piu’ cumuliformi nelle aree equatoriali) sono sufficientemente validi. Non è facile dirlo, ma tant’è. Se non ci crede, si legga meglio il cap. 8 di IPCC AR4 e potrà rendersene conto.
    saluti cordiali

  8. Alessandro Patrignanion Mar 22nd 2010 at 08:47

    Dott. Cacciamani, innanzi tutto le rinnovo i complimenti per l’intervento al Convegno di Allumiere e poi approfitto della sua disponibilita’ per chiederle come e se sono inclusi nei GCM alcuni meccanismi multidecadali oceanici (ciclo AMO, variabilita’ PDO, per esempio).

    Ovviamente so che non se ne conosce pienamente la dinamica e che questi cicli stessi non appaiono ne regolari e neanche prevedibili nelle loro oscillazioni, pero’ isolandone gli andamenti detrendizzando i valori (in pratica gli Indici) e’ sicuramente molto importante per “modellizzare” gli andamenti passati, ad esempio il periodo caldo degli anni 30-40 e una buona parte della salita dal 1976 al 2003-5 (http://globalwarming.blog.meteogiornale.it/2009/12/07/climate-change-il-1976/ ) verrebbero chiaramente ben adattati dai modelli in quanto le variazioni oceaniche impongono surplus/minus di vapore atmosferico e cambiamento delle forme del getto delle medie latitudini imponendo certamente riscaldamento nelle loro fasi positive e raffreddamento in quelle negative.

    Gia questo farebbe avanzare parecchio i GCM e oltre a questo sarebbe anche necessario capire meglio i “forcing” indotti dal vulcanismo ampliandone lo spettro alle implicazioni di medio periodo (O3 deplation, H2O stratosferica ecc..) e non solo a quelle di breve periodo relative agli aerosol. Questo, per esempio, spiegherebbe molto meglio le oscillazioni di medio periodo avvenute durante le fasi acute di vulcanismo (coincidenti con le fasi di maunder, Dalton e 1880-1912) e le fasi successive di forti aumenti.

  9. Paolo C.on Mar 22nd 2010 at 11:02

    Forse può interessare:

    (ANSA) – ROMA, 22 MAR – Uno studio getta nuova luce sul ‘ruolo segreto’ delle nuvole nel cambiamento climatico: un nuovo modello aiutera’ a creare simulazioni piu’ accurate. Ad affermarlo i ricercatori del Center for Ocean-Land-Atmosphere Studies, pubblicato sulla rivista scientifica Nature. Le nuvole, data l’impossibilita’ di catturare in modo esplicito la loro formazione, sono una delle maggiori fonti di incertezza nei modelli climatici. Per questo motivo il team americano di ricerca ha creato un nuovo modello che rappresenta in modo esplicito i processi propri delle nubi: dopo aver analizzato i modelli climatici standard, hanno sostituito la parametrizzazione delle nuvole nel loro modello con uno nuovo bidimensionale. Se i cambiamenti climatici possono essere concepiti come un’equazione matematica, dicono i ricercatori, le nuvole sarebbero da considerare la variabile piu’ difficile. ”I normali modelli si avvalgono di una serie di equazioni per descrivere le condizioni di media in cui le nuvole si formano e si degradano, una tecnica chiamata parametrizzazione – ha spiegato Cristiana Stan del Center for Ocean-Land-Atmosphere Studies in Calverton, Maryland – dal nuovo modello, la simulazione del clima e’ drasticamente migliorata su diversi fronti, come per esempio lo studio delle precipitazioni stagionali e di molti importanti fenomeni climatici, tra cui l’ oscillazione del Madden-Julian, il monsone asiatico, e El Nino”.

  10. agrimensore gon Mar 22nd 2010 at 11:32

    Nell’articolo è scritto:
    “Perché se questa logica vale per le previsioni del tempo, non dovrebbe valere anche per le simulazioni climatiche? Solo perché non riusciremo a verificarlo proprio noi di persona ma lo potranno fare i nostri figli o nipoti?
    E questa constatazione farebbe concludere “tout court” che i GCMs sono “logicamente” non validabili?”
    All’ultima domanda io risponderei di sì, sostituirendo alla parola “logicamente” la parola “scientificamente”.
    Cioè mentre i modelli utilizzati per le previsioni del tempo seguono correttamente il classico metodo scientifico (induttivo o deduttivo che sia), per i GCM, secondo me manca un pezzo: quello di poter riscontrare (in tempi umani) una parte di realtà ignota prima, ma predetta dal modello (magari questo parte c’è ma io non lo conosco, in tal caso sarei grato a chi me la esponesse, non è ironico).

    Poi è scritto:
    “Quanto all’affidabilità dei AOGCMs , è un dato di fatto invece che gli strumenti di simulazione del clima dell’ultima generazione abbiamo fatto dei progressi considerevoli e diminuito in maniera evidente i loro margini di errore.Ad esempio in IPCC AR4 (cap.8) vengono confrontate le performances dei GCMs antecedenti l’anno 2000 con quelli disponibili già solo 5 anni …”
    I modelli hanno raggiunto questo miglioramento introducendo nuovi parametri? Se sì, come in tutti i modelli, non basta verificare il loro skill sui dati già noti/utilizzati, è necessario verificare che il numero di parametri sia MINIMO dal confronto con la realtà o con dati mai utilizzati in assoluto. Su questo blog c’era un bell’articolo su questo tema.

  11. homoereticuson Mar 22nd 2010 at 15:25

    agrimensore:
    non so cosa cosa intenda lei esattamente per validazione dei modelli. E’ stato scritto ovunque e più volte, ed è spiegato anche in questo articolo, che i modelli vengono fatti “girare” anche nel passato, (ad esempio: una simulazione che copre il periodo 1960-1990) con tutte le forzanti note. Se i modelli, come pare, riproducono ragionevolmente il clima che conosciamo, è lecito credere che questi siano strumenti almeno un po’ utili per fornirci indizi anche sull’andazzo futuro? Secondo me sì.
    L’altra sua domanda per la verità non l’ho capita molto. Nei modelli si usano le cosidette parametrizzazioni per descrivere i fenomeni che non sono risolti nella scala spaziale del modello, tipicamente la convezione, gli scambi turbolenti di momento ecc. Non è che si introducono parametri a piacere, si parametrizzano i processi per i quali non si può fare diversamente.

  12. agrimensore gon Mar 22nd 2010 at 17:42

    @homoereticus
    Lei scrive:
    “Se i modelli, come pare, riproducono ragionevolmente il clima che conosciamo, è lecito credere che questi siano strumenti almeno un po’ utili per fornirci indizi anche sull’andazzo futuro? Secondo me sì.”

    Secondo me invece non è abbastanza. E’ questo che differenzia i nostri punti di vista. Secondo me non è abbastanza perchè sia il metodo induttivo, sia il metodo deduttivo, e quindi il metodo scientifico, prevedono una fase che io chiamo sperimantale, ma che sostanzialmente è la verifica di un effetto non noto/previsione/esperimento prodotto dalla teoria/modello. Questa parte nei modelli GCM non la conosco (poichè i modelli sono evoluti in base ai parziali insuccessi degli altri modelli, non si può ricercare nel passato effetti “non noti”). Magari per miei ignoranza, nel senso che conosco laddove la teoria non ha colto la predizione (hot-spot, raffredamento stratosfera) e magari esistono altre 100 predizioni riscontrate a posteriori che io non conosco. Per quello chiedevo se ce n’erano. Faccio spesso l’esempio della teoria delle stringhe perchè mi affascina, spiega tutte le costanti/leggi universali (il sogno di Einstein!), dà finalmente un senso alla meccanica quantistica, eppure (almeno fino a quando l’ho seguita) non è riuscita a fornire una predizione (nè riscontrata, nè non) e quindi non è, da molti, considerata validata.

    Per il secondo punto, mi rendo conto che non è facilmente riassumibile. Mi riferisco all’overfitting, ma questa parola può prestarsi a dei malintesi. Il problema è usare un numero di parametri maggiore (non perchè uno se li inventa) rispetto a quelli strettamente necessari per descrivere il modello, in qualsiasi disciplina.

  13. Solfrizzoon Mar 23rd 2010 at 09:22

    @Costa

    I suoi interventi sono al limite della molestia…spero se ne accorga…

  14. Domenicoon Mar 23rd 2010 at 14:20

    Segnalo qui di seguito un interessante editoriale pubblicato nell’ultimo numero dell’Economist, che rimanda ad un dossier sulla scienza dei cambiamenti climatici contenuto nello stesso numero:

    Climate science

    Spin, science and climate change
    Action on climate is justified, not because the science is certain, but precisely because it is not
    Mar 18th 2010 | From The Economist print edition

  15. Luca C.on Mar 23rd 2010 at 16:17

    Ecco il link all’ottimo articolo dell’Economist che in questo periodo di strumentalizzazioni riporta un pò di ordine:

    http://www.economist.com/displayStory.cfm?Story_ID=15720419&fsrc=nlw|hig|03-18-2010|editors_highlights

  16. carlo cacciamanion Mar 23rd 2010 at 22:40

    # Alessandro Patrignani
    I GCM risolvono le leggi della meccanica e termodinamica espresse in forma di equazioni “primitive” che sono in teoria in grado di descrivere tutte le scale spaziali dei fenomeni che accadono nel sistema climatico, quindi anche la variabilità ad alta frequenza (cicloni e anticicloni), la variabilità di bassa frequenza (ad esempio il blocking), cosi’ come le anomalie importanti (el Nino) oppure i pattern di variabilità a scala planetaria o emisferica (es: NAO, AO, PNA ecc… ) ed altre quali la MJO. Idem i modelli oceanici che sono accoppiati a quelli atmosferici. Un buon GCM è quello che riproduce bene le proprietà statistiche di queste features (ad esempio la fequenza di occorrenza) non evidentemente l’esatto accadimento nello spazio e nel tempo. Questa è la prerogativa dei NWP per le previsioni del tempo.

    # agrimensore
    a)cosa vuol dire “tempi umani” ?. Secondo lei uno scenario al 2050 è validabile perchè chi lo realizza adesso (forse) camperà abbastanza (se è giovane) per verificarlo di persona, mentre uno scenario al 2100 no ? E’ questa la differenza ? Non le sembra uno strano ragionamento ?
    b) di nuovo sui parametri: ho già scritto come sono fatti i GCMs. Lei continua a credere che siano delle specie (sofisticate) di equazioni di regressione con solo dei parametri di tuning. Non è cosi’. Ci sono le leggi della fisica sotto, non è solo statistica.
    I discorsi successivi sinceramente non li capisco (quelli sulla meccanica quantistica, per intendersi…)

  17. Solfrizzoon Mar 24th 2010 at 09:36

    Comincio a pensare che chi critica i Modelli Matematici del Clima in realtà non ci capisce quasi nulla di modelli matematici e come la volpe che non può raggiungere l’uva in cuor suo preferisce dire che è acerba così gli oppositori della conoscenza preferiscono dire che i modelli sono errati o falsificati…

  18. agrimensore gon Mar 24th 2010 at 10:17

    @cacciamani
    Non ho mai pensato che nei GCM fosse solo statistica. Non ho mai dubitato che ci sono le leggi della fisica dei modelli. In parte, le ho anche viste. Intendo dire che ci sono ANCHE parametri, non solo leggi della fisica. Se ci sono parametri, bisogna assicurarsi che siano in numero minimo (è stato spiegato anche su questo blog da un articolo di Steig tradotto, se ricordo bene). Se ci sono parametri, non si tratta più soltanto di un’implementazione su calcolatore di leggi della fisica, ma di un nuovo modello, che per me è sinonimo di teoria. E in quanto tale va validata/verificata. Per farlo bisogna confrontarsi con la realtà. Non basta dire: il modello avrebbe funzionato se avessi usato il parametro di sensibilità più corretto (Hansen, credo). Bisogna a questo punto, riconfrontarlo con la realtà (metodo deduttivo, Bertrand Russel)
    Per “tempi umani”, intendo dire che trent’anni sono troppi per attendere un riscontro.
    Per quanto riguarda i discorsi sulla teoria delle stringhe, mi spiace non essere stato chiaro: era la parte cui tenevo di più.

    @solfrizzo
    Due campi: geologia e economia. Anche lì fanno modelli. E sono bravi all’incirca quanto quelli del clima. Ora, può darsi che mi sbagli, ma provi a chiedere ad un geologo se i modelli implementati per prevedere l’andamento di una frana, siano stati validati dalla realtà. Non penso. Eppure, anche tali modelli riuscivano a ricostruire le frane del passato. A proposito: credo che lì preferiscano a questo punto modelli statistici, per riallacciarmi al discorso di Cacciamani.
    Per quanto riguarda i modelli economici, non credo sia il necessario fare esempi per giustificare delle perplessità in merito. Con ciò non voglio dire che chi fa i modelli non è in gamba. Anzi, i modelli sono un ottimo lavoro, tanto di capello. Il problema è che per poter essere utilizzati per predizioni di sistemi complessi debbono rasentare la perfezione.

  19. Paolo C.on Mar 24th 2010 at 18:47

    Ancora nuovi modelli:

    (ANSA) – ROMA, 24 MAR – Parte negli Usa il primo programma interministeriale volto a creare nuovi modelli per lo studio dei cambiamenti climatici. Il nuovo progetto, svolto in collaborazione tra la National Science Foundation (NSF) e il Departments of Energy and Agriculture americano, cerchera’ di comprendere e prevedere i cambiamenti climatici e il loro impatto sulla popolazione utilizzando un nuovo tipo di approccio. Il programma, chiamato Decadal and Regional Climate Prediction Using Earth System Models (EaSM), e’ stato finanziato dalle agenzie con circa 50 milioni di dollari. Gli obiettivo prefissati dal progetto, come si legge su eurekallert, saranno sia cercare di capire l’impatto che i cambiamenti climatici possono avere considerando periodi piu’ brevi e scale piu’ localizzate, sia affrontare con un approccio interdisciplinare le loro cause. I modelli sviluppati nell’ambito del Easm, attraverso l’apporto di biologia, chimica, informatica, geologia, matematica, fisica e scienze sociali, offriranno ai responsabili politici nuove basi scientificamente fondate per lo sviluppo alle risposte e alla gestione dei cambiamenti climatici. ”Questo programma straordinario ed emozionante di ricerca multi-agenzia – ha commentato Timothy Killeen, responsabile di NSF per la direzione Geoscienze – consentira’ di fare un grande passo avanti nella nostra capacita’ di comprendere e prevedere i cambiamenti climatici e il suo impatto sulla popolazione attraverso delle scale spaziali e temporali rilevanti sia per la vita umana che per le decisioni sociali”.

  20. Solfrizzoon Mar 24th 2010 at 19:28

    @agrimensore

    Nei Sistemi Complessi non è il numero elevato di processi fisici riprodotti a rendere il modello matematico del sistema efficace quanto piuttosto la scelta dei processi fisici fondamentali e soprattutto coerenti con l’analisi (o prognosi) di scala spazio-temporale richiesta; sotto questo punto di vista esistono modelli semplici che valutano bene il trend sul lungo periodo tralasciando i processi a più breve scala temporale.

    Tra l’altro si legge sempre nel Report dell’IPCC (di oltre 900 pagine, un vero e proprio Stato dell’Arte!) che i Modelli Climatici riproducono anche i pattern atmosferici come NAO, ENSO, PDO, PNA ecc…

    Se il problema sono le nubi anche su questo fronte sono già state date spiegazioni.
    Se invece crede alla ‘scienza del consenso’ riguardo l’AGW allora è inutile discutere.

  21. agrimensore gon Mar 25th 2010 at 10:14

    @cacciamani,( esolfrizzo).
    Faccio autocritica.
    Mi rendo conto che il tentativo di mantenere i miei commenti su un piano generale, anziché favorire la comprensione, ha generato malintesi.
    Passo quindi alle domande più concrete, includendo tecnicismi.
    1)Da come viene descritto, il processo di “fine tuning dei parametri” ricorda molto un machine learning.
    2)Ho avuto modo di verificare tramite ricerca in rete che tale machine learning spesso è basato su reti neurali.
    3)Trattandosi di reti neurali, nasce l’esigenza di verificare che non ci sia il classico overfitting in neural networks.
    4)Poiché i modelli si sono evoluti nel tempo, includendo ulteriori parametri in base ad insuccessi precedenti (o meglio, raffinamenti), non vedo come poter utilizzare tecniche di cross-validation.
    Sarei grato (senza ironia) a chiunque evidenziassi quali delle precedenti premesse è falsa e perché.
    Se le precedenti premesse sono vere, e dato che non è possibile, in tempi accettabili (minori di vent’anni), verificare la correttezza di quanto predetto dal modello, chiedo come si può escludere che i modelli non siano affetti da overfitting.
    Non mi sembra una domanda contro la scienza, oscuratista o in malafede.

  22. Solfrizzoon Mar 25th 2010 at 11:42

    @agrimensore

    I parametri cosidetti di ‘tuning’ sarebbero solo i parametri della varie ‘parametrizzazioni’ del modello: tali parametri sono noti entro precise gamme (range) di valori.
    E’ stato mostrato recentemente in un post di questo stesso blog lo sviluppo anche per i Modelli Climatici, come lo è per i Modelli Meteorologici, delle cosiddette Previsioni di ‘Ensemble Multimodel’ ovvero MEDIE delle prognosi future dei vari modelli diversi tra loro per diverse parametrizzazioni e quindi differenti parametri di ‘tuning’ al fine di ridurne l’incertezza (varianza) complessiva e ottenere una distribuzione di probabilità (non uniforme) sulla temperatura media globale futura con i risultati che tutti sappiamo: a me questa procedura sembra una procedura decisamente forte e difficilmente attaccabile da chi vuole sottolineare la presunta fallacia dei modelli anche dal punto di vista del tuning.

    Quello che può chiedere al Dott.Cacciamani è se la parametrrizzazione rappresenta l’equazione empirica del processo incognito a cui si deve aggiungere a parte qualche parametro di tuning oppure se parametrizzazione e parametro di tuning di fatto coincidono.

  23. Marcello Vichion Mar 26th 2010 at 00:36

    Sono basito e costernato. Perdonatemi, ma io non ho mai sentito fare supposizioni su quale tipo di metodologie vengano usate nelle varie scienze. Le metodologie si studiano e si applicano, si verificano e si cambiano se non sono adeguate, ma non si suppongono. Ammiro il ragionamento induttivo e l’abilita’ di ricerca in rete di Agrimensore g. ma se non sa come sono fatti modelli, deve prima informarsi in maniera scientifica, senza “supporre” l’uso di reti neurali. Brecht, in Vita di Galileo mette in scena il rifiuto dei matematici e teologi di corte di guardare dentro al telescopio per vedere i satelliti di giove, adducendo come ragione il fatto che uno strumento mostrante cose poco probabili non puo’ altro che essere poco attendibile.
    Ebbene, agrimensore g., guardi prima dentro al telescopio e abbia l’umilta’ di affrontare una scienza diversa dalla sua, esattamente come il Dott. Cacciamani non suppone nulla sulla teoria delle stringhe perche’ non ne ha esperienza.

  24. Solfrizzoon Mar 26th 2010 at 09:03

    Vero, il rischio di ‘tuttologia’ simil filosofica è elevato quando si discute sui blog e forum…meglio affrontare caso per caso senza generalizzare troppo…in genere chi non sà perchè non è del campo cade in simili atteggiamenti al limite del qualunquismo…

  25. agrimensore gon Mar 26th 2010 at 10:21

    @Vichi
    Evidentemente continuo a spiegarmi male, colpa mia
    Che nei GCM si utilizzano reti neurali l’ho già controllato via rete, non l’ho soltanto dedotto. Debbo intendere dal suo intervento, che i GCM non utilizzino un machine learning basato su NN? Se è così, la ringrazio dell’informazione, perché io avevo trovato in rete l’informazione contrarie. Ho vari articoli in pdf, ma ho pochi link.
    Questo si riferisce al NOOA:
    http://ams.confex.com/ams/90annual/techprogram/paper_166298.htm
    Se vuole le posso inviare i pdf via mail.
    Solo che non ho trovato articoli inerenti la tematica relativa all’overfitting nelle NN dei GCM.
    Per questo speravo che qualcuno in questo blog, potesse fornirmi indicazioni.
    E in ogni caso, anche se non fosse utilizzato un machine learning basato su NN (in effetti ho trovato anche altri tipi di tuning dei GCM), il problema dell’overfitting va affrontato comunque in tutti i modelli (che utilizzano parametri, ovviamente). In genere si fa con una cross validation, ma non mi sembra una procedura valida adottare gli stessi datasets dopo che un modello viene raffinato introducendo ulteriori parametri. Questo, per me, è il punto.

    @Solfrizzo
    Il problema non è la varianza dei parametri.
    Il problema è il seguente.
    Domanda: come si fa ad essere sicuri che i GCM abbiano considerato tutti i processi fisici necessari? Risposta (che mi sento dire in generale): perché riescono a ricostruire il clima del passato.
    Obiezione: se un modello (qualsiasi, e quindi anche i GCM) ha problemi di overfitting, potrebbe rioscire a ricostruire il passato a causa di un “eccesso” di parametri anzichè per la bontà dei processi fisici imolementati.
    Le riporto parte della slide 54, quella che tratta dell’overfitting in NN, di una presentazione di un corso universitario:

    • Al crescere delle iterazioni, il sistema cerca di adattarsi anche a esempi idiosincratici, generando una ipotesi molto complessa. Accade frequentemente che questa ipotesi perda di generalità, ovvero, commetta parecchi errori nel predire casi non visti.
    • Osservate come, sul test set, la probabilità di errore cresca, benché diminuisca sul training set.

    Questa è la tematica dell’overfitting, indipendentemente dalle NN.

    Più in generale, quale delle quattro premesse del mio precedente post è sbagliata, e perché?

  26. Marcello Vichion Mar 26th 2010 at 11:04

    @agrimensore
    Posso mettere un solo link, ma in questa pagina trova il link anche ad altri libri, tra i quali quello di eugenia kalnay.

    http://books.google.it/books?id=vnYeHl6AvgkC&printsec=frontcover#v=onepage&q=&f=false

  27. Lorenzo Fiorion Mar 27th 2010 at 11:12

    @agrimensore

    Fermo restando che molti GCM non sono modelli a rete neurale, ma più semplicemente modelli dinamici e il Prof. Cacciamani potrebbe essere esperto solo di quest’ultimi lei comunque parla di:

    “eccesso” di parametri anzichè per la bontà dei processi fisici implementati”

    I parametri dei GCM dinamici sono parametri relativi a parametrizzazioni di processi fisici e quindi rappresentano essi stessi processi fisici, per cui affermare che c’è un’eccesso di parametri e al contempo un basso numero di processi fisici implementati nei modelli climatici è una contraddizione di fondo; inoltre vengono riportati nei modelli i processi, e quindi anche parametrizzazioni, di cui si ha la ragionevole certezza della loro influenza a scala climatica e non meteorologica, quindi solo quelli che contano, non tutti.

    Probabilmente lei con ‘parametri’ si riferisce a qualcosa di più specifico inerente le reti neurali, ma su questo deve contattare qualcuno che se ne occupa nello specifico per risolvere tutti i suoi dubbi come ad esempio il Prof. Antonello Pasini.

  28. Claudio Costaon Mar 28th 2010 at 22:12

    Ho iniziato uno scambio di e mail molto interessanti con il Cacciamani e il Vichi, spero si possano chiariscano tante cose, sono molto colpito dalla loro disponibilità anche solo ad ascoltarmi, (altro che molestie) e dalla loro correttezza.

    Solo alcune precisazione per i passanti

    Su lifetime: Ho usato il termine lifetime, perchè è proprio quello usato dall’IPCC AR4 ch2 ed è per il metano 4-12 anni mentre per la CO2 l’IPCC fa riferimento a Joss 2005 dove la lifetime della CO2 è stimata in 120 anni e parlano proprio di decadimento.
    Il vichi parla invece di turn over del metano di 150 anni, e non di lifetime di 4-12 anni. Penso di aver capito che siano due cose diverse, la lifetime riguarda il tasso di consumo in atmosfera mentre il tempo di residenza (turn over) i flussi di scambio.
    Ma il metano non dovrebbe accumularsi in atmosfera se non per 4-12 anni così almeno si evince dall’AR4 ch2 e ch7

    Su scenari: Certo che a vari scenari corrispondono emissioni diverse, ma è un altro discorso, stime della lifetime della CO2 diverse, determinano stime degli accumuli futuri diversi quindi valori di forzante diversi.
    Quindi la domanda è per tutti qual’è la lifetime della CO2 10 100 300 o 1000 anni?

    @ Agrimensore

    il fatto è che i modelli non ricostruiscono affatto il clima del passato!

    Nel 900 ad es ci sono stati tre fasi ben distinte e una appena abbozzata

    – il riscaldamento fino a metà degli anni 30
    – il successivo raffreddamento fino a metà degli anni 70
    – il riscaldaldamento fino al 1998
    – e l’ultimo periodo di stasi che però è ancora troppo breve per essere giudicato.

    Di queste tre fasi i modelli ne bucano le prime due cioè due su tre, (met office 2005*)
    o tre su quattro considerando anche l’ultimo decennio.

    Ma come fanno i modelli a ricostruire il passato???

    Ma come fanno i modelli a essere validati?????

    * Il rapporto met office 2005 è citato a riguardo da N Lawson nel libro “Nessuna emergenza clima”

    Se andiamo più in là nel tempo invece, i modelli che stimano come costante la variabilità solare non sono in grado di giustificare le grandi oscillazioni del clima dell’Holocene come il periodo caldo miceneo, romano e medioevale che invece sono correlati alle variazioni magnetiche solari ( isotopi Be10) come del resto il clima del 900 è correlato alle fluttuazioni magnetiche solari che sono massime negli anni 20 poi calano e poi salgono fino al picco del 900 nel 1993. ma come fanno i modelli a essere validati se la TSI costruita tramite le macchie solari non corrisponde al flusso magnetico solare

    Ma come fanno i modelli a essere validati se bucano l’influenza magnetica solare che da sola potrebbe surclassare le forzanti antropiche con la modifica sulla nuvolosità?????

    Inoltre gli scienziati bucano, per non conoscenza, la crescita della concentrazione di metano atmosferico.

    Ma come fanno ad essere affidabili le proiezioni climatiche?

    “E nel nome del progresso
    il dibattito sia aperto,
    parleranno tutti quanti,
    dotti medici e sapienti.

    Tutti intorno al capezzale
    di un malato molto grave (la terra)
    anzi già qualcuno ha detto
    che il malato è quasi morto.

    Al congresso sono tanti,
    dotti, medici e sapienti,
    per parlare, giudicare,
    valutare e provvedere,
    e trovare dei rimedi,
    per il giovane (pianeta) in questione”

    Il Bennato

    (beh come va a finire la canzone lo sapete)

  29. Vincenzoon Mar 28th 2010 at 23:15

    @ Costa
    Ho iniziato uno scambio di e mail molto interessanti con il Cacciamani e il Vichi,

    Ma si fanno pagare Cacciamani e Vichi.. o tutto gratis ?
    Oppure sono masochisti… o dei santi…

  30. Marcello Vichion Mar 29th 2010 at 11:19

    Dott Costa, speravo di essere stato chiaro, ma non e’ cosi’ e me ne dispiace, visto che riporta fuori gli stessi argomenti sui quali mi sembrava avessimo raggiunto una visione comune. Come ho cercato di spiegarle, i tempi di residenza dipendono dal flusso che si considera (cioe’ da quante componenti sommiamo per ottenere il valore netto), ecco perche’ possiamo trovare numeri diversi.

    massa della componente in atmosfera (unita’ di massa)
    R = ———————————————————————————
    |Somma flussi da e verso oceano e terre emerse (unita’ di massa/anno)|

    C’e’ una differenza fondamentale tra tempi di residenza R (il flusso netto e’ in valore assoluto) e accumulo (si considera il segno). Se il flusso netto di scambio con l’atmosfera e’ positivo, allora si ha un accumulo, piccolo come nel caso del metano negli ultimi 10-20 anni, ma comunque positivo. Una molecola di metano “vive” in atmosfera circa 10-12 anni, ma se continuano ad arrivarne delle altre piu’ rapidamente, allora c’e’ accumulo.
    La difficolta’ e quindi stimare tutti i flussi, soprattutto i sorgenti naturali.
    Dalla tabella 7.6 del AR4 si evince che il flusso netto stimato e’ circa 30 Tg/y positivo (riporto i dati del modello inverso di Mikaloff Fletcher et al., 2004, riferiti al 1999)

    Naturali Antropiche Totale
    Sorgenti 260 350 610

    Pozzi 577 577

    al 1999, la concentrazione stimata di CH4 atmosferico e’ 1756.30 ppb
    (Etheridge et al., 2002), che convertito in massa risulta essere
    circa 4974 Tg
    Quindi, una stima “back-of-the-envelope” del tempo di residenza a scala globale al 1999 e’ circa
    R = 4974/(610-577) ~ 150 anni
    Per arrivare ai 10-12 anni, e’ sufficiente che consideri solo la parte di trasformazione dovuta a OH- (circa il 90% del pozzo totale naturale) e ottiene 4974/507 ~ 10 anni, ma questo calcolo tiene conto solo del pozzo e non delle sorgenti, che sono molte, diversificate e purtroppo poco note.
    Ma secondo me il metano ci ha veramente portato fuori tema rispetto al post iniziale. Io ho raggiunto (temo superato) il limite di 5 posts, e mi riprometto con l’aiuto di qualche collega ad aprire un post specifico visto che l’argomento necessita di chiarimenti.

  31. Riccardo Reitanoon Mar 29th 2010 at 18:43

    10, 100, 300 o 1000? O, aggiungo, 100.000?
    Bella domanda. Vediamo. La risposta breve sarebbe “sono tutti veri”. In alternativa, è necessario intendersi sulla definizione.
    Dieci anni è più o meno il tempo di residenza in atmosfera della singola molecola di CO2.
    Cento anni possiamo prenderlo come un tempo di residenza “medio” come calcolato da Vichi.
    Trecento anni potrebbe essere il tempo di invasione delle acque profonde oceaniche.
    Qualche migliaio di anni è il tempo per la reazione di formazione del carbonato di calcio in oceano.
    Per per finire con la mia aggiunta, centinaia di miglia di anni sarebbe la rimozione dovuta al riciclo delle rocce ignee.

    Per dire che in presenza di molteplici processi la domanda secca è mal posta se non si specifica cosa si intende e su che scala di tempi. La risposta di Vichi, in questo senso, mi sembra la più immediata e corretta; non per nulla questa definizione viene comunemente utilizzata.

    Tutto ciò nell’attesa del post promesso da Vichi.

  32. Stefano Caserinion Mar 29th 2010 at 19:22

    Concordo sull’importanza del tema dei tempi di residenza.
    Per la CO2, in particolare, se si ragiona sulla lunghezza dei tempi di residenza, sui capisce quanto poco sensato sia continuare a prendere Carbonio da sottoterra e buttarlo in atmosfera.

  33. homoereticuson Mar 31st 2010 at 12:28

    ” le scienze ” di questo mese offre un numero speciale dedicato ai problemi della sostenibilità del nostro sviluppo. Vi è anche un articolo sull’IPCC, e uno dal titolo “le vere lacune dei modelli climatici”

    chissà se Bellone legge “le scienze”? 🙂

  34. Claudio Costaon Mar 31st 2010 at 12:49

    @ Reitano

    Secondo me stai parlando di cose diverse, la lifetime è il tempo di permanenza in atmosfera non il ciclo delle rocce calcaree che non c’entra niente.

    Cito sempre dal AR4 chapter 2
    Per la CO2 nella colonna della lifetime mettono un asterisco e parlano proprio di decadimento

    The CO2 response function used in this report is based on the revised version of the Bern Carbon cycle model used in Chapter 10 of this report (Bern2.5CC; Joos et
    al. 2001) using a background CO2 concentration value of 378 ppm. The decay of a pulse of CO2 with time t is given by
    Where a0 = 0.217, a1 = 0.259, a2 = 0.338, a3 = 0.186, τ1 = 172.9 years, τ2 = 18.51 years, and τ3 = 1.186 years.
    Il totale di Joos è 120 anni, Hansen invece dice 100, Archer dice 300,

    Questi invece sono quelli che dicono che l’accumulo di CO2 in atmosfera dopo il picco sarà di 1000 anni,e ancora Eby usa il termine lifetime

    http://ams.allenpress.com/perlserv/?doi=10.1175%2F2008JCLI2554.1&request=get-abstract
    M. Eby et al “Lifetime of Anthropogenic Climate Change: Millennial Time Scales of Potential CO2 and Surface Temperature Perturbations” Journal of Climate 15 September 2008 DOI: 10.1175/2008JCLI2554.1

    E la Solomon che ho citato, l’avevi letta?

    Susan Solomon “Irreversible climate change due to carbon dioxide emissions” pnas January 28, 2009, doi: 10.1073/. 081272110

  35. Claudio Costaon Mar 31st 2010 at 13:49

    Sono arrivato anch’io al 5° commento quindi in pratica la discussione per me finisce qua, e questo è assurdo, volevo quindi chiudere con delle riflessioni.
    La critica è una ricchezza, non è una molestia, mi spiace che il Solfrizzo l’abbia così bollata, senza poi partecipare di fatto alla discussione, che io ho trovato invece molto interessante, e non solo sul tema della permanenza dei gas serra in atmosfera.
    Anche chi pensa che i miei quesiti fossero fuori tema sbaglia, perché sono in pratica molte delle tematiche degli scettici, e danno ragione a Visconti, mentre Il Cacciamani non ha dato risposte, per me, convincenti, in particolare non è accettabile la sua frase : “I modelli sono validati. Punto!”

    Ma punto cosa?

    Il tema è fondamentale perché se è vero, come mi han fatto notare, che i costi della presunta mitigazione li paghiamo tutti in bolletta, è altresì vero che gli imprenditori la pagano molto, ma molto, di più perché:
    – molti prodotti hanno nel costo energetico una voce importante nei costi totali, e l’Italia ha un costo Kwh che è quasi doppio rispetto agli altri G8, e le rinnovabili, ahimè, non fanno che aumentarlo, questo rende molte produzioni non competitive quindi gli imprenditori sono costretti a chiudere e a licenziare (altro che green economy!) Questo vale anche per il mio settore, ma non solo.
    – Molte imprese per ottenere l’autorizzazione integrata ambientale sono costrette ad abbattere le emissioni. Questo vale anche per il mio settore, ma non solo.
    – Nel mio settore invece ci sono continui attacchi a tutto campo, ( a cui le associazioni assistono inermi al massacro) che i media cavalcano per fare audience. Tra i tanti c’è l’accusa alla zootecnia di essere la prima causa di riscaldamento globale, più della produzione di energia, (WWI magazine), o la seconda, quindi più di tutti i trasporti (FAO 2006), o la terza se si analizzano le emissioni zoogeniche (AR4ch7). Sembra il gioco della morra. Adesso è partita una campagna vergognosa del WWF, che invita tutti a diventare vegetariani per salvare il pianeta (una bufala via l’altra) ce n’è un’altra della LIA che ci accusa di emettere il 65% dell’ammoniaca antropica causa di piogge acide e formazione di aerosol nitrato (c’è un accenno qui AR4ch7) e ancora non so quant’è il peso di codesta ammoniaca.

    Quindi io, sono costretto a capire se queste accuse sono vere o fantasticherie senza alcuna dimostrazione scientifica.
    Purtroppo le risposte spesso non sono soddisfacenti.

    Mi riallaccio quindi alla battuta di Vincenzo :
    Ma si fanno pagare Cacciamani e Vichi.. o tutto gratis ?
    Oppure sono masochisti… o dei santi…
    A cui rispondo, che a me personalmente le domande non sono certo dovute, anzi sono sorpreso per la disponibilità, e quindi ringrazio ancora, ma se dovessi seguire il consiglio di Grillo, tutti i dipendenti pubblici pagati anche da me (e gli imprenditori pagano molto ma molto di più degli altri) dovrei considerarli miei dipendenti e quindi da essi pretendere una risposta.
    Ma ribalto completamente il punto di vista:
    – siccome le accuse all’uomo (e alla zootecnica) di essere causa delle forzanti dominanti del gw (un inverosimile 96% contro solo 4% della variabilità solare) sono sostenute dagli scienziati serristi come quelli di questa redazione.
    – e siccome è proprio in base alla tesi dell’agw dei serristi, i politici, obbligano noi imprenditori a abbattere le emissioni e a pagare le rinnovabili per salvare il pianeta.

    Ebbene questi scienziati serristi compresi quelli della redazione sono:
    – OBBLIGATI a noi dimostrare le loro tesi, e sono pure
    – OBBLIGATI a rispondere alle obiezioni e alle critiche.

    Ripeto (per non essere frainteso) nessun obbligo nei miei confronti personali, ma rispetto alle istanze degli scettici si, (anche perché noi ci andiamo di mezzo.)

    E finora io, in anni e anni di discussioni in cui mi hanno insultato e sbeffeggiato in ogni modo, non ho avuto uno straccio di dimostrazione di alcunché!

  36. Riccardo Reitanoon Mar 31st 2010 at 14:20

    @Costa
    non voglio approfittare della tua impossibilità di rispondere. Voglio solo sottolineare quanto già detto nel commento precedente, cioè che è necessario comprendere di cosa stiamo parlando. Senza questo, ovviamente, si può facilmente andare da pochi a 100.000 anni. Questo era era ciò che volevo, appunto, mostrare.

  37. Vincenzoon Mar 31st 2010 at 18:57

    @ Costa

    Bene, mi sembra un bene che questo sia il suo ultimo commento, i suoi commenti sono davvero fastidiosi quanto inutili.
    Il fatto che uno debba essere obbligato a rispondere su un Blog è una delle cose più buffe che ho mai sentito.
    Costringere gli scienziati a rispondere a tutti i perditempo che non vogliono studiare (e questa è l’ipotesi migliore) potrebbe essere un bel modo per bloccare la scienza del clima, o la scienza in generale. Provi a proporlo a McIntyre e soci, magari le riconoscono il copyright.
    Gli scienziati sono tenuti a rispondere nelle sedi deputate, ossia sulle riviste scientifiche.
    Mi sembra che tutti sono stati fin troppo gentili con lei. Anche io come lei sono sorpreso per la disponibilità che le hanno mostrato. Se poi le risposte lei non riesce a capirle, non è che uno può passare tutta la vita a cercare di spiegargliele.
    Comunque, visto che si è capito bene che il suo problema alla fine sono le riduzioni delle emissioni zootecniche, non mi sorprende che lei non capisca.
    La lascio con questa bella frase di Upton Sinclair che c’era nel film di Al Gore: “It’s difficult to get a man to understand something if his salary depends upon his not understanding it.”

  38. Riccardo Reitanoon Apr 1st 2010 at 00:16

    @Costa
    mi sfugge il motivo della sua ostinazione nel confrontare quella mia affermazione con la Solomon, assomiglia drammaticamente alle affermazioni fuori contesto prese delle email rubate. Ho fatto riferimento al suo PNAS da qualche parte? E per gli altri numeri ho fatto riferimento a qualcun altro, Vichi a parte?

    Ad ogni modo, il punto del mio commento era tutt’altro, lo riporto per chiarezza:
    “Per dire che in presenza di molteplici processi la domanda secca è mal posta se non si specifica cosa si intende e su che scala di tempi. La risposta di Vichi, in questo senso, mi sembra la più immediata e corretta; non per nulla questa definizione viene comunemente utilizzata.”
    Qui si posso riferirmi al PNAS di Solomon et al., “Carbon dioxide is the only greenhouse gas whose falloff displays multiple rather than single time constants (see Fig.S2).”.