Climalteranti.it https://www.climalteranti.it Notizie e approfondimenti sul clima che cambia Mon, 12 Feb 2024 21:11:51 +0000 it-IT hourly 1 https://www.climalteranti.it/wp-content/uploads/2023/03/cropped-favicon-32x32.jpg Climalteranti.it https://www.climalteranti.it 32 32 La circolazione oceanica dell’Atlantico e il sistema della Corrente del Golfo si stanno avvicinando ad un punto di non-ritorno https://www.climalteranti.it/2024/02/12/la-circolazione-oceanica-dellatlantico-e-il-sistema-della-corrente-del-golfo-si-avvicinano-ad-un-punto-di-non-ritorno/ https://www.climalteranti.it/2024/02/12/la-circolazione-oceanica-dellatlantico-e-il-sistema-della-corrente-del-golfo-si-avvicinano-ad-un-punto-di-non-ritorno/#comments Mon, 12 Feb 2024 18:14:58 +0000 https://www.climalteranti.it/?p=12398 Pubblichiamo la traduzione del post scritto per Realclimate dell’oceanografo e climatologo Stefan Rahmstorf, “New study suggests the Atlantic overturning circulation AMOC “is on tipping course”. Il termine AMOC, Atlantic Meridional Overturning Circulation, in italiano capovolgimento meridionale della circolazione atlantica, è il termine scientifico per indicare l’intera circolazione oceanica che trasporta acqua e calore verso nord, e di cui una parte è la ben nota “Corrente del golfo”. Lo studio appena pubblicato, che si aggiunge ad altri usciti nei mesi scorsi, indica un rischio di gravissimo sconvolgimento del clima europeo come feedback del surriscaldamento indotto dalle attività umane.

 

Un nuovo lavoro è stato pubblicato oggi in Science Advances. Il suo titolo è esplicativo: “Segnali precoci osservabili e basati sulla fisica del sistema dicono che AMOC si avvia ad un punto di non-ritorno”. Lo studio fa seguito ad un altro scritto da colleghi danesi nello scorso luglio, che allo stesso modo indagava i segnali precoci di un punto di svolta dell’AMOC (ne abbiamo parlato qui) ma usando metodi e dati diversi.

Il nuovo lavoro di van Westen et al. è un avanzamento importante nella conoscenza della stabilità dell’AMOC, e viene da quello che considero un centro leader negli studi di stabilità dell’AMOC, Utrecht, Paesi Bassi (alcuni dei loro contributi, sviluppati negli ultimi 20 anni, sono nella lista dei lavori di riferimento, con autori come Henk Dijkstra, René van Westen, Nanne Weber, Sybren Drijfhout ed altri.)

L’articolo è il risultato di un importante sforzo computazionale, basato sull’esecuzione di un modello climatico all’avanguardia (il modello CESM con risoluzione orizzontale di 1° per la componente oceano/ghiaccio marino e 2° per la componente atmosfera/terra), per 4.400 anni di simulazione modellistica. Ci sono voluti 6 mesi per farlo funzionare sui 1.024 core della struttura di supercalcolo olandese, il più grande sistema nei Paesi Bassi in termini di calcolo ad alte prestazioni.

Si tratta del primo tentativo sistematico di trovare il punto di non ritorno dell’AMOC in un modello climatico globale accoppiato oceano-atmosfera di buona risoluzione spaziale, utilizzando l’approccio di quasi-equilibrio che ho sperimentato nel 1995 con un modello con solo la componente oceanica, con  risoluzione relativamente bassa, data la limitata potenza di calcolo disponibile 30 anni fa.

Se non avete familiarità con le questioni riguardanti il rischio di bruschi cambiamenti della circolazione oceanica, l’anno scorso ho riassunto brevemente dieci fatti chiave su questo argomento in questo post sul blog.

Figura 1. Schema dell’AMOC, con l’acqua calda che scorre verso nord, affonda alle latitudini settentrionali e poi ritorna come una corrente fredda e profonda verso sud. La mappa di sfondo mostra il cambiamento della temperatura della superficie del mare dal 1870, sulla base delle osservazioni oceaniche, tra cui l’impronta digitale del rallentamento AMOC di una “macchia fredda” nel Nord Atlantico subpolare e l’eccessivo riscaldamento a nord della Corrente del Golfo. Figura adattata da Caesar et al., Nature 2018.

 

Ma ora, passiamo direttamente ai principali risultati del nuovo articolo:

 
1. Conferma che l’AMOC ha un punto di non ritorno oltre il quale si interrompe se l’Oceano Atlantico settentrionale viene diluito con acqua dolce (aumentando le precipitazioni, il deflusso dei fiumi e l’acqua di fusione), riducendone così la salinità e la densità. Questo è stato suggerito da semplici modelli concettuali a partire da Stommel 1961, confermato per un modello 3D della circolazione oceanica nel mio articolo su Nature del 1995, e successivamente in un primo progetto di interconfronto dei modelli nel 2005, tra gli altri studi. Ora questo punto di svolta è stato dimostrato per la prima volta in un modello climatico accoppiato globale all’avanguardia, demolendo la speranza che con maggiori dettagli e risoluzione del modello qualche meccanismo di feedback avrebbe potuto prevenire un collasso dell’AMOC. (Questa speranza non è mai stata molto convincente, poiché le registrazioni paleoclimatiche mostrano chiaramente bruschi cambiamenti dell’AMOC nella storia della Terra, comprese le rotture complete dell’AMOC innescate dall’input di acqua di disgelo (eventi di Heinrich). L’ultima interruzione dell’AMOC si è verificata circa 12.000 anni fa e ha innescato l’evento freddo del Dryas recente intorno all’Atlantico settentrionale).
2. Conferma, utilizzando dati osservativi, che l’Atlantico è in rotta per una brusca transizione, cioè si sta muovendo verso questo punto di non ritorno. La domanda da un miliardo di dollari è: quanto è lontano questo punto di svolta?
3. Tre studi recenti (per saperne di più su questi si veda questo post del blog), utilizzando dati e metodi diversi, hanno sostenuto che ci stiamo avvicinando al punto di non ritorno e che potrebbe essere troppo vicino per essere rassicurante, ponendo anche il rischio di attraversarlo nei prossimi decenni. Tuttavia, l’affidabilità dei metodi utilizzati è stata messa in discussione (come discusso qui su RealClimate). Sulla base della loro epica simulazione al computer, il gruppo olandese ha proposto un nuovo tipo di segnale di allerta precoce, basato sulla fisica e osservabile – il trasporto di acqua dolce da parte dell’AMOC all’ingresso dell’Atlantico meridionale, attraverso la latitudine della punta meridionale dell’Africa – che ho proposto in uno studio del 1996. Non presentano una particolare stima del periodo di tempo per raggiungere il punto di non ritorno, poiché saranno necessarie ulteriori osservazioni della circolazione oceanica a questa latitudine, ma notano a proposito dello studio di Ditlevsen dello scorso anno che “la loro stima del punto di non ritorno (dal 2025 al 2095, livello di confidenza del 95%) potrebbe essere accurata“.
4. Il nuovo studio conferma le preoccupazioni del passato secondo cui i modelli climatici sovrastimano sistematicamente la stabilità dell’AMOC. Per quanto riguarda il cruciale trasporto di acqua dolce AMOC nei modelli, il nuovo studio sottolinea che la maggior parte dei modelli non simulano bene questo aspetto: “Questo non è in accordo con le osservazioni, che è un bias ben noto nei modelli CMIP di fase 3 (38), fase 5 (21) e fase 6 (37)”. La maggior parte dei modelli ha anche il segno sbagliato di questa importante parametro di analisi, che determina se il feedback sulla salinità atlantica è stabilizzante o destabilizzante, questa distorsione del modello è una delle ragioni principali per cui, a mio avviso, l’IPCC ha finora sottovalutato il rischio di un collasso dell’AMOC, in quanto si è basato su modelli climatici affetti da questi problemi.
5. Lo studio fornisce anche simulazioni più dettagliate e a più alta risoluzione degli impatti di un collasso AMOC sul clima, anche se considerati isolatamente e non combinati con gli effetti del riscaldamento globale indotto dalla CO2 (Fig. 2). Mostrano come in particolare l’Europa settentrionale, dalla Gran Bretagna alla Scandinavia, subirebbe impatti devastanti, come un raffreddamento delle temperature invernali tra i 10 °C e i 30 °C che si verificherebbe entro un secolo, portando a un clima completamente diverso entro un decennio o due, in linea con l’evidenza paleoclimatica sui bruschi cambiamenti della circolazione oceanica. Inoltre, mostra importanti cambiamenti nelle fasce delle precipitazioni tropicali. Questi (e molti altri) impatti di un collasso AMOC sono noti da molto tempo, ma finora non sono stati dimostrati in un modello climatico di così alta qualità.

Fig. 2 Variazione di temperatura durante il collasso dell’AMOC (durante il periodo modellistico 1750-1800 – non sono gli anni del calendario! – nota 2) nella nuova simulazione del modello di van Westen et al. 2024. Notizie particolarmente negative per la Gran Bretagna e la Scandinavia.

 

Dati gli impatti, il rischio di un collasso dell’AMOC è qualcosa da evitare a tutti i costi.

Come ho già detto: il problema non è se siamo sicuri che questo accadrà. Il problema è che avremmo bisogno di escluderlo con una probabilità del 99,9 %. Una volta che avremo un segnale di avvertimento inequivocabile e definitivo, sarà troppo tardi per fare qualcosa al riguardo, data l’inerzia del sistema.

Nel complesso, il nuovo studio aumenta significativamente la crescente preoccupazione per un collasso dell’AMOC in un futuro non troppo lontano. Aggiunge quindi ancora più peso ai recenti rapporti che suonano forti sirene di allarme, come il rapporto dell’OCSE sui punti di non ritorno climatici del dicembre 2022 e il rapporto sui punti di non ritorno globali pubblicato nel dicembre 2023. Se continueremo a ignorare questo problema, sarà a nostro rischio e pericolo.

Aggiornamento del 10 febbraio

Nelle reazioni all’articolo, vedo che alcuni fraintendono questo come uno scenario modellistico irrealistico per il futuro. Non lo è. Questo tipo di esperimento non è affatto una proiezione futura, ma piuttosto è stato fatto per tracciare la curva di stabilità dell’equilibrio (questo è l’approccio di quasi-equilibrio menzionato sopra). Al fine di tracciare la risposta del sistema, l’apporto di acqua dolce deve essere aumentato in modo estremamente lento, e questo è il motivo per cui questo esperimento utilizza così tanto tempo al computer. Dopo che in questo modo è stato trovato il punto di non ritorno del modello, è stato utilizzato per identificare i precursori che potrebbero avvertirci prima di raggiungere il punto di non ritorno, i cosiddetti “segnali anticipati di allarme”. Quindi, gli scienziati si sono rivolti ai dati di rianalisi (prodotti basati sulle osservazioni, mostrati nella Fig. 6 dell’articolo) per verificare la presenza di un segnale di allarme precoce. La conclusione principale che l’AMOC è “in rotta verso un punto di non ritorno” si basa su questi dati.

In altre parole: sono i dati osservativi dell’Atlantico meridionale che suggeriscono che l’AMOC è sulla strada del punto di non ritorno. Non la simulazione del modello, che serve solo a capire meglio quali segnali di allerta funzionano, e perché.

 

Post originale di Stefan Rahmstorf su RealClimate qui

Nota 1: per facilitare la lettura abbiamo tradotto il termine “tipping point” con “punto di non ritorno”, pur se il concetto di tipping point è più legato all’avvenire di una brusca transizione. La definizione IPCC di tipping point è “una soglia critica oltre la quale un sistema si riorganizza, spesso in modo brusco e/o irreversibile”, quindi la componente di irreversibilità è solo uno degli aspetti. Un altro aspetto cruciale è l’accadimento di un cambiamento climatico repentino, un “Abrupt climate change”, definito come “Un cambiamento improvviso su larga scala nel sistema climatico che avviene nell’arco di pochi decenni o meno, persiste (o si prevede che persista) per almeno alcuni decenni e provoca impatti sostanziali sui sistemi umani e/o naturali”.

Nota 2. Gli anni indicati nelle figure sono quelli dall’inizio della simulazione modellistica, non sono gli anni del nostro calendario storico. In altre parole, dopo 1750 anni dall’inizio delle simulazioni dell’iniezione di acqua dolce nel nord atlantico si ha la brusca transizione descritta nella figura. L’articolo mostra come a causa di una serie di feedback interni, ad un certo punto la riposta del sistema AMOC varia in modo molto brusco (“spectacular” è il termine usato dagli autori dell’articolo per descrivere questo cambiamento), pur in presenza di variazioni piccole della causa, l’iniezione di acqua dolce. Anche le variazioni del clima, in particolare quello europeo, sono altrettanto brusche, con “un raffreddamento molto forte e rapido del clima europeo con diminuzione della temperatura superiori a 3°C per decennio”.

 

Traduzione di Claudio della Volpe,  revisione e note di Stefano Caserini

]]>
https://www.climalteranti.it/2024/02/12/la-circolazione-oceanica-dellatlantico-e-il-sistema-della-corrente-del-golfo-si-avvicinano-ad-un-punto-di-non-ritorno/feed/ 3
Quando il negazionista climatico delira https://www.climalteranti.it/2024/01/30/quando-il-negazionista-climatico-delira/ https://www.climalteranti.it/2024/01/30/quando-il-negazionista-climatico-delira/#comments Tue, 30 Jan 2024 11:53:11 +0000 https://www.climalteranti.it/?p=12385 Nei 15 anni di attività di Climalteranti abbiamo incontrato tante tesi infondate sul clima, tanti errori, esagerazioni, fraintendimenti sulla scienza del clima, oppure le cosiddette bufale. L’ultimo articolo pubblicato su La Verità da Franco Battaglia è invece classificabile nella categoria dei deliri. Ne parliamo perché segna la definitiva sconfitta del negazionismo climatico, ormai ridotto ad argomenti del tutto inconsistenti, palesemente assurdi. La tesi dell’articolo è che tutti i dati delle temperature globali usati dagli scienziati del clima non hanno alcun valore. Abbiamo chiesto un commento al Prof. Maurizio Maugeri, fisico dell’atmosfera e uno dei principali esperti delle serie storiche dei dati delle temperature italiane.

 

Tra le tante strampalate argomentazioni proposte dai negazionisti per affermare che non vi siano cambiamenti climatici in atto, quella proposta da Franco Battaglia in un articolo pubblicato sul quotidiano La Verità il 18 gennaio 2024, intitolato “Il mito temperatura media globale non ha nessun valore scientifico”, merita sicuramente una menzione. Essa riesce infatti a collocarsi in una posizione di assoluto rilievo nella graduatoria delle argomentazioni più assurde.

L’idea di fondo dell’articolo è quella di affermare che il concetto di temperatura media planetaria dell’aria non abbia senso e che non abbia quindi senso parlare di un suo cambiamento.

Come spesso accade per i negazionisti, anche in questo caso Franco Battaglia parte da premesse che possono avere una propria ragionevolezza. Egli afferma, infatti, che quando si opera una media tra diversi numeri occorre farlo in modo corretto e aggiunge che la media esprime solo parzialmente le caratteristiche di una serie di numeri che possono essere meglio descritte da un insieme più ampio di indicatori statistici. Ma è completamente assurdo che da queste premesse l’autore arrivi poi a dire che non abbia senso mediare le temperature, prima nel tempo, per arrivare dai valori istantanei a delle medie giornaliere, mensili e annuali, e poi nello spazio, per arrivare da valori locali a valori rappresentativi di aree più vaste che possono andare da singole aree geografiche a intere nazioni o continenti o anche all’intero Pianeta. Questa operazione va naturalmente fatta in modo critico e rigoroso, e occorre evitare errori in ogni passo della procedura, ma è quanto fanno da molti decenni i climatologi di tutto il mondo (e non solo sui dati delle temperature) per fornire informazioni di grande importanza per la scienza del clima.

Un esempio riguarda la possibile non completezza delle serie di dati che si usano per ottenere una serie media areale: in caso di valori mancanti, una semplice media sui dati disponibili ne può risultare molto influenzata, facendo sì che il segnale mostrato da essa sia più influenzato dalla presenza di queste lacune che non dal segnale climatico. È quindi sicuramente necessario che il processo di costruzione di una serie media areale sia fatto con procedure rigorose e ben documentate.

 

Un metodo molto usato per evitare che una serie media areale possa avere delle inomogeneità dovute alla presenza di lacune nelle serie delle singole stazioni consiste nel trasformare queste serie in anomalie, prima di procedere al calcolo della serie areale. Le anomalie sono le variazioni rispetto ad un valore medio di riferimento, e (come spiegato ad esempio da NASA-GISS qui) esse sono rappresentative di aree vaste e sono correlate fra loro per grandissime distanze. La procedura che porta alle serie globali di temperatura del pianeta non prevede quindi affatto, come sembra credere Battaglia, che si calcoli la media fra i dati delle temperature assolute delle diverse stazioni disponibili: è invece basata sulle anomalie delle temperature di queste stazioni.

Il metodo che la comunità scientifica assicura per garantire che i risultati che essa produce siano corretti e rigorosi è la revisione tra pari, unita alla continua possibilità di critica di ciò che viene pubblicato. Le serie globali che vengono comunemente utilizzate per dare un quadro di sintesi sui cambiamenti climatici sono quindi prodotte e pubblicate in articoli scientifici che descrivono in dettaglio le metodologie adottate per produrle. Prima della pubblicazione ogni articolo viene valutato da colleghi che ne fanno una revisione anonima e poi esso può venire criticato e commentato da tutta la letteratura successiva. Ogni membro della comunità scientifica, ed eventualmente anche persone esterne alla comunità, compreso Franco Battaglia, possono dare un loro contributo costruttivo al progresso delle scienze facendo rilievi puntuali e circostanziati. Indicando, per esempio, se un certo metodo utilizzato per produrre una certa serie di valori non sia corretto o efficace. Rilievi di questo tipo sono assolutamente benvenuti e servono al progresso della scienza. Al contrario, conclusioni assurde come quelle che affermano che non abbia senso mediare un certo numero di variabili sono assolutamente inutili e hanno il solo scopo di disorientare i lettori, andando a minare delle conoscenze che essi hanno acquisito fin dalle scuole elementari e che hanno sempre utilizzato in tantissimi campi della loro vita.

Questi stessi lettori, peraltro, troveranno sicuramente sullo stesso quotidiano molte altre considerazioni basate su valori medi, per esempio relativi ai redditi, al tasso di inflazione o alla crescita economica; e sarebbe davvero molto controproducente per loro se dovessero concludere che nessuno di essi ha senso.

 

Testo di Maurizio Maugeri, Università di Milano

]]>
https://www.climalteranti.it/2024/01/30/quando-il-negazionista-climatico-delira/feed/ 8
Senza sorprese, nel 2023 nuovo record delle temperature globali. In Italia è il secondo anno più caldo https://www.climalteranti.it/2024/01/05/senza-sorprese-nel-2023-nuovo-record-delle-temperature-globali-in-italia-e-il-secondo-anno-piu-caldo/ https://www.climalteranti.it/2024/01/05/senza-sorprese-nel-2023-nuovo-record-delle-temperature-globali-in-italia-e-il-secondo-anno-piu-caldo/#comments Fri, 05 Jan 2024 09:08:30 +0000 https://www.climalteranti.it/?p=12349 Le analisi preliminari dei dati della NOAA/NCEP e quelle parziali sugli altri database climatici permettono di affermare che il 2023 è risultato di nuovo l’anno più caldo da quando si misurano le temperature, con un’anomalia pari a poco meno di +1,5 °C rispetto al periodo preindustriale. Un aumento di quasi un decimo di grado rispetto al precedente record del 2016. Per quanto riguarda l’Italia, l’anomalia registrata è stata inferiore a quella dello scorso anno, che era però stata spaventosa (oltre +2,2 °C in più rispetto al periodo preindustriale) ma, con i suoi +2 °C risulta comunque il secondo valore della serie delle temperature annue disponibili.  

 

Come è ormai tradizione, all’inizio del nuovo anno si tirano le somme sull’anno appena trascorso usando come riferimento abituale le anomalie di temperatura estratte dal database NOAA/NCEP della NOAA, che fornisce i dati su punti griglia equispaziati di 2,5° in longitudine e latitudine. Nel fare i calcoli, considererò sia tutto il globo terrestre che un rettangolo che comprende l’Italia e i mari prospicienti. Nelle tabelle farò un riferimento anche ai valori di alcuni database storici (GISS, HadCRU, ERA5), anche se incompleti, considerando gli ultimi dodici mesi disponibili.

I numeri mostrati sulle tabelle sono le anomalie rispetto al periodo storico 1850-1900 (noto come periodo preindustriale), mentre le mappe mostrano le anomalie rispetto al trentennio più recente (1991-2020). Nella tabella 1, che riassume i principali risultati a scala mondiale, ho inserito soltanto gli anni a partire dal 2015 (i valori degli altri anni possono essere reperiti sui post degli anni precedenti: 2022, 2021, 2020, 2019, 2018, 2017, 2016, ecc.).

Tabella 1 – Anomalie di temperatura media globale (in °C) nel 2022 secondo NOAA/NCEP e altri tre centri climatici. I valori sono riferiti al periodo preindustriale (anni prima del 1901), ovvero: per HadCRU, il periodo 1880-1900; per GISS, il periodo 1850-1900). Per i database NOAA/NCEP e ERA5, che non si estendono così tanto a ritroso nel tempo, l’anomalia preindustriale è stata ricalcolata usando la differenza climatica dei dati GISS. Infine, il valore del 2023 per HadCRU è stato calcolato sul periodo novembre 2022–ottobre 2023, e per GISS ed ERA5 sul periodo dicembre 2022–novembre 2023. L’ultima colonna riporta il valore medio sui quattro database.

 

Da notare che il 2023 risulta di gran lunga l’anno più caldo secondo tutti i database, e che il database NOAA/NCEP è quello che sottostima maggiormente la differenza rispetto al precedente anno più caldo (0,7 °C rispetto a 1 o 1,1 °C secondo gli altri database, anche se incompleti).

Se volessimo riferire le anomalie rispetto al periodo climatico più recente, cioè il 1991-2020, troveremmo ancora un’anomalia positiva: l’ultima lievemente negativa fu registrata nel 2011, e dal 2001 soltanto in 4-6 occasioni si sono registrate anomalie negative, peraltro sempre superiori a -0,1 °C.

 

Il ruolo di El Niño

Guardando gli andamenti dal 2001, si nota come negli ultimi sette anni si siano registrati valori  sistematicamente superiori rispetto agli anni precedenti, anche negli anni caratterizzati dalla fase La Niña della teleconnessione ENSO. Senza volerci ripetere (si veda ad esempio quanto già scritto qui), ricordiamo che, in presenza della fase El Niño, il rimescolamento tra le acque superficiali e quelle più profonde nell’oceano Pacifico tropicale si attenua, per cui le prime risultano mediamente più calde di qualche grado, e questa anomalia influenza il valore della temperatura media globale, che diventa superiore alla norma di 0,1-0,3 °C. Al contrario, in presenza della fase La Niña, il rimescolamento è più efficace e la risalita di acque fresche lungo le coste sudamericane rinfresca la superficie del Pacifico tropicale di qualche grado, influenzando anche in questo caso la temperatura media globale nel modo opposto. Vorrei sottolineare che le due fasi della teleconnessione ENSO producono variazioni del valore della temperatura media superficiale globale della terra, ma – a livello di oceano Pacifico tropicale – la temperatura media complessiva non varia: si ripartisce solo in modo diverso tra gli strati superficiali e quelli profondi. Certo, avere il Pacifico tropicale più caldo o più freddo della media produce delle ripercussioni su molti territori che vi si affacciano, che a loro volta possono indurre ulteriori variazioni termiche più limitate in varie aree del mondo. Tuttavia, se non ci fosse un riscaldamento globale intenso in corso, l’analisi delle temperature medie globali ci farebbe vedere valori simili in tutte le fasi equivalenti di ENSO, con anomalie positive nella fase El Niño e negative nella fase La Niña; ma con record soltanto in occasione di fasi eccezionalmente intense, con numerosità simile in un senso e nell’altro. Invece, dal momento che il riscaldamento globale è in corso ed è molto intenso, assistiamo a record ripetuti sui valori massimi, talora anche quando le fasi di El Niño non sono neppure così intense (come è il caso di quest’anno), mentre i record negativi latitano ormai da oltre un secolo (i valori di anomalia minima delle serie se li disputano i lontani 1904 e 1917, con anomalie inferiori a 1 °C rispetto ai valori preindustriali).

Considerando che la fase El Niño è prevista durare ancora per alcuni mesi, probabilmente fino a metà anno, e che, nel passato, le anomalie termiche più evidenti si sono sempre manifestate verso il termine della fase, esiste una discreta possibilità che anche il 2024 possa risultare un anno ancora molto caldo. Se sarà un anno record o no dipenderà essenzialmente da quanto forte sarà la fase El Niño nel suo momento terminale, quanto durerà, e se sarà seguita da una fase neutra o da una fase La Niña.

Figura 1 – Anomalie di temperatura superficiale oceanica mediate sopra le regioni del Pacifico equatoriale NINO3.4. Fonte: NOAA/NCEP.

 

Resta comunque il fatto che, arrotondando a una cifra decimale, le temperature registrate sono vicine al valore delle temperature medie che l’Accordo di Parigi ha previsto come obiettivo per fine secolo, +1,5 °C. Se il trend continuerà (e al momento non c’è motivo per sperare che questo non succeda), entro qualche decennio è possibile che le anomalie medie globali risultino permanentemente superiori al valore di 1,5 °C, anche in presenza di fase La Niña. Sempre, naturalmente, che non salti fuori qualche sorpresa climatica (dovuta a qualche feedback legato al superamento di qualche tipping point presente nel sistema climatico), che porti ad un ulteriore innalzamento del trend di aumento termico.

L’andamento nel mondo

Figura 2 – Anomalie di temperatura superficiale per il 2023 rispetto al trentennio 1991-2020. Fonte dei dati: NOAA/NCEP. Credit: NOAA/ESRL Physical Sciences Laboratory, Boulder Colorado.

 

Guardando la distribuzione delle anomalie sul planisfero, i valori maggiori si trovano sulle zone polari, oltre il circolo polare artico (con picchi di oltre 5 °C!) e in Antartide (picchi di 3,5 °C!). Le aree continentali mostrano anomalie prevalentemente positive e talora superiori a 1 °C, con la sola eccezione dell’Asia nordorientale, della regione tra Tibet e India, di parte delle zone andine e di parte dell’Australia, dove vi sono alcune aree con anomalia termica negativa. Sul Pacifico tropicale si nota la lingua di anomalia calda protesa dalle coste sudamericane verso ovest, impronta inconfondibile della fase El Niño. Le anomalie sugli oceani sono mediamente inferiori e sono presenti, sia pure in minoranza, alcune aree ad anomalia negativa, di cui le più vistose in prossimità delle coste Antartiche.

 

Il caldo italiano

Figura 3 – Anomalie di temperatura superficiale per il 2023 rispetto al trentennio 1991-2020 relativamente all’area europea. Fonte dei dati: NOAA/NCEP. Credit: NOAA/ESRL Physical Sciences Laboratory, Boulder Colorado.

 

A livello europeo si osservano anomalie positive su  tutta l’Europa, salvo una piccola porzione della Svezia e Norvegia centrali, con valori maggiori nella zona del Mùar Nero.

Tenendo conto che i valori mostrati nella mappa (riferita al periodo 1991-2000) sono di circa 0,9° inferiori a quelli riferiti al periodo 1850-1900, si vede come l’Italia e gran parte del Mediterraneo mostrano valori di circa 1,9 °C rispetto al periodo preindustriale, e la media sul rettangolo italiano (che, ribadisco, include anche i mari prospicienti) è di circa 2 °C. La media complessiva risulta quindi molto positiva e abbastanza alta, più che a scala globale, confermando il ruolo di hot-spot del bacino Mediterraneo nel panorama climatico globale. Pur con i limiti di un grigliato a bassa risoluzione quale quello usato (2,5° in latitudine e longitudine), le due isole maggiori e il centronord italiano, inclusa la pianura padana ed escluse le aree alpine, risultano le più calde, con anomalie superiori a 2 °C. Il valore complessivo per l’Italia di 2 °C, pur se inferiore all’anomalia “monstre” di 2,24 °C di un anno fa (record assoluto della serie NOAA/NCEP per l’Italia), risulta in ogni caso la seconda anomalia più positiva della serie stessa, distanziando di ben 0,4 °C il 2019, che ora è il terzo anno più caldo in Italia.

Come si può vedere in Tabella 2, dove sono riportati i valori degli ultimi 9 anni, si può ben capire come il surriscaldamento del territorio italiano stia procedendo in maniera davvero molto rapida.


Tabella 2 – Anomalie di temperatura media sul territorio italiano negli anni dal 2001 al 2023 secondo NOAA/NCEP. I valori sono espressi in °C. I valori sono riferiti al periodo preindustriale, 1850-1900 (l’anomalia preindustriale è stata ricalcolata usando la differenza climatica dei dati GISS).

 

Risulta poi interessante andare a vedere, a scala mensile, l’andamento dei valori sul territorio italiano, riportati in Tabella 3 rispetto al periodo preindustriale. L’anomalia preindustriale è stata ricalcolata usando la differenza climatica dei dati GISS, aumentando di 0,9°C i dati relativi al periodo 1991-2020. Ricordo ancora che, nel dataset NOAA/NCEP, definisco “Italia” un rettangolo di punti griglia, che inevitabilmente includono al suo interno anche una porzione di mari prospicienti la terraferma, nonché di territorio straniero limitrofo. Nonostante questo, in passato i dati si sono dimostrati abbastanza in linea con gli andamenti calcolati a scala nazionale dalle stazioni sulla terraferma.

I valori medi ci dicono che in ben sei mesi cinque (gennaio, marzo, settembre, ottobre novembre e dicembre) si è superata l’anomalia di +2 °C rispetto al periodo pre-industriale, con due mesi (luglio e ottobre) con anomalia superiori a +3 °C.

Spicca inoltre l’incredibile valore di +3,76 °C rilevato in ottobre.


Tabella 3 – Anomalie di temperatura media sul territorio italiano in tutti i mesi del 2023 secondo NOAA/NCEP. I valori sono espressi in °C rispetto periodo preindustriale.

 

Verso nuovi record

A compendio di questa breve analisi, che di anno in anno tende a diventare ripetitiva, in quanto spesso le situazioni si ripetono e le conclusioni tendono a diventare un copia/incolla delle precedenti, debbo ammettere di aver azzeccato la previsione fatta sia un anno fa, sia due anni fa. Riprendo qui di seguito, evidenziandola in grassetto, la frase dell’anno scorso: “Mi sento, pertanto, di confermare la previsione fatta l’anno scorso, riguardo al record dell’anomalia di temperatura globale: a meno di eventi imprevedibili  è quasi sicuro che entro il periodo 2031-33 cadrà il record del 2016, in occasione di una nuova fase forte di El Niño. Confermo anche che tale record cadrà alcuni anni prima, già entro il 2026, proprio per via del trend in continuo aumento, che quindi – essendo già trascorso un certo tempo dal 2016 – renderà possibile un record anche con una fase di El Niño non eccessivamente intensa”.

Peccato che non abbia scommesso… ma va anche detto che, se fossi un centro di scommesse, avrei dato a pochissimo la mia scommessa, in quanto si trattava di un fatto estremamente probabile (extremely likely, come sarebbe riportato sui rapporti IPCC).

A questo punto, rilancio la scommessa. Ritengo molto probabile un nuovo record entro i prossimi dieci anni. E tutto questo contribuisce a farci capire che la strada per rispettare l’Accordo di Parigi è durissima, e non permette altri ritardi nelle azioni.

 

Testo di Claudio Cassardo

 

 

]]>
https://www.climalteranti.it/2024/01/05/senza-sorprese-nel-2023-nuovo-record-delle-temperature-globali-in-italia-e-il-secondo-anno-piu-caldo/feed/ 8
La COP28 di Dubai e il “transitioning away” dai combustibili fossili https://www.climalteranti.it/2023/12/29/la_cop28_di_dubai/ https://www.climalteranti.it/2023/12/29/la_cop28_di_dubai/#comments Fri, 29 Dec 2023 17:31:44 +0000 https://www.climalteranti.it/?p=12323 La COP di Dubai ha visto l’approvazione di numerosi documenti, fra cui quello relativo al primo Global Stocktake. Oltre alla novità dell’introduzione in un documento ufficiale delle COP del riferimento all’abbandono dei combustibili fossili, non mancano i riferimenti alle valutazioni dell’IPCC e dell’IEA. Come e quando sarà possibile capire se è solo retorica o se è un passo importante nella lotta al riscaldamento globale?

 

La COP28 di Dubai, terminata il 13 dicembre 2023, ha visto l’approvazione di 34 decisioni su diversi temi “storici” del negoziato (adattamento, loss and damage), ma la decisione principale– che ha ritardato la conclusione dei lavori – è quella relativa al documento “Matters relating to the global stocktake under the Paris Agreement”. Si tratta del risultato della Global stocktake (bilancio globale) in cui, come abbiamo spiegato in un precedente post, si riconosce in modo chiaro l’insufficienza di quanto fatto finora a livello internazionale, degli impegni degli NDC (Nationally Determined Contribution), e del divario tra questi impegni e le politiche effettivamente messe in atto.

Numerose sono le analisi ben fatte sui risultati della COP28, a cui rimandiamo per gli approfondimenti, ad esempio dell’IISD (29 pagine!) o di Carbon Brief (147.000 caratteri!) o dell’Italian Climate Network (in italiano).Da queste analisi emerge non solo la complessità del negoziato, ma quanto siano semplicistiche (e sbagliate) le conclusioni secondo cui alla COP28 (come nelle precedenti) non si sia combinato niente, non ci siano stati risultati concreti, non sia stato altro che un fallimento (l’ennesimo).

 

Nessuna COP salva il pianeta

Come abbiamo già avuto modo di scrivere su Climalteranti, il negoziato sul clima è un processo lento, e, proprio per come è stato pensato e approvato l’Accordo di Parigi, non può essere una singola conferenza a risolvere la crisi climatica. Chi – ogni anno – si aspetta una COP che “salva il pianeta” non potrà che restare deluso.

Il lavoro della Global Stocktake aveva il compito di arrivare ad una narrativa comune e condivisa sul passato. La decisione della COP su questo tema segna quindi – senza tentennamenti – la condivisione dell’analisi impietosa del documento prodotto dal Segretariato UNFCCC (si veda il post precedente), che mostra l’insufficienza di quanto fatto fino ad oggi sui tre temi cardine dell’azione multilaterale sul clima: mitigazione (riduzione delle emissioni e potenziamento degli assorbimenti), adattamento (riduzione degli impatti inevitabili), impegni finanziari (per mitigazione e adattamento).

Una prima cosa da notare è che pur se quanto sino ad oggi fatto sia sicuramente insufficiente, qualcosa è stato fatto: le emissioni negli ultimi dieci anni sono cresciute meno di quanto previsto in passato dagli scenari “business as usual”; molti stati importanti (non solo Unione Europea e Stati Uniti) hanno ridotto in modo significativo le loro emissioni. L’Agenzia Internazionale per l’Energia, tradizionalmente timida nelle previsioni sullo sviluppo delle energie rinnovabili, ritiene molto probabile un picco delle emissioni di CO2 in questo decennio.

Anche se ovviamente non si può avere la certezza di uno scenario controfattuale, è difficile sostenere che questo sarebbe successo senza la spinta della Convenzione sul clima, del Protocollo di Kyoto, dell’Accordo di Parigi e delle centinaia di decisioni prese in 30 anni di negoziato sul clima.

 

Il ciclo degli NDC alla base dell’Accordo di Parigi

Non era alla COP28 che dovevano attendersi nuovi impegni da parte dei diversi Stati. Secondo il “racket mechanism” alla base dell’Accordo di Parigi, il rilancio degli impegni (ogni volta più ambiziosi) deve avvenire ogni 5 anni. Dopo il 2015 e il 2020 (e 2021 causa Covid-19) i prossimi NDC dovranno essere presentati entro marzo 2025. E dovranno contenere impegni relativi al 2035.

Nell’attesa, un compito della COP28 era quello di preparare il terreno per i rilanci degli NDC. Da subito il punto caldo è stata la richiesta di superare uno dei punti deboli dell’Accordo di Parigi, ovvero l’assenza di riferimenti espliciti alla necessità di abbandonare l’uso dei combustibili fossili.Il dibattito su questo tema è ruotato inizialmente intorno alla proposta di inserire nel testo un riferimento al loro “phase out”. Dopo una bozza debole che ha suscitato proteste, il documento proposto dalla Presidenza della COP, ed approvato, utilizza il termine “transitioning away” dai combustibili fossili. Difficile trovare differenze sostanziali fra “phase out” e “transitioning away”: entrambi i termini indicano una riduzione graduale che arriva all’eliminazione.

Questo passaggio è riportato nel punto 28 della decisione, che contiene 8 commi, di cui riportiamo la traduzione:

  1. [La COP] riconosce inoltre la necessità di riduzioni profonde, rapide e durature delle emissioni di gas serra in linea con i percorsi che limitano il riscaldamento globale a 1,5 °C e invita le parti a contribuire, in modo determinato a livello nazionale, tenendo conto dell’accordo di Parigi e delle differenze nelle situazioni, nei percorsi e negli approcci delle diverse Parti, ai seguenti sforzi globali:

(a) Triplicare la capacità di energia rinnovabile a livello globale e raddoppiare la media globale del tasso annuo di miglioramento dell’efficienza energetica entro il 2030;

(b) Accelerare gli sforzi verso l’eliminazione graduale dell’energia prodotta dal carbone senza sistemi di abbattimento delle emissioni di CO2 [sistemi di cattura e stoccaggio CO2, ndr].

(c) Accelerare gli sforzi a livello globale verso sistemi energetici a zero emissioni nette, utilizzando combustibili a zero e a basso contenuto di carbonio ben prima o intorno alla metà del secolo;

(d) Abbandonare [transitioning away, ndr] i combustibili fossili nei sistemi energetici, in modo giusto, ordinato ed equo, accelerando l’azione in questo decennio critico, in modo da raggiungere lo zero netto entro il 2050, in linea con la scienza;

(e) Accelerare le tecnologie a zero e a basse emissioni, tra cui, tra l’altro, energie rinnovabili, nucleare, tecnologie di abbattimento e rimozione come la cattura del carbonio e utilizzo e stoccaggio, in particolare nei settori con emissioni difficili da abbattere [es. cemento, acciaio, ndr] e produzione di idrogeno con basse emissioni di carbonio;

(f) Ridurre sostanzialmente le emissioni [di gas climalteranti] diverse dal biossido di carbonio a livello globale, comprese in particolare le emissioni di metano entro il 2030;

(g) Accelerare la riduzione delle emissioni derivanti dal trasporto stradale lungo una serie di percorsi, anche attraverso lo sviluppo di infrastrutture e la rapida diffusione di veicoli a zero e a basse emissioni;

(h) Eliminare gradualmente gli inefficienti sussidi ai combustibili fossili che non affrontano la povertà energetica, nel più breve tempo possibile.

 

COP28 IPCC AR6 Future climate change, risks, and Long termresponses
Global renewables power capacity
Da notare che l’invito a “deep, rapid, and sustained reductions in greenhouse gas emissions” è preso alla lettera da quanto il Sommario per i decisori politici del Synthesis report del Sesto Rapporto IPCC ha indicato come necessario per arrivare ad un cambiamento nella composizione atmosferica (entro pochi anni) e al rallentamento percepibile del riscaldamento globale (entro circa due decenni).

Inoltre, gli inviti riferiti al 2030 (triplicare la capacità di energia rinnovabile e raddoppiare il tasso annuo di miglioramento dell’efficienza energetica, ridurre sostanzialmente le emissioni di metano) coincidono con quanto indicato dall’Agenzia internazionale per l’energia come necessario per perseguire lo scenario 1,5 °C nel recente aggiornamento del rapporto “Net Zero Roadmap” (si veda la figura 3.1 a pag. 108).

 

Quali alternative all’UNFCCC?

Alla fine, la COP28 ha quindi prodotto più o meno quanto doveva produrre. Certo poteva fare meglio, come tutte le COP, nessuna esclusa. Ma non era scontato che questi riferimenti espliciti agli scenari di riduzione indicati dall’IPCC (che è citato 12 volte nel testo approvato) e dall’IEA come necessari per tener viva la possibilità di raggiungere l’obiettivo di 1,5°C, nonché la storica decisione di menzionare la fine dei combustibili fossili, arrivassero in una COP presieduta dal ministro di un paese la cui economia è basata sui combustibili fossili, a capo di una delle maggiori compagnie petrolifere mondiali.

Solo dopo il prossimo ciclo di NDC si potrà dire quanto le indicazioni della COP28 saranno inutile retorica negoziale, o se avranno portato risultati. Non è comunque realistico aspettarsi che tutti i Paesi rilancino i loro impegni in modo sostanziale, mettendoci già nel 2025 in perfetta linea con gli obiettivi dell’Accordo di Parigi. Per cui inevitabilmente continueranno ad esserci le voci che descrivono l’azione multilaterale del negoziato UNFCCC come inutile se non dannosa. Critiche legittime, che però neppure provano a proporre alternative.

Alla fine, vien da pensare che il negoziato UNFCCC sia un po’ come la democrazia, che venne definita da Churchill come “la peggior forma di governo, eccezion fatta per tutte quelle altre forme che si sono sperimentate finora”.

 

 

Testo di Stefano Caserini, con contributi di Valentino Piana, Mario Grosso e Vittorio Marletto

]]>
https://www.climalteranti.it/2023/12/29/la_cop28_di_dubai/feed/ 10
Perché è dannoso esagerare il ruolo delle foreste nella crisi climatica https://www.climalteranti.it/2023/12/17/perche-e-dannoso-esagerare-il-ruolo-delle-foreste-nella-crisi-climatica/ https://www.climalteranti.it/2023/12/17/perche-e-dannoso-esagerare-il-ruolo-delle-foreste-nella-crisi-climatica/#comments Sun, 17 Dec 2023 21:31:56 +0000 https://www.climalteranti.it/?p=12307 Una delle soluzioni alla crisi climatica più frequentemente citate è l’aumento della superficie forestale – anzi, semplicemente “piantare alberi”. Una soluzione con molti benefici e apparentemente nessuna controindicazione, che piace a chiunque, e che instilla una visione positiva del futuro. Eppure, una riforestazione dall’efficacia climatica erroneamente amplificata potrebbe facilmente trasformarsi in inerzia o alibi nel ridurre le emissioni e uscire il prima possibile dalle fonti fossili.

 

La proposta di avvalersi del contributo potenziale al contenimento della CO2 in atmosfera di piantagioni massive di alberi non è nuova. Già alla fine degli anni ’70 del secolo scorso, Freeman J. Dyson propose un programma mondiale di piantagione di emergenza come risposta temporanea all’aumento dei livelli di anidride carbonica nell’atmosfera, in linea con un numero crescente di scienziati del clima dell’epoca. Dyson prevedeva che la piantagione massiva di alberi a rapido accrescimento potesse essere utilizzata come una “banca del carbonio” in modo da accompagnare la transizione energetica dai combustibili fossili alle energie rinnovabili.

 

Gli alberi inoltre svolgono un importante contributo all’adattamento, tramite la schermatura e l’ombreggiamento al suolo, l’effetto termoregolatore dell’evapotraspirazione, il contributo alla formazione delle nubi mediante il rilascio di composti organici volatili, la modifica dell’albedo superficiale e l’effetto “frenante “ di chiome e radici nei confronti del deflusso superficiale e dell’instabilità dei versanti.

 

Tuttavia, piantare un numero significativo di alberi ha alcuni ostacoli tecnici che è necessario affrontare:

  • la disponibilità di una superficie di terreno abbastanza fertile e sufficientemente estesa;
  • una produzione vivaistica adeguata a produrre le piantine necessarie (ma ad oggi largamente insufficiente);
  • una disponibilità finanziaria sufficiente, non solo per produrre e mettere a dimora le piante, ma anche per gestirne le cure colturali almeno nei primi 3-5 anni;
  • garantire che gli alberi sopravvivano, scegliendo solo quelli compatibili con clima e suolo locale, e scongiurare gli impatti negativi sulla biodiversità, evitando di utilizzare monocolture o specie esotiche invasive;
  • nelle strategie di afforestazione è di estrema importanza scegliere il posto giusto e, per ogni area disponibile, l’albero in grado di soddisfare al meglio i benefici attesi riducendo al minimo (o a zero) gli impatti negativi che potrebbe determinare.

 

Un’efficacia sovrastimata

Ma soprattutto, la reale efficacia climatica di un piano di afforestazione globale è stata enormemente sovrastimata. Su Climalteranti abbiamo già spiegato nel precedente post “Le foreste ci salveranno?” come, pur se piantare alberi nelle città e mantenere e gestire sostenibilmente le foreste esistenti abbia molti vantaggi, questo non sia sufficiente per affrontare la crisi climatica. Ancora oggi sentiamo invece affermazioni prive di fondamento, che esagerano il ruolo delle foreste e dell’espansione del verde in città: un verde utilissimo sotto il profilo dell’adattamento climatico, ma molto meno determinante sul bilancio del carbonio globale.

Alcuni ricercatori, come Stefano Mancuso, professore di Arboricoltura generale e coltivazioni arboree all’Università di Firenze, suggeriscono che piantare “mille miliardi di alberi” potrebbe permetterci di guadagnare 60 anni nella lotta al riscaldamento globale, “una finestra fondamentale per convertire il nostro modo di vivere”. A volte gli anni guadagnati diventano 70 o un secolo. Nei titoli di queste interviste si sostiene addirittura che “Le piante ci salveranno dal riscaldamento globale”. In altre parole, anziché dedicarci alla faticosa attività di rapida e drastica decarbonizzazione del sistema energetico (ricordata dallo stesso Mancuso in altre interviste, purtroppo meno citate dai media), rischiamo di restare affascinati dalla visione salvifica di tantissimi alberi che ci permetterebbero di prendere tempo o addirittura di fare per noi tutto il lavoro necessario. Questa tesi, pur dettata dall’amore per le piante e per la natura, non ha basi nella letteratura scientifica, ed è facilmente confutabile.

 

1000 miliardi… in quanto tempo?

Il numero “magico” di 1000 miliardi di alberi, che ha avuto un indubbio successo mediatico, deriva da uno degli articoli più “chiacchierati” degli ultimi anni in fatto di foreste, The global tree restoration potential, pubblicato dal team di Thomas Crowther del Politecnico di Zurigo nell’estate 2019. Utilizzando dati satellitari accoppiati a una fitta rete di aree di monitoraggio forestali in campo, il team di Crowther aveva stimato in 900 milioni di ettari – un’area grande quanto gli USA – la superficie della Terra attualmente priva di foreste che potrebbe essere potenzialmente interessata da interventi di ripristino forestale (escludendo le aree agricole e urbane). Moltiplicando questa superficie per il numero di alberi che si trovano in media nelle foreste del pianeta, ecco spuntare il “triliardo di alberi da piantare”, a cui si sono subito appassionati anche l’ONU, il World Economic Forum e il G20, oltre a innumerevoli testate giornalistiche e aziende energetiche bisognose di ripulire la propria immagine. Il beneficio climatico di queste nuove foreste veniva calcolato dallo studio moltiplicando gli ettari afforestati per la quantità media di carbonio a ettaro per i principali biomi forestali terrestri, ricavata dai coefficienti IPCC “Tier I”. Risultato: questa misura sarebbe stata in grado di assorbire 750 miliardi di tonnellate di CO2 dall’atmosfera, o “i due terzi del carbonio in eccesso presente in atmosfera” (una frase così riformulata, dopo che gli autori avevano erroneamente affermato “i due terzi del carbonio antropogenico emesso dalla rivoluzione industriale” fino a oggi, che in realtà è circa il doppio).

Copertura forestale potenziale nelle aree disponibili per l’afforestazione, al netto della copertura arborea esistente e delle aree agricole e urbane. Questo “potenziale globale di riforestazione”  rappresenta un’area totale di copertura delle chiome di 0.9 miliardi di ettari (da Bastin et al. 2019).

 

La proposta di piantare mille miliardi di alberi a scala planetaria nasce da alcune considerazioni, la cui base ecologica è robusta, ma alcuni aspetti vanno valutati con attenzione. Fino a circa due secoli fa esistevano 5.000 miliardi di alberi sul Pianeta, oggi se ne stimano 3.000. Piantare 1.000 miliardi di alberi significherebbe ripiantare “solo” la metà di quelli che abbiamo perso. Ma l’efficacia climatica di questa strategia è meno impressionante di quanto sembri. Anzitutto, è espressa in un’unità di misura insolita, dal momento che emissioni e assorbimenti di carbonio si esprimono normalmente in (miliardi di) tonnellate all’anno, cioè rispetto a un’unità di tempo. Non è ben chiaro invece quanto tempo impiegherebbero ad assorbire quel carbonio gli alberi di Crowther, che nel paper si limita a un vago “at maturity”. Si potrebbe obiettare che le soluzioni climatiche, specialmente quelle che dovrebbero “farci guadagnare tempo”, non possono permettersi un tempo di attesa di diversi decenni prima di diventare pienamente operative. Ma anche la stima di 750 miliardi di tonnellate di CO2 era in realtà affetta da diversi problemi di calcolo ed errori ecologici, tanto da essere definita “pericolosamente fuorviante” e dare luogo a una decina di articoli di replica, lettere e richieste di correzione, pubblicate sia da Science che da altre riviste scientifiche del settore (un caso senza precedenti).

 

Alcuni errori metodologici

Un primo errore risiede nel supporre che tutti gli alberi piantati sopravvivano e che siano efficienti nel sequestro di carbonio, senza tener conto che gli impatti della crisi climatica potrebbero ridurne il potenziale di crescita a causa di stress da siccità, incendi o altri eventi di disturbo. Un’eventualità che si è già concretizzata purtroppo in molte campagne nazionali e internazionali di piantagione di alberi, presentate in pompa magna dai soggetti politici o economici che le hanno promosse ma trasformatesi in clamorosi fallimenti a causa della insufficiente cura dedicata ai giovani alberi piantati di fronte alle pressioni climatiche e della siccità.

Le strategie di regolazione del clima basate sul ripristino delle foreste potrebbero comportare un aumento del rischio di incendi, soprattutto in condizioni più secche e calde in vaste regioni d’Europa, con un impatto sul clima, sull’ambiente e sulla salute umana. Opzioni più intelligenti dal punto di vista climatico, come il ripristino delle zone umide o il recupero dei pascoli, che forniscono benefici simili per il clima ma sviluppano anche un paesaggio meno infiammabile, sono un’opzione più adatta per queste regioni in Europa e altrove che si trovano ad affrontare sfide simili (da Hermoso et al. 2021).

 

Inoltre, gli autori hanno calcolato lo stoccaggio previsto basandosi su coefficienti medi globali di densità di carbonio forniti dall’IPCC, ignorando però che gli ecosistemi che dovranno ospitare i nuovi alberi stoccano già oggi una certa quantità di carbonio, soprattutto nel suolo, e che quindi il “nuovo” stoccaggio andrebbe conteggiato come differenza tra quello di una foresta e quello dell’uso del suolo attuale. Infine, calcoli come questi ignorano che le foreste non influiscono sul clima solo mediante l’assorbimento di anidride carbonica, ma anche mediante effetti di natura biofisica come la regolazione delle precipitazioni, l’emissione di sostanze volatili che svolgono il ruolo di precursori delle nuvole, e soprattutto il cambiamento di albedo (o riflettività) della superficie terrestre. Proprio quest’ultimo è ritenuto l’effetto di maggiore entità; uno studio recente indica che l’afforestazione, se effettuata in modo da far diminuire l’albedo (come avverrebbe alle alte latitudini) può arrivare a ridurre di circa la metà i benefici climatici prodotti dell’assorbimento di carbonio a scala globale.

 

Quali aree?

Infine, lo studio ha sicuramente individuato aree attualmente libere da alberi, ma non ha spiegato di che tipo di aree si tratti. Non è chiaro se si tratti di aree di pascolo per gli animali, non realmente libere per la loro trasformazione in boschi; se si tratta di zone con una biodiversità da preservare legata a un ecosistema non forestale (savane, zone umide); né chi siano le comunità e le consuetudini in queste aree. Al ritmo attuale di crescita della popolazione terrestre, è molto probabile che il bisogno di suolo libero da alberi nei prossimi anni non solo non potrà diminuire, ma sarà superiore a quello attuale. È altamente improbabile che sia possibile rinunciare a circa 1 miliardo di ettari di suolo, più o meno fertili, a vantaggio di 1.000 miliardi di alberi, senza determinare gravi conflitti sociali, economici ed ecologici. Questo aspetto è fondamentale sotto il profilo etico, poiché ogni Stato dovrebbe produrre una volontà politica così forte da annullare, in brevissimo tempo, i diritti delle comunità e gli interessi degli eventuali proprietari su quelle stesse aree – un’azione tale da essere definita da Indigenous Environmental Network “una nuova forma di colonialismo”.

 

Una strategia rischiosa

La riforestazione è certamente parte del mix di soluzioni da mettere in atto per mitigare la crisi climatica. Tuttavia, fare troppo affidamento sulle rimozioni di carbonio, forestali o di altra natura, ci espone a molti rischi: che gli assorbimenti non raggiungano i livelli previsti in futuro; che manchino impegni per portare la rimozione di CO2 ai livelli necessari; e che nel frattempo la CO2 rimossa ritorni nell’atmosfera, aggravando gli impatti sociali, economici e ambientali della crisi climatica e spostando il peso di recuperare le emissioni in eccesso dall’atmosfera sulle generazioni future. Per questo uno studio recente ritiene che un largo affidamento sulla rimozione della CO2 non sia in linea con gli impegni dei Paesi di fornire contributi “giusti” e “ambiziosi” all’obiettivo net-zero, e potrebbe esporre i paesi che ne fanno tale uso a violazioni delle norme e dei principi del diritto internazionale. Le negoziazioni della recente COP28 hanno rispecchiato questi timori, con i Paesi che hanno preferito rimandare all’anno prossimo ogni accordo sullo scambio internazionale di crediti di carbonio.

 

Inoltre, promuovere la piantagione di alberi quale panacea in grado, da sola, di risolvere la crisi climatica o azzerare l’impatto personale, aziendale o nazionale, può indurre la mistificazione di abbandonare ulteriori azioni di contrasto, mitigazione e adattamento, meno comode in prospettiva socioeconomica e comportamentale, ma più durature e urgenti da intraprendere. Lo stesso Crowther, commettendo un macroscopico errore di comunicazione, definì piantare alberi “la migliore soluzione esistente al cambiamento climatico” – una frase in grado di giustificare “scientificamente” un’ondata di greenwashing senza precedenti da parte di governi e imprese del settore fossile.

Contributo delle soluzioni climatiche naturali economicamente vantaggiose (NCS) alla stabilizzazione del riscaldamento al di sotto dei 2°C.La linea grigia rappresenta le emissioni storiche di CO2 di origine antropica fino al 2016, la linea nera una traiettoria di emissioni business as usual (RCP 8.5), la linea verde la traiettoria delle emissioni nette necessaria per una probabilità >66% di mantenere il riscaldamento globale al di sotto dei 2 °C. Le NCS economicamente vantaggiose offrono il 37% della mitigazione necessaria fino al 2030, il 29% al 2030, il 20% fino al 2050 e il 9% fino al 2100 (da Griscom et al. 2017).

 

In seguito alle critiche l’articolo venne parzialmente emendato, l’ONU chiarì che il triliardo di alberi era da “proteggere e far crescere”, non solamente da “piantare”, e Crowther sparì dalle scene scientifiche per qualche anno (pur restando alla ribalta del mondo corporate delle compensazioni climatiche) per poi cercare di riabilitarsi con un profondo mea culpa.

 

Eppure, ancora oggi – forse soprattutto in Italia – c’è chi può parlare ancora di piantare un triliardo di alberi, come se il dibattito non avesse mai avuto luogo; e grandi aziende emettitrici possono continuare a promettere compensazioni mirabolanti con programmi di piantagione di alberi che, se assommati insieme, coprirebbero in teoria  1.6 miliardi di ettari globali, un territorio superiore a quello globalmente utilizzato dall’agricoltura, come dimostrato da un recente rapporto di Oxfam. Per tutti questi motivi, lo standard più elevato di certificazione volontaria net zero per aziende, lo Science based target initiative, non accetta come strategia di compensazione l’impianto di nuovi alberi e foreste.

 

Il ridimensionamento nelle stime più recenti

Più recenti studi globali (qui, qui e qui) hanno invece stimato un potenziale di assorbimento “extra” di 0.9 – 3.0 miliardi di tonnellate di CO2 equivalente all’anno da parte di un programma di rimboschimento globale, cioè il 2-8% delle emissioni annue dovute all’uso di combustibili fossili ai livelli odierni. Lo stesso ordine di grandezza è riportato dalla sintesi dell’ultimo rapporto di valutazione dell’IPCC (vedasi “Ecosystem restoration, afforestation, reforestation” qui). È evidente come piantare alberi non sia l’unica soluzione climatica sufficiente, senza una riduzione sostanziale delle emissioni climalteranti alla fonte. E anche in questo caso, il carbonio immagazzinato dagli alberi dovrebbe essere conteggiato non come un assorbimento definitivo, ma potenzialmente non permanente. Secondo uno studio della Concordia University di Montreal pubblicato nel 2023, una tonnellata di CO2 emessa in atmosfera dovrebbe essere compensata non con una, ma con 30-130 tonnellate di CO2 assorbita in modo temporaneo dagli alberi.

 

Infine, anche il Crowther Lab ha recentemente rivisto le sue stime in modo più realistico. In uno studio pubblicato su Nature , che abbiamo raccontato nel precedente post, Crowther e colleghi hanno calcolato che le strategie di afforestazione su aree non a uso forestale, urbano o agricolo avrebbero un potenziale di stoccaggio di 334 Gt di CO2 (il 50% in meno della loro stima precedente), a cui sono da sommare altre 510 Gt ottenibili conservando o ripristinando aree forestali degradate o comunque utilizzate dall’uomo per usi economici (usi che comunque non potrebbero, né forse dovrebbero, scomparire all’istante). Inoltre, in questa stima non sono incluse le emissioni da incendi, che sarebbe possibile prevenire almeno in parte mediante azioni di prevenzione – di carattere non solo culturale, ma anche basate su una gestione forestale “climaticamente intelligente”.

 

Una soluzione costosa

Dobbiamo considerare infine anche che, tra le soluzioni nature based, la riforestazione è quella più costosa in termini di euro per tonnellata di carbonio assorbita. Stimando prudenzialmente un costo medio compreso tra 3 e 5 dollari a pianta, ci sarebbe bisogno di destinare alla piantagione di 1.000 miliardi di alberi un budget compreso tra 3.000 e 5.000 miliardi di dollari – una cifra 30-50 volte superiore a quella che i Paesi del mondo hanno faticosamente raggranellato dopo 8 anni di promesse come contributo al fondo di solidarietà climatica internazionale alla fine del 2023.

Stima del potenziale di mitigazione delle strategie di soluzione climatica naturale economicamente vantaggiose (meno di 100 dollari per tonnellata di CO2) in America Latina, Africa e Asia. Sebbene tutte le opzioni abbiano effetti positivi, la protezione delle foreste, delle torbiere e delle mangrovie ha un potenziale di mitigazione del clima doppio rispetto alla riforestazione (da Griscom et al. 2020).

 

Una lezione per la comunicazione

Anche la lezione comunicativa è stata imparata: gli autori mettono in guardia dal fare troppo affidamento sulle foreste per raggiungere gli obiettivi climatici, poiché gli assorbimenti forestali potrebbero diminuire e anche trasformarsi in fonti nette di CO2 entro la fine di questo secolo a causa dei crescenti impatti della crisi climatica e degli eventi estremi ad essa collegati (come siccità e incendi). La futura evoluzione degli assorbimenti forestali in risposta ai cambiamenti climatici e alla gestione delle foreste è tuttora materia di intenso dibattito scientifico; i limiti di resilienza degli ecosistemi forestali sono ancora in parte ignoti, e la scienza produce continui aggiornamenti sulla previsione della capacità fotosintetica degli ecosistemi e dei complessi fattori fisiologici e ambientali che la regolano (ad esempio qui) – ragione di più per adottare un approccio precauzionale e non commettere l’errore di sovrastimare il possibile contributo delle foreste nel prossimo futuro.

 

 

Testo di Giorgio Vacchiano, con contributi di Stefano Caserini, Giacomo Grassi, Mario Grosso.

]]>
https://www.climalteranti.it/2023/12/17/perche-e-dannoso-esagerare-il-ruolo-delle-foreste-nella-crisi-climatica/feed/ 10
Net-zero, carbon budget e foreste: guida per non perdersi tra gli alberi https://www.climalteranti.it/2023/11/26/net-zero-carbon-budget-e-foreste-guida-per-non-perdersi-tra-gli-alberi/ https://www.climalteranti.it/2023/11/26/net-zero-carbon-budget-e-foreste-guida-per-non-perdersi-tra-gli-alberi/#comments Sun, 26 Nov 2023 20:30:56 +0000 https://www.climalteranti.it/?p=12285 Sempre più si sente parlare di net-zero, di carbon budget, e del contributo delle foreste: questo post aiuta a capire alcuni concetti basilari per le politiche sul clima

 

Secondo l’IPCC, per limitare l’aumento di temperatura globale a 1.5 oC, oppure ben al di sotto dei 2oC rispetto all’epoca preindustriale, occorre giungere a emissioni di CO2 antropogeniche nette pari a zero (net-zero CO2), con forti riduzioni delle emissioni degli altri gas serra. Anche lo stesso accordo di Parigi prevede che per raggiungere questi obiettivi di contenimento delle temperature globali si debba raggiungere un equilibrio tra le fonti di emissioni e l’assorbimento di gas a effetto serra di origine antropica, indicando nell’articolo 4 che questo dovrà avvenire nella seconda metà di questo secolo, “su una base di equità, e nel contesto dello sviluppo sostenibile e degli sforzi tesi a sradicare la povertà”.

Il modo in cui questo equilibrio viene interpretato, raggiunto e mantenuto influenza il risultato, ossia l’aumento della temperatura globale. Alcune delle questioni da chiarire influenzano le scelte sulle politiche da intraprendere e la modalità della loro attuazione.

Tra gli aspetti da interpretare vi è la modalità di stima dell’assorbimento di CO2 da parte delle foreste. Diverse interpretazioni, ad esempio tra i modelli globali e gli inventari nazionali di gas serra, possono influenzare alcune informazioni necessarie per le politiche climatiche, ad esempio quanto sia il “carbon budget” residuo, come sarà spiegato in seguito.

Questo post illustra uno studio recente che aiuta a posizionare correttamente gli assorbimenti di CO2 delle foreste in una mappa verso gli obiettivi climatici di Parigi che tutti possono leggere. A tal fine, lo studio propone un linguaggio comune tra i modelli globali e gli inventari nazionali di gas serra. Senza questo linguaggio comune, i paesi apparirebbero collettivamente in una posizione migliore di quanto non siano in realtà.

 

Net-zero

Come mostrato dall’immagine sotto, basata sulla figura 2 del cross-chapter box 8, capitolo 12 del sesto Rapporto IPCC-WG3, non tutte le emissioni antropogeniche (CO2 e non-CO2) si potranno azzerare. Net-zero significa che tali emissioni residue (ad esempio, da settori come l’agricoltura, l’industria pesante, l’aviazione) dovranno essere bilanciate da una quantità equivalente di assorbimenti di CO2 tramite sistemi di carbon dioxide removals (CDR). Se al momento i CDR sono quasi esclusivamente dovuti agli assorbimenti di CO2 dal settore “Uso del suolo” (soprattutto le foreste), in futuro si prevede che si aggiungano altri mezzi tecnologici, come la cattura e lo stoccaggio del carbonio applicata alla bioenergia (BECCS), la cattura diretta e stoccaggio della CO2 dell’aria (DACSS), il dilavamento accelerato delle rocce (enhanced weathering) o l’alcalinizzazione del mare (si veda la review del capitolo 12 del sesto Rapporto IPCC-WG3).

Rappresentazione schematica del percorso di emissioni future per raggiungere emissioni nette pari a zero, basata sulla figura 2 del cross-chapter box 8, capitolo 12 del sesto Rapporto IPCC-WG3. I tempi del net-zero dipendono dall’obiettivo di temperatura: ad esempio, secondo l’IPCC, il net-zero per la CO2 si dovrà raggiungere entro circa il 2050 per stare al di sotto di 1.5oC, ed entro circa il 2070 per i 2oC. Per gli altri gas serra, è necessaria una forte riduzione.

 

Carbon budget residuo

Un altro concetto fondamentale è quello del “carbon budget residuo”, ovvero la quantità totale di CO2 che possiamo ancora immettere in atmosfera prima di raggiungere una determinata temperatura, con una certa probabilità e tenendo conto dell’effetto di altri forzanti climatiche di origine antropica. Concettualmente, è l’area in rosso che sottende la traiettoria delle emissioni nette di CO2 nella figura sopra.

Questo concetto si basa su una conclusione chiave a cui è giunta la scienza del clima: nonostante l’enorme complessità del sistema climatico, fatto di una molteplicità di forzanti e feedback, esiste una relazione sostanzialmente lineare tra CO2 accumulata in atmosfera e riscaldamento globale (si veda la figura a fianco, tratta da IPCC-AR6-WG1). Questa relazione è stata osservata empiricamente per il passato ed è prevista dai modelli per il prossimo futuro (vedasi qui).

L’IPCC stima che la CO2 cumulata che possiamo ancora emettere, dall’anno 2020 in poi, sia pari a circa 500 GtCO2 per restare entro 1.5oC e circa 1350 GtCO2 per restare entro 2oC (con il 50% di probabilità). Studi recenti, tenendo conto della CO2 emessa tra il 2020 e il 2022 (circa 40 GtCO2 all’anno), dell’aggiornamento dei modelli e di altri fattori, riducono questo budget a partire dal 2023 a circa 250 GtCO2 per restare entro 1.5oC, e a 1200 GtCO2 per i 2oC.

 

Come contare il ruolo delle foreste per capire a che punto siamo

Che l’assorbimento antropogenico di CO2 nel settore Uso del suolo (soprattutto foreste) rappresenti un contributo necessario per raggiungere il net-zero è assodato, sebbene sia chiaramente non sufficiente. Qui però la vicenda si fa complicata: negli ultimi anni, alcuni studi (qui e qui) hanno evidenziato un’enorme divario nelle stime globali di CO2 antropogenica emessa o assorbita dalle foreste e altri usi del suolo, a seconda che per stimarla si utilizzino i modelli globali considerati dall’IPCC AR6 oppure gli inventari nazionali dei gas serra utilizzati per valutare i progressi rispetto agli obiettivi dell’Accordo di Parigi.

Questo divario, pari a circa 6 Gt CO2/anno a livello globale (15% di tutte le emissioni antropogeniche di CO2), riflette principalmente diversi approcci per separare la componente  “antropogenica” da quella “naturale” nei flussi di CO2 dalle foreste. Secondo i modelli, la componente antropogenica include il cambio d’uso del suolo e le operazioni selvicolturali (taglio e ricrescita), mentre quella naturale è dominata dall’effetto fertilizzante dell’aumento della CO2 atmosferica, che in assenza di altri fattori limitanti (come acqua o azoto) influenza positivamente la crescita delle piante. Dato che la crescita delle foreste fa parte delle dinamiche naturali degli ecosistemi, la separazione tra queste due componenti è impossibile attraverso le misure dirette impiegate dagli inventari nazionali dei gas serra (ad esempio la crescita annua della biomassa forestale), come spiegato qui. Per ovviare a questa difficoltà, gli inventari nazionali considerano di origine antropogenica tutto l’assorbimento (e l’emissione) che si verifica in aree forestali classificabili come “gestite” in base alle leggi o alle caratteristiche di ciascun Paese, includendo inevitabilmente in questa stima parte dell’assorbimento di CO2 che i modelli globali considerano invece come naturale.

In altre parole, sugli assorbimenti di CO2 da parte delle foreste, ci sono due gruppi di persone (modellisti globali e responsabili degli inventari dei paesi) che parlano lingue diverse, e rischiano di non capirsi.

Questa differenza ha implicazioni rilevanti per la valutazione dei progressi collettivi sul clima, prevista alla COP28 attraverso il global stocktake, come riconosciuto sia dall’IPCC (footnote 40, IPCC Synthesis Report, SPM) che dai documenti preparatori del global stocktake (Synthesis report for the technical assessment component of the first global stocktake, paragrafi 32 e 33) – si veda il post precedente.

Sebbene nessuno dei due approcci – modelli globali e inventari nazionali – sia migliore dell’altro, quello che occorre evitare è confrontarli: sarebbe un confronto fuorviante, come tra mele e pere, che porterebbe a un doppio conteggio e quindi a conclusioni sbagliate.

 

Sistemati i conti, il carbon budget è minore

Un nuovo articolo, pubblicato su Nature, fa ulteriori passi avanti verso un confronto coerente dei flussi di CO2 legati all’Uso del suolo tra modelli globali e i dati nazionali. Lo studio, spiegato in modo semplificato qui, allinea le traiettorie delle emissioni globali che i modelli considerano compatibili con gli obiettivi di Parigi (linee verdi nella figura sotto) con l’approccio usato dagli inventari nazionali (linee rosse). In altre parole, la definizione di “assorbimento antropogenico di CO2” dei modelli viene resa compatibile con quella degli inventari, includendo nei conti gli assorbimenti dovuti all’effetto di fertilizzazione da CO2 nelle foreste che i paesi considerano gestite. Quando questo aggiustamento viene combinato con le emissioni degli altri settori, il carbon budget residuo si riduce del 15-18% e la data per il net-zero anticipa fino a 5 anni rispetto ai valori indicati nell’ultimo rapporto IPCC (circa 500 GtCO2 per restare entro 1.5oC dal 2020 in poi). Questo aggiustamento non modifica l’entità di decarbonizzazione necessaria negli altri settori: quello che cambia è la nostra percezione di dove siamo rispetto agli obiettivi dell’accordo di Parigi. In assenza di tale aggiustamento, i paesi sembrerebbero collettivamente in una posizione migliore di quanto non siano in realtà.


Confronto fra le traiettorie delle emissioni globali dal settore e Uso del suolo e foreste che i modelli considerano compatibili con gli obiettivi di Parigi (linee verdi) e le traiettorie delle stesse emissioni adattate all’approccio usato dagli inventari dei paesi (linee rosse). La figura mostra come considerare questo secondo approccio abbassa il livello di emissioni nette (e quindi il carbon budget residuo), in particolare nel breve periodo, perché aggiunge un assorbimento di CO2 che i paesi considerano “antropogenico”.  

 

Da questo studio derivano una serie di raccomandazioni per i paesi e la comunità scientifica. I paesi dovrebbero aumentare la trasparenza nel contributo previsto dal settore Uso del suolo verso gli obiettivi climatici nazionali. La comunità scientifica dovrebbe concordare, assieme ai paesi, un sistema di “traduzione simultanea” tra i due approcci usati per stimare gli assorbimenti antropogenici di CO2 dalle foreste, e incorporalo in futuri rapporti dell’IPCC.

 

Nel contesto della necessità imperativa di drastici tagli alle emissioni in questo decennio per rimanere entro i limiti dell’accordo di Parigi, lo studio di Nature fornisce informazioni utili per misurare i progressi climatici durante il global stocktake, e per aiutare i paesi ad elaborare nuovi impegni climatici compatibili con gli obiettivi di Parigi.

Tutte le strade per Parigi passano attraverso le foreste. Questo studio aiuta a non perdersi tra gli alberi.

 

Testo di Giacomo Grassi con contributi di Stefano Caserini, Anna Pirani, Giorgio Vacchiano, Mario Grosso, Marina Vitullo e Vittorio Marletto

]]>
https://www.climalteranti.it/2023/11/26/net-zero-carbon-budget-e-foreste-guida-per-non-perdersi-tra-gli-alberi/feed/ 1
Global Stocktake 2023: gli impegni climatici nazionali sono ancora insufficienti https://www.climalteranti.it/2023/11/18/global-stocktake-2023-gli-impegni-climatici-nazionali-sono-ancora-insufficienti/ https://www.climalteranti.it/2023/11/18/global-stocktake-2023-gli-impegni-climatici-nazionali-sono-ancora-insufficienti/#comments Sat, 18 Nov 2023 22:46:41 +0000 https://www.climalteranti.it/?p=12257

Com’è noto l’Accordo di Parigi prevede di limitare l’aumento della temperatura globale ben al di sotto dei 2 °C, preferibilmente entro 1,5 °C. La principale autorità scientifica mondiale in materia di cambiamenti climatici, il Gruppo intergovernativo di esperti sul cambiamento climatico (IPCC), ha dichiarato nel suo ultimo rapporto che, per restare in linea con gli obiettivi di 1,5 °C, le emissioni globali di gas serra dovranno iniziare a diminuire tra il 2020 e il 2025 fino a dimezzarsi entro il 2030, e raggiungere le zero emissioni nette  intorno al 2050. Per i 2 °C, l’obiettivo di neutralità emissiva (emissioni nette di gas serra pari a zero) è invece situato intorno al 2070.

 

L’attuazione dell’accordo si basa sui cosiddetti NDC (Nationally Determined Contributions, contributi o impegni determinati a livello nazionale): dopo un primo round di impegni presi tra il  2015 e il 2016, il secondo round di NDC nel periodo 2020-2021 ha portato ad un rilancio degli obiettivi di riduzione delle emissioni.

Questa è la prima conclusione del rapporto appena diffuso dal Segretariato della Convenzione Quadro sui Cambiamenti Climatici (UNFCCC), che ha passato in rassegna gli impegni climatici dei paesi contenuti negli NDC trasmessi dai paesi che nel complesso rappresentano il 95% del totale delle emissioni globali nel 2019.

Intervallo previsto dei livelli di emissione in base ai contributi determinati a livello nazionale (fonte: UNFCCC, 2023 figura 2)

 

Uno degli elementi chiave dell’Accordo di Parigi è il meccanismo di valutazione quinquennale dei progressi collettivi verso il raggiungimento degli obiettivi dell’Accordo, che prende il nome di Global Stocktake (bilancio globale, GST). Il GST prende in esame la mitigazione, l’adattamento e i mezzi di attuazione e sostegno finanziario, “alla luce dell’equità e della migliore scienza disponibile”. Insomma, si valuta dove siamo, a livello globale, rispetto a dove dovremmo essere.

 

Il primo GST si concluderà alla COP28, prendendo in considerazione:

  1. lo stato delle emissioni e degli assorbimenti di gas serra sulla base degli inventari nazionali;
  2. l’effetto complessivo degli NDC presentati e dei progressi compiuti verso la loro attuazione;
  3. lo stato delle azioni di adattamento;
  4. i flussi finanziari e le modalità di attuazione, comprese le informazioni relative al supporto finanziario (e tecnologico) fornito e ricevuto.

 
In tale contesto, il citato rapporto del Segretariato UNFCCC conferma che, sebbene si registrino passi in avanti rispetto a pochi anni fa, le azioni di mitigazione climatica rimangono insufficienti per raggiungere gli obiettivi dell’Accordo di Parigi.

 

In particolare, tenendo conto dell’attuazione degli NDC ma senza ulteriori azioni, le emissioni globali di gas serra nel 2030 saranno dell’8,8% superiori al livello del 2010 e del 2% inferiori al livello del 2019. Si registra un lieve miglioramento, cioè un calo delle emissioni globali, rispetto a quelle calcolate nella versione precedente di questo rapporto (che dava rispettivamente +10,6% e -0,3%). Il livello di emissioni di gas serra entro il 2030 (figura seguente), stimato sulla base degli NDC, è di 51,6 Gt CO2eq, senza tener conto degli usi del suolo e delle foreste (settore Land Use, Land-Use Change and Forestry, LULUCF) (barra verticale rossa), e sale a 53,7 Gt CO2eq tenendone conto. È da notare che, per il settore LULUCF, il rapporto usa i dati dei modelli globali e non quelli degli inventari nazionali, una scelta delicata che riflette un tema complesso, sul quale torneremo in un futuro post.

 

Nel complesso, risulta evidente che gli impegni presi con gli attuali NDC non sono compatibili con le riduzioni previste negli scenari IPCC relativi ad un aumento di temperatura entro 1,5 °C e 2 °C (mostrate nella tabella SPM.1 del Synthesis Report del Sesto Rapporto IPCC).

Confronto fra gli scenari valutati nel Sesto rapporto di valutazione del Gruppo intergovernativo sui cambiamenti climatici (IPCC) con le emissioni globali totali previste in base ai contributi determinati a livello nazionale (fonte: UNFCCC, 2023 figura 8)

 

Sulla base delle informazioni disponibili, si stima quindi che l’aumento della temperatura a fine secolo potrebbe ricadere tra 2,1 e 2,8 °C; tale stima può collocarsi tra 2,1 e 2,3 °C se si suppone la piena attuazione degli NDC, compresi tutti gli elementi condizionali, intorno ai quali c’è notevole incertezza.

Per restare al di sotto di 1,5 °C di riscaldamento rispetto al livello degli anni 1850-1900, si stima che l’umanità non possa emettere più di altri 500 Gt di CO2 dal 2020 in poi. Le emissioni cumulative nel decennio 2020-2030 basate sugli ultimi NDC disponibili utilizzerebbero probabilmente l’87% di questo budget di carbonio. Ciò lascerebbe per i periodi successivi al 2030 soltanto circa 70 (60-80) Gt di CO2, che però equivalgono a soli due anni di emissioni globali totali di CO2 previste entro il 2030.

Allo stesso modo, nel contesto del bilancio del carbonio coerente con una probabilità del 67% di mantenere il riscaldamento sotto i 2 °C (stimata da IPCC in 1.150 Gt di CO2 dal 2020 in poi), le emissioni cumulative di CO2 nel 2020-2030, sulla base degli ultimi NDC, probabilmente utilizzerebbero il 38% del budget di carbonio rimanente (v. figura 9). In confronto, secondo le stime dell’IPCC, le emissioni storiche globali totali di CO2 fino al 2020 ammontano a 2.390 (2.150–2.630) Gt di CO2.

 

Budget di carbonio per obiettivi a 1,5 e 2 °C di incremento delle temperature globali (fonte: UNFCCC, 2023 figura 9)

 

Il citato rapporto del Segretariato UNFCCC fornisce dunque una fonte di dati essenziale per il GST.

Le conclusioni previste per il GST, ovvero che collettivamente gli impegni degli Stati non sono in linea con la riduzione delle emissioni necessaria a raggiungere gli obiettivi di Parigi, non sono nuove, in quanto sono già state delineate in numerosi articoli scientifici, nell’analisi del Carbon Action Tracker, e riassunte nell’ultimo rapporto IPCC (punto A.4 del Synthesis report: “Global GHG emissions in 2030 implied by nationally determined contributions (NDCs) announced by October 2021 make it likely that warming will exceed 1.5°C during the 21st century and make it harder to limit warming below 2°C”). La differenza è che ora a dirlo non sono gli scienziati, ma gli stessi Stati che sono Parti della Convenzione UNFCCC. L’adozione di queste conclusioni da parte della COP28 sarà uno strumento di pressione affinché gli Stati prendano in considerazione questo “gap” nella preparazione di impegni climatici più ambiziosi, entro il 2025. E altresì affinché mettano in campo le azioni legislative necessarie per l’implementazione degli impegni stessi.

 

 

Testo di Marina Vitullo, con il contributo di Stefano Caserini, Giacomo Grassi e Vittorio Marletto

]]>
https://www.climalteranti.it/2023/11/18/global-stocktake-2023-gli-impegni-climatici-nazionali-sono-ancora-insufficienti/feed/ 6
La presidente di Arpa Lombardia e il clima del Mesozoico https://www.climalteranti.it/2023/11/06/la-presidente-di-arpa-lombardia-e-il-clima-del-mesozoico/ https://www.climalteranti.it/2023/11/06/la-presidente-di-arpa-lombardia-e-il-clima-del-mesozoico/#comments Mon, 06 Nov 2023 15:20:12 +0000 https://www.climalteranti.it/?p=12235 Ha suscitato un po’ di clamore il caso della Presidente di Arpa Lombardia, Lucia Lo Palo, che in un’intervista su una web tv ha dichiaratoIo non credo che il cambiamento climatico sia frutto dell’uomo” perché “l’Italia è una regione che è hot spot, essendo un hot spot il cambiamento è in corso, ma è una cosa che è in corso da varie ere geologiche, noi attraversiamo il cambiamento climatico da molto tempo, da sempre, da quando la Terra esiste” (si ascolta dopo 8’15’’).

Sono argomentazioni già sentite: la tesi secondo cui “il clima è sempre cambiato” è usata molto frequentemente da chi non può più negare che sia in corso un cambiamento. Tuttavia, mentre di solito si citano a sproposito il riscaldamento del medioevo, l’optimum del periodo romano o le presunte calde temperature di migliaia di anni fa, Annibale, la Groenlandia-terra-verde, spesso col supporto di grafici privi di fondamento scientifico, il riferimento alle ere geologiche è insolito.

L’attuale era geologica, il Cenozoico, è iniziata 66 milioni di anni fa, quando non esistevano non solo gli umani ma neppure i mammiferi che conosciamo, e i continenti non avevano ancora raggiunto l’attuale posizione.

 

Quindi, le variazioni del clima nelle centinaia di milioni di anni relativi alle ere geologiche precedenti (Mesozoico, Paleozoico) poco hanno a che fare con il rapido cambiamento climatico dell’ultimo secolo che, come scritto nell’ultimo rapporto IPCC, “ha una velocità senza precedenti negli ultimi 2000 anni”.

E’ facile capire come proprio le attuali, rapidissime, variazioni climatiche, abbiano invece una grande importanza per gli otto miliardi di individui appartenenti alla specie Homo sapiens, cioè tutti noi, che prima di circa trecentomila anni fa, semplicemente non popolavamo ancora questo pianeta.

La frase della neo-Presidente di Arpa Lombardia,“noi attraversiamo il cambiamento climatico da molto tempo, da sempre, da quando la Terra esistepresupporrebbe che, quando si è formata la Terra, o nelle ere geologiche immediatamente successive, la specie Homo sapiens fosse già esistente.

Tale grave errore sulla conoscenza della storia dell’evoluzione umana sarebbe difficile da credere, persino da parte di chi ritiene che le attività umane non influenzino il clima del pianeta o che la frana disastrosa del Vajont sia stata provocata da un terremoto.

 

Il punto è che la presidente di Arpa Lombardia non mostra di disporre di alcuna competenza sulla materia climatica. Ha infatti un diploma in materie linguistiche e uno o due anni di studi universitari di filosofia (poi abbandonati); pertanto non ha nemmeno il titolo di studio che viene richiesto per l’assunzione dei funzionari nell’ente che presiede. Stride quindi la leggerezza con cui esprime sue opinioni personali (“io credo che…”), del tutto in contrasto con quanto l’intera comunità scientifica degli esperti del settore, e anche Arpa Lombardia, da anni sostiene. Sul canale YouTube di Arpa Lombardia è infatti presente un recente video sul cambiamento climatico che sostiene con chiarezza quanto il ruolo dei fattori naturali sia poco rilevante rispetto alle cause antropiche, cioè all’aumento dei gas climalteranti prodotti dall’uomo.

 

Infine, desta un po’ di preoccupazione che la Presidente di Arpa Lombardia ritenga che “Arpa Lombardia dal 2012 organizza corsi per combattere l’eco-ansia”. Viene da pensare che voglia in futuro combattere l’eco-ansia, generata dalla comprensione della gravità della situazione climatica e degli scenari che si prospettano per il futuro, con la negazione della conoscenza delle cause che determinano la crisi climatica.

Ci associamo quindi alla richiesta, già avanzata in altre sedi, che la presidenza di Arpa Lombardia sia occupata da chi ha più competenze e interesse per la tematica del cambiamento climatico.

 

Il Comitato Scientifico di Climalteranti

]]>
https://www.climalteranti.it/2023/11/06/la-presidente-di-arpa-lombardia-e-il-clima-del-mesozoico/feed/ 28
La scienza del clima vintage – e sbagliata – di Franco Prodi https://www.climalteranti.it/2023/10/16/la-scienza-del-clima-vintage-e-sbagliata-di-franco-prodi/ https://www.climalteranti.it/2023/10/16/la-scienza-del-clima-vintage-e-sbagliata-di-franco-prodi/#comments Mon, 16 Oct 2023 09:20:42 +0000 https://www.climalteranti.it/?p=12199 Fra chi nega in modo ostinato la responsabilità delle attività umane sulle variazioni climatiche e i pericoli legati alle variazioni future, il prof. Franco Prodi è quello considerato più autorevole dal punto di vista scientifico. Forse perché ex professore di fisica dell’atmosfera, ex direttore della  l’Istituto di Scienze dell’Atmosfera e del Clima (ISAC) del CNR, Prodi è considerato un esperto del problema del cambiamento climatico.

Come abbiamo già avuto modo di segnalare, in realtà Prodi scrive e afferma cose palesemente sbagliate sulla scienza del clima (si veda qui, qui e qui). Negli ultimi anni Prodi si è isolato dai colleghi e dalle istituzioni scientifiche per le quali ha lavorato (vedasi qui), e il suo discorso è ulteriormente peggiorato, diventando più sbagliato, confuso e spesso arrogante.

Con tutta la simpatia che Prodi può suscitare per un pubblico non specialistico, per via del fare bonario e della parlata emiliana, le sue sono presentazioni di un dinosauro. Dal punto di vista scientifico è come se fosse stato ibernato negli ultimi 20-30 anni, e sia ora riemerso inconsapevole di cosa sia successo negli ultimi decenni di scienza del clima. Solo così si può spiegare che, nel 2023, Prodi mostri un andamento delle temperature globali che si ferma all’anno 2000 (23 anni fa!); e che citi un tasso di riscaldamento di 0.7°C per secolo, mentre il tasso di riscaldamento nell’ultimo secolo è del 50% superiore (1,1 °C/secolo) e il trend di riscaldamento degli ultimi 60 anni è del 260% superiore, 1,8°C/secolo.

Per parlare del riscaldamento degli ultimi 1000 anni, Prodi utilizza un grafico qualitativo pubblicato 33 anni fa, nel 1990 (a sinistra nella figura seguente). Ignorando le decine e decine di studi successivi (ad esempio, qui), basati su dati più completi e analisi più approfondite, e che mostrano un andamento quantitativo molto diverso (a destra, dall’ultimo rapporto IPCC).

A qualunque esperto del settore, i grafici obsoleti usati da Franco Prodi suscitano un brivido vintage, e un notevole imbarazzo.

Forse nel 2000 i suoi argomenti potevano in parte andare bene. A quel tempo si poteva dire che c’era molta incertezza sul ruolo delle nubi sul clima del pianeta o sulla capacità dei modelli di rappresentate le variabili chiave del sistema climatico. Da allora, la quantità di dati e studi disponibili è aumentata enormemente, ma Prodi sembra proprio non essersene accorto. Da allora, migliaia di scienziati e tutte le istituzioni internazionali in materia si sono confrontati su ipotesi, teorie e dati, giungendo alla conclusione che il bilancio delle evidenze è schiacciante: l’attuale riscaldamento globale è inequivocabilmente causato dalle emissioni di gas serra umane, soprattutto CO2. Non c’è solo una solida base di fisica teorica: ci sono evidenze multiple dirette, empiriche, quelle che gli scienziati chiamano impronte digitali, cioè prove inconfutabili che associano certe evidenze a cause specifiche. Per citarne alcune: la stratosfera che si raffredda, più calore re-irradiato verso la Terra e meno verso lo spazio (nello spettro di assorbimento dei gas serra), notti che in media si scaldano più del giorno, variazioni isotopiche del carbonio in atmosfera. Tutti esempi spiegabili solo dalle emissioni di gas serra di origine umana, e incompatibili con altre possibili cause (il Sole, ad esempio). Non solo c’è la pistola fumante con le impronte digitali della CO2 antropica, ma tutte le ipotesi alternative che sono state legittimamente avanzate sono state scartate per l’assenza di dati a supporto. Invece, Prodi continua a ripetere che ci sono ancora troppe incertezze, che “i modelli sono nella loro infanzia” – seppur siano ormai passati oltre 50 anni dai primi modelli climatici pubblicati dal Nobel Syukuro Manabe – e che quindi le proiezioni climatiche non hanno valore. Spiace notare come negli ultimi tempi il prof. Prodi abbia anche mostrato una certa arroganza. In una trasmissione televisiva ha affermato “io sono l’esperto, l’unico autorizzato, con le credenziali…l’unico libero docente in meteorologia vivente… parlo solo con chi ha le mie credenziali… non voglio parlare con chi non ha la mia competenza il cambiamento climatico dipende dal Sole, dall’astronomia, dall’effetto gravitazionale degli altri pianeti…” (qui dopo 1’55”).

Anche trascurando il fatto che l’esame di abilitazione alla libera docenza è stato soppresso nel 1970, e sono vivi e vegeti numerosi docenti universitari di meteorologia, se si vanno a guardare le credenziali, l’elenco delle pubblicazioni scientifiche di Franco Prodi, l’arroganza di queste affermazioni non è motivata. Secondo il database Scopus, le 126 pubblicazioni di cui è autore, hanno avuto un numero modesto di citazioni (1638). L’h-index è di 23, considerabile di media importanza se si considera uno scienziato a fine carriera. A titolo di esempio, uno dei principali esperti italiani di modelli climatici, Filippo Giorgi, ha 360 pubblicazioni, con 38596 citazioni, e un h-index di 103.

Ma la cosa più importante è che nelle pubblicazioni di Prodi (elenco riportato in appendice) non si trovano ricerche specifiche sull’evoluzione del clima e le sue cause, o sulle proiezioni del riscaldamento futuro. L’unica eccezione è il recente articolo “A critical assessment of extreme events trends in times of global warming”, che dopo essere stato ampiamente propagandato dai media negazionisti sul clima è stato  ritirato dalla rivista che l’aveva pubblicato perché contenente conclusioni non supportate dall’evidenza scientifica o dai dati presenti nell’articolo. Una figuraccia a livello internazionale.

Conclusione: se uno entra in autostrada e vede che tutti gli altri vanno in senso contrario al suo, prima di dire pubblicamente che tutti gli altri hanno torto, che c’è un complotto, o anche solo che il traffico è un affare troppo complesso per decidere la direzione giusta da seguire, beh, dovrebbe informarsi meglio; e mostrarsi meno arrogante nel voler indicare agli altri la corsia giusta.

 

Testo di Stefano Caserini e Giacomo Grassi, con il contributo di Sylvie Coyaud e Stefano Tibaldi

 

Appendice: Le pubblicazioni con autore Franco Prodi nel database Scopus.com

  • Retraction Note: A critical assessment of extreme events trends in times of global warming
  • Estimation of water vapor vertical distribution over the sea from Meteosat and SSM/I observations
  • Multisensor analysis of Friuli flood event (October 5-7, 1998)
  • A critical assessment of extreme events trends in times of global warming
  • Polarimetric Doppler radar analysis of squall line systems crossing Salento Peninsula
  • Ice crystal precipitation at Dome C site (East Antarctica)
  • Air filtration and antimicrobial capabilities of electrospun PLA/PHB containing ionic liquid
  • Microwave active sensors and river basin hydrology
  • Phoretic forces on aerosol particles surrounding an evaporating droplet in microgravity conditions
  • Rain drop size distribution over the Tibetan Plateau
  • Observation of macroscopic aerosol motion due to thermal creep on chamber walls at low Knudsen number in microgravity
  • Ice-forming nuclei in Antarctica: New and past measurements
  • The mystery of ice crystal multiplication in a laboratory experiment
  • Numerical scattering simulations for interpreting simultaneous observations of clouds by a W-band spaceborne and a C-band ground radar
  • Atmospheric aerosol scavenging processes and the role of thermo- and diffusio-phoretic forces
  • Effects of altitude on maximum raindrop size and fall velocity as limited by collisional breakup
  • Comparison between two different nanoparticle size spectrometers
  • Comments on paper: Effects of gas species on pressure dependence of thermophoretic velocity
  • Characterisation of PM2.5 concentrations and turbulent fluxes on a island of the Venice lagoon using high temporal resolution measurements
  • Raindrop Size Distribution and Soil Erosion
  • Earth’s climate as a problem in physics
  • Aerosol size distribution at Nansen Ice Sheet Antarctica
  • Comparative investigation of Pludix disdrometer capability as Present Weather Sensor (PWS) during the Wasserkuppe campaign
  • Real-time aerosol photometer and optical particle counter comparison
  • Atmospheric particles acting as Ice Forming Nuclei in different size ranges
  • Deposition velocity of ultrafine particles measured with the Eddy-Correlation Method over the Nansen Ice Sheet (Antarctica)
  • An evaluation of the PM2.5 trace elemental composition in the Venice Lagoon area and an analysis of the possible sources
  • Atmospheric particles acting as ice forming nuclei in different size ranges and cloud condensation nuclei measurements
  • Aerosol fine fraction in the Venice Lagoon: Particle composition and sources
  • Contemporary ground-based and satellite precipitating system characterization for desertification studies in Southern Italy
  • On the combined use of satellite multispectral and radar polarimetric measurements to infer cloud microphysics
  • Precipitation classification at mid-latitudes in terms of drop size distribution parameters
  • Chemical composition and shape of snow crystals in Antarctica
  • Pahs and trace elements in PM2.5 at the Venice lagoon
  • A study on cut-off low vertical structure and precipitation in the Mediterranean region
  • 3D effects in microwave radiative transport inside precipitating clouds: Modeling and applications
  • Measurements of thermophoretic velocities of aerosol particles in microgravity conditions in different carrier gases
  • Comparison between Pludix and impact/optical disdrometers during rainfall measurement campaigns
  • Digital holography for observing aerosol particles undergoing Brownian motion in microgravity conditions
  • Measurements of phoretic velocities of aerosol particles in microgravity conditions
  • Measurements of atmospheric aerosol in the Salentum Peninsula and its correlation with local meteorology
  • Analysis of the moments and parameters of a gamma DSD to infer precipitation properties: A convective stratiform discrimination algorithm
  • Terminal settling velocity measurements of volcanic ash during the 2002-2003 Etna eruption by an X-band microwave rain gauge disdrometer
  • Thermophoretic measurements in presence of thermal stress convection in aerosols in microgravity conditions of drop tower
  • Ices in the universe: Answers from microgravity
  • Precipitation estimation: From the rao to eurainsat and beyond
  • Physics and chemistry of icy particles in the universe: Answers from microgravity
  • Cloud systems leading to flood events in Europe: An overview and classification
  • Chemical characterization of cloud episodes at a ridge site in Tuscan Appennines, Italy
  • Experimental measurements on thermophoresis in the transition region
  • Measurements of diffusiophoretic velocities of aerosol particles in the transition region
  • Analysis of polarization radar returns from ice clouds
  • Radar and scattering parameters through falling hydrometeors with axisymmetric shapes
  • Measurements of natural precipitation with 35 GHz scatterometer and corresponding simulations
  • Radar calibration of physical profile-based precipitation retrieval from passive microwave sensors
  • Time variability in rainfal events observed by Pludix
  • Satellite multi-frequency observations of severe convective systems in the Mediterranean
  • Radar parameters simulation for populations of spherical and non-spherical hydrometeors: Dependence on size distributions, shapes and composition
  • Requirements for low density riming and two stage growth on atmospheric particles
  • Radar parameters calculations for G distribution of cloud particles in single scattering approximation
  • Integrated multi-sensor approach to rainfall rate estimate optimisation
  • Rainfall estimation by combining radar and infrared satellite data for nowcasting purposes
  • Scavenging of SO2 and NH3 during growth of ice
  • SO2 oxidation in supercooled droplets in the presence of O2
  • Acta Meteorologica Sinica, 1998, 12(3), pp. 382–384
  • Determination of ionic concentration in ice during frosts in coastal sites
  • Oxidation of sulphur dioxide in water droplets in the presence of ammonia
  • Ballistic accretion on a point seed
  • Backscattering gain measurements of spherical ice hydrometeors at 35.8 GHz and comparison to numerical computations
  • Investigating a SSM/I microwave algorithm to calibrate Meteosat infrared instantaneous rain rate estimates
  • Scavenging of gases during growth of ice crystals
  • A numerical sensitivity study on the backscattering at 35.8 GHz from precipitation-sized hydrometeors
  • Scavenging of SO2 and HCl during growth of ice crystals by vapour diffusion
  • 2-D and 3-D modelling of low density ice accretion on rotating wires with variable surface irregularities
  • Stochastic models of ice accretion
  • Comments on ‘The density of natural ice accretions related to non-dimensional icing parameters’
  • Optical characterization of size separated aerosol particles of different composition and morphology with a polar nephelometer
  • Further experiments on SO2 oxidation rate in monodisperse droplets grown on carbon nuclei in presence of O2 and NO2
  • Backscattering of ice hydrometeors at 35 GHz: Laboratory measurements and numerical computations
  • Performance and testing of a 35 GHz scatterometer for laboratory measurements on hydrometeors
  • Aerosol particle characterization during PACEX
  • Ballistic accretion on seeds of different sizes
  • Dry deposition measurements of aerosol particles in a corn field
  • Characteristics of atmospheric particles (airborne and in snowpack)at Khumbu glacier in the Nepalese Himalayas (EV-K2-CNR project)
  • Morphology and density of ice accreted on cylindrical collectors at low values of impaction parameter. II: Rotating depositsxs
  • Morphology and density of ice accreted on cylindrical collectors at low values of impaction parameter. I: Fixed deposits
  • Operational rainfall estimation using Meteosat infrared imagery: an application in Italy’s Arno River Basin – its potential and drawbacks
  • SO2 oxidation in monodisperse droplets grown on carbon nuclei in presence of NO2
  • Measurements of optical characteristics of dilute suspensions and dry deposits of clay particles with a polar nephelometer
  • Three-dimensional single Doppler radar analysis of an occluded front
  • Absorption of sulfur dioxide on monodisperse water droplets and catalytic activity of carbon particles
  • Atmospheric effects of the El Chichon volcanic eruption observed by a multiwavelength sun-photometer, 1982-1985
  • Problems in the measurement of thermophoretic velocities of aerosol particles
  • Proceedings of the 2nd international conference, Cesena, October 1987
  • Laboratory hail studies
  • Density and surface structure of ice accretions.
  • Problems in the measurement of thermophoretic velocities of aerosol particles.
  • Some Issues on Radar Imaging
  • Ice accretions on fixed cylinders
  • Properties of ice accreted in two-stage growth
  • The density of accreted ice
  • Generation of high concentration monodisperse water aerosols.
  • Topics in cloud physics relevant to radar meteorology.
  • Measurements of atmospheric turbidity from a network of sun-photometers in Italy during the alpex programme
  • Measurements of atmospheric turbidity from a network of sun-photometers in Italy during ALPEX
  • Scavenging of submicron particles in mixed clouds: physical mechanisms – laboratory experiments.
  • Multiwavelength sun-photometers for accurate measurements of atmospheric extinction in the visible and near-ir spectral range
  • Characterization of aerosols in marine environments ( Mediterranean, Red Sea, and Indian Ocean).
  • Effects of growth temperatures and surface roughness on crystal orientation of ice accreted in a dry regime.
  • Sahara dust program-I. The italian network of sun-photometers. extinction models based on multimodal particle size distributions
  • Characterization of the particulate emission by a large oil fuel fired power plant
  • Sahara dust program – 1. The italian network of sun-photometers: extinction models based on multimodal particle size distributions.
  • Particulate matter emission by an oil fired power plant and its measured relevance at ground level.
  • Characterization of the particulate emission by a large oil-fired power plant
  • Aerosol characterization in a po valley site.
  • The removal of particulate matter from the atmosphere: the physical mechanisms
  • A study of the effect of size on ice nucleation in the aerodynamic range of particles.
  • Crystal size and orientation in ice grown by droplet accretion in wet and spongy regimes.
  • Measurements of atmospheric turbidity and vertical mass loading of particulate matter in marine environments ( Red Sea, Indian Ocean, and Somalian coast).
  • Inertial capture of particles by obstacles in form of disks and stellar crystals
  • Effects of the growth mode upon the crystal orientation in artificial and natural hailstones.
  • Hyperfine bubble structures in ice grown by droplet accretion.
  • A case of transport and deposition of saharan dust over the italian peninsula and southern europe.
  • Measurements of thermophoretic velocities of aerosol particles in the transition region
  • Transport and deposition of Saharan dust over the Alps ( Plan Rosa).
  • A new radiometer for atmospheric long waves

 

]]>
https://www.climalteranti.it/2023/10/16/la-scienza-del-clima-vintage-e-sbagliata-di-franco-prodi/feed/ 29
Senza precedenti https://www.climalteranti.it/2023/08/28/senza-precedenti/ https://www.climalteranti.it/2023/08/28/senza-precedenti/#comments Mon, 28 Aug 2023 14:54:29 +0000 https://www.climalteranti.it/?p=12181 fig SPM1aNel rigurgito di negazionismo climatico che si è visto sui media italiani nel luglio-agosto 2023, peraltro mesi caratterizzati dalla continua caduta di record meteo-climatici, l’argomento più utilizzato è che le attuali variazioni nelle temperature e nelle precipitazioni intense non sarebbero anomale, rientrerebbero in cicli naturali. “Il clima è sempre cambiato”, hanno scritto e detto giornalisti, opinionisti e politici, “in estate ha sempre fatto caldo”.

La conseguenza che si vorrebbe far derivare da questa (errata) tesi è che la crisi climatica non esisterebbe, o non sarebbe importante, e quindi le ambiziose politiche sul clima decise a livello europeo non sarebbero necessarie.

Ad esempio, Marcello Veneziani ha ricordato che nella sua infanzia, prima che ci fosse l’emergenza climatica, faceva molto caldo, da cui l’ironia “che strano, eppure allora non c’era il surriscaldamento del pianeta”. Giuliano Ferrara, ha sostenuto di aver veduto e toccato “una certa regolarità dei fenomeni, una loro naturale, ripetitiva, monotona autonomia dalla mano umana, dal sistema economico e sociale e ambientale”, incappando quindi nella sfortunata previsione “a metà agosto l’aria comincerà a rinfrescarsi”. Il Ministro delle infrastrutture dei trasporti ha dichiarato “D’inverno fa freddo; d’estate caldo… quando vai sull’Adamello e sul Tonale e vedi i ghiacciai che si ritirano anno dopo anno ti fermi a pensare, poi studi la storia e vedi che sono cicli”. Tutti interventi accomunati da due caratteristiche: da un lato la volontà di fare gli spiritosi, con la frase ad effetto e la battuta piaciona; dall’altro evitare accuratamente ogni citazione o riferimento a qualche straccio di dato, a supporto delle proprie affermazioni.

Invece, gli ultimi 20 anni della scienza del clima hanno mostrato in modo chiarissimo ed inequivocabile come nel sistema climatico del pianeta Terra stiano accadendo variazioni che non hanno precedenti da molti secoli e molti millenni. Ossia da quando esiste la civiltà umana, come la conosciamo. Come abbiamo già mostrato in altri post (ad esempio qui , qui e qui )

L’esame delle centinaia di migliaia di articoli scientifici è certo troppo impegnativo (anche se la ricerca con i termini “unprecedented” e “climate” su google scholar fornisce risultati molto interessanti), ma si può fare rifermento alla sintesi fatta dagli autori dell’ultimo Rapporto di valutazione IPCC, il sesto, pubblicato fra il 2021 e il 2023.

La presenza di cambiamenti insoliti è spiegata in tanti modi diversi, ma se per semplicità si fa riferimento alla presenza del termine “senza precedenti” (“unprecedented” nella lingua anglosassone), questo termine compare 169 volte nelle 2400 pagine del rapporto del Primo Gruppo di Lavoro dell’ IPCC (quello incentrato sulle basi fisiche della scienza del clima)

Il termine “senza precedenti” compare 17 volte nel Sommario Tecnico e 6 volte nel Sommario per i decisori politici, nelle frasi qui riportate.

  • Il Quinto Rapporto (AR5) ha valutato che molti dei cambiamenti osservati a partire dagli anni ’50 non hanno precedenti nell’arco di decenni o millenni. Le prove paleoclimatiche aggiornate dal Sesto Rapporto (AR6) rafforzano questa valutazione; negli ultimi decenni, gli indicatori chiave del sistema climatico mostrano in modo sempre più chiaro livelli mai visti da secoli o millenni, che stanno cambiando a tassi senza precedenti almeno negli ultimi 2000 anni.
  • Diverse linee di evidenza indicano che i recenti cambiamenti climatici su larga scala sono senza precedenti in un contesto di molte migliaia di anni e che rappresentano un impegno su scala millenaria per le componenti del sistema climatico che rispondono lentamente, con conseguente continua perdita di ghiaccio a livello mondiale, aumento del contenuto di calore degli oceani, innalzamento del livello del mare e acidificazione degli oceani profondi.
  • Negli ultimi 50 anni, la temperatura superficiale globale è aumentata a un ritmo osservato senza precedenti almeno negli ultimi duemila anni (confidenza elevata). È molto probabile che le temperature superficiali globali non abbiano precedenti negli ultimi 125.000 anni (Figura Box TS1).

Changes in temperatures

  • Le concentrazioni di CO2, metano (CH4) e protossido di azoto (N2O) sono aumentate a livelli senza precedenti da almeno 800.000 anni, e c’è un’elevata confidenza che le attuali concentrazioni di CO2 non siano state registrate da almeno 2 milioni di anni.
  • Con l’aumento del riscaldamento globale, alcuni eventi estremi molto rari e alcuni eventi “composti” (estremi che riguardano diverse variabili o concomitanti) caratterizzati da bassa probabilità nel clima passato e attuale diventeranno più frequenti, e c’è una maggiore probabilità che si verifichino eventi senza precedenti nel record osservativo (alta confidenza)
  • Gli eventi composti e gli estremi concomitanti contribuiscono ad aumentare la probabilità di esiti a bassa probabilità e ad alto impatto e diventeranno più frequenti con l’aumento del riscaldamento globale (confidenza alta). Livelli di riscaldamento più elevati aumentano la probabilità di eventi senza precedenti nei dati osservativi.
  • Le osservazioni, i modelli e le evidenze paleoclimatiche indicano che i cambiamenti negli oceani osservati di recente non hanno precedenti in un periodo passato che va da secoli a millenni (confidenza elevata).
  • Valori di pH dell’oceano superficiale così bassi come negli ultimi tempi sono insoliti per gli ultimi 2 milioni di anni (confidenza media). È molto probabile che gli attuali valori di pH superficiale degli oceani (parametro indicatore della loro acidità) siano abbiano senza precedenti da almeno 26.000 anni e che gli attuali tassi di variazione del pH siano senza precedenti almeno da quel periodo.
  • L’influenza umana è stata molto probabilmente la causa principale della riduzione del ghiaccio marino artico osservata a partire dalla fine degli anni Settanta (con una perdita di ghiaccio marino in tarda estate probabilmente senza precedenti da almeno 1000 anni) e del ritiro diffuso dei ghiacciai (senza precedenti almeno negli ultimi 2000 anni, confidenza media).
  • È molto probabile che, con poche eccezioni, i ghiacciai si siano ritirati dalla seconda metà del XIX secolo; questo comportamento è senza precedenti almeno negli ultimi 2000 anni (confidenza media).
  • L’influenza umana ha riscaldato il clima a un ritmo senza precedenti almeno negli ultimi 2000 anni

IPCC_AR6_WGI_Figure_2_34

  • La scala dei recenti cambiamenti nel sistema climatico nel suo complesso – e lo stato attuale di molti aspetti del sistema climatico – sono senza precedenti da molti secoli a molte migliaia di anni.
  • Il generalizzato ritiro dei ghiacciai di tutto il mondo a partire dagli anni Cinquanta, avvenuto in modo sincrono, è senza precedenti almeno negli ultimi 2000 anni.
  • Con un ulteriore riscaldamento globale, anche con un aumento della temperatura di 1,5 °C a fine secolo, si verificherà un aumento di alcuni eventi estremi senza precedenti nei dati osservativi. Le variazioni percentuali di frequenza previste sono maggiori per gli eventi più rari (alta confidenza).

In conclusione, il clima è sempre cambiato, ma, per usare una frase contenuta nel Sommario per decisori politici del WG1-AR6, “la portata dei recenti cambiamenti nel sistema climatico nel suo complesso e lo stato attuale di molti aspetti del sistema climatico non hanno precedenti nel corso di molti secoli o molte migliaia di anni”.

 

 

Testo di Stefano Caserini, con contributi di Elisa Palazzi e Mario Grosso

]]>
https://www.climalteranti.it/2023/08/28/senza-precedenti/feed/ 48
Come travisare quanto scrive l’IPCC https://www.climalteranti.it/2023/08/10/come-travisare-quanto-scrive-lipcc/ https://www.climalteranti.it/2023/08/10/come-travisare-quanto-scrive-lipcc/#comments Thu, 10 Aug 2023 21:55:29 +0000 https://www.climalteranti.it/?p=12151 Negli ultimi mesi, dopo l’alluvione in Emilia-Romagna, le temperature molto alte di inizio luglio  e la tempesta che ha sconvolto il milanese, si è parlato molto di cambiamento climatico nei mezzi di informazione. Si è incredibilmente visto un rigurgito del negazionismo climatico, con alcuni giornali (in particolare La Verità e Libero) impegnati in una vera e propria campagna di propaganda negazionista, come non si era mai visto. Pagine e pagine dedicate ad articoli zeppi di errori, falsità o assurdità, senza alcun riguardo per i dati e le informazioni che si sono accumulati in decenni di scienza del clima. Sono stati toccati tutti i temi classici del negazionismo climatico (niente sta cambiando / il clima è sempre cambiato / l’uomo non c’entra / non dobbiamo preoccuparci / fare qualcosa costa troppo / ormai è troppo tardi), classificati nella Figura 1 di Qualcuno Piace Caldo nel 2008 (Parte II) e oggetto di altri post.

Niente di nuovo sotto il sole, se non gli estremi di stupidità che hanno toccato alcuni articoli, su cui torneremo in altri post.

Vorremmo partire nell’analisi di questa ondata negazionista valutando i (pochi) argomenti scientifici che sono stati prodotti, articolati facendo riferimento a qualche fonte scientifica.

Una delle critiche più strutturate è arrivata dall’articolo di Francesco Ramella, pubblicato su Il Foglio del 27 luglio 2022, col titolo “Non si può attribuire al climate change ogni fenomeno avverso” (riprodotto tre giorni dopo su Start Magazine col titolo “Vi svelo le opposte bugie sul clima”, e qui leggibile interamente). L’articolo è stato citato da Antonio Socci su Libero del 6 agosto come prova che la situazione descritta dall’IPCC sul tema degli eventi estremi non sarebbe così grave.

Su Climalteranti abbiamo già parlato dell’inconsistenza delle tesi più ardite di Ramella sui temi della mobilità sostenibile, ma abbiamo steso un velo pietoso sui diversi scritti passati in cui ha proposto tesi negazioniste (si veda ad esempio “Effetto serra: siamo prudenti, stiamo a guardare” o “Ambiente: si stava peggio quando si stava peggio”), perché si trattava di un riciclaggio poco originale delle tesi decotte e dei grafici farlocchi proposte dalle lobby del negazionismo climatico d’oltreoceano. Da notare che Ramella non si vergogna di citare nel suo CV riportato sul sito dell’Università di Torino (dove è docente a contratto di Trasporti) un “working paper” del 2017 intitolato “Climate change: what we know, what we don’t know. What to do and what not to do” che contiene una quantità da record di errori e incomprensioni basilari della scienza del clima, con citazione di screditati negazionisti climatici finanziati dalle lobby del fossile.

Analizzare le tesi pubblicate nell’articolo sul Foglio è pero istruttivo di cosa deve fare oggi chi vuole travisare la scienza del clima.

 

Cosa scrive Ramella

Nell’inizio dell’articolo Ramella cerca di sostenere come non è vero che siano in corso eventi estremi senza precedenti perché “eventi del tutto paragonabili a quelli attuali sono già accaduti in passato”, e perché “per averne conferma è sufficiente consultare l’archivio di un qualsiasi quotidiano”. Mica male come rigore del metodo scientifico utilizzato! Altro che dedicare tempo a raccolta e analisi delle serie storiche di dati, elaborazioni statistiche  e confronti… basta consultare l’archivio di un qualsiasi quotidiano!

Dopo aver citato un po’ di titoli di quotidiani del passato, Ramella però ammette che “Il clima è sempre cambiato ma da centocinquanta anni le attività umane hanno aggiunto un ulteriore elemento di perturbazione. Che, ci dice l’IPCC, ha già avuto effetti in termini di aumento della temperatura media della Terra e di frequenza delle ondate di calore e di riduzione dei periodi di freddo anomalo.” Non è poco, visto quanto hanno scritto altri negli stessi giorni. Ma chi avrà pensato che Ramella abbia letto qualcosa dei rapporti IPCC, sarà portato a ricredersi già dalla frase successiva: “Ma contrariamente a quanto siamo abituati a leggere sui mezzi di informazione, è sempre l’IPCC a sostenere che vi è un “bassa confidenza” (equivalente a due possibilità su dieci che la tesi sia corretta) nel fatto che vi sia già oggi un segnale di un impatto del cambiamento climatico oltre la variabilità naturale per la maggior parte dei fenomeni estremi comprese le forti precipitazioni, le grandinate, la siccità, le tempeste di vento, i cicloni tropicali e le inondazioni costiere. E, per molti di questi, non è atteso che il segnale emerga neppure negli scenari futuri peggiori e oggi più inverosimili

Ma come: l’IPCC sostiene che persino negli scenari “peggiori e più inverosimili” non emergerà un segnale di aumento di forti precipitazioni, le grandinate, la siccità, le tempeste di vento, i cicloni tropicali e le inondazioni costiere? Sembra davvero poco credibile.

E lo è.

 

Cosa scrive l’IPCC

Chi avesse voluto controllare dove Ramella abbia preso questa citazione dai rapporti IPCC avrebbe dovuto faticare parecchio. Perché nel Sesto Rapporto dell’IPCC in tantissimi punti si parla di eventi estremi, passati e futuri, e dei loro impatti, ma si sostiene il contrario di quanto ha scritto Ramella.

Se si considerano le inondazioni costiere, nello scenario peggiori l’IPCC scrive di un aumento del livello del mare di 1 metro nel 2100 (che può arrivare anche a 2 metri in caso di fusione più veloce del previsto delle calotte glaciali), mentre nel 2300 l’aumento del livello del mare atteso è fra 2 e 7 metri, e non possono essere esclusi aumenti del livello del mare di 15 metri. Insomma, nello scenario peggiore in tantissime zone costiere non ci saranno inondazioni perché… le coste saranno già sommerse!

Per quanto riguarda le forti precipitazioni, nel Sommario per i decisori politici del Rapporto di Sintesi si trova scritto:

“Le prove dei cambiamenti osservati in eventi estremi come ondate di calore, forti precipitazioni, siccità e cicloni tropicali e, in particolare, la loro attribuzione all’influenza umana, si sono ulteriormente rafforzate dopo la pubblicazione dell’AR5”

e “Si prevede che i quantitativi di precipitazione massima annua nei giorni più piovosi aumenteranno in quasi tutte le regioni continentali, anche laddove si prevede un calo medio annuale dell’umidità del suolo.

e “Il previsto aumento della frequenza e dell’intensità delle forti precipitazioni (alta confidenza) aumenterà le inondazioni locali provocate dalla pioggia (media confidenza).”

 

Nel Sommario per i decisori politici del rapporto del Primo Gruppo di Lavoro (WG1), inoltre, è scritto:

La frequenza e l’intensità degli eventi di forti precipitazioni sono aumentate dal 1950 sulla maggior parte delle aree terrestri per le quali i dati osservativi sono sufficienti per l’analisi delle tendenze (alta confidenza), e il cambiamento climatico indotto dall’uomo è probabilmente il principale motore di tali variazioni. I cambiamenti climatici indotti dall’uomo hanno contribuito all’aumento della siccità agricola ed ecologica in alcune regioni a causa dell’aumento dell’evapotraspirazione del terreno (confidenza media)”.

La figura SPM 6 mostra graficamente le variazioni previste nell’intensità e nella frequenza di temperature estreme, precipitazioni estreme (figura a fianco) e di siccità agricole ed ecologiche.

 

Inoltre, nel Sesto Rapporto IPCC-WG1 c’è un intero capitolo, il Capitolo 11, specificatamente dedicato a “Weather and Climate Extreme Events in a Changing Climate”. Si trovano molti dettagli, con centinaia di pubblicazioni citate, sintetizzati così nell’executive Summary del capitolo:

È un dato di fatto che le emissioni di gas serra indotte dall’uomo hanno portato ad un aumento della frequenza e /o dell’intensità di alcuni eventi meteorologici e climatici estremi rispetto al periodo preindustriale (1850-1900 NdR), in particolare per le temperature estreme. Le prove dei cambiamenti osservati negli estremi e la loro attribuzione all’influenza umana (comprese le emissioni di gas serra e aerosol e i cambiamenti nell’uso del suolo) si sono rafforzate dopo l’AR5, in particolare per precipitazioni estreme, siccità, cicloni tropicali ed estremi composti (compresi eventi secchi/caldi e incendi). Alcuni recenti eventi estremi caldi sarebbero stati estremamente improbabili senza l’influenza umana sul sistema climatico…”

“La frequenza e l’intensità degli eventi di forti precipitazioni sono probabilmente aumentate su scala globale nella maggior parte delle regioni terrestri con una buona copertura osservativa. Le forti precipitazioni sono probabilmente aumentate su scala continentale in tre continenti: Nord America, Europa e Asia. Aumenti regionali della frequenza e/o dell’intensità delle forti precipitazioni sono stati osservati con almeno una media confidenza per quasi la metà delle regioni definite per l’AR6“.

“Le forti precipitazioni diventeranno generalmente più frequenti e più intense con un ulteriore riscaldamento globale. A un livello di riscaldamento globale di 4 °C rispetto al livello preindustriale, eventi di precipitazioni molto rare (ad esempio, uno ogni 10 o più anni) diventerebbero più frequenti e più intensi rispetto al recente passato, a scala globale (praticamente certa) e in tutti i continenti e regioni AR6. L’aumento della frequenza e dell’intensità è estremamente probabile per la maggior parte dei continenti e molto probabile per la maggior parte delle regioni AR6”.

Se poi si passa al volume del Secondo gruppo di lavoro (Climate Change 2022: Impacts, Adaptation and Vulnerability), la parola “extreme events” compare più di 600 volte, a partire dalle seguenti frasi presenti nel Sommario per i decisori politici:

Il cambiamento climatico indotto dall’uomo, includendo gli eventi estremi più frequenti e intensi, ha causato impatti negativi diffusi e le conseguenti perdite e danni alla natura e alle persone, al di là della naturale variabilità climatica“.

Impatti diffusi e pervasivi su ecosistemi, persone, insediamenti e infrastrutture sono il risultato di aumenti osservati della frequenza e dell’intensità di eventi climatici e meteorologici estremi, compresi estremi caldi sulla terraferma e nell’oceano, eventi di forti precipitazioni, siccità e incendi (confidenza elevata )“.

Insomma, se si leggono i punti principali dove l’IPCC ha trattato il tema degli eventi estremi, non si trova – affatto – la frase citata da Ramella. Dove l’avrà presa? E soprattutto: perché ha ignorato tutto quanto ha scritto l’IPCC, che contraddice quanto ha citato? Forse perché non ha letto il rapporto, e neppure i Riassunto per i decisori politici dei diversi volumi?

 

Un altro copia e incolla

In realtà, il motivo è che Ramella ha rilanciato quanto scritto sul suo blog da Roger Pielke Jr otto giorni prima del suo articolo sul Foglio. Roger Pielke Jr è un politologo che si è occupato spesso di cambiamenti climatici ed eventi estremi, collezionando una quantità notevole di critiche per i vari errori commessi (qui le stroncature di Skeptical Science).

Nel suo scritto Pielke Jr. ha ignorato il Capitolo 11 ma ha considerato il capitolo 12 dell’AR6- WG1 “Climate Change Information for Regional Impact and for Risk Assessment”, e precisamente quanto scritto nel paragrafo 12.5.2, nelle pagine 1853-1855, ad esempio: “C’è poca fiducia nell’emergere di forti precipitazioni e nella frequenza delle inondazioni pluviali e fluviali nelle osservazioni, nonostante le tendenze che sono state riscontrate in alcune regioni“.

Nella tabella 12.12 l’IPCC (riportata qui a fianco) riassume quanto scritto in quelle pagine, ed effettivamente attribuisce una bassa confidenza all’emergenza – rispetto al rumore – della variabilità di tante altre variabili climatiche.

La tabella è stata utilizzata da Pielke Jr, e riproposta anche da Ramella nella versione on line dell’articolo. Ramella l’ha citata anche su Twitter, come prova di cosa dice l’IPCC sugli eventi estremi, per sostenere che niente sta cambiando sulle precipitazioni estreme, ossia è tutto all’interno della variabilità naturale.

Si tratta quindi di una contraddizione nel rapporto IPCC?

No, piuttosto si tratta di un problema di comprensione di quanto ha scritto l’IPCC.

 

Tendenze, tendenze significative e emergenza di un segnale climatico

Per capire il perché dell’errore commesso da Ramella, bisogna ricordare alcuni concetti di statistica già discussi in altri post. Una variabile climatica (temperatura, precipitazioni totali annue, frequenza di precipitazione intense ecc.), può avere un cambiamento (aumento o diminuzione), indipendentemente dal fatto che tale cambiamento sia significativo dal punto di vista statistico. La maggiore o minore significatività statistica dipende dall’effetto combinato della quantità dei dati disponibili e dalla variabilità dei dati stessi. Con pochi dati, anche se la variabilità è bassa un trend potrebbe non essere significativo. Se ne è parlato molto quando c’era chi sosteneva che l’aumento delle temperature aveva subito una pausa (si veda questo post e questo).

Secondo l’IPCC, sia a livello globale che in diverse regioni del mondo ci sono chiare prove di variazioni significative di molte variabili climatiche, come le temperature e le piogge intense. La Figura SPM.3 del WG1 mostra ad esempio come, per l’aumento delle precipitazioni intense, ci sia una tendenza significativa all’aumento in molte regioni. Nel Mediterraneo questa tendenza non c’è, perché all’interno di quest’area solo nella zona centro-settentrionale (che comprende il nord Italia) è stata per ora rilevata una chiara tendenza all’amento degli eventi estremi di precipitazione, ma se si considera l’intera area il segnale si sbiadisce. Si può notare come, in tante altre zone, la quantità di dati sia insufficiente per definire una tendenza.

Un concetto ancora diverso è quello usato nel Capitolo 12: il tempo di emergenza del segnale (del cambiamento) rispetto al rumore (della variabilità), abbreviato con ToE (Time of Emergence). Questa analisi dipende fortemente dalla tecnica che si utilizza, dal set di dati e dall’area di aggregazione che si considera.

In molte aree i dati disponibili sulle piogge intense (ossia relativi ad episodi che hanno una bassa frequenza) sono troppo pochi, per cui il segnale fatica ad emergere dal rumore della variabilità. Per le temperature, i dati sono di più (sono giornalieri), per cui l’emergenza del segnale si coglie più facilmente. Ma anche la serie di dati che si considera è importante. Ad esempio, anche per le temperature, si può notare dalla figura seguente,  contenuta nell’Atlas 11 (pag. 1959 qui), quanto cambia il rapporto segnale/rumore usando due diverse serie di dati, e come persino per la temperatura in molte aree non ci siano abbastanza dati per far emergere il segnale rispetto alla variabilità. Questo nonostante sia indubbio che l’aumento delle temperature sia reale e molto rilevante in tante altre aree, e inequivocabilmente lo sia a livello globale.

Quindi il fatto che, nella tabella 12.12 citata da Pielke, e riportata in precedenza, le caselline relative alle precipitazioni intense (heavy precipitation) siano bianche per i periodi fino al 2050, significa solo che non esiste nessuno studio che mostri che il segnale emerga dalla variabilità climatica naturale entro il 2050. Ma questo non perché necessariamente non sia emerso, ma semplicemente perché non ci sono ancora studi disponibili. E infatti nel Capitolo 12 si scrive “Nelle proiezioni climatiche, l’emergere di un aumento delle precipitazioni intense dipende fortemente dalla scala di aggregazione… ma i risultati dipendono dal metodo utilizzato per il calcolo del ToE… Aumenti emergenti di precipitazioni intense si riscontrano in diverse regioni quando aggregati su scala regionale nell’Europa settentrionale, nell’Asia settentrionale e nell’Asia orientale, al più tardi entro la fine del secolo in scenari SRES A1B o RCP8.5 o quando si considera la variabilità decennale come riferimento”.

Inoltre, la successiva tabella (Cross-Chapter Box 12.1, Table 1, inizia giusto due pagine dopo la precedente, la prima parte è riportata qui sotto), e che si riferisce alla scala globale, quindi aggregando il segnale delle diverse regioni, con una valutazione quindi più robusta, fornisce un quadro chiarissimo, lo stesso riportato nel Sommario per i Decisori Politici. Ma questa tabella, chissà perché, non è stata considerata.

In  sostanza, non c’è contraddizione fra quanto scrive l’IPCC nei capitoli 11 e 12: la significatività dei trend osservati non c’entra con il ToE, in quanto sono concetti diversi e la scala spaziale di aggregazione può influire molto. Persino Pielke riconosce che non rilevare un segnale non implica che non ci sia un cambiamento (“È importante notare che solo perché un segnale non sia stato rilevato, ciò non significa che i cambiamenti non stiano avvenendo“), salvo poi aggiungere che Tuttavia, come ho spesso detto, il significato pratico di un segnale che non può essere rilevato non può essere grande”. Questa ultima affermazione ha poco senso, perché, ad esempio, nel caso delle inondazioni costiere, anche se ora non emerge dalla variabilità il segnale dell’aumento delle stesse, è virtualmente certo che il livello del mare stia aumentando e continuerà ad aumentare per secoli e millenni, con grandi conseguenze pratiche per molti milioni di abitanti nel nostro pianeta.

In conclusione, l’analisi di Pielke Jr., copiata da Ramella, è fuorviante: citare solo il capitolo 12 del WG1-AR6, solo un paragrafo e la tabella 12.12, per dire che non sono in corso cambiamenti che possono avere conseguenze significative per gli esseri umani, non ha alcun fondamento scientifico. E se si considera tutto quello che scrive l’IPCC, il quadro che emerge è molto, molto diverso.

 

Testo di Stefano Caserini,  con la collaborazione di Erika Coppola (lead author Capitolo 12 AR6-WG1), Claudio della Volpe, Sylvie Coyaud e Claudio Cassardo.

]]>
https://www.climalteranti.it/2023/08/10/come-travisare-quanto-scrive-lipcc/feed/ 76
L’Italia in ritardo sulla diffusione delle auto elettriche https://www.climalteranti.it/2023/08/01/litalia-in-ritardo-sulla-diffusione-delle-auto-elettriche/ https://www.climalteranti.it/2023/08/01/litalia-in-ritardo-sulla-diffusione-delle-auto-elettriche/#comments Tue, 01 Aug 2023 07:59:24 +0000 https://www.climalteranti.it/?p=12125 In molti paesi europei la mobilità elettrica si sta diffondendo più velocemente che in Italia, a causa di scelte politiche più lungimiranti. Se si aggiunge l’insufficienza della promozione anche delle altre forme di mobilità sostenibile (trasporto pubblico, mobilità non motorizzata, ecc.) appare a rischio il raggiungimento degli obiettivi sulla riduzione delle emissioni di gas climalteranti già assunti dall’Italia in sede europea.

 

Rifornimento elettrico auto elettricaPartiamo dai dati. L’Italia nel 2021 ha emesso 417,5 milioni di tonnellate di CO2 equivalente, di cui l’80% imputabili alla sola CO2, il 15% al metano e il resto ad altri gas serra. Pur in presenza di oltre un terzo del territorio a bosco (37%), gli assorbimenti forestali sono stati modesti, -27 Mt CO2eq, e di conseguenza le emissioni nette sono pari a 390 Mt CO2eq, ovvero 6,6 t CO2eq pro capite. Le emissioni dovute ai soli trasporti sono state pari a 102 milioni di tonnellate (il 24% del totale), due terzi delle quali sono da imputare alle autovetture, per lo più private.

In effetti gli italiani possiedono e usano moltissime, troppe auto: con una popolazione inferiore ai 59 milioni di abitanti, e in calo di circa 180mila unità ogni anno, le auto immatricolate a fine 2022 erano ben 39,2 milioni, in sostanza una per ogni patentato. I motivi sono o dovrebbero essere piuttosto chiari: la cattiva qualità e palese insufficienza dei trasporti pubblici urbani e metropolitani, la grande dispersione dei residenti in una miriade di centri abitati per lo più medi e piccoli, cattive politiche urbanistiche che hanno portato alla costruzione di aree residenziali, lavorative e commerciali in zone dove il trasporto pubblico non arriva, o fornisce un servizio assolutamente insufficiente, talvolta persino con l’eliminazione o interruzione di ferrovie locali.

 

Auto ogni 1000 abitanti nei paesi europei. Dati 2019, fonte EurostatAuto ogni 1000 abitanti nei paesi europei. Dati 2019, fonte Eurostat.

 

Vi è quindi una tendenza sempre crescente alla mobilità privata individuale, sia per motivi di lavoro che di svago, che potrebbe essere contrastata più seriamente con politiche di riduzione della domanda di mobilità (es. massima incentivazione allo smartworking), di incentivazione all’uso del trasporto pubblico o condivisione della mobilità senza motore (percorsi ciclabili sicuri, micromobilità elettrica, pedibus, bonus biciclette e altro), con la riattivazione delle strutture ferroviarie locali, e in generale con un maggiore investimento sul trasporto pubblico.

 

Gli obiettivi dell’Italia

Come noto, con la decisione dell’Effort Sharing Regulation nell’ambito del pacchetto Fit for 55, l’Italia si è impegnata a ridurre nel 2030 le sue emissioni non soggette al sistema di emission trading del 43,7% rispetto ai livelli del 2005. Applicando questa riduzione a tutti i settori non-ETS, e quindi anche ai trasporti, le emissioni del settore auto privatea dovrebbero scendere da 67 a 38,7 Mt CO2eq circa, in appena sette anni. Un obiettivo sfidante, che tuttavia potrebbe essere raggiunto mettendo in campo una serie di politiche per la mobilità. Da una parte esse dovrebbero tendere alla diminuzione del numero di auto in circolazione e del loro utilizzo (ovvero tramite le politiche riassunte sopra), dall’altra anche puntando alla sostituzione dei motori termici, alimentati quasi solo a combustibili fossili, con i più efficienti motori elettrici, alimentabili, parzialmente o totalmente, a energia rinnovabile (ricordiamo che un motore elettrico ha efficienza complessiva che può arrivare al 90% anche grazie al recupero di energia in frenata, rispetto ad uno termico, che ben difficilmente supera il 30%).

Purtroppo, le cose non stanno andando così. Nel 2022 gli italiani hanno acquistato 1,3 milioni di auto nuove, di cui soltanto il 3,7% erano veicoli elettrici a batteria (BEV). In numeri assoluti, meno di 50mila veicoli. L’anno precedente erano 67mila, quindi gli acquisti di BEV in Italia sono addirittura calati.

La tendenza dell’Italia è nettamente diversa da quella del resto d’Europa (EU27+UK), in cui le BEV sono aumentate in modo significativo, passando dai 360mila del 2019 a oltre un milione e mezzo nel 2022. Per non dire della Norvegia, che di fatto è arrivata ad avere un mercato del nuovo costituito quasi totalmente da veicoli elettrici. I dati europei di giugno 2023 mostrano addirittura un sorpasso del diesel da parte delle BEV, con l’Italia comunque ferma ai livelli dell’anno scorso.

Immatricolazioni auto giugno 2023 divise per alimentazione, a sinistra la UE, a destra l’Italia. PHEV sono auto ibride plug-in, BEV auto a batterie, HEV auto ibride. Dati Acea.

Immatricolazioni auto giugno 2023 divise per alimentazione, a sinistra la UE, a destra l’Italia. PHEV sono auto ibride plug-in, BEV auto a batterie, HEV auto ibride. Dati Acea.

 

Italia e Francia

Ma per fare un confronto con un paese a noi più vicino, in Francia le BEV acquistate nel 2022 sono state il 13% del totale, pari a circa 203mila nuovi mezzi, mentre nel 2021 gli acquisti erano stati 162mila. Anche i francesi hanno acquistato molte auto nuove, circa 1,5 milioni nel 2022, cifra del tutto paragonabile a quella italiana tenendo conto della popolazione (gli abitanti della Francia sono 68 milioni).

Che cosa impedisce agli italiani di fare come i francesi?

Un primo fattore potrebbe essere il costo d’acquisto di una BEV, ancora maggiore di quello di un’autovettura endotermica di pari segmento e modello. Va però detto che si stanno osservando recenti importanti diminuzioni di prezzo, grazie all’aumento delle produzioni e alle conseguenti economie di scala. Inoltre, va considerato che i costi complessivi lungo tutto l’utilizzo del veicolo possono essere sostanzialmente minori, grazie a costi di gestione sensibilmente più bassi. Purtroppo il reddito medio pro-capite degli italiani è inferiore a quello dei francesi, con livelli di disuguaglianza maggiori e crescenti nel nostro paese, ben più impattato – quindi – dal risvolto inflazionistico-speculativo dei prezzi del gas e a seguito della guerra in Ucraina.

Ma non vanno dimenticati i fattori culturali e di resistenza al cambiamento, che paiono particolarmente radicati in un Paese come l’Italia, dalle antiche tradizioni motoristiche. E naturalmente la cassa di risonanza dei social, dove si tende ad ingigantire qualsiasi problematica che possa riguardare le auto elettriche, per non parlare delle fake news orchestrate ad arte, anche di trasmissioni televisive in prima serata.

 

Diverse politiche, diversi risultati

Ma, restando alle politiche pubbliche, sono evidenti le differenze tra i due paesi. Per esempio, in Francia l’acquisto di una BEV è incentivato con un bonus di 5000 € (6000€ per i furgoncini), che possono diventare se il reddito è basso 7000€ (8000€ per i furgoncini); e non è richiesta demolizione di un altro veicolo. Sarà presto operativo uno schema che consente ai meno abbienti di acquistare l’auto elettrica in leasing con soli 100 €/mese. Il passaggio all’auto elettrica è uno dei cavalli di battaglia del Presidente Emmanuel Macron.

In Italia invece nel 2023 il bonus è diventato decisamente minore, 3000€ senza demolizione e 5000€ con, ed è calato molto rispetto agli anni scorsi (ecco un motivo del calo negli acquisti).

Nell’evidenziare questa differenza è necessario sottolineare altri due elementi negativi per l’Italia, sempre con riferimento al 2022: il rapporto deficit-Pil (-8% per l’Italia, -4,7% per la Francia) e il rapporto debito-PIL (144,4% per l’Italia, 111,6% in Francia). Inoltre buona parte della nostra filiera automobilistica è rimasta indietro, ancora molto legata al motore endotermico, e alla correlata componentistica. Dunque, un’incentivazione comparabile a quella francese, pur se si trovasse il modo di renderla sostenibile a livello di bilancio dello Stato, non consentirebbe un ritorno immediato né a livello occupazionale né, quindi, di consenso elettorale. D’altro canto, esistono anche aziende lungimiranti, che hanno saputo cogliere il cambiamento e si sono adattate molto velocemente alle nuove esigenze.

Importante però sottolineare che in Francia l’incentivo si finanzia col meccanismo bonus-malus, ovvero con imposta crescente sulle auto più inquinanti, che concorre a sostenere l’acquisto di quelle pulite. In ogni caso incentivare 200mila nuove BEV con 10mila euro ciascuna costerebbe 2 miliardi all’anno, da confrontarsi ad esempio con le decine di miliardi che lo stato ogni anno distribuisce come sussidi ambientalmente dannosi.

 

Prezzi dell’energia e colonnine di ricarica

Un’altra differenza molto seria fra Italia e Francia sono i prezzi dell’energia elettrica alle prese domestiche, che in Francia si aggirano sui 20 centesimi per kWh, mentre in quelle stradali siamo sui livelli (elevatissimi) dell’Italia, con prezzi al consumo anche tripli rispetto a quelli domestici, con la sola possibilità di ridurli sottoscrivendo un abbonamento.

I punti di ricarica in Francia hanno superato la cifra di 100.000, e se ne aggiungono circa 4000 ogni mese. Macron ha fissato un obiettivo di 400mila prese al 2030. In Italia siamo più indietro, le cifre più recenti parlano di circa 45mila prese in 16mila stazioni, comunque anche qua in costante crescita. Sono davvero significativi anche i problemi da risolvere in relazione alla diffusione delle colonnine private a norma (e quindi in sicurezza), all’interno di quei condomini dotati di box o posto auto, dato che tre quarti degli italiani vive in condominio. Nelle villette o case unifamiliari è anche oggettivamente più semplice ed efficace, tra l’altro, l’installazione di pannelli fotovoltaici per autoprodurre energia rinnovabile per caricare la propria autovettura elettrica.

 

Bonus per la Francia, malus per l’Italia

Vi è più in generale la questione della politica fiscale italiana, che in sostanza, e al contrario della Francia, continua a incentivare l’acquisto di veicoli inquinanti, come denuncia un accurato rapporto di Transport and Environment pubblicato lo scorso anno. Secondo gli autori, “oltre a offrire nel confronto con le altre nazioni un sostegno economico modesto agli acquirenti di veicoli elettrici a batteria (BEV), il nostro è praticamente l’unico Paese in Europa a prevedere incentivi per l’acquisto di automezzi con emissioni fino a 135 gCO2/km. Si tratta, in altre parole, di quegli stessi veicoli che in Francia vengono tassati all’acquisto perché inquinanti. Quello che nella nazione transalpina è considerato un malus dal punto di vista ambientale, in Italia viene addirittura incentivato. E anche questa, a ben vedere, è una delle ragioni che spiega il calo di vendite di auto elettriche registrato nel 2022”.

 

Testo di Vittorio Marletto, con contributi di Mario Grosso, Claudio Della Volpe, Simone Casadei e Stefano Caserini

]]>
https://www.climalteranti.it/2023/08/01/litalia-in-ritardo-sulla-diffusione-delle-auto-elettriche/feed/ 25
Attenzione alle temperature! https://www.climalteranti.it/2023/07/21/attenzione-alle-temperature/ https://www.climalteranti.it/2023/07/21/attenzione-alle-temperature/#comments Fri, 21 Jul 2023 13:19:11 +0000 https://www.climalteranti.it/?p=12099 Una gran parte dell’Italia e diversi altri posti nel mondo stanno sperimentando, negli ultimi giorni, temperature molto alte. Per chi ha capito in cosa consiste il riscaldamento globale, non c’è niente di anomalo: un aumento delle temperature medie comporta anche un aumento della frequenza dei valori più estremi delle temperature.

Al di là di chi non riesce ad arrendersi all’evidenza del dispiegarsi degli effetti della crisi climatica, neppure quando la vive sulla propria pelle, non c’è però molta chiarezza su cosa siano e come vengano misurati i dati di temperatura citati da quotidiani, televisioni e social media, comunicati da agenzie meteorologiche o da istituti scientifici. Proviamo a spiegarlo.

 

La temperatura dell’aria a livello del suolo

Quando si parla della temperatura di un luogo si intende generalmente la temperatura dell’aria vicino alla superficie del suolo. I protocolli di misura stabiliscono di misurarla tra 1,25 e 2 metri dal suolo, con sensori classicamente montati in capannine di misura (i cosiddetti Stevenson Screen) dislocate in varie parti delle città e dei territori. Termometro ariaNegli ultimi anni si sono diffusi sensori elettronici più moderni (il più comune è la cosiddetta Pt100, resistenza al platino da 100 ohm), racchiusi in piccoli schermi ventilati naturalmente (v. foto), e connessi con un data logger trasmettitore, che si possono collocare direttamente all’esterno, senza bisogno di capannina. In entrambi i casi, il sensore (il termometro) deve essere posizionato in modo da essere sempre riparato dalla radiazione solare, per non rimanere surriscaldato da essa. Le modalità di schermatura rispondono a criteri rigidi dettati dall’Organizzazione Meteorologica Mondiale (WMO) che riguardano anche la natura della superficie che circonda la capannina, o dello schermo. Inoltre, la capannina o lo schermo debbono essere rigorosamente bianchi, in maniera da riflettere il più possibile la radiazione solare. E le norme WMO prevedono anche che il suolo sia inerbito, con erba bassa.

Normalmente, quando un meteorologo o un climatologo parla di temperatura “al suolo”, intende questo tipo di misura, ovvero la temperatura in aria a circa 1,5 m sopra il suolo. Tutte queste misure sono puntuali, e inevitabilmente dipendono da dove è posizionato il termometro; il lavoro dei climatologi è proprio quello di valutare con attenzione le serie storiche di questi dati, che mostrano un’inequivocabile tendenza all’aumento, più o meno accentuato a seconda delle zone, eliminando o correggendo possibili “artefatti” che possono influire sulla precisione della tendenza (che, ai fini climatologici, è più importante del valore assoluto).

Si considera la temperatura dell’aria a 1,5 m sopra il suolo, e non ad esempio a 50 o 100 metri sopra il suolo, perché è a livello del suolo che vive la stragrande maggioranza degli esseri umani.

Sono queste le temperature che vengono utilizzate per stabilire quanto caldo c’è in un dato luogo e sono queste che, in assenza di ulteriori specifiche, dovrebbero venir sempre comunicate ai vari media. Inoltre, i rapporti degli organi ufficiali prendono in considerazione soltanto le misure ufficiali, eseguite dalle agenzie istituzionali (come le stazioni dell’Aeronautica, delle ARPA, ecc.) e non i dati delle stazioni amatoriali, che non sempre sono a norma WMO.

 

La temperatura del suolo

Una cosa diversa è invece la temperatura del suolo, o più precisamente della superficie terrestre, chiamata anche “temperatura di radiazione”, termine che deriva dal modo in cui viene di solito misurata. Questa temperatura è stimata sulla base della radiazione infrarossa emessa dal suolo. Infatti, ogni corpo a temperatura superiore a 0 Kelvin  emette radiazione elettromagnetica, secondo la nota legge di Stefan-Boltzmann). I gradi Kelvin sono usati nella scala assoluta delle temperature; i gradi Celsius si possono ottenere sottraendo 273.15 °C al valore della temperatura assoluta

Italia temperature registrate Nelle ore centrali di una giornata calda, la temperatura del suolo è generalmente maggiore (talora molto maggiore) della temperatura dell’aria, tanto più nel caso di un giorno soleggiato o di suolo non ombreggiato. In una giornata fredda, invece, se l’aria si riscalda più velocemente, può accadere che il suolo abbia una temperatura inferiore a quella dell’aria sovrastante (e questo genera il fenomeno dell’inversione termica nel sottile strato di aria tra il suolo e 1,5 m). La temperatura dell’asfalto alle ore 14 di un giorno soleggiato può superare tranquillamente i 60 °C e magari arrivare anche a 80 °C se l’asfalto è molto scuro. Quella di un campo con erba alta poco distante è invece nettamente inferiore, anche perché l’erba traspira (se c’è sufficiente umidità nello strato delle radici) e mantiene bassa la propria temperatura superficiale, per lo stesso fenomeno per cui noi, sudando, abbassiamo la temperatura corporea, mantenendola vicina ai 37 °C. Durante le notti serene, accade molto spesso che il suolo abbia invece una temperatura inferiore a quella dell’aria sovrastante, perché il terreno si raffredda rapidamente irraggiando radiazione infrarossa verso l’alto.

I dati di temperatura della superficie del suolo sono disponibili grazie alle elaborazioni dei dati da satellite, che misurano la radiazione emessa dalla superficie terrestre. Pur se nessun sensore collocato su satellite ha una risoluzione sufficiente da riuscire a dettagliare le temperature delle singole strade, alcuni satelliti possono fornire le temperature di un grande spiazzo asfaltato in una città, o anche solo di grandi estensioni di tetti. Non sorprende quindi che si riescano a rilevare con i satelliti temperature della superficie superiori a 50 °C, anche in Italia.

Infine, si sottolinea che l’espressione “Land surface temperature” indica generalmente la temperatura superficiale del suolo. Purtroppo, in alcuni contesti il termine “Land temperature” è  anche essere usato per indicare i dati delle temperature dell’aria sopra la terraferma (in inglese definita come “land”), in alternativa alle “sea surface temperatures” o “ocean temperature”, assieme alle quali si costruiscono le temperature globali.

 

Le temperature globali

Per esprimere il dato della temperatura del pianeta si usano combinazioni dei dati delle stazioni meteorologiche della superficie dell’aria sopra la terra ferma e della superficie dell’aria sopra gli oceani (in alcuni casi particolari si usa direttamente la temperatura superficiale dell’acqua degli oceani, che è strettamente legata alla temperatura dell’aria sovrastante). Ad esempio, la serie della NASA GISTEMP v4 unisce i dati delle stazioni meteorologiche sulla terraferma (NOAA GHCN v4) con quelli ERSST v5 per le aree della superficie terrestre coperte da oceani.

Nel Sesto Rapporto di Valutazione, l’IPCC utilizza il dato della Global mean Surface Air Temperature (GSAT), definito nel glossario come “Global average of near-surface air temperatures over land, oceans and sea ice”, specificando “near surface”, perché le variazione nelle GSAT sono usate come misura del cambiamento della temperatura globale, anche nel confronto con i modelli climatici. Ma è molto usato anche il termine Global mean Surface Temperature (GMST), definito come “Estimated global average of near-surface air temperatures over land and sea ice, and sea surface temperature (SST) over ice-free ocean regions”.

Da notare che molto spesso i grafici o le mappe delle temperature (come quella a fianco) riportano non la temperatura media ma l’anomalia della temperatura, ossia la differenza tra il dato istantaneo o mediato su tempi brevi non climatici (giorni, mesi o anni) e la media dello stesso dato su un periodo climatico di riferimento (normalmente lungo un trentennio). Per cui, se in una data località il valore medio del 2022 è risultato di 22,2 °C, e la media sul trentennio 1991-2020 nella stessa località è stata di 20 °C, l’anomalia media annua in tale località risulta di 2,2 °C. L’uso delle anomalie, al posto delle temperature assolute, permette un migliore confronto fra il riscaldamento che si verifica in zone diverse del pianeta, anche perché l’anomalia risente molto meno della quota in cui si è svolta la misura, rispetto al valore termico assoluto; quindi le anomalie delle singole stazioni possono essere elaborate (ad esempio mediate tra di loro) permettendo di calcolare l’anomalia della temperatura media su un territorio.

 

Conclusione

Quando si citano le misure di temperatura, è quindi sempre bene sempre specificare se si sta parlando della temperatura dell’aria o di quella del suolo, se di misure tradizionali o di dati satellitari. In ogni caso, entrambi questi diversi tipi di dati di temperatura, in questi giorni e dalle nostre parti, sono molto alti. Già recentemente ci sono stati altri record, l’11 agosto 2021 Il 19 luglio 2022 nel siracusano la temperatura dell’aria ha raggiunto i 48,8 °C. Anche in Sardegna e in molte altre località dell’Italia meridionale sono stati ampiamente superati i 40 °C, con punte fino a oltre 45 °C.

I dati misurati mostrano come l’aumento delle temperature medie in tutto il mondo abbia comportato un aumento della frequenza degli estremi delle temperature. Come ha scritto l’IPCC nel sommario per i decisori politici del Synthesis report del Sesto Rapporto sul clima, “si sono verificati cambiamenti diffusi e rapidi nell’atmosfera, nell’oceano, nella criosfera e nella biosfera. Il cambiamento climatico causato dall’uomo sta già influenzando molti eventi meteorologici e climatici estremi in ogni regione del mondo. Ciò ha portato a impatti negativi diffusi e relative perdite e danni alla natura e alle persone (confidenza elevata)”.

Insomma, come abbiamo scritto in un post pubblicato 6 anni fa, non occorre provare ad esagerare i valori numerici dei dati, confondendo la temperatura dell’atmosfera a 2 metri con la temperatura della superficie.  La realtà è già sufficientemente preoccupante.

 

 

Testo di Claudio Cassardo, Stefano Tibaldi e Stefano Caserini, con la collaborazione di Claudio della Volpe

]]>
https://www.climalteranti.it/2023/07/21/attenzione-alle-temperature/feed/ 12
Alcune gravi limitazioni nello studio del World Weather Attribution sull’Emilia-Romagna https://www.climalteranti.it/2023/06/03/alcune-gravi-limitazioni-nello-studio-del-world-weather-attribution-sullemilia-romagna/ https://www.climalteranti.it/2023/06/03/alcune-gravi-limitazioni-nello-studio-del-world-weather-attribution-sullemilia-romagna/#comments Sat, 03 Jun 2023 12:38:46 +0000 https://www.climalteranti.it/?p=12025 Usando una metodologia rapida e semplificata, e inadatta al contesto, lo studio non ha rilevato una connessione statistica tra cambiamento climatico e le precipitazioni estreme cadute in una parte dell’Emilia-Romagna; ma non ha certo dimostrato che questo legame non esista.

 

Sta facendo molto discutere lo studio di 14 scienziati internazionali “Limited net role for climate change in heavy spring rainfall in Emilia-Romagna”, pubblicato sul sito del World Weather Attribution (WWA), un gruppo di ricerca che da anni studia il legame fra eventi meteorologici estremi ed il cambiamento climatico.

Come si può evincere già dal titolo, lo studio non evidenza un legame significativo fra il cambiamento climatico globale e lo straordinario evento meteorologico che ha colpito l’Emilia-Romagna nel mese di maggio.

Lo studio disponibile non è stato soggetto al processo di peer review (revisione dei pari) che viene effettuato prima della pubblicazione su una rivista scientifica, e solo il protocollo di valutazione probabilistica su cui si basa è stato pubblicato dopo revisione dei pari. Non è stato al momento pubblicato su alcuna rivista scientifica, è solo disponibile nel “repository” Spiral dell’Imperial College London.

Pur non mettendo in discussione in alcun modo la competenza dei 14 autori e la qualità del valore del lavoro del WWA in generale, alcuni aspetti dello studio appaiono deboli, come mostriamo qui di seguito.

 

Scelta delle stazioni osservative

Il lavoro confronta tre set di dati:

1) station composite: i dati delle stazioni meteorologiche del territorio, desunti dal Sistema nazionale per la raccolta, l’elaborazione e la diffusione di dati Climatologici di Interesse Ambientale (SCIA, gestito da ISPRA) e dai dati dell’Agenzia regionale per la prevenzione, l’ambiente e l’energia dell´Emilia-Romagna (ARPAE), a partire dal 1960.

2) i dati del MSWEP, Multi-Source Weighted-Ensemble Precipitation, a partire dal 1979.

3) i dati di rianalisi ERA5.

Non sono stati usati i dati delle serie storiche, risalenti a più di un secolo fa, come ne esistono in Emilia-Romagna. Ad esempio, l’Osservatorio geofisico di Modena, riconosciuto dal WMO come stazione di osservazione centenaria, ha una serie storica di dati di precipitazione che iniziano nel 1830, e il 2 maggio 2023 è stato il giorno più piovoso mai registrato in maggio.

Complessivamente sono stati utilizzati i dati di 60 stazioni che partono però solo dal 1960 (o dal 1979). Questa scelta è stata dettata dal voler utilizzare solo stazioni con un massimo del 20% di dati giornalieri mancanti in ogni anno. Ciononostante, 62 anni (o, a maggior ragione, 43) non sono un periodo molto lungo per effettuare l’analisi statistica di eventi che, nel clima non mutato dalle attività umane, avevano tempi di ritorno di 200 anni o più. Difatti, le stime del tempo di ritorno hanno un’incertezza molto ampia, e si può indicativamente dire che un tale evento possa accadere con tempi di ritorno tra i 100 e 300 anni. Considerare un periodo che parte dal 1960, che include gli anni di riscaldamento globale più intenso, e che quindi non è un periodo stazionario, potrebbe minare le risultanze statistiche.

 

Dati di precipitazione mediati nel tempo e nello spazio

Nell’analisi di attribuzione del WWA, il parametro statistico oggetto di studio, e su cui si basano le conclusioni, è “maximum 21-day accumulated rainfall for the AMJ season, averaged over the Emilia-Romagna (ER) region”, ossia la “precipitazione cumulata su 21 giorni in primavera (aprile-maggio-giugno), media sull’intera regione Emilia Romagna”

Utilizzare la media su una zona così ampia porta a ridurre considerevolmente i picchi di precipitazione.

Nel mese di maggio ci sono stati in Emilia-Romagna tre eventi di forte precipitazione, nei giorni 1-2, 10 e 16-17 maggio, che hanno interessato una parte della regione, la parte centrale appenninica.

La mappa della precipitazione costruita sulla base del miglior network al suolo di osservazioni di pioggia dell’Emilia-Romagna, cioè quello dell’ARPAE, mostra, per il nel periodo cruciale di maggio, molti valori di picco molto elevati, con molte aree con più di 500 mm come somma dei tre eventi, e singole stazioni con valori che vanno ben oltre i 600 mm, soprattutto nella zona del medio versante appenninico a monte di Faenza, Forlì e Cesena.

Invece, nei dati mediati usati per lo studio di attribuzione dal WWA, guardando la magnitudo dell’evento di picco nei singoli punti griglia (più paragonabili alle singole stazioni citate sopra), si arriva a piogge nel periodo inferiori a 400 mm (purtroppo la scala nella figura satura a 350 mm, una scelta infelice), che sono valori molto più bassi di quelli occorsi in molte stazioni osservative. Il livello medio regionale del picco di precipitazioni nel periodo è pari a circa 271 mm (dati composite) o 214 mm (dati MSWEP), come mostrato nella tabella 1 e nella Figura 3 dello studio WWA.

Facendo la media spaziale su tutta la regione e la media temporale su tre settimane, si perde completamente la natura veramente estrema delle concentrazioni di precipitazione in ognuno dei tre episodi. E non emerge l’estrema improbabilità di vedere tre episodi come questi susseguirsi in un così breve intervallo di tempo – come anche riconosciuto nel rapporto stesso. In altre parole, se la stessa quantità di “maximum 21-day accumulated rainfall for the AMJ season, averaged over the Emilia-Romagna (ER) region”, cioè 271 mm di pioggia cumulata, fosse caduta uniformemente in 10 dei 21 giorni a 27.1 mm al giorno, poco sarebbe accaduto. Anche se i 600 mm caduti sul crinale ravennate si fossero distribuiti uniformemente a 21 giorni del mese di maggio, con poc meno di 30 mm ogni giorno, le conseguenze sarebbero state ben diverse.

Precipitazione cumulata (in mm) dall’1 al 18 maggio 2023 (Fonte: Gabriele Antolini, Osservatorio Clima ARPAE)

Figura 3 dello studio WWA: precipitazioni accumulate su 21 giorni dal 1° al 21 maggio (dati MSWEP)

 

Utilizzo dei dati di ERA5

Appare anche poco sensato l’utilizzo dei dati di ERA5 di precipitazione con risoluzione spaziale di 25 km per effettuare la “rianalisi” di un evento di precipitazione così estremo in area montuosa. La precipitazione stimata da ERA5 non è infatti il prodotto di un processo di assimilazione di dati osservati di precipitazione, ma il prodotto della modellistica che assimila tutti gli altri dati osservati, eccetto la precipitazione. I dati di ERA5 sono notoriamente adeguati a stimare valori medi annuali o stagionali, ma altrettanto notoriamente inadeguati a stimare le distribuzioni degli eventi veramente estremi di precipitazione su scale spaziali di poche decine di km2 e temporali di 1-2 giorni, quali quelle degli eventi in studio.

Inoltre, non appare credibile mediare i dati di ERA5 su tutta l’Emilia-Romagna, quando la parte più occidentale della regione è stata interessata solo dal terzo evento estremo, e soltanto parzialmente, e in tale area la cumulata è stata di soli 100-200 mm in 19 giorni.

Il grigliato utilizzato è ampio e pari a 25×25=625 km2: per confronto, l’area comunale di Bologna è di 141 km2; quindi, l’area del punto griglia di ERA5 equivale a 4,4 volte la città di Bologna.

L’immagine a fianco, che mostra la dimensione dei bacini idrografici, mostra come il grigliato di 25x 25 km sia molto più ampio della dimensione delle vallate, quindi inadatto per simulare con ERA5 i fenomeni convettivi che hanno avuto un ruolo ingente nelle elevate precipitazioni, poiché i venti prevalenti sono sempre stati da E-NE.

Un altro aspetto da considerare è che il confronto nella figura 5 del lavoro WWA fra le due serie temporali, del composite delle stazioni e della rianalisi ERA5, mostra importanti differenze nel periodo 1960 al 1980, mentre la serie dati MSWEP inizia solo dal 1979.

Figura 5 dello studio WWA: serie temporali dei massimi delle precipitazioni cumulate in 21 giorni massimi in primavera (aprile maggio e giugno) e media decennale (linea rossa) in Emilia-Romagna, basata su (a) dati compositi delle stazioni (b) dati MSWEP e (c) dati rianalisi ERA5.

 

Conclusione

World Weather Attribution (WWA) ha sviluppato una procedura, consolidata in oltre 7 anni di attività, che permette una attribuzione rapida di un dato evento estremo applicabile praticamente su tutto il globo, e quindi con dataset necessariamente a  bassa risoluzione. Ma l’applicazione della metodologia di elaborazione dei dati delle precipitazioni al caso specifico dell’Emilia-Romagna ha forti limitazioni. Gli eventi calamitosi accaduti non sono stati dovuti alla precipitazione cumulata in 21 giorni, bensì alla cumulata nelle 24 o 48 ore di due dei tre eventi maggiori (con ratei quindi ben maggiori di quello studiato). Sono queste le piogge che hanno causato lo straripamento dei fiumi, i danni e le vittime.

Derivare tempi di ritorno di 200 anni dalla combinazione di dati osservati di questa natura e copertura temporale e da una modellistica caratterizzata da ben noti problemi a rappresentare accuratamente i fenomeni convettivi di precipitazione a piccola scala e su 1-2 giorni, come quelli in questione, a causa dei limiti dei pur eccellenti schemi di parametrizzazione della convezione umida profonda utilizzati, rischia di essere un mero esercizio accademico invece che contribuire ad affrontare la complessità e le gravi conseguenze che derivano dalle modifiche delle precipitazioni estreme causate dal cambiamento climatico (si veda la sezione 11.4 del WG1 Sesto Rapporto IPCC).

Anche alcuni autori dello studio che abbiamo contattato (Federico Grazzini e Davide Faranda) confermano che lo studio non vuole in alcun modo negare il ruolo del riscaldamento globale sull’aumento degli eventi estremi sul Mediterraneo. Il punto è che provarlo su eventi come quelli occorsi in maggio è estremamente complicato.

Lo studio dei WWA è solo un primo tentativo, che non dimostra l’assenza di un legame fra riscaldamento globale e la catastrofica alluvione in Romagna: dimostra solo che, adottando la metodologia del rapid assessment elaborata dal WWA, non si trova questo legame.

Il rapid assessment, per come è costruito, va interpretato in maniera asimmetrica. Quando rileva una connessione tra evento estremo e cambiamento climatico, si può essere confidenti che esso esista; quando non lo trova, ovvero l’incertezza predomina sul risultato, come in questo caso, entrambe le ipotesi restano aperte. E si lascia il campo a studi più approfonditi, che sicuramente arriveranno nei prossimi mesi e anni.

 

Un autogol per la comunità scientifica

Un’ultima cosa va detta: lo studio del WWA è stato rilanciato in tutti i modi dai negazionisti del cambiamento climatico, e da chi – pur non negando esplicitamente l’influenza delle attività umane sul clima – ne nega la gravità e l’urgenza delle azioni di mitigazione. Chi ha deciso quel titolo dello studio, così netto e senza le necessarie precisazioni sui limiti dello studio, poteva aspettarsi di essere strumentalizzato.

Certo, è anche vero che quel titolo ha favorito una grande successo comunicativo del lavoro. Ma le parole sono importanti, e in un momento in cui la scienza del clima è sotto attacco, e ancora tanto spazio nei media hanno incompetenti, narcisisti e mitomani, la comunicazione del WWA può essere considerata un autogol: sarebbe stato meglio usare più cautela, e dare spazio nella comunicazione ai tanti limiti dello studio e ai tanti motivi per cui la comunità scientifica evidenzia da anni un legame fra il riscaldamento globale e gli eventi estremi di precipitazione.

 

Testo di Stefano Tibaldi, Vittorio Marletto, Luca Lombroso, Claudio Cassardo e Stefano Caserini

]]>
https://www.climalteranti.it/2023/06/03/alcune-gravi-limitazioni-nello-studio-del-world-weather-attribution-sullemilia-romagna/feed/ 15
Sì, c’è un legame fra riscaldamento globale ed eventi estremi https://www.climalteranti.it/2023/05/24/si-ce-un-legame-fra-riscaldamento-globale-ed-eventi-estremi/ https://www.climalteranti.it/2023/05/24/si-ce-un-legame-fra-riscaldamento-globale-ed-eventi-estremi/#comments Wed, 24 May 2023 11:21:13 +0000 https://www.climalteranti.it/?p=11991 Secondo la comunità scientifica, già si vedono i segni dell’intensificazione delle precipitazioni in molte parti del mondo, e su scala globale le piogge forti diventeranno più frequenti e più intense che nel recente passato.

La grande siccità dei primi mesi del 2023 e la successiva alluvione in Romagna ha portato alla ribalta dei media nazionali il legame fra il surriscaldamento globale e l’aumento della frequenza degli eventi estremi. Diverse trasmissioni televisive hanno, purtroppo, nuovamente dato ampi spazi all’antiscienza, in dibattiti popolati dai soliti opinionisti negazionisti spacciati per esperti (Franco Prodi e Alberto Prestininzi in prima fila). Ci siamo ormai stancati di commentare queste mortificanti parodie di giornalismo televisivo, o il diluvio di stupidaggini pubblicate su Il Foglio, Il Giornale, Libero e la Verità.

Riteniamo più utile ricordare come la scienza del clima abbia studiato in modo approfondito il legame fra l’aumento delle temperature e l’aumento dell’intensità e durata di ondate di calore, siccità o precipitazioni intense, arrivando a conclusione chiare.

 

Un legame studiato da anni

Rapporto Speciale pubblicato da IPCCPrima di tutto va detto che gli scienziati studiano questo legame da diversi decenni. Nel marzo del 2012 l’IPCC ha pubblicato il Rapporto Speciale  proprio sul tema degli eventi estremi (Managing the risks of extreme events and disasters to advance climate change adaptation), una sintesi di più di 500 pagine della conoscenza scientifica di allora, con centinaia di riferimenti bibliografici a lavori pubblicati nel decennio precedente. In questo rapporto già si sottolineava che la variabilità climatica naturale e i cambiamenti climatici di origine antropoegenica  possono influenzare la frequenza, l’intensità, l’estensione spaziale e la durata di alcuni eventi meteo-climatici estremi.  Il Quinto Rapporto di Valutazione sul clima (Assessment Report 5, AR5) del 2013-2014 e il Sesto Rapporto IPCC (AR6) sul clima hanno ulteriormente approfondito la conoscenza su questo tema. Nel Rapporto del primo gruppo di lavoro dell’AR6 è disponibile un intero capitolo, l’undicesimo, intitolato “Weather and Climate Extreme Events in a Changing Climate”: 254 pagine, 29 figure, quasi duemila riferimenti bibliografici.

Non sorprende che da questo imponente lavoro scientifico emerga un’evidenza chiara, di cui abbiamo già parlato in precedenti post su Climalteranti: la categoria “eventi estremi” contiene 18 post, fra cui ad esempio questi cinque:

La gestione dei rischi in un clima mutato -parte I (Carlo Cacciamani, febbraio 2013)

La gestione dei rischi in un clima mutato parte II – cosa si può fare (Carlo Cacciamani, marzo 2013)

La gestione dei rischi in un clima mutato parte III – le criticità (Carlo Cacciamani, marzo 2013)

In futuro precipitazioni più intense nella regione Euro-Mediterranea (Enrico Soccimarro, ottobre 2013)

Perché le precipitazioni saranno più intense nella regione Euro-Mediterranea (Enrico Soccimarro, ottobre 2013)

Attribuire singoli eventi estremi al cambiamento climatico: complesso ma possibile (Gabriele Messori, giugno 2020)

 

Alta confidenza

Capitolo 11 di AR6 di IPCCNel “Executive Summary” del capitolo 11 dell’AR6 l’IPCC-WG1 attribuisce una alta confidenza, se non la virtuale certezza, che con il riscaldamento globale aumenterà la frequenza e l’intensità  delle precipitazioni più forti e più rare:

Le forti precipitazioni diventeranno generalmente più frequenti e più intense con un ulteriore riscaldamento globale. Con un riscaldamento globale di 4°C rispetto al periodo preindustriale, eventi di forti precipitazioni molto rari (ad esempio, con una frequenza di un evento ogni 10 o più anni) diventerebbero più frequenti e più intensi che nel recente passato, su scala globale (virtualmente certo) e in tutti i continenti e nelle regioni considerate dall’AR6.

L’aumento della frequenza e dell’intensità è estremamente probabile per la maggior parte dei continenti e molto probabile per la maggior parte delle regioni considerate dall’AR6. Su scala globale, l’intensificazione delle forti precipitazioni seguirà il tasso di aumento della quantità massima di umidità che l’atmosfera può trattenere quando si riscalda (confidenza alta), di circa il 7% per 1°C di riscaldamento globale. L’aumento della frequenza di eventi di forti precipitazioni sarà non lineare con un maggiore riscaldamento e sarà più elevato per eventi più rari (confidenza alta), con un probabile raddoppio e triplicazione della frequenza degli eventi con tempo di ritorno di 10 e 50 anni, rispettivamente, rispetto al recente passato, in uno scenario con 4°C di riscaldamento globale.

Gli aumenti dell’intensità delle precipitazioni estreme su scala regionale varieranno, a seconda dell’entità del riscaldamento regionale, dei cambiamenti nella circolazione atmosferica e delle dinamiche delle configurazioni meteorologiche che portano a forti precipitazioni (confidenza alta).

L’aumento previsto dell’intensità delle precipitazioni estreme si traduce in un aumento della frequenza e dell’entità delle inondazioni improvvise legate alle precipitazioni e alla tracimazione di acque superficiali (confidenza alta), poiché queste inondazioni derivano da un’intensità delle precipitazioni superiore alla capacità di sistemi di drenaggio naturali e artificiali.” (Pagina 1518, Capitolo 11)

I cambiamenti climatici diventano più gravi a ogni incremento del riscaldamento globale. Come temperature estreme, siccità, eventi di precipitazione intensa, copertura nevosa e cicloni tropicali cambiano a diversi livelli del riscaldamento globale rispetto alla fine del XIX secolo (1850-1900). Questa è l’attuale media del periodo 2011-2020. Ad esempio, oggi il giorno più caldo in un decennio è già +1.2°C più caldo rispetto al giorno più caldo in un decennio prima della rivoluzione industriale. Con 1.5°C di riscaldamento globale, sarebbe circa +1.9°C più caldo, con 2°C di riscaldamento globale sarebbe circa +2.6°C più caldo, e con 4°C di riscaldamento globale sarebbe circa +5.1°C più caldo. (Grafico adattato da IPCC AR6 Working Group I Technical Summary – Infografica TS.1)

 

Una tendenza che già esiste

Riguardo a quello che si è già verificato in conseguenza alla parte di riscaldamento globale che si è già verificata, l’IPCC mostra come una tendenza già esiste a livello globale, ma non sia ancora un segnale chiaro e uniforme in tutte le zone del pianeta:

La frequenza e l’intensità degli eventi di forti precipitazioni sono probabilmente aumentate su scala globale nella maggior parte delle regioni terrestri con una buona copertura osservativa. Le forti precipitazioni sono probabilmente aumentate su scala continentale in tre continenti: Nord America, Europa e Asia. Aumenti regionali della frequenza e/o dell’intensità delle forti precipitazioni sono stati osservati con una confidenza almeno media per quasi la metà delle regioni AR6.

L’influenza umana, in particolare le emissioni di gas serra, è probabilmente il principale motore dell’intensificazione osservata su scala globale delle forti precipitazioni sulle regioni terrestri. È probabile che il cambiamento climatico indotto dall’uomo abbia contribuito all’intensificazione osservata delle forti precipitazioni su scala continentale in Nord America, Europa e Asia. In alcune regioni sono emerse prove di un’influenza umana sulle forti precipitazioni (confidenza alta)”. (pagina 1518, Capitolo 11AR6-WG1)

In Italia

Per quanto riguarda l’Italia, possiamo ricordare che già nella sintesi della conoscenza scientifica sui cambiamenti climatici presente nella Strategia nazionale di adattamento ai cambiamenti climatici (SNAC), approvata con decreto direttoriale n. 86 del 16 giugno 2015 dall’allora  Ministero dell’Ambiente e della Tutela del Territorio e del Mare, si era evidenziato che “… le precipitazioni mostrano una variazione dei regimi, con un aumento degli eventi intensi, a dispetto della generale diminuzione dei valori medi stagionali.” (pagina 23, Capitolo 3.2).

Maggiori informazioni si trovano nel Rapporto sullo stato delle conoscenze scientifiche su impatti, vulnerabilità ed adattamento ai cambiamenti climatici in Italia preparato per la stesura della SNAC dove nella sezione ‘Frequenza e intensità delle precipitazioni’:

“Per comprendere se la diminuzione degli eventi di bassa intensità e l’aumento degli eventi più intensi sia il segnale di una tendenza delle precipitazioni italiane verso una più alta frequenza di eventi estremi, è stato analizzato anche l’andamento del numero di eventi che ricade in ciascuna categoria. I risultati indicano con chiarezza un trend negativo del numero di eventi di bassa intensità. È inoltre evidente un trend positivo nel numero di eventi intensi in alcune regioni del Nord, mentre al Centro e al Sud il numero di eventi piovosi mostra un trend negativo in tutte le categorie, anche se non sempre statisticamente significativo.

In sintesi, nel periodo 1880-2002 l’andamento delle precipitazioni in Italia risulta caratterizzato da una diminuzione significativa del numero di eventi di bassa intensità e solo alcune regioni del Nord mostrano un aumento della frequenza degli eventi di forte intensità. “ (pagina 37)

Per quanto riguarda l’Italia, possiamo ricordare quanto scritto nell’analisi effettuata negli elaborati della proposta di Piano nazionale di adattamento ai cambiamenti climaticiAllegato III impatti e vulnerabilità settoriali, gli eventi estremi di precipitazione sembrano essere aumentati in tutta Italia:

Un’analisi di quaranta lunghe serie di pioggia giornaliera in Italia è stata condotta da Brunetti (2004) e Brunetti et al. (2000) su stazioni distribuite su tutto il territorio italiano. I risultati di tali analisi hanno messo in luce che vi è già un trend in atto con una diminuzione delle precipitazioni totali al sud mentre non sono emerse significative variazioni al nord. Gli eventi estremi di precipitazione sembrano essere aumentati in tutta Italia, in accordo quindi all’analisi estesa a tutto l’emisfero nord. Questo comportamento è più evidente nell’area settentrionale della penisola; mentre, per l’Italia meridionale, dove la diminuzione del numero di giorni piovosi è più sensibile, non si notano significative variazioni negli eventi più intensi

 

Lunghe siccità… e poi intense precipitazioni

Riguardo il repentino passaggio da lunghe siccità a opposte intense precipitazioni, l’aumento nella variabilità degli eventi di precipitazione a livello globale è il focus di uno studio appena pubblicato,  condotto da Xuezhi Tan e altri, pubblicato su Nature Communications. Questi eventi, chiamati “precipitation whiplash” colpo di frusta delle precipitazioni, si riferiscono ai repentini passaggi tra estremi di pioggia e siccità e possono causare gravi impatti sui sistemi naturali e umani. Lo studio mostra che entro la fine del XXI secolo, in uno scenario con elevatissime emissioni (RCP8,5) la frequenza di questi eventi potrebbe aumentare di 2,56 ± 0,16 volte rispetto al periodo 1979-2019, con transizioni sempre più rapide e intense tra i due estremi. Le regioni polari e monsoniche sono quelle che sperimentano gli aumenti più significativi. Le emissioni antropogeniche di gas serra sono identificate come il principale fattore che contribuisce a questi cambiamenti, mentre le emissioni di aerosol hanno un effetto opposto. Entro il 2079, l’emissione incontrollata di gas serra antropogenici potrebbe aumentare il rischio dell’aumento della variabilità nelle precipitazioni del 55 ± 4%, principalmente a causa dei cambiamenti nei modelli di circolazione atmosferica che favoriscono gli estremi di precipitazione. Questo studio fornisce ulteriori prove sugli impatti del cambiamento climatico sulle precipitazioni globali e sottolinea l’importanza di mitigare le emissioni di gas serra per ridurre gli effetti negativi sulle precipitazioni.

 

La ricerca dell’audience non aiuta

Naturalmente, è più difficile leggere, commentare e discutere i testi sopra riportati, con tutti i rimandi bibliografici e le descrizioni statistiche, che lasciarsi andare, sui giornali e in tv, a frasi a caso su “cicli”’, su “l’ambientalismo estremista che sa dire solo dei no”, su ”gli scienziati non sanno cosa dicono”, su ”il clima è sempre cambiato”. Come Climalteranti confidiamo che, soprattutto in occasione di eventi tragici come quelli che hanno interessato la Romagna, si presti sempre più attenzione alla scienza del clima e all’inevitabile complessità della comunicazione del legame fra surriscaldamento globale e eventi estremi, sfidando gli ascoltatori a capire e a comprendere. E che si abbandoni la ricerca dell’audience basata su urlatori che forniscono risposte semplici (e sbagliate) a problemi che nemmeno sono in grado di capire.

 

 

Testo di Stefano Caserini, Luca Lombroso, Gianluca Lentini e Giacomo Grassi.

]]>
https://www.climalteranti.it/2023/05/24/si-ce-un-legame-fra-riscaldamento-globale-ed-eventi-estremi/feed/ 17