Fine agosto è il periodo dei bilanci estivi: ci si gode l’ultimo scampolo di vacanza e ci si prepara moralmente alla piena operatività di settembre. Che l’estate volga al termine risulta poi evidente dal fatto che in tv nessuno più consiglia agli anziani di rimanere a casa durante le ore più calde del giorno oppure di bere tanta acqua (consigli sacrosanti, per carità). Gli ultimi annunci rimasti a ricordarci che qualcuno è ancora in vacanza riguardano ormai solo i bollini multicolori diramati per via delle code sulle autostrade.

Per la verità c’è anche un altro genere di code che d’estate attira l’attenzione della comunità scientifica: si tratta delle code delle distribuzioni di probabilità. Esse conducono a buoni modelli teorici mediante i quali si possono quantificare le probabilità di eventi estremi come alcuni fenomeni meteorologici (ondate di calore o precipitazioni intense, ad esempio). Di definizioni ne esistono molte ma secondo quanto stabilito dall’IPCC (acronimo inglese che sta per “Gruppo Intergovernativo di esperti sul cambiamento climatico”) un evento climatico estremo consiste in “un evento raro in un particolare luogo e periodo dell’anno, dove per raro si intende normalmente un evento non meno raro del 10° o del 90° percentile di una funzione di densità di probabilità stimata dai dati […]”[1]. E si torna sempre lì, alla descrizione probabilistica.

Una funzione di densità di probabilità è una funzione particolarmente simpatica perché non è mai negativa e perché l’area sotto la sua curva (ovvero l’integrale definito sul suo dominio, per gli specialisti) è uguale a 1. La funzione di densità definisce la forma di una distribuzione e, quando si parla di questo tema, tutte le strade (o quasi) portano alla distribuzione normale o gaussiana, la celeberrima curva a campana, che rappresenta un ottimo modello teorico per descrivere la maggior parte dei fenomeni aleatori che esistono in natura. Ad esempio, senza conoscerli uno per uno, si può asserire con una certa sicurezza che in questo momento l’altezza di tutti i cittadini maggiorenni di Bologna si distribuisce come una curva normale, dove la maggior parte dei cittadini ha un’altezza più o meno vicina all’altezza media e invece è più difficile trovare persone molto più alte o molto più basse rispetto a quel valore. In questo caso il 10° percentile rappresenta il valore dell’altezza al di sotto della quale si colloca il 10% della popolazione considerata e analogamente il 90° indica quella soglia rispetto alla quale il 90% dei cittadini risulta più bassa. Per disegnare la curva normale c’è bisogno di conoscere solo due parametri: la media, che indica la posizione rispetto all’asse delle ascisse, e la deviazione standard (o il suo quadrato, la varianza) che determina il “profilo” della campana (più piccola è la deviazione standard, più la campana è alta e stretta).

La distribuzione normale risulta utile per la modellizzazione di alcune variabili climatiche, specialmente quelle attinenti alla temperatura. In questo ambito, una questione rilevante riguarda il riconoscimento degli effetti del cambiamento climatico, che statisticamente parlando null’altro è che un cambiamento dei parametri della distribuzione. Trattandosi di riscaldamento globale, è facile capire che col passare del tempo la media della distribuzione diventa più alta (1a); lo è forse meno intuire che anche la deviazione standard aumenta (1b). Il combinato disposto di queste azioni (perché avvengono contemporaneamente, è bene ricordarlo) è che non solo fa generalmente più caldo, ma soprattutto che la coda “calda” della distribuzione diventa più pesante, ovvero che eventi estremi quali ad esempio ondate di calore con temperature molto alte diventano sempre più frequenti (1c).

(1) IPCC(2001): Climate change 2001: The scientific basis. Contribution of Working Group I to the Third Assessment Report of the Intergovernmental Panel on Climate Change [Houghton, J. T., Ding, Y., Griggs, D. J., Noguer, M., Van der Linden, P. J., Dai, X., Maskell, K. and Johnson, C. A. (eds.)] Cambridge University Press, Cambridge, United Kingdom and New York, NY, USA. http://www.ipcc.ch/ipccreports/tar/wg1/fig2-32.htm
(1) IPCC (2001)…[2]

Questa conclusione segna la strada verso un’analisi più specifica della coda delle distribuzioni di probabilità. Per questo è stato aperto un filone di ricerca che passa sotto il nome di teoria dei valori estremi (o EVT, dall’inglese extreme value theory), col fine di determinare la probabilità che si verifichino eventi rari o persino più estremi di quelli osservati in precedenza. Gli approcci utilizzati sono principalmente due e possono stupire per la semplicità delle idee che vi sono alla base. Per entrambi l’analisi passa da una “riduzione” dei dati a disposizione: si considera infatti solo quella porzione di osservazioni che cade nella coda della distribuzione.

Il primo metodo, storicamente il più conosciuto, si basa sui cosiddetti massimi (o minimi) a blocchi: immaginando le osservazioni statistiche come tanti pezzi di pizza, si prende da ogni pizza il pezzo più grande. Un teorema stabilisce che questi pezzi di pizza selezionati (nel caso del clima le temperature massime annuali, ad esempio), per grandi numeri possono distribuirsi secondo una sola tra le distribuzioni chiamate di Gumbel, Fréchet e Weibull. La bellezza della matematica emerge qui in tutto il suo splendore, poiché, meglio di uno sconto 3×1 al supermercato, fornisce una distribuzione generalizzata dei valori estremi (GEV) che le comprende tutte e tre:

GEVf2𝐹(𝑥;𝜇,𝜎,𝜉). è la funzione di ripartizione della GEV, che indica la probabilità che la variabile assuma valori minori o uguali ad un valore di interesse x. Tre sono i parametri di questa distribuzione: 𝜇 è il parametro di locazione (assimilabile alla media), 𝜎 è definito parametro di scala (come la deviazione standard) e 𝜉 rappresenta il parametro che determina la forma della distribuzione (per 𝜉=0 il limite della funzione tende alla distribuzione di Gumbel; per 𝜉>0 la distribuzione di Fréchet e per 𝜉<0 la distribuzione di Weibull).

(2) Originale dell'autore.
(2) Originale dell’autore.

Le tre curve si differenziano per le loro code: la distribuzione di Gumbel ha una coda destra leggera, cioè la probabilità che ci siano grandi deviazioni dalla media è molto bassa, mentre quella della distribuzione di Fréchet è più pesante; la distribuzione di Weibull è invece troncata a destra, cioè la probabilità di ottenere valori oltre una certa soglia è nulla.

Con il secondo approccio si opera una diversa selezione dei dati: in una ipotetica siepe di dati, si selezionano solo le foglie che superano una certa altezza. Data la soglia stabilita, queste osservazioni selezionate si distribuiscono asintoticamente secondo la distribuzione di Pareto generalizzata (GPD). La questione più dirimente riguarda dunque la scelta della soglia (l’altezza in corrispondenza della quale si pota la siepe): con una soglia troppo alta si rischia infatti di scartare troppi valori e accrescere la varianza delle stime dei parametri, mentre una troppo bassa introduce valori “centrali” e quindi una distorsione delle stime finali.

In ultima istanza, tutti questi modelli non sono creati per il diletto di qualche statistico baldanzoso, ma per calcolare la probabilità che un evento estremo di una prestabilita entità si verifichi. Per rispondere a questo problema è stato elaborato il grafico dei livelli di ritorno (return level plot). Il livello di ritorno rappresenta quel valore z per il quale la probabilità di essere superato in un dato periodo di tempo è uguale ad un certo valore p o analogamente quel valore che è superato una sola volta in 1/p unità di tempo (1/p è chiamato periodo o tempo di ritorno).

(3) O. Rafael García-Cueto and Néstor Santillán-Soto (2012)…[3]

Così nel caso del grafico sopra (basato sui dati sulle temperature massime estive registrate in una città messicana nel periodo 1951-2008)[3], la linea nera indica il livello di ritorno atteso in funzione del periodo di ritorno, dunque ci si aspetta di raggiungere una volta nei prossimi 100 anni una temperatura massima intorno ai 51°C (il livello di ritorno corrispondente al periodo di ritorno 100).

È possibile sapere più esattamente quando questo evento avverrà? Un ottimista potrà dire forse che un giorno si saprà, sperando che sia prima che l’evento avvenga. Il problema è che questi modelli non sono in grado attualmente di generare previsioni su quando esattamente l’evento estremo avverrà, poiché non tengono conto della variabile tempo nei dati. Esistono altri metodi statistici che la considerano, ma anche in quei casi le previsioni, soprattutto a lungo termine, sono da prendere con le molle. La comunità scientifica oggigiorno propone scenari, ossia proiezioni di ciò che potrebbe accadere variando diversi parametri ambientali, economici e politici, ma per ora non rimane che impegnarsi in una seria valutazione e comunicazione del rischio, passo necessario per il riconoscimento del problema a tutti i livelli e la predisposizione di una soluzione, al fine di ridurne l’impatto. E questo è un tema che coinvolge tutti. Insomma, per una piena comprensione di questi problemi una lunga strada (al caldo, ovviamente) ci attende.


[1] IPCC (2013). Annex III: Glossary [Planton, S. (ed.)]. In: Climate Change 2013: The Physical Science Basis. Contribution of Working Group I to the Fifth Assessment Report of the Intergovernmental Panel on Climate Change [Stocker, T.F., D. Qin, G.-K. Plattner, M. Tignor, S.K. Allen, J. Boschung, A. Nauels, Y. Xia, V. Bex and P.M. Midgley (eds.)]. Cambridge University Press, Cambridge, United Kingdom and New York, NY, USA, reperibile all’indirizzo http://www.ipcc.ch/pdf/assessment-report/ar5/wg1/WG1AR5_AnnexIII_FINAL.pdf

[2] IPCC (2001). Climate change 2001: The scientific basis. Contribution of Working Group I to the Third Assessment Report of the Intergovernmental Panel on Climate Change [Houghton, J. T., Ding, Y., Griggs, D. J., Noguer, M., Van der Linden, P. J., Dai, X., Maskell, K. and Johnson, C. A. (eds.)] Cambridge University Press, Cambridge, United Kingdom and New York, NY, USA; figura reperibile all’indirizzo http://www.ipcc.ch/ipccreports/tar/wg1/fig2-32.htm

[3] O. Rafael García-Cueto and Néstor Santillán-Soto (2012). Modeling Extreme Climate Events: Two Case Studies in Mexico, Climate Models, Dr. Leonard Druyan (Ed.), ISBN: 978-953-51-0135-2, InTech, reperibile all’indirizzo http://www.intechopen.com/books/climate-models/modeling-extreme-climate-events-two-case-studies-inmexico


L’immagine di copertina, raffigurante il traffico di Los Angeles al tramonto, è tratta dal sito della Rand Corporation.

 

 

 

 

 

 

Annunci

Rispondi

Inserisci i tuoi dati qui sotto o clicca su un'icona per effettuare l'accesso:

Logo WordPress.com

Stai commentando usando il tuo account WordPress.com. Chiudi sessione / Modifica )

Foto Twitter

Stai commentando usando il tuo account Twitter. Chiudi sessione / Modifica )

Foto di Facebook

Stai commentando usando il tuo account Facebook. Chiudi sessione / Modifica )

Google+ photo

Stai commentando usando il tuo account Google+. Chiudi sessione / Modifica )

Connessione a %s...