SlideShare a Scribd company logo
1 of 84
Download to read offline
Universit`a degli Studi di Napoli Federico II
Facolt`a di Scienze Politiche
Corso di Laurea Magistrale in Scienze Statistiche per le Decisioni
Tesina di Metodi Statistici per Dati Complessi
Processi stocastici e serie storiche
Metodologia di Box-Jenkins per l’identificazione di un modello ARIMA
Candidati:
Barbara Amendola
Marco D’Alessandro
Ida Riccio
Professori:
Palumbo Francesco
Piccolo Domenico
Ragozini Giancarlo
Dott.ssa:
Simone Rosaria
Anno Accademico 2016–2017
Indice
1 Processi stocastici 1
1.1 Introduzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 Classificazione dei processi stocastici . . . . . . . . . . . . . . . . . 2
1.3 Momenti di un processo stocastico . . . . . . . . . . . . . . . . . . . 4
1.3.1 Valore medio (teorico) . . . . . . . . . . . . . . . . . . . . . 4
1.3.2 Varianza (teorica) . . . . . . . . . . . . . . . . . . . . . . . . 5
1.3.3 Funzione di covarianza o autocovarianza (teorica) . . . . . . 5
1.3.4 Autocorrelazione (teorica) . . . . . . . . . . . . . . . . . . . 6
1.3.5 Autocorrelazione parziale . . . . . . . . . . . . . . . . . . . . 8
1.4 L’operatore ritardo . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.5 L’operatore differenza prima . . . . . . . . . . . . . . . . . . . . . . 9
1.6 Le ipotesi di stazionarietà e di invertibilità . . . . . . . . . . . . . . 10
1.6.1 Stazionarietà in senso stretto . . . . . . . . . . . . . . . . . 10
1.6.2 Stazionarietà in senso lato . . . . . . . . . . . . . . . . . . . 11
1.6.3 Invertibilità . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2 I principali processi stocastici 15
2.1 Processo stocastico gaussiano . . . . . . . . . . . . . . . . . . . . . 15
2.2 White Noise . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.2.1 White Noise gaussiano . . . . . . . . . . . . . . . . . . . . . 17
2.3 Random Walk . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.4 Processi MA(q) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.4.1 Un esempio: il processo MA(1) . . . . . . . . . . . . . . . . 23
2.5 Processi AR(p) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
1
2.5.1 Un esempio: il processo AR(1) . . . . . . . . . . . . . . . . . 25
2.6 Dualità tra processi MA ed AR . . . . . . . . . . . . . . . . . . . . 26
2.7 Processi ARMA(p,q) . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.7.1 Sintesi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
2.7.2 Un esempio: il processo ARMA(1,1) . . . . . . . . . . . . . 30
2.8 I processi ARIMA(p,d,q) . . . . . . . . . . . . . . . . . . . . . . . . 30
2.8.1 Un esempio: il processo ARIMA(1,1,1) . . . . . . . . . . . . 32
3 Serie storiche 33
3.1 Introduzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.1.1 Serie continue e serie discrete . . . . . . . . . . . . . . . . . 34
3.1.2 Serie deterministiche e serie probabilistiche . . . . . . . . . . 35
3.2 Il teorema di Wold . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
3.3 Un approccio moderno alle serie storiche: la procedura di Box-Jenkins 37
3.3.1 I processi ARIMA stagionali . . . . . . . . . . . . . . . . . . 38
3.3.2 Le fasi della procedura . . . . . . . . . . . . . . . . . . . . . 41
4 Un caso studio: la domanda di benzina in Ontario 47
4.1 Introduzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
4.2 La domanda di benzina in Ontario dal gennaio 1960 al dicembre 1975 49
4.2.1 Analisi preliminari . . . . . . . . . . . . . . . . . . . . . . . 49
4.2.2 Identificazione del modello . . . . . . . . . . . . . . . . . . . 58
4.2.3 Stima dei parametri . . . . . . . . . . . . . . . . . . . . . . 61
4.2.4 Verifica del modello . . . . . . . . . . . . . . . . . . . . . . . 63
4.2.5 Previsioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
A Comandi in R 72
2
Elenco delle figure
1.1 Traiettorie di un medesimo processo . . . . . . . . . . . . . . . . . . 3
1.2 Prevalenza delle componenti . . . . . . . . . . . . . . . . . . . . . . 7
2.1 Simulazione di un White Noise uniforme . . . . . . . . . . . . . . . 16
2.2 ACF per un White Noise uniforme . . . . . . . . . . . . . . . . . . 17
2.3 Simulazione di un White Noise gaussiano . . . . . . . . . . . . . . . 18
2.4 ACF per un White Noise gaussiano . . . . . . . . . . . . . . . . . . 18
2.5 Simulazione di un Random Walk . . . . . . . . . . . . . . . . . . . 19
2.6 ACF per un Random Walk . . . . . . . . . . . . . . . . . . . . . . . 20
2.7 Simulazione di un processo MA(1) . . . . . . . . . . . . . . . . . . . 23
2.8 Simulazione di un processo AR(1) . . . . . . . . . . . . . . . . . . . 26
2.9 Simulazione di un processo ARMA(1,1) . . . . . . . . . . . . . . . . 30
2.10 Simulazione di un processo ARIMA(1,1,1) . . . . . . . . . . . . . . 32
3.1 Serie temporale continua (a) e discreta (b) . . . . . . . . . . . . . . 35
3.2 Serie storica ad andamento misto . . . . . . . . . . . . . . . . . . . 36
3.3 Modelli ARIMA stagionali . . . . . . . . . . . . . . . . . . . . . . . 39
3.4 Procedura iterativa per la costruzione di un modello ARIMA . . . . 41
4.1 Raffinerie di prodotti petroliferi in Canada . . . . . . . . . . . . . . 47
4.2 Ripartizione di un barile medio di prodotti petroliferi raffinati in
Canada . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
4.3 Consumo di benzina in Ontario 1960-1975 . . . . . . . . . . . . . . 50
4.4 Box-plot della variabile . . . . . . . . . . . . . . . . . . . . . . . . . 52
4.5 Box-plot mensili . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
4.6 Time-plot . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
3
4.7 Seasonplot . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
4.8 Lagplot . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
4.9 ACF della serie originale . . . . . . . . . . . . . . . . . . . . . . . . 57
4.10 Serie differenziata trasformata . . . . . . . . . . . . . . . . . . . . . 58
4.11 ACF . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
4.12 PACF . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
4.13 Radici dell’equazione caratteristica . . . . . . . . . . . . . . . . . . 62
4.14 Analisi strutturale dei residui . . . . . . . . . . . . . . . . . . . . . 63
4.15 Identificazione di un outlier . . . . . . . . . . . . . . . . . . . . . . 65
4.16 ACF dei residui . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
4.17 p-value associati al test di Ljung-Box . . . . . . . . . . . . . . . . . 66
4.18 Autodispersione dei residui . . . . . . . . . . . . . . . . . . . . . . . 67
4.19 Analisi distribuzionale dei residui . . . . . . . . . . . . . . . . . . . 68
4.20 Grafico delle ultime 12 osservazioni della serie previste mediante il
modello ARIMA(2, 0, 0)(0, 0, 1)12 stimato . . . . . . . . . . . . . . 70
4.21 Previsioni per l’anno 1976 . . . . . . . . . . . . . . . . . . . . . . . 71
4
Elenco delle tabelle
1.1 Tipologie di processi stocastici . . . . . . . . . . . . . . . . . . . . . 2
2.2 ACF e PACF per ciascun processo analizzato . . . . . . . . . . . . 29
2.1 Processo stocastico, stazionario e invertibile . . . . . . . . . . . . . 29
5
Sommario
Oggigiorno, siamo così abituati ad associare l’idea di futuro alla probabilità che
talvolta siamo spinti a pianificare la nostra stessa vita a partire proprio da essa.
Esempi di tale fenomeno sono, ad esempio, la stipula di una assicurazione, le
previsioni del tempo, il rischio connesso ad una determinata operazione finanziaria,
eccetera. Queste sono tutte situazioni nelle quali è presente una certa componente
di incertezza.
Da qui nasce l’interesse nell’affrontare lo studio dei processi stocastici stazio-
nari, ovvero uno dei modelli probabilistici più usati, e dell’analisi delle serie
storiche, adoperata per la comprensione di fenomeni dinamici, specialmente per
problemi idrologici, climatici, paesaggistici, economici, finanziari e sociali. Que-
st’ultima ha come obiettivo l’identificazione dell’evoluzione passata del fenomeno e
l’estrapolazione del sentiero passato allo scopo di ottenere la previsione.
La previsione è uno strumento importante per una pianificazione efficiente: essa
rende il decisore meno soggetto ad eventi inaspettati in quanto impongono un
approccio più scientifico riguardo alla conoscenza dell’ambiente in cui opera. Il
decisore ha a sua disposizione un vasto armamentario di strumenti di previsione che
variano in base a diversi fattori determinanti: l’informazione necessaria, il livello di
formalizzazione e di trattamento statistico-matematico, l’orizzonte temporale di
previsione, il costo.
Nell’analisi delle serie storiche il fenomeno da prevedere viene trattato come una
scatola nera in quanto non si cerca di individuare i fenomeni che lo possono
influenzare: il fenomeno da prevedere, cioè, viene modellato rispetto al tempo e
non rispetto ad una variabile esplicativa.
Capitolo 1
Processi stocastici
1.1 Introduzione
Siano dati un insieme di indici T, dove T ha la proprietà di essere un insieme
ordinato di numeri reali, ed uno spazio di probabilità {Ω, F, P}, dove Ω denota lo
spazio degli eventi, F è una σ–algebra su Ω e P è una misura di probabilità.
Si definisce processo stocastico (reale) una famiglia {X (ω, t) : t ∈ T} di varia-
bili aleatorie (reali) indicizzate ad un parametro reale t ∈ T, definite sullo stesso
spazio di probabilità (Ω, F, P) e che assumono valori in (R, B(R)). Inoltre, un pro-
cesso stocastico può essere denotato anche con le notazioni {Xt (w)}t∈T o {Xt}t∈T .
Parliamo di variabili casuali indicizzate da t, poiché, ogni qualvolta fissiamo t,
abbiamo una variabile casuale.
L’insieme ordinato T, può essere discreto (t0, t1, . . . tn) o continuo, finito [0, T] o
infinito [0, ∞]. E’ bene sottolineare che l’insieme T può essere di qualsiasi natura:
ad esempio, il parametro t ∈ T può rappresentare lo spazio. Generalmente, il
parametro reale t ∈ T è interpretato come il tempo, ed in tale circostanza si parlerà
nello specifico di serie storiche derivanti da processi stocastici temporali (o serie
temporali). Quando ci troviamo in tale situazione, T rappresenta effettivamente
l’insieme dei tempi.
1
Un processo stocastico è dunque una funzione reale X (ω, t) di due variabili: ω e
t, dove ω denota l’evento elementare e t è un parametro reale appartenente a T.
Dunque, esso è tale che ad ogni coppia ordinata (ω, t) ∈ Ω × T associa un numero
reale. In simboli, scriveremo:
X : (ω, t) ∈ Ω × T → X(ω, t) ∈ R (1.1)
1.2 Classificazione dei processi stocastici
Una prima classificazione dei processi stocastici deriva dalla tipologia dell’insieme
Ω e dell’insieme T , dove quest’ultimo, per noi, sarà sempre un sottoinsieme di R:
Tabella 1.1: Tipologie di processi stocastici
Insieme T Insieme Ω Categorie Esempio
Fenomeno discreto Numero di
Discreto Discreto e giorni piovosi
parametro discreto in un mese
Fenomeno continuo Temperatura corporea
Discreto Continuo e ad
parametro discreto intervalli prefissati
Fenomeno discreto Particelle radioattive
Continuo Discreto e registrate da un
parametro continuo contatore Geiger
Fenomeno continuo
Continuo Continuo e Elettroencefalogramma
parametro continuo
Quando l’insieme di indici T è:
• discreto, in generale è un sottoinsieme di N oppure di Z. In tale circostanza,
il processo stocastico viene denotato con {Xt}t∈T ;
• continuo, allora si presenta come un intervallo di R. In tale circostanza, il
processo stocastico viene denotato con {X (t) : t ∈ T}.
2
Dato un processo stocastico {Xt (w)}t∈T , dove il parametro t denota il tempo, si
ha che:
• ∀ω ∈ Ω e t ∈ T fissato, X(., t) è una variabile aleatoria ed è detta stato del
processo all’istante t;
• ∀t ∈ T e fissato l’evento elementare ω ∈ Ω (ad esempio effettuando un
esperimento), la funzione t → Xt(ω) è una funzione matematica del solo
parametro t ed è detta traiettoria (o realizzazione) del processo associata
all’evento elementare ω e viene denotata con il simbolo X(ω, .).
Figura 1.1: Traiettorie di un medesimo processo
• se fissiamo sia ω ∈ Ω che t ∈ T, allora Xt(ω) denota un numero reale.
Da un punto di vista matematico, conoscere probabilisticamente un processo
stocastico significa conoscere, per ogni insieme di istanti (t1, t2, . . . tn), la distri-
buzione congiunta di (Xt1 , Xt2 , ..., Xtn ). Un processo stocastico è completamente
caratterizzato in senso statistico se è nota la probabilità:
P (Xt1 ≤ x1, Xt2 ≤ x2, . . . , Xtn ≤ xn) (1.2)
3
In generale, un processo stocastico {Xt}t∈T è noto se è nota la funzione di densità
multivariata della n-pla di v.c. (Xt1 , Xt2 , ..., Xtn ) per ogni n e per ogni n-pla
(t1, t2, . . . tn) di v.c..
1.3 Momenti di un processo stocastico
I processi stocastici, per loro stessa definizione, sono in grado di generare una
serie temporale illimitata, cioè di lunghezza infinita. Poiché, però, non è pensabile
di fornire le caratteristiche dei processi stocastici mediante le serie temporali da
essi generate, è necessario riassumere le loro principali proprietà mediante poche
grandezze caratteristiche: i momenti teorici. Questi sono infiniti in numero ma, in
pratica, se ne utilizzano pochi e precisamente:
• il momento del primo ordine, cioè il valor medio (o valore atteso) del
processo;
• i momenti del secondo ordine, costituiti dalla covarianza e dalle grandezze
ad essa collegate.
Sia, allora, {Xt}t∈T un processo stocastico continuo a parametro discreto. Vediamo
quali sono le espressioni dei momenti più usati.
1.3.1 Valore medio (teorico)
Dato un processo stocastico {Xt}t∈T , il suo valore medio (teorico), indicato con
µ(t), è espresso dalla seguente relazione:
µ (t) = E (Xt) =
+∞
−∞
xtf (xt) dxt (1.3)
dove il simbolo E indica il valore atteso. In pratica, in base alla (1.3), il valore
atteso del processo stocastico al tempo t è pari al valore atteso della v.c. Xt definita
all’ istante t. Possiamo notare che il valore medio è funzione del tempo t, sicché
si parla di funzione valore medio. Ovviamente, il valore atteso E(Xt) sarebbe
noto se fosse nota la funzione di densità della v.c. Xt.
4
1.3.2 Varianza (teorica)
Data una v.c. Xt, la varianza viene definita come “il valor medio dei quadrati degli
scarti fra la variabile casuale Xt e la sua media teorica µ(t)”. La varianza di un
processo stocastico {Xt}t∈T , indicata con σ2
(t), è definita dalla relazione seguente:
σ2
(t) = E[Xt − E (Xt)]2
= E[Xt − µ (t)]2
=
= var (Xt) =
+∞
−∞
(xt − E (xt))2
f(xt)dxt
(1.4)
Da tale relazione si rileva che la varianza è uguale al momento del secondo ordine e
serve ad avere una misura della dispersione media dei dati attorno alla loro media.
Essendo la varianza anch’essa funzione del tempo t, si parlerà anche in questo caso
di funzione varianza.
Spesso, al posto della varianza, si usa lo scarto quadratico medio (o deviazione
standard) che è uguale alla radice quadrata della varianza. In simboli, si ha:
σ (t) = σ2 (t) = E[xt − E (xt)]2
(1.5)
Ricordiamo che lo scarto quadratico medio è un indice di dispersione statistico,
vale a dire una stima della variabilità di una popolazione di dati o di una variabile
casuale.
1.3.3 Funzione di covarianza o autocovarianza (teorica)
Si considerino due variabili casuali X ed Y . In Statistica, quando si studiano
le relazioni che intercorrono fra due v.c. si usa la covarianza, indicata con γXY ,
definita come “valore atteso del prodotto degli scarti di X dalla sua media µX per
gli scarti di Y dalla sua media µY :
γXY = E[(X − µX)(Y − µY )] = cov(X, Y ) (1.6)
La covarianza, a differenza della varianza, può essere positiva o negativa. È positiva
quando valori crescenti (decrescenti) di X si associano con valori crescenti (decre-
scenti) di Y, cioè quando gli scarti sono di segno concorde. È negativa quando
5
valori crescenti (decrescenti) di X si associano con valori decrescenti (crescenti) di
Y, cioè quando gli scarti sono di segno discorde. La covarianza misura, quindi, la
tendenza di X ed Y a variare nello stesso senso.
La (1.6), applicata ad una serie temporale, ne definisce la funzione autocovarian-
za. Infatti, in una serie temporale, la grandezza è sempre la stessa, ma è riferita
a due istanti diversi, t e t − k. Pertanto le v.c. sono Xt e Xt−k e la relazione che
definisce l’autocovarianza del processo stocastico fra gli istanti t e t − k è:
γX(t, t − k) = E[(Xt − µ (t))(Xt−k − µ (t − k))] = cov(Xt, Xt−k) (1.7)
La funzione auto-covarianza indica, dunque, il modo in cui due variabili del processo
co-variano nel tempo.
1.3.4 Autocorrelazione (teorica)
L’autocovarianza, pur essendo una grandezza fondamentale per lo studio delle
serie temporali, tuttavia ha il difetto di non essere compresa fra limiti fissi per
cui è difficile giudicare il significato di un dato valore. Per questo motivo è stata
introdotta l’autocorrelazione, che si ricava immediatamente dall’autocovarianza
e che presenta il vantaggio di essere sempre compresa fra i limiti fissi -1 e +1.
L’autocorrelazione si ottiene semplicemente dividendo l’autocovarianza per il
prodotto degli scarti quadratici medi di Xt e Xt+k. La relazione che definisce
l’autocorrelazione è, quindi, la seguente:
ρk(t) =
E[(xt − µ(t))(xt+k − µ(t + k))]
E[xt − µ(t)]2E[xt+k − µ(t + k)]2
=
cov(xt, xt+k)
σ(xt)σ(xt+k)
(1.8)
L’autocorrelazione esprime, quindi, la dipendenza lineare che esiste tra il processo
al tempo t e se stesso al tempo t + h. I coefficienti di autocorrelazione godono delle
stesse proprietà dei coefficienti di correlazione ordinari di Pearson.
La funzione di autocorrelazione (ACF) è invariante rispetto a traslazioni nel tempo.
Quando ρk(t) = 0, Xt e Xt+k non sono correlate.
Uno strumento grafico per la valutazione della tendenza di molti fenomeni ad
6
evolversi in modo più o meno regolare è il correlogramma, ovvero un semplice
grafico nel quale ogni barretta verticale riporta il valore di ρk (sull’asse delle ordinate)
in funzione di k, che rappresenta il ritardo (o lag) con cui la autocorrelazione è
calcolata (sull’asse delle ascisse).
Considerando le coppie di valori (k, ρk) presentate in un correlogramma, proviamo
ad elencare i possibili casi a seconda che ρk sia crescente, decrescente oppure
massimo, in modo da procedere ad un’accurata analisi della serie storica.
Figura 1.2: Prevalenza delle componenti
Tali grafici possono presentare gli andamenti più disparati, ma vengono normalmente
confrontati con quelli illustrati nella figura. Si hanno infatti le seguenti tre situazioni
tipiche:
• il valore di ρk è sempre positivo e decresce lentamente all’aumentare di k
(grafico a sinistra); ciò vuol dire che i valori della serie storica sono fortemente
correlati a quelli della serie ritardata di un periodo, poi un po’ meno per
quella ritardata di due periodi e così via, ovvero che il presente è influenzato
dal passato recente, questo dal passato più remoto e, in generale, che la serie
presenta una tendenza di fondo (ad esempio, tende a crescere linearmente o
esponenzialmente nel tempo; nel gergo dell’analisi delle serie storiche, si dice
che prevale la componente tendenziale, o trend);
• il valore di ρk varia, ma è positivo e massimo in corrispondenza di valori di
k tali da configurare una periodicità annuale, ad esempio per k = 4 o suoi
multipli nel caso di dati trimestrali, mentre è minore o negativo per altri
valori di k (grafico al centro); ciò vuol dire che i valori di un dato istante
7
o periodo dell’anno sono fortemente correlati con quelli degli stessi istanti
o periodi degli anni precedenti, quindi che il fenomeno varia nel corso di
ciascun anno e in modo simile da un anno all’altro (si dice che prevale la
componente stagionale);
• i valori di ρk variano, ma per k > 0 oscillano sempre entro una banda ristretta
(grafico a destra); ciò vuol dire che la serie non è significativamente correlata
con le serie ritardate, ovvero che il passato non "spiega" il presente e che le
variazioni da un istante o periodo ad un altro sono sostanzialmente casuali
(si dice che prevale la componente accidentale o parte stocastica).
In definitiva, affermiamo che il correlogramma è quindi utile per individuare subito
un’eventuale componente dominante prima di procedere alla vera e propria analisi
della serie, ma anche per verificare i risultati di questa.
1.3.5 Autocorrelazione parziale
Nel contesto dei processi stocastici, parte della correlazione tra Xt ed Xt+k può
essere dovuta alla correlazione che tali variabili hanno con i ritardi intermedi
Xt+1, Xt+2, ..., Xt+k−1. Un modo per tener conto di ciò è considerare la funzione
di autocorrelazione parziale (PACF), che misura l’autocorrelazione tra Xt ed
Xt+k al netto della dipendenza lineare con le variabili casuali intermedie:
Pk = Corr(Xt, Xt+k|Xt+1, Xt+2, ..., Xt+k−1) =
= Corr[Xt − E(Xt|Xt+1, ..., Xt+k−1), Xt+k − E(Xt+k|Xt+1, ..., Xt+k−1)]
(1.9)
Può essere vista come il coefficiente φkk delle regressioni (k = 1, 2, ...):
Xt+k = φk1Xt+k−1 + φk2Xt+k−2 + ... + φkkXt + et+k (1.10)
L’informazione contenuta nella PACF è esattamente la stessa di quella contenuta
nella ACF, di cui è trasformazione; tuttavia è utile perché mette in evidenza
caratteristiche diverse.
8
1.4 L’operatore ritardo
L’operatore ritardo (Backward operator), generalmente indicato con la lettera
L nella letteratura econometrica (gli statistici preferiscono la B), è un operatore che
si applica a sequenze di oggetti piuttosto generali, fra cui rientrano sia sequenze di
variabili casuali (e cioè i processi stocastici) che sequenze di numeri (e cioè le loro
traiettorie o realizzazioni: le serie storiche). Tale operatore trasforma una sequenza
{xt} in un’altra sequenza che ha la “curiosa” caratteristica di avere gli stessi valori
di xt, ma sfalsati di un periodo. Se applicato ad una grandezza costante nel tempo,
la lascia invariata. In formule, abbiamo:
B(xt) = xt−1 (1.11)
L’applicazione ripetuta n volte di B viene indicata con la scrittura Bn
, e quindi si
ha Bn
(xt) = xt−n. Per convenzione si pone B0
= 1.
L’operatore B è un operatore lineare, nel senso che se a e b sono costanti si ha
B(axt + b) = aB(xt) + b = axt−1 + b.
La caratteristica principale dell’operatore B è che le sue proprietà appena enunciate
permettono, in molte circostanze, di manipolarlo algebricamente come se fosse un
numero (isomorfismo). La proprietà è enunciata nel cosiddetto
Teorema 1.4.1 (Teorema dell’isomorfismo).
Ogni operazione compiuta nell’algebra dei polinomi ha una corrispondenza nell’al-
gebra degli operatori in B.
1.5 L’operatore differenza prima
Data una serie storica Xt, si definisce differenza prima e si indica con il simbolo
Xt la variazione intervenuta tra Xt e Xt−1, al variare di t = 2, 3, . . . . In pratica,
Xt = Xt − Xt−1. La lunghezza della serie Xt è ora n − 1, perché le differenze
prima iniziano dal periodo t = 2.
L’affermazione “due operatori sono uguali se, applicati alla stessa funzione, pro-
ducono lo stesso risultato” ci permette di scrivere l’operatore differenza prima in
9
funzione dell’operatore ritardo:
Xt = (1 − B)Xt (1.12)
Inoltre, applicando due volte l’operatore differenza prima, si ottiene:
2
Xt = ( Xt = (1 − B)(1 − B)Xt =
= (1 − B)2
Xt = (1 − 2B + B2
)Xt =
= Xt − 2Xt−1 + Xt−2, ∀t = 3, 4, . . . n
(1.13)
Nella pratica, l’ordine dell’operatore alle differenze è abbastanza piccolo, molto
spesso 1 o 2. Questo dipende dal fatto che molte funzioni possono essere ben
approssimate, su un intervallo di lunghezza finita, da un polinomio con grado basso.
1.6 Le ipotesi di stazionarietà e di invertibilità
Tutte le grandezze finora considerate risultano funzione del tempo t. Questo è un
grosso vincolo sia sul piano teorico che nelle applicazioni concrete. Il problema si
aggira introducendo un’ipotesi semplificatrice, molto importante, che va sotto il
nome di stazionarietà.
L’ipotesi di stazionarietà suppone che certe proprietà statistiche di un processo
risultino invarianti rispetto ad una traslazione nel tempo. In altri termini, la
stazionarietà suppone che certe proprietà non varino nel tempo. La stazionarietà
può riguardare tutti i momenti oppure solamente alcuni. Esistono, pertanto, due
tipi di stazionarietà che vengono comunemente indicati come:
1. stazionarietà in senso stretto (o forte);
2. stazionarietà in senso lato (o debole).
1.6.1 Stazionarietà in senso stretto
Un processo stocastico {Xt}t∈T si dice stazionario in senso stretto (o forte)
quando la distribuzione congiunta della n-pla di v.c. (Xt1 , Xt2 , . . . , Xtn ) è uguale
10
alla distribuzione congiunta della n-pla (Xt1+h
, Xt2+h
, . . . , Xtn+h
) per un qualunque
valore di h. Dunque, il processo si definisce stazionario in senso stretto se:
Pr(Xt1+h
≤ x1, ..., Xtn+h
≤ xh) = Pr(Xt1 ≤ x1, ..., Xtn ≤ xh) (1.14)
Dalla (1.9) si evince che la funzione di ripartizione della distribuzione congiunta
non dipende da t ed è invariante per qualsiasi h. Ciò significa che se si fa scorrere
il tempo di una quantità arbitraria h, tutte le distribuzioni congiunte non si modi-
ficano.
La distribuzione multivariata di un processo stocastico stazionario in senso stretto
è invariante rispetto a traslazioni nel tempo, cioè non è funzione di t, quindi anche
i suoi momenti non sono funzione di t. Per accertare la stazionarietà in senso
forte di un processo Xt, dunque, dobbiamo conoscere la famiglia delle funzioni di
distribuzioni finite di Xt.
L’ipotesi di stazionarietà in senso stretto è una condizione ideale, irraggiungibile
nella pratica. Pertanto ci si accontenta, spesso, di stazionarietà più deboli o ridotte.
Normalmente ci si limita ad ipotizzare una stazionarietà del secondo ordine, ossia
una stazionarietà che riguarda la media ed i momenti del secondo ordine.
1.6.2 Stazionarietà in senso lato
Un processo stocastico {Xt}t∈T si definisce stazionario in senso lato (o debole)1
se sono soddisfatte le seguenti condizioni:
1. E(Xt) = µ, ∀t;
2. var(Xt) = E[Xt − E(Xt)]2
= E[Xt − µ]2
= σ2
< +∞, ∀t;
3. γX(t, s) = cov(Xt, Xs) = γX(|t − s|), ∀(t, s) ∈ T.
1
La stazionarietà in senso forte non garantisce che i momenti siano finiti, ma se i momenti
sono finiti, la stazionarietà in senso forte implica la stazionarietà in senso debole. Il viceversa,
invece, non è sempre vero: un processo stazionario in senso debole (o semplicemente stazionario)
non è detto sia anche fortemente stazionario. La stazionarietà in senso forte coinvolge infatti tutti
i momenti della distribuzione di probabilità del processo e non solo i primi due.
11
La condizione 1 impone che il valore medio del processo Xt sia costante e pari a
µ al variare di t; la condizione 2 impone che il processo abbia varianza finita e
costante al variare di t; la condizione 3 impone che la funzione di covarianza di
un processo stocastico {Xt}t∈T (stazionario in senso debole) non dipenda dai due
istanti temporali in cui viene calcolata ma solo dalla loro differenza |t − s| , ovvero
dipende solo dal lag (ritardo) τ = |t − s|. Per questo motivo, spesso la funzione di
autocovarianza di un processo stocastico stazionario in senso debole viene indicata
come funzione del lag τ:
γX(τ) = γX(τ, 0) = γX(t − s, 0) = γX(t, s) = E[(Xt − µ)(Xs − µ)] =
= E[(Xt − µ)(Xt−τ − µ)] = E[(Xt−τ − µ)(Xt − µ)] =
= cov(Xt−τ , Xt), ∀(t, τ, s).
(1.15)
Per ogni τ, γX(τ) misura la covarianza tra due variabili del processo che risultano
separate da un intervallo di tempo di ampiezza τ.
Si mostra facilmente, inoltre, che γk = γ−k
Per τ = 0, in particolare, la (1.10) fornisce la varianza del processo:
γX(0) = cov(Xt−0, Xt) = cov(Xt, Xt) = E[(Xt − µ)(Xt − µ)] =
= E[(Xt − µ)2
] = E[(Xt − E(Xt))2
] = var(Xt)
(1.16)
Inoltre, nel caso di un processo stazionario in senso debole, grazie alla (1.8) possiamo
scrivere nel seguente modo:
γX(h)
γX(0)
=
cov(Xt, Xt+h)
var(Xt)var(Xt+h)
·
cov(Xt, Xt+0)
var(Xt)var(Xt+0)
=
=
cov(Xt, Xt+h)
var(Xt)var(Xt+h)
·
cov(Xt, Xt)
var(Xt)
=
=
cov(Xt, Xt+h)
var(Xt)var(Xt+h)
·
var(Xt)
var(Xt)
=
cov(Xt, Xt+h)
var(Xt)var(Xt+h)
= ρX(h),
(1.17)
dove ρX(h) rappresenta il coefficiente di correlazione tra due variabili del processo
che risultano separate da un intervallo di tempo di ampiezza (lunghezza) h.
12
Dalla (1.12) si evince che:
ρX(0) =
γX(0)
γX(0)
= 1 (1.18)
Tale risultato è del tutto logico, in quanto l’autocorrelazione di una componente
del processo stocastico rispetto a sé stessa non può che essere perfetta.
La matrice di Toeplitz di ordine m associata alla funzione di autocorrelazione
di un processo stazionario in senso debole è semidefinita positiva, cioè tutti i suoi
minori principali sono non negativi. Date m variabili casuali, la matrice è definita
come segue:
ρ(m) =








1 ρ1 ρ2 ... ρ(m − 1)
ρ1 1 ρ1 ... ρ(m − 2)
ρ2 ρ1 1 ... ρ(m − 3)
... ... ... ... ...
ρ(m − 1) ρ(m − 2) ρ(m − 3) ... 1








(1.19)
Essa richiede solo la conoscenza delle prime m − 1 autocorrelazioni del processo,
ed è “doppiamente simmetrica perché è simmetrica e tutte le diagonali possiedono
elementi comuni”[Piccolo, 1984].
Nello studio dei processi stocastici trova grande applicazione anche la matrice delle
varianze-covarianze (o matrice di dispersione), che ne riassume le varianze
e le covarianze. Essa si indica generalmente con Γ ed è espressa dalla seguente
matrice quadrata:
Γ =



γ0 γ1 ...
γ1 γ0 γ1
... γ1 γ0


 (1.20)
Per ipotesi, la matrice di dispersione è simmetrica e contiene gli stessi valori su
tutta la diagonale principale e sulle diagonali parallele a questa. Inoltre, è definita
positiva e, quindi, i determinanti di tutti i minori principali sono positivi.
13
1.6.3 Invertibilità
Oltre all’ipotesi di stazionarietà si incontra molto frequentemente l’ipotesi di
invertibilità che viene introdotta allo scopo di evitare la "molteplicità dei modelli".
Essa indica la possibilità di esprimere un processo {Xt}t∈T tramite le v.c. del
passato, ovvero tramite una funzione che collega Xt con le v.c. Xs del tempo s < t.
Ciò avviene, in senso stocastico, cioè mettendo in conto un errore casuale t. Le
realizzazioni di t possono essere quindi ottenute per mezzo di:
t = Xt − f(Xt−1, Xt−2, ..) (1.21)
L’invertibilità è una condizione strettamente legata alla prevedibilità (lineare) del
processo.
Esistono dei casi in cui ad uguali strutture statistiche corrispondono due o più
modelli stocastici diversi; la condizione di invertibilità permette, appunto, di
individuare in modo univoco il modello utile all’analisi che si sta effettuando.
14
Capitolo 2
I principali processi stocastici
2.1 Processo stocastico gaussiano
Un esempio di processo stocastico stazionario, fondamentale per le applicazioni
grafiche, ma che non è fortemente stazionario è il processo stocastico gaussiano.
Si dice che {Xt}t∈T è un processo stocastico gaussiano se e solo se, ∀n ∈ N+
e
per ogni vettore (t1, t2, . . . tn) in Tn
, il vettore n-dimensionale (Xt1 , Xt2 , ..., Xtn )
di variabili casuali ha distribuzione gaussiana multivariata, cioè la sua densità di
probabilità è:
f(x) = (2π)
−n
2 |Σ|
−1
2 e
−1
2
(x−µ) Σ−1(x−µ)
, (2.1)
dove x = (xt1 , xt2 , ..., xtn ) , µ = (µ1, µ2, ..., µn) e Σ = |Cov(Xt, Xs)|, ∀(t, s).
È un processo gaussiano quando cioè la distribuzione congiunta di un qualunque
sottoinsieme di elementi del processo è una v.c. Normale multivariata.
Un processo gaussiano è (debolmente) stazionario se la funzione media µj è costante
e la funzione di autocovarianza è funzione della differenza k = |t − s|. In tal caso,
però, l’intera funzione di distribuzione è invariante rispetto al tempo e ciò implica
che il processo è anche fortemente stazionario. Pertanto, per processi gaussiani con
varianza finita abbiamo la seguente equivalenza:
p.s. fortemente stazionario ⇐⇒ p.s. (debolmente) stazionario (2.2)
15
Dunque, se un processo gaussiano è stazionario, la varianza è costante, per cui la
matrice di varianze-covarianze corrispondente sarà:
Σ =



γ0 ... γk−1
... ... ...
γk−1 ... γ0


 (2.3)
2.2 White Noise
Un processo stocastico {at}t∈T si dice rumore bianco (o white noise), siglato
con la notazione at ∼ WN(0, σ2
), se {at} è una successione di variabili aleatorie
non correlate, identicamente distribuite con media nulla e varianza σ2
che non
dipendono dal tempo t, ossia tale che:
1. E[at] = 0;
2. var[at] = σ2
a > 0;
3. cov(at, as) = E(atas) = γ(τ) = 0, ∀t = s, quindi ∀τ = 0
Figura 2.1: Simulazione di un White Noise uniforme
16
La funzione di autocovarianza di un processo White Noise è tale per cui:
γk =
σ2
, k = 0
0, k > 1
cioè vale σ2
a lag 0 e vale 0 per ogni lag maggiore di lag 0.
La funzione di autocorrelazione (ACF), invece, è tale per cui:
ρk =
1, k = 0
0, k > 1
cioè vale 1 a lag 0 e vale 0 (rientra all’interno delle bande di confidenza) per ogni
lag diverso da lag 0.
Figura 2.2: ACF per un White Noise uniforme
2.2.1 White Noise gaussiano
Si parla di White Noise gaussiano se at ∼ N(0, σ2
). In tal caso, {at} costituisce
una successione di variabili casuali i.i.d. (indipendenti ed identicamente distribuite)
con media 0 e varianza costante.
17
Figura 2.3: Simulazione di un White Noise gaussiano
L’ACF di un White Noise gaussiano è la seguente:
Figura 2.4: ACF per un White Noise gaussiano
18
2.3 Random Walk
Un random walk (o passeggiata casuale) è un processo stocastico non stazio-
nario {xt} che può essere scritto come:
xt = xt−1 + wt (2.4)
dove wt è un white noise. Sostituendo xt−1 = xt−2 + wt−2 nella (2.4), e sostituendo
ancora xt−2, xt−3 e così via, si ottiene:
xt = wt + wt−1 + wt−2 + ... (2.5)
In pratica, il processo di cui sopra non sarà infinito, ma partirà da un certo momento
t = 1. Da qui si ha:
xt = w1 + w2 + w3 + ... + wt (2.6)
La (2.6) è la somma finita di termini di white noise, ciascuno con media nulla e
varianza pari a σ2
.
Figura 2.5: Simulazione di un Random Walk
19
L’andamento del fenomeno (trend) è puramente stocastico ed è dovuto all’alta
correlazione seriale.
I momenti di questo processo sono:
E(xt) = 0 (2.7)
γk(t) = Cov(xt, xt+k) = tσ2
(2.8)
La covarianza è funzione del tempo, ecco perchè il processo è non stazionario.
In particolare, la varianza è tσ2
ed aumenta senza limiti all’aumentare di t. Da
qui segue che il random walk è appropriato solamente per previsioni di breve termine.
Per k > 0 la funzione di autocorrelazione del processo è:
ρk(t) =
Cov(xt, xt+k)
var(xt)var(xt+k)
=
tσ2
tσ2(t + k)σ2
=
1
1 + k/t
(2.9)
dove, per valori molto alti di t e valori di k considerevolmente più piccoli di t, ρk si
avvicina ad 1. Ragion per cui il correlogramma di un random walk è caratterizzato
da autocorrelazioni positive che decadono lentamente verso lo 0.
Figura 2.6: ACF per un Random Walk
20
2.4 Processi MA(q)
Sia { t}t∈T un rumore bianco con media nulla e varianza σ2
. Un processo stocastico
{Xt}t∈T si definisce processo stocastico a media mobile di ordine q, siglato
con Xt ∼ MA(q) dove MA sta appunto per Moving Average, se:
Xt = t + ψ1 t−1 + ... + ψq t−q =
q
i=0
ψi t−1 (2.10)
con {ψi} successione di numeri reali tale che ψ2
j < +∞. Inoltre, senza ledere la
generalità, si pone ψ0 = 1.
Ponendo ψi = −θi, con 1 = ψ0 = −θ0, si ottiene:
Xt = t − θ1 t−1 − θ2 t−2 − ... − θq t−q =
q
i=0
−θi t−1. (2.11)
Dal momento che q è un numero intero, e quindi il processo è composto da un
numero finito di termini, questo basta a garantire la stazionarietà dei processi
MA(q); esso, quindi, può essere scritto come la media (pesata dai coefficienti θ) di
q + 1 processi WN, stazionari e Gaussiani.
Il modello MA(q) è caratterizzato da q + 1 parametri (σ2
, θ1, θ2, ..., θq) , che sono
la varianza di at ed i q parametri specifici del modello che devono essere stimati.
La stazionarietà e la Normalità del processo non sono però sufficienti a stabilire
una relazione biunivoca tra il processo MA(q) e la funzione di autocovarianza;
dobbiamo, infatti, assicurarci anche la condizione di invertibilità per poter inferire
sul processo MA(q) a partire dalla stima della funzione di autocovarianza.
Per quanto riguarda i momenti di un processo MA(q), si ha:
E(Xt) = E( t − θ1 t−1 − θ2 t−2 − ... − θq t−q) = 0 (2.12)
γk =
(−θk + θ1θk−1 + θ2θk−2 + ... + θqθk−q)σ2
, k = 1, 2, ...q
0, k > q
ρk =
−θk + θ1θk−1 + θ2θk−2 + ... + θqθk−q, k = 1, 2, ...q
0, k > q
21
La ACF di un processo MA(q) è identicamente nulla, per k > q, mentre la sua PACF
tende a zero secondo un andamento esponenziale decrescente, senza annullarsi mai.
La stazionarietà si evince anche dall’assenza, in ciascuno di questi momenti del
processo, di una dipendenza con t.
Applicando l’operatore B al processo Xt ∼ MA(q), esso diventa:
Xt = t − θ1B( t) − θ2B2
( t) − ... − θqBq
( t)
= t(1 − θ1B − θ2B2
− ... − θqBq
)
(2.13)
Quindi, ponendo θ(B) = 1 − θ1B − θ2B2
− ... − θqBq
, abbiamo:
Xt = θ(B) t, (2.14)
dove θ(B) denota un polinomio di ordine q nell’operatore ritardo ed t è un processo
white noise.
Generalmente, e senza perdita di generalità, si pone θ(Bθ
) = θ0 = 1. Se θ(B) è un
polinomio di grado q, si dice anche che Xt è un processo MA(q).
Per il citato teorema dell’isomorfismo possiamo trattare B come incognita e scrivere
l’equazione caratteristica:
θ(B) = 1 − θ1B − θ2B2
− ... − θqBq
= 0 (2.15)
Si può dimostrare che il processo Xt ∼ MA(q) è invertibile se e solo se tutte le
radici dell’equazione caratteristica associata sono in modulo maggiori di 1, cioè:
|Bi| > 1, ∀i = 1, 2, 3, ..., q (2.16)
Nel caso di soluzioni complesse, esse devono ricadere al di fuori del cerchio unitario.
Un processo MA(q) che rispetta anche questa condizione è stazionario, gaussiano
ed anche invertibile, per cui è possibile stimarne i parametri e fare inferenza su di
esso.
In conclusione possiamo dire che “i processi di tipo MA(q) rispondono al tentativo
di spiegare il presente come la risultante di una successione incontrollata di impulsi
22
casuali, statisticamente compendiati nel White Noise t” [Piccolo, 1984].
2.4.1 Un esempio: il processo MA(1)
La forma generale del processo a media mobile di ordine 1, siglato con Xt ∼ MA(1)
è espressa dalla seguente relazione:
Xt = t − θ1 t−1 (2.17)
Applicando l’operatore ritardo B al processo Xt ∼ MA(1), la precedente relazione
assume la seguente forma:
Xt = t(1 − θ1B) (2.18)
Figura 2.7: Simulazione di un processo MA(1)
23
2.5 Processi AR(p)
Il processo stocastico auto-regressivo di ordine p (così chiamato perché
assimilabile ad una regressione della variabile Xt su sè stessa), è definito dalla
relazione:
Xt = φ1Xt−1 + φ2Xt−2 + ... + φpXt−p + at (2.19)
da cui si ricava:
Xt − φ1Xt−1 − φ2Xt−2 − ... − φpXt−p = at, (2.20)
dove i parametri φ1, φ2, ..., φp costituiscono i coefficienti della regressione lineare di
Zt rispetto ai suoi stessi valori passati, mentre at è un white noise.
Per quanto riguarda i momenti di un processo AR(p), si ha:
E(Xt) = E(φ1Xt−1 + φ2Xt−2 + ... + φpXt−p + at) = φµ (2.21)
γk =
−φ1 + γ1 + φ2γ2 + ... + φpγp, k = 0
−φ1γk−1 + φ2γk−2 + ... + φpγk−p, k > 0
ρk = φ1ρk−1 + φ2ρk−2 + ... + φpρk−p (2.22)
L’ACF di un processo AR(p) tende a zero secondo la combinazione lineare di
esponenziali decrescenti (nel caso in cui l’equazione caratteristica associata al
processo ammetta radici reali) o sinusoidali smorzate (nel caso in cui l’equazione
caratteristica associata al processo ammetta radici complesse coniugate), senza mai
annullarsi, mentre la sua PACF è identicamente nulla per k > p.
Applicando l’operatore B al processo Xt ∼ AR(p), esso diventa:
(1 − φ1B − φ2B2
− ... − φpBp
)Xt = at (2.23)
Quindi, ponendo 1 − φ1B − φ2B2
− ... − φpBp
= φ(B), abbiamo:
φ(B)Xt = at (2.24)
24
Essendo Zt ∼ AR(p) funzione delle variabili del passato, esso è sempre invertibile,
ma non sempre stazionario: esso è stazionario solo se tutte le soluzioni dell’equazione
caratteristica associata al processo, così definita:
φ(B) = 1 − φ1B − φ2B2
− ... − φpBp
= 0 (2.25)
sono in modulo maggiori di 1, cioè se:
|Bi| > 1, ∀i = 1, 2, 3, ..., p (2.26)
Nel caso di soluzioni complesse, esse devono ricadere al di fuori del cerchio uni-
tario. Un processo AR(p) che rispetti anche questa condizione è invertibile ed
anche stazionario, per cui è possibile stimarne i parametri e fare inferenza su di esso.
In conclusione possiamo dire che “i processi di tipo AR(p) rispondono al tentativo di
spiegare il presente in funzione del passato, fino ad una certa distanza p, e secondo
un sistema di coefficienti φi” [Piccolo, 1984].
2.5.1 Un esempio: il processo AR(1)
La forma generale del processo auto-regressivo di ordine 1, siglato con Xt ∼ AR(1)
è espressa dalla seguente relazione:
Xt = φ1Xt−1 + t (2.27)
Applicando l’operatore ritardo B al processo Xt ∼ AR(1), la precedente relazione
assume la seguente forma:
(1 − φ1B)Xt = t (2.28)
25
Figura 2.8: Simulazione di un processo AR(1)
2.6 Dualità tra processi MA ed AR
Prima di procedere con l’analisi di ulteriori processi, è opportuno segnalare alcune
cose fondamentali:
• le condizioni di stazionarietà di un processo AR sono equivalenti a quelle di
invertibilità di un processo MA;
• le condizioni di invertibilità di un processo MA sono equivalenti a quelle di
stazionarietà di un processo AR;
• si dimostra che un processo stazionario AR(p) può sempre essere espresso
come un processo MA(∞);
• si dimostra che un processo invertibile MA(q) può sempre essere espresso
come un processo AR(∞);
• i coefficienti di autocorrelazione totale di un MA(q) si comportano analoga-
mente ai coefficienti di correlazione parziale di un AR(p), p=q;
26
• i coefficienti di autocorrelazione parziale di un MA(q) si comportano analoga-
mente ai coefficienti di correlazione totale di un AR(p), p=q.
2.7 Processi ARMA(p,q)
I processi ARMA(Auto-Regressive Moving Average) costituiscono la famiglia
di processi stocastici di gran lunga più utilizzati in econometria. Essi costituiscono
una classe di processi stocastici lineari stazionari molto importanti nella modelliz-
zazione delle serie storiche di tipo lineare: i processi auto-regressivi a media mobile.
La ragione del loro successo scaturisce dal fatto che, data una qualsiasi funzione di
auto covarianza γ(.) tale che il limh→∞ γh e dato un intero k > 0, è sempre possibile
trovare un processo ARMA {Xt}t∈T con funzione di autocovarianza γX(h) tale che
γX(h) = γ(h) per h = 0 : k.
I due processi definiti precedentemente AR e MA “sono solo due diverse rap-
presentazioni del processo Xt, infatti un processo AR(p) coincide con un processo
MA(∞) ed un processo MA(q) coincide con un processo AR(∞), e quindi le due
formulazioni (finite) non sono che una sintesi della rappresentazione duale (infini-
ta)” [Piccolo, 1984]. Introduciamo dunque i processi misti ARMA(p,q), che cioè
contengono sia la componente AR che la componente MA.
Per esempio possiamo trovarci di fronte un processo Zt ∼ AR(p) la cui componente
residua t sia un processo MA(q), quindi:
φ(B)Zt = t (2.29)
dove t = θ(B)at. Da queste uguaglianze si ricava quindi:
φ(B)Zt = θ(B)at (2.30)
Oppure possiamo avere un processo Kt ∼ MA(q), a sua volta connesso con i valori
passati di un altro processo Zt ∼ AR(p), quindi:
Kt = θ(B)at (2.31)
27
dove, con una espressione equivalente, Kt = φ(B)Zt. Da queste uguaglianze si
ricava:
φ(B)Zt = θ(B)at (2.32)
Quindi “si può pensare al processo Zt come connesso alla sua storia passata (schema
AR) con l’interazione di un processo WN at, a sua volta connesso con la sua storia
passata (schema MA)” [Piccolo, 1984].
Ancora: “Mentre lo schema AR è un processo che possiede memoria del passato
di Zt, e lo schema MA è un processo che possiede memoria del passato di at, uno
schema del tipo ARMA opera sulla storia del processo Zt e sulla storia del processo
at” [Piccolo, 1984].
Definiamo, quindi, il processo auto-regressivo di ordine p e media mobile di ordine
q Zt ∼ ARMA(p, q) tramite la (2.26), che sviluppata diventa:
Zt − φ1Zt−1 − φ2Zt−2 − ... − φpZt−p = at − θ1at−1 − θ2at−2 − ... − θqat−q (2.33)
Il processo misto ARMA è stazionario se tutte le p radici dell’equazione caratteri-
stica associata alla componente AR sono in modulo maggiori di 1 ed è invertibile
se tutte le q radici dell’equazione caratteristica associata alla componente MA sono
in modulo maggiori di 1.
L’ACF di un processo ARMA(p,q) è una combinazione dei precedenti andamenti,
non annullandosi mai, ma decade verso lo zero con andamento esponenziale per i
lags k > p − q, mentre la sua PACF è anch’essa una combinazione degli andamenti
delle componenti AR e MA, non annullandosi mai, ma decadendo verso lo zero con
andamento esponenziale per i lags k > q − p.
2.7.1 Sintesi
Per sintetizzare, riassumiamo i concetti finora esposti attraverso due tabelle, nelle
quali vengono riportate le caratteristiche essenziali di ciascun processo:
28
Tabella 2.2: ACF e PACF per ciascun processo analizzato
Processo stocastico,
stazionario ACF PACF
e invertibile
Non si annulla mai
AR(p) ma È nulla per k > p
decade verso lo 0
Non si annulla mai
MA(q) È nulla per k > q ma
decade verso lo 0
Non si annulla mai Non si annulla mai
ARMA(p, q) ma ma
decade verso lo 0 decade verso lo 0
per i lags k > p − q per i lags k > q − p
Tabella 2.1: Processo stocastico, stazionario e invertibile
Processo Stazionario Invertibile
AR(p) φ(B) = 0 Sempre
|Bi| > 1
MA(q) Sempre θ(B) = 0
|Bi| > 1
ARMA(p, q) φ(B) = 0 θ(B) = 0
|Bi| > 1 |Bi|>1
29
2.7.2 Un esempio: il processo ARMA(1,1)
La forma generale del processo auto-regressivo (di ordine 1) a media mobile (di
ordine 1), siglato con Xt ∼ ARMA(1, 1) è espressa dalla seguente relazione:
Zt − φ1Zt−1 = at − θ1at−1 (2.34)
Applicando l’operatore B al processo Zt ∼ ARMA(1, 1) la (2.28) diventa:
(1 − φ(B))Zt = (1 − θ(B))at (2.35)
Figura 2.9: Simulazione di un processo ARMA(1,1)
2.8 I processi ARIMA(p,d,q)
Nelle serie osservate non sempre è garantita la stazionarietà, cioè il processo che le
ha generate non sempre rispetta le tre regole della stazionarietà in senso debole.
Occorre, dunque, generalizzare i modelli ARMA per poterli applicare anche a si-
tuazioni in cui i dati non sono stazionari, sono cioè realizzazioni di processi stocastici
non stazionari. Per quanto riguarda la non stazionarietà in varianza e covarianza
30
occorrono interventi in fase di analisi preliminare. Ad esempio, una situazione
di eteroschedasticità può essere risolta mediante una opportuna trasformazione
della variabile per renderla il più possibile omoschedastica. Per quanto riguarda,
invece, la non stazionarietà in media, essa indica che la serie ha un trend/ciclo che
rappresenta la variazione media del fenomeno nel tempo. Per rimuovere questa
componente e rendere la serie stazionaria ci possiamo servire del citato operatore
differenza prima. Se l’operatore è applicato ad una funzione lineare che stima il
trend, allora otteniamo una funzione costante. Se il trend, invece, risulta stimato
da un polinomio di grado k, allora possiamo applicare k
per ricondurlo ad una
costante. Partendo da un insieme di dati xt possiamo applicare l’operatore diffe-
renza finchè non otteniamo un insieme k
xt che possiamo modellare come una
realizzazione di un processo stazionario.
Sostanzialmente, i modelli ARIMA (p,d,q) sono analoghi ai modelli ARMA (p,q)
applicati alle differenze di ordine d della serie dei valori, invece che agli effettivi
valori.
Se Zt è un processo non stazionario tale che d
Zt = Kt, che è stazionario (e
per il quale è valida una rappresentazione ARMA stazionaria e invertibile), e se
φ(B)Kt = θ(B)at, allora avremo la seguente relazione:
d
φ(B)Zt = θ(B)at (2.36)
Possiamo definire il processo stocastico Auto-Regressivo di ordine p, inte-
grato d volte e Media Mobile di ordine q, Zt ∼ ARIMA(p, d, q), tramite la
(3.6), che sviluppata diventa:
d
(Zt −φ1Zt−1 −φ2Zt−2 −...−φpZt−p) = at −θ1at−1 −θ2at−2 −...−θqat−q (2.37)
Quindi possiamo stabilire la seguente relazione biunivoca:
Zt ∼ ARIMA(p, d, q) ⇐⇒ d
Zt = Kt ∼ ARMA(p, q) (2.38)
31
Sfruttando il teorema dell’isomorfismo possiamo scrivere, in modo equivalente:
d
(B)Zt = θ(B)at ⇐⇒ φ(B)Kt = θ(B)at (2.39)
Abbiamo quindi definito modelli per serie non stazionarie in media (ARIMA).
2.8.1 Un esempio: il processo ARIMA(1,1,1)
La forma generale del processo auto-regressivo (di ordine 1) integrato (di ordine 1)
a media mobile (di ordine 1), siglato con Xt ∼ ARIMA(1, 1, 1) è espressa dalla
seguente relazione:
Zt − φ1Zt−1 = at + at−1 (2.40)
Applicando l’operatore B al processo, la formula diventa:
(1 − φB)(1 − B)Zt = (1 + θ1B)at (2.41)
Graficamente, il processo è rappresentato così:
Figura 2.10: Simulazione di un processo ARIMA(1,1,1)
32
Capitolo 3
Serie storiche
3.1 Introduzione
Si definisce serie storica un insieme finito di osservazioni, ordinate nel tempo e
solitamente misurate ad intervalli di tempo equispaziati (ogni mese, ogni trimestre,
ogni anno, etc..), di un certo fenomeno che si evolve in modo aleatorio. Ogni
osservazione xt può essere vista come una realizzazione di una variabile aleatoria
Xt, la quale indica, in particolare, un processo stocastico {Xt}t∈T . Secondo
tale definizione, una serie storica {xt; t ∈ T} può specificarsi come una successione
finita di valori correlati sequenzialmente: possiamo pertanto affermare che una se-
rie storica è la parte finita di una realizzazione campionaria di un processo stocastico.
Si parla di serie storiche, quindi, quando si considera un fenomeno in relazione alla
sua evoluzione nel tempo. L’osservazione quotidiana dei fenomeni ne offre infiniti
esempi: si pensi ad esempio all’andamento dei prezzi di certi beni, specie in periodo
di economia fortemente dinamica, o all’altezza del mare in un dato luogo. Finalità
dello studio di una serie storica è quello di descrivere ed interpretare il fenomeno
fisico oggetto di studio da essa rappresentato in modo da poter effettuare delle
previsioni sulla dinamica temporale del fenomeno stesso.
L’analisi delle serie storiche giunge a tale obiettivo, mediante l’individuazione
di un opportuno processo stocastico che abbia traiettorie che si adattino ai dati,
per poter poi formulare previsioni. Per fare ciò, risulta necessario restringersi ad
33
una classe di processi stocastici che consenta di:
1. identificare univocamente il processo, ossia il modello;
2. fare inferenza sui momenti del processo stesso, cioè ottenere delle stime
corrette e consistenti dei momenti del processo.
Utilizzando strutture probabilistiche si deve, infatti, tener conto che ciò che viene
osservato non è che una sola realizzazione, relativa ad un intervallo di tempo limitato.
D’altra parte, se ciò che si osserva viene interpretato come una realizzazione finita di
un processo stocastico che gode di particolari proprietà, allora è possibile trovare un
unico modello adatto a rappresentare l’evoluzione temporale del fenomeno oggetto
di studio. Questo è il motivo per cui nei precedenti capitoli sono state introdotte le
proprietà di stazionarietà dei processi.
Nell’analisi delle serie storiche, l’unica cosa cui si è interessati è dare una spiegazione
quantitativa all’andamento nel tempo di un fenomeno, in modo da poter formulare
delle ipotesi realistiche sul suo andamento futuro. Tutto questo, indipendentemente
da eventuali variabili che possano influenzare l’andamento della serie, sia nel passato
che in ottica previsiva: il fenomeno viene modellato solamente rispetto al tempo.
3.1.1 Serie continue e serie discrete
Consideriamo una grandezza z la quale vari nel tempo t, quale, ad esempio, la
temperatura in un dato luogo. Possiamo trovarci in presenza di due situazioni
diverse:
1. la grandezza z è funzione continua del tempo t ed in tal caso la indicheremo
con z(t). In questa ipotesi il diagramma rappresentativo dell’andamento
temporale del fenomeno si presenta come indicato nella figura (2.1 a) e la
serie temporale è detta continua;
2. la grandezza z viene rilevata solamente in certi istanti t = 0, 1, 2, 3, . . . .. In
questa ipotesi il diagramma rappresentativo dell’andamento temporale del
fenomeno si presenta come indicato nella figura (2.1 b) e la serie temporale è
detta discreta.
34
Figura 3.1: Serie temporale continua (a) e discreta (b)
3.1.2 Serie deterministiche e serie probabilistiche
Quando si studia una serie temporale ci si può trovare in presenza di due comporta-
menti, concettualmente ben distinti, indicati, rispettivamente, come andamento
deterministico ed andamento stocastico.
Si dice che un andamento temporale è di tipo deterministico quando si può preve-
dere il suo sviluppo futuro senza errore. Tale andamento temporale è rappresentato
da una funzione matematica che consente di determinare, in modo certo, il suo
valore in qualunque istante t.
Molti comportamenti temporali sono, tuttavia, caratterizzati da andamenti erratici,
con oscillazioni irregolari di segno positivo e negativo. Sono queste le caratteristiche
degli andamenti di tipo stocastico, il cui nome deriva dal fatto che essi si possono
spiegare come manifestazioni di eventi casuali. Rispetto al problema della previsione,
questi fenomeni si presentano in modo esattamente opposto a quelli deterministici,
in quanto la previsione delle loro future manifestazioni è sempre affetta da errori.È
opportuno ricordare, però, che gli eventi casuali non sono prevedibili nelle loro single
manifestazioni, ma si possono fare previsioni (in termini probabilistici) quando
si considerano "masse di casi". L’esame statistico delle serie temporali di tipo
non deterministico può fornire utili informazioni tali da consentire di scoprire
35
il "meccanismo" che governa la serie stessa consentendo, così, una previsione
abbastanza precisa del futuro andamento del fenomeno temporale.
3.2 Il teorema di Wold
La gran parte degli andamenti temporali che è possibile osservare sembrano ottenuti
dalla sovrapposizione di un andamento deterministico con uno probabilistico (vedi
figura 3.2). In questo caso si parla di andamento misto, che si suppone sia
ottenuto dalla somma di due andamenti elementari.
Figura 3.2: Serie storica ad andamento misto
Tale risultato è messo in luce anche dal noto
Teorema 3.2.1 (Teorema di Wold).
Ogni processo stocastico stazionario Xt di valore medio µ può sempre decomporsi
nella somma di due processi stocastici Zt e Vt, stazionari
E(Zt) = 0, E(Vt) = 0 (3.1)
e tra loro mutuamente incorrelati (ortogonali),
corr(Zt, Vt) = 0 (3.2)
detti rispettivamente componente non deterministica (componente stocastica) Zt e
componente deterministica Vt.
36
Dunque il processo stocastico stazionario Xt di valore medio µ ha la seguente forma:
Xt = Zt + VT (3.3)
dove Zt e Vt hanno le seguenti rappresentazioni:
Zt = at + ψ1at−1 + ψ2at−2 + ..., con
∞
j
ψ2
j < +∞ (3.4)
Vt = µ +
+∞
j=1
(Aj cos(λjt) + Bj sin(λjt)) (3.5)
in cui nella prima at ∼ WN(0, σ2
) e, nella seconda, Aj e Bj sono successioni di
v.c. con valore medio zero, varianza costante ed incorrelate tra loro, e λj è una
successione di numeri reali tale che 0 ≤ λj ≤ π, per ogni j [Piccolo, 1984].
La componente stocastica Zt è una componente casuale completamente impre-
vedibile, nota anche come processo stocastico lineare in quanto è costituita da una
combinazione lineare infinita di processi white noise.
La componente deterministica Vt, invece, è nota come processo stocastico de-
terministico, poiché le realizzazioni di questo processo sono funzioni matematiche
in quanto dipendono solo dal coseno e dal seno.
3.3 Un approccio moderno alle serie storiche: la
procedura di Box-Jenkins
L’analisi moderna delle serie storiche si concentra sul processo generatore della
componente aleatoria Zt, esprimibile a sua volta come la somma delle seguenti due
componenti: Zt = g(Yt−1, Yt−2, ..., t − 1, t − 2, . . . ) + t.
L’approccio Moderno si fonda fondamentalmente sulla procedura proposta da Box e
Jenkins (1976). Essa consiste in un procedimento iterativo che consente di pervenire,
a partire dall’osservazione dei dati, alla costruzione di un modello ARIMA che
fornisce una descrizione valida/adeguata del processo stocastico generatore della
serie storica osservata. Si tratta di uno strumento statisticamente efficiente per
37
risalire dalla serie storica al processo stocastico generatore. Box e Jenkins, quindi,
hanno cercato di costruire un approccio ai dati per il quale sia la serie storica ad
orientare verso il modello e non viceversa.
I modelli più comunemente utilizzati per l’analisi delle serie storiche sono i modelli
ARIMA(p, d, q) × (P, D, Q)s che sono dei modelli misti di componenti a media
mobile (MA) e di componenti autoregressive (AR), che tengono conto dell’eventuale
non stazionarietà e stagionalità di una serie. Tali modelli cercano di spiegare
l’andamento di una serie storica basandosi sulla storia passata: in altre parole, si
tratta di modelli il cui obiettivo primario è quello di determinare, sulla base dei
valori già noti del fenomeno oggetto di studio che si evolve nel tempo, i suoi valori
futuri.
3.3.1 I processi ARIMA stagionali
Nel caso di serie storiche con rilevazioni a intervalli minori di un anno abbiamo
a che fare col fenomeno della stagionalità, in gran parte esso è dovuto al moto
terrestre intorno al sole, con tutti gli effetti che ne derivano su clima, calendario,
usanze, ecc. . . In una serie storica a rilevazioni mensili, ad esempio, la rilevazione
di un certo fenomeno relativa ad un mese è influenzata sia dalla rilevazione dei
mesi precedenti, che dalla rilevazione dello stesso mese degli anni precedenti, stessa
cosa potrebbe dirsi nel caso di serie storiche trimestrali, quadrimestrali, ecc..
In questi casi vengono introdotti i modelli ARIMA stagionali fondati sulla
constatazione che: “se una serie è stagionale di periodo s, allora occorre collegare
Zt e Zt−s. Quindi è fondamentale osservare le differenze Zt − Zt−s = (1 − Bs
)Zt,
che sono esattamente le variazioni annuali del fenomeno Zt mese per mese (se
s=12), trimestre per trimestre (se s=4), e così via. È utile quindi definire l’operatore
differenza stagionale s” [Piccolo, 1984]:
sZt = (1 − Bs
)Zt = Zt − Zt−s (3.6)
L’applicazione dell’operatore s ad una serie con stagionalità di periodo s eliminerà
la componente stagionale, più una componente trend del primo ordine, cioè lineare.
Il modello ARIMA stagionale esprime il legame tra valori dello stesso mese in
38
anni differenti, allo stesso tempo però questi valori sono legati a quelli dei mesi
precedenti, dello stesso anno, come esplicitato nel seguente schema:
Figura 3.3: Modelli ARIMA stagionali
“Come indicano le frecce nella tabella, un valore Zt è connesso ai valori Zt−12j,
j = 1, 2, ... dello stesso mese ma di anni precedenti, ma anche ai valori Zt−i,
i = 1, 2, ... dello stesso anno ma di mesi precedenti: tali connessioni possono
essere descritte da due tipi di modelli ARIMA” [Piccolo, 1984]. Introduciamo tre
nuovi operatori, con caratteristiche simili a quelli introdotti nel caso di serie non
stagionali:
• l’operatore differenza stagionale di ordine D:
d
s = (1 − Bs
)d
(3.7)
• l’operatore AR stagionale di ordine P:
Φ(Bs
) = 1 − Φ1Bs
− Φ2B2
s − ... − ΦP BP
s (3.8)
• l’operatore MA stagionale di ordine Q:
Θ(Bs
) = 1 − Θ1Bs
− Θ2B2
s − ... − ΘQBQ
s (3.9)
39
Il modello che esplicita il legame tra valori dello stesso mese diventa, per ogni
generico s è:
Θ(Bs
) d
s Zt = Θ(Bs
)at (3.10)
dove, posto d
sZt = Kt, si esplicita nel modo seguente:
Kt −Θ1Kt−s −Θ2Kt−2s −...−ΘpKt−ps = at −θ1at−s −θ2at−2s −...−θqat−qs (3.11)
in cui i residui at non sono WN perché dipendono ancora dal legame tra periodi
successivi dello stesso anno, per cui è possibile ipotizzare un modello ARIMA
(p,d,q) definito da:
φ(B) d
at = θ(B)at (3.12)
con at ∼ WN(0, σ2
a). Possiamo, quindi, arrivare a definire la formulazione generale
del modello ARIMA stagionale (p, d, q) × (P, D, Q)s tenendo conto di un valore
costante pari a θ0, della media µ del processo Xt e dell’eventuale trasformazione di
Box-Cox di parametro λ:
φp(B)φp(Bs
) d d
s(Xt − µ)λ
= θ0 + θq(B)θq(Bs
)at (3.13)
Per garantire la stazionarietà e l’invertibilità di questo modello devono essere
verificate la stazionarietà e l’invertibilità di tutti gli operatori coinvolti, precisamente
occorre imporre che le equazioni:
• φ(B) = 0 abbia tutte le p radici, in modulo, maggiori di 1;
• Φ(Bs
) = 0 abbia tutte le P radici, in modulo, maggiori di 1;
• θ(B) = 0 abbia tutte le q radici, in modulo, maggiori di 1;
• Θ(Bs
) = 0 abbia tutte le Q radici, in modulo, maggiori di 1.
Un modello di questo tipo presenta p+q+P +Q+1 parametri da stimare, oltre agli
eventuali µ, θ0 e λ, se necessario. Per quanto riguarda le funzioni di autocorrelazione
per il modello stagionale, esse non possono essere automaticamente accostate a
quelle dei modelli non stagionali: soltanto gli andamenti dei modelli solo AR e solo
MA si conservano per processi solo AR stagionali e solo MA stagionali.
40
3.3.2 Le fasi della procedura
La procedura di Box-Jenkins si compone di quattro fasi:
1. analisi preliminari;
2. identificazione del modello ARIMA;
3. stima dei parametri;
4. verifica del modello
accanto alle quali, nel seguente schema iterativo, vengono sottolineati gli strumenti
statistici che occorre utilizzare
Figura 3.4: Procedura iterativa per la costruzione di un modello ARIMA
41
Amalisi preliminari
Questa prima fase della procedura di Box-Jenkins consiste nello stabilire se la serie
storica presa in esame è stazionaria, mentre in caso negativo dovremo effettuare, su
di essa, delle opportune trasformazioni iniziali in modo che possa essere considerata
una realizzazione di un processo Gaussiano stazionario. Poiché è raro che le serie
storiche osservate presentino condizioni di stazionarietà e di normalità, si pone il
problema di verificare fino a quale punto sia possibile trasformare la serie originaria
per ricondurla alla realizzazione di un processo Gaussiano stazionario. Ciò comporta
un complesso di verifiche tendenti ad appurare tre condizioni:
1. la distribuzione Normale del white noise at;
2. l’assenza e/o l’eliminazione di valori anomali (outliers);
3. la stazionarietà della serie in media, varianza e covarianza.
Per quanto riguarda la Normalità del processo White Noise at è sufficiente verifica-
re la Normalità del processo Xt (che essendo stazionario, per ipotesi, è combinazione
lineare di at) mediante test di adattamento sulla serie storica degli scarti dalla
media: in genere, se essi presentano una distribuzione unimodale e simmetrica,
possiamo accettare l’ipotesi di Normalità.
Una asimmetria nella distribuzione degli scarti potrebbe essere causata dalla even-
tuale presenza di outliers: in questo caso i dati anomali andranno trattati con
procedure specifiche, prima di poter usare correttamente un modello ARMA.
Per quanto riguarda la non stazionarietà in media della serie, possiamo lavorare
sulla serie delle differenze di ordine d = 1, 2, 3, .. scegliendo la differenza dell’ordine
d per la quale le realizzazioni della serie differenziata k(t) = d
zt appaiono grafica-
mente stazionarie. L’applicazione di questo operatore ha, però, lo svantaggio di far
perdere dati al crescere di d.
Per quanto riguarda la non stazionarietà in varianza (eteroschedasticità), è
possibile applicare la trasformazione logaritmica se i dati sono positivi o sono
stati preventivamente traslati in modo da essere positivi; questa trasformazione
dovrebbe ridurre la variabilità del fenomeno. In alternativa è possibile applicare
la trasformazione Box-Cox, ricercando il λ tale per cui la serie kt(λ)sia la più
42
omoschedastica possibile.
Il caso di una serie non omoschedastica in covarianza è difficile da individuare,
e tale eteroschedasticità è difficile da eliminare, quindi nella pratica si assume che la
covarianza sia stazionaria, oppure, nel caso si disponga di molti dati e sia possibile
farlo, si divide la serie in più sottoserie con covarianza stazionaria al loro interno.
Identificazione del modello
Gli strumenti utilizzati per l’identificazione di un modello ARIMA che possa
rappresentare adeguatamente il processo generatore della serie storica osservata,
sono le funzioni di autocorrelazione globale e parziale stimate. Tali funzioni, stimate
sui dati della serie, vanno poi confrontate con le funzioni di autocorrelazione
globale e parziale teoriche relative a diversi modelli ARIMA. Si sceglierà quel
modello avente le funzioni di autocorrelazione globale e parziale più simili alle
corrispondenti funzioni calcolate sulla serie di partenza.
In altre parole, assegnata una serie storica stazionaria, o resa tale in seguito alle
trasformazioni effettuate nella prima fase, procediamo al calcolo delle autocovarianze
e della funzione di autocorrelazione tramite gli stimatori:
γˆ(k) =
1
N
N−k
t=1
Cov(Xt, Xt+k) (3.14)
ρˆ(k) =
γˆ(k)
γˆ(0)
, ∀k = 0, 1, 2, ... (3.15)
Dallo studio dell’ACF e della PACF, ovvero dal confronto dell’andamento osser-
vato rispetto all’andamento (teorico) deducibile per processi AR(p), MA(q) ed
ARMA(p,q), occorre decidere l’ordine p e/o q delle componenti AR e/o MA. Si
comprende, allora, che dovremo sapere quali sono i comportamenti tipici e teorici di
ρ(k) e π(k) per i processi ARMA(p,q) al variare di p e/o di q. Tale fase costituisce
l’identificazione dei modelli ARMA(p,q) ed è, per molti motivi, quella più soggettiva
e controversa della proposta metodologica di Box e Jenkins. Più immediato da
individuare è il comportamento delle funzioni di autocorrelazione globale e parziale
a partire dalla conoscenza del processo stazionario ed invertibile.
La verifica sulla presenza della componente MA (da sola) o su quella AR (da
43
sola) può essere agevolata dal fatto che, entrambe le ipotesi, si riconducono a
costruire bande di confidenza (al 95%), approssimativamente pari a ± 2√
N
, attorno
alle funzioni ρ(k) e π(k). Tali bande, lungi dall’essere definitorie, hanno solo un
valore indicativo, capace di fornire un supporto statistico approssimato alla dedu-
zione derivante dall’analisi complessiva delle funzioni di autocorrelazione stimate.
Più complessa ci sembra l’individuazione immediata di componenti miste del tipo
ARMA in quanto, eccettuato il caso p = 1 e q = 1, non è agevole sintetizzare, a
priori, le differenti funzioni di autocorrelazione nello spazio dei parametri ARMA.
Tuttavia, poiché la proposta di Box e Jenkins è una procedura essenzialmente
iterativa, non è affatto limitante cominciare l’identificazione delle componenti a
partire da quelle di basso ordine (p ≤ 2; q ≤ 2), con la possibilità di aumentarle
successivamente qualora l’analisi dei residui ne mostrasse la presenza. Con tale
premessa, è possibile elencare le seguenti indicazioni tratte da un’interazione fra
esperienza empirica e risultati teorici:
1. una ACF che decade quasi linearmente e una corrispondente PACF il cui
valore al lag 1 è molto vicino a 1 (mentre quelli ai lags successivi sono
praticamente nulli) è segno di un trend nella serie storica;
2. un decadimento esponenziale decrescente e monotòno nell’ACF, confermato da
un singolo valore della PACF piuttosto significativo, indica una componente
AR(1); la sua persistenza nella funzione di autocorrelazione dei residui, dopo
aver costruito tale modello, può suggerire modelli AR(p), p > 1;
3. una ACF con comportamento periodico smorzato con ciclo quasi costante
può suggerire una componente AR(2) con radici complesse nell’equazione
caratteristica; la conferma deriva da una PACF significativamente diversa da
zero ai primi due lags, ma con πˆ(2) negativo;
4. valori isolati nella ACF, ai quali corrispondono valori decrescenti espo-
nenzialmente (ma non regolarmente) nella PACF, indicano componenti
MA(q);
5. valori decrescenti nella ACF, praticamente similari anche nella PACF, che
decadono, non dal lag 0, ma da valori successivi, suggeriscono componenti
44
miste del tipo ARMA, anche se a priori nulla può dirsi sulla coppia (p,q)
eccetto il caso molto semplice p = q = 1” [Piccolo, 1984].
Stima dei parametri
Identificati gli ordini (p,q) del modello ARMA definito dalla (3.11), occorre proce-
dere ad una stima efficiente dei p + q + 1 parametri che lo caratterizzano, cioè del
vettore:
[φ1, φ2, ..., φp, θ1, θ2, ..., θq, σ2
a] (3.16)
Ipotizzando una distribuzione Gaussiana per at, e quindi per Kt, si ricorre al
metodo della massima verosimiglianza (è la tecnica preferita). Questo fornisce
stimatori con proprietà ben definite.
La procedura dalla quale si ottengono le stime di massima verosimiglianza è
iterativa e viene generalmente effettuata dai software statistici, poiché le equazioni
di verosimiglianza sono complicate da risolvere analiticamente: il metodo, oltre
alle stime dei parametri, restituisce anche i relativi errori standard, in modo che le
stime kˆ(.) ottenute possano essere sottoposte a test di significatività.
Alternativamente, si può utilizzare il metodo dei minimi quadrati non lineari,
quando cioè la funzione da minimizzare non è lineare.
Verifica del modello stimato
Una volta stimato il modello si procede all’analisi dei residui per verificare che essi
si distribuiscano come un white noise gaussiano. Tale verifica può essere effettuata
in 3 momenti:
1. analisi grafica dei residui: essa è essenziale per individuare pattern più
o meno evidenti, ricorrenze cicliche, valori anomali, da correggere adegua-
tamente nel ciclo successivo. Tale analisi vorrebbe, almeno ad una prima
impressione, concludere che i residui sono casuali nel senso che sono una
successione imprevedibile di at+1 a partire da at;
2. analisi della distribuzione dei residui: si costruisce, generalmente, l’i-
stogramma dei residui per verificarne la Normalità, o almeno, la simmetria
e l’unimodalità. Si possono, in aggiunta, applicare alcuni test per testare
45
ipotesi sulla forma della distribuzione (ad esempio il test di Shapiro-Wilk
o il test di Jarque-Bera) e sulla bontà di adattamanto (che si basa sul χ2
);
3. stima dell’autocorrelazione dei residui: è il momento più rilevante nel-
l’ambito della proposta di Box e Jenkins, in quanto consente di orientare
opportunamente verso modelli alternativi rispetto a quello stimato. Poi-
ché l’ipotesi at ∼ WN(0, σ2
a) imporrebbe una funzione di autocorrelazione
ρa(k) = 0 per ogni k = 0, si calcola la funzione di autocorrelazione ρa(k) = 0
dei residui stimati at che, [...] presenta varianza approssimata pari a 1
N
. In
pratica, per l’autocorrelazione dei residui si costruiscono bande di confidenza
al 95% attorno al valore 0, approssimativamente pari a ± 2√
N
. I. Ogni valore al
di fuori della banda, ovvero ogni andamento caratteristico di componenti AR
e/o MA, sarà ritenuto indicativo di inadeguatezza del modello. [Piccolo, 1984]
Alcuni test che vengono utilizzati per la verifica del modello sono il test di Ljung-
Box ed il test di Durbin-Watson.
Il primo verifica se alcuni dei gruppi di autocorrelazioni della serie storica sono
diversi da 0: esso, cioè, verifica l’intera casualità dei residui basandosi su un de-
terminato numero di lags. Il test viene eccezionalmente utilizzato per i modelli
ARIMA. Si noti che esso viene messo in atto sui residui del modello ARIMA e
non sulla serie storica di partenza, e, in alcune applicazioni, l’ipotesi realmente
sottoposta a verifica è che i residui del modello ARIMA non siano autocorrelati.
Il secondo, invece, verifica la presenza di autocorrelazione nei residui di un modello
di regressione. L’ipotesi nulla è che gli errori non sono incorrelati in serie, mentre
l’ipotesi alternativa è che essi seguono un processo AR di primo ordine.
È in quest’ultima fase che la metodologia proposta da Box e Jenkins trova il
suo punto di forza: nell’ipotesi di rifiuto del modello, la ripetizione del ciclo
identificazione – stima – test viene effettuata sulla base dei motivi che hanno
condotto al rifiuto di quella ipotesi. In altri termini, il rifiuto del modello insegna
circa la direzione da prendere per un modello alternativo da identificare, stimare,
verificare e così via. L’accettazione del modello, infine, implica la sua utilizzazione
statistica per gli obiettivi della ricerca: previsione, simulazione, controllo, ecc..
46
Capitolo 4
Un caso studio: la domanda di
benzina in Ontario
4.1 Introduzione
Ben 16 raffinerie del Canada (nella figura, in rosso) trattano il petrolio che viene
prodotto domesticamente ed importato dall’estero.
Figura 4.1: Raffinerie di prodotti petroliferi in Canada
47
Negli ultimi 5 anni, queste raffinerie hanno prodotto una media di 2,3 milioni di
barili di prodotti petroliferi raffinati ogni giorno. Circa l’80% di questi prodotti
sono stati utilizzati per spostare persone e merci, o per mantenere riscaldate le
case. Il prodotto più utilizzato all’interno di questo 80% è stata la benzina per
motori. Il diesel ed i mezzi distillati (come l’olio combustibile) sono la seconda
tipologia di prodotti più utilizzati, soprattutto per il trasporto di merci e passeggeri,
produzione di energia elettrica e riscaldamento domestico. A completare l’80% ci
sono la benzina per l’aviazione (utilizzata da velivoli commerciali e militari) ed
i combustibili pesanti (utilizzati per il trasporto marittimo)
In media, l’Ontario ed il Quebec gestiscono circa il 60% della benzina consumata in
Canada. Le province occidentali gestiscono circa il 32% del consumo di benzina del
Canada, mentre il restante 8% della benzina è consumata nelle Province atlantiche
e nei Territori.
Il seguente grafico a pila illustra la ripartizione media di un barile di prodotti
petroliferi raffinati utilizzati nelle raffinerie del Canada, rappresentato da prodotti
più pesanti sul fondo e da prodotti più leggeri in alto. I valori sono stati calcolati
basandosi sulla produzione media di prodotti raffinati canadesi tra il 2011 ed il 2016.
Figura 4.2: Ripartizione di un barile medio di prodotti petroliferi raffinati in Canada
48
La componente più grande è costituita dalla benzina per motori (36%), seguita
dal diesel ed i mezzi distillati (33%); i carburanti per l’aviazione rappresentano il
5%, l’asfalto ed altri prodotti leggeri il 4%.
La gamma di prodotti realizzati in ogni raffineria dipende dal tipo di petrolio che
viene raffinato, in quanto i prodotti più pesanti derivano dal petrolio più pesante,
mentre i prodotti più leggeri derivano dal petrolio più leggero. Circa un terzo del
greggio raffinato nel Canada occidentale è considerato pesante, mentre solo il 10%
del greggio raffinato nel Canada orientale è considerato pesante.
4.2 La domanda di benzina in Ontario dal gennaio
1960 al dicembre 1975
In questo capitolo affronteremo il problema di identificare, a partire da una serie
storica osservata, un modello ARIMA atto a descrivere le relazioni di dipendenza
temporale osservate nei dati e che possa ritenersi il processo generatore della serie
stessa. Illustreremo, quindi, la procedura di Box e Jenkins per la costruzione di
modelli ARIMA.
La serie storica reale, osservata mensilmente, fa riferimento alla domanda di benzina
in Ontario (espressa in milioni di galloni) dal gennaio del 1960 al dicembre del
1975. I dati2
sono stati estratti dalla Time Series Data Library, una collezione
di circa 800 serie storiche creata nel 1992 da Rob Hyndman.
4.2.1 Analisi preliminari
Statistiche descrittive
La serie storica in esame è composta da 192 osservazioni. Per brevità, ci limitiamo
a riportarne un estratto:
Jan Feb Mar Apr May Jun Jul Aug Sep Oct Nov
2
https://datamarket.com/data/set/22of/monthly-gasoline-demand-ontario-gallon-millions-
1960-1975
49
1960 87695 86890 96442 98133 113615 123924 128924 134775 117357 114626 107677
1961 92188 88591 98683 99207 125485 124677 132543 140735 124008 121194 111634
1962 101007 94228 104255 106922 130621 125251 140318 146174 122318 128770 117518
1963 108497 100482 106140 118581 132371 132042 151938 150997 130931 137018 121271
1964 109894 106061 112539 125745 136251 140892 158390 148314 144148 140138 124075
1965 109895 109044 122499 124264 142296 150693 163331 165837 151731 142491 140229
1966 116963 118049 137869 127392 154166 160227 165869 173522 155828 153771 143963
1967 124046 121260 138870 129782 162312 167211 172897 189689 166496 160754 155582
1968 139625 137361 138963 155301 172026 165004 185861 190270 163903 174270 160272
1969 146182 137728 148932 156751 177998 174559 198079 189073 175702 180097 155202
1970 154277 144998 159644 168646 166273 190176 205541 193657 182617 189614 174176
1971 158167 156261 176353 175720 193939 201269 218960 209861 198688 190474 194502
1972 166286 170699 181468 174241 210802 212262 218099 229001 203200 212557 197095
1973 188992 175347 196265 203526 227443 233038 234119 255133 216478 232868 221616
1974 194784 189756 193522 212870 248565 221532 252642 255007 206826 233231 212678
1975 199024 191813 195997 208684 244113 243108 255918 244642 237579 237579 217775
Disegniamo ed analizziamo il grafico della variabile Domanda di benzina in Ontario
dal 1960 al 1975:
Figura 4.3: Consumo di benzina in Ontario 1960-1975
50
La funzione di densità della variabile di riferimento è leggermente asimmetrica
con coda a destra, ma unimodale. Calcoliamo alcuni indici di posizione (media,
mediana, quartili, ecc.) e l’indice di variabilità più utile (scarto quadratico medio):
Consumo di benzina
Min. : 86890
1st Qu.:128426
Median :157459
Mean :162064
3rd Qu.:193556
Max. :255918
Dev.st.:41661.87
Skew. :3.199480e-01
Kurt. :-7.665780e-01
Evidenziamo come media (162064) e mediana (157459) non siano esattamente le
stesse, per cui la distribuzione del fenomeno in esame non è prossima a quella di
una v.c. Normale. Per verificare la Normalità ricorriamo al test di Jarque-Bera:
Jarque Bera Test
data: benzina1
X-squared = 7.7454, df = 2, p-value = 0.0208
Skewness
data: benzina1
statistic = 0.32246, p-value = 0.06813
Kurtosis
data: benzina1
statistic = 2.2569, p-value = 0.03556
L’unico p-value superiore alla soglia prefissata (0.05) è quello relativo alla misura
di asimmetria della distribuzione. Esso ci consente di non rifiutare l’ipotesi nulla
di Normalità della distribuzione. Per il resto, i risultati ci portano a dire che la
distribuzione non sia di tipo Normale, proprio come ipotizzato più sopra.
51
La forma della distribuzione può essere dedotta anche guardando il box-plot della
variabile, il quale mostra una distribuzione leggermente spostata verso il basso (la
lunghezza del "baffo" inferiore è più piccola rispetto al "baffo" superiore):
Figura 4.4: Box-plot della variabile
Dallo stesso grafico, inoltre, è possibile osservare la mancanza di valori anomali
(valori che si allontanano di gran lunga dalla media dei dati).
Osservando, invece, i box-plot mensili della variabile, è possibile osservare che:
Figura 4.5: Box-plot mensili
52
• sono assenti ulteriori valori anomali nelle distribuzioni mensili;
• la variabilità è quasi simile per tutte le distribuzioni;
• la domanda media di benzina è più bassa nei mesi iniziali dell’anno, cioè nei
mesi più freddi (in particolare nel mese di febbraio, dove scende del 18%);
• la domanda media di benzina è più alta nei mesi più caldi dell’anno (in
particolare ad agosto, dove sale del 16.3%).
Grafico della serie
Il passo più importante per l’analisi di una serie storica reale consiste nell’analisi
del grafico della serie e del grafico della sua funzione di autocorrelazione globale.
Analizzando il grafico della serie, possiamo notare alcune cose:
• la serie presenta un andamento (in rosso) crescente, ottenuto con una re-
gressione lineare dove la variabile di risposta è la domanda di benzina e la
variabile esplicativa è il tempo:
Figura 4.6: Time-plot
53
• la serie è non stazionaria in media dal momento che le oscillazioni non risultano
assestarsi su un unico valore;
• la serie è non stazionaria in varianza dal momento che l’ampiezza di alcune
oscillazioni (verso la fine) non è uguale rispetto alle altre;
• la componente stagionale (in verde) è abbastanza evidente, in particolare con
massimi nei mesi più caldi e minimi nei mesi più freddi.
Sul trend
Informazioni sulla regressione lineare con la quale abbiamo stimato il trend della
serie sono qui riportate:
Call: lm(formula = benzina1 ~ time(benzina1), data = benzina1)
Residuals:
Min 1Q Median 3Q Max
-34404 -12931 -645 12111 47173
Coefficients:
Estimate Std. Error t value Pr(>|t|)
(Intercept) -15895091 541135 -29.37 <2e-16 ***
time(benzina1) 8159 275 29.67 <2e-16 ***
---
Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1
Residual standard error: 17600 on 190 degrees of freedom
Multiple R-squared: 0.8225,Adjusted R-squared: 0.8216
F-statistic: 880.5 on 1 and 190 DF, p-value: < 2.2e-16
Entrambi i coefficienti di regressione (intercetta negativa e coefficiente angolare
positivo) sono significativi ad un livello di 0.001 e l’R2
corretto è abbastanza alto,
segno che il modello di regressione proposto si adatta molto bene ai dati.
54
Sulla stagionalità
È possibile evidenziare la componente stagionale all’interno della serie ricorrendo
anche a 2 grafici importanti: il seasonplot ed il lagplot.
Il seasonplot è un grafico che consente di ottenere il grafico delle serie mensili dei
dati. Tutte le serie mensili sono rappresentate in un unico grafico.
Figura 4.7: Seasonplot
Dal grafico, sopra riportato, è evidente la presenza della componente stagionale
nella sottoserie. Infatti, per tutti i mesi, vi è una similitudine negli andamenti della
domanda di benzina; nello specifico, ciò è evidente nei mesi di agosto (dove, per
quasi tutti gli anni si verifica il massimo) e di febbraio (dove, per tutti gli anni si
verifica il minimo).
Il lagplot (o grafico di autodispersione), invece, è il grafico di dispersione tra la
serie originaria e la stessa serie ritardata di un certo lag. Trattando di una serie
con periodicità mensile, abbiamo esaminato le serie ritardate da 1 a 12 mesi e ne
abbiamo fornito il relativo grafico.
55
Figura 4.8: Lagplot
Come si può facilmente notare non solo esiste un legame tra la serie originale e
quella ritardata di 12 mesi, ma anche, più marcato, rispetto a tutti i k lag precedenti.
Del resto era da aspettarsi un tale risultato.
ACF della serie
L’ACF, inoltre, fornisce altre importanti informazioni sulle componenti della serie.
Analizzandone il grafico (Figura 4.9), si può dedurre che:
• l’ACF presenta delle correlazioni elevate (di segno positivo) in corrispondenza
dei ritardi stagionali (lag 0,12,..), e ciò è indicatore della presenza di una forte
componente stagionale nella serie;
56
• l’ACF ha un andamento altalenante: ogni 6 lag l’andamento della funzione
cambia. Ciò significa che la funzione alterna fasi in cui il presente tende a
dipendere poco dal passato a fasi in cui il presente è fortemente influenzato
dagli eventi del passato;
• la componente tendenziale di fondo sembra quasi non incidere nella serie.
Figura 4.9: ACF della serie originale
Stazionarietà
Dall’analisi dei grafici effettuata in precedenza, quindi, risulta che la serie è non
stazionaria nè in media nè in varianza. Al fine di rendere stazionaria la serie, sono
necessarie le seguenti trasformazioni:
1. in primo luogo l’applicazione di una differenza prima (di ordine 1) della
serie per eliminare la componente trend e di una differenza stagionale (di
ordine 1) per eliminare la componente stagionale;
2. in secondo luogo l’utilizzo della trasformazione di Box-Cox, in particolare
la trasformazione logaritmica, utile per rendere la serie stazionaria in varianza;
57
Figura 4.10: Serie differenziata trasformata
L’applicazione della differenza prima e della differenza stagionale ha ridotto il nume-
ro delle osservazioni da 192 a 179 (quest’ultima ha anche eliminato la stagionalità);
la trasformazione logaritmica ha stabilizzato la varianza.
4.2.2 Identificazione del modello
Poichè è impossibile pervenire al processo stocastico generatore della serie storica
presa in esame, è necessario individuare il modello che meglio descrive il processo.
Per giungere a tale obiettivo, dobbiamo analizzare i grafici delle funzioni di auto-
correlazione globale e parziale della serie.
Dall’analisi del grafico dell’ACF osserviamo che:
• presenta un picco significativamente diverso da zero in corrispondenza del
primo ritardo (lag 1), per quanto riguarda la parte regolare;
• per quanto concerne la parte stagionale, in ogni ritardo stagionale la barra
verticale supera le bande; possiamo ipotizzare, quindi, che il modello che ha
generato la serie abbia una componente MA stagionale di ordine 1, p = P = 1;
58
• con il passare del tempo, le barre tendono a rientrare lentamente all’interno
delle bande di confidenza, sia sopra che sotto la linea dello 0.
Figura 4.11: ACF
Analizzando il grafico della PACF, invece, osserviamo che presenta due picchi
significativamente diversi da 0 in corrispondenza dei primi 2 lag, poi subito rientra
nelle bande di confidenza. Il modello generatore della serie avrà, pertanto, una
componente AR regolare di ordine 2, ossia p = 2.
Figura 4.12: PACF
59
Ora, secondo una procedura iterativa, possiamo riuscire a ricavare il modello
generatore della serie. La scelta l’abbiamo effettuata considerando tutti i modelli
stazionari (con e senza media nulla) e secondo il criterio dell’AIC:
Fitting models using approximations to speed things up...
ARIMA(2,0,2)(1,0,1)[12] with non-zero mean : -686.5218
ARIMA(1,0,0)(1,0,0)[12] with non-zero mean : -553.1353
ARIMA(0,0,1)(0,0,1)[12] with non-zero mean : -653.6475
ARIMA(2,0,2)(0,0,1)[12] with non-zero mean : -691.4997
ARIMA(2,0,2)(0,0,2)[12] with non-zero mean : -690.4469
ARIMA(2,0,2)(1,0,2)[12] with non-zero mean : -686.2093
ARIMA(1,0,2)(0,0,1)[12] with non-zero mean : -662.6688
ARIMA(3,0,2)(0,0,1)[12] with non-zero mean : -691.2586
ARIMA(2,0,1)(0,0,1)[12] with non-zero mean : -692.7893
ARIMA(1,0,0)(0,0,1)[12] with non-zero mean : -587.1538
ARIMA(2,0,1)(0,0,1)[12] with zero mean : -694.7873
ARIMA(2,0,1)(1,0,1)[12] with zero mean : -689.6129
ARIMA(2,0,1)(0,0,2)[12] with zero mean : -693.8171
ARIMA(2,0,1)(1,0,2)[12] with zero mean : -689.7311
ARIMA(1,0,1)(0,0,1)[12] with zero mean : -662.5676
ARIMA(3,0,1)(0,0,1)[12] with zero mean : -694.0044
ARIMA(2,0,0)(0,0,1)[12] with zero mean : -695.9326
ARIMA(2,0,0)(0,0,1)[12] with non-zero mean : -693.935
ARIMA(2,0,0)(1,0,1)[12] with zero mean : -691.1527
ARIMA(2,0,0) with zero mean : -656.8514
ARIMA(2,0,0)(0,0,2)[12] with zero mean : -695.4588
ARIMA(2,0,0)(1,0,2)[12] with zero mean : -691.6587
ARIMA(1,0,0)(0,0,1)[12] with zero mean : -589.1528
ARIMA(3,0,0)(0,0,1)[12] with zero mean : -694.0655
Now re-fitting the best model(s) without approximations...
60
ARIMA(2,0,0)(0,0,1)[12] with zero mean : -694.9266
Best model: ARIMA(2,0,0)(0,0,1)[12] with zero mean
Series: series1
ARIMA(2,0,0)(0,0,1)[12] with zero mean
sigma^2 estimated as 0.001129: log likelihood=351.46
AIC=-694.93 AICc=-694.7 BIC=-682.18
Il miglior modello che descrive il processo generatore della serie è dunque un
ARIMA(2, 0, 0)(0, 0, 1)s che ha la seguente espressione:
(1 − φ1B − φ2B2
)Xt = (1 − Θ1B12
)at (4.1)
dove (1 − φ1B − φ2B2
) è l’operatore AR regolare di ordine 2 e (1 − Θ1B12
) è
l’operatore MA stagionale di ordine 1. Sviluppando i prodotti si avrà:
Xt − φ1Xt−1 − φ2Xt−2 = at − Θ1at−12 (4.2)
4.2.3 Stima dei parametri
I parametri del modello, stimati con il metodo della massima verosimiglian-
za, sono tutti e 3 compresi tra -1 ed 1, con misure di errore (standard error)
abbastanza piccole,
Coefficients:
ar1 ar2 sma1
-0.9825 -0.6903 -0.5979
s.e. 0.0542 0.0539 0.0685
Sostituendo il valore dei parametri all’interno della (4.2), l’equazione diventa:
Xt + 0.9825Xt−1 + 0.6903Xt−2 = at + 0.5979at−12 (4.3)
che, se risolta, ammette radici inverse che giacciono all’interno del cerchio unitario:
61
Figura 4.13: Radici dell’equazione caratteristica
Il processo è, dunque, stazionario ed anche invertibile.
Adesso analizziamo la bontà del modello verificando le seguenti ipotesi nulle:
H0 : θ = 0 e H0 : Θ = 0. Le stime dei parametri devono risultare significativamente
diverse da 0, in particolare il parametro deve risultare in valore assoluto almeno
2 volte superiore alla sua deviazione standard. Utilizzando il test t di Student,
entrambe le ipotesi vengono rifiutate dal momento che le stime dei parametri
risultano in valore assoluto maggiori di 2 volte la rispettiva deviazione standard. Il
test t porta, dunque, a ritenere che le 2 stime siano significativamente diverse da 0:
z test of coefficients:
Estimate Std. Error z value Pr(>|z|)
ar1 -0.982484 0.054228 -18.1177 < 2.2e-16 ***
ar2 -0.690340 0.053860 -12.8174 < 2.2e-16 ***
sma1 -0.597897 0.068516 -8.7264 < 2.2e-16 ***
Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1
Inoltre le correlazioni fra le stime dei parametri devono risultare basse, non superiori
a 0.8, per evitare problemi di instabilità. Nel nostro caso esse assumono valori
(0.5758324, -0.1872304, -0.1121247) che sono nella norma, quindi la stabilità
del modello è assicurata.
62
4.2.4 Verifica del modello
Un’ulteriore verifica che dobbiamo effettuare riguarda l’analisi dei residui del
modello ARIMA stimato. In primo luogo occorre verificare che la media dei residui
non sia significativamente diversa da zero. Effettuiamo il test t di Student.
One Sample t-test
data: fitlog$residuals
t = -0.097094, df = 178, p-value = 0.9228
alternative hypothesis: true mean is not equal to 0
95 percent confidence interval: -0.005169446 0.004684608
sample estimates: mean of x: -0.0002424189
Prendendo i residui stimati precedentemente, possiamo determinare il valore della
statistica-test t (-0.097094) il cui p-value è pari a 0.92: ciò ci consente di conclu-
dere che la media degli errori non è significativamente diversa da zero.
In secondo luogo, occorre analizzare il grafico dei residui per valutare che essi risul-
tino stazionari e, successivamente, il loro grafico a dispersione per poter valutare
che siano incorrelati.
Figura 4.14: Analisi strutturale dei residui
63
Dall’analisi del grafico della serie storica dei residui osserviamo che questa risulta
stazionaria dal momento che fluttua attorno ad un valore costante, lo zero, e la
varianza risulta essere costante. L’unico valore che desta sospetto si registra nel
maggio del 1970 (-0.125), e ciò è dovuto principalmente al fatto che a partire dal
1970 i prezzi del petrolio greggio sono bruscamente saliti in risposta all’interruzione
del rifornimento a causa di eventi geopolitici nel Medio Oriente, culminati nel 1973
con la crisi energetica.
Dall’analisi del grafico a dispersione dei residui, invece, possiamo dire che i residui
sono incorrelati dato che non presentano una particolare struttura, nonostante la
presenza di un unico punto isolato dal resto dei punti.
Per poter attenuare l’effetto del valore sospetto che abbiamo identificato, inizializ-
ziamo una procedura automatica di identificazione degli outlier.
Series: fitlog$residuals
Regression with ARIMA(0,0,0) errors
Coefficients:
AO112
-0.126
s.e. 0.032
sigma^2 estimated as 0.001027: log likelihood=362.4
AIC=-720.79 AICc=-720.72 BIC=-714.42
Outliers:
type ind time coefhat tstat
1 AO 112 1970:05 -0.126 -3.943
Il risultato della procedura porta all’identificazione di un outlier additivo (AO)3
,
la cui osservazione è la 112 ed il cui valore è di −0.126. Il seguente grafico ci
3
Un outlier additivo è un punto per il quale si ha una brusca variazione nella serie in un
dato istante, dopo il quale però la serie stessa ritorna immediatamente all’andamento precedente.
In questo caso si preferisce ignorare il valore anomalo, eventualmente sostituendolo con una media
di valori immediatamente precedenti e successivi.
64
permette di valutare l’effetto che l’AO ha sulla serie storica ed il risultato della sua
sostituzione:
Figura 4.15: Identificazione di un outlier
In blu è riportata la serie storica originale (già stazionaria in media) alla quale è
stato sostituito il valore -0.126 (punto rosso in basso) con una media. Se prima la
serie poteva risultare non stazionaria in varianza, proprio per la presenza di questo
valore, ora osserviamo che la serie ha varianza costante. In rosso, invece, è riportato
l’effetto dell’outlier sulla serie: in particolare osserviamo come la presenza del punto
altera il regolare andamento della serie (che si assesta sullo 0) e la stazionarietà.
Per poter ora valutare, invece, la capacità del modello stimato di descrivere la
dipendenza temporale della serie storica analizzata, dobbiamo studiare l’andamento
dell’ACF dei residui. Un modello che riesce a cogliere le dipendenze della serie
storica presenterà, infatti, una ACF contenuta nella regione di confidenza, ossia
una funzione che sarà non significativamente diversa da zero in corrispondenza di
65
ogni ritardo. Riportiamo in Figura 4.16 il grafico dell’ACF dei residui ed in Figura
4.17 il grafico dell’andamento del p-value associato al test di Ljung-Box.
Figura 4.16: ACF dei residui
Il primo grafico mostra che le autocorrelazioni dei residui sono non significativamente
diverse da zero (tranne per alcuni lag), portando a non rifiutare l’ipotesi nulla
secondo cui i residui del modello provengono da un processo white noise.
Figura 4.17: p-value associati al test di Ljung-Box
Il secondo grafico, invece, rappresenta il valore del p-value associato alla statistica
test di Ljung-Box al variare di k. Dato che il p-value associato risulta superiore
al livello di significatività α = 0.05 (per tutti i lag), allora possiamo non rifiutare
l’ipotesi nulla congiunta al variare di k.
Numericamente, il test di Ljung-Box presenta il seguente risultato:
Box-Ljung test
data: fitlog$residuals
X-squared = 0.34235, df = 1, p-value = 0.5585
66
Stesso discorso si può fare per il test di Box-Pierce (alternativo al precedente):
Box-Pierce test
data: fitlog$residuals
X-squared = 0.33668, df = 1, p-value = 0.5618
La presenza/assenza di autocorrelazione seriale può essere visualizzata graficamente
anche attraverso il grafico a dispersione dei residui:
Figura 4.18: Autodispersione dei residui
Considerando la serie dei residui, il relativo grafico di autodispersione mostra
assenza di legami tra la serie originaria e quelle ritardate.
67
Per verificare, infine, che i residui siano normalmente distribuiti usiamo la funzione
di densità dei residui, che deve risultare distribuita secondo la legge Gaussiana, ed
il Q-Q plot, che fornisce una misura della bontà di adattamento della distribuzione
dei residui alla distribuzione gaussiana. In quest’ultimo grafico riportiamo in verde
la retta che indica la situazione di perfetta coincidenza tra i quantili della normale
standard e quelli della distribuzione dei residui.
Figura 4.19: Analisi distribuzionale dei residui
Analizzando l’istogramma dei residui ed il Q-Q plot possiamo dire che i residui
risultano normalmente distribuiti, sebbene qualche piccola "imprecisione" della
distribuzione nelle code.
Un potente test analitico che ci permette di valutare la Normalità dei residui è il
test di Jarque-Bera, di cui riportiamo il risultato:
Jarque Bera Test
data: fitlog$residuals
X-squared = 3.3893, df = 2, p-value = 0.1837
68
Skewness
data: fitlog$residuals
statistic = 0.16945, p-value = 0.3547
Kurtosis
data: fitlog$residuals
statistic = 3.5827, p-value = 0.1115
Essendo il p-value (0.2614) associato alla statistica-test maggiore rispetto alla
soglia empirica prefissata (α = 0.05) sia per la curtosi che per l’asimmetria, possiamo
accettare l’ipotesi nulla che i residui abbiano una distribuzione Normale.
4.2.5 Previsioni
L’ultimo controllo che dobbiamo effettuare per poter accettare ed utilizzare il
modello è valutare la sua capacità previsiva. Scegliamo di prevedere i valori degli
ultimi 12 mesi di osservazione ossia del 1975, usando il modello ARIMA identificato
e stimato tralasciando le osservazioni che vogliamo prevedere. Otteniamo i seguenti
valori:
12.20480 12.22815 12.17281 12.21423 12.28505 12.19882 12.27676
12.25375 12.14571 12.22432 12.14217 12.18002
Ricordiamo che abbiamo applicato, inizialmente, la trasformazione logaritmica
e quindi la previsione risulta essere per la serie Yt = log(Xt). Per ottenere una
previsione dei dati Xt, dobbiamo ritrasformare i valori precedenti mediante una
trasformazione esponenziale. Otteniamo:
199493.3 204204.9 193212.5 201383.3 216160.0 198304.1 214377.1
209500.6 188048.1 203425.0 187383.4 194609.9
Le stime ottenute non si discostano troppo dalle osservazioni iniziali, infatti, pos-
siamo osservare come in corrispondenza della quinta e della settima osservazione la
domanda di benzina sia più alta, in accordo con i dati osservati.
Il grafico delle osservazioni Yt con gli intervalli di confidenza per le previsioni effet-
tuate, che riportiamo in Figura 4.20, mostra che la serie delle previsioni effettuate è
69
contenuta nella regione di confidenza e presenta un andamento abbastanza coerente
con quella delle corrispondenti osservazioni reali.
Figura 4.20: Grafico delle ultime 12 osservazioni della serie previste mediante il
modello ARIMA(2, 0, 0)(0, 0, 1)12 stimato
Utilizziamo, ora, il modello stimato per effettuare la previsione per l’anno 1976, di
cui riportiamo i valori ottenuti:
Jan Feb Mar Apr May Jun
1976 209498.7 205582.0 216637.5 221799.3 244328.6 245544.7
Jul Aug Sep Oct Nov Dec
1976 259021.8 262152.9 241460.1 245069.2 233483.8 235138.2
Una misura sintetica della capacità previsiva del modello stimato è il MAPE
(Mean Absolute Percentage Error), che nel nostro caso risulta pari a 2.75,
ossia il modello identificato rivela una buona capacità previsiva.
Il modello ARIMA identificato e stimato costituisce, dunque, una buona rappresen-
tazione della nostra serie storica.
Dal grafico riportato in Figura 4.21 possiamo notare che la previsione effettuata
segue le caratteristiche della serie originale Xt.
70
Processi stocastici e serie storiche
Processi stocastici e serie storiche
Processi stocastici e serie storiche
Processi stocastici e serie storiche
Processi stocastici e serie storiche
Processi stocastici e serie storiche
Processi stocastici e serie storiche

More Related Content

Similar to Processi stocastici e serie storiche

Caratterizzazione di un rivelatore a piatti resistivi (RPC)
Caratterizzazione di un rivelatore a piatti resistivi (RPC)Caratterizzazione di un rivelatore a piatti resistivi (RPC)
Caratterizzazione di un rivelatore a piatti resistivi (RPC)Gerardo Di Iorio
 
Implementazione di un sistema di misura di tipo quantitativo per sensori a na...
Implementazione di un sistema di misura di tipo quantitativo per sensori a na...Implementazione di un sistema di misura di tipo quantitativo per sensori a na...
Implementazione di un sistema di misura di tipo quantitativo per sensori a na...Pasquale Naclerio
 
Dispense Probabilità (1.3)
Dispense Probabilità (1.3)Dispense Probabilità (1.3)
Dispense Probabilità (1.3)Luigi Carassale
 
Sistema di acquisizione in banda multispettrale
Sistema di acquisizione in banda multispettraleSistema di acquisizione in banda multispettrale
Sistema di acquisizione in banda multispettraleGiovanni Schettino
 
Telecontrollo di un sistema cartesiano a 2 g.d.l. mediante interfaccia aptica...
Telecontrollo di un sistema cartesiano a 2 g.d.l. mediante interfaccia aptica...Telecontrollo di un sistema cartesiano a 2 g.d.l. mediante interfaccia aptica...
Telecontrollo di un sistema cartesiano a 2 g.d.l. mediante interfaccia aptica...GabrieleGandossi
 
tesi_dottorato_marco_tannino_2015
tesi_dottorato_marco_tannino_2015tesi_dottorato_marco_tannino_2015
tesi_dottorato_marco_tannino_2015Marco Tannino
 
Applicazioni intelligenzaartificiale
Applicazioni intelligenzaartificialeApplicazioni intelligenzaartificiale
Applicazioni intelligenzaartificialeAntonella79
 
Implementazione di protocolli e simulatori MATLAB per lo sviluppo del livello...
Implementazione di protocolli e simulatori MATLAB per lo sviluppo del livello...Implementazione di protocolli e simulatori MATLAB per lo sviluppo del livello...
Implementazione di protocolli e simulatori MATLAB per lo sviluppo del livello...michael_mozzon
 
Learning of non-homogeneous Continuous Times Bayesian Networks Thesis
Learning of non-homogeneous Continuous Times Bayesian Networks ThesisLearning of non-homogeneous Continuous Times Bayesian Networks Thesis
Learning of non-homogeneous Continuous Times Bayesian Networks ThesisGuido Colangiuli
 
mastertesi
mastertesimastertesi
mastertesiReply
 
Tesi_laurea_in Fisca_Marco_Tannino_2010
Tesi_laurea_in Fisca_Marco_Tannino_2010Tesi_laurea_in Fisca_Marco_Tannino_2010
Tesi_laurea_in Fisca_Marco_Tannino_2010Marco Tannino
 
Apprendimento di movimenti della testa tramite Hidden Markov Model
Apprendimento di movimenti della testa tramite Hidden Markov ModelApprendimento di movimenti della testa tramite Hidden Markov Model
Apprendimento di movimenti della testa tramite Hidden Markov ModelFausto Intilla
 
Esperimenti_laboratorio di fisica per la scuola superiore
Esperimenti_laboratorio di fisica per la scuola superioreEsperimenti_laboratorio di fisica per la scuola superiore
Esperimenti_laboratorio di fisica per la scuola superiorevaleriodinoia35
 

Similar to Processi stocastici e serie storiche (20)

Caratterizzazione di un rivelatore a piatti resistivi (RPC)
Caratterizzazione di un rivelatore a piatti resistivi (RPC)Caratterizzazione di un rivelatore a piatti resistivi (RPC)
Caratterizzazione di un rivelatore a piatti resistivi (RPC)
 
Aqfa probabilita
Aqfa   probabilitaAqfa   probabilita
Aqfa probabilita
 
Implementazione di un sistema di misura di tipo quantitativo per sensori a na...
Implementazione di un sistema di misura di tipo quantitativo per sensori a na...Implementazione di un sistema di misura di tipo quantitativo per sensori a na...
Implementazione di un sistema di misura di tipo quantitativo per sensori a na...
 
Dispense Probabilità (1.3)
Dispense Probabilità (1.3)Dispense Probabilità (1.3)
Dispense Probabilità (1.3)
 
Sistema di acquisizione in banda multispettrale
Sistema di acquisizione in banda multispettraleSistema di acquisizione in banda multispettrale
Sistema di acquisizione in banda multispettrale
 
Telecontrollo di un sistema cartesiano a 2 g.d.l. mediante interfaccia aptica...
Telecontrollo di un sistema cartesiano a 2 g.d.l. mediante interfaccia aptica...Telecontrollo di un sistema cartesiano a 2 g.d.l. mediante interfaccia aptica...
Telecontrollo di un sistema cartesiano a 2 g.d.l. mediante interfaccia aptica...
 
Costruzioni metalliche - Di Re
Costruzioni metalliche - Di ReCostruzioni metalliche - Di Re
Costruzioni metalliche - Di Re
 
tesi_dottorato_marco_tannino_2015
tesi_dottorato_marco_tannino_2015tesi_dottorato_marco_tannino_2015
tesi_dottorato_marco_tannino_2015
 
Applicazioni intelligenzaartificiale
Applicazioni intelligenzaartificialeApplicazioni intelligenzaartificiale
Applicazioni intelligenzaartificiale
 
Implementazione di protocolli e simulatori MATLAB per lo sviluppo del livello...
Implementazione di protocolli e simulatori MATLAB per lo sviluppo del livello...Implementazione di protocolli e simulatori MATLAB per lo sviluppo del livello...
Implementazione di protocolli e simulatori MATLAB per lo sviluppo del livello...
 
Learning of non-homogeneous Continuous Times Bayesian Networks Thesis
Learning of non-homogeneous Continuous Times Bayesian Networks ThesisLearning of non-homogeneous Continuous Times Bayesian Networks Thesis
Learning of non-homogeneous Continuous Times Bayesian Networks Thesis
 
Tesi Nicola Pretto
Tesi Nicola PrettoTesi Nicola Pretto
Tesi Nicola Pretto
 
mastertesi
mastertesimastertesi
mastertesi
 
Teoria probabilità 4
Teoria probabilità 4Teoria probabilità 4
Teoria probabilità 4
 
Tesi_laurea_in Fisca_Marco_Tannino_2010
Tesi_laurea_in Fisca_Marco_Tannino_2010Tesi_laurea_in Fisca_Marco_Tannino_2010
Tesi_laurea_in Fisca_Marco_Tannino_2010
 
Andrea_Gangemi_tesi
Andrea_Gangemi_tesiAndrea_Gangemi_tesi
Andrea_Gangemi_tesi
 
a4_centrata
a4_centrataa4_centrata
a4_centrata
 
Apprendimento di movimenti della testa tramite Hidden Markov Model
Apprendimento di movimenti della testa tramite Hidden Markov ModelApprendimento di movimenti della testa tramite Hidden Markov Model
Apprendimento di movimenti della testa tramite Hidden Markov Model
 
Esperimenti_laboratorio di fisica per la scuola superiore
Esperimenti_laboratorio di fisica per la scuola superioreEsperimenti_laboratorio di fisica per la scuola superiore
Esperimenti_laboratorio di fisica per la scuola superiore
 
My Thesis
My ThesisMy Thesis
My Thesis
 

More from Marco D'Alessandro

Classificazione automatica per ati ad alta dimensionalità: un approccio fuzzy...
Classificazione automatica per ati ad alta dimensionalità: un approccio fuzzy...Classificazione automatica per ati ad alta dimensionalità: un approccio fuzzy...
Classificazione automatica per ati ad alta dimensionalità: un approccio fuzzy...Marco D'Alessandro
 
Classificazione automatica per dati ad alta dimensionalità: un approccio fuzz...
Classificazione automatica per dati ad alta dimensionalità: un approccio fuzz...Classificazione automatica per dati ad alta dimensionalità: un approccio fuzz...
Classificazione automatica per dati ad alta dimensionalità: un approccio fuzz...Marco D'Alessandro
 
Il modello educativo-formativo di Piazza dei Mestieri di Torino
Il modello educativo-formativo di Piazza dei Mestieri di TorinoIl modello educativo-formativo di Piazza dei Mestieri di Torino
Il modello educativo-formativo di Piazza dei Mestieri di TorinoMarco D'Alessandro
 
Tesina di fine seminario sas ed sql
Tesina di fine seminario sas ed sqlTesina di fine seminario sas ed sql
Tesina di fine seminario sas ed sqlMarco D'Alessandro
 
La soddisfazione in ambito sportivo.
La soddisfazione in ambito sportivo.La soddisfazione in ambito sportivo.
La soddisfazione in ambito sportivo.Marco D'Alessandro
 
Il basket non è solo matematica
Il basket non è solo matematicaIl basket non è solo matematica
Il basket non è solo matematicaMarco D'Alessandro
 
Domanda di benzina in Ontario dal 1960 al 1975
Domanda di benzina in Ontario dal 1960 al 1975Domanda di benzina in Ontario dal 1960 al 1975
Domanda di benzina in Ontario dal 1960 al 1975Marco D'Alessandro
 
Analisi delle corrispondenze multiple
Analisi delle corrispondenze multipleAnalisi delle corrispondenze multiple
Analisi delle corrispondenze multipleMarco D'Alessandro
 

More from Marco D'Alessandro (13)

Classificazione automatica per ati ad alta dimensionalità: un approccio fuzzy...
Classificazione automatica per ati ad alta dimensionalità: un approccio fuzzy...Classificazione automatica per ati ad alta dimensionalità: un approccio fuzzy...
Classificazione automatica per ati ad alta dimensionalità: un approccio fuzzy...
 
Classificazione automatica per dati ad alta dimensionalità: un approccio fuzz...
Classificazione automatica per dati ad alta dimensionalità: un approccio fuzz...Classificazione automatica per dati ad alta dimensionalità: un approccio fuzz...
Classificazione automatica per dati ad alta dimensionalità: un approccio fuzz...
 
La differenza c'è e si vede
La differenza c'è e si vedeLa differenza c'è e si vede
La differenza c'è e si vede
 
Il modello educativo-formativo di Piazza dei Mestieri di Torino
Il modello educativo-formativo di Piazza dei Mestieri di TorinoIl modello educativo-formativo di Piazza dei Mestieri di Torino
Il modello educativo-formativo di Piazza dei Mestieri di Torino
 
Tesina di fine seminario sas ed sql
Tesina di fine seminario sas ed sqlTesina di fine seminario sas ed sql
Tesina di fine seminario sas ed sql
 
Disoccupazione in irlanda
Disoccupazione in irlandaDisoccupazione in irlanda
Disoccupazione in irlanda
 
La soddisfazione in ambito sportivo.
La soddisfazione in ambito sportivo.La soddisfazione in ambito sportivo.
La soddisfazione in ambito sportivo.
 
Il basket non è solo matematica
Il basket non è solo matematicaIl basket non è solo matematica
Il basket non è solo matematica
 
Domanda di benzina in Ontario dal 1960 al 1975
Domanda di benzina in Ontario dal 1960 al 1975Domanda di benzina in Ontario dal 1960 al 1975
Domanda di benzina in Ontario dal 1960 al 1975
 
Modello logistico
Modello logisticoModello logistico
Modello logistico
 
Pseudo-R quadro
Pseudo-R quadroPseudo-R quadro
Pseudo-R quadro
 
Analisi delle corrispondenze multiple
Analisi delle corrispondenze multipleAnalisi delle corrispondenze multiple
Analisi delle corrispondenze multiple
 
Il rischio è dietro l'angolo
Il rischio è dietro l'angoloIl rischio è dietro l'angolo
Il rischio è dietro l'angolo
 

Processi stocastici e serie storiche

  • 1. Universit`a degli Studi di Napoli Federico II Facolt`a di Scienze Politiche Corso di Laurea Magistrale in Scienze Statistiche per le Decisioni Tesina di Metodi Statistici per Dati Complessi Processi stocastici e serie storiche Metodologia di Box-Jenkins per l’identificazione di un modello ARIMA Candidati: Barbara Amendola Marco D’Alessandro Ida Riccio Professori: Palumbo Francesco Piccolo Domenico Ragozini Giancarlo Dott.ssa: Simone Rosaria Anno Accademico 2016–2017
  • 2. Indice 1 Processi stocastici 1 1.1 Introduzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 1.2 Classificazione dei processi stocastici . . . . . . . . . . . . . . . . . 2 1.3 Momenti di un processo stocastico . . . . . . . . . . . . . . . . . . . 4 1.3.1 Valore medio (teorico) . . . . . . . . . . . . . . . . . . . . . 4 1.3.2 Varianza (teorica) . . . . . . . . . . . . . . . . . . . . . . . . 5 1.3.3 Funzione di covarianza o autocovarianza (teorica) . . . . . . 5 1.3.4 Autocorrelazione (teorica) . . . . . . . . . . . . . . . . . . . 6 1.3.5 Autocorrelazione parziale . . . . . . . . . . . . . . . . . . . . 8 1.4 L’operatore ritardo . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 1.5 L’operatore differenza prima . . . . . . . . . . . . . . . . . . . . . . 9 1.6 Le ipotesi di stazionarietà e di invertibilità . . . . . . . . . . . . . . 10 1.6.1 Stazionarietà in senso stretto . . . . . . . . . . . . . . . . . 10 1.6.2 Stazionarietà in senso lato . . . . . . . . . . . . . . . . . . . 11 1.6.3 Invertibilità . . . . . . . . . . . . . . . . . . . . . . . . . . . 14 2 I principali processi stocastici 15 2.1 Processo stocastico gaussiano . . . . . . . . . . . . . . . . . . . . . 15 2.2 White Noise . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16 2.2.1 White Noise gaussiano . . . . . . . . . . . . . . . . . . . . . 17 2.3 Random Walk . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19 2.4 Processi MA(q) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21 2.4.1 Un esempio: il processo MA(1) . . . . . . . . . . . . . . . . 23 2.5 Processi AR(p) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24 1
  • 3. 2.5.1 Un esempio: il processo AR(1) . . . . . . . . . . . . . . . . . 25 2.6 Dualità tra processi MA ed AR . . . . . . . . . . . . . . . . . . . . 26 2.7 Processi ARMA(p,q) . . . . . . . . . . . . . . . . . . . . . . . . . . 27 2.7.1 Sintesi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28 2.7.2 Un esempio: il processo ARMA(1,1) . . . . . . . . . . . . . 30 2.8 I processi ARIMA(p,d,q) . . . . . . . . . . . . . . . . . . . . . . . . 30 2.8.1 Un esempio: il processo ARIMA(1,1,1) . . . . . . . . . . . . 32 3 Serie storiche 33 3.1 Introduzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33 3.1.1 Serie continue e serie discrete . . . . . . . . . . . . . . . . . 34 3.1.2 Serie deterministiche e serie probabilistiche . . . . . . . . . . 35 3.2 Il teorema di Wold . . . . . . . . . . . . . . . . . . . . . . . . . . . 36 3.3 Un approccio moderno alle serie storiche: la procedura di Box-Jenkins 37 3.3.1 I processi ARIMA stagionali . . . . . . . . . . . . . . . . . . 38 3.3.2 Le fasi della procedura . . . . . . . . . . . . . . . . . . . . . 41 4 Un caso studio: la domanda di benzina in Ontario 47 4.1 Introduzione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47 4.2 La domanda di benzina in Ontario dal gennaio 1960 al dicembre 1975 49 4.2.1 Analisi preliminari . . . . . . . . . . . . . . . . . . . . . . . 49 4.2.2 Identificazione del modello . . . . . . . . . . . . . . . . . . . 58 4.2.3 Stima dei parametri . . . . . . . . . . . . . . . . . . . . . . 61 4.2.4 Verifica del modello . . . . . . . . . . . . . . . . . . . . . . . 63 4.2.5 Previsioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69 A Comandi in R 72 2
  • 4. Elenco delle figure 1.1 Traiettorie di un medesimo processo . . . . . . . . . . . . . . . . . . 3 1.2 Prevalenza delle componenti . . . . . . . . . . . . . . . . . . . . . . 7 2.1 Simulazione di un White Noise uniforme . . . . . . . . . . . . . . . 16 2.2 ACF per un White Noise uniforme . . . . . . . . . . . . . . . . . . 17 2.3 Simulazione di un White Noise gaussiano . . . . . . . . . . . . . . . 18 2.4 ACF per un White Noise gaussiano . . . . . . . . . . . . . . . . . . 18 2.5 Simulazione di un Random Walk . . . . . . . . . . . . . . . . . . . 19 2.6 ACF per un Random Walk . . . . . . . . . . . . . . . . . . . . . . . 20 2.7 Simulazione di un processo MA(1) . . . . . . . . . . . . . . . . . . . 23 2.8 Simulazione di un processo AR(1) . . . . . . . . . . . . . . . . . . . 26 2.9 Simulazione di un processo ARMA(1,1) . . . . . . . . . . . . . . . . 30 2.10 Simulazione di un processo ARIMA(1,1,1) . . . . . . . . . . . . . . 32 3.1 Serie temporale continua (a) e discreta (b) . . . . . . . . . . . . . . 35 3.2 Serie storica ad andamento misto . . . . . . . . . . . . . . . . . . . 36 3.3 Modelli ARIMA stagionali . . . . . . . . . . . . . . . . . . . . . . . 39 3.4 Procedura iterativa per la costruzione di un modello ARIMA . . . . 41 4.1 Raffinerie di prodotti petroliferi in Canada . . . . . . . . . . . . . . 47 4.2 Ripartizione di un barile medio di prodotti petroliferi raffinati in Canada . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48 4.3 Consumo di benzina in Ontario 1960-1975 . . . . . . . . . . . . . . 50 4.4 Box-plot della variabile . . . . . . . . . . . . . . . . . . . . . . . . . 52 4.5 Box-plot mensili . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52 4.6 Time-plot . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53 3
  • 5. 4.7 Seasonplot . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55 4.8 Lagplot . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56 4.9 ACF della serie originale . . . . . . . . . . . . . . . . . . . . . . . . 57 4.10 Serie differenziata trasformata . . . . . . . . . . . . . . . . . . . . . 58 4.11 ACF . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59 4.12 PACF . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59 4.13 Radici dell’equazione caratteristica . . . . . . . . . . . . . . . . . . 62 4.14 Analisi strutturale dei residui . . . . . . . . . . . . . . . . . . . . . 63 4.15 Identificazione di un outlier . . . . . . . . . . . . . . . . . . . . . . 65 4.16 ACF dei residui . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66 4.17 p-value associati al test di Ljung-Box . . . . . . . . . . . . . . . . . 66 4.18 Autodispersione dei residui . . . . . . . . . . . . . . . . . . . . . . . 67 4.19 Analisi distribuzionale dei residui . . . . . . . . . . . . . . . . . . . 68 4.20 Grafico delle ultime 12 osservazioni della serie previste mediante il modello ARIMA(2, 0, 0)(0, 0, 1)12 stimato . . . . . . . . . . . . . . 70 4.21 Previsioni per l’anno 1976 . . . . . . . . . . . . . . . . . . . . . . . 71 4
  • 6. Elenco delle tabelle 1.1 Tipologie di processi stocastici . . . . . . . . . . . . . . . . . . . . . 2 2.2 ACF e PACF per ciascun processo analizzato . . . . . . . . . . . . 29 2.1 Processo stocastico, stazionario e invertibile . . . . . . . . . . . . . 29 5
  • 7. Sommario Oggigiorno, siamo così abituati ad associare l’idea di futuro alla probabilità che talvolta siamo spinti a pianificare la nostra stessa vita a partire proprio da essa. Esempi di tale fenomeno sono, ad esempio, la stipula di una assicurazione, le previsioni del tempo, il rischio connesso ad una determinata operazione finanziaria, eccetera. Queste sono tutte situazioni nelle quali è presente una certa componente di incertezza. Da qui nasce l’interesse nell’affrontare lo studio dei processi stocastici stazio- nari, ovvero uno dei modelli probabilistici più usati, e dell’analisi delle serie storiche, adoperata per la comprensione di fenomeni dinamici, specialmente per problemi idrologici, climatici, paesaggistici, economici, finanziari e sociali. Que- st’ultima ha come obiettivo l’identificazione dell’evoluzione passata del fenomeno e l’estrapolazione del sentiero passato allo scopo di ottenere la previsione. La previsione è uno strumento importante per una pianificazione efficiente: essa rende il decisore meno soggetto ad eventi inaspettati in quanto impongono un approccio più scientifico riguardo alla conoscenza dell’ambiente in cui opera. Il decisore ha a sua disposizione un vasto armamentario di strumenti di previsione che variano in base a diversi fattori determinanti: l’informazione necessaria, il livello di formalizzazione e di trattamento statistico-matematico, l’orizzonte temporale di previsione, il costo. Nell’analisi delle serie storiche il fenomeno da prevedere viene trattato come una scatola nera in quanto non si cerca di individuare i fenomeni che lo possono influenzare: il fenomeno da prevedere, cioè, viene modellato rispetto al tempo e non rispetto ad una variabile esplicativa.
  • 8. Capitolo 1 Processi stocastici 1.1 Introduzione Siano dati un insieme di indici T, dove T ha la proprietà di essere un insieme ordinato di numeri reali, ed uno spazio di probabilità {Ω, F, P}, dove Ω denota lo spazio degli eventi, F è una σ–algebra su Ω e P è una misura di probabilità. Si definisce processo stocastico (reale) una famiglia {X (ω, t) : t ∈ T} di varia- bili aleatorie (reali) indicizzate ad un parametro reale t ∈ T, definite sullo stesso spazio di probabilità (Ω, F, P) e che assumono valori in (R, B(R)). Inoltre, un pro- cesso stocastico può essere denotato anche con le notazioni {Xt (w)}t∈T o {Xt}t∈T . Parliamo di variabili casuali indicizzate da t, poiché, ogni qualvolta fissiamo t, abbiamo una variabile casuale. L’insieme ordinato T, può essere discreto (t0, t1, . . . tn) o continuo, finito [0, T] o infinito [0, ∞]. E’ bene sottolineare che l’insieme T può essere di qualsiasi natura: ad esempio, il parametro t ∈ T può rappresentare lo spazio. Generalmente, il parametro reale t ∈ T è interpretato come il tempo, ed in tale circostanza si parlerà nello specifico di serie storiche derivanti da processi stocastici temporali (o serie temporali). Quando ci troviamo in tale situazione, T rappresenta effettivamente l’insieme dei tempi. 1
  • 9. Un processo stocastico è dunque una funzione reale X (ω, t) di due variabili: ω e t, dove ω denota l’evento elementare e t è un parametro reale appartenente a T. Dunque, esso è tale che ad ogni coppia ordinata (ω, t) ∈ Ω × T associa un numero reale. In simboli, scriveremo: X : (ω, t) ∈ Ω × T → X(ω, t) ∈ R (1.1) 1.2 Classificazione dei processi stocastici Una prima classificazione dei processi stocastici deriva dalla tipologia dell’insieme Ω e dell’insieme T , dove quest’ultimo, per noi, sarà sempre un sottoinsieme di R: Tabella 1.1: Tipologie di processi stocastici Insieme T Insieme Ω Categorie Esempio Fenomeno discreto Numero di Discreto Discreto e giorni piovosi parametro discreto in un mese Fenomeno continuo Temperatura corporea Discreto Continuo e ad parametro discreto intervalli prefissati Fenomeno discreto Particelle radioattive Continuo Discreto e registrate da un parametro continuo contatore Geiger Fenomeno continuo Continuo Continuo e Elettroencefalogramma parametro continuo Quando l’insieme di indici T è: • discreto, in generale è un sottoinsieme di N oppure di Z. In tale circostanza, il processo stocastico viene denotato con {Xt}t∈T ; • continuo, allora si presenta come un intervallo di R. In tale circostanza, il processo stocastico viene denotato con {X (t) : t ∈ T}. 2
  • 10. Dato un processo stocastico {Xt (w)}t∈T , dove il parametro t denota il tempo, si ha che: • ∀ω ∈ Ω e t ∈ T fissato, X(., t) è una variabile aleatoria ed è detta stato del processo all’istante t; • ∀t ∈ T e fissato l’evento elementare ω ∈ Ω (ad esempio effettuando un esperimento), la funzione t → Xt(ω) è una funzione matematica del solo parametro t ed è detta traiettoria (o realizzazione) del processo associata all’evento elementare ω e viene denotata con il simbolo X(ω, .). Figura 1.1: Traiettorie di un medesimo processo • se fissiamo sia ω ∈ Ω che t ∈ T, allora Xt(ω) denota un numero reale. Da un punto di vista matematico, conoscere probabilisticamente un processo stocastico significa conoscere, per ogni insieme di istanti (t1, t2, . . . tn), la distri- buzione congiunta di (Xt1 , Xt2 , ..., Xtn ). Un processo stocastico è completamente caratterizzato in senso statistico se è nota la probabilità: P (Xt1 ≤ x1, Xt2 ≤ x2, . . . , Xtn ≤ xn) (1.2) 3
  • 11. In generale, un processo stocastico {Xt}t∈T è noto se è nota la funzione di densità multivariata della n-pla di v.c. (Xt1 , Xt2 , ..., Xtn ) per ogni n e per ogni n-pla (t1, t2, . . . tn) di v.c.. 1.3 Momenti di un processo stocastico I processi stocastici, per loro stessa definizione, sono in grado di generare una serie temporale illimitata, cioè di lunghezza infinita. Poiché, però, non è pensabile di fornire le caratteristiche dei processi stocastici mediante le serie temporali da essi generate, è necessario riassumere le loro principali proprietà mediante poche grandezze caratteristiche: i momenti teorici. Questi sono infiniti in numero ma, in pratica, se ne utilizzano pochi e precisamente: • il momento del primo ordine, cioè il valor medio (o valore atteso) del processo; • i momenti del secondo ordine, costituiti dalla covarianza e dalle grandezze ad essa collegate. Sia, allora, {Xt}t∈T un processo stocastico continuo a parametro discreto. Vediamo quali sono le espressioni dei momenti più usati. 1.3.1 Valore medio (teorico) Dato un processo stocastico {Xt}t∈T , il suo valore medio (teorico), indicato con µ(t), è espresso dalla seguente relazione: µ (t) = E (Xt) = +∞ −∞ xtf (xt) dxt (1.3) dove il simbolo E indica il valore atteso. In pratica, in base alla (1.3), il valore atteso del processo stocastico al tempo t è pari al valore atteso della v.c. Xt definita all’ istante t. Possiamo notare che il valore medio è funzione del tempo t, sicché si parla di funzione valore medio. Ovviamente, il valore atteso E(Xt) sarebbe noto se fosse nota la funzione di densità della v.c. Xt. 4
  • 12. 1.3.2 Varianza (teorica) Data una v.c. Xt, la varianza viene definita come “il valor medio dei quadrati degli scarti fra la variabile casuale Xt e la sua media teorica µ(t)”. La varianza di un processo stocastico {Xt}t∈T , indicata con σ2 (t), è definita dalla relazione seguente: σ2 (t) = E[Xt − E (Xt)]2 = E[Xt − µ (t)]2 = = var (Xt) = +∞ −∞ (xt − E (xt))2 f(xt)dxt (1.4) Da tale relazione si rileva che la varianza è uguale al momento del secondo ordine e serve ad avere una misura della dispersione media dei dati attorno alla loro media. Essendo la varianza anch’essa funzione del tempo t, si parlerà anche in questo caso di funzione varianza. Spesso, al posto della varianza, si usa lo scarto quadratico medio (o deviazione standard) che è uguale alla radice quadrata della varianza. In simboli, si ha: σ (t) = σ2 (t) = E[xt − E (xt)]2 (1.5) Ricordiamo che lo scarto quadratico medio è un indice di dispersione statistico, vale a dire una stima della variabilità di una popolazione di dati o di una variabile casuale. 1.3.3 Funzione di covarianza o autocovarianza (teorica) Si considerino due variabili casuali X ed Y . In Statistica, quando si studiano le relazioni che intercorrono fra due v.c. si usa la covarianza, indicata con γXY , definita come “valore atteso del prodotto degli scarti di X dalla sua media µX per gli scarti di Y dalla sua media µY : γXY = E[(X − µX)(Y − µY )] = cov(X, Y ) (1.6) La covarianza, a differenza della varianza, può essere positiva o negativa. È positiva quando valori crescenti (decrescenti) di X si associano con valori crescenti (decre- scenti) di Y, cioè quando gli scarti sono di segno concorde. È negativa quando 5
  • 13. valori crescenti (decrescenti) di X si associano con valori decrescenti (crescenti) di Y, cioè quando gli scarti sono di segno discorde. La covarianza misura, quindi, la tendenza di X ed Y a variare nello stesso senso. La (1.6), applicata ad una serie temporale, ne definisce la funzione autocovarian- za. Infatti, in una serie temporale, la grandezza è sempre la stessa, ma è riferita a due istanti diversi, t e t − k. Pertanto le v.c. sono Xt e Xt−k e la relazione che definisce l’autocovarianza del processo stocastico fra gli istanti t e t − k è: γX(t, t − k) = E[(Xt − µ (t))(Xt−k − µ (t − k))] = cov(Xt, Xt−k) (1.7) La funzione auto-covarianza indica, dunque, il modo in cui due variabili del processo co-variano nel tempo. 1.3.4 Autocorrelazione (teorica) L’autocovarianza, pur essendo una grandezza fondamentale per lo studio delle serie temporali, tuttavia ha il difetto di non essere compresa fra limiti fissi per cui è difficile giudicare il significato di un dato valore. Per questo motivo è stata introdotta l’autocorrelazione, che si ricava immediatamente dall’autocovarianza e che presenta il vantaggio di essere sempre compresa fra i limiti fissi -1 e +1. L’autocorrelazione si ottiene semplicemente dividendo l’autocovarianza per il prodotto degli scarti quadratici medi di Xt e Xt+k. La relazione che definisce l’autocorrelazione è, quindi, la seguente: ρk(t) = E[(xt − µ(t))(xt+k − µ(t + k))] E[xt − µ(t)]2E[xt+k − µ(t + k)]2 = cov(xt, xt+k) σ(xt)σ(xt+k) (1.8) L’autocorrelazione esprime, quindi, la dipendenza lineare che esiste tra il processo al tempo t e se stesso al tempo t + h. I coefficienti di autocorrelazione godono delle stesse proprietà dei coefficienti di correlazione ordinari di Pearson. La funzione di autocorrelazione (ACF) è invariante rispetto a traslazioni nel tempo. Quando ρk(t) = 0, Xt e Xt+k non sono correlate. Uno strumento grafico per la valutazione della tendenza di molti fenomeni ad 6
  • 14. evolversi in modo più o meno regolare è il correlogramma, ovvero un semplice grafico nel quale ogni barretta verticale riporta il valore di ρk (sull’asse delle ordinate) in funzione di k, che rappresenta il ritardo (o lag) con cui la autocorrelazione è calcolata (sull’asse delle ascisse). Considerando le coppie di valori (k, ρk) presentate in un correlogramma, proviamo ad elencare i possibili casi a seconda che ρk sia crescente, decrescente oppure massimo, in modo da procedere ad un’accurata analisi della serie storica. Figura 1.2: Prevalenza delle componenti Tali grafici possono presentare gli andamenti più disparati, ma vengono normalmente confrontati con quelli illustrati nella figura. Si hanno infatti le seguenti tre situazioni tipiche: • il valore di ρk è sempre positivo e decresce lentamente all’aumentare di k (grafico a sinistra); ciò vuol dire che i valori della serie storica sono fortemente correlati a quelli della serie ritardata di un periodo, poi un po’ meno per quella ritardata di due periodi e così via, ovvero che il presente è influenzato dal passato recente, questo dal passato più remoto e, in generale, che la serie presenta una tendenza di fondo (ad esempio, tende a crescere linearmente o esponenzialmente nel tempo; nel gergo dell’analisi delle serie storiche, si dice che prevale la componente tendenziale, o trend); • il valore di ρk varia, ma è positivo e massimo in corrispondenza di valori di k tali da configurare una periodicità annuale, ad esempio per k = 4 o suoi multipli nel caso di dati trimestrali, mentre è minore o negativo per altri valori di k (grafico al centro); ciò vuol dire che i valori di un dato istante 7
  • 15. o periodo dell’anno sono fortemente correlati con quelli degli stessi istanti o periodi degli anni precedenti, quindi che il fenomeno varia nel corso di ciascun anno e in modo simile da un anno all’altro (si dice che prevale la componente stagionale); • i valori di ρk variano, ma per k > 0 oscillano sempre entro una banda ristretta (grafico a destra); ciò vuol dire che la serie non è significativamente correlata con le serie ritardate, ovvero che il passato non "spiega" il presente e che le variazioni da un istante o periodo ad un altro sono sostanzialmente casuali (si dice che prevale la componente accidentale o parte stocastica). In definitiva, affermiamo che il correlogramma è quindi utile per individuare subito un’eventuale componente dominante prima di procedere alla vera e propria analisi della serie, ma anche per verificare i risultati di questa. 1.3.5 Autocorrelazione parziale Nel contesto dei processi stocastici, parte della correlazione tra Xt ed Xt+k può essere dovuta alla correlazione che tali variabili hanno con i ritardi intermedi Xt+1, Xt+2, ..., Xt+k−1. Un modo per tener conto di ciò è considerare la funzione di autocorrelazione parziale (PACF), che misura l’autocorrelazione tra Xt ed Xt+k al netto della dipendenza lineare con le variabili casuali intermedie: Pk = Corr(Xt, Xt+k|Xt+1, Xt+2, ..., Xt+k−1) = = Corr[Xt − E(Xt|Xt+1, ..., Xt+k−1), Xt+k − E(Xt+k|Xt+1, ..., Xt+k−1)] (1.9) Può essere vista come il coefficiente φkk delle regressioni (k = 1, 2, ...): Xt+k = φk1Xt+k−1 + φk2Xt+k−2 + ... + φkkXt + et+k (1.10) L’informazione contenuta nella PACF è esattamente la stessa di quella contenuta nella ACF, di cui è trasformazione; tuttavia è utile perché mette in evidenza caratteristiche diverse. 8
  • 16. 1.4 L’operatore ritardo L’operatore ritardo (Backward operator), generalmente indicato con la lettera L nella letteratura econometrica (gli statistici preferiscono la B), è un operatore che si applica a sequenze di oggetti piuttosto generali, fra cui rientrano sia sequenze di variabili casuali (e cioè i processi stocastici) che sequenze di numeri (e cioè le loro traiettorie o realizzazioni: le serie storiche). Tale operatore trasforma una sequenza {xt} in un’altra sequenza che ha la “curiosa” caratteristica di avere gli stessi valori di xt, ma sfalsati di un periodo. Se applicato ad una grandezza costante nel tempo, la lascia invariata. In formule, abbiamo: B(xt) = xt−1 (1.11) L’applicazione ripetuta n volte di B viene indicata con la scrittura Bn , e quindi si ha Bn (xt) = xt−n. Per convenzione si pone B0 = 1. L’operatore B è un operatore lineare, nel senso che se a e b sono costanti si ha B(axt + b) = aB(xt) + b = axt−1 + b. La caratteristica principale dell’operatore B è che le sue proprietà appena enunciate permettono, in molte circostanze, di manipolarlo algebricamente come se fosse un numero (isomorfismo). La proprietà è enunciata nel cosiddetto Teorema 1.4.1 (Teorema dell’isomorfismo). Ogni operazione compiuta nell’algebra dei polinomi ha una corrispondenza nell’al- gebra degli operatori in B. 1.5 L’operatore differenza prima Data una serie storica Xt, si definisce differenza prima e si indica con il simbolo Xt la variazione intervenuta tra Xt e Xt−1, al variare di t = 2, 3, . . . . In pratica, Xt = Xt − Xt−1. La lunghezza della serie Xt è ora n − 1, perché le differenze prima iniziano dal periodo t = 2. L’affermazione “due operatori sono uguali se, applicati alla stessa funzione, pro- ducono lo stesso risultato” ci permette di scrivere l’operatore differenza prima in 9
  • 17. funzione dell’operatore ritardo: Xt = (1 − B)Xt (1.12) Inoltre, applicando due volte l’operatore differenza prima, si ottiene: 2 Xt = ( Xt = (1 − B)(1 − B)Xt = = (1 − B)2 Xt = (1 − 2B + B2 )Xt = = Xt − 2Xt−1 + Xt−2, ∀t = 3, 4, . . . n (1.13) Nella pratica, l’ordine dell’operatore alle differenze è abbastanza piccolo, molto spesso 1 o 2. Questo dipende dal fatto che molte funzioni possono essere ben approssimate, su un intervallo di lunghezza finita, da un polinomio con grado basso. 1.6 Le ipotesi di stazionarietà e di invertibilità Tutte le grandezze finora considerate risultano funzione del tempo t. Questo è un grosso vincolo sia sul piano teorico che nelle applicazioni concrete. Il problema si aggira introducendo un’ipotesi semplificatrice, molto importante, che va sotto il nome di stazionarietà. L’ipotesi di stazionarietà suppone che certe proprietà statistiche di un processo risultino invarianti rispetto ad una traslazione nel tempo. In altri termini, la stazionarietà suppone che certe proprietà non varino nel tempo. La stazionarietà può riguardare tutti i momenti oppure solamente alcuni. Esistono, pertanto, due tipi di stazionarietà che vengono comunemente indicati come: 1. stazionarietà in senso stretto (o forte); 2. stazionarietà in senso lato (o debole). 1.6.1 Stazionarietà in senso stretto Un processo stocastico {Xt}t∈T si dice stazionario in senso stretto (o forte) quando la distribuzione congiunta della n-pla di v.c. (Xt1 , Xt2 , . . . , Xtn ) è uguale 10
  • 18. alla distribuzione congiunta della n-pla (Xt1+h , Xt2+h , . . . , Xtn+h ) per un qualunque valore di h. Dunque, il processo si definisce stazionario in senso stretto se: Pr(Xt1+h ≤ x1, ..., Xtn+h ≤ xh) = Pr(Xt1 ≤ x1, ..., Xtn ≤ xh) (1.14) Dalla (1.9) si evince che la funzione di ripartizione della distribuzione congiunta non dipende da t ed è invariante per qualsiasi h. Ciò significa che se si fa scorrere il tempo di una quantità arbitraria h, tutte le distribuzioni congiunte non si modi- ficano. La distribuzione multivariata di un processo stocastico stazionario in senso stretto è invariante rispetto a traslazioni nel tempo, cioè non è funzione di t, quindi anche i suoi momenti non sono funzione di t. Per accertare la stazionarietà in senso forte di un processo Xt, dunque, dobbiamo conoscere la famiglia delle funzioni di distribuzioni finite di Xt. L’ipotesi di stazionarietà in senso stretto è una condizione ideale, irraggiungibile nella pratica. Pertanto ci si accontenta, spesso, di stazionarietà più deboli o ridotte. Normalmente ci si limita ad ipotizzare una stazionarietà del secondo ordine, ossia una stazionarietà che riguarda la media ed i momenti del secondo ordine. 1.6.2 Stazionarietà in senso lato Un processo stocastico {Xt}t∈T si definisce stazionario in senso lato (o debole)1 se sono soddisfatte le seguenti condizioni: 1. E(Xt) = µ, ∀t; 2. var(Xt) = E[Xt − E(Xt)]2 = E[Xt − µ]2 = σ2 < +∞, ∀t; 3. γX(t, s) = cov(Xt, Xs) = γX(|t − s|), ∀(t, s) ∈ T. 1 La stazionarietà in senso forte non garantisce che i momenti siano finiti, ma se i momenti sono finiti, la stazionarietà in senso forte implica la stazionarietà in senso debole. Il viceversa, invece, non è sempre vero: un processo stazionario in senso debole (o semplicemente stazionario) non è detto sia anche fortemente stazionario. La stazionarietà in senso forte coinvolge infatti tutti i momenti della distribuzione di probabilità del processo e non solo i primi due. 11
  • 19. La condizione 1 impone che il valore medio del processo Xt sia costante e pari a µ al variare di t; la condizione 2 impone che il processo abbia varianza finita e costante al variare di t; la condizione 3 impone che la funzione di covarianza di un processo stocastico {Xt}t∈T (stazionario in senso debole) non dipenda dai due istanti temporali in cui viene calcolata ma solo dalla loro differenza |t − s| , ovvero dipende solo dal lag (ritardo) τ = |t − s|. Per questo motivo, spesso la funzione di autocovarianza di un processo stocastico stazionario in senso debole viene indicata come funzione del lag τ: γX(τ) = γX(τ, 0) = γX(t − s, 0) = γX(t, s) = E[(Xt − µ)(Xs − µ)] = = E[(Xt − µ)(Xt−τ − µ)] = E[(Xt−τ − µ)(Xt − µ)] = = cov(Xt−τ , Xt), ∀(t, τ, s). (1.15) Per ogni τ, γX(τ) misura la covarianza tra due variabili del processo che risultano separate da un intervallo di tempo di ampiezza τ. Si mostra facilmente, inoltre, che γk = γ−k Per τ = 0, in particolare, la (1.10) fornisce la varianza del processo: γX(0) = cov(Xt−0, Xt) = cov(Xt, Xt) = E[(Xt − µ)(Xt − µ)] = = E[(Xt − µ)2 ] = E[(Xt − E(Xt))2 ] = var(Xt) (1.16) Inoltre, nel caso di un processo stazionario in senso debole, grazie alla (1.8) possiamo scrivere nel seguente modo: γX(h) γX(0) = cov(Xt, Xt+h) var(Xt)var(Xt+h) · cov(Xt, Xt+0) var(Xt)var(Xt+0) = = cov(Xt, Xt+h) var(Xt)var(Xt+h) · cov(Xt, Xt) var(Xt) = = cov(Xt, Xt+h) var(Xt)var(Xt+h) · var(Xt) var(Xt) = cov(Xt, Xt+h) var(Xt)var(Xt+h) = ρX(h), (1.17) dove ρX(h) rappresenta il coefficiente di correlazione tra due variabili del processo che risultano separate da un intervallo di tempo di ampiezza (lunghezza) h. 12
  • 20. Dalla (1.12) si evince che: ρX(0) = γX(0) γX(0) = 1 (1.18) Tale risultato è del tutto logico, in quanto l’autocorrelazione di una componente del processo stocastico rispetto a sé stessa non può che essere perfetta. La matrice di Toeplitz di ordine m associata alla funzione di autocorrelazione di un processo stazionario in senso debole è semidefinita positiva, cioè tutti i suoi minori principali sono non negativi. Date m variabili casuali, la matrice è definita come segue: ρ(m) =         1 ρ1 ρ2 ... ρ(m − 1) ρ1 1 ρ1 ... ρ(m − 2) ρ2 ρ1 1 ... ρ(m − 3) ... ... ... ... ... ρ(m − 1) ρ(m − 2) ρ(m − 3) ... 1         (1.19) Essa richiede solo la conoscenza delle prime m − 1 autocorrelazioni del processo, ed è “doppiamente simmetrica perché è simmetrica e tutte le diagonali possiedono elementi comuni”[Piccolo, 1984]. Nello studio dei processi stocastici trova grande applicazione anche la matrice delle varianze-covarianze (o matrice di dispersione), che ne riassume le varianze e le covarianze. Essa si indica generalmente con Γ ed è espressa dalla seguente matrice quadrata: Γ =    γ0 γ1 ... γ1 γ0 γ1 ... γ1 γ0    (1.20) Per ipotesi, la matrice di dispersione è simmetrica e contiene gli stessi valori su tutta la diagonale principale e sulle diagonali parallele a questa. Inoltre, è definita positiva e, quindi, i determinanti di tutti i minori principali sono positivi. 13
  • 21. 1.6.3 Invertibilità Oltre all’ipotesi di stazionarietà si incontra molto frequentemente l’ipotesi di invertibilità che viene introdotta allo scopo di evitare la "molteplicità dei modelli". Essa indica la possibilità di esprimere un processo {Xt}t∈T tramite le v.c. del passato, ovvero tramite una funzione che collega Xt con le v.c. Xs del tempo s < t. Ciò avviene, in senso stocastico, cioè mettendo in conto un errore casuale t. Le realizzazioni di t possono essere quindi ottenute per mezzo di: t = Xt − f(Xt−1, Xt−2, ..) (1.21) L’invertibilità è una condizione strettamente legata alla prevedibilità (lineare) del processo. Esistono dei casi in cui ad uguali strutture statistiche corrispondono due o più modelli stocastici diversi; la condizione di invertibilità permette, appunto, di individuare in modo univoco il modello utile all’analisi che si sta effettuando. 14
  • 22. Capitolo 2 I principali processi stocastici 2.1 Processo stocastico gaussiano Un esempio di processo stocastico stazionario, fondamentale per le applicazioni grafiche, ma che non è fortemente stazionario è il processo stocastico gaussiano. Si dice che {Xt}t∈T è un processo stocastico gaussiano se e solo se, ∀n ∈ N+ e per ogni vettore (t1, t2, . . . tn) in Tn , il vettore n-dimensionale (Xt1 , Xt2 , ..., Xtn ) di variabili casuali ha distribuzione gaussiana multivariata, cioè la sua densità di probabilità è: f(x) = (2π) −n 2 |Σ| −1 2 e −1 2 (x−µ) Σ−1(x−µ) , (2.1) dove x = (xt1 , xt2 , ..., xtn ) , µ = (µ1, µ2, ..., µn) e Σ = |Cov(Xt, Xs)|, ∀(t, s). È un processo gaussiano quando cioè la distribuzione congiunta di un qualunque sottoinsieme di elementi del processo è una v.c. Normale multivariata. Un processo gaussiano è (debolmente) stazionario se la funzione media µj è costante e la funzione di autocovarianza è funzione della differenza k = |t − s|. In tal caso, però, l’intera funzione di distribuzione è invariante rispetto al tempo e ciò implica che il processo è anche fortemente stazionario. Pertanto, per processi gaussiani con varianza finita abbiamo la seguente equivalenza: p.s. fortemente stazionario ⇐⇒ p.s. (debolmente) stazionario (2.2) 15
  • 23. Dunque, se un processo gaussiano è stazionario, la varianza è costante, per cui la matrice di varianze-covarianze corrispondente sarà: Σ =    γ0 ... γk−1 ... ... ... γk−1 ... γ0    (2.3) 2.2 White Noise Un processo stocastico {at}t∈T si dice rumore bianco (o white noise), siglato con la notazione at ∼ WN(0, σ2 ), se {at} è una successione di variabili aleatorie non correlate, identicamente distribuite con media nulla e varianza σ2 che non dipendono dal tempo t, ossia tale che: 1. E[at] = 0; 2. var[at] = σ2 a > 0; 3. cov(at, as) = E(atas) = γ(τ) = 0, ∀t = s, quindi ∀τ = 0 Figura 2.1: Simulazione di un White Noise uniforme 16
  • 24. La funzione di autocovarianza di un processo White Noise è tale per cui: γk = σ2 , k = 0 0, k > 1 cioè vale σ2 a lag 0 e vale 0 per ogni lag maggiore di lag 0. La funzione di autocorrelazione (ACF), invece, è tale per cui: ρk = 1, k = 0 0, k > 1 cioè vale 1 a lag 0 e vale 0 (rientra all’interno delle bande di confidenza) per ogni lag diverso da lag 0. Figura 2.2: ACF per un White Noise uniforme 2.2.1 White Noise gaussiano Si parla di White Noise gaussiano se at ∼ N(0, σ2 ). In tal caso, {at} costituisce una successione di variabili casuali i.i.d. (indipendenti ed identicamente distribuite) con media 0 e varianza costante. 17
  • 25. Figura 2.3: Simulazione di un White Noise gaussiano L’ACF di un White Noise gaussiano è la seguente: Figura 2.4: ACF per un White Noise gaussiano 18
  • 26. 2.3 Random Walk Un random walk (o passeggiata casuale) è un processo stocastico non stazio- nario {xt} che può essere scritto come: xt = xt−1 + wt (2.4) dove wt è un white noise. Sostituendo xt−1 = xt−2 + wt−2 nella (2.4), e sostituendo ancora xt−2, xt−3 e così via, si ottiene: xt = wt + wt−1 + wt−2 + ... (2.5) In pratica, il processo di cui sopra non sarà infinito, ma partirà da un certo momento t = 1. Da qui si ha: xt = w1 + w2 + w3 + ... + wt (2.6) La (2.6) è la somma finita di termini di white noise, ciascuno con media nulla e varianza pari a σ2 . Figura 2.5: Simulazione di un Random Walk 19
  • 27. L’andamento del fenomeno (trend) è puramente stocastico ed è dovuto all’alta correlazione seriale. I momenti di questo processo sono: E(xt) = 0 (2.7) γk(t) = Cov(xt, xt+k) = tσ2 (2.8) La covarianza è funzione del tempo, ecco perchè il processo è non stazionario. In particolare, la varianza è tσ2 ed aumenta senza limiti all’aumentare di t. Da qui segue che il random walk è appropriato solamente per previsioni di breve termine. Per k > 0 la funzione di autocorrelazione del processo è: ρk(t) = Cov(xt, xt+k) var(xt)var(xt+k) = tσ2 tσ2(t + k)σ2 = 1 1 + k/t (2.9) dove, per valori molto alti di t e valori di k considerevolmente più piccoli di t, ρk si avvicina ad 1. Ragion per cui il correlogramma di un random walk è caratterizzato da autocorrelazioni positive che decadono lentamente verso lo 0. Figura 2.6: ACF per un Random Walk 20
  • 28. 2.4 Processi MA(q) Sia { t}t∈T un rumore bianco con media nulla e varianza σ2 . Un processo stocastico {Xt}t∈T si definisce processo stocastico a media mobile di ordine q, siglato con Xt ∼ MA(q) dove MA sta appunto per Moving Average, se: Xt = t + ψ1 t−1 + ... + ψq t−q = q i=0 ψi t−1 (2.10) con {ψi} successione di numeri reali tale che ψ2 j < +∞. Inoltre, senza ledere la generalità, si pone ψ0 = 1. Ponendo ψi = −θi, con 1 = ψ0 = −θ0, si ottiene: Xt = t − θ1 t−1 − θ2 t−2 − ... − θq t−q = q i=0 −θi t−1. (2.11) Dal momento che q è un numero intero, e quindi il processo è composto da un numero finito di termini, questo basta a garantire la stazionarietà dei processi MA(q); esso, quindi, può essere scritto come la media (pesata dai coefficienti θ) di q + 1 processi WN, stazionari e Gaussiani. Il modello MA(q) è caratterizzato da q + 1 parametri (σ2 , θ1, θ2, ..., θq) , che sono la varianza di at ed i q parametri specifici del modello che devono essere stimati. La stazionarietà e la Normalità del processo non sono però sufficienti a stabilire una relazione biunivoca tra il processo MA(q) e la funzione di autocovarianza; dobbiamo, infatti, assicurarci anche la condizione di invertibilità per poter inferire sul processo MA(q) a partire dalla stima della funzione di autocovarianza. Per quanto riguarda i momenti di un processo MA(q), si ha: E(Xt) = E( t − θ1 t−1 − θ2 t−2 − ... − θq t−q) = 0 (2.12) γk = (−θk + θ1θk−1 + θ2θk−2 + ... + θqθk−q)σ2 , k = 1, 2, ...q 0, k > q ρk = −θk + θ1θk−1 + θ2θk−2 + ... + θqθk−q, k = 1, 2, ...q 0, k > q 21
  • 29. La ACF di un processo MA(q) è identicamente nulla, per k > q, mentre la sua PACF tende a zero secondo un andamento esponenziale decrescente, senza annullarsi mai. La stazionarietà si evince anche dall’assenza, in ciascuno di questi momenti del processo, di una dipendenza con t. Applicando l’operatore B al processo Xt ∼ MA(q), esso diventa: Xt = t − θ1B( t) − θ2B2 ( t) − ... − θqBq ( t) = t(1 − θ1B − θ2B2 − ... − θqBq ) (2.13) Quindi, ponendo θ(B) = 1 − θ1B − θ2B2 − ... − θqBq , abbiamo: Xt = θ(B) t, (2.14) dove θ(B) denota un polinomio di ordine q nell’operatore ritardo ed t è un processo white noise. Generalmente, e senza perdita di generalità, si pone θ(Bθ ) = θ0 = 1. Se θ(B) è un polinomio di grado q, si dice anche che Xt è un processo MA(q). Per il citato teorema dell’isomorfismo possiamo trattare B come incognita e scrivere l’equazione caratteristica: θ(B) = 1 − θ1B − θ2B2 − ... − θqBq = 0 (2.15) Si può dimostrare che il processo Xt ∼ MA(q) è invertibile se e solo se tutte le radici dell’equazione caratteristica associata sono in modulo maggiori di 1, cioè: |Bi| > 1, ∀i = 1, 2, 3, ..., q (2.16) Nel caso di soluzioni complesse, esse devono ricadere al di fuori del cerchio unitario. Un processo MA(q) che rispetta anche questa condizione è stazionario, gaussiano ed anche invertibile, per cui è possibile stimarne i parametri e fare inferenza su di esso. In conclusione possiamo dire che “i processi di tipo MA(q) rispondono al tentativo di spiegare il presente come la risultante di una successione incontrollata di impulsi 22
  • 30. casuali, statisticamente compendiati nel White Noise t” [Piccolo, 1984]. 2.4.1 Un esempio: il processo MA(1) La forma generale del processo a media mobile di ordine 1, siglato con Xt ∼ MA(1) è espressa dalla seguente relazione: Xt = t − θ1 t−1 (2.17) Applicando l’operatore ritardo B al processo Xt ∼ MA(1), la precedente relazione assume la seguente forma: Xt = t(1 − θ1B) (2.18) Figura 2.7: Simulazione di un processo MA(1) 23
  • 31. 2.5 Processi AR(p) Il processo stocastico auto-regressivo di ordine p (così chiamato perché assimilabile ad una regressione della variabile Xt su sè stessa), è definito dalla relazione: Xt = φ1Xt−1 + φ2Xt−2 + ... + φpXt−p + at (2.19) da cui si ricava: Xt − φ1Xt−1 − φ2Xt−2 − ... − φpXt−p = at, (2.20) dove i parametri φ1, φ2, ..., φp costituiscono i coefficienti della regressione lineare di Zt rispetto ai suoi stessi valori passati, mentre at è un white noise. Per quanto riguarda i momenti di un processo AR(p), si ha: E(Xt) = E(φ1Xt−1 + φ2Xt−2 + ... + φpXt−p + at) = φµ (2.21) γk = −φ1 + γ1 + φ2γ2 + ... + φpγp, k = 0 −φ1γk−1 + φ2γk−2 + ... + φpγk−p, k > 0 ρk = φ1ρk−1 + φ2ρk−2 + ... + φpρk−p (2.22) L’ACF di un processo AR(p) tende a zero secondo la combinazione lineare di esponenziali decrescenti (nel caso in cui l’equazione caratteristica associata al processo ammetta radici reali) o sinusoidali smorzate (nel caso in cui l’equazione caratteristica associata al processo ammetta radici complesse coniugate), senza mai annullarsi, mentre la sua PACF è identicamente nulla per k > p. Applicando l’operatore B al processo Xt ∼ AR(p), esso diventa: (1 − φ1B − φ2B2 − ... − φpBp )Xt = at (2.23) Quindi, ponendo 1 − φ1B − φ2B2 − ... − φpBp = φ(B), abbiamo: φ(B)Xt = at (2.24) 24
  • 32. Essendo Zt ∼ AR(p) funzione delle variabili del passato, esso è sempre invertibile, ma non sempre stazionario: esso è stazionario solo se tutte le soluzioni dell’equazione caratteristica associata al processo, così definita: φ(B) = 1 − φ1B − φ2B2 − ... − φpBp = 0 (2.25) sono in modulo maggiori di 1, cioè se: |Bi| > 1, ∀i = 1, 2, 3, ..., p (2.26) Nel caso di soluzioni complesse, esse devono ricadere al di fuori del cerchio uni- tario. Un processo AR(p) che rispetti anche questa condizione è invertibile ed anche stazionario, per cui è possibile stimarne i parametri e fare inferenza su di esso. In conclusione possiamo dire che “i processi di tipo AR(p) rispondono al tentativo di spiegare il presente in funzione del passato, fino ad una certa distanza p, e secondo un sistema di coefficienti φi” [Piccolo, 1984]. 2.5.1 Un esempio: il processo AR(1) La forma generale del processo auto-regressivo di ordine 1, siglato con Xt ∼ AR(1) è espressa dalla seguente relazione: Xt = φ1Xt−1 + t (2.27) Applicando l’operatore ritardo B al processo Xt ∼ AR(1), la precedente relazione assume la seguente forma: (1 − φ1B)Xt = t (2.28) 25
  • 33. Figura 2.8: Simulazione di un processo AR(1) 2.6 Dualità tra processi MA ed AR Prima di procedere con l’analisi di ulteriori processi, è opportuno segnalare alcune cose fondamentali: • le condizioni di stazionarietà di un processo AR sono equivalenti a quelle di invertibilità di un processo MA; • le condizioni di invertibilità di un processo MA sono equivalenti a quelle di stazionarietà di un processo AR; • si dimostra che un processo stazionario AR(p) può sempre essere espresso come un processo MA(∞); • si dimostra che un processo invertibile MA(q) può sempre essere espresso come un processo AR(∞); • i coefficienti di autocorrelazione totale di un MA(q) si comportano analoga- mente ai coefficienti di correlazione parziale di un AR(p), p=q; 26
  • 34. • i coefficienti di autocorrelazione parziale di un MA(q) si comportano analoga- mente ai coefficienti di correlazione totale di un AR(p), p=q. 2.7 Processi ARMA(p,q) I processi ARMA(Auto-Regressive Moving Average) costituiscono la famiglia di processi stocastici di gran lunga più utilizzati in econometria. Essi costituiscono una classe di processi stocastici lineari stazionari molto importanti nella modelliz- zazione delle serie storiche di tipo lineare: i processi auto-regressivi a media mobile. La ragione del loro successo scaturisce dal fatto che, data una qualsiasi funzione di auto covarianza γ(.) tale che il limh→∞ γh e dato un intero k > 0, è sempre possibile trovare un processo ARMA {Xt}t∈T con funzione di autocovarianza γX(h) tale che γX(h) = γ(h) per h = 0 : k. I due processi definiti precedentemente AR e MA “sono solo due diverse rap- presentazioni del processo Xt, infatti un processo AR(p) coincide con un processo MA(∞) ed un processo MA(q) coincide con un processo AR(∞), e quindi le due formulazioni (finite) non sono che una sintesi della rappresentazione duale (infini- ta)” [Piccolo, 1984]. Introduciamo dunque i processi misti ARMA(p,q), che cioè contengono sia la componente AR che la componente MA. Per esempio possiamo trovarci di fronte un processo Zt ∼ AR(p) la cui componente residua t sia un processo MA(q), quindi: φ(B)Zt = t (2.29) dove t = θ(B)at. Da queste uguaglianze si ricava quindi: φ(B)Zt = θ(B)at (2.30) Oppure possiamo avere un processo Kt ∼ MA(q), a sua volta connesso con i valori passati di un altro processo Zt ∼ AR(p), quindi: Kt = θ(B)at (2.31) 27
  • 35. dove, con una espressione equivalente, Kt = φ(B)Zt. Da queste uguaglianze si ricava: φ(B)Zt = θ(B)at (2.32) Quindi “si può pensare al processo Zt come connesso alla sua storia passata (schema AR) con l’interazione di un processo WN at, a sua volta connesso con la sua storia passata (schema MA)” [Piccolo, 1984]. Ancora: “Mentre lo schema AR è un processo che possiede memoria del passato di Zt, e lo schema MA è un processo che possiede memoria del passato di at, uno schema del tipo ARMA opera sulla storia del processo Zt e sulla storia del processo at” [Piccolo, 1984]. Definiamo, quindi, il processo auto-regressivo di ordine p e media mobile di ordine q Zt ∼ ARMA(p, q) tramite la (2.26), che sviluppata diventa: Zt − φ1Zt−1 − φ2Zt−2 − ... − φpZt−p = at − θ1at−1 − θ2at−2 − ... − θqat−q (2.33) Il processo misto ARMA è stazionario se tutte le p radici dell’equazione caratteri- stica associata alla componente AR sono in modulo maggiori di 1 ed è invertibile se tutte le q radici dell’equazione caratteristica associata alla componente MA sono in modulo maggiori di 1. L’ACF di un processo ARMA(p,q) è una combinazione dei precedenti andamenti, non annullandosi mai, ma decade verso lo zero con andamento esponenziale per i lags k > p − q, mentre la sua PACF è anch’essa una combinazione degli andamenti delle componenti AR e MA, non annullandosi mai, ma decadendo verso lo zero con andamento esponenziale per i lags k > q − p. 2.7.1 Sintesi Per sintetizzare, riassumiamo i concetti finora esposti attraverso due tabelle, nelle quali vengono riportate le caratteristiche essenziali di ciascun processo: 28
  • 36. Tabella 2.2: ACF e PACF per ciascun processo analizzato Processo stocastico, stazionario ACF PACF e invertibile Non si annulla mai AR(p) ma È nulla per k > p decade verso lo 0 Non si annulla mai MA(q) È nulla per k > q ma decade verso lo 0 Non si annulla mai Non si annulla mai ARMA(p, q) ma ma decade verso lo 0 decade verso lo 0 per i lags k > p − q per i lags k > q − p Tabella 2.1: Processo stocastico, stazionario e invertibile Processo Stazionario Invertibile AR(p) φ(B) = 0 Sempre |Bi| > 1 MA(q) Sempre θ(B) = 0 |Bi| > 1 ARMA(p, q) φ(B) = 0 θ(B) = 0 |Bi| > 1 |Bi|>1 29
  • 37. 2.7.2 Un esempio: il processo ARMA(1,1) La forma generale del processo auto-regressivo (di ordine 1) a media mobile (di ordine 1), siglato con Xt ∼ ARMA(1, 1) è espressa dalla seguente relazione: Zt − φ1Zt−1 = at − θ1at−1 (2.34) Applicando l’operatore B al processo Zt ∼ ARMA(1, 1) la (2.28) diventa: (1 − φ(B))Zt = (1 − θ(B))at (2.35) Figura 2.9: Simulazione di un processo ARMA(1,1) 2.8 I processi ARIMA(p,d,q) Nelle serie osservate non sempre è garantita la stazionarietà, cioè il processo che le ha generate non sempre rispetta le tre regole della stazionarietà in senso debole. Occorre, dunque, generalizzare i modelli ARMA per poterli applicare anche a si- tuazioni in cui i dati non sono stazionari, sono cioè realizzazioni di processi stocastici non stazionari. Per quanto riguarda la non stazionarietà in varianza e covarianza 30
  • 38. occorrono interventi in fase di analisi preliminare. Ad esempio, una situazione di eteroschedasticità può essere risolta mediante una opportuna trasformazione della variabile per renderla il più possibile omoschedastica. Per quanto riguarda, invece, la non stazionarietà in media, essa indica che la serie ha un trend/ciclo che rappresenta la variazione media del fenomeno nel tempo. Per rimuovere questa componente e rendere la serie stazionaria ci possiamo servire del citato operatore differenza prima. Se l’operatore è applicato ad una funzione lineare che stima il trend, allora otteniamo una funzione costante. Se il trend, invece, risulta stimato da un polinomio di grado k, allora possiamo applicare k per ricondurlo ad una costante. Partendo da un insieme di dati xt possiamo applicare l’operatore diffe- renza finchè non otteniamo un insieme k xt che possiamo modellare come una realizzazione di un processo stazionario. Sostanzialmente, i modelli ARIMA (p,d,q) sono analoghi ai modelli ARMA (p,q) applicati alle differenze di ordine d della serie dei valori, invece che agli effettivi valori. Se Zt è un processo non stazionario tale che d Zt = Kt, che è stazionario (e per il quale è valida una rappresentazione ARMA stazionaria e invertibile), e se φ(B)Kt = θ(B)at, allora avremo la seguente relazione: d φ(B)Zt = θ(B)at (2.36) Possiamo definire il processo stocastico Auto-Regressivo di ordine p, inte- grato d volte e Media Mobile di ordine q, Zt ∼ ARIMA(p, d, q), tramite la (3.6), che sviluppata diventa: d (Zt −φ1Zt−1 −φ2Zt−2 −...−φpZt−p) = at −θ1at−1 −θ2at−2 −...−θqat−q (2.37) Quindi possiamo stabilire la seguente relazione biunivoca: Zt ∼ ARIMA(p, d, q) ⇐⇒ d Zt = Kt ∼ ARMA(p, q) (2.38) 31
  • 39. Sfruttando il teorema dell’isomorfismo possiamo scrivere, in modo equivalente: d (B)Zt = θ(B)at ⇐⇒ φ(B)Kt = θ(B)at (2.39) Abbiamo quindi definito modelli per serie non stazionarie in media (ARIMA). 2.8.1 Un esempio: il processo ARIMA(1,1,1) La forma generale del processo auto-regressivo (di ordine 1) integrato (di ordine 1) a media mobile (di ordine 1), siglato con Xt ∼ ARIMA(1, 1, 1) è espressa dalla seguente relazione: Zt − φ1Zt−1 = at + at−1 (2.40) Applicando l’operatore B al processo, la formula diventa: (1 − φB)(1 − B)Zt = (1 + θ1B)at (2.41) Graficamente, il processo è rappresentato così: Figura 2.10: Simulazione di un processo ARIMA(1,1,1) 32
  • 40. Capitolo 3 Serie storiche 3.1 Introduzione Si definisce serie storica un insieme finito di osservazioni, ordinate nel tempo e solitamente misurate ad intervalli di tempo equispaziati (ogni mese, ogni trimestre, ogni anno, etc..), di un certo fenomeno che si evolve in modo aleatorio. Ogni osservazione xt può essere vista come una realizzazione di una variabile aleatoria Xt, la quale indica, in particolare, un processo stocastico {Xt}t∈T . Secondo tale definizione, una serie storica {xt; t ∈ T} può specificarsi come una successione finita di valori correlati sequenzialmente: possiamo pertanto affermare che una se- rie storica è la parte finita di una realizzazione campionaria di un processo stocastico. Si parla di serie storiche, quindi, quando si considera un fenomeno in relazione alla sua evoluzione nel tempo. L’osservazione quotidiana dei fenomeni ne offre infiniti esempi: si pensi ad esempio all’andamento dei prezzi di certi beni, specie in periodo di economia fortemente dinamica, o all’altezza del mare in un dato luogo. Finalità dello studio di una serie storica è quello di descrivere ed interpretare il fenomeno fisico oggetto di studio da essa rappresentato in modo da poter effettuare delle previsioni sulla dinamica temporale del fenomeno stesso. L’analisi delle serie storiche giunge a tale obiettivo, mediante l’individuazione di un opportuno processo stocastico che abbia traiettorie che si adattino ai dati, per poter poi formulare previsioni. Per fare ciò, risulta necessario restringersi ad 33
  • 41. una classe di processi stocastici che consenta di: 1. identificare univocamente il processo, ossia il modello; 2. fare inferenza sui momenti del processo stesso, cioè ottenere delle stime corrette e consistenti dei momenti del processo. Utilizzando strutture probabilistiche si deve, infatti, tener conto che ciò che viene osservato non è che una sola realizzazione, relativa ad un intervallo di tempo limitato. D’altra parte, se ciò che si osserva viene interpretato come una realizzazione finita di un processo stocastico che gode di particolari proprietà, allora è possibile trovare un unico modello adatto a rappresentare l’evoluzione temporale del fenomeno oggetto di studio. Questo è il motivo per cui nei precedenti capitoli sono state introdotte le proprietà di stazionarietà dei processi. Nell’analisi delle serie storiche, l’unica cosa cui si è interessati è dare una spiegazione quantitativa all’andamento nel tempo di un fenomeno, in modo da poter formulare delle ipotesi realistiche sul suo andamento futuro. Tutto questo, indipendentemente da eventuali variabili che possano influenzare l’andamento della serie, sia nel passato che in ottica previsiva: il fenomeno viene modellato solamente rispetto al tempo. 3.1.1 Serie continue e serie discrete Consideriamo una grandezza z la quale vari nel tempo t, quale, ad esempio, la temperatura in un dato luogo. Possiamo trovarci in presenza di due situazioni diverse: 1. la grandezza z è funzione continua del tempo t ed in tal caso la indicheremo con z(t). In questa ipotesi il diagramma rappresentativo dell’andamento temporale del fenomeno si presenta come indicato nella figura (2.1 a) e la serie temporale è detta continua; 2. la grandezza z viene rilevata solamente in certi istanti t = 0, 1, 2, 3, . . . .. In questa ipotesi il diagramma rappresentativo dell’andamento temporale del fenomeno si presenta come indicato nella figura (2.1 b) e la serie temporale è detta discreta. 34
  • 42. Figura 3.1: Serie temporale continua (a) e discreta (b) 3.1.2 Serie deterministiche e serie probabilistiche Quando si studia una serie temporale ci si può trovare in presenza di due comporta- menti, concettualmente ben distinti, indicati, rispettivamente, come andamento deterministico ed andamento stocastico. Si dice che un andamento temporale è di tipo deterministico quando si può preve- dere il suo sviluppo futuro senza errore. Tale andamento temporale è rappresentato da una funzione matematica che consente di determinare, in modo certo, il suo valore in qualunque istante t. Molti comportamenti temporali sono, tuttavia, caratterizzati da andamenti erratici, con oscillazioni irregolari di segno positivo e negativo. Sono queste le caratteristiche degli andamenti di tipo stocastico, il cui nome deriva dal fatto che essi si possono spiegare come manifestazioni di eventi casuali. Rispetto al problema della previsione, questi fenomeni si presentano in modo esattamente opposto a quelli deterministici, in quanto la previsione delle loro future manifestazioni è sempre affetta da errori.È opportuno ricordare, però, che gli eventi casuali non sono prevedibili nelle loro single manifestazioni, ma si possono fare previsioni (in termini probabilistici) quando si considerano "masse di casi". L’esame statistico delle serie temporali di tipo non deterministico può fornire utili informazioni tali da consentire di scoprire 35
  • 43. il "meccanismo" che governa la serie stessa consentendo, così, una previsione abbastanza precisa del futuro andamento del fenomeno temporale. 3.2 Il teorema di Wold La gran parte degli andamenti temporali che è possibile osservare sembrano ottenuti dalla sovrapposizione di un andamento deterministico con uno probabilistico (vedi figura 3.2). In questo caso si parla di andamento misto, che si suppone sia ottenuto dalla somma di due andamenti elementari. Figura 3.2: Serie storica ad andamento misto Tale risultato è messo in luce anche dal noto Teorema 3.2.1 (Teorema di Wold). Ogni processo stocastico stazionario Xt di valore medio µ può sempre decomporsi nella somma di due processi stocastici Zt e Vt, stazionari E(Zt) = 0, E(Vt) = 0 (3.1) e tra loro mutuamente incorrelati (ortogonali), corr(Zt, Vt) = 0 (3.2) detti rispettivamente componente non deterministica (componente stocastica) Zt e componente deterministica Vt. 36
  • 44. Dunque il processo stocastico stazionario Xt di valore medio µ ha la seguente forma: Xt = Zt + VT (3.3) dove Zt e Vt hanno le seguenti rappresentazioni: Zt = at + ψ1at−1 + ψ2at−2 + ..., con ∞ j ψ2 j < +∞ (3.4) Vt = µ + +∞ j=1 (Aj cos(λjt) + Bj sin(λjt)) (3.5) in cui nella prima at ∼ WN(0, σ2 ) e, nella seconda, Aj e Bj sono successioni di v.c. con valore medio zero, varianza costante ed incorrelate tra loro, e λj è una successione di numeri reali tale che 0 ≤ λj ≤ π, per ogni j [Piccolo, 1984]. La componente stocastica Zt è una componente casuale completamente impre- vedibile, nota anche come processo stocastico lineare in quanto è costituita da una combinazione lineare infinita di processi white noise. La componente deterministica Vt, invece, è nota come processo stocastico de- terministico, poiché le realizzazioni di questo processo sono funzioni matematiche in quanto dipendono solo dal coseno e dal seno. 3.3 Un approccio moderno alle serie storiche: la procedura di Box-Jenkins L’analisi moderna delle serie storiche si concentra sul processo generatore della componente aleatoria Zt, esprimibile a sua volta come la somma delle seguenti due componenti: Zt = g(Yt−1, Yt−2, ..., t − 1, t − 2, . . . ) + t. L’approccio Moderno si fonda fondamentalmente sulla procedura proposta da Box e Jenkins (1976). Essa consiste in un procedimento iterativo che consente di pervenire, a partire dall’osservazione dei dati, alla costruzione di un modello ARIMA che fornisce una descrizione valida/adeguata del processo stocastico generatore della serie storica osservata. Si tratta di uno strumento statisticamente efficiente per 37
  • 45. risalire dalla serie storica al processo stocastico generatore. Box e Jenkins, quindi, hanno cercato di costruire un approccio ai dati per il quale sia la serie storica ad orientare verso il modello e non viceversa. I modelli più comunemente utilizzati per l’analisi delle serie storiche sono i modelli ARIMA(p, d, q) × (P, D, Q)s che sono dei modelli misti di componenti a media mobile (MA) e di componenti autoregressive (AR), che tengono conto dell’eventuale non stazionarietà e stagionalità di una serie. Tali modelli cercano di spiegare l’andamento di una serie storica basandosi sulla storia passata: in altre parole, si tratta di modelli il cui obiettivo primario è quello di determinare, sulla base dei valori già noti del fenomeno oggetto di studio che si evolve nel tempo, i suoi valori futuri. 3.3.1 I processi ARIMA stagionali Nel caso di serie storiche con rilevazioni a intervalli minori di un anno abbiamo a che fare col fenomeno della stagionalità, in gran parte esso è dovuto al moto terrestre intorno al sole, con tutti gli effetti che ne derivano su clima, calendario, usanze, ecc. . . In una serie storica a rilevazioni mensili, ad esempio, la rilevazione di un certo fenomeno relativa ad un mese è influenzata sia dalla rilevazione dei mesi precedenti, che dalla rilevazione dello stesso mese degli anni precedenti, stessa cosa potrebbe dirsi nel caso di serie storiche trimestrali, quadrimestrali, ecc.. In questi casi vengono introdotti i modelli ARIMA stagionali fondati sulla constatazione che: “se una serie è stagionale di periodo s, allora occorre collegare Zt e Zt−s. Quindi è fondamentale osservare le differenze Zt − Zt−s = (1 − Bs )Zt, che sono esattamente le variazioni annuali del fenomeno Zt mese per mese (se s=12), trimestre per trimestre (se s=4), e così via. È utile quindi definire l’operatore differenza stagionale s” [Piccolo, 1984]: sZt = (1 − Bs )Zt = Zt − Zt−s (3.6) L’applicazione dell’operatore s ad una serie con stagionalità di periodo s eliminerà la componente stagionale, più una componente trend del primo ordine, cioè lineare. Il modello ARIMA stagionale esprime il legame tra valori dello stesso mese in 38
  • 46. anni differenti, allo stesso tempo però questi valori sono legati a quelli dei mesi precedenti, dello stesso anno, come esplicitato nel seguente schema: Figura 3.3: Modelli ARIMA stagionali “Come indicano le frecce nella tabella, un valore Zt è connesso ai valori Zt−12j, j = 1, 2, ... dello stesso mese ma di anni precedenti, ma anche ai valori Zt−i, i = 1, 2, ... dello stesso anno ma di mesi precedenti: tali connessioni possono essere descritte da due tipi di modelli ARIMA” [Piccolo, 1984]. Introduciamo tre nuovi operatori, con caratteristiche simili a quelli introdotti nel caso di serie non stagionali: • l’operatore differenza stagionale di ordine D: d s = (1 − Bs )d (3.7) • l’operatore AR stagionale di ordine P: Φ(Bs ) = 1 − Φ1Bs − Φ2B2 s − ... − ΦP BP s (3.8) • l’operatore MA stagionale di ordine Q: Θ(Bs ) = 1 − Θ1Bs − Θ2B2 s − ... − ΘQBQ s (3.9) 39
  • 47. Il modello che esplicita il legame tra valori dello stesso mese diventa, per ogni generico s è: Θ(Bs ) d s Zt = Θ(Bs )at (3.10) dove, posto d sZt = Kt, si esplicita nel modo seguente: Kt −Θ1Kt−s −Θ2Kt−2s −...−ΘpKt−ps = at −θ1at−s −θ2at−2s −...−θqat−qs (3.11) in cui i residui at non sono WN perché dipendono ancora dal legame tra periodi successivi dello stesso anno, per cui è possibile ipotizzare un modello ARIMA (p,d,q) definito da: φ(B) d at = θ(B)at (3.12) con at ∼ WN(0, σ2 a). Possiamo, quindi, arrivare a definire la formulazione generale del modello ARIMA stagionale (p, d, q) × (P, D, Q)s tenendo conto di un valore costante pari a θ0, della media µ del processo Xt e dell’eventuale trasformazione di Box-Cox di parametro λ: φp(B)φp(Bs ) d d s(Xt − µ)λ = θ0 + θq(B)θq(Bs )at (3.13) Per garantire la stazionarietà e l’invertibilità di questo modello devono essere verificate la stazionarietà e l’invertibilità di tutti gli operatori coinvolti, precisamente occorre imporre che le equazioni: • φ(B) = 0 abbia tutte le p radici, in modulo, maggiori di 1; • Φ(Bs ) = 0 abbia tutte le P radici, in modulo, maggiori di 1; • θ(B) = 0 abbia tutte le q radici, in modulo, maggiori di 1; • Θ(Bs ) = 0 abbia tutte le Q radici, in modulo, maggiori di 1. Un modello di questo tipo presenta p+q+P +Q+1 parametri da stimare, oltre agli eventuali µ, θ0 e λ, se necessario. Per quanto riguarda le funzioni di autocorrelazione per il modello stagionale, esse non possono essere automaticamente accostate a quelle dei modelli non stagionali: soltanto gli andamenti dei modelli solo AR e solo MA si conservano per processi solo AR stagionali e solo MA stagionali. 40
  • 48. 3.3.2 Le fasi della procedura La procedura di Box-Jenkins si compone di quattro fasi: 1. analisi preliminari; 2. identificazione del modello ARIMA; 3. stima dei parametri; 4. verifica del modello accanto alle quali, nel seguente schema iterativo, vengono sottolineati gli strumenti statistici che occorre utilizzare Figura 3.4: Procedura iterativa per la costruzione di un modello ARIMA 41
  • 49. Amalisi preliminari Questa prima fase della procedura di Box-Jenkins consiste nello stabilire se la serie storica presa in esame è stazionaria, mentre in caso negativo dovremo effettuare, su di essa, delle opportune trasformazioni iniziali in modo che possa essere considerata una realizzazione di un processo Gaussiano stazionario. Poiché è raro che le serie storiche osservate presentino condizioni di stazionarietà e di normalità, si pone il problema di verificare fino a quale punto sia possibile trasformare la serie originaria per ricondurla alla realizzazione di un processo Gaussiano stazionario. Ciò comporta un complesso di verifiche tendenti ad appurare tre condizioni: 1. la distribuzione Normale del white noise at; 2. l’assenza e/o l’eliminazione di valori anomali (outliers); 3. la stazionarietà della serie in media, varianza e covarianza. Per quanto riguarda la Normalità del processo White Noise at è sufficiente verifica- re la Normalità del processo Xt (che essendo stazionario, per ipotesi, è combinazione lineare di at) mediante test di adattamento sulla serie storica degli scarti dalla media: in genere, se essi presentano una distribuzione unimodale e simmetrica, possiamo accettare l’ipotesi di Normalità. Una asimmetria nella distribuzione degli scarti potrebbe essere causata dalla even- tuale presenza di outliers: in questo caso i dati anomali andranno trattati con procedure specifiche, prima di poter usare correttamente un modello ARMA. Per quanto riguarda la non stazionarietà in media della serie, possiamo lavorare sulla serie delle differenze di ordine d = 1, 2, 3, .. scegliendo la differenza dell’ordine d per la quale le realizzazioni della serie differenziata k(t) = d zt appaiono grafica- mente stazionarie. L’applicazione di questo operatore ha, però, lo svantaggio di far perdere dati al crescere di d. Per quanto riguarda la non stazionarietà in varianza (eteroschedasticità), è possibile applicare la trasformazione logaritmica se i dati sono positivi o sono stati preventivamente traslati in modo da essere positivi; questa trasformazione dovrebbe ridurre la variabilità del fenomeno. In alternativa è possibile applicare la trasformazione Box-Cox, ricercando il λ tale per cui la serie kt(λ)sia la più 42
  • 50. omoschedastica possibile. Il caso di una serie non omoschedastica in covarianza è difficile da individuare, e tale eteroschedasticità è difficile da eliminare, quindi nella pratica si assume che la covarianza sia stazionaria, oppure, nel caso si disponga di molti dati e sia possibile farlo, si divide la serie in più sottoserie con covarianza stazionaria al loro interno. Identificazione del modello Gli strumenti utilizzati per l’identificazione di un modello ARIMA che possa rappresentare adeguatamente il processo generatore della serie storica osservata, sono le funzioni di autocorrelazione globale e parziale stimate. Tali funzioni, stimate sui dati della serie, vanno poi confrontate con le funzioni di autocorrelazione globale e parziale teoriche relative a diversi modelli ARIMA. Si sceglierà quel modello avente le funzioni di autocorrelazione globale e parziale più simili alle corrispondenti funzioni calcolate sulla serie di partenza. In altre parole, assegnata una serie storica stazionaria, o resa tale in seguito alle trasformazioni effettuate nella prima fase, procediamo al calcolo delle autocovarianze e della funzione di autocorrelazione tramite gli stimatori: γˆ(k) = 1 N N−k t=1 Cov(Xt, Xt+k) (3.14) ρˆ(k) = γˆ(k) γˆ(0) , ∀k = 0, 1, 2, ... (3.15) Dallo studio dell’ACF e della PACF, ovvero dal confronto dell’andamento osser- vato rispetto all’andamento (teorico) deducibile per processi AR(p), MA(q) ed ARMA(p,q), occorre decidere l’ordine p e/o q delle componenti AR e/o MA. Si comprende, allora, che dovremo sapere quali sono i comportamenti tipici e teorici di ρ(k) e π(k) per i processi ARMA(p,q) al variare di p e/o di q. Tale fase costituisce l’identificazione dei modelli ARMA(p,q) ed è, per molti motivi, quella più soggettiva e controversa della proposta metodologica di Box e Jenkins. Più immediato da individuare è il comportamento delle funzioni di autocorrelazione globale e parziale a partire dalla conoscenza del processo stazionario ed invertibile. La verifica sulla presenza della componente MA (da sola) o su quella AR (da 43
  • 51. sola) può essere agevolata dal fatto che, entrambe le ipotesi, si riconducono a costruire bande di confidenza (al 95%), approssimativamente pari a ± 2√ N , attorno alle funzioni ρ(k) e π(k). Tali bande, lungi dall’essere definitorie, hanno solo un valore indicativo, capace di fornire un supporto statistico approssimato alla dedu- zione derivante dall’analisi complessiva delle funzioni di autocorrelazione stimate. Più complessa ci sembra l’individuazione immediata di componenti miste del tipo ARMA in quanto, eccettuato il caso p = 1 e q = 1, non è agevole sintetizzare, a priori, le differenti funzioni di autocorrelazione nello spazio dei parametri ARMA. Tuttavia, poiché la proposta di Box e Jenkins è una procedura essenzialmente iterativa, non è affatto limitante cominciare l’identificazione delle componenti a partire da quelle di basso ordine (p ≤ 2; q ≤ 2), con la possibilità di aumentarle successivamente qualora l’analisi dei residui ne mostrasse la presenza. Con tale premessa, è possibile elencare le seguenti indicazioni tratte da un’interazione fra esperienza empirica e risultati teorici: 1. una ACF che decade quasi linearmente e una corrispondente PACF il cui valore al lag 1 è molto vicino a 1 (mentre quelli ai lags successivi sono praticamente nulli) è segno di un trend nella serie storica; 2. un decadimento esponenziale decrescente e monotòno nell’ACF, confermato da un singolo valore della PACF piuttosto significativo, indica una componente AR(1); la sua persistenza nella funzione di autocorrelazione dei residui, dopo aver costruito tale modello, può suggerire modelli AR(p), p > 1; 3. una ACF con comportamento periodico smorzato con ciclo quasi costante può suggerire una componente AR(2) con radici complesse nell’equazione caratteristica; la conferma deriva da una PACF significativamente diversa da zero ai primi due lags, ma con πˆ(2) negativo; 4. valori isolati nella ACF, ai quali corrispondono valori decrescenti espo- nenzialmente (ma non regolarmente) nella PACF, indicano componenti MA(q); 5. valori decrescenti nella ACF, praticamente similari anche nella PACF, che decadono, non dal lag 0, ma da valori successivi, suggeriscono componenti 44
  • 52. miste del tipo ARMA, anche se a priori nulla può dirsi sulla coppia (p,q) eccetto il caso molto semplice p = q = 1” [Piccolo, 1984]. Stima dei parametri Identificati gli ordini (p,q) del modello ARMA definito dalla (3.11), occorre proce- dere ad una stima efficiente dei p + q + 1 parametri che lo caratterizzano, cioè del vettore: [φ1, φ2, ..., φp, θ1, θ2, ..., θq, σ2 a] (3.16) Ipotizzando una distribuzione Gaussiana per at, e quindi per Kt, si ricorre al metodo della massima verosimiglianza (è la tecnica preferita). Questo fornisce stimatori con proprietà ben definite. La procedura dalla quale si ottengono le stime di massima verosimiglianza è iterativa e viene generalmente effettuata dai software statistici, poiché le equazioni di verosimiglianza sono complicate da risolvere analiticamente: il metodo, oltre alle stime dei parametri, restituisce anche i relativi errori standard, in modo che le stime kˆ(.) ottenute possano essere sottoposte a test di significatività. Alternativamente, si può utilizzare il metodo dei minimi quadrati non lineari, quando cioè la funzione da minimizzare non è lineare. Verifica del modello stimato Una volta stimato il modello si procede all’analisi dei residui per verificare che essi si distribuiscano come un white noise gaussiano. Tale verifica può essere effettuata in 3 momenti: 1. analisi grafica dei residui: essa è essenziale per individuare pattern più o meno evidenti, ricorrenze cicliche, valori anomali, da correggere adegua- tamente nel ciclo successivo. Tale analisi vorrebbe, almeno ad una prima impressione, concludere che i residui sono casuali nel senso che sono una successione imprevedibile di at+1 a partire da at; 2. analisi della distribuzione dei residui: si costruisce, generalmente, l’i- stogramma dei residui per verificarne la Normalità, o almeno, la simmetria e l’unimodalità. Si possono, in aggiunta, applicare alcuni test per testare 45
  • 53. ipotesi sulla forma della distribuzione (ad esempio il test di Shapiro-Wilk o il test di Jarque-Bera) e sulla bontà di adattamanto (che si basa sul χ2 ); 3. stima dell’autocorrelazione dei residui: è il momento più rilevante nel- l’ambito della proposta di Box e Jenkins, in quanto consente di orientare opportunamente verso modelli alternativi rispetto a quello stimato. Poi- ché l’ipotesi at ∼ WN(0, σ2 a) imporrebbe una funzione di autocorrelazione ρa(k) = 0 per ogni k = 0, si calcola la funzione di autocorrelazione ρa(k) = 0 dei residui stimati at che, [...] presenta varianza approssimata pari a 1 N . In pratica, per l’autocorrelazione dei residui si costruiscono bande di confidenza al 95% attorno al valore 0, approssimativamente pari a ± 2√ N . I. Ogni valore al di fuori della banda, ovvero ogni andamento caratteristico di componenti AR e/o MA, sarà ritenuto indicativo di inadeguatezza del modello. [Piccolo, 1984] Alcuni test che vengono utilizzati per la verifica del modello sono il test di Ljung- Box ed il test di Durbin-Watson. Il primo verifica se alcuni dei gruppi di autocorrelazioni della serie storica sono diversi da 0: esso, cioè, verifica l’intera casualità dei residui basandosi su un de- terminato numero di lags. Il test viene eccezionalmente utilizzato per i modelli ARIMA. Si noti che esso viene messo in atto sui residui del modello ARIMA e non sulla serie storica di partenza, e, in alcune applicazioni, l’ipotesi realmente sottoposta a verifica è che i residui del modello ARIMA non siano autocorrelati. Il secondo, invece, verifica la presenza di autocorrelazione nei residui di un modello di regressione. L’ipotesi nulla è che gli errori non sono incorrelati in serie, mentre l’ipotesi alternativa è che essi seguono un processo AR di primo ordine. È in quest’ultima fase che la metodologia proposta da Box e Jenkins trova il suo punto di forza: nell’ipotesi di rifiuto del modello, la ripetizione del ciclo identificazione – stima – test viene effettuata sulla base dei motivi che hanno condotto al rifiuto di quella ipotesi. In altri termini, il rifiuto del modello insegna circa la direzione da prendere per un modello alternativo da identificare, stimare, verificare e così via. L’accettazione del modello, infine, implica la sua utilizzazione statistica per gli obiettivi della ricerca: previsione, simulazione, controllo, ecc.. 46
  • 54. Capitolo 4 Un caso studio: la domanda di benzina in Ontario 4.1 Introduzione Ben 16 raffinerie del Canada (nella figura, in rosso) trattano il petrolio che viene prodotto domesticamente ed importato dall’estero. Figura 4.1: Raffinerie di prodotti petroliferi in Canada 47
  • 55. Negli ultimi 5 anni, queste raffinerie hanno prodotto una media di 2,3 milioni di barili di prodotti petroliferi raffinati ogni giorno. Circa l’80% di questi prodotti sono stati utilizzati per spostare persone e merci, o per mantenere riscaldate le case. Il prodotto più utilizzato all’interno di questo 80% è stata la benzina per motori. Il diesel ed i mezzi distillati (come l’olio combustibile) sono la seconda tipologia di prodotti più utilizzati, soprattutto per il trasporto di merci e passeggeri, produzione di energia elettrica e riscaldamento domestico. A completare l’80% ci sono la benzina per l’aviazione (utilizzata da velivoli commerciali e militari) ed i combustibili pesanti (utilizzati per il trasporto marittimo) In media, l’Ontario ed il Quebec gestiscono circa il 60% della benzina consumata in Canada. Le province occidentali gestiscono circa il 32% del consumo di benzina del Canada, mentre il restante 8% della benzina è consumata nelle Province atlantiche e nei Territori. Il seguente grafico a pila illustra la ripartizione media di un barile di prodotti petroliferi raffinati utilizzati nelle raffinerie del Canada, rappresentato da prodotti più pesanti sul fondo e da prodotti più leggeri in alto. I valori sono stati calcolati basandosi sulla produzione media di prodotti raffinati canadesi tra il 2011 ed il 2016. Figura 4.2: Ripartizione di un barile medio di prodotti petroliferi raffinati in Canada 48
  • 56. La componente più grande è costituita dalla benzina per motori (36%), seguita dal diesel ed i mezzi distillati (33%); i carburanti per l’aviazione rappresentano il 5%, l’asfalto ed altri prodotti leggeri il 4%. La gamma di prodotti realizzati in ogni raffineria dipende dal tipo di petrolio che viene raffinato, in quanto i prodotti più pesanti derivano dal petrolio più pesante, mentre i prodotti più leggeri derivano dal petrolio più leggero. Circa un terzo del greggio raffinato nel Canada occidentale è considerato pesante, mentre solo il 10% del greggio raffinato nel Canada orientale è considerato pesante. 4.2 La domanda di benzina in Ontario dal gennaio 1960 al dicembre 1975 In questo capitolo affronteremo il problema di identificare, a partire da una serie storica osservata, un modello ARIMA atto a descrivere le relazioni di dipendenza temporale osservate nei dati e che possa ritenersi il processo generatore della serie stessa. Illustreremo, quindi, la procedura di Box e Jenkins per la costruzione di modelli ARIMA. La serie storica reale, osservata mensilmente, fa riferimento alla domanda di benzina in Ontario (espressa in milioni di galloni) dal gennaio del 1960 al dicembre del 1975. I dati2 sono stati estratti dalla Time Series Data Library, una collezione di circa 800 serie storiche creata nel 1992 da Rob Hyndman. 4.2.1 Analisi preliminari Statistiche descrittive La serie storica in esame è composta da 192 osservazioni. Per brevità, ci limitiamo a riportarne un estratto: Jan Feb Mar Apr May Jun Jul Aug Sep Oct Nov 2 https://datamarket.com/data/set/22of/monthly-gasoline-demand-ontario-gallon-millions- 1960-1975 49
  • 57. 1960 87695 86890 96442 98133 113615 123924 128924 134775 117357 114626 107677 1961 92188 88591 98683 99207 125485 124677 132543 140735 124008 121194 111634 1962 101007 94228 104255 106922 130621 125251 140318 146174 122318 128770 117518 1963 108497 100482 106140 118581 132371 132042 151938 150997 130931 137018 121271 1964 109894 106061 112539 125745 136251 140892 158390 148314 144148 140138 124075 1965 109895 109044 122499 124264 142296 150693 163331 165837 151731 142491 140229 1966 116963 118049 137869 127392 154166 160227 165869 173522 155828 153771 143963 1967 124046 121260 138870 129782 162312 167211 172897 189689 166496 160754 155582 1968 139625 137361 138963 155301 172026 165004 185861 190270 163903 174270 160272 1969 146182 137728 148932 156751 177998 174559 198079 189073 175702 180097 155202 1970 154277 144998 159644 168646 166273 190176 205541 193657 182617 189614 174176 1971 158167 156261 176353 175720 193939 201269 218960 209861 198688 190474 194502 1972 166286 170699 181468 174241 210802 212262 218099 229001 203200 212557 197095 1973 188992 175347 196265 203526 227443 233038 234119 255133 216478 232868 221616 1974 194784 189756 193522 212870 248565 221532 252642 255007 206826 233231 212678 1975 199024 191813 195997 208684 244113 243108 255918 244642 237579 237579 217775 Disegniamo ed analizziamo il grafico della variabile Domanda di benzina in Ontario dal 1960 al 1975: Figura 4.3: Consumo di benzina in Ontario 1960-1975 50
  • 58. La funzione di densità della variabile di riferimento è leggermente asimmetrica con coda a destra, ma unimodale. Calcoliamo alcuni indici di posizione (media, mediana, quartili, ecc.) e l’indice di variabilità più utile (scarto quadratico medio): Consumo di benzina Min. : 86890 1st Qu.:128426 Median :157459 Mean :162064 3rd Qu.:193556 Max. :255918 Dev.st.:41661.87 Skew. :3.199480e-01 Kurt. :-7.665780e-01 Evidenziamo come media (162064) e mediana (157459) non siano esattamente le stesse, per cui la distribuzione del fenomeno in esame non è prossima a quella di una v.c. Normale. Per verificare la Normalità ricorriamo al test di Jarque-Bera: Jarque Bera Test data: benzina1 X-squared = 7.7454, df = 2, p-value = 0.0208 Skewness data: benzina1 statistic = 0.32246, p-value = 0.06813 Kurtosis data: benzina1 statistic = 2.2569, p-value = 0.03556 L’unico p-value superiore alla soglia prefissata (0.05) è quello relativo alla misura di asimmetria della distribuzione. Esso ci consente di non rifiutare l’ipotesi nulla di Normalità della distribuzione. Per il resto, i risultati ci portano a dire che la distribuzione non sia di tipo Normale, proprio come ipotizzato più sopra. 51
  • 59. La forma della distribuzione può essere dedotta anche guardando il box-plot della variabile, il quale mostra una distribuzione leggermente spostata verso il basso (la lunghezza del "baffo" inferiore è più piccola rispetto al "baffo" superiore): Figura 4.4: Box-plot della variabile Dallo stesso grafico, inoltre, è possibile osservare la mancanza di valori anomali (valori che si allontanano di gran lunga dalla media dei dati). Osservando, invece, i box-plot mensili della variabile, è possibile osservare che: Figura 4.5: Box-plot mensili 52
  • 60. • sono assenti ulteriori valori anomali nelle distribuzioni mensili; • la variabilità è quasi simile per tutte le distribuzioni; • la domanda media di benzina è più bassa nei mesi iniziali dell’anno, cioè nei mesi più freddi (in particolare nel mese di febbraio, dove scende del 18%); • la domanda media di benzina è più alta nei mesi più caldi dell’anno (in particolare ad agosto, dove sale del 16.3%). Grafico della serie Il passo più importante per l’analisi di una serie storica reale consiste nell’analisi del grafico della serie e del grafico della sua funzione di autocorrelazione globale. Analizzando il grafico della serie, possiamo notare alcune cose: • la serie presenta un andamento (in rosso) crescente, ottenuto con una re- gressione lineare dove la variabile di risposta è la domanda di benzina e la variabile esplicativa è il tempo: Figura 4.6: Time-plot 53
  • 61. • la serie è non stazionaria in media dal momento che le oscillazioni non risultano assestarsi su un unico valore; • la serie è non stazionaria in varianza dal momento che l’ampiezza di alcune oscillazioni (verso la fine) non è uguale rispetto alle altre; • la componente stagionale (in verde) è abbastanza evidente, in particolare con massimi nei mesi più caldi e minimi nei mesi più freddi. Sul trend Informazioni sulla regressione lineare con la quale abbiamo stimato il trend della serie sono qui riportate: Call: lm(formula = benzina1 ~ time(benzina1), data = benzina1) Residuals: Min 1Q Median 3Q Max -34404 -12931 -645 12111 47173 Coefficients: Estimate Std. Error t value Pr(>|t|) (Intercept) -15895091 541135 -29.37 <2e-16 *** time(benzina1) 8159 275 29.67 <2e-16 *** --- Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1 Residual standard error: 17600 on 190 degrees of freedom Multiple R-squared: 0.8225,Adjusted R-squared: 0.8216 F-statistic: 880.5 on 1 and 190 DF, p-value: < 2.2e-16 Entrambi i coefficienti di regressione (intercetta negativa e coefficiente angolare positivo) sono significativi ad un livello di 0.001 e l’R2 corretto è abbastanza alto, segno che il modello di regressione proposto si adatta molto bene ai dati. 54
  • 62. Sulla stagionalità È possibile evidenziare la componente stagionale all’interno della serie ricorrendo anche a 2 grafici importanti: il seasonplot ed il lagplot. Il seasonplot è un grafico che consente di ottenere il grafico delle serie mensili dei dati. Tutte le serie mensili sono rappresentate in un unico grafico. Figura 4.7: Seasonplot Dal grafico, sopra riportato, è evidente la presenza della componente stagionale nella sottoserie. Infatti, per tutti i mesi, vi è una similitudine negli andamenti della domanda di benzina; nello specifico, ciò è evidente nei mesi di agosto (dove, per quasi tutti gli anni si verifica il massimo) e di febbraio (dove, per tutti gli anni si verifica il minimo). Il lagplot (o grafico di autodispersione), invece, è il grafico di dispersione tra la serie originaria e la stessa serie ritardata di un certo lag. Trattando di una serie con periodicità mensile, abbiamo esaminato le serie ritardate da 1 a 12 mesi e ne abbiamo fornito il relativo grafico. 55
  • 63. Figura 4.8: Lagplot Come si può facilmente notare non solo esiste un legame tra la serie originale e quella ritardata di 12 mesi, ma anche, più marcato, rispetto a tutti i k lag precedenti. Del resto era da aspettarsi un tale risultato. ACF della serie L’ACF, inoltre, fornisce altre importanti informazioni sulle componenti della serie. Analizzandone il grafico (Figura 4.9), si può dedurre che: • l’ACF presenta delle correlazioni elevate (di segno positivo) in corrispondenza dei ritardi stagionali (lag 0,12,..), e ciò è indicatore della presenza di una forte componente stagionale nella serie; 56
  • 64. • l’ACF ha un andamento altalenante: ogni 6 lag l’andamento della funzione cambia. Ciò significa che la funzione alterna fasi in cui il presente tende a dipendere poco dal passato a fasi in cui il presente è fortemente influenzato dagli eventi del passato; • la componente tendenziale di fondo sembra quasi non incidere nella serie. Figura 4.9: ACF della serie originale Stazionarietà Dall’analisi dei grafici effettuata in precedenza, quindi, risulta che la serie è non stazionaria nè in media nè in varianza. Al fine di rendere stazionaria la serie, sono necessarie le seguenti trasformazioni: 1. in primo luogo l’applicazione di una differenza prima (di ordine 1) della serie per eliminare la componente trend e di una differenza stagionale (di ordine 1) per eliminare la componente stagionale; 2. in secondo luogo l’utilizzo della trasformazione di Box-Cox, in particolare la trasformazione logaritmica, utile per rendere la serie stazionaria in varianza; 57
  • 65. Figura 4.10: Serie differenziata trasformata L’applicazione della differenza prima e della differenza stagionale ha ridotto il nume- ro delle osservazioni da 192 a 179 (quest’ultima ha anche eliminato la stagionalità); la trasformazione logaritmica ha stabilizzato la varianza. 4.2.2 Identificazione del modello Poichè è impossibile pervenire al processo stocastico generatore della serie storica presa in esame, è necessario individuare il modello che meglio descrive il processo. Per giungere a tale obiettivo, dobbiamo analizzare i grafici delle funzioni di auto- correlazione globale e parziale della serie. Dall’analisi del grafico dell’ACF osserviamo che: • presenta un picco significativamente diverso da zero in corrispondenza del primo ritardo (lag 1), per quanto riguarda la parte regolare; • per quanto concerne la parte stagionale, in ogni ritardo stagionale la barra verticale supera le bande; possiamo ipotizzare, quindi, che il modello che ha generato la serie abbia una componente MA stagionale di ordine 1, p = P = 1; 58
  • 66. • con il passare del tempo, le barre tendono a rientrare lentamente all’interno delle bande di confidenza, sia sopra che sotto la linea dello 0. Figura 4.11: ACF Analizzando il grafico della PACF, invece, osserviamo che presenta due picchi significativamente diversi da 0 in corrispondenza dei primi 2 lag, poi subito rientra nelle bande di confidenza. Il modello generatore della serie avrà, pertanto, una componente AR regolare di ordine 2, ossia p = 2. Figura 4.12: PACF 59
  • 67. Ora, secondo una procedura iterativa, possiamo riuscire a ricavare il modello generatore della serie. La scelta l’abbiamo effettuata considerando tutti i modelli stazionari (con e senza media nulla) e secondo il criterio dell’AIC: Fitting models using approximations to speed things up... ARIMA(2,0,2)(1,0,1)[12] with non-zero mean : -686.5218 ARIMA(1,0,0)(1,0,0)[12] with non-zero mean : -553.1353 ARIMA(0,0,1)(0,0,1)[12] with non-zero mean : -653.6475 ARIMA(2,0,2)(0,0,1)[12] with non-zero mean : -691.4997 ARIMA(2,0,2)(0,0,2)[12] with non-zero mean : -690.4469 ARIMA(2,0,2)(1,0,2)[12] with non-zero mean : -686.2093 ARIMA(1,0,2)(0,0,1)[12] with non-zero mean : -662.6688 ARIMA(3,0,2)(0,0,1)[12] with non-zero mean : -691.2586 ARIMA(2,0,1)(0,0,1)[12] with non-zero mean : -692.7893 ARIMA(1,0,0)(0,0,1)[12] with non-zero mean : -587.1538 ARIMA(2,0,1)(0,0,1)[12] with zero mean : -694.7873 ARIMA(2,0,1)(1,0,1)[12] with zero mean : -689.6129 ARIMA(2,0,1)(0,0,2)[12] with zero mean : -693.8171 ARIMA(2,0,1)(1,0,2)[12] with zero mean : -689.7311 ARIMA(1,0,1)(0,0,1)[12] with zero mean : -662.5676 ARIMA(3,0,1)(0,0,1)[12] with zero mean : -694.0044 ARIMA(2,0,0)(0,0,1)[12] with zero mean : -695.9326 ARIMA(2,0,0)(0,0,1)[12] with non-zero mean : -693.935 ARIMA(2,0,0)(1,0,1)[12] with zero mean : -691.1527 ARIMA(2,0,0) with zero mean : -656.8514 ARIMA(2,0,0)(0,0,2)[12] with zero mean : -695.4588 ARIMA(2,0,0)(1,0,2)[12] with zero mean : -691.6587 ARIMA(1,0,0)(0,0,1)[12] with zero mean : -589.1528 ARIMA(3,0,0)(0,0,1)[12] with zero mean : -694.0655 Now re-fitting the best model(s) without approximations... 60
  • 68. ARIMA(2,0,0)(0,0,1)[12] with zero mean : -694.9266 Best model: ARIMA(2,0,0)(0,0,1)[12] with zero mean Series: series1 ARIMA(2,0,0)(0,0,1)[12] with zero mean sigma^2 estimated as 0.001129: log likelihood=351.46 AIC=-694.93 AICc=-694.7 BIC=-682.18 Il miglior modello che descrive il processo generatore della serie è dunque un ARIMA(2, 0, 0)(0, 0, 1)s che ha la seguente espressione: (1 − φ1B − φ2B2 )Xt = (1 − Θ1B12 )at (4.1) dove (1 − φ1B − φ2B2 ) è l’operatore AR regolare di ordine 2 e (1 − Θ1B12 ) è l’operatore MA stagionale di ordine 1. Sviluppando i prodotti si avrà: Xt − φ1Xt−1 − φ2Xt−2 = at − Θ1at−12 (4.2) 4.2.3 Stima dei parametri I parametri del modello, stimati con il metodo della massima verosimiglian- za, sono tutti e 3 compresi tra -1 ed 1, con misure di errore (standard error) abbastanza piccole, Coefficients: ar1 ar2 sma1 -0.9825 -0.6903 -0.5979 s.e. 0.0542 0.0539 0.0685 Sostituendo il valore dei parametri all’interno della (4.2), l’equazione diventa: Xt + 0.9825Xt−1 + 0.6903Xt−2 = at + 0.5979at−12 (4.3) che, se risolta, ammette radici inverse che giacciono all’interno del cerchio unitario: 61
  • 69. Figura 4.13: Radici dell’equazione caratteristica Il processo è, dunque, stazionario ed anche invertibile. Adesso analizziamo la bontà del modello verificando le seguenti ipotesi nulle: H0 : θ = 0 e H0 : Θ = 0. Le stime dei parametri devono risultare significativamente diverse da 0, in particolare il parametro deve risultare in valore assoluto almeno 2 volte superiore alla sua deviazione standard. Utilizzando il test t di Student, entrambe le ipotesi vengono rifiutate dal momento che le stime dei parametri risultano in valore assoluto maggiori di 2 volte la rispettiva deviazione standard. Il test t porta, dunque, a ritenere che le 2 stime siano significativamente diverse da 0: z test of coefficients: Estimate Std. Error z value Pr(>|z|) ar1 -0.982484 0.054228 -18.1177 < 2.2e-16 *** ar2 -0.690340 0.053860 -12.8174 < 2.2e-16 *** sma1 -0.597897 0.068516 -8.7264 < 2.2e-16 *** Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1 Inoltre le correlazioni fra le stime dei parametri devono risultare basse, non superiori a 0.8, per evitare problemi di instabilità. Nel nostro caso esse assumono valori (0.5758324, -0.1872304, -0.1121247) che sono nella norma, quindi la stabilità del modello è assicurata. 62
  • 70. 4.2.4 Verifica del modello Un’ulteriore verifica che dobbiamo effettuare riguarda l’analisi dei residui del modello ARIMA stimato. In primo luogo occorre verificare che la media dei residui non sia significativamente diversa da zero. Effettuiamo il test t di Student. One Sample t-test data: fitlog$residuals t = -0.097094, df = 178, p-value = 0.9228 alternative hypothesis: true mean is not equal to 0 95 percent confidence interval: -0.005169446 0.004684608 sample estimates: mean of x: -0.0002424189 Prendendo i residui stimati precedentemente, possiamo determinare il valore della statistica-test t (-0.097094) il cui p-value è pari a 0.92: ciò ci consente di conclu- dere che la media degli errori non è significativamente diversa da zero. In secondo luogo, occorre analizzare il grafico dei residui per valutare che essi risul- tino stazionari e, successivamente, il loro grafico a dispersione per poter valutare che siano incorrelati. Figura 4.14: Analisi strutturale dei residui 63
  • 71. Dall’analisi del grafico della serie storica dei residui osserviamo che questa risulta stazionaria dal momento che fluttua attorno ad un valore costante, lo zero, e la varianza risulta essere costante. L’unico valore che desta sospetto si registra nel maggio del 1970 (-0.125), e ciò è dovuto principalmente al fatto che a partire dal 1970 i prezzi del petrolio greggio sono bruscamente saliti in risposta all’interruzione del rifornimento a causa di eventi geopolitici nel Medio Oriente, culminati nel 1973 con la crisi energetica. Dall’analisi del grafico a dispersione dei residui, invece, possiamo dire che i residui sono incorrelati dato che non presentano una particolare struttura, nonostante la presenza di un unico punto isolato dal resto dei punti. Per poter attenuare l’effetto del valore sospetto che abbiamo identificato, inizializ- ziamo una procedura automatica di identificazione degli outlier. Series: fitlog$residuals Regression with ARIMA(0,0,0) errors Coefficients: AO112 -0.126 s.e. 0.032 sigma^2 estimated as 0.001027: log likelihood=362.4 AIC=-720.79 AICc=-720.72 BIC=-714.42 Outliers: type ind time coefhat tstat 1 AO 112 1970:05 -0.126 -3.943 Il risultato della procedura porta all’identificazione di un outlier additivo (AO)3 , la cui osservazione è la 112 ed il cui valore è di −0.126. Il seguente grafico ci 3 Un outlier additivo è un punto per il quale si ha una brusca variazione nella serie in un dato istante, dopo il quale però la serie stessa ritorna immediatamente all’andamento precedente. In questo caso si preferisce ignorare il valore anomalo, eventualmente sostituendolo con una media di valori immediatamente precedenti e successivi. 64
  • 72. permette di valutare l’effetto che l’AO ha sulla serie storica ed il risultato della sua sostituzione: Figura 4.15: Identificazione di un outlier In blu è riportata la serie storica originale (già stazionaria in media) alla quale è stato sostituito il valore -0.126 (punto rosso in basso) con una media. Se prima la serie poteva risultare non stazionaria in varianza, proprio per la presenza di questo valore, ora osserviamo che la serie ha varianza costante. In rosso, invece, è riportato l’effetto dell’outlier sulla serie: in particolare osserviamo come la presenza del punto altera il regolare andamento della serie (che si assesta sullo 0) e la stazionarietà. Per poter ora valutare, invece, la capacità del modello stimato di descrivere la dipendenza temporale della serie storica analizzata, dobbiamo studiare l’andamento dell’ACF dei residui. Un modello che riesce a cogliere le dipendenze della serie storica presenterà, infatti, una ACF contenuta nella regione di confidenza, ossia una funzione che sarà non significativamente diversa da zero in corrispondenza di 65
  • 73. ogni ritardo. Riportiamo in Figura 4.16 il grafico dell’ACF dei residui ed in Figura 4.17 il grafico dell’andamento del p-value associato al test di Ljung-Box. Figura 4.16: ACF dei residui Il primo grafico mostra che le autocorrelazioni dei residui sono non significativamente diverse da zero (tranne per alcuni lag), portando a non rifiutare l’ipotesi nulla secondo cui i residui del modello provengono da un processo white noise. Figura 4.17: p-value associati al test di Ljung-Box Il secondo grafico, invece, rappresenta il valore del p-value associato alla statistica test di Ljung-Box al variare di k. Dato che il p-value associato risulta superiore al livello di significatività α = 0.05 (per tutti i lag), allora possiamo non rifiutare l’ipotesi nulla congiunta al variare di k. Numericamente, il test di Ljung-Box presenta il seguente risultato: Box-Ljung test data: fitlog$residuals X-squared = 0.34235, df = 1, p-value = 0.5585 66
  • 74. Stesso discorso si può fare per il test di Box-Pierce (alternativo al precedente): Box-Pierce test data: fitlog$residuals X-squared = 0.33668, df = 1, p-value = 0.5618 La presenza/assenza di autocorrelazione seriale può essere visualizzata graficamente anche attraverso il grafico a dispersione dei residui: Figura 4.18: Autodispersione dei residui Considerando la serie dei residui, il relativo grafico di autodispersione mostra assenza di legami tra la serie originaria e quelle ritardate. 67
  • 75. Per verificare, infine, che i residui siano normalmente distribuiti usiamo la funzione di densità dei residui, che deve risultare distribuita secondo la legge Gaussiana, ed il Q-Q plot, che fornisce una misura della bontà di adattamento della distribuzione dei residui alla distribuzione gaussiana. In quest’ultimo grafico riportiamo in verde la retta che indica la situazione di perfetta coincidenza tra i quantili della normale standard e quelli della distribuzione dei residui. Figura 4.19: Analisi distribuzionale dei residui Analizzando l’istogramma dei residui ed il Q-Q plot possiamo dire che i residui risultano normalmente distribuiti, sebbene qualche piccola "imprecisione" della distribuzione nelle code. Un potente test analitico che ci permette di valutare la Normalità dei residui è il test di Jarque-Bera, di cui riportiamo il risultato: Jarque Bera Test data: fitlog$residuals X-squared = 3.3893, df = 2, p-value = 0.1837 68
  • 76. Skewness data: fitlog$residuals statistic = 0.16945, p-value = 0.3547 Kurtosis data: fitlog$residuals statistic = 3.5827, p-value = 0.1115 Essendo il p-value (0.2614) associato alla statistica-test maggiore rispetto alla soglia empirica prefissata (α = 0.05) sia per la curtosi che per l’asimmetria, possiamo accettare l’ipotesi nulla che i residui abbiano una distribuzione Normale. 4.2.5 Previsioni L’ultimo controllo che dobbiamo effettuare per poter accettare ed utilizzare il modello è valutare la sua capacità previsiva. Scegliamo di prevedere i valori degli ultimi 12 mesi di osservazione ossia del 1975, usando il modello ARIMA identificato e stimato tralasciando le osservazioni che vogliamo prevedere. Otteniamo i seguenti valori: 12.20480 12.22815 12.17281 12.21423 12.28505 12.19882 12.27676 12.25375 12.14571 12.22432 12.14217 12.18002 Ricordiamo che abbiamo applicato, inizialmente, la trasformazione logaritmica e quindi la previsione risulta essere per la serie Yt = log(Xt). Per ottenere una previsione dei dati Xt, dobbiamo ritrasformare i valori precedenti mediante una trasformazione esponenziale. Otteniamo: 199493.3 204204.9 193212.5 201383.3 216160.0 198304.1 214377.1 209500.6 188048.1 203425.0 187383.4 194609.9 Le stime ottenute non si discostano troppo dalle osservazioni iniziali, infatti, pos- siamo osservare come in corrispondenza della quinta e della settima osservazione la domanda di benzina sia più alta, in accordo con i dati osservati. Il grafico delle osservazioni Yt con gli intervalli di confidenza per le previsioni effet- tuate, che riportiamo in Figura 4.20, mostra che la serie delle previsioni effettuate è 69
  • 77. contenuta nella regione di confidenza e presenta un andamento abbastanza coerente con quella delle corrispondenti osservazioni reali. Figura 4.20: Grafico delle ultime 12 osservazioni della serie previste mediante il modello ARIMA(2, 0, 0)(0, 0, 1)12 stimato Utilizziamo, ora, il modello stimato per effettuare la previsione per l’anno 1976, di cui riportiamo i valori ottenuti: Jan Feb Mar Apr May Jun 1976 209498.7 205582.0 216637.5 221799.3 244328.6 245544.7 Jul Aug Sep Oct Nov Dec 1976 259021.8 262152.9 241460.1 245069.2 233483.8 235138.2 Una misura sintetica della capacità previsiva del modello stimato è il MAPE (Mean Absolute Percentage Error), che nel nostro caso risulta pari a 2.75, ossia il modello identificato rivela una buona capacità previsiva. Il modello ARIMA identificato e stimato costituisce, dunque, una buona rappresen- tazione della nostra serie storica. Dal grafico riportato in Figura 4.21 possiamo notare che la previsione effettuata segue le caratteristiche della serie originale Xt. 70