SÉRIES CHRONOLOGIQUES, HIVER 2014, MAT8181 EXAMEN

Transcription

SÉRIES CHRONOLOGIQUES, HIVER 2014, MAT8181 EXAMEN
SÉRIES CHRONOLOGIQUES, HIVER 2014, MAT8181
ARTHUR CHARPENTIER
EXAMEN FINAL (2 heures)
Exercice 1 Considérons les trois processus suivants,



 Xt = εt − 1.6Xt−1 − 0.8Xt−2
Yt = εt + 0.4εt−1 + 0.7Yt−1


 Z = ε + 0.4ε
t
t
t−1 − 0.5εt−2
où (εt ) est un bruit blanc de variance σ 2 . On a simulé trois trajectoires (A, B et C), et
tracés trois fonctions d’autocorrélations (D, E et F). En détaillant un peu, expliquer quel
processus se cache derrière chacune des figures.
Serie B
Serie C
−10
−4
−2
−5
−2
0
0
0
5
2
2
10
4
4
Serie A
200
300
400
500
0
100
200
300
400
500
0
100
200
300
Index
Index
Serie D
Serie E
Serie F
500
ACF
−0.5
0.0
ACF
0.4
−0.4
0.0
−0.2
0.2
0.0
0.2
ACF
0.4
0.6
0.6
0.5
0.8
0.8
400
1.0
Index
1.0
100
1.0
0
0
5
10
15
20
25
0
5
10
15
Lag
Lag
1
20
25
0
5
10
15
Lag
20
25
2
ARTHUR CHARPENTIER
Commençons par le plus simple: les autocorrélogrammes. On doit retrouver un AR(2) série X - un ARMA(1,1) - série Y - et un MA(2) - série Z. Le premier autocorrélogramme est
celui d’un MA(2), c’est donc Z. Le troisième présente des autocorrélations qui changent de
signe, alors qu’avec le second, on a juste une décroissance exponentielle. Pour rappel, avec
un ARMA(1,1), la première autocorrélation n’est pas comme pour un AR(1), i.e. ρ(1) 6= φ
(il faut tenir compte de θ), mais ensuite, on retrouve ρ(h) = φ · ρ(h − 1), avec ici φ = 0.7.
Aussi, la série Y correspond à un autocorrélogramme du type E. Pour la série X, il faut
noter qu’on est dans partie inférieure du triangle de stationnarité (pour le couple (φ1 , φ2 ).
En fait, on a ici
(1 + 1.6L + 0.8L2 )Xt = εt
dont les racines sont ici complexes (en fait les racines sont (−2 ± i)/2), aussi ρ(h) sera une
fonction sinusoı̈dale, qui va donc changer de signe. C’est donc bien l’autocorrélogramme
qui reste, F.
La première série, représentée en A préseente des alternances, correspondant à l’autocorrélogramme F. C’est donc le processus AR(2), X. La troisième série a une variance beaucoup
plus grande que la seconde, avec davantage d’autocorrélation. La série C fait penser à un
AR(1), mais comme on n’en a pas, ça sera le processus ARMA(1,1), Y . Et B est une série
plus proche d’un bruit, c’est donc la série MA(2), Z.
Exercice 2
Soient εt et (ηt ) deux bruits blancs, et θ ∈ (−1, 0) ∪ (0, 1). Montrer que les séries
1
Xt = εt + θεt−1 et Yt = ηt + ηt−1
θ
ont les mêmes fonctions d’autocorrélation.
Dans les deux cas, on a MA(1), autrement dit, ρX (h) = ρY (h) = 0 pour |h| > 1. Reste à
vérifier que ρX (1) = ρY (1). On se lance, en notant que les processus sont centés, autrement
dit
ρX (1) =
cov(Xt , Xt−1 )
E(Xt Xt−1 )
=
var(Xt )
E(Xt2 )
Calculons les deux termes,
E(Xt2 ) = E([εt + θεt−1 ]2 )
SÉRIES CHRONOLOGIQUES, HIVER 2014, MAT8595
3
soit
[1 + θ2 ]E(ε2t ) + 2θ E(εt εt − 1)
| {z }
=0
alors que pour le numérateur,
E(Xt Xt−1 ) = E([εt + θεt−1 ][εt−1 + θεt−2 ])
soit (un seul terme sera non nul, je passe les détails)
θE(ε2t−1 )
Bref, le ratio est ici
ρX (1) =
E(Xt Xt−1 )
θ
=
2
1 + θ2
E(Xt )
(en notant que le terme de variance du bruit disparaı̂t). Pour l’autre série, le calcul sera
identique, avec θ−1 au lieu de θ. Aussi,
ρY (1) =
θ−1
E(Yt Yt−1 )
=
= ρX (1)
1 + θ−2
E(Yt2 )
ce qui donne, en multipliant en haut et en bas par θ2 ,
ρY (1) ==
θ2
θ
+1
Autrement dit, les deux fonctions coı̈ncident effectivement.
Exercice 3 Soit (εt ) un bruit blanc (faible) et (Xt ) un processus stationnaire au second
ordre, vérifiant la relation de récurence
Xt = −0.4 Xt−1 + 0.12 Xt−2 + εt .
(1) de quel modèle ARMA s’agit-il ?
(2) montrer que (εt ) est l’innovation de (Xt ), et que la fonction d’autocovariance de (Xt ),
notée ρ(·), vérifie une relation de récurrence de la forme
ρ(h) = aρ(h − 1) + bρ(h − 2), pour h ≥ 2,
où a et b sont des constantes à préciser.
(3) donnez la variance de (εt ) pour que la variance de (Xt ) sont unitaire.
4
ARTHUR CHARPENTIER
(4) montrer que
ρ(h) =
2
9
[0.2]h + [−0.6]h pour tout h ≥ 0.
11
11
(1) C’est un AR(2), ou ARMA(2,0).
(2) Dans un processus AR(p), le bruit est le processus d’innovation dès lors que la racines
du polynôme retard sont à l’extérieur du disque unité. Or ici le polynôme est
Φ(L) = (1 + 0.4L − .12L2 ) = (1 + 0.6L)(1 − 0.2L)
dont les racines sont −1/0.6 et 1/0.2, qui sont plus grandes que 1 (en valeur absolue).
Pour les autocorrélations, soit h ≥ 2. Notons que le processus est centré. Aussi, en
notant γ la fonction d’autocovariance, γ(h) = E(Xt Xt−h )
ρ(h) =
γ(h)
γ(0)
Maintenant, si on multiplie l’équation de récurence par Xt−h ,
Xt Xt−h = −0.4 Xt−1 Xt−h + 0.12 Xt−2 Xt−h + εt Xt−h .
or comme (εt ) est le processus d’innovation, E(εt Xt−h ) = 0. Et donc, en prenant l’espérance
des termes de l’équation précédante, on a
γ(h) = −0.4γ(h − 1) + 0.12γ(h − 2), pour h ≥ 2.
soit, en divisant par γ(0),
ρ(h) = −0.4ρ(h − 1) + 0.12ρ(h − 2), pour h ≥ 2.
(3) On s’était limité au cas h ≥ 2 dans la question précédante. Regardons h = 1, en
multipliant la relation de récurence par Xt−1 ,
Xt Xt−1 = −0.4 Xt−1 Xt−1 + 0.12 Xt−2 Xt−1 + εt Xt−1 .
Si on prend l’espérance, le terme de droite va disparaı̂tre (comme auparavant) et on obtient
γ(1) = −0.4γ(0) + 0.12γ(1)
de telle sorte que
ρ(1) =
−5
−0.4
=
.
1 − 0.12
11
SÉRIES CHRONOLOGIQUES, HIVER 2014, MAT8595
5
Maintenant, pour calculer la variance de Xt , notons que
E(Xt2 ) = E([−0.4 Xt−1 + 0.12 Xt−2 + εt ]2 )
On va alors développer le terme de droite. On va passer les détails, mais on se souvient que
(εt ) est le processus d’innovation, et donc il est orthogonal au passé de Xt . Aussi,
E(Xt2 ) = [0.42 + 0.122 ]E(Xt2 ) − 0.4 · 0.12E(Xt Xt−1 ) + 0 + E(ε2t )
avec E(Xt Xt−1 ) = γ(1) = ρ(1)E(Xt2 ), avec ρ(1) que l’on vient de calculer. Aussi, la variance
de Xt vérifie
−5
]var(Xt ) = var(εt ).
11
soit (pour utiliser une formule qu’on peut retrouver dans des cours sur les AR(2))
[1 − [0.42 + 0.122 ] − 0.4 · 0.12 ·
var(Xt ) =
1 − 0.12
1
var(εt ).
1 + 0.12 (1 − 0.12)2 − 0.42
Peu importe la valeur numérique, je donne les points pour ceux qui ont noté qu’on pouvait
effectivement extraire la variance du processus dans le cas d’un AR(2).
(4) On sait que la solution générale de la suite définie par récurence,
ρ(h) = −0.4ρ(h − 1) + 0.12ρ(h − 2), pour h ≥ 2
est de la forme
ρ(h) = Ar1h + Br2h , pour h ≥ 0
où r1 et r2 sont les racines distinctes du polynôme charactéristique. Or on a calculé les
racines du-dit polynôme dans la question (2). Aussi,
ρ(h) = A[0.2]h + B[−0.6]h , pour h ≥ 0
On obtient les valeurs de A et B avec les premières valeurs, ρ(0) = 1 = A + B et ρ(1) =
−5/11 = 0.2A − 0.6B. On a ainsi un système (linéaire) à résoudre.... Je passe ici les détails,
mais on peut vérifier rapidement que la solution proposée est la seule qui marche.
Exercice 4
(1) Soit M la matrice 2 × 2
M=
a b
d c
!
6
ARTHUR CHARPENTIER
avec ac 6= bd. Montrer qu’il existe N , matrice 2 × 2 telle que N × M soit une matrice
diagonale.
(2) On considère deux séries temporelles
(
Xt = αXt−1 + βYt−1 + ut
Yt = δXt−1 + γYt−1 + vt
où les bruits blancs (ut ) et (vt ) sont (mutuellement) indépendants, au sens où E(ut · vs ) =
0, pour tout s, t.
Montrer que (Xt ) et (Yt ) sont deux séries temporelles (univariées)
ARMA(2,1), sous des conditions sur les 4 coefficients que l’on précisera.
(1) Si ac 6= bd, alors det(M ) 6= 0 et donc M est inversible. Aussi, M −1 × M = I. Donc,
pas de soucis, si N est proportionnelle à l’inverse de M , on a une matrice diagonale en
faisant le produit. En fait, si on détaille un peu,
!
!
!
c −b
a b
ac − bd
0
×
=
−d a
d c
0
ac − bd
(2) Notre modèle peut s’écrire
!
1 − αL
β
δ
1 − γL
Xt
!
=
Yt
ut
!
vt
Aussi, en utilisant la question précédante, on peut être tenté d’écrire
!
!
!
!
1 − γL −βL
1 − αL
βL
Xt
1 − γL −βL
×
=
×
−δL 1 − αL
δL
1 − γL
Yt
−δL 1 − αL
ut
!
vt
Si on développe le produit de gauche, on s’attend à voir une matrice diagonale, et effectivement
(1 − γL)(1 − αL) − βδL2
0
0
(1 − γL)(1 − αL) − βδL2
!
Xt
!
Yt
=
!
1 − γL
−βL
−δL
1 − αL
×
ut
vt
Oublions maintenant nos formes matricielles pour revenir un instant sur nos deux séries.
Ou disons qu’on va regarder la première, la seconde étant symmétrique...
On a ici
((1 − γL)(1 − αL) − βδL2 )Xt = Ut
!
SÉRIES CHRONOLOGIQUES, HIVER 2014, MAT8595
7
avec Ut = (1 − γL)ut − βLvt . Pour la partie de gauche, on peut réécrire
(1 − [γ + α]L + [αγ − βδ]L2 )Xt = Ut
Autrement dit, si αγ 6= βδ, on a un polynôme autorégressif de degré 2. Pour la partie de
droite, on va montrer que (Ut ) est un processus MA(1). En effet
γu (1) = E(Ut Ut−1 ) = E([ut − γut−1 − βvt−1 ] · [ut−1 − γut−2 − βvt−2 ]) = −γ
qui sera non nul si γ 6= 0. Si on regarde pour les retards plus élevés, pour h > 1,
γu (h) = E(Ut Ut−1 ) = E([ut − γut−1 − βvt−1 ] · [ut−h − γut−h−1 − βvt−h−1 ]) = 0.
On obtient ainsi un MA(1). Autrement dit, il existe θ et un bruit blanc (εt ) tel que
(1 − [γ + α]L + [αγ − βδ]L2 )Xt = (1 + θL)εt
Autrement dit, si αγ 6= βδ et γ 6= 0, (Xt ) est un ARMA(2,1). Et de manière symmétrique,
si αγ 6= βδ et α 6= 0, (Yt ) est un ARMA(2,1).
Exercice 5
Soit (ηt ) une suite de variables i.i.d. de loi N (0, 1), et k ∈ N? . On pose
εt = ηt · ηt−1 · · · ηt−k .
(1) Montrer que (εt ) est un bruit blanc faible, mais pas un bruit blanc fort.
(2) Montrer que (ε2t ) suit un MA(k).
(1) Commençons avec l’histoire du bruit blanc faible. Notons déjà que - comme toujours
- le processus est centré et donc γ(h) = E(εt εt−h ). Aussi
E(εt εt−h ) = E([ηt · ηt−1 · · · ηt−k ][ηt−h · ηt−h−1 · · · ηt−k−h ])
On utilise ici le fait que les variables (ηt ) sont toutes indépdantes, et en particulier ηt est
inépendante de toutes les autres, si h 6= 0. Aussi,
E(εt εt−h ) = E(ηt ) ·E([ηt−1 · · · ηt−k ][ηt−h · ηt−h−1 · · · ηt−k−h ]).
| {z }
=0
Bref, assez facilement, on a le fait que (εt ) est un bruit blanc faible.
8
ARTHUR CHARPENTIER
Compte tenu de la question suivante, pour montrer que l’on n’a pas un bruit blanc fort,
on va montrer que cov(ε2t , ε2t−k ) 6= 0. Pour cela, on écrit
cov(ε2t , ε2t−k ) = cov([ηt · ηt−1 · · · ηt−k ]2 , [ηt−k · ηt−k−1 · · · ηt−2k ]2 )
On utilise alors la ‘linéarité’ de la covariance - au sens où
cov(aX + bY, Z) = acov(X, Z) + bcov(Y, Z)
de telle sorte que
2
2
cov(ε2t , ε2t−k ) = cov(ηt−k
, ηt−k
)+
X
i6=j
2
2
cov(ηt−i
, ηt−j
)
|
{z
}
=0
(où le second terme veut juste dire qu’on a des covariances entre des composantes indépdantes).
Aussi,
2
) > 0.
cov(ε2t , ε2t−k ) = var(ηt−k
Aussi, (εt ) n’est pas un bruit blanc fort.
(2) On va gagner un peu de temps ici compte tenu des calculs qu’on vient des faire: en
effet, il suffit de montrer que cov(ε2t , ε2t−k−h ) = 0 pour h ≥ 1 pour garantir que (ε2t ) suit un
MA(k). Mais c’est trivial, puisque quand on développe,
X
2
2
cov(ηt−i
, ηt−j
)
cov(ε2t , ε2t−k−h ) =
|
{z
}
i6=j
=0
Aussi, on a prouvé que
(
γε2 (k) = cov(ε2t , ε2t−k ) 6= 0
γε2 (h) = cov(ε2t , ε2t−h ) = 0 pour h > k
On reconnaı̂t ici une caractéristique des processus MA(k).