SÉRIES CHRONOLOGIQUES, HIVER 2014, MAT8181 EXAMEN
Transcription
SÉRIES CHRONOLOGIQUES, HIVER 2014, MAT8181 EXAMEN
SÉRIES CHRONOLOGIQUES, HIVER 2014, MAT8181 ARTHUR CHARPENTIER EXAMEN FINAL (2 heures) Exercice 1 Considérons les trois processus suivants, Xt = εt − 1.6Xt−1 − 0.8Xt−2 Yt = εt + 0.4εt−1 + 0.7Yt−1 Z = ε + 0.4ε t t t−1 − 0.5εt−2 où (εt ) est un bruit blanc de variance σ 2 . On a simulé trois trajectoires (A, B et C), et tracés trois fonctions d’autocorrélations (D, E et F). En détaillant un peu, expliquer quel processus se cache derrière chacune des figures. Serie B Serie C −10 −4 −2 −5 −2 0 0 0 5 2 2 10 4 4 Serie A 200 300 400 500 0 100 200 300 400 500 0 100 200 300 Index Index Serie D Serie E Serie F 500 ACF −0.5 0.0 ACF 0.4 −0.4 0.0 −0.2 0.2 0.0 0.2 ACF 0.4 0.6 0.6 0.5 0.8 0.8 400 1.0 Index 1.0 100 1.0 0 0 5 10 15 20 25 0 5 10 15 Lag Lag 1 20 25 0 5 10 15 Lag 20 25 2 ARTHUR CHARPENTIER Commençons par le plus simple: les autocorrélogrammes. On doit retrouver un AR(2) série X - un ARMA(1,1) - série Y - et un MA(2) - série Z. Le premier autocorrélogramme est celui d’un MA(2), c’est donc Z. Le troisième présente des autocorrélations qui changent de signe, alors qu’avec le second, on a juste une décroissance exponentielle. Pour rappel, avec un ARMA(1,1), la première autocorrélation n’est pas comme pour un AR(1), i.e. ρ(1) 6= φ (il faut tenir compte de θ), mais ensuite, on retrouve ρ(h) = φ · ρ(h − 1), avec ici φ = 0.7. Aussi, la série Y correspond à un autocorrélogramme du type E. Pour la série X, il faut noter qu’on est dans partie inférieure du triangle de stationnarité (pour le couple (φ1 , φ2 ). En fait, on a ici (1 + 1.6L + 0.8L2 )Xt = εt dont les racines sont ici complexes (en fait les racines sont (−2 ± i)/2), aussi ρ(h) sera une fonction sinusoı̈dale, qui va donc changer de signe. C’est donc bien l’autocorrélogramme qui reste, F. La première série, représentée en A préseente des alternances, correspondant à l’autocorrélogramme F. C’est donc le processus AR(2), X. La troisième série a une variance beaucoup plus grande que la seconde, avec davantage d’autocorrélation. La série C fait penser à un AR(1), mais comme on n’en a pas, ça sera le processus ARMA(1,1), Y . Et B est une série plus proche d’un bruit, c’est donc la série MA(2), Z. Exercice 2 Soient εt et (ηt ) deux bruits blancs, et θ ∈ (−1, 0) ∪ (0, 1). Montrer que les séries 1 Xt = εt + θεt−1 et Yt = ηt + ηt−1 θ ont les mêmes fonctions d’autocorrélation. Dans les deux cas, on a MA(1), autrement dit, ρX (h) = ρY (h) = 0 pour |h| > 1. Reste à vérifier que ρX (1) = ρY (1). On se lance, en notant que les processus sont centés, autrement dit ρX (1) = cov(Xt , Xt−1 ) E(Xt Xt−1 ) = var(Xt ) E(Xt2 ) Calculons les deux termes, E(Xt2 ) = E([εt + θεt−1 ]2 ) SÉRIES CHRONOLOGIQUES, HIVER 2014, MAT8595 3 soit [1 + θ2 ]E(ε2t ) + 2θ E(εt εt − 1) | {z } =0 alors que pour le numérateur, E(Xt Xt−1 ) = E([εt + θεt−1 ][εt−1 + θεt−2 ]) soit (un seul terme sera non nul, je passe les détails) θE(ε2t−1 ) Bref, le ratio est ici ρX (1) = E(Xt Xt−1 ) θ = 2 1 + θ2 E(Xt ) (en notant que le terme de variance du bruit disparaı̂t). Pour l’autre série, le calcul sera identique, avec θ−1 au lieu de θ. Aussi, ρY (1) = θ−1 E(Yt Yt−1 ) = = ρX (1) 1 + θ−2 E(Yt2 ) ce qui donne, en multipliant en haut et en bas par θ2 , ρY (1) == θ2 θ +1 Autrement dit, les deux fonctions coı̈ncident effectivement. Exercice 3 Soit (εt ) un bruit blanc (faible) et (Xt ) un processus stationnaire au second ordre, vérifiant la relation de récurence Xt = −0.4 Xt−1 + 0.12 Xt−2 + εt . (1) de quel modèle ARMA s’agit-il ? (2) montrer que (εt ) est l’innovation de (Xt ), et que la fonction d’autocovariance de (Xt ), notée ρ(·), vérifie une relation de récurrence de la forme ρ(h) = aρ(h − 1) + bρ(h − 2), pour h ≥ 2, où a et b sont des constantes à préciser. (3) donnez la variance de (εt ) pour que la variance de (Xt ) sont unitaire. 4 ARTHUR CHARPENTIER (4) montrer que ρ(h) = 2 9 [0.2]h + [−0.6]h pour tout h ≥ 0. 11 11 (1) C’est un AR(2), ou ARMA(2,0). (2) Dans un processus AR(p), le bruit est le processus d’innovation dès lors que la racines du polynôme retard sont à l’extérieur du disque unité. Or ici le polynôme est Φ(L) = (1 + 0.4L − .12L2 ) = (1 + 0.6L)(1 − 0.2L) dont les racines sont −1/0.6 et 1/0.2, qui sont plus grandes que 1 (en valeur absolue). Pour les autocorrélations, soit h ≥ 2. Notons que le processus est centré. Aussi, en notant γ la fonction d’autocovariance, γ(h) = E(Xt Xt−h ) ρ(h) = γ(h) γ(0) Maintenant, si on multiplie l’équation de récurence par Xt−h , Xt Xt−h = −0.4 Xt−1 Xt−h + 0.12 Xt−2 Xt−h + εt Xt−h . or comme (εt ) est le processus d’innovation, E(εt Xt−h ) = 0. Et donc, en prenant l’espérance des termes de l’équation précédante, on a γ(h) = −0.4γ(h − 1) + 0.12γ(h − 2), pour h ≥ 2. soit, en divisant par γ(0), ρ(h) = −0.4ρ(h − 1) + 0.12ρ(h − 2), pour h ≥ 2. (3) On s’était limité au cas h ≥ 2 dans la question précédante. Regardons h = 1, en multipliant la relation de récurence par Xt−1 , Xt Xt−1 = −0.4 Xt−1 Xt−1 + 0.12 Xt−2 Xt−1 + εt Xt−1 . Si on prend l’espérance, le terme de droite va disparaı̂tre (comme auparavant) et on obtient γ(1) = −0.4γ(0) + 0.12γ(1) de telle sorte que ρ(1) = −5 −0.4 = . 1 − 0.12 11 SÉRIES CHRONOLOGIQUES, HIVER 2014, MAT8595 5 Maintenant, pour calculer la variance de Xt , notons que E(Xt2 ) = E([−0.4 Xt−1 + 0.12 Xt−2 + εt ]2 ) On va alors développer le terme de droite. On va passer les détails, mais on se souvient que (εt ) est le processus d’innovation, et donc il est orthogonal au passé de Xt . Aussi, E(Xt2 ) = [0.42 + 0.122 ]E(Xt2 ) − 0.4 · 0.12E(Xt Xt−1 ) + 0 + E(ε2t ) avec E(Xt Xt−1 ) = γ(1) = ρ(1)E(Xt2 ), avec ρ(1) que l’on vient de calculer. Aussi, la variance de Xt vérifie −5 ]var(Xt ) = var(εt ). 11 soit (pour utiliser une formule qu’on peut retrouver dans des cours sur les AR(2)) [1 − [0.42 + 0.122 ] − 0.4 · 0.12 · var(Xt ) = 1 − 0.12 1 var(εt ). 1 + 0.12 (1 − 0.12)2 − 0.42 Peu importe la valeur numérique, je donne les points pour ceux qui ont noté qu’on pouvait effectivement extraire la variance du processus dans le cas d’un AR(2). (4) On sait que la solution générale de la suite définie par récurence, ρ(h) = −0.4ρ(h − 1) + 0.12ρ(h − 2), pour h ≥ 2 est de la forme ρ(h) = Ar1h + Br2h , pour h ≥ 0 où r1 et r2 sont les racines distinctes du polynôme charactéristique. Or on a calculé les racines du-dit polynôme dans la question (2). Aussi, ρ(h) = A[0.2]h + B[−0.6]h , pour h ≥ 0 On obtient les valeurs de A et B avec les premières valeurs, ρ(0) = 1 = A + B et ρ(1) = −5/11 = 0.2A − 0.6B. On a ainsi un système (linéaire) à résoudre.... Je passe ici les détails, mais on peut vérifier rapidement que la solution proposée est la seule qui marche. Exercice 4 (1) Soit M la matrice 2 × 2 M= a b d c ! 6 ARTHUR CHARPENTIER avec ac 6= bd. Montrer qu’il existe N , matrice 2 × 2 telle que N × M soit une matrice diagonale. (2) On considère deux séries temporelles ( Xt = αXt−1 + βYt−1 + ut Yt = δXt−1 + γYt−1 + vt où les bruits blancs (ut ) et (vt ) sont (mutuellement) indépendants, au sens où E(ut · vs ) = 0, pour tout s, t. Montrer que (Xt ) et (Yt ) sont deux séries temporelles (univariées) ARMA(2,1), sous des conditions sur les 4 coefficients que l’on précisera. (1) Si ac 6= bd, alors det(M ) 6= 0 et donc M est inversible. Aussi, M −1 × M = I. Donc, pas de soucis, si N est proportionnelle à l’inverse de M , on a une matrice diagonale en faisant le produit. En fait, si on détaille un peu, ! ! ! c −b a b ac − bd 0 × = −d a d c 0 ac − bd (2) Notre modèle peut s’écrire ! 1 − αL β δ 1 − γL Xt ! = Yt ut ! vt Aussi, en utilisant la question précédante, on peut être tenté d’écrire ! ! ! ! 1 − γL −βL 1 − αL βL Xt 1 − γL −βL × = × −δL 1 − αL δL 1 − γL Yt −δL 1 − αL ut ! vt Si on développe le produit de gauche, on s’attend à voir une matrice diagonale, et effectivement (1 − γL)(1 − αL) − βδL2 0 0 (1 − γL)(1 − αL) − βδL2 ! Xt ! Yt = ! 1 − γL −βL −δL 1 − αL × ut vt Oublions maintenant nos formes matricielles pour revenir un instant sur nos deux séries. Ou disons qu’on va regarder la première, la seconde étant symmétrique... On a ici ((1 − γL)(1 − αL) − βδL2 )Xt = Ut ! SÉRIES CHRONOLOGIQUES, HIVER 2014, MAT8595 7 avec Ut = (1 − γL)ut − βLvt . Pour la partie de gauche, on peut réécrire (1 − [γ + α]L + [αγ − βδ]L2 )Xt = Ut Autrement dit, si αγ 6= βδ, on a un polynôme autorégressif de degré 2. Pour la partie de droite, on va montrer que (Ut ) est un processus MA(1). En effet γu (1) = E(Ut Ut−1 ) = E([ut − γut−1 − βvt−1 ] · [ut−1 − γut−2 − βvt−2 ]) = −γ qui sera non nul si γ 6= 0. Si on regarde pour les retards plus élevés, pour h > 1, γu (h) = E(Ut Ut−1 ) = E([ut − γut−1 − βvt−1 ] · [ut−h − γut−h−1 − βvt−h−1 ]) = 0. On obtient ainsi un MA(1). Autrement dit, il existe θ et un bruit blanc (εt ) tel que (1 − [γ + α]L + [αγ − βδ]L2 )Xt = (1 + θL)εt Autrement dit, si αγ 6= βδ et γ 6= 0, (Xt ) est un ARMA(2,1). Et de manière symmétrique, si αγ 6= βδ et α 6= 0, (Yt ) est un ARMA(2,1). Exercice 5 Soit (ηt ) une suite de variables i.i.d. de loi N (0, 1), et k ∈ N? . On pose εt = ηt · ηt−1 · · · ηt−k . (1) Montrer que (εt ) est un bruit blanc faible, mais pas un bruit blanc fort. (2) Montrer que (ε2t ) suit un MA(k). (1) Commençons avec l’histoire du bruit blanc faible. Notons déjà que - comme toujours - le processus est centré et donc γ(h) = E(εt εt−h ). Aussi E(εt εt−h ) = E([ηt · ηt−1 · · · ηt−k ][ηt−h · ηt−h−1 · · · ηt−k−h ]) On utilise ici le fait que les variables (ηt ) sont toutes indépdantes, et en particulier ηt est inépendante de toutes les autres, si h 6= 0. Aussi, E(εt εt−h ) = E(ηt ) ·E([ηt−1 · · · ηt−k ][ηt−h · ηt−h−1 · · · ηt−k−h ]). | {z } =0 Bref, assez facilement, on a le fait que (εt ) est un bruit blanc faible. 8 ARTHUR CHARPENTIER Compte tenu de la question suivante, pour montrer que l’on n’a pas un bruit blanc fort, on va montrer que cov(ε2t , ε2t−k ) 6= 0. Pour cela, on écrit cov(ε2t , ε2t−k ) = cov([ηt · ηt−1 · · · ηt−k ]2 , [ηt−k · ηt−k−1 · · · ηt−2k ]2 ) On utilise alors la ‘linéarité’ de la covariance - au sens où cov(aX + bY, Z) = acov(X, Z) + bcov(Y, Z) de telle sorte que 2 2 cov(ε2t , ε2t−k ) = cov(ηt−k , ηt−k )+ X i6=j 2 2 cov(ηt−i , ηt−j ) | {z } =0 (où le second terme veut juste dire qu’on a des covariances entre des composantes indépdantes). Aussi, 2 ) > 0. cov(ε2t , ε2t−k ) = var(ηt−k Aussi, (εt ) n’est pas un bruit blanc fort. (2) On va gagner un peu de temps ici compte tenu des calculs qu’on vient des faire: en effet, il suffit de montrer que cov(ε2t , ε2t−k−h ) = 0 pour h ≥ 1 pour garantir que (ε2t ) suit un MA(k). Mais c’est trivial, puisque quand on développe, X 2 2 cov(ηt−i , ηt−j ) cov(ε2t , ε2t−k−h ) = | {z } i6=j =0 Aussi, on a prouvé que ( γε2 (k) = cov(ε2t , ε2t−k ) 6= 0 γε2 (h) = cov(ε2t , ε2t−h ) = 0 pour h > k On reconnaı̂t ici une caractéristique des processus MA(k).