Martingales discrètes
Transcription
Martingales discrètes
65 Cahier de Mathématiques Appliquées no 10 Martingales discrètes V. Genon-Catalot et B. Ycart La théorie des martingales est à la base de l’explosion récente des mathématiques financières, pour ne citer que la plus célèbre de ses applications. Malheureusement elle ne peut se comprendre à fond que dans un cadre théorique plus avancé que celui de cette collection : la théorie de la mesure. Nous resterons ici à un niveau élémentaire, en insistant plus sur les modèles et les applications que sur les développements théoriques. Ceci conduit à des imprécisions inévitables que le lecteur curieux lèvera en se reportant aux ouvrages suivants, dont nous nous sommes inspirés. L. Breiman Probability. Addison-Wesley, Reading, 1968. J. Neveu Martingales à temps discret. Masson, Paris, 1972. D. Williams Probability with martingales. Cambridge University Press, 1991. Ce “cahier de mathématiques appliquées” doit beaucoup aux conseils de Philippe Chassaing et Brigitte Chauvin, au dynamisme de Sylvie SevestreGhalila, au soutien de l’Ecole Supérieure de la Statistique et de l’Analyse de l’Information de Tunisie, par son directeur Makki Ksouri et son directeur des études Nacef Elloumi, ainsi qu’à la compétence de Habib Bouchriha, directeur du Centre des Publications Universitaires de la Tunisie. 66 Cahier de Mathématiques Appliquées no 10 Table des matières 1 Information évolutive 1.1 Espérances conditionnelles 1.2 Prédiction évolutive . . . 1.3 Martingales . . . . . . . . 1.4 Temps d’arrêt . . . . . . . 1.5 Modèles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67 67 70 77 82 86 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 Inégalités 2.1 Fonctions convexes . . . . . . . . . 2.2 Sous-martingales et compensateurs 2.3 Variation quadratique . . . . . . . 2.4 Inégalités de déviations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94 . 94 . 96 . 97 . 101 3 Convergences 105 3.1 Convergence dans L1 . . . . . . . . . . . . . . . . . . . . . . . 105 3.2 Convergence dans L2 . . . . . . . . . . . . . . . . . . . . . . . 107 3.3 Théorème de la limite centrale . . . . . . . . . . . . . . . . . 110 4 Exercices 113 Martingales discrètes 1 1.1 67 Information évolutive Espérances conditionnelles Nous supposons acquises les notions de vecteur et de suite aléatoires, les méthodes de calcul de la loi de probabilité d’un vecteur aléatoire, ainsi que de sa loi conditionnelle sachant la valeur prise par un autre. Le but de cette première section est d’énoncer les principales propriétés des espérances conditionnelles, et surtout de comprendre leur interprétation en termes de prédiction. Dans ce qui suit nous imaginons une expérience aléatoire, à l’issue de laquelle deux résultats X et Y seront connus. Pour simplifier les notations, ces résultats seront supposés réels, mais ce qui suit vaut sans changement pour des vecteurs aléatoires, et nous l’utiliserons ainsi au paragraphe suivant. Les deux résultats X et Y ne sont pas simultanés : X sera antérieur à Y , et on souhaite utiliser la connaissance anticipée de X pour émettre un pronostic sur Y . Par exemple, comment un agriculteur pourrait-il utiliser la température moyenne X pendant la periode de germination (au printemps), pour prédire son rendement à l’hectare Y l’été prochain ? Il faut pour cela qu’il dispose d’un moyen d’associer à une valeur x prise par la variable aléatoire X une prédiction, qui ne peut être qu’une fonction de x. Parmi toutes les fonctions possibles, la moyenne conditionnelle présente l’avantage d’être celle qui minimise l’erreur de prédiction en un sens que nous expliciterons plus loin. Par défaut, toutes les lois de probabilité considérées dans ce cours admettent une espérance. Définition 1.1 On appelle moyenne conditionnelle de Y sachant “X = x”, et on note mX Y (x), l’espérance de la loi conditionnelle de Y sachant “X = x”. La moyenne conditionnelle est une fonction mesurable. Expliciter ce que recouvre exactement cette affirmation relève de développements théoriques qui dépassent le cadre de cet ouvrage. Nous utiliserons la notion de fonction mesurable dans toute la suite sans la détailler plus. Le lecteur pressé pourra considérer pour l’instant qu’il s’agit d’une fonction continue par morceaux, ce qui sera vérifié dans toutes les applications que nous examinerons. Définition 1.2 On appelle espérance conditionnelle de Y sachant X la variable aléatoire notée IE[Y |X], composée de X et de la fonction qui à x associe mX Y (x) : IE[Y |X] = mX Y (X) . La différence entre moyenne conditionnelle et espérance conditionnelle est une question de délai. Au moment des semailles, la température X aussi bien que le rendement Y sont inconnus et donc aléatoires, par choix de modélisation. La prédiction que le cultivateur fera au printemps (fonction de X) est elle aussi aléatoire : c’est l’espérance conditionnelle IE[Y |X]. Au printemps, au vu de la température moyenne (la réalisation x de X), la prédiction prendra elle aussi une valeur réelle : mX Y (x). Cahier de Mathématiques Appliquées no 10 68 L’espérance conditionnelle réalise une prédiction optimale au sens suivant. Proposition 1.3 Soit ϕ une fonction mesurable de IR dans IR. A condition que les espérances écrites aient un sens on a : IE[ (Y − ϕ(X))2 ] ≥ IE[ (Y − IE[Y |X])2 ] . (1.1) Si le cultivateur ne dispose que de la température X, toute prédiction du rendement est nécessairement fonction de X. Etant donnée une telle fonction ϕ(X), IE[ (Y − ϕ(X))2 ] mesure l’erreur quadratique de la prédiction : c’est le carré de la distance attendue entre la prédiction ϕ(X) et la vraie valeur Y . L’inégalité (1.1) montre que l’erreur quadratique est minimale si on choisit comme prédiction l’espérance conditionnelle. Nous noterons désormais V(X) l’espace vectoriel des variables aléatoires, composées de X et d’une fonction mesurable. On démontre que la proposition 1.3 constitue en fait une caractérisation de l’espérance conditionnelle : IE[Y |X] est la seule variable aléatoire de V(X) qui minimise l’erreur quadratique de prédiction. Le calcul pratique d’une espérance conditionnelle n’est pas aisé en général, sauf dans le cas particulier des vecteurs gaussiens sur lequel nous reviendrons à la section suivante. La définition 1.2 impose le calcul de la loi conditionnelle de Y sachant X = x, puis celui de l’espérance de cette loi. Le “théorème de substitution” suivant sera souvent utile : si on doit calculer la moyenne conditionnelle d’une expression contenant X, sachant “X = x”, on peut remplacer X par x dans l’expression. Proposition 1.4 Pour tout couple (X, Y ), on a : X mX ϕ(X,Y ) (x) = mϕ(x,Y ) (x) . Si X et Y sont indépendants, alors : mX ϕ(X,Y ) (x) = IE[ϕ(x, Y )] . Les propriétés de base de l’espérance conditionnelle sont listées dans la proposition suivante. Proposition 1.5 Dans ce qui suit X, Y , Z sont des variables ou vecteurs aléatoires, ϕ désigne une fonction mesurable réelle ou vectorielle, et α, β sont deux réels quelconques. Sous réserve que les espérances considérées aient un sens, on a : 1. IE[ αY + βZ | X ] = αIE[Y |X] + βIE[Z|X] . 2. IE[ ϕ(X)Y | X ] = ϕ(X) IE[Y |X] . 3. IE[ ϕ(X)Y ] = IE[ ϕ(X)IE[Y |X] ] . Martingales discrètes 69 4. IE[Y |ϕ(X)] = IE[ IE[Y |X] | ϕ(X)] 5. IE[ IE[Y |X] ] = IE[Y ] . 6. Si X et Y sont indépendants alors : IE[Y |X] ≡ IE[Y ] . 7. IE[ϕ(X) | X] = ϕ(X) . 8. Si le couple (Y, Z) et X sont indépendants alors : IE[Y | (Z, X)] = IE[Y |Z] . Le premier point est la linéarité, vraie pour les espérances conditionnelles comme pour les espérances ordinaires. Le deuxième est conséquence de la proposition 1.4 et de la linéarité. Le troisième est un simple cas particulier, qui exprime cependant une propriété géométrique importante, liée à (1.1) : si on munit l’espace vectoriel des variables centrées du produit scalaire hX, Y i = IE[XY ], alors IE[Y |X] est la projection orthogonale de Y sur le sous-espace vectoriel V(X). L’inégalité (1.1) exprime que sa distance à Y est minimale. Le point 3 dit que la différence Y − IE[Y |X] est orthogonale à V(X). D’après le point 4, l’espérance conditionnelle est transitive : si on dispose de plusieurs informations, on peut les intégrer dans la prédiction successivement ou simultanément, le résultat sera le même. Pour le justifier, le plus simple est d’utiliser l’interprétation géométrique qui précède, en composant la projection sur V(X), puis celle sur V(ϕ(X)) ⊂ V(X). Le point 5 est un cas particulier de 3 (pour ϕ constante) aussi bien que de 4. En effet si ϕ est constante, IE[Y |ϕ(X)] est aussi constante, et cette constante ne peut être que IE[Y ] : la connaissance de X n’apporte aucune information nouvelle. Il en est de même pour le point 6. Dire que X et Y sont indépendants, c’est dire que la connaissance de X n’apporte aucune information sur Y . On le vérifie immédiatement à l’aide des moyennes conditionnelles. Au contraire (point 7), si X est observé, alors ϕ(X) est connu. On le déduit des points 2 et 6 avec Y = 1 : une constante est indépendante de toute variable aléatoire. Le point 8 est une extension de 6 : X étant indépendant de (Y, Z) n’apporte aucune information supplémentaire utilisable pour Y . Exemple : variables de Bernoulli Le but de cet exemple élémentaire est d’expliciter la relation entre espérance conditionnelle et probabilité conditionnelle sachant un événement. A tout événement A, est associée sa variable aléatoire indicatrice 11A . Réciproquement, si X est une variable aléatoire de Bernoulli (elle ne prend que les valeurs 0 ou 1), l’événement A : “X = 1” lui correspond, et X = 11A . 70 Cahier de Mathématiques Appliquées no 10 L’espérance de X est la probabilité de A. Nous notons IP la probabilité : IP[X = 1] = IP[A] = IE[X]. Nous notons A le complémentaire de A, de sorte que 11A = 1 − 11A et IP[X = 0] = IP[A] = 1 − IP[A]. Considérons maintenant une deuxième variable de Bernoulli Y = 11B . La loi conditionnelle de Y sachant “X = 1” ou “X = 0” reste toujours une loi de Bernoulli, de paramètre IP[B|A] dans le premier cas, IP[B|A] dans le second. Les valeurs de la moyenne conditionnelle de Y sont donc : X mX Y (1) = IP[B|A] et mY (0) = IP[B|A] . Alors : IE[Y |X] = IP[B|A]11A + IP[B|A]11A . 1.2 Prédiction évolutive Le savoir-faire du cultivateur provient de l’expérience accumulée sur toutes les récoltes passées. Quand il prévoit sa récolte pour l’été prochain, il tient compte non seulement de la température au printemps, mais aussi des températures et des rendements de toutes les années précédentes (et de bien d’autres renseignements encore). L’idée de base dans ce cours est de suivre l’évolution d’une prédiction à partir d’une information cumulative sur le passé. Le temps sera toujours discret, indicé par IN. Les résultats observables à l’instant n constituent un vecteur de variables aléatoires Rn . Pour le cultivateur, les coordonnées du vecteur Rn seront pour l’année n des températures, des quantités de pluie, des durées d’ensoleillement, etc. . . Ces données sont mesurées de façon répétée au cours des années, et nous noterons In l’information cumulée au cours du temps. C’est aussi un vecteur aléatoire obtenu en concaténant les coordonnées de R0 , . . . , Rn . Nous noterons : In = (R0 , . . . , Rn ) . La quantité à prédire pour l’instant n est notée désormais Xn . Pour l’agriculteur c’est le rendement de l’année n. Toute prédiction sur les rendements futurs ne peut tenir compte que de l’information disponible l’année n. C’est une fonction de In . Nous choisirons toujours celle qui minimise le risque quadratique, à savoir l’espérance conditionnelle sachant In . Selon les situations, on distingue plusieurs degrés dans la qualité de l’information disponible. Définition 1.6 • On dit que la suite (Xn )n∈IN est adaptée (à la suite d’informations (In )) si pour tout n, Xn est fonction de In (Xn = IE[Xn | In ]). • On dit que la suite (Xn )n∈IN est prévisible si X0 est constante et pour tout n ≥ 0, Xn+1 est fonction de In (Xn+1 = IE[Xn+1 | In ]). Dire que la suite est adaptée c’est dire que l’information dont on dispose à l’instant n est complète. Pour l’agriculteur ce serait le cas par exemple si son rendement était une fonction déterministe des paramètres climatiques Martingales discrètes 71 (on le saurait !). La suite est prévisible si la valeur de Xn+1 est déterminée au temps n (connaissant In ). Une suite prévisible correspond à des décisions successives que l’on prend pour l’étape n + 1, au vu des résultats précédents. Afin d’illustrer cette notion de prédiction évolutive, nous détaillons cidessous un des outils de base du traitement du signal, le filtre de Kalman. Le modèle envisagé comporte deux suites de variables aléatoires, (Xn )n∈IN et (Yn )n∈IN . La suite (Xn ) s’appelle le signal (sonore, electrique. . . ). C’est lui qui nous intéresse, mais on ne l’observera jamais directement. La suite (Yn ) est l’observation. Elle est une fonction perturbée de (Xn ) (c’est ce qui sort d’un enregistreur, d’un amplificateur. . . ). Dans ce qui suit, les vecteurs sont notés comme des matrices à une colonne. Le modèle mathématique est celui d’un système itératif, perturbé aléatoirement. Xn+1 = GXn + n+1 , (1.2) Yn = HXn + ηn . Dans (1.2) : • Xn et Yn désignent deux vecteurs aléatoires de dimensions respectives d et d0 . • G ∈ Md×d (IR) et H ∈ Md0 ×d (IR) désignent deux matrices réelles déterministes, supposées connues. • (n )n∈IN et (ηn )n∈IN désignent deux suites indépendantes de variables aléatoires indépendantes. Pour tout n ≥ 0, la loi de n est la loi normale en dimension d d’espérance nulle et de matrice de covariance Q ; la loi de ηn est la loi normale en dimension d0 d’espérance nulle et de matrice de covariance R. Les matrices de covariance Q et R sont supposées connues et R est supposée inversible (définie positive). • L’initialisation X0 est un vecteur gaussien de IRd , indépendant des suites (n ) et (ηn ), d’espérance nulle et de matrice de covariance B0 . Afin de simplifier les notations, nous avons choisi de nous placer dans un cadre où les paramètres sont constants. Ce qui suit s’adapte sans problème au cas où les matrices G, H, Q, R dépendent de n. Une fois la suite initialisée, le hasard provient de deux sources, le bruit intrinsèque n qui perturbe la génération itérative du signal Xn+1 en fonction de Xn , et le bruit d’observation ηn qui perturbe la transformation linéaire du signal Xn en l’observation Yn . Si l’on connaissait ces deux bruits jusqu’à l’instant n, le signal aussi bien que l’observation seraient parfaitement déterminés. En posant Ien = (X0 , 0 , η0 , . . . , n , ηn ), la suite ((Xn , Yn )) est adaptée à la suite d’informations (Ien ). Mais l’information dont on dispose réellement à l’instant n ne contient que les observations successives In = (Y0 , . . . , Yn ). On peut alors tenir compte de In pour deviner Xn ou prédire Xn+1 . Le problème est donc double : 1. Déterminer la loi conditionnelle de Xn sachant “In = in ” : problème de filtrage, Cahier de Mathématiques Appliquées no 10 72 2. Déterminer la loi conditionnelle de Xn+1 sachant “In = in ” : problème de prédiction, L’hypothèse de normalité sur les n et les ηn permet de donner un algorithme de calcul explicite de ces lois conditionnelles. Rappelons tout d’abord quelques faits de base que nous admettrons à propos des vecteurs gaussiens. Proposition 1.7 1. Soit X un vecteur gaussien de dimension d, d’espérance IE[X] et de matrice de covariance KX = IE[(X − IE[X]) t (X − IE[X])]. Soit A ∈ Md×d0 (IR) et b ∈ IRd une matrice et un vecteur déterministes, alors AX + b est encore un vecteur gaussien, d’espérance AIE[X] + b, de matrice de covariance AKX t A. 2. Une variable aléatoire qui suit une loi normale est un vecteur gaussien de dimension 1. 3. Si X et Y sont deux vecteurs gaussiens indépendants alors la concaténation de leurs coordonnées Z = (X, Y ) est encore un vecteur gaussien. 4. Soit Z = (X, Y ) un vecteur gaussien. Les vecteurs X et Y sont indépendants si et seulement si leurs coordonnées sont décorrélées deux à deux (la matrice de covariance de Z est diagonale par blocs). 5. Soit Z = (X, Y ) un vecteur gaussien. Notons KX la matrice de covariance de X, et supposons-la inversible. Notons KY,X = IE[(Y − IE[Y ]) t (X − IE[X])] la matrice de covariance de Y et X. L’espérance conditionnelle de Y sachant X est : −1 IE[Y | X] = IE[Y ] + KY,X KX (X − IE[X]) . C’est encore un vecteur gaussien, d’espérance IE[Y ], de matrice de co−1 variance KY,X KX KX,Y . 6. Avec les notations du point précédent, on a : IE[(Y − IE[Y |X]) t (Y − IE[Y |X])] = IE[(Y − IE[Y |X]) t (Y − IE[Y |X]) | X] −1 = KY − KY,X KX KX,Y . Le premier point constitue la définition classique des vecteurs gaussiens. Le second et le troisième ont pour conséquence qu’un vecteur constitué de coordonnées gaussiennes indépendantes est gaussien. Le point 4 est une particularité surprenante : il suffit que des coordonnées d’un vecteur gaussien soient décorrélées pour qu’elles soient indépendantes. L’expression de l’espérance conditionnelle 5 montre que pour des vecteurs gaussiens, parmi toutes les fonctions de X, la meilleure prédiction de Y est une fonction affine de X : Martingales discrètes 73 c’est la régression linéaire de Y sur X. La loi conditionnelle de Y sachant “X = x” est la loi normale d’espérance : −1 mX Y (x) = IE[Y ] + KY,X KX (x − IE[X]) , et de matrice de covariance : −1 KY − KY,X KX KX,Y . Le fait que cette matrice de covariance ne dépende pas de x est spécifique aux vecteurs gaussiens. Pour notre problème de filtrage, on déduit de la proposition 1.7 que les vecteurs (0 , . . . , n ) et (η0 , . . . , ηn ), mais aussi (X0 , 0 , η0 , . . . , n , ηn ) sont gaussiens. Il en découle que les vecteurs (X0 , . . . , Xn ), In = (Y0 , . . . , Yn ) et aussi (In , Xn ), (In , Xn+1 ) sont tous des vecteurs gaussiens. On peut donc leur appliquer le calcul d’espérance conditionnelle du point 5. Cela conduit au théorème de Kalman. Théorème 1.8 Pour tout n ≥ 0, notons : bn,n = IE[Xn | In ] le filtrage, • X b • Xn+1,n = IE[Xn+1 | In ] la prédiction. Ils sont solution du système itératif suivant. bn+1,n = GX bn,n , 1. X bn,n = X bn,n−1 + An (Yn − H X bn,n−1 ), 2. X −1 3. An = Bn t H HBn t H + Rn , 4. Bn = GCn−1 t G + Q, 5. Cn = Bn − An HBn , De plus on a : bn,n ) t (Xn − X bn,n )], • Cn = IE[(Xn − X t bn,n−1 ) (Xn − X bn,n−1 )]. • Bn = IE[(Xn − X Les données du problème sont les matrices B0 , G, H, Q, R ainsi que la liste des observations (Yn ). L’algorithme de calcul du filtrage et de la prédiction est le suivant. Dans cet algorithme ∗ désigne un produit matriciel. Les matrices à calculer itérativement sont désignées par A, B, C (pour An , Bn , Cn ). B ←− B0 Prédiction ←− 0 n ←− 0 Répéter −1 A ←− B ∗ t H ∗ H ∗ B ∗ t H + R C=B−A∗H ∗B Cahier de Mathématiques Appliquées no 10 74 Filtrage ←− Prédiction + A ∗ (Yn − H ∗ Prédiction) Prédiction ←− G∗Filtrage B ←− G ∗ C ∗ t G + Q n ←− n + 1 FinRépéter. Le fonctionnement de l’algorithme est illustré par la figure 1. Observation Yn−1 Yn ? Filtrage ? bn−1,n−1 X ? Prédiction Yn+1 bn,n−1 X ? bn,n X * ? bn+1,n+1 X * bn+1,n X ? bn+2,n+1 X Figure 1 – Itérations de l’algorithme de Kalman. Démonstration : Ce sera l’occasion de calculer plusieurs espérances conditionnelles dans le cadre gaussien. Remarquons pour commencer que tous les vecteurs considérés sont non seulement gaussiens mais aussi centrés (leurs espérances sont toutes nulles). Par hypothèse, n est indépendant de (0 , η0 , . . . , n−1 , ηn−1 , ηn ), donc aussi de (Y0 , . . . , Yn ). Donc : IE[n | Y0 , . . . , Yn ] = IE[n ] = 0 . Par linéarité de l’espérance conditionnelle, on en déduit : bn+1,n = GX bn,n . X Calculons maintenant IE[Yn | Y0 , . . . , Yn−1 ]. Par linéarité, on a : bn,n−1 + IE[ηn | Y0 , . . . , Yn−1 ] . IE[Yn | Y0 , . . . , Yn−1 ] = H X Comme ci-dessus, les hypothèses d’indépendance entraînent : IE[ηn | Y0 , . . . , Yn−1 ] = IE[ηn ] = 0 . Posons maintenant : bn,n−1 . Zn = Yn − Hn X Martingales discrètes 75 Nous souhaitons calculer IE[Xn | Zn ]. Observons que Zn est une combinaison linéaire de Y0 , . . . , Yn , qui est orthogonale à Y0 , . . . , Yn−1 . La projection orthogonale de Xn sur l’espace V(In ) est la somme de la projection sur V(In−1 ) et de la projection sur V(Zn ). On peut donc écrire : bn,n = X bn,n−1 + IE[Xn | Zn ] . X Nous devons maintenant calculer IE[Xn | Zn ]. Calculons d’abord la matrice de covariance de Zn . Ecrivons pour cela : bn,n−1 ) + ηn , Zn = H(Xn − X bn,n−1 ). La matrice de et remarquons que ηn est indépendant de H(Xn − X covariance est donc : bn,n−1 ) t (Xn − X bn,n−1 )] t H + R . KZn = IE[Zn t Zn ] = HIE[(Xn − X L’hypothèse sur R assure que la matrice KZn est définie positive. Pour finir de calculer IE[Xn | Zn ], il nous manque la matrice de covariance de Xn avec Zn . Elle vaut : bn,n−1 ) + ηn )] KXn ,Zn = IE[Xn t (H(Xn − X t bn,n−1 )] t H = IE[Xn (Xn − X bn,n−1 ) t (Xn − X bn,n−1 )] t H . = IE[(Xn − X Il est temps de poser : −1 bn,n−1 ) t (Xn − X bn,n−1 )] et An = Bn t H HBn t H + R Bn = IE[(Xn − X , ce qui permet d’écrire : bn,n−1 ) . IE[Xn | Zn ] = An (Yn − H X Reste à calculer Bn . Pour cela, nous projetons Xn = GXn−1 + n−1 sur V(In−1 ), ce qui donne : bn,n−1 = GX bn−1,n−1 . X On en déduit : bn−1,n−1 ) t (Xn−1 − X bn−1,n−1 )] t G + Q . Bn = GIE[(Xn−1 − X C’est l’expression de Bn en fonction de Cn−1 , à condition de poser : bn,n ) t (Xn − X bn,n )] . Cn = IE[(Xn − X Cahier de Mathématiques Appliquées no 10 76 Or : bn,n = X bn,n−1 + An (Yn − H X bn,n−1 ) X bn,n−1 + An (HXn + ηn ) . = (I − An H)X Soit : bn,n = (I − An H)(Xn − X bn,n−1 ) + An ηn . Xn − X Des manipulations algébriques fastidieuses conduisent à l’expression de Cn en fonction de Bn , An et H, qui constitue la dernière pièce du puzzle. Afin d’illustrer le fonctionnement du filtre, nous avons simulé le modèle proposé avec d = 2, d0 = 1, et les paramètres suivants. G= 0 −1 1 0 H = (1 0) Q = 10 01 R=1. Le point de départ X0 est un vecteur gaussien centré de IR2 , de matrice de covariance : 50 0 B0 = IE[X0 t X0 ] = . 0 50 Avec ces valeurs, Xn est un signal quasi périodique (G est la matrice de la rotation d’angle π2 ), et Yn est une perturbation de la première coordonnée de Xn . La figure 2 représente une trajectoire de Xn pour n allant de 0 à 1000. Les matrices Bn et Cn sont les matrices de covariance de l’erreur de prediction bn,n−1 et de l’erreur de filtrage Xn − X bn,n . Pour le cas particulier que Xn − X nous avons choisi, on vérifie que Bn et Cn convergent respectivement vers : √ B= 3 + 1 √0 0 3 √ et C = 3 − 1 √0 0 3 . 2 b Si on considère la norme carrée √ de l’erreur de prédiction √ kXn2 − Xn,n−1 k , son espérance est proche de 2 3 + 1, sa variance de 2(( 3 + 1) + 3). Pour la 2 b norme √ carrée de l’erreur de filtrage √ kX2n − Xn,n k , son espérance est proche de 2 3 − 1, sa variance de 2(( 3 − 1) + 3). Pour n allant de 1 à 10, nous avons simulé successivement Xn et Yn , et calculé les matrices An , Bn , Cn , bn,n et la valeur prédite X bn,n−1 . Sur 104 répétitions ainsi que la valeur filtrée X indépendantes de la même expérience, les valeurs observées des deux premiers moments des erreurs de prédiction et de filtrage au temps n = 10 figurent dans le tableau ci-dessous. Elles sont tout à fait compatibles avec les valeurs théoriques. L’erreur de prédiction est supérieure à l’erreur de filtrage, comme on pouvait s’y attendre. Les deux restent de l’ordre de grandeur de la norme du bruit qui suit la loi de chi-deux X 2 (2), d’espérance 2 et de variance 4. Martingales discrètes 77 Valeur théorique Valeur estimée 4.464 20.938 2.464 7.072 4.434 20.379 2.469 7.118 bn,n−1 k2 ] IE[kXn − X bn,n−1 k2 ] V ar[kXn − X bn,n k2 ] IE[kXn − X bn,n k2 ] V ar[kXn − X Signal quasi periodique + 20 ++ 16 12 4 0 -8 -12 -16 -20 + + + + + + ++ + + + + +++++ ++ + + + + + + ++ ++ + ++ + + + + + + + + + ++ + ++ + + ++ +++ + + + + + + + + + + + + + + + + + + ++ + + + + ++ + + + + + + + + + + + + ++ +++ + + + +++ + + + + + + + + + + + ++ + + + ++ + + + + + + ++ + + ++ + + + + + + + + + + + + + + + ++ + + + + + ++ + + + + + ++ + + ++ + + + ++ + + + + + +++ + + + + + + + + ++ ++ + + + ++ + + + + + ++ + + + ++ + + + + + + + + + + +++ + + + + + + + + + + + + + ++ + + + 8 -4 + + ++ ++ + ++ + + ++ -20 +++++ + + + ++ -16 ++ ++ + + -12 + + + +++ + + + + ++ ++ + + + ++ + + + + + + + + + + ++ + ++ + + + + + + + + + + + + + + + + ++ ++ ++ ++ ++ +++ ++ + + + ++ + + ++ ++ ++ + + + ++ + + ++ + +++ ++ + + ++ + ++++ + + ++ + +++ + + + + + ++ + ++++ + ++ + ++ + + + + + + . + + + ++ + + + + + + + + + + + + + + + + + + + + + + + + + + + + ++ + + + + + ++ + + + + + + + + + + ++ +++++ + ++ ++++ ++ + + + + + + ++ + + + + ++ + + + + + + +++ + + + ++ + + ++ + + ++ + + + + + + + ++ + + + + + + + + + + +++ + + ++ ++ + + + + + + + + ++ -8 -4 0 + + +++ + ++ + 4 8 12 16 20 Figure 2 – Réalisations de 1000 valeurs successives d’un signal quasi périodique. 1.3 Martingales Nous considérons encore une suite d’informations données par des résultats successifs : In = (R0 , . . . , Rn ). Quand on projette un vecteur aléatoire X sur la suite croissante de sous-espaces V(In ), la transitivité des projections (propriété 4 de la proposition 1.5) entraîne : IE[IE[X | In+1 ] | In ] = IE[X | In ] . bn la projection de X sur Par analogie avec le filtrage de Kalman, notons X bn ) V(In ) : c’est la prédiction de X connaissant l’information In . La suite (X vérifie deux propriétés particulières. D’une part elle est adaptée à la suite d’informations (In ), d’autre part chaque élément de la suite est la projection du suivant. C’est notre premier exemple de martingale. Définition 1.9 Soit (Xn ) une suite de vecteurs aléatoires admettant une espérance. On dit que (Xn ) est une martingale relativement à la suite d’informations (In ) si et seulement si pour tout n : Xn ∈ V(In ) et IE[Xn+1 | In ] = Xn . Cahier de Mathématiques Appliquées no 10 78 La meilleure prédiction que l’on puisse faire pour l’instant suivant est la valeur présente. C’est aussi vrai pour les prédictions à plus long terme. Si (Xn ) est une martingale alors pour tout n, m : IE[Xn+m | In ] = Xn . En particulier pour n = 0, IE[Xm ] = IE[X0 ] : l’espérance d’une martingale est constante. Dans la suite, nous resterons en dimension 1 : les Xn sont des variables aléatoires réelles. Bien sûr, la propriété de martingale contient plus que le seul fait d’avoir des espérances constantes. Compte tenu de la proposition 1.5, point 3, si (Xn ) est une martingale alors pour toute variable aléatoire Zn ∈ V(In ) : IE[Xn Zn ] = IE[Xn+1 Zn ] , sous réserve que les espérances écrites aient un sens. En réalité, cette propriété caractérise la notion de martingale, comme d’ailleurs le point 3 de la proposition 1.5 caractérise la notion d’espérance conditionnelle. Le mot “martingale” vient du jeu. Pour un joueur, une martingale désigne une stratégie de jeu, c’est à dire une manière de décider des coups à jouer en fonction des résultats des parties précédentes. Il n’y a pas de stratégie dans la définition 1.9, mais plutôt la description de ce qu’est un jeu équitable. Traduisons Rn comme le résultat de la n-ième partie et Xn la fortune du joueur après cette partie. Nous poserons par convention que la fortune initiale est X0 = R0 . D’une part, la fortune à chaque instant ne dépend que de la fortune initiale et des parties jouées jusque-là : Xn ∈ V(In ). D’autre part, si le jeu est équitable, le joueur n’a pas d’avantage ni de handicap. Donc l’accroissement de sa fortune au cours de la (n + 1)-ième partie Xn+1 − Xn , conditionné par l’information disponible après la n-ième partie, doit être nul : IE[Xn+1 − Xn | In ] = 0 ⇐⇒ IE[Xn+1 | In ] = IE[Xn | In ] = Xn . Bien sûr, la plupart des jeux ne sont pas équitables. On parle alors de sousmartingale (jeu favorable) ou de sur-martingale (jeu défavorable) selon que l’on est du côté du casino ou du joueur. Définition 1.10 Soit (Xn ) une suite de variables aléatoires admettant une espérance. On dit que (Xn ) est une sous-martingale relativement à la suite d’informations (In ) si et seulement si pour tout n : Xn ∈ V(In ) et IE[Xn+1 | In ] ≥ Xn . C’est une sur-martingale si et seulement si : Xn ∈ V(In ) et IE[Xn+1 | In ] ≤ Xn . Martingales discrètes 79 La suite des espérances est croissante pour une sous-martingale, décroissante pour une sur-martingale. Prenons l’exemple du jeu “rouge-noir” à la roulette. Les cases sont numérotées de 0 à 36, et alternativement rouges et noires, sauf le 0 qui est vert. Un joueur qui mise 1 sur rouge ou noir a donc une probabilité 18 37 ' 0.486 19 ' 0.514 de perdre (Rn = −1). Les résultats de gagner (Rn = +1) et 37 successifs sont indépendants. L’accroissement de sa fortune (qui ne dépend ici que du n-ième résultat) a donc pour espérance : 18 19 IE[Xn+1 − Xn | In ] = IE[Xn+1 − Xn ] = − ' −0.027 . 37 37 La fortune du joueur est une sur-martingale : il a tendance à perdre. La figure 3 illustre les 3 types de jeu différents. (a) Martingale 50 40 30 20 10 0 . -10 -20 -30 -40 -50 0 100 200 300 400 500 600 700 800 900 1000 (b) Sous-Martingale (c) Sur-Martingale 100 0 90 -10 80 -20 70 -30 60 -40 50 -50 40 -60 30 -70 20 -80 10 0 . -90 -100 . 0 100 200 300 400 500 600 700 800 900 1000 0 100 200 300 400 500 600 700 800 900 1000 Figure 3 – Fortune d’un joueur sur 1000 parties d’un jeu équitable (a), favorable (b) et défavorable (c). Les probabilités de gagner sont respectivement 0.5, 0.55 et 0.45. Dans cet exemple, comme dans la plupart des jeux, la suite (Xn ) est d’un type un peu particulier : la fortune à l’issue de la n-ième partie est une somme de variables aléatoires indépendantes (les accroissements à l’issue des parties précédentes). La suite des sommes partielles d’une suite de variables aléatoires indépendantes et de même loi s’appelle une marche aléatoire. Cahier de Mathématiques Appliquées no 10 80 Définition 1.11 Soit (Zn ) une suite de variables aléatoires indépendantes et de même loi. On appelle marche aléatoire de pas Zn la suite de variables aléatoires (Xn ) définie par : Xn = Z1 + · · · + Zn . En dehors des jeux, un cas particulier important est celui où la loi des Zn est normale. Si Zn suit la loi N (0, h), la suite (Xn ) est une discrétisation de pas h du mouvement brownien standard. Proposition 1.12 Soit (Zn ) une suite de variables aléatoires indépendantes et de même loi, d’espérance µ. Posons X0 = 0, et pour n ≥ 1 : Xn = Z1 + · · · + Zn . Notons aussi In = (Z1 , . . . , Zn ). Alors la marche aléatoire (Xn ) est adaptée à la suite (In ). C’est une : • martingale si µ = 0, • sous-martingale si µ ≥ 0, • sur-martingale si µ ≤ 0. Que la suite (Xn ) soit adaptée à la suite (In ) est une évidence, puisque Xn est fonction de (Z1 , . . . , Zn ). Mais inversement, les Zn sont aussi fonction des Xn : Zn = Xn − Xn−1 . Toute fonction de (Z1 , . . . , Zn ) est donc aussi fonction de (X1 , . . . , Xn ). Définissons la suite d’informations (Ien ) par Ien = (X1 , . . . , Xn ). La suite (Xn ) est encore une martingale relativement à son information propre (Ien ). Dans cet exemple V(In ) = V(Ien ). En général, on a seulement l’inclusion V(Ien ) ⊂ V(In ), pourtant toute martingale reste une martingale relativement à son information propre. Proposition 1.13 Soit (Xn ) une martingale relativement à la suite d’informations (In ). Pour tout n ≥ 0, posons Ien = (X0 , . . . , Xn ). Alors (Xn ) est encore une martingale relativement à la suite (Ien ). Démonstration : La suite (Xn ) est évidemment adaptée à (Ien ), par définition. Pour le calcul de l’espérance conditionnelle, on utilise encore la propriété des projections successives. Puisque (Xn ) est adaptée à (In ), (X0 , . . . , Xn ) est fonction de In , et donc : IE[Xn+1 | Ien ] = IE[IE[Xn+1 | In ] | Ien ] = IE[Xn | Ien ] = Xn , car Xn est fonction de Ien . L’information propre de la suite est donc suffisante en théorie. Mais en pratique, ce n’est pas toujours la plus naturelle. Nous avons déjà dit que notre notion de martingale n’était pas celle des joueurs. Elle en est même en un sens la négation, puisqu’elle précise qu’un jeu défavorable ne peut pas être rendu favorable. Nous allons en voir un premier exemple. Imaginons un joueur qui pourrait décider, après chaque partie, de Martingales discrètes 81 jouer ou non la suivante, ou au contraire de doubler sa mise. Pourrait-il ainsi rendre le jeu favorable ? Notons Rn le bilan (positif ou négatif) de la n-ième partie pour le joueur. S’il n’y avait pas de décisions, la fortune à l’instant n serait Xn = X0 + R1 + · · · + Rn . Si le jeu est équitable, (Xn ) est une martingale. S’il est défavorable c’est une sur-martingale. Notons maintenant Dn la décision prise par le joueur avant de jouer la n-ième partie. Nous pouvons convenir par exemple que Dn vaut 0 si le joueur avait décidé de ne pas jouer, 1 s’il a joué avec une mise normale, 2 s’il avait décidé de doubler sa mise. Sa fortune à l’issue de la n-ième partie est maintenant : Yn = X0 + D1 R1 + · · · + Dn Rn . Puisque la décision Dn est prise à l’issue de la (n−1)ième partie, la suite (Dn ) est prévisible. La proposition suivante montre que la nouvelle suite de fortunes (Yn ) conserve les propriétés de (Xn ). En d’autres termes, si le jeu était équitable, il le reste. S’il était défavorable, aucune stratégie ne peut le rendre favorable, ni même équitable. Proposition 1.14 Soit (In ) une suite d’informations, (Xn ) une suite adaptée et (Dn ) une suite prévisible, relativement à (In ). Pour tout n ≥ 0, posons : Yn = X0 + D1 (X1 − X0 ) + . . . + Dn (Xn − Xn−1 ) . Alors la suite (Yn ) est adaptée à (In ). On suppose que Xn et Yn admettent une espérance pour tout n (ce qui est en réalité une restriction sur la suite (Dn )). Alors : • si (Xn ) est une martingale, (Yn ) est aussi une martingale ; • si (Dn ) est à valeurs positives ou nulles et (Xn ) est une sur-martingale, (Yn ) est une sur-martingale ; • si (Dn ) est à valeurs positives ou nulles et (Xn ) est une sous-martingale, (Yn ) est une sous-martingale. Démonstration : Le fait que la suite (Yn ) soit adaptée est évident sur sa définition. Calculons la prévision d’un accroissement : IE[Yn+1 − Yn | In ] = IE[Dn+1 (Xn+1 − Xn ) | In ] = Dn+1 (IE[Xn+1 | In ] − Xn ) , car Dn+1 appartient à V(In ) (point 2 de la proposition 1.5). Si (Xn ) est une martingale, l’espérance des accroissements de (Yn ) est nulle. Si Dn+1 ≥ 0, elle est du même signe que l’espérance des accroissements de (Xn ). Voici un nouvel exemple de stratégie. A la première partie, le joueur mise 1. S’il gagne, il misera 1 à nouveau à la partie suivante, mais s’il perd, il misera 2. Il continue à chaque partie en misant 1 s’il a gagné la précédente, en doublant s’il a perdu. Son raisonnement est le suivant : s’il perd k parties consécutives, il aura misé en tout 1 + 2 + · · · + 2k−1 = 2k − 1. S’il gagne la suivante, elle lui rapportera 2k et il sera bénéficiaire de 1. Donc une série de pertes quelconque sera forcément effacée au prochain gain. Par rapport à l’exemple précédent, on considère donc une décision qui vaut Dn = 2Dn−1 si Rn−1 = −1 et Dn = 1 si Rn−1 = 1. Est-ce une bonne stratégie ? Non Cahier de Mathématiques Appliquées no 10 82 bien sûr : la proposition 1.14 s’applique, et l’accroissement de fortune espéré est nul si le jeu est équitable, négatif s’il est défavorable. Le paradoxe vient de ce qu’on s’imagine arrêter le jeu après un gain, auquel cas le bénéfice sera strictement positif. Les instants de gain sont aléatoires et dépendent des résultats successifs. On les appelle des temps d’arrêt ; c’est le sujet du paragraphe suivant. 1.4 Temps d’arrêt Rares sont les joueurs qui fixent à l’avance le nombre de parties qu’ils s’accordent. La plupart décideront de la fin en fonction de leurs résultats. Certains arrêteront après une série de 10 pertes consécutives, d’autres au premier gain, d’autres encore dès qu’ils auront augmenté leur fortune initiale, d’autres enfin attendront d’être ruinés. Dans chaque cas, l’instant T où le joueur arrête est une variable aléatoire, qui prend la valeur n en fonction des résultats des parties jouées jusqu’à l’instant n. Définition 1.15 Soit T une variable aléatoire à valeurs dans IN ∪ {+∞}. On note 11n (T ) l’indicatrice de l’événement “T = n”. Soit (In ) une suite d’informations. On dit que T est un temps d’arrêt relativement à (In ) si la suite (11n (T )) est adaptée à la suite (In ). La définition 1.15 est équivalente à dire que la suite de variables aléatoires (11[0,n] (T )) est adaptée à (In ). Pour le voir, il suffit de remarquer que : 11n (T ) = 11[0,n] (T ) − 11[0,n−1] (T ) . Reprenons la situation de jeu où In = (R1 , . . . , Rn ), les Rn étant les résultats des parties successives. Notons Xn = x + R1 + · · · + Rn la fortune du joueur à l’issue de la n-ième partie. Voici quelques exemples de temps d’arrêt (par convention, inf ∅ = +∞). • T+ = inf{n ≥ 1 , Rn > 0} : premier instant de gain. • T2− = inf{n ≥ 2 , Rn−1 < 0 et Rn < 0} : première occurrence de deux pertes. • T++ = inf{n ≥ 1 , Xn > x} : premier instant de bénéfice. • T+a = inf{n ≥ 0 , Xn ≥ a} : instant d’atteinte d’une fortune cible. • T−b = inf{n ≥ 0 , Xn ≤ b} : instant d’atteinte d’une fortune plancher. Les temps d’arrêt que l’on rencontre le plus courammment sont des instants d’entrée d’une suite adaptée dans un intervalle ou une réunion d’intervalles (comme les trois derniers exemples ci-dessus). Soit (Xn ) une suite adaptée et B une réunion d’intervalles de IR. Définissons TB par : TB = inf{n ≥ 0 , Xn ∈ B} . Pour montrer que TB est un temps d’arrêt, il suffit d’observer que TB > n équivaut à dire que X0 , . . . , Xn appartiennent au complémentaire B de B. Martingales discrètes On peut donc écrire 83 11[0,n] (TB ) en fonction de X0 , . . . , Xn : 11[0,n] (TB ) = 1 − n Y 11B (Xi ) . i=0 Les temps d’arrêt peuvent prendre la valeur +∞. Par exemple pour un jeu défavorable, le temps T++ est infini avec une probabilité non nulle. Nous dirons que le temps d’arrêt T est fini si la probabilité que T prenne la valeur +∞ est nulle. Etant donnés une suite adaptée (Xn ) et un temps d’arrêt fini T , nous nous intéressons au résultat final, à savoir à la valeur XT prise par la suite (Xn ) à l’instant aléatoire T . Pour tout entier n, nous noterons : n ∧ T = min{n , T } . La suite (Xn∧T ) coïncide donc avec (Xn ) avant l’instant T , elle est constante et égale à XT après. Nous dirons que (Xn∧T ) est la suite arrêtée en T . Pour tout n ≥ 1, posons Dn = 11[n,+∞] (T ) : les Dn valent 1 pour n = 0, . . . , T , 0 à partir de T + 1. Comme la suite (11n (T )) est adaptée, le décalage d’indice fait que la suite (Dn ) est prévisible : Dn = 1 − 11[0,n−1] (T ). On peut écrire : Xn∧T = X0 + D1 (X1 − X0 ) + · · · + Dn (Xn − Xn−1 ) . Ceci fait apparaître l’arrêt en T comme un cas particulier de stratégie, qui relève de la proposition 1.14 : si (Xn ) était une martingale ou une sousmartingale, alors la suite arrêtée (Xn∧T ) reste de même nature. Nous avons vu que l’espérance d’une martingale est constante. L’espérance de la martingale arrêtée (Xn∧T ) reste donc aussi constante. Les temps d’arrêt sont des variables souvent difficiles à étudier car, bien que cela n’apparaisse pas clairement dans leur définition, ils dépendent en réalité de la suite infinie (In ) des informations. Pour accéder à leur loi, l’outil essentiel est le théorème d’arrêt 1.16. Il peut arriver que XT n’ait pas d’espérance, même dans le cas où T est fini et où Xn∧T en a une pour tout n. C’est pourquoi il faut ajouter des conditions pour assurer que IE[XT ] = IE[X0 ]. Le théorème d’arrêt 1.16 donne les conditions suffisantes les plus simples. Théorème 1.16 Soit (Xn ) est une martingale et T un temps d’arrêt fini. Chacune des trois conditions suivantes implique : IE[XT ] = IE[X0 ] . 1. T est borné : ∃K ∈ IR , T ≤ K . 2. (Xn∧T ) est bornée : ∃M ∈ IR , |Xn∧T | ≤ M , ∀n . 3. T admet une espérance et les accroissements de (Xn ) sont bornés : ∃M ∈ IR , |Xn+1 − Xn | ≤ M , ∀n . Cahier de Mathématiques Appliquées no 10 84 Démonstration : Dire que T est borné, c’est dire qu’il existe un instant fixé K après lequel la suite sera forcément arrêtée. On a donc XT = XK∧T , d’où le résultat sous la première condition. Pour les autres conditions, le premier pas consiste à se ramener à la première. Pour n entier, Tn = n ∧ T est un temps d’arrêt qui est borné par n. On sait donc que IE[Xn∧T ] = IE[X0 ]. Pour conclure, il faut faire tendre n vers l’infini. Puisque T est fini, (Xn∧T ) converge vers XT . La condition 2 permet d’appliquer le théorème de convergence dominée de Lebesgue. Pour la condition 3, on observe la relation : Xn∧T = n X (Xi∧T − X(i−1)∧T ) . i=1 Dans la mesure où la suite Xn∧T vaut XT dès que n ≥ T , cette somme contient au plus T termes non nuls, chacun de ces termes étant majoré par M . Par conséquent, |Xn∧T | ≤ T M , et on peut à nouveau conclure en appliquant le théorème de convergence dominée de Lebesgue. Considérons un jeu équitable, avec une mise fixe de 1. La fortune d’un joueur varie de ±1 à chaque partie : c’est une martingale à accroissements bornés : le théorème 1.16 s’applique à tout temps d’arrêt d’espérance finie. Supposons maintenant que ce même jeu soit joué entre deux joueurs dont les fortunes initiales respectives sont a et b. Le jeu s’arrête quand l’un des deux joueurs est ruiné. Comme la somme des fortunes des deux joueurs vaut toujours a+b, il suffit de considérer la suite (Xn ) des fortunes successives pour un des deux joueurs, disons celui dont la fortune initiale est a. Le temps d’arrêt est ici : T = inf{n , Xn = 0 ou a + b} . On vérifie facilement que T est un temps d’arrêt fini (cf. exercice 1). Jusqu’au temps T , la suite (Xn ) reste comprise entre 0 et a + b. La condition 2 du théorème 1.16 s’applique et on a donc : IE[XT ] = IE[X0 ] = a . Mais d’autre part, XT ne peut valoir que 0 ou a + b, et donc : IE[XT ] = 0IP[XT = 0] + (a + b)IP[XT = a + b] . a . La probabilité que chaque joueur On conclut donc que IP[XT = a + b] = a+b a de ruiner l’autre est proportionnelle à sa propre fortune initiale. Reprenons maintenant la stratégie de “quitte ou double” du paragraphe précédent : le joueur double sa mise tant qu’il perd, et s’arrête au premier gain. Si ce gain a lieu à la n-ième partie, il aura misé en tout 1+2+· · ·+2n−1 = 2n − 1, et reçu 2n . Sa fortune au moment de l’arrêt est donc X0 + 1. Aucune des conditions du théorème 1.16 ne s’applique dans ce cas. Le temps d’arrêt T n’est pas borné mais il est fini : si la probabilité de gain est p, la loi de T est Martingales discrètes 85 la loi géométrique G(p), c’est à dire que le temps d’arrêt (instant de premier gain) vaut n avec probabilité p(1 − p)n−1 . Son espérance est p1 . Par contre ni (Xn∧T ) ni ses accroissements ne sont bornés. La quantité totale misée au moment de l’arrêt est 2T − 1. Elle a pour espérance : IE[2T − 1] = ∞ X (2n − 1)p(1 − p)n−1 = −1 + 2p n=1 ∞ X (2(1 − p))n−1 . n=1 Si le jeu est défavorable au joueur (p ≤ 21 ), la série diverge : il devrait disposer d’une fortune infinie pour pouvoir appliquer sa stratégie. Si le jeu lui est favorable (p > 12 ), il peut appliquer sa stratégie avec une fortune initiale finie, mais il n’a pas vraiment intérêt à s’arrêter au premier gain ! Nous avons vu que dans un jeu, on modélisait en général l’évolution de la fortune du joueur par les sommes partielles d’une suite de variables aléatoires indépendantes et de même loi (marche aléatoire). La fortune à un instant d’arrêt est donc une somme aléatoire de variables indépendantes. Il est possible de calculer les moments d’une telle somme. Pour l’espérance, le théorème de Wald ci-dessous est un résultat très naturel. Théorème 1.17 Soit (Zn )n≥1 une suite de variables aléatoires indépendantes, de même espérance µ. Pour n ≥ 1 posons : In = (Z1 , . . . , Zn ) et Xn = Z1 + · · · + Zn . Soit T un temps d’arrêt fini, admettant une espérance. Alors : IE[XT ] = µ IE[T ] . Démonstration : Nous avons déjà vu que la suite (Xn ) est adaptée. L’espérance de Xn est nµ. Si on remplace Zn par Zn0 = Zn − µ, la proposition 1.12 montre que la suite (Xn − nµ) est une martingale. Si T ou Zn étaient bornés, on pourrait appliquer directement le théorème d’arrêt 1.16 et conclure que IE[XT − T µ] = IE[X1 − µ] = 0. Comme dans la démonstration du théorème 1.16, on peut introduire pour tout n ≥ 1 le temps d’arrêt borné Tn = n ∧ T , ainsi que la martingale arrêtée en T : (Xn∧T ). Le théorème 1.16 implique donc : IE[Xn∧T ] = µ IE[n ∧ T ] . Supposons dans un premier temps que les variables aléatoires Zn soient toutes positives. Puisque T est un temps d’arrêt fini, la suite (n ∧ T ) et la suite (Xn∧T ) convergent, respectivement vers T et XT . La suite (n∧T ) est évidemment croissante, et il en est de même de la suite (Xn∧T ), puisque ses accroissements sont positifs. On peut donc conclure par le théorème de convergence monotone que IE[XT ] = µ IE[T ]. Cahier de Mathématiques Appliquées no 10 86 Le cas général se ramène au cas des accroissements positifs de la façon suivante. On considère la marche aléatoire (Xn0 ), où : Xn0 = |Z1 | + · · · + |Zn | . Ses accroissements sont positifs. On a donc : IE[XT0 ] = IE[T ] IE[|Z1 |]. Comme |XT | est majorée par XT0 , on peut conclure en appliquant le théorème de convergence dominée de Lebesgue. 1.5 Modèles Nous allons passer en revue quelques situations où des martingales apparaissent de façon naturelle, sans qu’elles relèvent forcément des jeux. Les exemples 1, 2 et 3 ont un point commun : l’espérance conditionnelle du résultat étudié Xn+1 sachant l’information In disponible à l’instant n, ne dépend que de la seule information Xn apportée par l’observation de l’instant n. Cette particularité, qui facilite le calcul des espérances conditionnelles, s’appelle la propriété de Markov. Exemple 1 Dérive génique. Notre premier exemple est le modèle de Fisher-Wright. Il s’agit de suivre la répartition d’un gène particulier, noté g, au cours de générations successives, dans une population dont la taille reste fixée. Les individus sont supposés n’avoir qu’un seul chromosome, porteur ou non du gène g. Ce chromosome provient d’un parent unique, choisi au hasard dans la génération précédente. Tout se passe comme si les chromosomes de la génération n constituaient un pool de taille N , dans lequel les N chromosomes de la génération n + 1 sont tirés au hasard avec remise. Le nombre de chromosomes porteurs du gène g est noté Xn . Chaque génération ne dépend que de la précédente. On pose In = (X0 , . . . , Xn ). Le fait que chaque génération ne dépende que de la précédente (mais pas des antérieures) entraîne IE[Xn+1 | In ] = IE[Xn+1 | Xn ]. Les hypothèses de modélisation conduisent à dire que la loi conditionnelle de Xn+1 sachant “Xn = i” est la loi binomiale B(N, i/N ). La moyenne conditionnelle de Xn+1 sachant “Xn = i” vaut donc i. IE[Xn+1 | In ] = IE[Xn+1 | Xn ] = Xn . La suite (Xn ) est une martingale. Observons que si à la génération n le gène g est soit absent, soit présent chez tous les individus (Xn = 0 ou Xn = N ), alors la suite est constante à partir de la génération n. Définissons l’instant T de première atteinte de l’un de ces deux états : T = inf{n , Xn = 0 ou N } . C’est un temps d’arrêt et nous admettrons qu’il est fini. Les variables Xn prennent leurs valeurs dans un ensemble fini, et sont donc bornées. La condition 2 du théorème d’arrêt 1.16 s’applique dans ce cas et les espérances de Martingales discrètes 87 XT et X0 sont donc égales. Fixons i ∈ {0, . . . , N }, et supposons que X0 = i, c’est à dire une population initiale avec i copies du gène g. Notons ρi,0 et ρi,N les probabilités que l’arrêt ait lieu sur 0 et N respectivement : ρi,0 = IP[XT = 0] et ρi,N = IP[XT = N ] . On obtient : i = 0 ρi,0 + N ρi,N , et donc i i et ρi,N = . N N La probabilité que le gène envahisse toute la population est égale à sa fréquence initiale. On peut modifier ce modèle, de manière à tenir compte d’une pression sélective favorable au gène g. Pour cela nous introduisons un paramètre q < 1, et décidons que la probabilité de choisir une copie du gène g si i copies sont présentes est : 1 − qi . pi = 1 − qN ρi,0 = 1 − On vérifie que pi est une fonction décroissante de q, qui tend vers 1 quand q tend vers 0, vers Ni quand q tend vers 1. L’avantage sélectif est d’autant plus élevé que q est faible. Les gènes sont encore tirés au hasard et indépendamment, de sorte que la loi conditionnelle de Xn+1 sachant “Xn = i” est la loi binomiale B(N, pi ), d’espérance N pi ≥ i. On a donc : IE[Xn+1 | In ] = IE[Xn+1 | Xn ] = N 1 − q Xn ≥ Xn . 1 − qN La suite (Xn ) est une sous-martingale (la proportion du gène dans la population a tendance à augmenter). Comme souvent, on peut transformer Xn de manière à obtenir une martingale. Pour tout n ≥ 0 posons Yn = q N Xn et calculons IE[Yn+1 | In ] = IE[Yn+1 | Xn ]. La moyenne conditionnelle de Yn+1 sachant “Xn = i” vaut : n X n k=0 k pki (1 − pi )N −k q N k = (1 − pi )N N pi q N = q iN . 1+ 1 − pi On a donc : IE[Yn+1 | In ] = Yn , et (Yn ) est une martingale. Nous admettrons encore que T est fini. Le théorème 1.16 permet de calculer la probabilité que le gène envahisse la population ou disparaisse, quand la population initiale contient i copies de g (X0 = i). 2 q iN = IE[Y0 ] = IE[YT ] = 1 ρ0,N + q N ρi,N , Cahier de Mathématiques Appliquées no 10 88 d’où : ρi,N = 1 − q iN 1 − qN 2 2 et ρ0,N = q iN − q N . 1 − qN 2 Exemple 2 Croissance de population. Voici maintenant le modèle de de Galton-Watson, du nom des mathématiciens qui l’ont introduit comme modèle de perpétuation des lignées chez les pairs d’Angleterre à la fin du XIXème siècle. Les instants successifs sont interprétés comme des générations. Les individus sont des “Lords”, qui transmettent leur titre uniquement à leurs fils. La variable aléatoire Xn sera comprise comme le nombre d’hommes de la lignée à la n-ième génération. L’information disponible à la génération n se compose de la suite des tailles des générations successives. C’est donc l’information propre de (Xn ) : In = (X0 , . . . , Xn ). Chaque individu d’une génération donnée contribue à la génération suivante par un nombre aléatoire de descendants. Toutes les descendances sont supposées indépendantes et de même loi. Le nombre moyen de descendants d’un individu (supposé fini !) est noté µ. S’il y a i individus à la nième génération (Xn = i), alors Xn+1 sera la somme des descendances de ces i individus, qui sont des variables aléatoires indépendantes. L’espérance conditionnelle de Xn+1 sachant Xn (et donc sachant In ) est IE[Xn+1 | Xn ] = µXn . La suite (Xn ) est donc une : • martingale si µ = 1, • sous-martingale si µ ≥ 1, • sur-martingale si µ ≤ 1. Posons maintenant Yn = Xn /µn . On a : IE[Yn+1 | Yn ] = IE[Yn+1 | Xn ] = 1 µn+1 IE[Xn+1 | Xn ] = Xn = Yn . µn La suite (Yn ) est une martingale et donc IE[Yn ] = IE[Y0 ], soit IE[Xn ] = µn IE[X0 ] pour tout n. Comme on pouvait le deviner, la taille moyenne des générations diminue si µ < 1, augmente exponentiellement si µ > 1. On démontre que la population disparaît avec probabilité 1 si µ ≤ 1. Exemple 3 File d’attente. Voici un modèle élémentaire de file d’attente à un seul serveur. Les clients sont servis un par un, et le temps de service de chaque client est fixe. L’unité de temps est ce temps de service. Le nombre de clients arrivant dans la file pendant la n-ième unité de temps est une variable aléatoire Cn . On supposera que les Cn sont indépendantes et de même loi. Un client arrivant alors que la file est vide attend l’unité de temps suivante pour être servi. Nous notons Xn le nombre de clients présents dans la file à la fin de la n-ième unité de temps. Si Xn est ≥ 1, alors Xn+1 = Xn − 1 + Cn+1 (un client est parti, et Cn+1 sont arrivés). Si Xn est nul, alors Xn+1 = Cn+1 . On peut donc écrire : Xn+1 = Xn − 11IN ∗ (Xn ) + Cn+1 . (1.3) Martingales discrètes 89 Ceci montre que (Xn ) est adaptée à son information propre, comme à l’information des nombres de clients arrivés au cours des unités de temps successives : In = (X0 , C1 , . . . , Cn ). Le comportement de la suite (Xn ) est facile à deviner intuitivement. Notons ρ l’espérance commune des Cn , à savoir le nombre moyen de clients qui arrivent pendant un temps de service. C’est le coefficient d’occupation de la file. Si ρ < 1, le serveur peut faire face à toutes les demandes : les clients ne s’accumulent pas et un régime d’équilibre peut s’établir. Si ρ > 1, les clients sont trop nombreux et la file sature : le nombre moyen de clients à l’instant n croît en moyenne comme n(ρ − 1). On déduit immédiatement IE[Xn+1 | In ] de la formule (1.3) : IE[Xn+1 | In ] = Xn − 11IN ∗ (Xn ) + ρ . Si ρ > 1, (Xn ) est une sous-martingale. Considérons maintenant Yn = Xn − nρ : IE[Yn+1 | In ] = Xn − 11IN ∗ (Xn ) + ρ − (n + 1)ρ = Yn − 11IN ∗ (Xn ) . La suite (Yn ) est donc une sur-martingale. Exemple 4 Placement financier. Les applications récentes les plus spectaculaires des martingales se situent en finance. Nous n’en évoquerons que quelques principes de base. Les modèles effectivement utilisés par les banques sont le plus souvent en temps continu, et le temps discret auquel nous nous limitons dans ce cours n’est qu’une approximation. Pour placer son argent, un investisseur a le choix entre des placements dits sans risques (plans d’épargnes, emprunts) et des placements risqués (actions cotées en bourse), dont le revenu n’est pas garanti. Pour simplifier, nous nous limiterons à un seul actif de chaque type. Un actif d’épargne vaut E0 à l’instant n = 0. Son taux est r, de sorte qu’à l’instant n, sa valeur est En = (1 + r)n E0 . Le cours de l’actif risqué à l’instant n est Sn . L’ensemble des résultats du marché jusqu’à l’instant n constitue l’information In , connue de tous les acteurs du marché. Le taux d’accroissement de l’actif à l’instant n (entre n−1 et n) est noté Rn : En − En−1 =r En−1 et Sn − Sn−1 = Rn . Sn−1 La prédiction de ce taux d’accroissement connaissant l’information disponible à l’instant n est : IE[Rn+1 | In ] = 1 (IE[Sn+1 | In ] − Sn ) . Sn Si cette prédiction était supérieure ou inférieure au taux garanti r, alors il existerait des stratégies d’arbitrage, c’est à dire des stratégies d’investissement Cahier de Mathématiques Appliquées no 10 90 qui permettraient avec un investissement nul, de réaliser un profit non nul. Dans un marché viable, c’est exclu. Le marché est donc viable si et seulement si IE[Rn+1 | In ] = r. On a alors : IE[Sn+1 | In ] = (1 + r)Sn . Donc (Sn ) est une sous-martingale. Introduisons le prix actualisé de l’actif : Sen = (1 + r)−n Sn . IE[Sen+1 | In ] = (1 + r)−n−1 IE[Sn+1 | In ] = (1 + r)−n Sn = Sen . Dans un marché viable, le prix actualisé de tout actif doit être une martingale. On démontre que si c’est le cas, alors aucune stratégie d’arbitrage ne peut conduire à un profit à partir d’un investissement nul. Si la fortune en = (1 + r)−n Xn , d’un investisseur à l’instant n est Xn de valeur actualisée X alors quelle que soit la manière dont il utilise l’information du marché pour la en ) sera une martingale. répartir entre actifs risqués et non risqués la suite (X Supposons qu’à l’instant 0, un investisseur dispose d’une fortune x, qu’il choisit de répartir entre U0 unités d’épargne, et V0 unités d’actif risqué, de sorte que : U0 E0 + V0 S0 = x . Cette répartition est le portefeuille de l’investisseur. Il peut à chaque instant décider d’en modifier la composition : à l’instant n il dispose de Un unités d’épargne et de Vn actions. La suite des couples (Un , Vn ) est une stratégie d’investissement. C’est une suite prévisible. La fortune totale à l’instant n vaut : Xn = Un En + Vn Sn . Remarquons que les quantités Un et Vn ne sont pas nécessairement positives, car l’investisseur peut décider d’emprunter. Par contre, il doit pouvoir rembourser à tout moment, de sorte que la fortune totale Xn doit rester positive. Nous supposons que les placements sont sans frais. La modification du portefeuille avant l’instant n + 1 s’effectue donc en réinvestissant la fortune Xn et rien de plus (on parle de stratégie autofinancée) : Xn = Un+1 En + Vn+1 Sn . L’accroissement de fortune entre les instants n et n + 1 est : Xn+1 − Xn = Un+1 (En+1 − En ) + Vn+1 (Sn+1 − Sn ) . Il s’exprime en fonction des variations de l’épargne et de l’action : En+1 − En = rEn et Sn+1 − Sn = Rn+1 Sn , où Rn+1 est le taux de rendement de l’action, qui ne sera connu qu’à l’instant n + 1. On peut récrire l’accroissement de fortune en fonction des taux : Xn+1 − Xn = rXn + Vn+1 Sn (Rn+1 − r) . Martingales discrètes 91 Cette forme a l’avantage de faire ressortir le bénéfice ou la perte (selon le signe de Rn+1 − r) par rapport au placement “sans risque” qui consisterait à investir toute la fortune Xn en épargne, pour gagner rXn . Considérons alors en = (1 + r)−n Xn . Son accroissement entre n et n + 1 la valeur actualisée X vérifie : en+1 − X en = (1 + r)−1 Vn+1 Sen (Rn+1 − r) . X A l’instant n, les valeurs de Vn+1 et Sen sont connues, l’espérance conditionen ) est donc une martingale. nelle de Rn+1 sachant In est r, et (X Une option européenne d’achat est un contrat que l’on passe au temps 0, pour obtenir le droit d’acheter au temps N une unité d’actif risqué au prix K, fixé au temps 0. Juste après le temps N (à l’échéance du contrat), si le prix réel SN de l’actif est inférieur à K, l’investisseur n’a pas intérêt à acheter au prix K, et il renonce donc à son droit. Mais si SN est supérieur à K, l’investisseur réalise un bénéfice de SN − K, en achetant l’actif au prix K pour le revendre aussitôt à son prix SN . La valeur à l’instant N du contrat est donc : (SN − K)+ = (SN − K)11IR+ (SN − K) . Quel prix doit-on payer pour ce contrat à l’instant 0 ? Ce prix est analogue à une prime d’assurance : on achète un droit. On doit calculer le juste prix de ce droit, celui qui fait qu’il y aura des acheteurs mais aucun enrichissement sans apport initial. Le juste prix est obtenu pour la valeur de la fortune initiale x = X0 , qui investie comme on l’a vu plus haut, en épargne et actif risqué au moyen d’une stratégie (Un , Vn ), permet de réaliser le même bénéfice à l’instant N que l’option d’achat. Une telle stratégie s’appelle stratégie de couverture ou de réplication de l’option, et elle est telle que la fortune (Xn ) vérifie : X0 = x , Xn ≥ 0 , ∀n = 0, . . . , N , XN = (SN − K)+ . Suivre une stratégie de couverture conduit donc au bénéfice de l’option européenne à l’instant N . Quelle que soit la stratégie adoptée, la fortune actualisée est une martingale. Donc (1+r)N IE[XN ] = IE[X0 ] = x. S’il existe une statégie de couverture, sa valeur initiale est donc nécessairement : x = (1 + r)−N IE[(SN − K)+ ] . On démontre que pour cette valeur de x, il existe effectivement une stratégie de couverture unique. La valeur x est le juste prix de l’option européenne d’achat à l’instant 0. Exemple 5 Rapport de vraisemblance. Notre dernier exemple est issu de la statistique. Considérons une expérience dont le résultat est une variable aléatoire réelle X de loi inconnue. Si on Cahier de Mathématiques Appliquées no 10 92 répète indépendamment cette expérience, on engendre une suite de variables aléatoires (Xn ) de même loi que X. Notons In l’échantillon des n premiers résultats : In = (X1 , . . . , Xn ). L’objectif est d’utiliser l’information In pour en extraire des renseignements les plus précis possibles sur la loi de X. Nous supposerons ici que la loi de X admet une densité f sur IR. Définition 1.18 On appelle vraisemblance la fonction qui à un n-uplet (x1 , . . . , xn ) d’éléments de IR et à la densité f associe le produit : L(f, x1 , . . . , xn ) = f (x1 ) · · · f (xn ) . La vraisemblance est donc la densité du n-uplet In . Si on compose avec les variables aléatoires de l’échantillon (indépendantes et de densité f ), on obtient une variable aléatoire, que l’on notera Ln (f ) : Ln (f ) = L(f, X1 , . . . , Xn ) . Supposons à présent que, ne connaissant pas la vraie densité des Xi , l’on veuille trancher entre deux densités f0 et f1 , c’est à dire construire un test de l’hypothèse H0 : “la densité des Xi est f0 ” contre H1 : “la densité des Xi est f1 ”. Il est naturel de considérer le rapport des deux vraisemblances, que nous noterons Rn : Rn = Ln (f1 ) . Ln (f0 ) Remarquons que la suite (Rn ) est adaptée relativement à (In ). Pour simplifier, nous supposerons que les deux densités sont strictement positives sur IR. Si pour une observation (x1 , . . . , xn ) donnée la valeur prise par Rn est grande, c’est que la densité f1 est la plus vraisemblable et il faudra rejeter l’hypothèse H0 . Pour déterminer la valeur critique du rapport de vraisemblance, à partir de laquelle on rejettera H0 , il faut connaître la loi de probabilité de Rn sous l’hypothèse H0 . Supposons donc que (Xn ) soit une suite de variables aléatoires indépendantes de même densité f0 , et notons IE0 l’espérance calculée sous cette hypothèse. Remarquons que Rn est positive et : IE0 [Rn ] = n Y i=1 IE0 Y n Z f1 (Xi ) f1 (x) = f0 (x) dx = 1 . f0 (Xi ) f (x) i=1 IR 0 Les variables Rn admettent toutes la même espérance égale à 1, car elles sont un produit de variables indépendantes et d’espérance 1. Calculons la Martingales discrètes 93 prédiction de Rn+1 sachant In : f1 (Xn+1 ) | In IE0 [Rn+1 | In ] = IE0 Rn f0 (Xn+1 ) f1 (Xn+1 ) | In f0 (Xn+1 ) f1 (Xn+1 ) = Rn . f0 (Xn+1 ) = Rn IE0 = Rn IE0 La suite (Rn ) est une martingale relativement à (In ). On démontre que Rn converge presque sûrement vers 0, ce qui est conforme à l’intuition : si l’hypothèse H0 est correcte, alors quand la taille de l’échantillon augmente, le rapport entre la vraisemblance d’une observation sous une autre loi et sous la “vraie loi” doit être de plus en plus déséquilibré en faveur de la seconde. Une fois le test défini, on s’intéresse à l’erreur de deuxième espèce, qui est la probabilité d’accepter H0 à tort. Pour cela il faut considérer la loi du rapport de vraisemblance Rn sous l’hypothèse H1 où les Xn ont pour densité f1 . De façon analogue, notons IE1 l’espérance calculée sous l’hypothèse H1 . On a maintenant : Z Z f1 (x) f12 (x) f1 (Xn+1 ) = f1 (x) dx = f0 (x) dx IE1 2 f0 (Xn+1 ) IR f0 (x) IR f0 (x) Z ≥ IR f1 (x) f0 (x) dx f0 (x) 2 =1. Sous l’hypothèse H1 la suite (Rn ) est une sous-martingale. Supposons par exemple que f0 et f1 soient les densités des lois normales N (0, 1) et N (µ, 1), avec µ 6= 0. Le rapport des deux densités est : f1 (x) µ2 = exp µx − . f0 (x) 2 Le rapport de vraisemblance Rn est : n Rn = exp nµ 1X µ Xi − n i=1 2 !! . Pn D’après la loi des grands nombres, n1 i=1 Xi converge presque sûrement vers 0 sous l’hypothèse H0 , vers µ sous l’hypothèse H1 . Donc (Rn ) converge presque sûrement vers 0 sous l’hypothèse H0 , vers +∞ sous l’hypothèse H1 , conformément à l’intuition. Cahier de Mathématiques Appliquées no 10 94 2 Inégalités 2.1 Fonctions convexes Dans plusieurs des exemples qui ont été proposés jusqu’ici, nous avons été amenés à transformer une suite pour faire apparaître une martingale, une sous-martingale, ou une sur-martingale. Considérons une martingale (Xn ), relativement à la suite d’informations (In ). Soit ϕ une fonction de IR dans IR. Que peut-on dire de la suite (ϕ(Xn )) ? Elle est bien sûr encore adaptée à (In ). Sa prédiction pour l’instant n + 1 est IE[ϕ(Xn+1 ) | In ], que l’on souhaite comparer à ϕ(Xn ) = ϕ(IE[Xn+1 | In ]). Sauf si ϕ est affine, les deux ne sont pas égales. En revanche, si ϕ est convexe, on peut toujours les comparer. Définition 2.1 Soit ϕ une fonction de IR dans IR. On dit que ϕ est convexe si pour tout triplet de réels u, v, w tels que u < v < w : ϕ(w) − ϕ(v) ϕ(v) − ϕ(u) ≤ . v−u w−v (2.4) La fonction ϕ est dite concave si −ϕ est convexe. La définition 2.1 dit qu’une fonction est convexe si les cordes du graphe de ϕ ont des pentes croissantes. Les fonctions utiles sont au moins dérivables deux fois par morceaux, et il est plus facile de retenir qu’une fonction est convexe si sa dérivée est croissante ou si sa dérivée seconde est positive ou nulle. Les fonctions convexes que l’on rencontre le plus fréquemment sont les suivants. 1. ϕ(x) = x2 , 2. ϕ(x) = |x|, 3. ϕ(x) = x11IR+ (x), 4. ϕ(x) = exp(x), 5. ϕ(x) = x log(x). Pour récrire l’inégalité 2.4, posons p = v = pw + (1 − p)u. On obtient : v−u w−u , de sorte que 0 < p < 1 et ϕ(pw + (1 − p)u) ≤ pϕ(w) + (1 − p)ϕ(u) . L’image par une fonction convexe d’un barycentre est donc inférieure au barycentre des images. La généralisation de ceci aux espérances conditionnelles est l’inégalité de Jensen. Théorème 2.2 Soit ϕ une fonction convexe de IR dans IR, X une variable aléatoire et I un vecteur aléatoire. ϕ(IE[X | I]) ≤ IE[ϕ(X) | I] . Pour se souvenir du sens de l’inégalité, on se rappellera les cas particuliers ϕ(x) = |x| ou ϕ(x) = x2 . On en déduit immédiatement le corollaire suivant. Martingales discrètes 95 Corollaire 2.3 Soit (Xn ) une martingale relativement à (In ) et ϕ une fonction mesurable. 1. Si ϕ est convexe, la suite (ϕ(Xn )) est une sous-martingale, 2. Si ϕ est concave, la suite (ϕ(Xn )) est une sur-martingale. Remarquons aussi que si (Xn ) est une sous-martingale et si ϕ est convexe et croissante, alors (ϕ(Xn )) est aussi une sous-martingale. En effet : IE[ϕ(Xn+1 ) | In ] ≥ ϕ(IE[Xn+1 | In ]) ≥ ϕ(Xn ) . Par exemple, si (Xn ) est une sous-martingale, (Xn 11[0,+∞[ (Xn )), (exp(Xn )) sont aussi des sous-martingales. Reprenons la martingale du rapport de vraisemblance (exemple 5). On considère une suite (Xn ) de variables aléatoires indépendantes et de même loi. Etant données deux densités f0 et f1 , le rapport de vraisemblance de l’échantillon (X1 , . . . , Xn ) est : Ln (f1 ) . Rn = Ln (f0 ) Posons maintenant Sn = log(Rn ). La suite (Sn ) est une marche aléatoire : Sn = n X log i=1 f1 (Xi ) f0 (Xi ) . Sous l’hypothèse H0 , (Rn ) est une martingale, et le logarithme étant concave, le corollaire 2.3 montre que (Sn ) est une sur-martingale. On peut aussi déduire directement de l’inégalité de Jensen que l’espérance des pas est négative. L’espérance de Sn tend vers −∞, linéairement en n. Sous l’hypothèse H1 , (Rn ) est une sous-martingale. Nous allons montrer que (Sn ) est aussi une sous-martingale. Il suffit pour cela de montrer que l’espérance des pas est positive. Nous utilisons l’inégalité de Jensen, appliquée à la fonction convexe ϕ(x) = x log(x), qui vérifie ϕ(1) = 0. Z f1 (Xi ) f1 (x) IE1 log = log f1 (x) dx f0 (Xi ) f0 (x) IR Z = ϕ IR f1 (x) f0 (x) f0 (x) dx f1 (Xi ) = IE0 ϕ f0 (Xi ) f1 (Xi ) ≥ ϕ IE0 =0. f0 (Xi ) Cahier de Mathématiques Appliquées no 10 96 2.2 Sous-martingales et compensateurs Nous commençons par la décomposition de Doob, qui distingue dans une suite adaptée une partie prévisible et une martingale. Théorème 2.4 Soit (Xn ) une suite adaptée à la suite d’informations (In ). Il existe une martingale (Mn ) et une suite prévisible (An ) uniques telles que M0 = A0 = 0 et pour tout n ≥ 0 : Xn = X0 + Mn + An . (2.5) De plus la suite (Xn ) est une sous-martingale si et seulement si la suite (An ) est croissante. Démonstration : Posons pour n ≥ 1, An = n X IE[Xk − Xk−1 | Ik−1 ] . (2.6) k=1 La suite (An ) est prévisible. Posons ensuite : Mn = Xn − X0 − An . La suite (Mn ) est adaptée. De plus : IE[Mn+1 − Mn | In ] = IE[(Xn+1 − Xn ) − (An+1 − An ) | In ] = 0 , ce qui montre que (Mn ) est bien une martingale. Réciproquement, si la décomposition (2.5) est vraie, alors : IE[Xn+1 − Xn | In ] = IE[Mn+1 − Mn | In ] + IE[An+1 − An | In ] = 0 + An+1 − An , car (Mn ) est une martingale et (An ) est prévisible. Donc An est nécessairement définie par (2.6). La suite (Xn ) est une sous-martingale si et seulement si la prévision de ses accroissements IE[Xn+1 − Xn | In ] est positive ou nulle c’est à dire si la suite prévisible (An ) est croissante. Dans la décomposition de Doob, la partie prévisible (An ) s’appelle le compensateur (prévisible) de (Xn ). Il faut voir une sous-martingale comme une fonction croissante bruitée. Dans une sous-martingale, la décomposition de Doob distingue la partie prévisible croissante de la partie non prévisible, d’espérance nulle. Comme premier exemple, considérons une marche aléatoire. Soit (Zn ) une suite de variables aléatoires indépendantes et de même loi, d’espérance µ. Posons Xn = Z1 + · · · + Zn . Dans ce cas, l’accroissement prévisible est Martingales discrètes 97 IE[Zn+1 | In ] = µ, car Zn+1 est indépendant du passé. Le compensateur est déterministe : An = nµ. La martingale associée Mn est la différence entre Xn et son espérance. Considérons ensuite la file d’attente de l’exemple 3, pour laquelle Xn désigne le nombre de clients après le n-ième service. D’après la formule (1.3), l’accroissement prévisible est : An+1 − An = IE[Xn+1 − Xn | In ] = −11IN ∗ (Xn ) + ρ . Le compensateur est donc croissant si ρ > 1. L’accroissement de la martingale associée est : Mn+1 − Mn = Cn+1 − ρ . Dans ce cas, la martingale (Mn ) est la marche aléatoire de pas Cn − ρ, qui compte la différence entre le nombre total de clients arrivés au cours des n premiers services et son espérance. Reprenons maintenant l’exemple 5 du rapport de vraisemblance. On considère une suite (Xn ) de variables aléatoires indépendantes et de même loi. Etant données deux densités f0 et f1 , le rapport de vraisemblance de l’échantillon (X1 , . . . , Xn ) est : Ln (f1 ) . Rn = Ln (f0 ) Nous avons déjà montré que sous l’hypothèse H0 où la loi des Xi a pour densité f0 , (Rn ) est une martingale et (log(Rn )) est une sur-martingale. Sous l’hypothèse H1 où la loi des Xi a pour densité f1 , (Rn ) et (log(Rn )) sont des sous-martingales. Comme (log(Rn )) est une marche aléatoire, son compensateur est déterministe : An = nµ, où µ est l’espérance d’un pas, dont nous avons déjà montré qu’elle est positive. Cette quantité, qui joue un rôle important en statistique, est l’information de Kullback de la densité f1 par rapport à f0 . f1 (Xi ) f1 (Xi ) = IE0 ϕ , K(f1 , f0 ) = IE1 log f0 (Xi ) f0 (Xi ) avec ϕ(x) = x log(x). Dans le cas où f0 et f1 sont les densités respectives des lois N (0, 1) et N (µ, 1), on trouve : K(f1 , f0 ) = IE1 [µXi − µ2 /2] = µ2 /2 . 2.3 Variation quadratique Nous nous intéressons ici aux variations d’une martingale (Xn ) relative à la suite d’informations (In ). Dans tout ce paragraphe, on suppose que les variables Xn admettent une variance. Définition 2.5 Soit (Xn ) une suite de variables aléatoires. On dit que (Xn ) est de carré intégrable si pour tout n, IE[Xn2 ] < ∞. Cahier de Mathématiques Appliquées no 10 98 Pour n ≥ 1, posons : ∆n = Xn − Xn−1 . La suite (∆n ) est adaptée, et d’après la définition 1.9, la prévision d’un accroissement est toujours nulle. IE[∆n+1 | In ] = 0 . Les accroissements ont de plus une propriété d’orthogonalité relativement au produit scalaire hX, Y i = IE[XY ]. Proposition 2.6 Soit (Xn ) une martingale de carré intégrable. Pour tout n 6= m : IE[∆n ∆m ] = 0 . Démonstration : Sans perte de généralité, supposons n < m et conditionnons par In : IE[∆n ∆m ] = IE[IE[∆n ∆m | In ]] = IE[∆n IE[Xm − Xm−1 | In ]] = IE[∆n (Xn − Xn )] = 0 . Ecrivons Xn en fonction des ∆i : Xn = X0 + ∆1 + · · · + ∆n . (2.7) La variable Xn − X0 apparaît donc comme une somme de variables aléatoires orthogonales deux à deux, tout comme une marche aléatoire est somme de variables aléatoires indépendantes (nous avons vu que dans le cadre gaussien, orthogonalité et indépendance étaient équivalentes : point 4 de la proposition 1.7). Les accroissements ∆n étant orthogonaux, on peut appliquer le théorème de Pythagore à la décomposition (2.7) : IE[Xn2 ] = IE[X02 ] + IE[∆21 ] + · · · + IE[∆2n ] . (2.8) Nous sommes donc amenés à nous intéresser aux carrés des accroissements, et en particulier à leur prévision. 2 IE[∆2n+1 | In ] = IE[Xn+1 − 2Xn+1 Xn + Xn2 | In ] 2 = IE[Xn+1 | In ] − 2Xn IE[Xn+1 | In ] + Xn2 2 = IE[Xn+1 − Xn2 | In ] . La projection de ∆2n+1 sur V(In ) est donc la prévision d’accroissement pour la suite (Xn2 ), c’est à dire la variation de son compensateur. Le fait que cette Martingales discrètes 99 variation soit positive montre que le compensateur est croissant, et que donc (Xn2 ) est une sous-martingale. La fonction ϕ(x) = x2 étant convexe, on aurait pu le déduire aussi du corollaire 2.3. Le compensateur de (Xn2 ) joue un grand rôle dans l’étude d’une martingale. On l’appelle la variation quadratique ou le crochet de (Xn ). Définition 2.7 Soit (Xn ) une martingale de carré intégrable. On appelle variation quadratique ou crochet de (Xn ) et on note (hXin ) la suite prévisible croissante définie par hXi0 = 0 et pour n ≥ 1 : hXin = n X IE[Xk2 − 2 Xk−1 | Ik−1 ] = k=1 n X IE[(Xk − Xk−1 )2 | Ik−1 ] . k=1 La suite (hXin ) est l’unique suite croissante prévisible nulle en 0 telle que (Xn2 − hXin ) soit une martingale. Considérons par exemple la martingale (Xn ) du modèle de Fisher-Wright (exemple 1) : elle compte le nombre de copies du gène g dans la population de taille N . La loi conditionnelle de Xn+1 sachant Xn = i est la loi binomiale B(N, Ni ), de variance N Ni (1− Ni ). Dans ce cas, la variation quadratique vaut : hXin = n X k=1 Xk−1 Xk−1 1 − . N Le théorème 2.8 ci-dessous est analogue au théorème d’arrêt 1.16. C’est un autre théorème de Wald. Théorème 2.8 Soit (Xn ) une martingale de carré intégrable et T un temps d’arrêt fini. Chacune des deux conditions suivantes implique : IE[XT2 ] = IE[hXiT ] . 1. T est borné : ∃K ∈ IR , T ≤ K . 2. (Xn∧T ) est bornée : ∃M ∈ IR , |Xn∧T | ≤ M , ∀n . Démonstration : Les deux conditions sont les deux premières conditions du théorème 1.16, et il suffit de l’appliquer à la martingale (Xn2 − hXin ). Remarquons cependant que la condition 3 du théorème 1.16 n’implique pas le résultat. Examinons le cas d’une marche aléatoire. Soit (Zn ) une suite de variables aléatoires indépendantes et de même loi, d’espérance µ, de variance σ 2 . Posons X0 = 0 et pour n ≥ 1, Xn = Z1 + · · · + Zn − nµ. La marche aléatoire (Xn ) est une martingale (proposition 1.12). L’accroissement quadratique (Xn+1 − Xn )2 étant indépendant du passé, son espérance conditionnelle est déterministe, c’est la variance σ 2 du pas. Le compensateur dans ce cas est la Cahier de Mathématiques Appliquées no 10 100 suite déterministe (nσ 2 ). La suite (Xn2 − nσ 2 ) est encore une martingale. Si T est un temps d’arrêt et si l’une des conditions du théorème 2.8 est vérifiée, alors : IE[XT2 ] = σ 2 IE[T ] . Comme cas particulier, nous allons revenir sur la vraisemblance (exemple 5), mais cette fois-ci dans un contexte d’estimation paramétrique. Nous supposons encore pour simplifier que toutes les densités écrites sont strictement positives sur IR. La densité des Xi est supposée appartenir à une famille de densités {fθ , θ ∈ Θ}, où Θ est un intervalle ouvert de IR. Nous supposons que fθ (x) est 2 fois continûment dérivable par rapport à θ, et que les dérivations sous le signe intégrale sont justifiées, de sorte que pour tout θ : Z Z ∂ 2 fθ ∂fθ (x) dx = 0 . (x) dx = 2 IR ∂θ IR ∂θ (1) Les deux dérivées successives par rapport à θ seront désormais notées fθ et (2) fθ . La vraisemblance associée à un échantillon (X1 , . . . , Xn ) de variables aléatoires indépendantes de densité fθ , dépend maintenant de θ. Nous la noterons Ln (θ). Ln (θ) = fθ (X1 ) . . . fθ (Xn ) . Si (X1 , . . . , Xn ) sont des variables indépendantes de densité fθ0 , on s’attend à ce que la vraisemblance Ln (θ) admette un maximum pour θ = θ0 . Le logarithme étant croissant, il est équivalent (et plus facile) de maximiser log(Ln (θ)). Sous nos hypothèses de dérivabilité, log(Ln (θ)) admettra un maximum si sa dérivée s’annule, et sa dérivée seconde est négative. Pour tout n ≥ 1, nous introduisons les variables aléatoires suivantes. ln (θ) = log(Ln (θ)) = n X log(fθ (Xi )) , i=1 ln0 (θ) = n (1) X f (Xi ) θ i=1 n X (2) fθ (Xi ) fθ (Xi ) − ln00 (θ) = fθ (Xi ) i=1 (1) , fθ (Xi ) fθ (Xi ) !2 . Les trois suites (ln (θ)), (ln0 (θ)) et (ln00 (θ)) sont des marches aléatoires. Notons IEθ l’espérance sous l’hypothèse où les Xi ont pour densité fθ . Pour (ln0 (θ)), l’espérance d’un pas vaut : " (1) # Z (1) fθ (Xi ) fθ (x) IEθ = fθ (x) dx = 0 . fθ (Xi ) IR fθ (x) Martingales discrètes 101 La variance est : (1) f (Xi ) I(θ) = IEθ θ fθ (Xi ) !2 Z = IR (1) fθ (x) fθ (x) !2 fθ (x) dx . La marche aléatoire (ln0 (θ)) est donc une martingale, sa variation quadratique (déterministe) est hZ (1) in = nI(θ). Cette variation quadratique joue un rôle important en statistique : c’est l’information de Fisher (en θ) de l’échantillon. C’est aussi l’opposé du compensateur de la marche aléatoire (ln00 (θ)) : !2 (1) (2) f (X ) f (X ) i i θ − IEθ θ fθ (Xi ) fθ (Xi ) Z = IR (2) fθ (x) fθ (x) dx − fθ (x) Z IR (1) fθ (x) fθ (x) !2 fθ (x) dx = 0 − I(θ) . Donc (ln00 (θ)) est une sur-martingale et son espérance tend vers −∞, linéairement en n. Ces propriétés de (ln0 (θ)) et (ln00 (θ)) ont des conséquences statistiques importantes. On en déduit en particulier que l’estimateur du maximum de vraisemblance de θ est asymptotiquement de variance minimale parmi tous les estimateurs de θ, et cette variance minimale est précisément l’inverse de l’information de Fisher nI(θ). Supposons par exemple que fθ soit la densité de la loi normale N (θ, 1). La quantité I(θ) vaut : IEθ [(θ − Xi )2 ] = 1 . L’estimateur du maximum de vraisemblance de θ est la moyenne empirique : n 1X Xi . n i=1 Sa variance est bien 2.4 1 n. Inégalités de déviations La clé de la démonstration d’une convergence presque sûre est l’étude d’une série de probabilités : X IP[|Xn − X| > t] . n∈IN Ce n’est qu’une des raisons pour lesquelles il est important de savoir contrôler par des inégalités des probabilités du type IP[Y > t] ou IP[Y < t], que l’on appelle probabilités de déviations. La plus simple est l’inégalité de Markov : Cahier de Mathématiques Appliquées no 10 102 Proposition 2.9 Soit Y une variable aléatoire positive, admettant une espérance. Pour tout t > 0 : IP[Y > t] ≤ 1 IE[Y ] . t (2.9) Démonstration : elle consiste à minorer IE[Y ], assez brutalement. IE[Y ] ≥ IE[ t 11[t,+∞[ (Y ) ] = t IP[Y > t] . Pour Y = (X − IE[X])2 , (2.9) est l’inégalité de Bienaymé-Chebyshev. Dans le cas d’une sous-martingale (Xn ), l’inégalité de Markov permet un contrôle uniforme des déviations des n premières valeurs en fonction de l’espérance de la n-ième. Théorème 2.10 Soit (Xn ) une sous-martingale à valeurs positives. Pour tout t > 0 : 1 (2.10) IP[ max Xi ≥ t ] ≤ IE[Xn ] . i=0,...,n t Remarquons que si (Xn ) est une sous-martingale de signe quelconque, on peut appliquer (2.10) à (max{Xn , 0}), qui est aussi une sous-martingale. Démonstration : Considérons le temps d’arrêt T suivant : T = inf{n} ∪ {i , Xi ≥ t} . Nous allons appliquer l’inégalité de Markov à la variable aléatoire XT . Remarquons que XT ≥ t si et seulement si l’une des valeurs X0 , . . . , Xn est supérieure à t. Donc : IP[ max Xi ≥ t ] = IP[XT ≥ t] ≤ i=0,...,n 1 IE[XT ] . t Comme (Xn ) est une sous-martingale, la suite des espérances est croissante, et puisque T est borné par n, IE[XT ] ≤ IE[Xn ]. Comme cas particulier, si (Xn ) est une martingale (de signe quelconque), (2.10) s’applique à (|Xn |) ainsi qu’à (Xn2 ) qui sont des sous-martingales. Corollaire 2.11 Soit (Xn ) une martingale de carré intégrable, alors : IP[ max |Xi | ≥ t ] ≤ i=0,...,n 1 1 IE[Xn2 ] = 2 IE[hXin ] . 2 t t (2.11) On peut donc contrôler les probabilités de déviations pour le maximum des |Xi | à l’aide de l’espérance de Xn2 . Le résultat suivant, que nous admettrons, donne une relation analogue pour l’espérance du carré du maximum. Martingales discrètes 103 Théorème 2.12 Soit (Xn ) une martingale de carré intégrable. " 2 # 2 IE[Xn ] ≤ IE max Xi ≤ 4IE[Xn2 ] = 4IE[hXin ] . i=0,...,n (2.12) L’inégalité de Lenglart ci-dessous relie aussi une martingale et son crochet, par l’intermédiaire de leurs probabilités de déviations. Proposition 2.13 Soit (Xn ) une martingale de carré intégrable. Pour tout s, t > 0 : s IP[ max |Xi | ≥ t ] ≤ 2 + IP[hXin ≥ s] . i=0,...,n t Il existe bien d’autres inégalités. Pour illustrer l’importance des martingales dans les problèmes de probabilités discrètes, nous citerons l’inégalité d’Azuma, pour les martingales à accroissements bornés. Théorème 2.14 Soit (Xn ) une martingale. Supposons qu’il existe une suite de constantes (cn ) telle que pour tout n ≥ 1, |Xn − Xn−1 | ≤ cn . Alors pour tout t ≥ 0 : 2t2 IP[ |Xn − X0 | ≥ t ] ≤ 2 exp − Pn 2 i=1 ci . (2.13) Soit (Zn ) une suite de variables aléatoires indépendantes centrées, telles que |Zn | ≤ cn . Posons X0 = 0 et pour n ≥ 1 : Xn = n X Zi . i=1 La suite (Xn ) est une martingale, et (2.13) donne l’inégalité de Hoeffding : " n # X 2t2 IP Zi ≥ t ≤ 2 exp − Pn 2 . (2.14) i=1 ci i=1 Comme cas particulier, prenons Zn = Bn − p où les Bn sont des variables aléatoires de Bernoulli, de loi B(1, p). Leur somme √ Sn suit la loi binomiale B(n, p). Appliquons (2.14) avec cn = 1 et t = u n : √ 2 IP[|Sn − np| ≥ u n] ≤ 2e−2u . C’est une inégalité de concentration classique. Elle montre√que les déviations d’une loi binomiale autour de son espérance sont d’ordre n, et décroissent exponentiellement vite, ce qui est cohérent avec le théorème de la limite centrale. Cahier de Mathématiques Appliquées no 10 104 Les applications de l’inégalité d’Azuma (2.13) ne se limitent pas à la concentration des sommes de variables indépendantes. L’inégalité de McDiarmid qui s’en déduit, s’applique dans des contextes beaucoup plus généraux. Théorème 2.15 Soient Z1 , . . . , Zn des variables aléatoires indépendantes à valeurs dans E, et f une application de E dans IR vérifiant la condition suivante. ∀i = 1, . . . , n , ∀z1 , . . . , zn , zi0 ∈ E , |f (z1 , . . . , zn ) − f (z1 , . . . , zi−1 , zi0 , zi+1 , . . . , xn )| ≤ ci . Notons Y la variable aléatoire Y = f (Z1 , . . . , Zn ). Alors pour tout t > 0 : 2t2 (2.15) IP[ |Y − IE[Y ]| ≥ t ] ≤ 2 exp − Pn 2 . i=1 ci Démonstration : Notons X0 = IE[Y ], et pour i = 1, . . . , n : Xi = IE[Y | (Z1 , . . . , Zi )] On vérifie immédiatement que (Xi )i=0,...,n est une martingale relativement à l’information des Zi (on parle de martingale à horizon fini). Tout ce que nous avons à faire pour lui appliquer l’inégalité d’Azuma (2.13) c’est de vérifier que l’hypothèse sur f entraîne que les accroissements de cette martingale sont bornés. Examinons pour cela la moyenne conditionnelle de Y sachant Z1 = z1 , . . . , Zi = zi . D’après la proposition 1.4 elle vaut : (Z1 ,...,Zi ) mY (z1 , . . . , zi ) = IE[f (z1 , . . . , zi , Zi+1 , . . . , Zn )] . La différence entre les moyennes conditionnelles pour deux instants successifs vérifie donc : (Z1 ,...,Zi ) (Z ,...,Zi−1 ) (z1 , . . . , zi ) − mY 1 (z1 , . . . , zi−1 ) mY = | IE[f (z1 , . . . , zi , Zi+1 , . . . , Zn )] − IE[f (z1 , . . . , zi−1 , Zi , . . . , Zn )] | ≤ IE[ | f (z1 , . . . , zi , Zi+1 , . . . , Zn ) − f (z1 , . . . , zi−1 , Zi , . . . , Zn ) | ] ≤ ci . Cette majoration étant vraie pour tout z1 , . . . , zi , on en déduit en composant par Z1 , . . . , Zi : |Xi − Xi−1 | = | IE[Y | Z1 , . . . , Zi ] − IE[Y | Z1 , . . . , Zi−1 ] | ≤ ci . Comme illustration de l’utilisation du théorème 2.15 en analyse d’algorithmes, voici le célèbre problème du “bin-packing”. Des paquets de taille Martingales discrètes 105 aléatoire doivent être rangés dans des boîtes identiques, de taille 1. Chaque paquet a une taille inférieure à 1, de sorte qu’il tient dans une boîte, mais une même boîte peut contenir plusieurs paquets. Trouver le nombre de boîtes minimal qui contienne tous les paquets est un problème difficile. Tout algorithme qui le résout exactement a un temps d’exécution qui croît exponentiellement avec le nombre de paquets. De nombreux algorithmes, plus ou moins rapides, ont été proposés. Un des problèmes du domaine est l’analyse probabiliste de ces algorithmes. Si les tailles des paquets successifs sont des variables aléatoires Z1 , . . . , Zn indépendantes et de même loi, alors le nombre minimal de boîtes, le nombre de boîtes remplies par un algorithme donné, son temps d’exécution, sont des variables aléatoires fonctions de Z1 , . . . , Zn , dont on souhaite étudier la loi. Notons Y le nombre minimal de boîtes. On sait démontrer que son espérance grandit linéairement avec n : lim n→∞ IE[Y ] =b. n Remarquons que modifier la taille d’un seul des paquets peut au pire augmenter ou diminuer de 1 le nombre de boîtes. L’hypothèse du théorème 2.15 est donc vérifiée avec ci = 1. On en déduit : 2t2 . IP[ |Y − IE[Y ]| ≥ t ] ≤ 2 exp − n Le nombre minimal de boîtes √ est donc concentré autour de sa moyenne, avec des déviations de l’ordre de n. Remarquons qu’aucune hypothèse sur la loi de probabilité des tailles de paquets n’a été nécessaire pour obtenir ce résultat. 3 Convergences 3.1 Convergence dans L1 Nous commençons par donner sans demonstration les résultats de convergence les plus généraux, pour des martingales intégrables. Définition 3.1 Soit (Xn ) une suite de variables aléatoires. 1. On dit que (Xn ) est intégrable si pour tout n IE[|Xn |] < ∞. 2. On dit que (Xn ) est bornée dans L1 si supn∈IN IE[|Xn |] < ∞. Voici les conditions suffisantes les plus fréquemment utilisées. Proposition 3.2 Chacune des trois conditions suivantes implique que la suite (Xn ) est bornée dans L1 . 1. (Xn ) est bornée dans L2 : ∃K , IE[Xn2 ] ≤ K , ∀n. 2. (Xn ) est une sous-martingale majorée : ∃K , Xn ≤ K , ∀n. Cahier de Mathématiques Appliquées no 10 106 3. (Xn ) est une sur-martingale minorée : ∃K , Xn ≥ K , ∀n. Une sous-martingale bornée dans L1 converge presque sûrement. Par contre, cela ne suffit pas pour assurer la convergence dans L1 . Théorème 3.3 Soit (Xn ) une sous-martingale ou une sur-martingale, bornée dans L1 . La suite (Xn ) converge presque sûrement vers une variable aléatoire X∞ . Comme exemple, revenons sur le modèle de Galton-Watson (exemple 2). Notons encore µ le nombre moyen de descendants par individu, et Xn la taille de la n-ième génération. Dans le cas où µ < 1, il est intuitivement évident que la population disparaîtra tôt ou tard. La suite (Xn ) est une sur-martingale positive, et le théorème 3.3 s’applique. Donc (Xn ) converge presque sûrement (vers 0). Comme l’espérance de Xn vaut µn , la convergence a lieu aussi dans L1 . Plaçons nous maintenant dans le cas critique, où µ = 1. La suite (Xn ) est une martingale et comme elle est positive, IE[|Xn |] = IE[Xn ] = IE[X0 ]. Elle est donc bornée dans L1 et le théorème 3.3 s’applique encore. La suite (Xn ) converge presque sûrement vers 0, pourtant elle ne converge pas dans L1 . Un autre exemple est celui du rapport de vraisemblance (Rn ) (exemple 5). Le théorème 3.3 entraîne la convergence presque sûre de (Rn ). On démontre que la limite est nulle. Pourtant l’espérance de Rn vaut 1 pour tout n et il n’y a donc pas convergence dans L1 . Pour assurer la convergence dans L1 , il faut imposer une condition plus forte. Définition 3.4 Soit (Xn ) une suite de variables aléatoires. On dit que (Xn ) est uniformément intégrable si pour tout ε il existe K > 0 tel que : sup IE[ |Xn |11]K,+∞[ (Xn ) ] < ε . n∈IN Il est facile de vérifier que si la suite (Xn ) est uniformément intégrable, alors elle est bornée dans L1 . Voici les deux conditions les plus fréquemment utilisées. Proposition 3.5 Chacune des deux conditions suivantes implique que la suite (Xn ) est uniformément intégrable. 1. (Xn ) est bornée dans L2 . 2. (Xn ) est dominée par une variable aléatoire Y d’espérance finie (pour tout n |Xn | < Y ). On démontre qu’une suite converge dans L1 si et seulement si elle converge en probabilité et elle est uniformément intégrable. Ceci entraîne le résultat suivant. Théorème 3.6 Soit (Xn ) une sous-martingale ou une sur-martingale uniformément intégrable. La suite (Xn ) converge presque sûrement et dans L1 vers une variable aléatoire X∞ . Martingales discrètes 3.2 107 Convergence dans L2 Le cas des martingales de carré intégrable est plus facile. Rappelons qu’une martingale (Xn ) est de carré intégrable si l’espérance de Xn2 est finie pour tout n, et qu’elle est bornée dans L2 si ces espérances sont uniformément majorées. Nous avons vu en 2.3 que les accroissements ∆n d’une martingale de carré intégrable sont orthogonaux. De plus le théorème de Pythagore (formule (2.8)) montre que l’espérance du carré de Xn est la somme des espérances des carrés de ses accroissements. Ceci fournit une condition nécessaire et suffisante pour qu’une martingale soit bornée dans L2 . Proposition 3.7 Soit (Xn ) une martingale. Pour n ≥ 1, notons ∆n = Xn − Xn−1 son accroissement. La suite (Xn ) est bornée dans L2 si et seulement si la série des espérances des carrés des accroissements converge. sup IE[Xn2 ] < ∞ ⇐⇒ n∈IN ∞ X IE[∆2n ] < ∞ . n=1 Démonstration : La suite (IE[Xn2 ]) est une suite croissante de réels positifs. Pour tout n ≥ 1 on a : IE[Xn2 ] = IE[X02 ] + IE[∆21 ] + · · · + IE[∆2n ] . A la condition près, la suite (IE[Xn2 ]) est la suite des sommes partielles P initiale 2 de la série IE[∆n ]. D’où le résultat. Une martingale bornée dans L2 converge presque sûrement et dans L2 . Théorème 3.8 Soit (Xn ) une martingale bornée dans L2 . La suite (Xn ) converge presque sûrement vers une variable aléatoire X∞ de carré intégrable et : lim IE[(Xn − X∞ )2 ] = 0 . n→∞ Autrement dit, (Xn ) converge vers X∞ dans L2 . De plus, pour tout n, Xn = IE[X∞ |In ]. Comme premier exemple, considérons une variable aléatoire X, que l’on cherche à prédire par une suite d’informations (In ). Comment la prédiction IE[X | In ] évolue-t-elle lorque n tend vers l’infini ? Nous avons déjà vu que la suite (IE[X | In ]) est une martingale. Par l’inégalité de Jensen on a : IE[(IE[X | In ])2 ] ≤ IE[IE[X 2 | In ] = IE[X 2 ] . La martingale (IE[X | In ]) est bornée dans L2 , donc elle converge presque sûrement vers une variable aléatoire X∞ . Cette limite appartient à l’espace V(I∞ ), des variables aléatoires qui dépendent de la suite (In )n∈IN . Cahier de Mathématiques Appliquées no 10 108 Reprenons maintenant le modèle de Galton-Watson (exemple 2), et voyons dans quels cas le théorème 3.8 s’applique. Nous notons µ et σ 2 l’espérance et la variance du nombre de descendants par individu. Si Xn est le nombre d’individus de la génération n et Yn = Xn /µn sa valeur normalisée, nous avons déjà observé que (Yn ) est une martingale. La loi conditionnelle de Xn sachant “Xn−1 = i” est la loi de la somme de i variables aléatoires indépendantes, chacune de moyenne µ et de variance σ 2 (les descendances des i individus de la génération précédente). La moyenne conditionnelle de Xn2 sachant “Xn−1 = i” est donc iσ 2 + (iµ)2 . On en déduit : Xn−1 2 σ . µ2n 2 IE[Yn2 | In−1 ] = Yn−1 + Ceci permet d’écrire le crochet de la martingale (Yn ) sous la forme suivante : hY in = n X Xk−1 k=1 µ2k σ2 . Son espérance vaut donc : IE[hY in ] = n X µk−1 k=1 µ2k σ2 Cette somme tend vers l’infini pour µ ≤ 1, vers une valeur finie pour µ > 1. Or IE[Yn2 − hY in ] = IE[Y02 ]. On en déduit donc que la martingale (Yn ) est bornée dans L2 si et seulement si µ > 1. Nous appliquons ensuite le théorème 3.8 à des sommes de variables aléatoires indépendantes. Proposition 3.9 Soit (Zn ) une suite de variables aléatoires indépendantes, telles que : IE[Zn ] = µn et V ar[Zn ] = σn2 . Pn P 2 Pour n ≥ 1, posons Xn = i=1 (Zi − µi ). Si σn converge, alors la suite (Xn ) converge presque sûrement et dans L2 vers une variable aléatoire X∞ . Démonstration : Il suffit d’appliquer le théorème 3.8 à la martingale (Xn ). Considérons par exemple une suite (Un ) de variables indépendantes et identiquement distribuées, suivant la loi de Bernoulli de paramètre 12 . Posons Zn = U2nn , de sorte que : IP[Zn = 0] = IP[Zn = 1 1 ]= . n 2 2 P 1 1 Alors IE[Zn ] = µn = 2n+1 et V ar[Zn ] = σn2 = 22n+2 .PLa série (Zn − µn ) converge donc presque sûrement, mais comme la série µn converge aussi, il Martingales discrètes 109 P en est de même de la série Zn . Soit X∞ sa limite. Il n’est pas difficile de se convaincre que X∞ suit la loi uniforme sur l’intervalle [0, 1]. Considérons en effet une variable aléatoire U de loi U(0, 1), et notons (Un ) les coefficients de son développement en base 2, choisis de telle sorte qu’il ne se termine pas par une infinité de 1. Alors les Un sont indépendants et suivent la loi de Bernoulli de paramètre 21 . Par définition : U= ∞ X Un , 2n n=1 de sorte que U et X∞ ont même loi. Le théorème des trois séries de Kolmogorov fournit une condition nécessaire et suffisante pour que des sommes de variables indépendantes convergent presque sûrement. Théorème 3.10 Soit (ZnP ) une suite de variables aléatoires indépendantes. n Pour n ≥ 1, posons Xn = i=1 Zi . La suite (Xn ) converge presque sûrement si et seulement si il exite une constante K > 0 telle que : P 1. IP[|Zn | > K] < ∞, Pn 2. IE[ZnK ] < ∞, Pn K 3. n V ar[Zn ] < ∞, où ZnK = Zn 11[K,+∞[ (Zn ). Considérons pour finir un cas particulier du filtre de Kalman en dimension 1: Xn+1 = aXn + n , (3.16) Yn = Xn + ηn , où a est un réel tel que |a| < 1, et les bruits n et ηn suivent la loi normale N (0, 1). Dans ce cas An , Bn et Cn sont des réels, et les équations du théorème 1.8 donnent : Bn , An = C n = Bn + 1 Bn−1 Bn = a2 +1. Bn−1 + 1 On vérifie que la seconde équation admet comme point fixe attractif la valeur B suivante : √ a2 + a4 + 4 B= . 2 Supposons à présent que l’on démarre l’algorithme dans le passé, à l’instant 1 −k, et que X−k suive la loi normale N (0, 1−a 2 ). Dans ce cas, on peut vérifier 1 1 que les Xn suivent toutes la loi N (0, 1−a2 ), et les Yn la loi N (0, 1−a 2 +1). Ceci permet de considérer une suite infinie (Xn , Yn ), indicée par n ∈ ZZ, vérifiant (3.16), et pour laquelle les Xn et les Yn ont même loi. Faisant démarrer Cahier de Mathématiques Appliquées no 10 110 l’algorithme de Kalman à l’instant −k, au bout de p + 1 itérations on aura obtenu l’espérance conditionnelle de X1 sachant (Y0 , Y−1 , . . . , Y−k ), comme combinaison linéaire de ces variables : IE[X1 | (Y0 , . . . , Y−k )] = k X αi,k Y−i . i=0 D’après ce qui précède, on sait que la suite (IE[X1 | (Y0 , . . . , Y−k )]) converge quand k tend vers l’infini. Il est possible de montrer, en étudiant les coefficients αi,k , que la limite est la suivante. lim IE[X1 | (Y0 , . . . , Y−k )] = k→∞ +∞ X αi Y−i , i=0 avec : αi = aB B+1 a B+1 i . De plus, pour tout n : lim IE[Xn+1 | (Yn , Yn−1 , . . .)] = k→∞ 3.3 +∞ X αi Yn−i . i=0 Théorème de la limite centrale Soit (Zn ) une suite de variables indépendantes et de même Pnloi, d’espérance µ, de variance σ 2 finies. Pour tout n ≥ 0 posons Xn = i=1 (Zi − µ). La loi des grands nombres affirme que (Xn /n) converge presque sûrement √ vers 0 ; le théorème de la limite centrale dit que la variable réduite (Xn / n) converge en loi vers la loi normale N (0, σ 2 ). Or (Xn ) est un cas particulier de martingale (proposition 1.12) : c’est une martingale centrée (IE[Xn ] = 0), dont le compensateur est déterministe : hXin = IE[Xn2 ] = nσ 2 . La loi des grands nombres et le théorème de la limite centrale s’étendent à des martingales qui ne sont pas nécessairement des marches aléatoires. Soit (Xn ) une martingale de carré intégrable, nulle en 0. Pour tout n ≥ 1, posons ∆n = Xn − Xn−1 , de sorte que : Xn = n X ∆k et hXin = k=1 n X IE[∆2k | Ik−1 ] . k=1 Voici d’abord la loi des grands nombres. Théorème 3.11 Si (hXin ) tend vers l’infini presque sûrement, alors : Xn =0 n→∞ hXin lim presque sûrement. Martingales discrètes 111 Dans le cas particulier où les ∆k sont indépendantes et de même loi, (Xn ) est une marche aléatoire, dont le crochet est déterministe : hXin = nσ 2 . On retrouve donc la loi des grands nombres usuelle. Voici maintenant la version la plus simple du théorème de la limite centrale. Théorème 3.12 Soit (Xn ) une martingale centrée, de carré intégrable. On n converge en probabilité vers une constante σ 2 . suppose que hXi n On suppose de plus qu’il existe une constante positive δ telle que : 1 n1+δ n X IE[ |∆k |2(1+δ) | Ik−1 ] tend vers 0 en probabilité . (3.17) k=1 Alors : X √n converge en loi vers la loi normale N (0, σ 2 ) . n Revenons au cas particulier de la marche aléatoire, où les ∆k sont indépendantes et de même loi. La condition (3.17) est vérifiée dès que les ∆k admettent un moment d’ordre supérieur à 2 : si IE[|∆k |2(1+δ) ] = c alors : 1 n1+δ n X k=1 IE[ |∆k |2(1+δ) | Ik−1 ] = nc c = δ . n1+δ n La condition (3.17) n’est pas nécessaire pour le théorème de la limite centrale usuel, pas plus que pour le théorème 3.12. Il existe d’autres conditions suffisantes, moins contraignantes mais d’utilisation plus délicate. Pour de nombreuses martingales, le crochet n’est pas asymptotiquement équivalent à nσ 2 . Il est fréquent que pour une certaine suite de réels positifs (sn ), n le rapport hXi sn converge en probabilité vers une variable aléatoire positive Γ. Si c’est le cas, il est possible d’obtenir la convergence en loi de √Xsnn . Pour com√ prendre le passage de sn à sn , rappelons d’abord que IE[hXin ] = IE[Xn2 ]. Revenons ensuite à l’inégalité de Lenglart (proposition 2.13). On en déduit immédiatement que pour tout n : |Xn | hXin s IP √ ≥ t ≤ 2 + IP ≥s . sn t sn Cependant, la limite en loi de √Xsnn ne sera pas nécessairement gaussienne. Ce sera une loi mélange en variance de lois gaussiennes. Définition 3.13 On dit qu’une variable aléatoire X a√une loi mélange en variance de lois gaussiennes si l’on peut écrire X = Z Γ, où Z et Γ sont indépendantes, Z suit la loi N (0, 1) et Γ est une variable aléatoire à valeurs positives. Cahier de Mathématiques Appliquées no 10 112 Avec la définition ci-dessus, on vérifie que la fonction caractéristique de X est : 2 u ϕ(u) = IE exp − Γ , 2 ce qui caractérise d’une autre manière une loi mélange en variance de lois gaussiennes. Dans le cas particulier où Γ prend les valeurs σ12 , . . . , σk2 avec les probabilités p1 , . . . , pk , la densité de X est : f (x) = k X i=1 x2 p √i exp(− 2 ) . 2σi σi 2π Si Γ admet pour densité fΓ (γ), la densité de X est : Z f (x) = 0 +∞ √ 1 x2 exp(− ) fΓ (γ) dγ . 2γ 2πγ Une telle loi peut être très différente d’une loi gaussienne. Voici une version plus générale du théorème de la limite centrale pour les martingales. Théorème 3.14 Soit (Xn ) une martingale centrée, de carré intégrable, et n (sn ) une suite de réels strictement positifs. On suppose que hXi sn converge en probabilité vers une variable aléatoire positive Γ. On suppose de plus qu’il existe une constante positive δ telle que : Alors : 1 n X s1+δ n k=1 IE[ |∆k |2(1+δ) | Ik−1 ] tend vers 0 en probabilité . (3.18) Xn √ converge en loi, sn vers un mélange en variance de lois gaussiennes, de fonction caractéristique 2 ϕ(u) = IE[exp(− u2 Γ)]. Bien sûr, si sn = n et si la limite Γ est constante et égale à σ 2 , on retrouve le théorème 3.12. Martingales discrètes 4 113 Exercices Exercice 1 Deux joueurs jouent à un jeu équitable. On note Rn le résultat de la n-ième partie pour le premier joueur. Les Rn sont indépendants et : IP[Rn = +1] = IP[Rn = −1] = 1 . 2 On note In le n-uplet des résultats des n premières parties, et Xn la fortune du premier joueur après la n-ième partie. Sa fortune initiale est fixée : X0 = a. Pour tout n ≥ 1, on a donc : Xn = a + R1 + · · · + Rn . Le second joueur a une fortune initiale fixée à b et la partie se termine par la ruine de l’un des deux joueurs. On définit donc : T = min{n , Xn = 0 ou Xn = a + b} . Le but de l’exercice est d’étudier la loi de T . 1. Montrer que (Xn ) est une martingale et que T est un temps d’arrêt, relativement à (In ). 2. Montrer que : IP[T > n] ≤ IP[0 < Xn < a + b] . Déduire du théorème de la limite centrale que IP[T > n] tend vers 0, puis que T est fini. 3. Déduire du théorème d’arrêt 1.16 que : IP[XT = 0] = b a+b et IP[XT = a + b] = a . a+b 4. Montrer que (Xn ) est une martingale. Calculer hXin . En déduire que (Xn2 − n) est une martingale. Déduire du théorème 2.8 que IE[XT2 ] − IE[T ] = a2 . Conclure que IE[T ] = ab. 5. Observons que pour tout réel λ : IE[eλRn ] = eλ + e−λ = cosh(λ) . 2 Pour tout n ≥ 0, on pose : Yn (λ) = exp(λXn )(cosh(λ))−n . Montrer que (Yn (λ)) est une martingale. 6. Déduire du théorème d’arrêt 1.16 que : IE[(cosh(λ))−T (110 (XT ) + eλ(a+b) 11a+b (XT ))] = eλa . Cahier de Mathématiques Appliquées no 10 114 7. En utilisant la martingale (Yn (−λ)), montrer que : IE[(cosh(λ))−T (110 (XT ) + e−λ(a+b) 11a+b (XT ))] = e−λa . 8. En remarquant que 110 (XT ) + 11a+b (XT ) = 1, montrer que : IE[(cosh(λ))−T ] = sinh(λa) + sinh(λb) . sinh(λ(a + b)) (4.19) 9. Pour tout λ ≥ 0, on pose : z= 1 , cosh(λ) de sorte que : IE[(cosh(λ))−T ] = IE[z T ] = g(z) . La fonction g est la fonction génératrice de T : g(z) = ∞ X z n IP[T = n] . n=1 0 On rappelle que g (1) = IE[T ]. Retrouver le résultat de la question 4 à l’aide de (4.19). 10. Pour a = b = 1, vérifier que g(z) = z : pourquoi ? 11. Pour a = 2, b = 1, vérifier que : g(z) = z , 2−z donc que T suit la loi géométrique de paramètre 12 . Simuler 10000 jeux jusqu’à la ruine d’un des deux joueurs. Estimer IP[T = n] pour n = 1, 2, 3, 4, 5, et comparer avec le résultat théorique. 12. Pour a = b = 2, vérifier que : g(z) = z2 , 2 − z2 donc que T /2 suit la loi géométrique de paramètre 21 . Simuler 10000 jeux jusqu’à la ruine d’un des deux joueurs. Estimer IP[T = n] pour n = 2, 4, 6, 8, 10, et comparer avec le résultat théorique. 13. Pour a = 3, b = 1, vérifier que : g(z) = z , 2 − z2 donc que (T + 1)/2 suit la loi géométrique de paramètre 12 . Simuler 10000 jeux jusqu’à la ruine d’un des deux joueurs. Estimer IP[T = n] pour n = 1, 3, 5, 7, 9, et comparer avec le résultat théorique. Martingales discrètes 115 Exercice 2 Trois joueurs jouent à un jeu équitable : chacun a la même probabilité 13 de gagner. A chaque partie il y a un gagnant, qui reçoit +2. Les deux autres perdent −1 chacun. On note In le n-uplet des résultats des n premières parties, et Xn , Yn , Zn les fortunes respectives des trois joueurs à l’issue des n premières parties. Les fortunes initiales sont fixées : X0 = a, Y0 = b, Z0 = c. Chacune des trois est supérieure ou égale à 1. On note s = a + b + c la fortune totale, qui reste constante au cours du jeu. 1. Montrer que (Xn ), (Yn ) et (Zn ) sont des martingales relativement à (In ). 2 2. Exprimer IE[Xn+1 | In ] en fonction de Xn2 . Vérifier que (Xn2 ) est une sous-martingale et calculer hXin . 3. Exprimer IE[Xn+1 Yn+1 | In ] en fonction de Xn Yn . En déduire que (Xn Yn ) est une sur-martingale. Quel est son compensateur ? 4. Exprimer IE[Xn+1 Yn+1 Zn+1 | In ] en fonction de Xn Yn Zn . En déduire que (Xn Yn Zn ) est une sur-martingale. Quel est son compensateur ? 5. On note Πn = Xn Yn Zn +n(s−2). Montrer que (Πn ) est une martingale. 6. On note T le premier instant de ruine de l’un des joueurs : T = inf{n ≥ 1 , Xn Yn Zn = 0} . Montrer que T est un temps d’arrêt fini. 7. Déduire du théorème d’arrêt 1.16 que IE[T ] = abc/(s−2). Que se passet-il dans le cas particulier a = b = c = 1 ? 8. Simuler 10000 jeux, en partant de fortunes initiales a = b = c = 3, puis a = 2, b = 3, c = 4, jusqu’au temps T . Estimer l’espérance de T et comparer avec le résultat théorique. Estimer aussi la probabilité que chacun des joueurs a de ne pas être ruiné au temps T ainsi que la probabilité que deux joueurs soient ruinés simultanément au temps T . 9. Au temps T, si deux joueurs sont ruinés, le jeu se termine par la victoire du troisième. Mais si deux joueurs restent en lice, ils continuent à jouer. A chaque nouvelle partie, chacun a probabilité 12 de gagner +1, ou de perdre −1. Montrer qu’avec ces nouvelles règles (Xn ), (Yn ) et (Zn ) restent des martingales. 10. Le jeu se termine au premier instant où la fortune de l’un des joueurs vaut s, les deux autres étant nulles. Montrer que cet instant est un temps d’arrêt fini. Montrer que la probabilité que chaque joueur gagne est proportionnelle à sa fortune initiale. 11. Simuler 10000 jeux, en partant de fortunes initiales a = b = c = 3, puis a = 2, b = 3, c = 4, jusqu’à la victoire d’un des joueurs. Estimer la probabilité de gain de chacun des joueurs et comparer avec le résultat théorique. Estimer la durée moyenne du jeu. Cahier de Mathématiques Appliquées no 10 116 12. Généraliser pour un jeu équitable à k joueurs : initialement chaque joueur a probabilité k1 de gagner +(k−1), les autres de perdre −1 chacun. Dès que la fortune d’un joueur est nulle, il sort du jeu, et les autres continuent, toujours en jouant des parties équitables. Le jeu s’arrête quand tous les joueurs sauf un sont ruinés. Montrer que la probabilité que chacun a de gagner est proportionnelle à sa fortune initiale. 13. Simuler 10000 jeux à 5 joueurs, partant de fortunes initiales 2, 3, 4, 5, 6. Estimer la probabilité que chacun a de gagner ainsi que la durée moyenne du jeu. Exercice 3 On souhaite étudier l’instant d’apparition d’une séquence binaire donnée à l’intérieur d’une suite de tirages de 0 ou 1. Dans ce qui suit (n )n≥1 désigne une suite de variables aléatoires indépendantes identiquement distribuées, suivant la loi de Bernoulli de paramètre 1/2. ∀n ≥ 1 , IP[n = 0] = IP[n = 1] = 1 . 2 On note In = (1 , . . . , n ). On se donne un mot binaire A = (ai )1≤i≤` , où ai ∈ {0, 1}. Juste avant chaque instant n, un nouveau joueur arrive, et parie 1 que n sera égal à a1 . S’il gagne, la banque lui verse 2, et il parie 2 sur le fait que n+1 sera a2 . Il continue tant qu’il gagne : à son k-ième essai, il parie 2k−1 que n+k−1 sera ak , et reçoit 2k en cas de succès. Il quitte le jeu dès qu’il perd, ou s’il a gagné ` fois (le mot A est sorti en entier). 1. On note Xk la fortune d’un des joueurs juste avant sa k-ième partie : Xk = 2k−1 s’il a gagné k−1 fois, Xk = 0 s’il a déjà perdu. Montrer que (Xk ) est une martingale. Quelle est loi du nombre de parties jouées par ce joueur ? 2. On note Sn la fortune de la banque à l’instant n. Montrer que (Sn ) est une martingale relativement à (In ). 3. On définit l’instant d’apparition du mot A dans la suite (n ), noté T par : T = inf{n , (n−`+1 , . . . , n ) = A} . Montrer que T est un temps d’arrêt relativement à (In ). 4. On définit le mot binaire (r1 , . . . , r` ), qui compte les auto-recouvrements partiels de A, de la façon suivante. Pour tout k = 1, . . . , `, rk = 1 si (a1 , . . . , a`−k+1 ) = (ak , . . . , a` ) = 0 sinon . Montrer que si rk = 1, alors le joueur arrivé en T − ` + k sera encore en lice à l’instant T et que la banque devra lui verser 2`−k+1 . Si rk = 0, alors le joueur arrivé en T − ` + k sera sorti du jeu à l’instant T . Martingales discrètes 117 5. On suppose que S0 = 0. Montrer que IE[ST ] = 0. En déduire : IE[T ] = ` X rk 2`−k+1 . k=1 6. Pour chacun des 16 mots binaires de longueur 4, calculer IE[T ]. Simuler 10000 suites (n ) indépendantes, jusqu’au temps T . Estimer l’espérance et la variance de T . 7. On considère une suite aléatoire de lettres dans l’alphabet {A, C, G, T } : les lettres sont indépendantes, et chacune a une probabilité 14 d’apparaître. Généraliser la technique des questions précédentes pour montrer que l’instant moyen d’apparition du mot (A, G, A, G, A) dans la suite est 45 + 43 + 4. Simuler 1000 suites jusqu’à la première apparition de ce mot. Estimer le temps moyen d’apparition, et comparer avec le résultat théorique. Exercice 4 En génétique, le modèle de Moran considère des générations successives, pour lesquelles le nombre de mâles est fixé à N1 et le nombre de femelles à N2 . Le gène d’intérêt est g. Pour chaque individu, il peut apparaître sur un chromosome paternel, ou sur le chromosome maternel de la même paire. L’état de la population à la n-ième génération est décrit par un vecteur à 6 coordonnées entières : Rn = (Mn(0) , Mn(1) , Mn(2) , Fn(0) , Fn(1) , Fn(2) ) . (k) (k) Dans ce vecteur, pour k = 0, 1, 2, Mn (respectivement Fn ) est le nombre de mâles (respectivement de femelles) ayant k copies du gène g dans leur génotype. On note In = (R0 , . . . , Rn ). Les fréquences d’apparition du gène g parmi les mâles et les femelles de la génération n sont notées respectivement (f ) (m) Xn et Xn . (1) Xn(m) = (2) Mn + 2Mn 2N1 (1) et Xn(f ) = (2) Mn + 2Mn 2N2 . (4.20) Pour constituer la génération suivante, on suppose que les gamètes mâles et femelles sont appariés au hasard, selon le schéma dit “multinomial”. Chacun des N1 mâles et chacune des N2 femelles de la génération n + 1 choisit au hasard un gène paternel parmi les 2N1 présents à la génération n, et un gène maternel parmi les 2N2 possibles. 1. Les probabilités pour un individu de la génération n+1 d’avoir 0, 1 ou 2 (2) (1) (0) copies du gène g sont notées Pn , Pn et Pn respectivement. Montrer que : (0) (m) (f ) Pn = (1 − Xn )(1 − Xn ) , (1) (m) (f ) (m) (f ) Pn = Xn (1 − Xn ) + (1 − Xn )Xn , (2) (m) (f ) Pn = Xn Xn . Cahier de Mathématiques Appliquées no 10 118 2. Montrer que : (m) (f ) IE[Xn+1 | In ] = IE[Xn+1 | In ] = 1 (m) (X + Xn(f ) ) . 2 n 3. On pose : 1 (m) (X + Xn(f ) ) . 2 n Montrer que (Xn ) est une martingale relativement à (In ). 4. On note T le premier instant où le gène g disparaît ou bien envahit toute la population : Xn = T = inf{n , Xn = 0 ou 1} . Montrer que T est un temps d’arrêt relativement à (In ). 5. On fixe la proportion initiale : X0 = x0 . Montrer que IE[XT ] = x0 . En déduire : IP[XT = 1] = x0 . 6. Simuler 1000 fois selon ce modèle l’évolution d’une population partant de : R0 = (2, 3, 1, 3, 2, 5) . Estimer IP[XT = 1] et comparer avec le résultat théorique. Estimer l’espérance et la variance de T . Exercice 5 Dans une famille, chaque nouvel enfant est une fille avec probabilité pF ou un garçon avec probabilité pG = 1 − pF . Les naissances sont supposées indépendantes. On note In ∈ {F, G}n le n-uplet des sexes des n premiers enfants, Fn le nombre de filles parmi ceux-ci, Gn = n−Fn le nombre de garçons, et Dn = Fn − Gn la différence entre les deux. 1. Calculer IE[Dn+1 | In ]. Montrer que (Dn ) est une sous-martingale si pF ≥ pG , une sur-martingale si pF ≤ pG . Montrer que (Dn −n(pF −pG )) est une martingale. 2. Dans un certain pays, les parents préfèrent les garçons aux filles, mais les lois interdisent d’avoir plus de 4 enfants. Les fratries s’arrêtent donc au premier garçon, s’il arrive avant le quatrième enfant. Le nombre d’enfants d’une famille est : T = inf 4 , {n , Gn = 1} . Montrer que T est un temps d’arrêt relativement à la suite d’informations (In ). Montrer que IE[DT ] = IE[T ](pF − pG ). En déduire que : pF IE[FT ] = . IE[GT ] pG Dans ce pays, quelle est la proportion de filles parmi les enfants ? Martingales discrètes 119 3. Déterminer la loi de T . 4. Dans un second pays, le nombre S d’enfants par famille est indépendant du sexe des premiers nés. Montrer que IE[DS ] = IE[S](pF − pG ). Dans ce pays, quelle est la proportion moyenne de filles parmi les enfants ? 5. On suppose pF = pG = 21 . Simuler 10000 familles du le premier pays. Estimer l’espérance et la variance du nombre d’enfants par famille ainsi que la proportion de filles. Comparer avec les résultats théoriques. 6. Simuler 10000 familles du second pays. On suppose toujours pF = pG = 1 2 . La loi de S est donnée dans le tableau suivant. i 1 2 3 4 IP[S = i] 12 14 81 18 Estimer la proportion de filles. Exercice 6 Urnes de Polya Une urne contient initialement une boule noire et une rouge. Nous allons envisager successivement deux règles d’évolution. • Règle no 1 : On tire au hasard une des deux boules. Si elle est noire, on la remet dans l’urne et on ajoute une boule noire ; sinon, on la remet et on ajoute une rouge. On continue, en tirant à chaque instant une boule au hasard avec remise, et en rajoutant une boule de la même couleur. • Règle no 2 : On tire au hasard une des deux boules. Si elle est noire, on la remet dans l’urne et on ajoute une boule rouge ; sinon, on la remet et on ajoute une noire. On continue, en tirant à chaque instant une boule au hasard avec remise, et en rajoutant une boule de couleur différente. On note Xn le nombre de boules noires après le n-ième tirage (X0 = 1). Comme le nombre total de boules après le n-ième tirage est n+2, la proportion de boules noires est : Xn Yn = . n+2 On note In = (R1 , . . . , Rn ) le vecteur des n premières couleurs de boules tirées, où Ri ∈ {Noir, Rouge} représente le résultat du i-ième tirage. Règle no 1 : 1. Observer que IP[Rn+1 = Noir | In ] = Yn . Calculer IE[Xn+1 | In ]. En déduire que Xn est une sous-martingale et que Yn est une martingale. 2. Montrer que le compensateur (An ) de (Xn ) est tel que : An = n−1 X Yk . k=0 Soit (Mn ) la martingale associée à (Xn ) par la décomposition de Doob. Montrer que Mn+1 − Mn est toujours compris entre −1 et 1. Cahier de Mathématiques Appliquées no 10 120 3. Calculer IE[(Mn+1 − Mn )2 | In ] (on observera que (Xn+1 − Xn )2 = Xn+1 − Xn ). En déduire que : hM in = n−1 X Yk (1 − Yk ) . k=1 4. Montrer que Yn converge presque sûrement ainsi que dans L1 et L2 vers une variable aléatoire, que l’on notera Y∞ . 5. Vérifier par récurrence que pour tout k = 1, . . . , n + 1 : IP[Xn = k] = 1 . n+1 En déduire que Y∞ suit la loi uniforme sur [0, 1]. 6. Simuler 100 urnes jusqu’au temps 10000. Représenter sur un même graphique les 100 trajectoires obtenues pour (Yn ) , n = 0, . . . , 10000. 7. Simuler 10000 urnes, jusqu’au temps n = 100. Pour n = 10, 50, 100, représenter graphiquement les fonctions de répartition empiriques des 10000 valeurs de Yn ainsi obtenues, et comparer avec la fonction de répartition de la loi uniforme sur [0, 1]. 8. Montrer que : n−1 X IE[Mn2 ] = IE[Yk (1 − Yk )2 ] . k=0 En déduire que : 1 IE[Mn2 ] = . n→∞ n 6 9. On note Γn la variable aléatoire : lim hM in . n Montrer que (Γn ) converge presque sûrement vers une variable aléatoire Γ, à valeurs dans [0, 41 ]. Déterminer la densité de Γ. 10. Déduire du théorème de la limite centrale 3.14 que : Γn = Mn √ converge en loi, n vers un mélange en variance de lois gaussiennes, de fonction caractéris2 tique ϕ(u) = IE[exp(− u2 Γ)]. 11. Simuler 10000 urnes, jusqu’au temps n = 200, en calculant les valeurs de Mn et hM in . Représenter un histogramme des valeurs de hM in /n, en le superposant à la densité de Γ. Simuler un échantillon de taille 10000 de la loi mélange en variance de lois gaussiennes, de fonction caracté2 ristique ϕ(u) = IE[exp(− u2 Γ)]. Superposer sur un même graphique les fonctions de répartition empiriques de cet échantillon d’une part, et des √ valeurs de hM in / n d’autre part. Martingales discrètes 121 Règle no 2 : 1. Calculer IE[Xn+1 | In ]. En déduire que Xn est une sous-martingale. 2. Montrer que le compensateur (An ) de (Xn ) est défini par : An = n − n−1 X Yk . k=0 3. Calculer IE(Mn+1 − Mn )2 | In ]. En déduire que : n−1 X hM in = Yk (1 − Yk ) . k=1 4. Montrer que Yn converge presque sûrement, ainsi que dans L2 et L1 . On admettra que la limite est la constante 21 . 5. Simuler 100 urnes jusqu’au temps 10000. Représenter sur un même graphique les 100 trajectoires obtenues pour (Yn ) , n = 0, . . . , 10000. 6. Montrer que, presque sûrement : lim n→∞ hM in 1 = . n 4 7. En déduire que : Mn √ converge en loi vers la loi N (0, 41 ). n 8. Simuler 10000 urnes, jusqu’au temps n = 200, en calculant les valeurs de hM in . Superposer sur un même graphique la fonction de répartition empirique de cet échantillon d’une part, et la fonction de répartition de la loi N (0, 14 ) d’autre part. Exercice 7 Soit b un entier supérieur ou égal à 2 et (Xn ) une suite de variables aléatoires indépendantes et de même loi. On pose : Sn = n X Xi i=0 bi . 1. On suppose que les Xn sont bornées : |Xn | < K. Montrer que la suite (Sn ) converge. On note S sa limite. Montrer que : |S − Sn | ≤ K 1 . b − 1 bn 2. Pour b = 2, on suppose que la loi des Xn est la loi de Bernoulli B(1, p). Calculer la plus petite valeur de n telle que |S − Sn | ≤ 10−3 . Cahier de Mathématiques Appliquées no 10 122 3. Pour la valeur de n trouvée à la question précédente, et p = 0.2, puis p = 0.8, simuler un échantillon de taille 10000 de Sn . Représenter graphiquement un histogramme à 32 classes d’amplitudes égales, ainsi que la fonction de répartition empirique de l’échantillon. 4. Soient X et Y deux variables aléatoires indépendantes et de même loi que Sn . Simuler un échantillon de taille 1000 du couple (X, Y ) et représenter par des points dans le plan les 1000 couples obtenus. 5. Pour b quelconque, on suppose que Xn suit la loi uniforme sur {0, . . . , b− 1}. Montrer que la loi de S est la loi uniforme sur l’intervalle [0, 1]. 6. Pour b = 3, on suppose que les Xn sont à valeurs dans {0, 1, 2}, avec : IP[Xn = 0] = 0.1 , IP[Xn = 1] = 0.3 , IP[Xn = 2] = 0.6 . Reprendre les questions 2, 3 et 4. 7. Recommencer les simulations avec : IP[Xn = 0] = 0.2 , IP[Xn = 1] = 0.6 , IP[Xn = 1] = 0.2 . Exercice 8 On considère le problème de filtrage en dimension 1 suivant. Xn+1 = aXn + n , Yn = Xn + ηn , où a est un réel, et les bruits n et ηn suivent la loi normale N (0, 1) (les suites (n ) et (ηn ) sont deux suites indépendantes de variables aléatoires indépendantes). L’initialisation X0 suit la loi normale N (0, σ 2 ) et est indépendante des suites (n ) et (ηn ). On note : Ien = (X0 , 1 , . . . , n ) et In = (Y0 , . . . , Yn ) . 1. Montrer que pour tout n : Xn = an X0 + an−1 1 + an−2 2 + . . . + n . (a) On suppose |a| > 1. Montrer que (Xn /an ) est une martingale relativement à (Ien ), uniformément bornée dans L2 . En déduire qu’elle converge presque sûrement et dans L2 vers une variable aléatoire Z dont on déterminera la loi. (b) On suppose |a| < 1. Quelle est la loi de Xn ? Montrer que (Xn ) 1 converge en loi vers la loi normale N (0, 1−a 2 ). On pose : Xn0 = 1 + a2 + · · · + an−1 n . Montrer que (Xn0 ) est une martingale relativement à (Ien ), uniformément bornée dans L2 . En déduire qu’elle converge presque sûrement et dans L2 vers une variable aléatoire Z 0 dont on déterminera la loi. Martingales discrètes 123 2. On suppose |a| < 1. Montrer que les suites (An ), (Bn ) et (Cn ) du théorème 1.8 convergent et calculer leurs limites A, B et C, en fonction de a. Pour a = 0.5 puis a = 0.7, calculer leurs valeurs numériques pour n ≤ 10 et comparer avec la valeur limite. 3. On suppose désormais |a| < 1 et σ 2 = 1 1−a2 . Quelle est la loi de Xn ? bn+1,n la prédiction à l’instant n. Montrer que pour tout n, X bn+1,n 4. Soit X est combinaison linéaire des Yi . On notera : bn+1,n = X n X βi,n Yn−i . i=0 5. Pour a = 0.5, puis a = 0.7, calculer numériquement les coefficients βi,n pour n = 10. Comparer les résultats obtenus à la suite (αi ) définie par : αi = aB B+1 où : B= a2 + a B+1 i , √ a4 + 4 . 2 6. Simuler 10000 trajectoires de (Xn ) et (Yn ) jusqu’au temps n = 10. Pour chaque trajectoire, calculer la valeur filtrée et la valeur prédite finales, ainsi que les différences : bn,n−1 Xn − X bn,n . et Xn − X Estimer la variance de chacune de ces deux différences, et comparer aux valeurs limites B et C. 7. Pour chacune des trajectoires de la simulation précédente, calculer la valeur de Zn , définie par : Zn = n−1 X αi Yn−1−i . i=0 bn,n−1 . Comparer les valeurs de Zn et X Exercice 9 Soit X une variable aléatoire de loi N (0, σ 2 ). Soit (ηn ) une suite, indépendante de X, de variables aléatoires indépendantes et de même loi N (0, 1). On se donne une suite (cn ) de réels. Pour tout n ∈ IN, on note : Yn = X + cn ηn . Les Yn seront interprétés comme des observations bruitées successives de X. bn = IE[X|In ]. On note In = (Y0 , . . . , Yn ) et X Cahier de Mathématiques Appliquées no 10 124 bn ) est une martingale relativement à In , et 1. Montrer que la suite (X 2 b ] ≤ σ 2 . En déduire que (X bn ) converge presque que pour tout n, IE[X n sûrement et dans L2 vers une variable aléatoire que l’on notera X∞ . 2. Montrer que pour tout n, le vecteur (X, Y0 , . . . , Yn ) est gaussien. En bn est combinaison linéaire de Y0 , . . . , Yn . On note vn = déduire que X bn )2 ]. IE[(X − X b0 et v0 . 3. Calculer X 4. Soit (Z, T ) un couple gaussien tel que Z suit la loi N (µ, u) et la loi conditionnelle de T sachant “Z = z” est la loi N (z, w). Soit Zb = IE[Z|T ] b 2 ]. Montrer que : et v = IE[(Z − Z) 1 1 1 = + v u w et b Z µ T = + . v u w et bn bn−1 X X Yn = + 2 . vn vn−1 cn 5. En déduire : 1 1 1 = + 2 vn vn−1 cn On considèrera un couple (Z, T ) dont la loi est la loi conditionnelle de (X, Yn ) sachant “In−1 = (y0 , . . . , yn−1 )”. 6. Montrer que : vn = σ −2 + n X !−1 c−2 n . i=0 En déduire que X∞ = X si et seulement si la série P c−2 n diverge. 7. Montrer que pour tout n ≥ 0 : n X bn X Yi . = vn c2 i=0 i 8. On pose cn ≡ 1. Retrouver les résultats de la question 5 comme cas particulier du théorème 1.8. Pour σ 2 = 1, simuler une valeur de X. Simuler 100 trajectoires indépendantes de (ηn ) pour n allant de 0 à bn , calculer 1000. Pour chaque instant n, calculer les 100 valeurs de X − X la moyenne et la variance de ces 100 valeurs. Représenter graphiquement ces moyennes et ces variances en fonction de n. √ 9. Recommencer la simulation pour cn = n + 1. P −2 10. On suppose désormais que la série cn converge et on note s sa bn somme. Montrer que ( X ) converge presque sûrement et dans L2 vers vn une variable aléatoire suivant la loi normale N (0, σ 2 s2 + s). 11. Montrer que (vn ) converge vers (σ −2 + s)−1 . En déduire la loi de X∞ . Martingales discrètes 125 2 12. On pose cn = n + 1 (donc s = π6 ). Simuler 1000 fois le vecteur (X, Y0 , . . . , Yn ), pour n ≤ 100. Pour chaque instant n, estimer la vabn et X − X bn et comparer avec les valeurs théoriques. riance de X Exercice 10 Algorithme de Robbins-Monro Cet algorithme permet de trouver un zéro d’une fonction, même si celleci n’est connue qu’imparfaitement. Il fonctionne sous des hypothèses plus générales que celles que nous utilisons ici. Soit f une fonction bornée de IR dans IR. On suppose qu’il existe un unique réel x∗ tel que f (x∗ ) = 0, et que pour tout δ > 0 : inf{(x − x∗ )f (x) , x tel que |x − x∗ | > δ} > 0. Les évaluations successives de f seront bruitées par une suite (n ) de variables aléatoires indépendantes, d’espérances nulles, et uniformément bornées. L’initialisation X0 est indépendante de la suite (n ) des bruits. On note In le vecteur (X0 , 1 , . . . , n ). On choisit une suite décroissante (γn ) de réels strictement positifs, vérifiant : ∞ ∞ X X γn = ∞ et γn2 = s < ∞ . n=0 n=0 On définit une suite de variables aléatoires (Xn ) par l’initialisation X0 et pour n ≥ 0 : Xn+1 = Xn − γn (f (Xn ) + n+1 ) . Le but de l’exercice est de montrer que la suite (Xn ) converge presque sûrement et dans L2 vers la constante x∗ . 1. Montrer que : IE[(Xn+1 − x∗ )2 | In ] = (Xn − x∗ )2 − 2γn (Xn − x∗ )f (Xn ) +γn2 IE[(f (Xn ) + n+1 )2 | In ] . 2. Soit B un majorant de (f (x) + n )2 . Pour tout n ≥ 0, on pose : Zn = (Xn − x∗ )2 + sB n−1 X γk2 IE[(f (Xk ) + k+1 )2 | Ik ] . k=0 Montrer que (Zn ) est une sur-martingale positive. En déduire que (Zn ) converge presque sûrement. 3. En déduire que (Xn ) converge presque sûrement. On note X∞ sa limite. 4. On pose M0 = 0 et pour n ≥ 1 : Mn = 2 n−1 X γk (Xk − x∗ )k+1 . k=0 Montrer que (Mn ) est une martingale. Cahier de Mathématiques Appliquées no 10 126 5. Montrer par récurrence que pour tout n ≥ 1 : (Xn − x∗ )2 ≤ (X0 − x∗ )2 − Mn + n−1 X γk2 (f (Xk ) + k+1 )2 k=0 En déduire que : IE[(Xn − x∗ )2 ] ≤ IE[(X0 − x∗ )2 ] + sB . 6. Montrer que : n−1 X γk (Xk − x∗ )f (Xk ) ≥ 0 , k=0 et : IE "n−1 X # ∗ γk (Xk − x )f (Xk ) ≤ IE[(X0 − x∗ )2 ] + sB . k=0 En déduire que la série de terme général γn (Xn − x∗ )f (Xn ) converge presque sûrement. 7. En déduire que pour tout δ > 0, la probabilité que |X∞ − x∗ | soit supérieur à δ est nulle, donc que (Xn ) converge presque sûrement vers x∗ . 8. On pose f (x) = arctan(x) − 1 (x∗ ' 1.5574). On supposera que les n suivent la loi uniforme sur [− 21 , 12 ]. Simuler 100 trajectoires de (Xn ), partant toutes de X0 = 1, jusqu’en n = 10000. Représenter graphiquement ces trajectoires. Estimer l’espérance et la variance de Xn à chaque instant. Représenter graphiquement ces estimations en fonction du temps. 9. Reprendre la question précédente pour des perturbations n suivant la 1 1 loi uniforme sur [− 20 , 20 ]. Index accroissement de martingale, 97 adaptée, 70, 82, 95 Azuma, 102 Bernoulli, 69, 103 compensateur, 96 convergence dans L1 , 105 dans L2 , 106 presque sûre, 105, 106 convexe, 93 crochet, 98 décomposition de Doob, 95 Doob, 95, 101 erreur quadratique, 68 espérance conditionnelle, 67, 72 filtrage, 72, 76 filtre de Kalman, 71, 108, 121 Fisher, 85, 100 fonction caractéristique, 111 convexe, 93 Galton-Watson, 87, 105 Hoeffding, 103 inégalité d’Azuma, 102 de Bienaymé-Chebyshev, 101 de Doob, 101 de Hoeffding, 103 de Jensen, 94 de Lenglart, 102 de Markov, 101 de McDiarmid, 103 information, 70, 76 de Fisher, 100 de Kullback, 97 propre, 80 Jensen, 94 jeu équitable, 78, 83 Kalman, 73, 108, 121 Kolmogorov, 108 Kullback, 97 Lenglart, 102 loi conditionnelle, 67 loi des grands nombres, 110 loi mélange, 111 marche aléatoire, 79, 84, 95–97, 99 marché viable, 89 martingale, 77, 86, 88, 89, 94 sous-, 78, 87, 88, 94, 95 sur-, 78, 88 matrice de covariance, 72, 75 McDiarmid, 103 modèle de file d’attente, 88, 96 de Fisher-Wright, 85, 98 de Galton-Watson, 87, 105 de marché financier, 88 de Moran, 116 du bin-packing, 104 mouvement brownien, 79 moyenne conditionnelle, 67, 87 option européenne, 90 Polya, 118 portefeuille, 90 prédiction, 67, 70, 72, 76, 77 prévisible, 70, 90, 95, 98 projection orthogonale, 69, 75 rapport de vraisemblance, 91, 94, 96 régression linéaire, 72 Robbins-Monro, 124 série aléatoire, 108, 120 127 128 Cahier de Mathématiques Appliquées no 10 sous-martingale, 78, 87, 88, 94, 95 stratégie, 81, 89 autofinancée, 90 d’investissement, 90 de couverture, 91 suite adaptée, 70, 71, 81, 82, 95 bornée dans L1 , 105 bornée dans L2 , 105, 106 prévisible, 70, 81, 90, 95, 98 uniformément intégrable, 106 sur-martingale, 78, 88 temps d’arrêt, 81 théorème d’arrêt, 83 de Kalman, 73 de la limite centrale, 111 de Pythagore, 98 de Wald, 84, 98 des trois séries, 108 urne de Polya, 118 variation quadratique, 98 vecteur gaussien, 72 vraisemblance, 91, 94, 99 Wald, 84, 98 Wright, 85