Martingales discrètes

Transcription

Martingales discrètes
65
Cahier de Mathématiques Appliquées no 10
Martingales discrètes
V. Genon-Catalot et B. Ycart
La théorie des martingales est à la base de l’explosion récente des mathématiques financières, pour ne citer que la plus célèbre de ses applications.
Malheureusement elle ne peut se comprendre à fond que dans un cadre théorique plus avancé que celui de cette collection : la théorie de la mesure. Nous
resterons ici à un niveau élémentaire, en insistant plus sur les modèles et les
applications que sur les développements théoriques. Ceci conduit à des imprécisions inévitables que le lecteur curieux lèvera en se reportant aux ouvrages
suivants, dont nous nous sommes inspirés.
L. Breiman Probability.
Addison-Wesley, Reading, 1968.
J. Neveu Martingales à temps discret.
Masson, Paris, 1972.
D. Williams Probability with martingales.
Cambridge University Press, 1991.
Ce “cahier de mathématiques appliquées” doit beaucoup aux conseils de
Philippe Chassaing et Brigitte Chauvin, au dynamisme de Sylvie SevestreGhalila, au soutien de l’Ecole Supérieure de la Statistique et de l’Analyse de
l’Information de Tunisie, par son directeur Makki Ksouri et son directeur des
études Nacef Elloumi, ainsi qu’à la compétence de Habib Bouchriha, directeur
du Centre des Publications Universitaires de la Tunisie.
66
Cahier de Mathématiques Appliquées no 10
Table des matières
1 Information évolutive
1.1 Espérances conditionnelles
1.2 Prédiction évolutive . . .
1.3 Martingales . . . . . . . .
1.4 Temps d’arrêt . . . . . . .
1.5 Modèles . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
67
67
70
77
82
86
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
2 Inégalités
2.1 Fonctions convexes . . . . . . . . .
2.2 Sous-martingales et compensateurs
2.3 Variation quadratique . . . . . . .
2.4 Inégalités de déviations . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
94
. 94
. 96
. 97
. 101
3 Convergences
105
3.1 Convergence dans L1 . . . . . . . . . . . . . . . . . . . . . . . 105
3.2 Convergence dans L2 . . . . . . . . . . . . . . . . . . . . . . . 107
3.3 Théorème de la limite centrale . . . . . . . . . . . . . . . . . 110
4 Exercices
113
Martingales discrètes
1
1.1
67
Information évolutive
Espérances conditionnelles
Nous supposons acquises les notions de vecteur et de suite aléatoires, les
méthodes de calcul de la loi de probabilité d’un vecteur aléatoire, ainsi que
de sa loi conditionnelle sachant la valeur prise par un autre. Le but de cette
première section est d’énoncer les principales propriétés des espérances conditionnelles, et surtout de comprendre leur interprétation en termes de prédiction. Dans ce qui suit nous imaginons une expérience aléatoire, à l’issue de
laquelle deux résultats X et Y seront connus. Pour simplifier les notations,
ces résultats seront supposés réels, mais ce qui suit vaut sans changement
pour des vecteurs aléatoires, et nous l’utiliserons ainsi au paragraphe suivant. Les deux résultats X et Y ne sont pas simultanés : X sera antérieur
à Y , et on souhaite utiliser la connaissance anticipée de X pour émettre un
pronostic sur Y . Par exemple, comment un agriculteur pourrait-il utiliser la
température moyenne X pendant la periode de germination (au printemps),
pour prédire son rendement à l’hectare Y l’été prochain ? Il faut pour cela
qu’il dispose d’un moyen d’associer à une valeur x prise par la variable aléatoire X une prédiction, qui ne peut être qu’une fonction de x. Parmi toutes
les fonctions possibles, la moyenne conditionnelle présente l’avantage d’être
celle qui minimise l’erreur de prédiction en un sens que nous expliciterons
plus loin. Par défaut, toutes les lois de probabilité considérées dans ce cours
admettent une espérance.
Définition 1.1 On appelle moyenne conditionnelle de Y sachant “X = x”,
et on note mX
Y (x), l’espérance de la loi conditionnelle de Y sachant “X = x”.
La moyenne conditionnelle est une fonction mesurable. Expliciter ce que recouvre exactement cette affirmation relève de développements théoriques qui
dépassent le cadre de cet ouvrage. Nous utiliserons la notion de fonction mesurable dans toute la suite sans la détailler plus. Le lecteur pressé pourra
considérer pour l’instant qu’il s’agit d’une fonction continue par morceaux,
ce qui sera vérifié dans toutes les applications que nous examinerons.
Définition 1.2 On appelle espérance conditionnelle de Y sachant X la variable aléatoire notée IE[Y |X], composée de X et de la fonction qui à x associe
mX
Y (x) :
IE[Y |X] = mX
Y (X) .
La différence entre moyenne conditionnelle et espérance conditionnelle est une
question de délai. Au moment des semailles, la température X aussi bien que
le rendement Y sont inconnus et donc aléatoires, par choix de modélisation.
La prédiction que le cultivateur fera au printemps (fonction de X) est elle
aussi aléatoire : c’est l’espérance conditionnelle IE[Y |X]. Au printemps, au
vu de la température moyenne (la réalisation x de X), la prédiction prendra
elle aussi une valeur réelle : mX
Y (x).
Cahier de Mathématiques Appliquées no 10
68
L’espérance conditionnelle réalise une prédiction optimale au sens suivant.
Proposition 1.3 Soit ϕ une fonction mesurable de IR dans IR. A condition
que les espérances écrites aient un sens on a :
IE[ (Y − ϕ(X))2 ] ≥ IE[ (Y − IE[Y |X])2 ] .
(1.1)
Si le cultivateur ne dispose que de la température X, toute prédiction du
rendement est nécessairement fonction de X. Etant donnée une telle fonction
ϕ(X), IE[ (Y − ϕ(X))2 ] mesure l’erreur quadratique de la prédiction : c’est le
carré de la distance attendue entre la prédiction ϕ(X) et la vraie valeur Y .
L’inégalité (1.1) montre que l’erreur quadratique est minimale si on choisit
comme prédiction l’espérance conditionnelle. Nous noterons désormais V(X)
l’espace vectoriel des variables aléatoires, composées de X et d’une fonction
mesurable. On démontre que la proposition 1.3 constitue en fait une caractérisation de l’espérance conditionnelle : IE[Y |X] est la seule variable aléatoire
de V(X) qui minimise l’erreur quadratique de prédiction.
Le calcul pratique d’une espérance conditionnelle n’est pas aisé en général,
sauf dans le cas particulier des vecteurs gaussiens sur lequel nous reviendrons
à la section suivante. La définition 1.2 impose le calcul de la loi conditionnelle
de Y sachant X = x, puis celui de l’espérance de cette loi. Le “théorème de
substitution” suivant sera souvent utile : si on doit calculer la moyenne conditionnelle d’une expression contenant X, sachant “X = x”, on peut remplacer
X par x dans l’expression.
Proposition 1.4 Pour tout couple (X, Y ), on a :
X
mX
ϕ(X,Y ) (x) = mϕ(x,Y ) (x) .
Si X et Y sont indépendants, alors :
mX
ϕ(X,Y ) (x) = IE[ϕ(x, Y )] .
Les propriétés de base de l’espérance conditionnelle sont listées dans la proposition suivante.
Proposition 1.5 Dans ce qui suit X, Y , Z sont des variables ou vecteurs
aléatoires, ϕ désigne une fonction mesurable réelle ou vectorielle, et α, β sont
deux réels quelconques. Sous réserve que les espérances considérées aient un
sens, on a :
1.
IE[ αY + βZ | X ] = αIE[Y |X] + βIE[Z|X] .
2.
IE[ ϕ(X)Y | X ] = ϕ(X) IE[Y |X] .
3.
IE[ ϕ(X)Y ] = IE[ ϕ(X)IE[Y |X] ] .
Martingales discrètes
69
4.
IE[Y |ϕ(X)] = IE[ IE[Y |X] | ϕ(X)]
5.
IE[ IE[Y |X] ] = IE[Y ] .
6. Si X et Y sont indépendants alors :
IE[Y |X] ≡ IE[Y ] .
7.
IE[ϕ(X) | X] = ϕ(X) .
8. Si le couple (Y, Z) et X sont indépendants alors :
IE[Y | (Z, X)] = IE[Y |Z] .
Le premier point est la linéarité, vraie pour les espérances conditionnelles
comme pour les espérances ordinaires. Le deuxième est conséquence de la
proposition 1.4 et de la linéarité. Le troisième est un simple cas particulier, qui exprime cependant une propriété géométrique importante, liée à
(1.1) : si on munit l’espace vectoriel des variables centrées du produit scalaire hX, Y i = IE[XY ], alors IE[Y |X] est la projection orthogonale de Y sur
le sous-espace vectoriel V(X). L’inégalité (1.1) exprime que sa distance à Y
est minimale. Le point 3 dit que la différence Y − IE[Y |X] est orthogonale
à V(X). D’après le point 4, l’espérance conditionnelle est transitive : si on
dispose de plusieurs informations, on peut les intégrer dans la prédiction successivement ou simultanément, le résultat sera le même. Pour le justifier, le
plus simple est d’utiliser l’interprétation géométrique qui précède, en composant la projection sur V(X), puis celle sur V(ϕ(X)) ⊂ V(X). Le point 5 est
un cas particulier de 3 (pour ϕ constante) aussi bien que de 4. En effet si ϕ
est constante, IE[Y |ϕ(X)] est aussi constante, et cette constante ne peut être
que IE[Y ] : la connaissance de X n’apporte aucune information nouvelle. Il
en est de même pour le point 6. Dire que X et Y sont indépendants, c’est dire
que la connaissance de X n’apporte aucune information sur Y . On le vérifie
immédiatement à l’aide des moyennes conditionnelles. Au contraire (point 7),
si X est observé, alors ϕ(X) est connu. On le déduit des points 2 et 6 avec
Y = 1 : une constante est indépendante de toute variable aléatoire. Le point
8 est une extension de 6 : X étant indépendant de (Y, Z) n’apporte aucune
information supplémentaire utilisable pour Y .
Exemple : variables de Bernoulli
Le but de cet exemple élémentaire est d’expliciter la relation entre espérance conditionnelle et probabilité conditionnelle sachant un événement. A
tout événement A, est associée sa variable aléatoire indicatrice 11A . Réciproquement, si X est une variable aléatoire de Bernoulli (elle ne prend que
les valeurs 0 ou 1), l’événement A : “X = 1” lui correspond, et X = 11A .
70
Cahier de Mathématiques Appliquées no 10
L’espérance de X est la probabilité de A. Nous notons IP la probabilité :
IP[X = 1] = IP[A] = IE[X]. Nous notons A le complémentaire de A, de sorte
que 11A = 1 − 11A et IP[X = 0] = IP[A] = 1 − IP[A]. Considérons maintenant une deuxième variable de Bernoulli Y = 11B . La loi conditionnelle de
Y sachant “X = 1” ou “X = 0” reste toujours une loi de Bernoulli, de paramètre IP[B|A] dans le premier cas, IP[B|A] dans le second. Les valeurs de la
moyenne conditionnelle de Y sont donc :
X
mX
Y (1) = IP[B|A] et mY (0) = IP[B|A] .
Alors :
IE[Y |X] = IP[B|A]11A + IP[B|A]11A .
1.2
Prédiction évolutive
Le savoir-faire du cultivateur provient de l’expérience accumulée sur toutes
les récoltes passées. Quand il prévoit sa récolte pour l’été prochain, il tient
compte non seulement de la température au printemps, mais aussi des températures et des rendements de toutes les années précédentes (et de bien d’autres
renseignements encore). L’idée de base dans ce cours est de suivre l’évolution d’une prédiction à partir d’une information cumulative sur le passé. Le
temps sera toujours discret, indicé par IN. Les résultats observables à l’instant
n constituent un vecteur de variables aléatoires Rn . Pour le cultivateur, les
coordonnées du vecteur Rn seront pour l’année n des températures, des quantités de pluie, des durées d’ensoleillement, etc. . . Ces données sont mesurées
de façon répétée au cours des années, et nous noterons In l’information cumulée au cours du temps. C’est aussi un vecteur aléatoire obtenu en concaténant
les coordonnées de R0 , . . . , Rn . Nous noterons :
In = (R0 , . . . , Rn ) .
La quantité à prédire pour l’instant n est notée désormais Xn . Pour l’agriculteur c’est le rendement de l’année n. Toute prédiction sur les rendements
futurs ne peut tenir compte que de l’information disponible l’année n. C’est
une fonction de In . Nous choisirons toujours celle qui minimise le risque quadratique, à savoir l’espérance conditionnelle sachant In . Selon les situations,
on distingue plusieurs degrés dans la qualité de l’information disponible.
Définition 1.6
• On dit que la suite (Xn )n∈IN est adaptée (à la suite d’informations
(In )) si pour tout n, Xn est fonction de In (Xn = IE[Xn | In ]).
• On dit que la suite (Xn )n∈IN est prévisible si X0 est constante et pour
tout n ≥ 0, Xn+1 est fonction de In (Xn+1 = IE[Xn+1 | In ]).
Dire que la suite est adaptée c’est dire que l’information dont on dispose à
l’instant n est complète. Pour l’agriculteur ce serait le cas par exemple si
son rendement était une fonction déterministe des paramètres climatiques
Martingales discrètes
71
(on le saurait !). La suite est prévisible si la valeur de Xn+1 est déterminée
au temps n (connaissant In ). Une suite prévisible correspond à des décisions
successives que l’on prend pour l’étape n + 1, au vu des résultats précédents.
Afin d’illustrer cette notion de prédiction évolutive, nous détaillons cidessous un des outils de base du traitement du signal, le filtre de Kalman.
Le modèle envisagé comporte deux suites de variables aléatoires, (Xn )n∈IN et
(Yn )n∈IN . La suite (Xn ) s’appelle le signal (sonore, electrique. . . ). C’est lui
qui nous intéresse, mais on ne l’observera jamais directement. La suite (Yn )
est l’observation. Elle est une fonction perturbée de (Xn ) (c’est ce qui sort
d’un enregistreur, d’un amplificateur. . . ). Dans ce qui suit, les vecteurs sont
notés comme des matrices à une colonne. Le modèle mathématique est celui
d’un système itératif, perturbé aléatoirement.
Xn+1 = GXn + n+1 ,
(1.2)
Yn
= HXn + ηn .
Dans (1.2) :
• Xn et Yn désignent deux vecteurs aléatoires de dimensions respectives
d et d0 .
• G ∈ Md×d (IR) et H ∈ Md0 ×d (IR) désignent deux matrices réelles déterministes, supposées connues.
• (n )n∈IN et (ηn )n∈IN désignent deux suites indépendantes de variables
aléatoires indépendantes. Pour tout n ≥ 0, la loi de n est la loi normale
en dimension d d’espérance nulle et de matrice de covariance Q ; la loi
de ηn est la loi normale en dimension d0 d’espérance nulle et de matrice
de covariance R. Les matrices de covariance Q et R sont supposées
connues et R est supposée inversible (définie positive).
• L’initialisation X0 est un vecteur gaussien de IRd , indépendant des
suites (n ) et (ηn ), d’espérance nulle et de matrice de covariance B0 .
Afin de simplifier les notations, nous avons choisi de nous placer dans un
cadre où les paramètres sont constants. Ce qui suit s’adapte sans problème
au cas où les matrices G, H, Q, R dépendent de n.
Une fois la suite initialisée, le hasard provient de deux sources, le bruit
intrinsèque n qui perturbe la génération itérative du signal Xn+1 en fonction
de Xn , et le bruit d’observation ηn qui perturbe la transformation linéaire
du signal Xn en l’observation Yn . Si l’on connaissait ces deux bruits jusqu’à
l’instant n, le signal aussi bien que l’observation seraient parfaitement déterminés. En posant Ien = (X0 , 0 , η0 , . . . , n , ηn ), la suite ((Xn , Yn )) est adaptée
à la suite d’informations (Ien ). Mais l’information dont on dispose réellement à
l’instant n ne contient que les observations successives In = (Y0 , . . . , Yn ). On
peut alors tenir compte de In pour deviner Xn ou prédire Xn+1 . Le problème
est donc double :
1. Déterminer la loi conditionnelle de Xn sachant “In = in ” : problème de
filtrage,
Cahier de Mathématiques Appliquées no 10
72
2. Déterminer la loi conditionnelle de Xn+1 sachant “In = in ” : problème
de prédiction,
L’hypothèse de normalité sur les n et les ηn permet de donner un algorithme
de calcul explicite de ces lois conditionnelles.
Rappelons tout d’abord quelques faits de base que nous admettrons à
propos des vecteurs gaussiens.
Proposition 1.7
1. Soit X un vecteur gaussien de dimension d, d’espérance IE[X] et de
matrice de covariance KX = IE[(X − IE[X]) t (X − IE[X])]. Soit A ∈
Md×d0 (IR) et b ∈ IRd une matrice et un vecteur déterministes, alors
AX + b est encore un vecteur gaussien, d’espérance AIE[X] + b, de
matrice de covariance AKX t A.
2. Une variable aléatoire qui suit une loi normale est un vecteur gaussien
de dimension 1.
3. Si X et Y sont deux vecteurs gaussiens indépendants alors la concaténation de leurs coordonnées Z = (X, Y ) est encore un vecteur gaussien.
4. Soit Z = (X, Y ) un vecteur gaussien. Les vecteurs X et Y sont indépendants si et seulement si leurs coordonnées sont décorrélées deux à
deux (la matrice de covariance de Z est diagonale par blocs).
5. Soit Z = (X, Y ) un vecteur gaussien. Notons KX la matrice de covariance de X, et supposons-la inversible. Notons KY,X = IE[(Y −
IE[Y ]) t (X − IE[X])] la matrice de covariance de Y et X. L’espérance
conditionnelle de Y sachant X est :
−1
IE[Y | X] = IE[Y ] + KY,X KX
(X − IE[X]) .
C’est encore un vecteur gaussien, d’espérance IE[Y ], de matrice de co−1
variance KY,X KX
KX,Y .
6. Avec les notations du point précédent, on a :
IE[(Y − IE[Y |X]) t (Y − IE[Y |X])]
= IE[(Y − IE[Y |X]) t (Y − IE[Y |X]) | X]
−1
= KY − KY,X KX
KX,Y .
Le premier point constitue la définition classique des vecteurs gaussiens. Le
second et le troisième ont pour conséquence qu’un vecteur constitué de coordonnées gaussiennes indépendantes est gaussien. Le point 4 est une particularité surprenante : il suffit que des coordonnées d’un vecteur gaussien
soient décorrélées pour qu’elles soient indépendantes. L’expression de l’espérance conditionnelle 5 montre que pour des vecteurs gaussiens, parmi toutes
les fonctions de X, la meilleure prédiction de Y est une fonction affine de X :
Martingales discrètes
73
c’est la régression linéaire de Y sur X. La loi conditionnelle de Y sachant
“X = x” est la loi normale d’espérance :
−1
mX
Y (x) = IE[Y ] + KY,X KX (x − IE[X]) ,
et de matrice de covariance :
−1
KY − KY,X KX
KX,Y .
Le fait que cette matrice de covariance ne dépende pas de x est spécifique
aux vecteurs gaussiens.
Pour notre problème de filtrage, on déduit de la proposition 1.7 que les vecteurs (0 , . . . , n ) et (η0 , . . . , ηn ), mais aussi (X0 , 0 , η0 , . . . , n , ηn ) sont gaussiens. Il en découle que les vecteurs (X0 , . . . , Xn ), In = (Y0 , . . . , Yn ) et aussi
(In , Xn ), (In , Xn+1 ) sont tous des vecteurs gaussiens. On peut donc leur
appliquer le calcul d’espérance conditionnelle du point 5. Cela conduit au
théorème de Kalman.
Théorème 1.8 Pour tout n ≥ 0, notons :
bn,n = IE[Xn | In ] le filtrage,
• X
b
• Xn+1,n = IE[Xn+1 | In ] la prédiction.
Ils sont solution du système itératif suivant.
bn+1,n = GX
bn,n ,
1. X
bn,n = X
bn,n−1 + An (Yn − H X
bn,n−1 ),
2. X
−1
3. An = Bn t H HBn t H + Rn
,
4. Bn = GCn−1 t G + Q,
5. Cn = Bn − An HBn ,
De plus on a :
bn,n ) t (Xn − X
bn,n )],
• Cn = IE[(Xn − X
t
bn,n−1 ) (Xn − X
bn,n−1 )].
• Bn = IE[(Xn − X
Les données du problème sont les matrices B0 , G, H, Q, R ainsi que la liste des
observations (Yn ). L’algorithme de calcul du filtrage et de la prédiction est
le suivant. Dans cet algorithme ∗ désigne un produit matriciel. Les matrices
à calculer itérativement sont désignées par A, B, C (pour An , Bn , Cn ).
B ←− B0
Prédiction ←− 0
n ←− 0
Répéter
−1
A ←− B ∗ t H ∗ H ∗ B ∗ t H + R
C=B−A∗H ∗B
Cahier de Mathématiques Appliquées no 10
74
Filtrage ←− Prédiction + A ∗ (Yn − H ∗ Prédiction)
Prédiction ←− G∗Filtrage
B ←− G ∗ C ∗ t G + Q
n ←− n + 1
FinRépéter.
Le fonctionnement de l’algorithme est illustré par la figure 1.
Observation
Yn−1
Yn
?
Filtrage
?
bn−1,n−1
X
?
Prédiction
Yn+1
bn,n−1
X
?
bn,n
X
*
?
bn+1,n+1
X
*
bn+1,n
X
?
bn+2,n+1
X
Figure 1 – Itérations de l’algorithme de Kalman.
Démonstration : Ce sera l’occasion de calculer plusieurs espérances conditionnelles dans le cadre gaussien. Remarquons pour commencer que tous les
vecteurs considérés sont non seulement gaussiens mais aussi centrés (leurs
espérances sont toutes nulles).
Par hypothèse, n est indépendant de (0 , η0 , . . . , n−1 , ηn−1 , ηn ), donc aussi
de (Y0 , . . . , Yn ). Donc :
IE[n | Y0 , . . . , Yn ] = IE[n ] = 0 .
Par linéarité de l’espérance conditionnelle, on en déduit :
bn+1,n = GX
bn,n .
X
Calculons maintenant IE[Yn | Y0 , . . . , Yn−1 ]. Par linéarité, on a :
bn,n−1 + IE[ηn | Y0 , . . . , Yn−1 ] .
IE[Yn | Y0 , . . . , Yn−1 ] = H X
Comme ci-dessus, les hypothèses d’indépendance entraînent :
IE[ηn | Y0 , . . . , Yn−1 ] = IE[ηn ] = 0 .
Posons maintenant :
bn,n−1 .
Zn = Yn − Hn X
Martingales discrètes
75
Nous souhaitons calculer IE[Xn | Zn ]. Observons que Zn est une combinaison
linéaire de Y0 , . . . , Yn , qui est orthogonale à Y0 , . . . , Yn−1 . La projection orthogonale de Xn sur l’espace V(In ) est la somme de la projection sur V(In−1 )
et de la projection sur V(Zn ). On peut donc écrire :
bn,n = X
bn,n−1 + IE[Xn | Zn ] .
X
Nous devons maintenant calculer IE[Xn | Zn ]. Calculons d’abord la matrice
de covariance de Zn . Ecrivons pour cela :
bn,n−1 ) + ηn ,
Zn = H(Xn − X
bn,n−1 ). La matrice de
et remarquons que ηn est indépendant de H(Xn − X
covariance est donc :
bn,n−1 ) t (Xn − X
bn,n−1 )] t H + R .
KZn = IE[Zn t Zn ] = HIE[(Xn − X
L’hypothèse sur R assure que la matrice KZn est définie positive. Pour finir
de calculer IE[Xn | Zn ], il nous manque la matrice de covariance de Xn avec
Zn . Elle vaut :
bn,n−1 ) + ηn )]
KXn ,Zn = IE[Xn t (H(Xn − X
t
bn,n−1 )] t H
= IE[Xn (Xn − X
bn,n−1 ) t (Xn − X
bn,n−1 )] t H .
= IE[(Xn − X
Il est temps de poser :
−1
bn,n−1 ) t (Xn − X
bn,n−1 )] et An = Bn t H HBn t H + R
Bn = IE[(Xn − X
,
ce qui permet d’écrire :
bn,n−1 ) .
IE[Xn | Zn ] = An (Yn − H X
Reste à calculer Bn . Pour cela, nous projetons Xn = GXn−1 + n−1 sur
V(In−1 ), ce qui donne :
bn,n−1 = GX
bn−1,n−1 .
X
On en déduit :
bn−1,n−1 ) t (Xn−1 − X
bn−1,n−1 )] t G + Q .
Bn = GIE[(Xn−1 − X
C’est l’expression de Bn en fonction de Cn−1 , à condition de poser :
bn,n ) t (Xn − X
bn,n )] .
Cn = IE[(Xn − X
Cahier de Mathématiques Appliquées no 10
76
Or :
bn,n = X
bn,n−1 + An (Yn − H X
bn,n−1 )
X
bn,n−1 + An (HXn + ηn ) .
= (I − An H)X
Soit :
bn,n = (I − An H)(Xn − X
bn,n−1 ) + An ηn .
Xn − X
Des manipulations algébriques fastidieuses conduisent à l’expression de Cn
en fonction de Bn , An et H, qui constitue la dernière pièce du puzzle.
Afin d’illustrer le fonctionnement du filtre, nous avons simulé le modèle
proposé avec d = 2, d0 = 1, et les paramètres suivants.
G=
0 −1
1 0
H = (1 0) Q =
10
01
R=1.
Le point de départ X0 est un vecteur gaussien centré de IR2 , de matrice de
covariance :
50 0
B0 = IE[X0 t X0 ] =
.
0 50
Avec ces valeurs, Xn est un signal quasi périodique (G est la matrice de la
rotation d’angle π2 ), et Yn est une perturbation de la première coordonnée de
Xn . La figure 2 représente une trajectoire de Xn pour n allant de 0 à 1000. Les
matrices Bn et Cn sont les matrices de covariance de l’erreur de prediction
bn,n−1 et de l’erreur de filtrage Xn − X
bn,n . Pour le cas particulier que
Xn − X
nous avons choisi, on vérifie que Bn et Cn convergent respectivement vers :
√
B=
3 + 1 √0
0
3
√
et C =
3 − 1 √0
0
3
.
2
b
Si on considère la norme carrée
√ de l’erreur de prédiction
√ kXn2 − Xn,n−1 k ,
son espérance est proche de 2 3 + 1, sa variance de 2(( 3 + 1) + 3). Pour la
2
b
norme
√ carrée de l’erreur de filtrage
√ kX2n − Xn,n k , son espérance est proche
de 2 3 − 1, sa variance de 2(( 3 − 1) + 3). Pour n allant de 1 à 10, nous
avons simulé successivement Xn et Yn , et calculé les matrices An , Bn , Cn ,
bn,n et la valeur prédite X
bn,n−1 . Sur 104 répétitions
ainsi que la valeur filtrée X
indépendantes de la même expérience, les valeurs observées des deux premiers
moments des erreurs de prédiction et de filtrage au temps n = 10 figurent
dans le tableau ci-dessous. Elles sont tout à fait compatibles avec les valeurs
théoriques. L’erreur de prédiction est supérieure à l’erreur de filtrage, comme
on pouvait s’y attendre. Les deux restent de l’ordre de grandeur de la norme
du bruit qui suit la loi de chi-deux X 2 (2), d’espérance 2 et de variance 4.
Martingales discrètes
77
Valeur théorique
Valeur estimée
4.464
20.938
2.464
7.072
4.434
20.379
2.469
7.118
bn,n−1 k2 ]
IE[kXn − X
bn,n−1 k2 ]
V ar[kXn − X
bn,n k2 ]
IE[kXn − X
bn,n k2 ]
V ar[kXn − X
Signal quasi periodique
+
20
++
16
12
4
0
-8
-12
-16
-20
+
+ +
+ +
+
++
+
+
+
+
+++++ ++ + +
+
+
+ + ++
++
+ ++ +
+
+
+
+
+
+ + + ++
+ ++
+
+ ++ +++
+ +
+
+
+
+
+
+
+
+
+
+
+
+
+
+ +
+
++ +
+
+
+ ++ + + + +
+
+
+
+
+
+
+
+
++
+++
+
+
+ +++ +
+
+
+ + +
+
+
+
+
+
++ + +
+ ++ + + + + +
+
++
+
+
++ +
+
+
+
+
+ +
+
+
+
+
+
+
+
+ ++
+ +
+
+
+ ++ + + +
+
+ ++
+
+ ++ + + + ++
+
+
+
+
+ +++
+ + +
+
+
+
+
+
++
++
+
+ +
++
+
+
+
+
+ ++
+
+
+
++
+
+
+
+ +
+ +
+ +
+
+++
+
+
+
+
+
+
+
+
+ + +
+
+
++ +
+
+
8
-4
+
+
++
++ +
++
+
+
++
-20
+++++
+ +
+
++
-16
++
++
+
+
-12
+
+ + +++ +
+
+ +
++
++
+
+ + ++ +
+ +
+
+
+
+
+
+
+
++
+
++
+
+
+
+
+
+
+
+ +
+ +
+
+
+
+
+
++
++
++ ++ ++ +++ ++
+
+
+
++ + + ++ ++ ++
+
+
+
++
+
+
++ + +++
++
+
+ ++
+
++++ +
+
++
+
+++
+
+ +
+ +
++
+ ++++
+
++
+
++
+
+
+
+
+ +
.
+
+
+
++
+
+
+
+ +
+
+
+
+ + + +
+
+ +
+
+
+
+
+
+
+
+ +
+
+
+
+
++
+
+
+
+
+ ++
+
+ +
+
+
+
+ +
+ +
++ +++++ + ++
++++ ++ +
+ +
+
+ + ++ + + +
+
++
+
+
+
+
+
+ +++
+ +
+ ++ + +
++
+
+ ++ + +
+
+ +
+ +
++
+ +
+
+
+
+
+
+
+
+ +++ +
+ ++
++
+
+
+
+ +
+
+
+
++
-8
-4
0
+ +
+++ +
++ +
4
8
12
16
20
Figure 2 – Réalisations de 1000 valeurs successives d’un signal quasi périodique.
1.3
Martingales
Nous considérons encore une suite d’informations données par des résultats successifs : In = (R0 , . . . , Rn ). Quand on projette un vecteur aléatoire X
sur la suite croissante de sous-espaces V(In ), la transitivité des projections
(propriété 4 de la proposition 1.5) entraîne :
IE[IE[X | In+1 ] | In ] = IE[X | In ] .
bn la projection de X sur
Par analogie avec le filtrage de Kalman, notons X
bn )
V(In ) : c’est la prédiction de X connaissant l’information In . La suite (X
vérifie deux propriétés particulières. D’une part elle est adaptée à la suite
d’informations (In ), d’autre part chaque élément de la suite est la projection
du suivant. C’est notre premier exemple de martingale.
Définition 1.9 Soit (Xn ) une suite de vecteurs aléatoires admettant une
espérance. On dit que (Xn ) est une martingale relativement à la suite d’informations (In ) si et seulement si pour tout n :
Xn ∈ V(In )
et
IE[Xn+1 | In ] = Xn .
Cahier de Mathématiques Appliquées no 10
78
La meilleure prédiction que l’on puisse faire pour l’instant suivant est la valeur
présente. C’est aussi vrai pour les prédictions à plus long terme. Si (Xn ) est
une martingale alors pour tout n, m :
IE[Xn+m | In ] = Xn .
En particulier pour n = 0, IE[Xm ] = IE[X0 ] : l’espérance d’une martingale
est constante.
Dans la suite, nous resterons en dimension 1 : les Xn sont des variables
aléatoires réelles. Bien sûr, la propriété de martingale contient plus que le
seul fait d’avoir des espérances constantes. Compte tenu de la proposition
1.5, point 3, si (Xn ) est une martingale alors pour toute variable aléatoire
Zn ∈ V(In ) :
IE[Xn Zn ] = IE[Xn+1 Zn ] ,
sous réserve que les espérances écrites aient un sens. En réalité, cette propriété caractérise la notion de martingale, comme d’ailleurs le point 3 de la
proposition 1.5 caractérise la notion d’espérance conditionnelle.
Le mot “martingale” vient du jeu. Pour un joueur, une martingale désigne
une stratégie de jeu, c’est à dire une manière de décider des coups à jouer
en fonction des résultats des parties précédentes. Il n’y a pas de stratégie
dans la définition 1.9, mais plutôt la description de ce qu’est un jeu équitable.
Traduisons Rn comme le résultat de la n-ième partie et Xn la fortune du
joueur après cette partie. Nous poserons par convention que la fortune initiale
est X0 = R0 . D’une part, la fortune à chaque instant ne dépend que de la
fortune initiale et des parties jouées jusque-là : Xn ∈ V(In ). D’autre part,
si le jeu est équitable, le joueur n’a pas d’avantage ni de handicap. Donc
l’accroissement de sa fortune au cours de la (n + 1)-ième partie Xn+1 − Xn ,
conditionné par l’information disponible après la n-ième partie, doit être nul :
IE[Xn+1 − Xn | In ] = 0 ⇐⇒ IE[Xn+1 | In ] = IE[Xn | In ] = Xn .
Bien sûr, la plupart des jeux ne sont pas équitables. On parle alors de sousmartingale (jeu favorable) ou de sur-martingale (jeu défavorable) selon que
l’on est du côté du casino ou du joueur.
Définition 1.10 Soit (Xn ) une suite de variables aléatoires admettant une
espérance. On dit que (Xn ) est une sous-martingale relativement à la suite
d’informations (In ) si et seulement si pour tout n :
Xn ∈ V(In )
et
IE[Xn+1 | In ] ≥ Xn .
C’est une sur-martingale si et seulement si :
Xn ∈ V(In )
et
IE[Xn+1 | In ] ≤ Xn .
Martingales discrètes
79
La suite des espérances est croissante pour une sous-martingale, décroissante
pour une sur-martingale.
Prenons l’exemple du jeu “rouge-noir” à la roulette. Les cases sont numérotées de 0 à 36, et alternativement rouges et noires, sauf le 0 qui est vert.
Un joueur qui mise 1 sur rouge ou noir a donc une probabilité 18
37 ' 0.486
19
' 0.514 de perdre (Rn = −1). Les résultats
de gagner (Rn = +1) et 37
successifs sont indépendants. L’accroissement de sa fortune (qui ne dépend
ici que du n-ième résultat) a donc pour espérance :
18 19
IE[Xn+1 − Xn | In ] = IE[Xn+1 − Xn ] =
−
' −0.027 .
37 37
La fortune du joueur est une sur-martingale : il a tendance à perdre. La figure
3 illustre les 3 types de jeu différents.
(a) Martingale
50
40
30
20
10
0
.
-10
-20
-30
-40
-50
0
100
200
300
400
500
600
700
800
900
1000
(b) Sous-Martingale
(c) Sur-Martingale
100
0
90
-10
80
-20
70
-30
60
-40
50
-50
40
-60
30
-70
20
-80
10
0
.
-90
-100
.
0
100
200
300
400
500
600
700
800
900
1000
0
100
200
300
400
500
600
700
800
900
1000
Figure 3 – Fortune d’un joueur sur 1000 parties d’un jeu équitable (a), favorable (b) et défavorable (c). Les probabilités de gagner sont respectivement
0.5, 0.55 et 0.45.
Dans cet exemple, comme dans la plupart des jeux, la suite (Xn ) est
d’un type un peu particulier : la fortune à l’issue de la n-ième partie est une
somme de variables aléatoires indépendantes (les accroissements à l’issue des
parties précédentes). La suite des sommes partielles d’une suite de variables
aléatoires indépendantes et de même loi s’appelle une marche aléatoire.
Cahier de Mathématiques Appliquées no 10
80
Définition 1.11 Soit (Zn ) une suite de variables aléatoires indépendantes
et de même loi. On appelle marche aléatoire de pas Zn la suite de variables
aléatoires (Xn ) définie par :
Xn = Z1 + · · · + Zn .
En dehors des jeux, un cas particulier important est celui où la loi des Zn est
normale. Si Zn suit la loi N (0, h), la suite (Xn ) est une discrétisation de pas
h du mouvement brownien standard.
Proposition 1.12 Soit (Zn ) une suite de variables aléatoires indépendantes
et de même loi, d’espérance µ. Posons X0 = 0, et pour n ≥ 1 : Xn =
Z1 + · · · + Zn . Notons aussi In = (Z1 , . . . , Zn ). Alors la marche aléatoire
(Xn ) est adaptée à la suite (In ). C’est une :
• martingale si µ = 0,
• sous-martingale si µ ≥ 0,
• sur-martingale si µ ≤ 0.
Que la suite (Xn ) soit adaptée à la suite (In ) est une évidence, puisque Xn
est fonction de (Z1 , . . . , Zn ). Mais inversement, les Zn sont aussi fonction
des Xn : Zn = Xn − Xn−1 . Toute fonction de (Z1 , . . . , Zn ) est donc aussi
fonction de (X1 , . . . , Xn ). Définissons la suite d’informations (Ien ) par Ien =
(X1 , . . . , Xn ). La suite (Xn ) est encore une martingale relativement à son
information propre (Ien ). Dans cet exemple V(In ) = V(Ien ). En général, on
a seulement l’inclusion V(Ien ) ⊂ V(In ), pourtant toute martingale reste une
martingale relativement à son information propre.
Proposition 1.13 Soit (Xn ) une martingale relativement à la suite d’informations (In ). Pour tout n ≥ 0, posons Ien = (X0 , . . . , Xn ). Alors (Xn ) est
encore une martingale relativement à la suite (Ien ).
Démonstration : La suite (Xn ) est évidemment adaptée à (Ien ), par définition.
Pour le calcul de l’espérance conditionnelle, on utilise encore la propriété des
projections successives. Puisque (Xn ) est adaptée à (In ), (X0 , . . . , Xn ) est
fonction de In , et donc :
IE[Xn+1 | Ien ] = IE[IE[Xn+1 | In ] | Ien ] = IE[Xn | Ien ] = Xn ,
car Xn est fonction de Ien .
L’information propre de la suite est donc suffisante en théorie. Mais en
pratique, ce n’est pas toujours la plus naturelle.
Nous avons déjà dit que notre notion de martingale n’était pas celle des
joueurs. Elle en est même en un sens la négation, puisqu’elle précise qu’un jeu
défavorable ne peut pas être rendu favorable. Nous allons en voir un premier
exemple. Imaginons un joueur qui pourrait décider, après chaque partie, de
Martingales discrètes
81
jouer ou non la suivante, ou au contraire de doubler sa mise. Pourrait-il ainsi
rendre le jeu favorable ? Notons Rn le bilan (positif ou négatif) de la n-ième
partie pour le joueur. S’il n’y avait pas de décisions, la fortune à l’instant
n serait Xn = X0 + R1 + · · · + Rn . Si le jeu est équitable, (Xn ) est une
martingale. S’il est défavorable c’est une sur-martingale. Notons maintenant
Dn la décision prise par le joueur avant de jouer la n-ième partie. Nous
pouvons convenir par exemple que Dn vaut 0 si le joueur avait décidé de ne
pas jouer, 1 s’il a joué avec une mise normale, 2 s’il avait décidé de doubler
sa mise. Sa fortune à l’issue de la n-ième partie est maintenant : Yn = X0 +
D1 R1 + · · · + Dn Rn . Puisque la décision Dn est prise à l’issue de la (n−1)ième partie, la suite (Dn ) est prévisible. La proposition suivante montre que la
nouvelle suite de fortunes (Yn ) conserve les propriétés de (Xn ). En d’autres
termes, si le jeu était équitable, il le reste. S’il était défavorable, aucune
stratégie ne peut le rendre favorable, ni même équitable.
Proposition 1.14 Soit (In ) une suite d’informations, (Xn ) une suite adaptée et (Dn ) une suite prévisible, relativement à (In ). Pour tout n ≥ 0, posons :
Yn = X0 + D1 (X1 − X0 ) + . . . + Dn (Xn − Xn−1 ) .
Alors la suite (Yn ) est adaptée à (In ). On suppose que Xn et Yn admettent
une espérance pour tout n (ce qui est en réalité une restriction sur la suite
(Dn )). Alors :
• si (Xn ) est une martingale, (Yn ) est aussi une martingale ;
• si (Dn ) est à valeurs positives ou nulles et (Xn ) est une sur-martingale,
(Yn ) est une sur-martingale ;
• si (Dn ) est à valeurs positives ou nulles et (Xn ) est une sous-martingale,
(Yn ) est une sous-martingale.
Démonstration : Le fait que la suite (Yn ) soit adaptée est évident sur sa
définition. Calculons la prévision d’un accroissement :
IE[Yn+1 − Yn | In ] = IE[Dn+1 (Xn+1 − Xn ) | In ] = Dn+1 (IE[Xn+1 | In ] − Xn ) ,
car Dn+1 appartient à V(In ) (point 2 de la proposition 1.5). Si (Xn ) est une
martingale, l’espérance des accroissements de (Yn ) est nulle. Si Dn+1 ≥ 0,
elle est du même signe que l’espérance des accroissements de (Xn ).
Voici un nouvel exemple de stratégie. A la première partie, le joueur mise
1. S’il gagne, il misera 1 à nouveau à la partie suivante, mais s’il perd, il
misera 2. Il continue à chaque partie en misant 1 s’il a gagné la précédente,
en doublant s’il a perdu. Son raisonnement est le suivant : s’il perd k parties
consécutives, il aura misé en tout 1 + 2 + · · · + 2k−1 = 2k − 1. S’il gagne
la suivante, elle lui rapportera 2k et il sera bénéficiaire de 1. Donc une série
de pertes quelconque sera forcément effacée au prochain gain. Par rapport à
l’exemple précédent, on considère donc une décision qui vaut Dn = 2Dn−1
si Rn−1 = −1 et Dn = 1 si Rn−1 = 1. Est-ce une bonne stratégie ? Non
Cahier de Mathématiques Appliquées no 10
82
bien sûr : la proposition 1.14 s’applique, et l’accroissement de fortune espéré
est nul si le jeu est équitable, négatif s’il est défavorable. Le paradoxe vient
de ce qu’on s’imagine arrêter le jeu après un gain, auquel cas le bénéfice
sera strictement positif. Les instants de gain sont aléatoires et dépendent
des résultats successifs. On les appelle des temps d’arrêt ; c’est le sujet du
paragraphe suivant.
1.4
Temps d’arrêt
Rares sont les joueurs qui fixent à l’avance le nombre de parties qu’ils
s’accordent. La plupart décideront de la fin en fonction de leurs résultats.
Certains arrêteront après une série de 10 pertes consécutives, d’autres au
premier gain, d’autres encore dès qu’ils auront augmenté leur fortune initiale,
d’autres enfin attendront d’être ruinés. Dans chaque cas, l’instant T où le
joueur arrête est une variable aléatoire, qui prend la valeur n en fonction des
résultats des parties jouées jusqu’à l’instant n.
Définition 1.15 Soit T une variable aléatoire à valeurs dans IN ∪ {+∞}.
On note 11n (T ) l’indicatrice de l’événement “T = n”. Soit (In ) une suite
d’informations. On dit que T est un temps d’arrêt relativement à (In ) si la
suite (11n (T )) est adaptée à la suite (In ).
La définition 1.15 est équivalente à dire que la suite de variables aléatoires
(11[0,n] (T )) est adaptée à (In ). Pour le voir, il suffit de remarquer que :
11n (T ) = 11[0,n] (T ) − 11[0,n−1] (T ) .
Reprenons la situation de jeu où In = (R1 , . . . , Rn ), les Rn étant les résultats
des parties successives. Notons Xn = x + R1 + · · · + Rn la fortune du joueur
à l’issue de la n-ième partie. Voici quelques exemples de temps d’arrêt (par
convention, inf ∅ = +∞).
• T+ = inf{n ≥ 1 , Rn > 0} : premier instant de gain.
• T2− = inf{n ≥ 2 , Rn−1 < 0 et Rn < 0} : première occurrence de deux
pertes.
• T++ = inf{n ≥ 1 , Xn > x} : premier instant de bénéfice.
• T+a = inf{n ≥ 0 , Xn ≥ a} : instant d’atteinte d’une fortune cible.
• T−b = inf{n ≥ 0 , Xn ≤ b} : instant d’atteinte d’une fortune plancher.
Les temps d’arrêt que l’on rencontre le plus courammment sont des instants
d’entrée d’une suite adaptée dans un intervalle ou une réunion d’intervalles
(comme les trois derniers exemples ci-dessus). Soit (Xn ) une suite adaptée et
B une réunion d’intervalles de IR. Définissons TB par :
TB = inf{n ≥ 0 , Xn ∈ B} .
Pour montrer que TB est un temps d’arrêt, il suffit d’observer que TB > n
équivaut à dire que X0 , . . . , Xn appartiennent au complémentaire B de B.
Martingales discrètes
On peut donc écrire
83
11[0,n] (TB ) en fonction de X0 , . . . , Xn :
11[0,n] (TB ) = 1 −
n
Y
11B (Xi ) .
i=0
Les temps d’arrêt peuvent prendre la valeur +∞. Par exemple pour un jeu
défavorable, le temps T++ est infini avec une probabilité non nulle. Nous
dirons que le temps d’arrêt T est fini si la probabilité que T prenne la valeur
+∞ est nulle.
Etant donnés une suite adaptée (Xn ) et un temps d’arrêt fini T , nous
nous intéressons au résultat final, à savoir à la valeur XT prise par la suite
(Xn ) à l’instant aléatoire T . Pour tout entier n, nous noterons :
n ∧ T = min{n , T } .
La suite (Xn∧T ) coïncide donc avec (Xn ) avant l’instant T , elle est constante
et égale à XT après. Nous dirons que (Xn∧T ) est la suite arrêtée en T . Pour
tout n ≥ 1, posons Dn = 11[n,+∞] (T ) : les Dn valent 1 pour n = 0, . . . , T , 0
à partir de T + 1. Comme la suite (11n (T )) est adaptée, le décalage d’indice
fait que la suite (Dn ) est prévisible : Dn = 1 − 11[0,n−1] (T ). On peut écrire :
Xn∧T = X0 + D1 (X1 − X0 ) + · · · + Dn (Xn − Xn−1 ) .
Ceci fait apparaître l’arrêt en T comme un cas particulier de stratégie, qui
relève de la proposition 1.14 : si (Xn ) était une martingale ou une sousmartingale, alors la suite arrêtée (Xn∧T ) reste de même nature. Nous avons vu
que l’espérance d’une martingale est constante. L’espérance de la martingale
arrêtée (Xn∧T ) reste donc aussi constante.
Les temps d’arrêt sont des variables souvent difficiles à étudier car, bien
que cela n’apparaisse pas clairement dans leur définition, ils dépendent en
réalité de la suite infinie (In ) des informations. Pour accéder à leur loi, l’outil
essentiel est le théorème d’arrêt 1.16. Il peut arriver que XT n’ait pas d’espérance, même dans le cas où T est fini et où Xn∧T en a une pour tout n. C’est
pourquoi il faut ajouter des conditions pour assurer que IE[XT ] = IE[X0 ]. Le
théorème d’arrêt 1.16 donne les conditions suffisantes les plus simples.
Théorème 1.16 Soit (Xn ) est une martingale et T un temps d’arrêt fini.
Chacune des trois conditions suivantes implique :
IE[XT ] = IE[X0 ] .
1. T est borné : ∃K ∈ IR , T ≤ K .
2. (Xn∧T ) est bornée : ∃M ∈ IR , |Xn∧T | ≤ M , ∀n .
3. T admet une espérance et les accroissements de (Xn ) sont bornés :
∃M ∈ IR , |Xn+1 − Xn | ≤ M , ∀n .
Cahier de Mathématiques Appliquées no 10
84
Démonstration : Dire que T est borné, c’est dire qu’il existe un instant fixé
K après lequel la suite sera forcément arrêtée. On a donc XT = XK∧T , d’où
le résultat sous la première condition. Pour les autres conditions, le premier
pas consiste à se ramener à la première.
Pour n entier, Tn = n ∧ T est un temps d’arrêt qui est borné par n. On
sait donc que IE[Xn∧T ] = IE[X0 ]. Pour conclure, il faut faire tendre n vers
l’infini. Puisque T est fini, (Xn∧T ) converge vers XT . La condition 2 permet
d’appliquer le théorème de convergence dominée de Lebesgue.
Pour la condition 3, on observe la relation :
Xn∧T =
n
X
(Xi∧T − X(i−1)∧T ) .
i=1
Dans la mesure où la suite Xn∧T vaut XT dès que n ≥ T , cette somme
contient au plus T termes non nuls, chacun de ces termes étant majoré par M .
Par conséquent, |Xn∧T | ≤ T M , et on peut à nouveau conclure en appliquant
le théorème de convergence dominée de Lebesgue.
Considérons un jeu équitable, avec une mise fixe de 1. La fortune d’un joueur
varie de ±1 à chaque partie : c’est une martingale à accroissements bornés :
le théorème 1.16 s’applique à tout temps d’arrêt d’espérance finie. Supposons
maintenant que ce même jeu soit joué entre deux joueurs dont les fortunes
initiales respectives sont a et b. Le jeu s’arrête quand l’un des deux joueurs
est ruiné. Comme la somme des fortunes des deux joueurs vaut toujours a+b,
il suffit de considérer la suite (Xn ) des fortunes successives pour un des deux
joueurs, disons celui dont la fortune initiale est a. Le temps d’arrêt est ici :
T = inf{n , Xn = 0 ou a + b} .
On vérifie facilement que T est un temps d’arrêt fini (cf. exercice 1). Jusqu’au
temps T , la suite (Xn ) reste comprise entre 0 et a + b. La condition 2 du
théorème 1.16 s’applique et on a donc :
IE[XT ] = IE[X0 ] = a .
Mais d’autre part, XT ne peut valoir que 0 ou a + b, et donc :
IE[XT ] = 0IP[XT = 0] + (a + b)IP[XT = a + b] .
a
. La probabilité que chaque joueur
On conclut donc que IP[XT = a + b] = a+b
a de ruiner l’autre est proportionnelle à sa propre fortune initiale.
Reprenons maintenant la stratégie de “quitte ou double” du paragraphe
précédent : le joueur double sa mise tant qu’il perd, et s’arrête au premier
gain. Si ce gain a lieu à la n-ième partie, il aura misé en tout 1+2+· · ·+2n−1 =
2n − 1, et reçu 2n . Sa fortune au moment de l’arrêt est donc X0 + 1. Aucune
des conditions du théorème 1.16 ne s’applique dans ce cas. Le temps d’arrêt
T n’est pas borné mais il est fini : si la probabilité de gain est p, la loi de T est
Martingales discrètes
85
la loi géométrique G(p), c’est à dire que le temps d’arrêt (instant de premier
gain) vaut n avec probabilité p(1 − p)n−1 . Son espérance est p1 . Par contre
ni (Xn∧T ) ni ses accroissements ne sont bornés. La quantité totale misée au
moment de l’arrêt est 2T − 1. Elle a pour espérance :
IE[2T − 1] =
∞
X
(2n − 1)p(1 − p)n−1 = −1 + 2p
n=1
∞
X
(2(1 − p))n−1 .
n=1
Si le jeu est défavorable au joueur (p ≤ 21 ), la série diverge : il devrait disposer
d’une fortune infinie pour pouvoir appliquer sa stratégie. Si le jeu lui est
favorable (p > 12 ), il peut appliquer sa stratégie avec une fortune initiale
finie, mais il n’a pas vraiment intérêt à s’arrêter au premier gain !
Nous avons vu que dans un jeu, on modélisait en général l’évolution de la fortune du joueur par les sommes partielles d’une suite de variables aléatoires
indépendantes et de même loi (marche aléatoire). La fortune à un instant
d’arrêt est donc une somme aléatoire de variables indépendantes. Il est possible de calculer les moments d’une telle somme. Pour l’espérance, le théorème
de Wald ci-dessous est un résultat très naturel.
Théorème 1.17 Soit (Zn )n≥1 une suite de variables aléatoires indépendantes, de même espérance µ. Pour n ≥ 1 posons :
In = (Z1 , . . . , Zn )
et
Xn = Z1 + · · · + Zn .
Soit T un temps d’arrêt fini, admettant une espérance. Alors :
IE[XT ] = µ IE[T ] .
Démonstration : Nous avons déjà vu que la suite (Xn ) est adaptée. L’espérance de Xn est nµ. Si on remplace Zn par Zn0 = Zn − µ, la proposition 1.12
montre que la suite (Xn − nµ) est une martingale. Si T ou Zn étaient bornés,
on pourrait appliquer directement le théorème d’arrêt 1.16 et conclure que
IE[XT − T µ] = IE[X1 − µ] = 0. Comme dans la démonstration du théorème
1.16, on peut introduire pour tout n ≥ 1 le temps d’arrêt borné Tn = n ∧ T ,
ainsi que la martingale arrêtée en T : (Xn∧T ). Le théorème 1.16 implique
donc :
IE[Xn∧T ] = µ IE[n ∧ T ] .
Supposons dans un premier temps que les variables aléatoires Zn soient toutes
positives. Puisque T est un temps d’arrêt fini, la suite (n ∧ T ) et la suite
(Xn∧T ) convergent, respectivement vers T et XT . La suite (n∧T ) est évidemment croissante, et il en est de même de la suite (Xn∧T ), puisque ses accroissements sont positifs. On peut donc conclure par le théorème de convergence
monotone que IE[XT ] = µ IE[T ].
Cahier de Mathématiques Appliquées no 10
86
Le cas général se ramène au cas des accroissements positifs de la façon
suivante. On considère la marche aléatoire (Xn0 ), où :
Xn0 = |Z1 | + · · · + |Zn | .
Ses accroissements sont positifs. On a donc : IE[XT0 ] = IE[T ] IE[|Z1 |]. Comme
|XT | est majorée par XT0 , on peut conclure en appliquant le théorème de
convergence dominée de Lebesgue.
1.5
Modèles
Nous allons passer en revue quelques situations où des martingales apparaissent de façon naturelle, sans qu’elles relèvent forcément des jeux. Les
exemples 1, 2 et 3 ont un point commun : l’espérance conditionnelle du résultat étudié Xn+1 sachant l’information In disponible à l’instant n, ne dépend
que de la seule information Xn apportée par l’observation de l’instant n. Cette
particularité, qui facilite le calcul des espérances conditionnelles, s’appelle la
propriété de Markov.
Exemple 1 Dérive génique.
Notre premier exemple est le modèle de Fisher-Wright. Il s’agit de suivre la
répartition d’un gène particulier, noté g, au cours de générations successives,
dans une population dont la taille reste fixée. Les individus sont supposés
n’avoir qu’un seul chromosome, porteur ou non du gène g. Ce chromosome
provient d’un parent unique, choisi au hasard dans la génération précédente.
Tout se passe comme si les chromosomes de la génération n constituaient
un pool de taille N , dans lequel les N chromosomes de la génération n + 1
sont tirés au hasard avec remise. Le nombre de chromosomes porteurs du
gène g est noté Xn . Chaque génération ne dépend que de la précédente. On
pose In = (X0 , . . . , Xn ). Le fait que chaque génération ne dépende que de la
précédente (mais pas des antérieures) entraîne IE[Xn+1 | In ] = IE[Xn+1 | Xn ].
Les hypothèses de modélisation conduisent à dire que la loi conditionnelle de
Xn+1 sachant “Xn = i” est la loi binomiale B(N, i/N ). La moyenne conditionnelle de Xn+1 sachant “Xn = i” vaut donc i.
IE[Xn+1 | In ] = IE[Xn+1 | Xn ] = Xn .
La suite (Xn ) est une martingale. Observons que si à la génération n le gène
g est soit absent, soit présent chez tous les individus (Xn = 0 ou Xn = N ),
alors la suite est constante à partir de la génération n. Définissons l’instant
T de première atteinte de l’un de ces deux états :
T = inf{n , Xn = 0 ou N } .
C’est un temps d’arrêt et nous admettrons qu’il est fini. Les variables Xn
prennent leurs valeurs dans un ensemble fini, et sont donc bornées. La condition 2 du théorème d’arrêt 1.16 s’applique dans ce cas et les espérances de
Martingales discrètes
87
XT et X0 sont donc égales. Fixons i ∈ {0, . . . , N }, et supposons que X0 = i,
c’est à dire une population initiale avec i copies du gène g. Notons ρi,0 et
ρi,N les probabilités que l’arrêt ait lieu sur 0 et N respectivement :
ρi,0 = IP[XT = 0] et ρi,N = IP[XT = N ] .
On obtient :
i = 0 ρi,0 + N ρi,N ,
et donc
i
i
et ρi,N =
.
N
N
La probabilité que le gène envahisse toute la population est égale à sa fréquence initiale.
On peut modifier ce modèle, de manière à tenir compte d’une pression
sélective favorable au gène g. Pour cela nous introduisons un paramètre q < 1,
et décidons que la probabilité de choisir une copie du gène g si i copies sont
présentes est :
1 − qi
.
pi =
1 − qN
ρi,0 = 1 −
On vérifie que pi est une fonction décroissante de q, qui tend vers 1 quand q
tend vers 0, vers Ni quand q tend vers 1. L’avantage sélectif est d’autant plus
élevé que q est faible. Les gènes sont encore tirés au hasard et indépendamment, de sorte que la loi conditionnelle de Xn+1 sachant “Xn = i” est la loi
binomiale B(N, pi ), d’espérance N pi ≥ i. On a donc :
IE[Xn+1 | In ] = IE[Xn+1 | Xn ] = N
1 − q Xn
≥ Xn .
1 − qN
La suite (Xn ) est une sous-martingale (la proportion du gène dans la population a tendance à augmenter). Comme souvent, on peut transformer Xn
de manière à obtenir une martingale. Pour tout n ≥ 0 posons Yn = q N Xn
et calculons IE[Yn+1 | In ] = IE[Yn+1 | Xn ]. La moyenne conditionnelle de Yn+1
sachant “Xn = i” vaut :
n X
n
k=0
k
pki (1 − pi )N −k q N k = (1 − pi )N
N
pi q N
= q iN .
1+
1 − pi
On a donc :
IE[Yn+1 | In ] = Yn ,
et (Yn ) est une martingale. Nous admettrons encore que T est fini. Le théorème 1.16 permet de calculer la probabilité que le gène envahisse la population
ou disparaisse, quand la population initiale contient i copies de g (X0 = i).
2
q iN = IE[Y0 ] = IE[YT ] = 1 ρ0,N + q N ρi,N ,
Cahier de Mathématiques Appliquées no 10
88
d’où :
ρi,N =
1 − q iN
1 − qN 2
2
et ρ0,N =
q iN − q N
.
1 − qN 2
Exemple 2 Croissance de population.
Voici maintenant le modèle de de Galton-Watson, du nom des mathématiciens qui l’ont introduit comme modèle de perpétuation des lignées chez
les pairs d’Angleterre à la fin du XIXème siècle. Les instants successifs sont
interprétés comme des générations. Les individus sont des “Lords”, qui transmettent leur titre uniquement à leurs fils. La variable aléatoire Xn sera comprise comme le nombre d’hommes de la lignée à la n-ième génération. L’information disponible à la génération n se compose de la suite des tailles
des générations successives. C’est donc l’information propre de (Xn ) : In =
(X0 , . . . , Xn ). Chaque individu d’une génération donnée contribue à la génération suivante par un nombre aléatoire de descendants. Toutes les descendances sont supposées indépendantes et de même loi. Le nombre moyen de
descendants d’un individu (supposé fini !) est noté µ. S’il y a i individus à la nième génération (Xn = i), alors Xn+1 sera la somme des descendances de ces i
individus, qui sont des variables aléatoires indépendantes. L’espérance conditionnelle de Xn+1 sachant Xn (et donc sachant In ) est IE[Xn+1 | Xn ] = µXn .
La suite (Xn ) est donc une :
• martingale si µ = 1,
• sous-martingale si µ ≥ 1,
• sur-martingale si µ ≤ 1.
Posons maintenant Yn = Xn /µn . On a :
IE[Yn+1 | Yn ] = IE[Yn+1 | Xn ] =
1
µn+1
IE[Xn+1 | Xn ] =
Xn
= Yn .
µn
La suite (Yn ) est une martingale et donc IE[Yn ] = IE[Y0 ], soit IE[Xn ] =
µn IE[X0 ] pour tout n. Comme on pouvait le deviner, la taille moyenne des
générations diminue si µ < 1, augmente exponentiellement si µ > 1. On
démontre que la population disparaît avec probabilité 1 si µ ≤ 1.
Exemple 3 File d’attente.
Voici un modèle élémentaire de file d’attente à un seul serveur. Les clients
sont servis un par un, et le temps de service de chaque client est fixe. L’unité
de temps est ce temps de service. Le nombre de clients arrivant dans la file
pendant la n-ième unité de temps est une variable aléatoire Cn . On supposera
que les Cn sont indépendantes et de même loi. Un client arrivant alors que
la file est vide attend l’unité de temps suivante pour être servi. Nous notons
Xn le nombre de clients présents dans la file à la fin de la n-ième unité de
temps. Si Xn est ≥ 1, alors Xn+1 = Xn − 1 + Cn+1 (un client est parti, et
Cn+1 sont arrivés). Si Xn est nul, alors Xn+1 = Cn+1 . On peut donc écrire :
Xn+1 = Xn − 11IN ∗ (Xn ) + Cn+1 .
(1.3)
Martingales discrètes
89
Ceci montre que (Xn ) est adaptée à son information propre, comme à l’information des nombres de clients arrivés au cours des unités de temps successives : In = (X0 , C1 , . . . , Cn ).
Le comportement de la suite (Xn ) est facile à deviner intuitivement. Notons ρ l’espérance commune des Cn , à savoir le nombre moyen de clients qui
arrivent pendant un temps de service. C’est le coefficient d’occupation de la
file. Si ρ < 1, le serveur peut faire face à toutes les demandes : les clients ne
s’accumulent pas et un régime d’équilibre peut s’établir. Si ρ > 1, les clients
sont trop nombreux et la file sature : le nombre moyen de clients à l’instant
n croît en moyenne comme n(ρ − 1).
On déduit immédiatement IE[Xn+1 | In ] de la formule (1.3) :
IE[Xn+1 | In ] = Xn − 11IN ∗ (Xn ) + ρ .
Si ρ > 1, (Xn ) est une sous-martingale. Considérons maintenant Yn = Xn −
nρ :
IE[Yn+1 | In ] = Xn − 11IN ∗ (Xn ) + ρ − (n + 1)ρ = Yn − 11IN ∗ (Xn ) .
La suite (Yn ) est donc une sur-martingale.
Exemple 4 Placement financier.
Les applications récentes les plus spectaculaires des martingales se situent en
finance. Nous n’en évoquerons que quelques principes de base. Les modèles
effectivement utilisés par les banques sont le plus souvent en temps continu,
et le temps discret auquel nous nous limitons dans ce cours n’est qu’une
approximation.
Pour placer son argent, un investisseur a le choix entre des placements dits
sans risques (plans d’épargnes, emprunts) et des placements risqués (actions
cotées en bourse), dont le revenu n’est pas garanti. Pour simplifier, nous
nous limiterons à un seul actif de chaque type. Un actif d’épargne vaut E0
à l’instant n = 0. Son taux est r, de sorte qu’à l’instant n, sa valeur est
En = (1 + r)n E0 . Le cours de l’actif risqué à l’instant n est Sn . L’ensemble
des résultats du marché jusqu’à l’instant n constitue l’information In , connue
de tous les acteurs du marché. Le taux d’accroissement de l’actif à l’instant
n (entre n−1 et n) est noté Rn :
En − En−1
=r
En−1
et
Sn − Sn−1
= Rn .
Sn−1
La prédiction de ce taux d’accroissement connaissant l’information disponible
à l’instant n est :
IE[Rn+1 | In ] =
1
(IE[Sn+1 | In ] − Sn ) .
Sn
Si cette prédiction était supérieure ou inférieure au taux garanti r, alors il
existerait des stratégies d’arbitrage, c’est à dire des stratégies d’investissement
Cahier de Mathématiques Appliquées no 10
90
qui permettraient avec un investissement nul, de réaliser un profit non nul.
Dans un marché viable, c’est exclu. Le marché est donc viable si et seulement
si IE[Rn+1 | In ] = r. On a alors :
IE[Sn+1 | In ] = (1 + r)Sn .
Donc (Sn ) est une sous-martingale. Introduisons le prix actualisé de l’actif :
Sen = (1 + r)−n Sn .
IE[Sen+1 | In ] = (1 + r)−n−1 IE[Sn+1 | In ] = (1 + r)−n Sn = Sen .
Dans un marché viable, le prix actualisé de tout actif doit être une martingale. On démontre que si c’est le cas, alors aucune stratégie d’arbitrage
ne peut conduire à un profit à partir d’un investissement nul. Si la fortune
en = (1 + r)−n Xn ,
d’un investisseur à l’instant n est Xn de valeur actualisée X
alors quelle que soit la manière dont il utilise l’information du marché pour la
en ) sera une martingale.
répartir entre actifs risqués et non risqués la suite (X
Supposons qu’à l’instant 0, un investisseur dispose d’une fortune x, qu’il
choisit de répartir entre U0 unités d’épargne, et V0 unités d’actif risqué, de
sorte que :
U0 E0 + V0 S0 = x .
Cette répartition est le portefeuille de l’investisseur. Il peut à chaque instant
décider d’en modifier la composition : à l’instant n il dispose de Un unités
d’épargne et de Vn actions. La suite des couples (Un , Vn ) est une stratégie
d’investissement. C’est une suite prévisible. La fortune totale à l’instant n
vaut :
Xn = Un En + Vn Sn .
Remarquons que les quantités Un et Vn ne sont pas nécessairement positives,
car l’investisseur peut décider d’emprunter. Par contre, il doit pouvoir rembourser à tout moment, de sorte que la fortune totale Xn doit rester positive.
Nous supposons que les placements sont sans frais. La modification du portefeuille avant l’instant n + 1 s’effectue donc en réinvestissant la fortune Xn
et rien de plus (on parle de stratégie autofinancée) :
Xn = Un+1 En + Vn+1 Sn .
L’accroissement de fortune entre les instants n et n + 1 est :
Xn+1 − Xn = Un+1 (En+1 − En ) + Vn+1 (Sn+1 − Sn ) .
Il s’exprime en fonction des variations de l’épargne et de l’action :
En+1 − En = rEn
et Sn+1 − Sn = Rn+1 Sn ,
où Rn+1 est le taux de rendement de l’action, qui ne sera connu qu’à l’instant
n + 1. On peut récrire l’accroissement de fortune en fonction des taux :
Xn+1 − Xn = rXn + Vn+1 Sn (Rn+1 − r) .
Martingales discrètes
91
Cette forme a l’avantage de faire ressortir le bénéfice ou la perte (selon le
signe de Rn+1 − r) par rapport au placement “sans risque” qui consisterait à
investir toute la fortune Xn en épargne, pour gagner rXn . Considérons alors
en = (1 + r)−n Xn . Son accroissement entre n et n + 1
la valeur actualisée X
vérifie :
en+1 − X
en = (1 + r)−1 Vn+1 Sen (Rn+1 − r) .
X
A l’instant n, les valeurs de Vn+1 et Sen sont connues, l’espérance conditionen ) est donc une martingale.
nelle de Rn+1 sachant In est r, et (X
Une option européenne d’achat est un contrat que l’on passe au temps
0, pour obtenir le droit d’acheter au temps N une unité d’actif risqué au
prix K, fixé au temps 0. Juste après le temps N (à l’échéance du contrat),
si le prix réel SN de l’actif est inférieur à K, l’investisseur n’a pas intérêt à
acheter au prix K, et il renonce donc à son droit. Mais si SN est supérieur à
K, l’investisseur réalise un bénéfice de SN − K, en achetant l’actif au prix K
pour le revendre aussitôt à son prix SN . La valeur à l’instant N du contrat
est donc :
(SN − K)+ = (SN − K)11IR+ (SN − K) .
Quel prix doit-on payer pour ce contrat à l’instant 0 ? Ce prix est analogue à
une prime d’assurance : on achète un droit. On doit calculer le juste prix de
ce droit, celui qui fait qu’il y aura des acheteurs mais aucun enrichissement
sans apport initial. Le juste prix est obtenu pour la valeur de la fortune
initiale x = X0 , qui investie comme on l’a vu plus haut, en épargne et actif
risqué au moyen d’une stratégie (Un , Vn ), permet de réaliser le même bénéfice
à l’instant N que l’option d’achat. Une telle stratégie s’appelle stratégie de
couverture ou de réplication de l’option, et elle est telle que la fortune (Xn )
vérifie :

 X0 = x ,
Xn ≥ 0 , ∀n = 0, . . . , N ,

XN = (SN − K)+ .
Suivre une stratégie de couverture conduit donc au bénéfice de l’option européenne à l’instant N . Quelle que soit la stratégie adoptée, la fortune actualisée
est une martingale. Donc (1+r)N IE[XN ] = IE[X0 ] = x. S’il existe une statégie
de couverture, sa valeur initiale est donc nécessairement :
x = (1 + r)−N IE[(SN − K)+ ] .
On démontre que pour cette valeur de x, il existe effectivement une stratégie
de couverture unique. La valeur x est le juste prix de l’option européenne
d’achat à l’instant 0.
Exemple 5 Rapport de vraisemblance.
Notre dernier exemple est issu de la statistique. Considérons une expérience
dont le résultat est une variable aléatoire réelle X de loi inconnue. Si on
Cahier de Mathématiques Appliquées no 10
92
répète indépendamment cette expérience, on engendre une suite de variables
aléatoires (Xn ) de même loi que X. Notons In l’échantillon des n premiers
résultats : In = (X1 , . . . , Xn ). L’objectif est d’utiliser l’information In pour
en extraire des renseignements les plus précis possibles sur la loi de X. Nous
supposerons ici que la loi de X admet une densité f sur IR.
Définition 1.18 On appelle vraisemblance la fonction qui à un n-uplet
(x1 , . . . , xn ) d’éléments de IR et à la densité f associe le produit :
L(f, x1 , . . . , xn ) = f (x1 ) · · · f (xn ) .
La vraisemblance est donc la densité du n-uplet In . Si on compose avec
les variables aléatoires de l’échantillon (indépendantes et de densité f ), on
obtient une variable aléatoire, que l’on notera Ln (f ) :
Ln (f ) = L(f, X1 , . . . , Xn ) .
Supposons à présent que, ne connaissant pas la vraie densité des Xi , l’on
veuille trancher entre deux densités f0 et f1 , c’est à dire construire un test
de l’hypothèse H0 : “la densité des Xi est f0 ” contre H1 : “la densité des Xi
est f1 ”. Il est naturel de considérer le rapport des deux vraisemblances, que
nous noterons Rn :
Rn =
Ln (f1 )
.
Ln (f0 )
Remarquons que la suite (Rn ) est adaptée relativement à (In ). Pour simplifier, nous supposerons que les deux densités sont strictement positives sur IR.
Si pour une observation (x1 , . . . , xn ) donnée la valeur prise par Rn est grande,
c’est que la densité f1 est la plus vraisemblable et il faudra rejeter l’hypothèse
H0 . Pour déterminer la valeur critique du rapport de vraisemblance, à partir
de laquelle on rejettera H0 , il faut connaître la loi de probabilité de Rn sous
l’hypothèse H0 . Supposons donc que (Xn ) soit une suite de variables aléatoires indépendantes de même densité f0 , et notons IE0 l’espérance calculée
sous cette hypothèse. Remarquons que Rn est positive et :
IE0 [Rn ] =
n
Y
i=1
IE0
Y
n Z
f1 (Xi )
f1 (x)
=
f0 (x) dx = 1 .
f0 (Xi )
f (x)
i=1 IR 0
Les variables Rn admettent toutes la même espérance égale à 1, car elles
sont un produit de variables indépendantes et d’espérance 1. Calculons la
Martingales discrètes
93
prédiction de Rn+1 sachant In :
f1 (Xn+1 )
| In
IE0 [Rn+1 | In ] = IE0 Rn
f0 (Xn+1 )
f1 (Xn+1 )
| In
f0 (Xn+1 )
f1 (Xn+1 )
= Rn .
f0 (Xn+1 )
= Rn IE0
= Rn IE0
La suite (Rn ) est une martingale relativement à (In ). On démontre que Rn
converge presque sûrement vers 0, ce qui est conforme à l’intuition : si l’hypothèse H0 est correcte, alors quand la taille de l’échantillon augmente, le
rapport entre la vraisemblance d’une observation sous une autre loi et sous
la “vraie loi” doit être de plus en plus déséquilibré en faveur de la seconde.
Une fois le test défini, on s’intéresse à l’erreur de deuxième espèce, qui
est la probabilité d’accepter H0 à tort. Pour cela il faut considérer la loi du
rapport de vraisemblance Rn sous l’hypothèse H1 où les Xn ont pour densité
f1 . De façon analogue, notons IE1 l’espérance calculée sous l’hypothèse H1 .
On a maintenant :
Z
Z
f1 (x)
f12 (x)
f1 (Xn+1 )
=
f1 (x) dx =
f0 (x) dx
IE1
2
f0 (Xn+1 )
IR f0 (x)
IR f0 (x)
Z
≥
IR
f1 (x)
f0 (x) dx
f0 (x)
2
=1.
Sous l’hypothèse H1 la suite (Rn ) est une sous-martingale.
Supposons par exemple que f0 et f1 soient les densités des lois normales
N (0, 1) et N (µ, 1), avec µ 6= 0. Le rapport des deux densités est :
f1 (x)
µ2
= exp µx −
.
f0 (x)
2
Le rapport de vraisemblance Rn est :
n
Rn = exp nµ
1X
µ
Xi −
n i=1
2
!!
.
Pn
D’après la loi des grands nombres, n1 i=1 Xi converge presque sûrement
vers 0 sous l’hypothèse H0 , vers µ sous l’hypothèse H1 . Donc (Rn ) converge
presque sûrement vers 0 sous l’hypothèse H0 , vers +∞ sous l’hypothèse H1 ,
conformément à l’intuition.
Cahier de Mathématiques Appliquées no 10
94
2
Inégalités
2.1
Fonctions convexes
Dans plusieurs des exemples qui ont été proposés jusqu’ici, nous avons
été amenés à transformer une suite pour faire apparaître une martingale, une
sous-martingale, ou une sur-martingale. Considérons une martingale (Xn ),
relativement à la suite d’informations (In ). Soit ϕ une fonction de IR dans
IR. Que peut-on dire de la suite (ϕ(Xn )) ? Elle est bien sûr encore adaptée à
(In ). Sa prédiction pour l’instant n + 1 est IE[ϕ(Xn+1 ) | In ], que l’on souhaite
comparer à ϕ(Xn ) = ϕ(IE[Xn+1 | In ]). Sauf si ϕ est affine, les deux ne sont
pas égales. En revanche, si ϕ est convexe, on peut toujours les comparer.
Définition 2.1 Soit ϕ une fonction de IR dans IR. On dit que ϕ est convexe
si pour tout triplet de réels u, v, w tels que u < v < w :
ϕ(w) − ϕ(v)
ϕ(v) − ϕ(u)
≤
.
v−u
w−v
(2.4)
La fonction ϕ est dite concave si −ϕ est convexe.
La définition 2.1 dit qu’une fonction est convexe si les cordes du graphe de ϕ
ont des pentes croissantes. Les fonctions utiles sont au moins dérivables deux
fois par morceaux, et il est plus facile de retenir qu’une fonction est convexe
si sa dérivée est croissante ou si sa dérivée seconde est positive ou nulle. Les
fonctions convexes que l’on rencontre le plus fréquemment sont les suivants.
1. ϕ(x) = x2 ,
2. ϕ(x) = |x|,
3. ϕ(x) = x11IR+ (x),
4. ϕ(x) = exp(x),
5. ϕ(x) = x log(x).
Pour récrire l’inégalité 2.4, posons p =
v = pw + (1 − p)u. On obtient :
v−u
w−u ,
de sorte que 0 < p < 1 et
ϕ(pw + (1 − p)u) ≤ pϕ(w) + (1 − p)ϕ(u) .
L’image par une fonction convexe d’un barycentre est donc inférieure au barycentre des images. La généralisation de ceci aux espérances conditionnelles
est l’inégalité de Jensen.
Théorème 2.2 Soit ϕ une fonction convexe de IR dans IR, X une variable
aléatoire et I un vecteur aléatoire.
ϕ(IE[X | I]) ≤ IE[ϕ(X) | I] .
Pour se souvenir du sens de l’inégalité, on se rappellera les cas particuliers
ϕ(x) = |x| ou ϕ(x) = x2 . On en déduit immédiatement le corollaire suivant.
Martingales discrètes
95
Corollaire 2.3 Soit (Xn ) une martingale relativement à (In ) et ϕ une fonction mesurable.
1. Si ϕ est convexe, la suite (ϕ(Xn )) est une sous-martingale,
2. Si ϕ est concave, la suite (ϕ(Xn )) est une sur-martingale.
Remarquons aussi que si (Xn ) est une sous-martingale et si ϕ est convexe et
croissante, alors (ϕ(Xn )) est aussi une sous-martingale. En effet :
IE[ϕ(Xn+1 ) | In ] ≥ ϕ(IE[Xn+1 | In ]) ≥ ϕ(Xn ) .
Par exemple, si (Xn ) est une sous-martingale, (Xn 11[0,+∞[ (Xn )), (exp(Xn ))
sont aussi des sous-martingales.
Reprenons la martingale du rapport de vraisemblance (exemple 5). On considère une suite (Xn ) de variables aléatoires indépendantes et de même loi.
Etant données deux densités f0 et f1 , le rapport de vraisemblance de l’échantillon (X1 , . . . , Xn ) est :
Ln (f1 )
.
Rn =
Ln (f0 )
Posons maintenant Sn = log(Rn ). La suite (Sn ) est une marche aléatoire :
Sn =
n
X
log
i=1
f1 (Xi )
f0 (Xi )
.
Sous l’hypothèse H0 , (Rn ) est une martingale, et le logarithme étant concave,
le corollaire 2.3 montre que (Sn ) est une sur-martingale. On peut aussi déduire
directement de l’inégalité de Jensen que l’espérance des pas est négative.
L’espérance de Sn tend vers −∞, linéairement en n.
Sous l’hypothèse H1 , (Rn ) est une sous-martingale. Nous allons montrer
que (Sn ) est aussi une sous-martingale. Il suffit pour cela de montrer que
l’espérance des pas est positive. Nous utilisons l’inégalité de Jensen, appliquée
à la fonction convexe ϕ(x) = x log(x), qui vérifie ϕ(1) = 0.
Z
f1 (Xi )
f1 (x)
IE1 log
=
log
f1 (x) dx
f0 (Xi )
f0 (x)
IR
Z
=
ϕ
IR
f1 (x)
f0 (x)
f0 (x) dx
f1 (Xi )
= IE0 ϕ
f0 (Xi )
f1 (Xi )
≥ ϕ IE0
=0.
f0 (Xi )
Cahier de Mathématiques Appliquées no 10
96
2.2
Sous-martingales et compensateurs
Nous commençons par la décomposition de Doob, qui distingue dans une
suite adaptée une partie prévisible et une martingale.
Théorème 2.4 Soit (Xn ) une suite adaptée à la suite d’informations (In ).
Il existe une martingale (Mn ) et une suite prévisible (An ) uniques telles que
M0 = A0 = 0 et pour tout n ≥ 0 :
Xn = X0 + Mn + An .
(2.5)
De plus la suite (Xn ) est une sous-martingale si et seulement si la suite (An )
est croissante.
Démonstration : Posons pour n ≥ 1,
An =
n
X
IE[Xk − Xk−1 | Ik−1 ] .
(2.6)
k=1
La suite (An ) est prévisible. Posons ensuite :
Mn = Xn − X0 − An .
La suite (Mn ) est adaptée. De plus :
IE[Mn+1 − Mn | In ] = IE[(Xn+1 − Xn ) − (An+1 − An ) | In ] = 0 ,
ce qui montre que (Mn ) est bien une martingale. Réciproquement, si la décomposition (2.5) est vraie, alors :
IE[Xn+1 − Xn | In ] = IE[Mn+1 − Mn | In ] + IE[An+1 − An | In ]
= 0 + An+1 − An ,
car (Mn ) est une martingale et (An ) est prévisible. Donc An est nécessairement définie par (2.6).
La suite (Xn ) est une sous-martingale si et seulement si la prévision de
ses accroissements IE[Xn+1 − Xn | In ] est positive ou nulle c’est à dire si la
suite prévisible (An ) est croissante.
Dans la décomposition de Doob, la partie prévisible (An ) s’appelle le compensateur (prévisible) de (Xn ). Il faut voir une sous-martingale comme une
fonction croissante bruitée. Dans une sous-martingale, la décomposition de
Doob distingue la partie prévisible croissante de la partie non prévisible,
d’espérance nulle.
Comme premier exemple, considérons une marche aléatoire. Soit (Zn )
une suite de variables aléatoires indépendantes et de même loi, d’espérance
µ. Posons Xn = Z1 + · · · + Zn . Dans ce cas, l’accroissement prévisible est
Martingales discrètes
97
IE[Zn+1 | In ] = µ, car Zn+1 est indépendant du passé. Le compensateur est
déterministe : An = nµ. La martingale associée Mn est la différence entre Xn
et son espérance.
Considérons ensuite la file d’attente de l’exemple 3, pour laquelle Xn
désigne le nombre de clients après le n-ième service. D’après la formule (1.3),
l’accroissement prévisible est :
An+1 − An = IE[Xn+1 − Xn | In ] = −11IN ∗ (Xn ) + ρ .
Le compensateur est donc croissant si ρ > 1. L’accroissement de la martingale
associée est :
Mn+1 − Mn = Cn+1 − ρ .
Dans ce cas, la martingale (Mn ) est la marche aléatoire de pas Cn − ρ, qui
compte la différence entre le nombre total de clients arrivés au cours des n
premiers services et son espérance.
Reprenons maintenant l’exemple 5 du rapport de vraisemblance. On considère une suite (Xn ) de variables aléatoires indépendantes et de même loi.
Etant données deux densités f0 et f1 , le rapport de vraisemblance de l’échantillon (X1 , . . . , Xn ) est :
Ln (f1 )
.
Rn =
Ln (f0 )
Nous avons déjà montré que sous l’hypothèse H0 où la loi des Xi a pour
densité f0 , (Rn ) est une martingale et (log(Rn )) est une sur-martingale. Sous
l’hypothèse H1 où la loi des Xi a pour densité f1 , (Rn ) et (log(Rn )) sont
des sous-martingales. Comme (log(Rn )) est une marche aléatoire, son compensateur est déterministe : An = nµ, où µ est l’espérance d’un pas, dont
nous avons déjà montré qu’elle est positive. Cette quantité, qui joue un rôle
important en statistique, est l’information de Kullback de la densité f1 par
rapport à f0 .
f1 (Xi )
f1 (Xi )
= IE0 ϕ
,
K(f1 , f0 ) = IE1 log
f0 (Xi )
f0 (Xi )
avec ϕ(x) = x log(x). Dans le cas où f0 et f1 sont les densités respectives
des lois N (0, 1) et N (µ, 1), on trouve :
K(f1 , f0 ) = IE1 [µXi − µ2 /2] = µ2 /2 .
2.3
Variation quadratique
Nous nous intéressons ici aux variations d’une martingale (Xn ) relative
à la suite d’informations (In ). Dans tout ce paragraphe, on suppose que les
variables Xn admettent une variance.
Définition 2.5 Soit (Xn ) une suite de variables aléatoires. On dit que (Xn )
est de carré intégrable si pour tout n, IE[Xn2 ] < ∞.
Cahier de Mathématiques Appliquées no 10
98
Pour n ≥ 1, posons :
∆n = Xn − Xn−1 .
La suite (∆n ) est adaptée, et d’après la définition 1.9, la prévision d’un accroissement est toujours nulle.
IE[∆n+1 | In ] = 0 .
Les accroissements ont de plus une propriété d’orthogonalité relativement au
produit scalaire hX, Y i = IE[XY ].
Proposition 2.6 Soit (Xn ) une martingale de carré intégrable. Pour tout
n 6= m :
IE[∆n ∆m ] = 0 .
Démonstration : Sans perte de généralité, supposons n < m et conditionnons
par In :
IE[∆n ∆m ] = IE[IE[∆n ∆m | In ]]
= IE[∆n IE[Xm − Xm−1 | In ]]
= IE[∆n (Xn − Xn )] = 0 .
Ecrivons Xn en fonction des ∆i :
Xn = X0 + ∆1 + · · · + ∆n .
(2.7)
La variable Xn − X0 apparaît donc comme une somme de variables aléatoires
orthogonales deux à deux, tout comme une marche aléatoire est somme de
variables aléatoires indépendantes (nous avons vu que dans le cadre gaussien,
orthogonalité et indépendance étaient équivalentes : point 4 de la proposition
1.7).
Les accroissements ∆n étant orthogonaux, on peut appliquer le théorème de
Pythagore à la décomposition (2.7) :
IE[Xn2 ] = IE[X02 ] + IE[∆21 ] + · · · + IE[∆2n ] .
(2.8)
Nous sommes donc amenés à nous intéresser aux carrés des accroissements,
et en particulier à leur prévision.
2
IE[∆2n+1 | In ] = IE[Xn+1
− 2Xn+1 Xn + Xn2 | In ]
2
= IE[Xn+1
| In ] − 2Xn IE[Xn+1 | In ] + Xn2
2
= IE[Xn+1
− Xn2 | In ] .
La projection de ∆2n+1 sur V(In ) est donc la prévision d’accroissement pour
la suite (Xn2 ), c’est à dire la variation de son compensateur. Le fait que cette
Martingales discrètes
99
variation soit positive montre que le compensateur est croissant, et que donc
(Xn2 ) est une sous-martingale. La fonction ϕ(x) = x2 étant convexe, on aurait
pu le déduire aussi du corollaire 2.3. Le compensateur de (Xn2 ) joue un grand
rôle dans l’étude d’une martingale. On l’appelle la variation quadratique ou
le crochet de (Xn ).
Définition 2.7 Soit (Xn ) une martingale de carré intégrable. On appelle
variation quadratique ou crochet de (Xn ) et on note (hXin ) la suite prévisible
croissante définie par hXi0 = 0 et pour n ≥ 1 :
hXin =
n
X
IE[Xk2
−
2
Xk−1
| Ik−1 ] =
k=1
n
X
IE[(Xk − Xk−1 )2 | Ik−1 ] .
k=1
La suite (hXin ) est l’unique suite croissante prévisible nulle en 0 telle que
(Xn2 − hXin ) soit une martingale.
Considérons par exemple la martingale (Xn ) du modèle de Fisher-Wright
(exemple 1) : elle compte le nombre de copies du gène g dans la population
de taille N . La loi conditionnelle de Xn+1 sachant Xn = i est la loi binomiale
B(N, Ni ), de variance N Ni (1− Ni ). Dans ce cas, la variation quadratique vaut :
hXin =
n
X
k=1
Xk−1
Xk−1 1 −
.
N
Le théorème 2.8 ci-dessous est analogue au théorème d’arrêt 1.16. C’est un
autre théorème de Wald.
Théorème 2.8 Soit (Xn ) une martingale de carré intégrable et T un temps
d’arrêt fini. Chacune des deux conditions suivantes implique :
IE[XT2 ] = IE[hXiT ] .
1. T est borné : ∃K ∈ IR , T ≤ K .
2. (Xn∧T ) est bornée : ∃M ∈ IR , |Xn∧T | ≤ M , ∀n .
Démonstration : Les deux conditions sont les deux premières conditions du
théorème 1.16, et il suffit de l’appliquer à la martingale (Xn2 − hXin ). Remarquons cependant que la condition 3 du théorème 1.16 n’implique pas le
résultat.
Examinons le cas d’une marche aléatoire. Soit (Zn ) une suite de variables
aléatoires indépendantes et de même loi, d’espérance µ, de variance σ 2 . Posons X0 = 0 et pour n ≥ 1, Xn = Z1 + · · · + Zn − nµ. La marche aléatoire (Xn ) est une martingale (proposition 1.12). L’accroissement quadratique
(Xn+1 − Xn )2 étant indépendant du passé, son espérance conditionnelle est
déterministe, c’est la variance σ 2 du pas. Le compensateur dans ce cas est la
Cahier de Mathématiques Appliquées no 10
100
suite déterministe (nσ 2 ). La suite (Xn2 − nσ 2 ) est encore une martingale. Si
T est un temps d’arrêt et si l’une des conditions du théorème 2.8 est vérifiée,
alors :
IE[XT2 ] = σ 2 IE[T ] .
Comme cas particulier, nous allons revenir sur la vraisemblance (exemple 5),
mais cette fois-ci dans un contexte d’estimation paramétrique. Nous supposons encore pour simplifier que toutes les densités écrites sont strictement
positives sur IR. La densité des Xi est supposée appartenir à une famille de
densités {fθ , θ ∈ Θ}, où Θ est un intervalle ouvert de IR. Nous supposons que
fθ (x) est 2 fois continûment dérivable par rapport à θ, et que les dérivations
sous le signe intégrale sont justifiées, de sorte que pour tout θ :
Z
Z
∂ 2 fθ
∂fθ
(x) dx = 0 .
(x) dx =
2
IR ∂θ
IR ∂θ
(1)
Les deux dérivées successives par rapport à θ seront désormais notées fθ et
(2)
fθ .
La vraisemblance associée à un échantillon (X1 , . . . , Xn ) de variables aléatoires indépendantes de densité fθ , dépend maintenant de θ. Nous la noterons
Ln (θ).
Ln (θ) = fθ (X1 ) . . . fθ (Xn ) .
Si (X1 , . . . , Xn ) sont des variables indépendantes de densité fθ0 , on s’attend à ce que la vraisemblance Ln (θ) admette un maximum pour θ = θ0 .
Le logarithme étant croissant, il est équivalent (et plus facile) de maximiser log(Ln (θ)). Sous nos hypothèses de dérivabilité, log(Ln (θ)) admettra un
maximum si sa dérivée s’annule, et sa dérivée seconde est négative.
Pour tout n ≥ 1, nous introduisons les variables aléatoires suivantes.
ln (θ) = log(Ln (θ)) =
n
X
log(fθ (Xi )) ,
i=1
ln0 (θ) =
n
(1)
X
f (Xi )
θ
i=1
n
X

(2)
fθ (Xi )
 fθ (Xi ) −
ln00 (θ) =
fθ (Xi )
i=1
(1)
,
fθ (Xi )
fθ (Xi )
!2 
 .
Les trois suites (ln (θ)), (ln0 (θ)) et (ln00 (θ)) sont des marches aléatoires. Notons
IEθ l’espérance sous l’hypothèse où les Xi ont pour densité fθ . Pour (ln0 (θ)),
l’espérance d’un pas vaut :
" (1)
# Z
(1)
fθ (Xi )
fθ (x)
IEθ
=
fθ (x) dx = 0 .
fθ (Xi )
IR fθ (x)
Martingales discrètes
101
La variance est :

(1)
f (Xi )
I(θ) = IEθ  θ
fθ (Xi )
!2 
Z
=
IR
(1)
fθ (x)
fθ (x)
!2
fθ (x) dx .
La marche aléatoire (ln0 (θ)) est donc une martingale, sa variation quadratique
(déterministe) est hZ (1) in = nI(θ). Cette variation quadratique joue un rôle
important en statistique : c’est l’information de Fisher (en θ) de l’échantillon.
C’est aussi l’opposé du compensateur de la marche aléatoire (ln00 (θ)) :

!2 
(1)
(2)
f
(X
)
f
(X
)
i
i
θ

−
IEθ  θ
fθ (Xi )
fθ (Xi )
Z
=
IR
(2)
fθ (x)
fθ (x) dx −
fθ (x)
Z
IR
(1)
fθ (x)
fθ (x)
!2
fθ (x) dx
= 0 − I(θ) .
Donc (ln00 (θ)) est une sur-martingale et son espérance tend vers −∞, linéairement en n. Ces propriétés de (ln0 (θ)) et (ln00 (θ)) ont des conséquences statistiques importantes. On en déduit en particulier que l’estimateur du maximum
de vraisemblance de θ est asymptotiquement de variance minimale parmi tous
les estimateurs de θ, et cette variance minimale est précisément l’inverse de
l’information de Fisher nI(θ).
Supposons par exemple que fθ soit la densité de la loi normale N (θ, 1).
La quantité I(θ) vaut :
IEθ [(θ − Xi )2 ] = 1 .
L’estimateur du maximum de vraisemblance de θ est la moyenne empirique :
n
1X
Xi .
n i=1
Sa variance est bien
2.4
1
n.
Inégalités de déviations
La clé de la démonstration d’une convergence presque sûre est l’étude
d’une série de probabilités :
X
IP[|Xn − X| > t] .
n∈IN
Ce n’est qu’une des raisons pour lesquelles il est important de savoir contrôler
par des inégalités des probabilités du type IP[Y > t] ou IP[Y < t], que l’on
appelle probabilités de déviations. La plus simple est l’inégalité de Markov :
Cahier de Mathématiques Appliquées no 10
102
Proposition 2.9 Soit Y une variable aléatoire positive, admettant une espérance. Pour tout t > 0 :
IP[Y > t] ≤
1
IE[Y ] .
t
(2.9)
Démonstration : elle consiste à minorer IE[Y ], assez brutalement.
IE[Y ] ≥ IE[ t 11[t,+∞[ (Y ) ] = t IP[Y > t] .
Pour Y = (X − IE[X])2 , (2.9) est l’inégalité de Bienaymé-Chebyshev. Dans
le cas d’une sous-martingale (Xn ), l’inégalité de Markov permet un contrôle
uniforme des déviations des n premières valeurs en fonction de l’espérance de
la n-ième.
Théorème 2.10 Soit (Xn ) une sous-martingale à valeurs positives. Pour
tout t > 0 :
1
(2.10)
IP[ max Xi ≥ t ] ≤ IE[Xn ] .
i=0,...,n
t
Remarquons que si (Xn ) est une sous-martingale de signe quelconque, on
peut appliquer (2.10) à (max{Xn , 0}), qui est aussi une sous-martingale.
Démonstration : Considérons le temps d’arrêt T suivant :
T = inf{n} ∪ {i , Xi ≥ t} .
Nous allons appliquer l’inégalité de Markov à la variable aléatoire XT . Remarquons que XT ≥ t si et seulement si l’une des valeurs X0 , . . . , Xn est
supérieure à t. Donc :
IP[ max Xi ≥ t ] = IP[XT ≥ t] ≤
i=0,...,n
1
IE[XT ] .
t
Comme (Xn ) est une sous-martingale, la suite des espérances est croissante,
et puisque T est borné par n, IE[XT ] ≤ IE[Xn ].
Comme cas particulier, si (Xn ) est une martingale (de signe quelconque),
(2.10) s’applique à (|Xn |) ainsi qu’à (Xn2 ) qui sont des sous-martingales.
Corollaire 2.11 Soit (Xn ) une martingale de carré intégrable, alors :
IP[ max |Xi | ≥ t ] ≤
i=0,...,n
1
1
IE[Xn2 ] = 2 IE[hXin ] .
2
t
t
(2.11)
On peut donc contrôler les probabilités de déviations pour le maximum des
|Xi | à l’aide de l’espérance de Xn2 . Le résultat suivant, que nous admettrons,
donne une relation analogue pour l’espérance du carré du maximum.
Martingales discrètes
103
Théorème 2.12 Soit (Xn ) une martingale de carré intégrable.
"
2 #
2
IE[Xn ] ≤ IE
max Xi
≤ 4IE[Xn2 ] = 4IE[hXin ] .
i=0,...,n
(2.12)
L’inégalité de Lenglart ci-dessous relie aussi une martingale et son crochet,
par l’intermédiaire de leurs probabilités de déviations.
Proposition 2.13 Soit (Xn ) une martingale de carré intégrable. Pour tout
s, t > 0 :
s
IP[ max |Xi | ≥ t ] ≤ 2 + IP[hXin ≥ s] .
i=0,...,n
t
Il existe bien d’autres inégalités. Pour illustrer l’importance des martingales dans les problèmes de probabilités discrètes, nous citerons l’inégalité
d’Azuma, pour les martingales à accroissements bornés.
Théorème 2.14 Soit (Xn ) une martingale. Supposons qu’il existe une suite
de constantes (cn ) telle que pour tout n ≥ 1,
|Xn − Xn−1 | ≤ cn .
Alors pour tout t ≥ 0 :
2t2
IP[ |Xn − X0 | ≥ t ] ≤ 2 exp − Pn
2
i=1 ci
.
(2.13)
Soit (Zn ) une suite de variables aléatoires indépendantes centrées, telles que
|Zn | ≤ cn . Posons X0 = 0 et pour n ≥ 1 :
Xn =
n
X
Zi .
i=1
La suite (Xn ) est une martingale, et (2.13) donne l’inégalité de Hoeffding :
" n
#
X 2t2
IP Zi ≥ t ≤ 2 exp − Pn 2 .
(2.14)
i=1 ci
i=1
Comme cas particulier, prenons Zn = Bn − p où les Bn sont des variables
aléatoires de Bernoulli, de loi B(1, p). Leur somme
√ Sn suit la loi binomiale
B(n, p). Appliquons (2.14) avec cn = 1 et t = u n :
√
2
IP[|Sn − np| ≥ u n] ≤ 2e−2u .
C’est une inégalité de concentration classique. Elle montre√que les déviations
d’une loi binomiale autour de son espérance sont d’ordre n, et décroissent
exponentiellement vite, ce qui est cohérent avec le théorème de la limite
centrale.
Cahier de Mathématiques Appliquées no 10
104
Les applications de l’inégalité d’Azuma (2.13) ne se limitent pas à la
concentration des sommes de variables indépendantes. L’inégalité de McDiarmid qui s’en déduit, s’applique dans des contextes beaucoup plus généraux.
Théorème 2.15 Soient Z1 , . . . , Zn des variables aléatoires indépendantes à
valeurs dans E, et f une application de E dans IR vérifiant la condition
suivante.
∀i = 1, . . . , n , ∀z1 , . . . , zn , zi0 ∈ E ,
|f (z1 , . . . , zn ) − f (z1 , . . . , zi−1 , zi0 , zi+1 , . . . , xn )| ≤ ci .
Notons Y la variable aléatoire Y = f (Z1 , . . . , Zn ). Alors pour tout t > 0 :
2t2
(2.15)
IP[ |Y − IE[Y ]| ≥ t ] ≤ 2 exp − Pn 2 .
i=1 ci
Démonstration : Notons X0 = IE[Y ], et pour i = 1, . . . , n :
Xi = IE[Y | (Z1 , . . . , Zi )]
On vérifie immédiatement que (Xi )i=0,...,n est une martingale relativement à
l’information des Zi (on parle de martingale à horizon fini). Tout ce que nous
avons à faire pour lui appliquer l’inégalité d’Azuma (2.13) c’est de vérifier
que l’hypothèse sur f entraîne que les accroissements de cette martingale
sont bornés. Examinons pour cela la moyenne conditionnelle de Y sachant
Z1 = z1 , . . . , Zi = zi . D’après la proposition 1.4 elle vaut :
(Z1 ,...,Zi )
mY
(z1 , . . . , zi ) = IE[f (z1 , . . . , zi , Zi+1 , . . . , Zn )] .
La différence entre les moyennes conditionnelles pour deux instants successifs
vérifie donc :
(Z1 ,...,Zi )
(Z ,...,Zi−1 )
(z1 , . . . , zi ) − mY 1
(z1 , . . . , zi−1 ) mY
= | IE[f (z1 , . . . , zi , Zi+1 , . . . , Zn )] − IE[f (z1 , . . . , zi−1 , Zi , . . . , Zn )] |
≤ IE[ | f (z1 , . . . , zi , Zi+1 , . . . , Zn ) − f (z1 , . . . , zi−1 , Zi , . . . , Zn ) | ]
≤ ci .
Cette majoration étant vraie pour tout z1 , . . . , zi , on en déduit en composant
par Z1 , . . . , Zi :
|Xi − Xi−1 | = | IE[Y | Z1 , . . . , Zi ] − IE[Y | Z1 , . . . , Zi−1 ] | ≤ ci .
Comme illustration de l’utilisation du théorème 2.15 en analyse d’algorithmes, voici le célèbre problème du “bin-packing”. Des paquets de taille
Martingales discrètes
105
aléatoire doivent être rangés dans des boîtes identiques, de taille 1. Chaque
paquet a une taille inférieure à 1, de sorte qu’il tient dans une boîte, mais
une même boîte peut contenir plusieurs paquets. Trouver le nombre de boîtes
minimal qui contienne tous les paquets est un problème difficile. Tout algorithme qui le résout exactement a un temps d’exécution qui croît exponentiellement avec le nombre de paquets. De nombreux algorithmes, plus ou
moins rapides, ont été proposés. Un des problèmes du domaine est l’analyse
probabiliste de ces algorithmes. Si les tailles des paquets successifs sont des
variables aléatoires Z1 , . . . , Zn indépendantes et de même loi, alors le nombre
minimal de boîtes, le nombre de boîtes remplies par un algorithme donné,
son temps d’exécution, sont des variables aléatoires fonctions de Z1 , . . . , Zn ,
dont on souhaite étudier la loi. Notons Y le nombre minimal de boîtes. On
sait démontrer que son espérance grandit linéairement avec n :
lim
n→∞
IE[Y ]
=b.
n
Remarquons que modifier la taille d’un seul des paquets peut au pire augmenter ou diminuer de 1 le nombre de boîtes. L’hypothèse du théorème 2.15
est donc vérifiée avec ci = 1. On en déduit :
2t2
.
IP[ |Y − IE[Y ]| ≥ t ] ≤ 2 exp −
n
Le nombre minimal de boîtes √
est donc concentré autour de sa moyenne, avec
des déviations de l’ordre de n. Remarquons qu’aucune hypothèse sur la
loi de probabilité des tailles de paquets n’a été nécessaire pour obtenir ce
résultat.
3
Convergences
3.1
Convergence dans L1
Nous commençons par donner sans demonstration les résultats de convergence les plus généraux, pour des martingales intégrables.
Définition 3.1 Soit (Xn ) une suite de variables aléatoires.
1. On dit que (Xn ) est intégrable si pour tout n IE[|Xn |] < ∞.
2. On dit que (Xn ) est bornée dans L1 si supn∈IN IE[|Xn |] < ∞.
Voici les conditions suffisantes les plus fréquemment utilisées.
Proposition 3.2 Chacune des trois conditions suivantes implique que la
suite (Xn ) est bornée dans L1 .
1. (Xn ) est bornée dans L2 : ∃K , IE[Xn2 ] ≤ K , ∀n.
2. (Xn ) est une sous-martingale majorée : ∃K , Xn ≤ K , ∀n.
Cahier de Mathématiques Appliquées no 10
106
3. (Xn ) est une sur-martingale minorée : ∃K , Xn ≥ K , ∀n.
Une sous-martingale bornée dans L1 converge presque sûrement. Par contre,
cela ne suffit pas pour assurer la convergence dans L1 .
Théorème 3.3 Soit (Xn ) une sous-martingale ou une sur-martingale, bornée dans L1 . La suite (Xn ) converge presque sûrement vers une variable
aléatoire X∞ .
Comme exemple, revenons sur le modèle de Galton-Watson (exemple 2).
Notons encore µ le nombre moyen de descendants par individu, et Xn la taille
de la n-ième génération. Dans le cas où µ < 1, il est intuitivement évident que
la population disparaîtra tôt ou tard. La suite (Xn ) est une sur-martingale
positive, et le théorème 3.3 s’applique. Donc (Xn ) converge presque sûrement
(vers 0). Comme l’espérance de Xn vaut µn , la convergence a lieu aussi dans
L1 . Plaçons nous maintenant dans le cas critique, où µ = 1. La suite (Xn ) est
une martingale et comme elle est positive, IE[|Xn |] = IE[Xn ] = IE[X0 ]. Elle
est donc bornée dans L1 et le théorème 3.3 s’applique encore. La suite (Xn )
converge presque sûrement vers 0, pourtant elle ne converge pas dans L1 .
Un autre exemple est celui du rapport de vraisemblance (Rn ) (exemple 5).
Le théorème 3.3 entraîne la convergence presque sûre de (Rn ). On démontre
que la limite est nulle. Pourtant l’espérance de Rn vaut 1 pour tout n et il
n’y a donc pas convergence dans L1 .
Pour assurer la convergence dans L1 , il faut imposer une condition plus forte.
Définition 3.4 Soit (Xn ) une suite de variables aléatoires. On dit que (Xn )
est uniformément intégrable si pour tout ε il existe K > 0 tel que :
sup IE[ |Xn |11]K,+∞[ (Xn ) ] < ε .
n∈IN
Il est facile de vérifier que si la suite (Xn ) est uniformément intégrable, alors
elle est bornée dans L1 . Voici les deux conditions les plus fréquemment utilisées.
Proposition 3.5 Chacune des deux conditions suivantes implique que la
suite (Xn ) est uniformément intégrable.
1. (Xn ) est bornée dans L2 .
2. (Xn ) est dominée par une variable aléatoire Y d’espérance finie (pour
tout n |Xn | < Y ).
On démontre qu’une suite converge dans L1 si et seulement si elle converge
en probabilité et elle est uniformément intégrable. Ceci entraîne le résultat
suivant.
Théorème 3.6 Soit (Xn ) une sous-martingale ou une sur-martingale uniformément intégrable. La suite (Xn ) converge presque sûrement et dans L1
vers une variable aléatoire X∞ .
Martingales discrètes
3.2
107
Convergence dans L2
Le cas des martingales de carré intégrable est plus facile. Rappelons qu’une
martingale (Xn ) est de carré intégrable si l’espérance de Xn2 est finie pour
tout n, et qu’elle est bornée dans L2 si ces espérances sont uniformément
majorées. Nous avons vu en 2.3 que les accroissements ∆n d’une martingale de
carré intégrable sont orthogonaux. De plus le théorème de Pythagore (formule
(2.8)) montre que l’espérance du carré de Xn est la somme des espérances
des carrés de ses accroissements. Ceci fournit une condition nécessaire et
suffisante pour qu’une martingale soit bornée dans L2 .
Proposition 3.7 Soit (Xn ) une martingale. Pour n ≥ 1, notons ∆n = Xn −
Xn−1 son accroissement. La suite (Xn ) est bornée dans L2 si et seulement si
la série des espérances des carrés des accroissements converge.
sup IE[Xn2 ] < ∞ ⇐⇒
n∈IN
∞
X
IE[∆2n ] < ∞ .
n=1
Démonstration : La suite (IE[Xn2 ]) est une suite croissante de réels positifs.
Pour tout n ≥ 1 on a :
IE[Xn2 ] = IE[X02 ] + IE[∆21 ] + · · · + IE[∆2n ] .
A la condition
près, la suite (IE[Xn2 ]) est la suite des sommes partielles
P initiale
2
de la série
IE[∆n ]. D’où le résultat.
Une martingale bornée dans L2 converge presque sûrement et dans L2 .
Théorème 3.8 Soit (Xn ) une martingale bornée dans L2 . La suite (Xn )
converge presque sûrement vers une variable aléatoire X∞ de carré intégrable
et :
lim IE[(Xn − X∞ )2 ] = 0 .
n→∞
Autrement dit, (Xn ) converge vers X∞ dans L2 .
De plus, pour tout n, Xn = IE[X∞ |In ].
Comme premier exemple, considérons une variable aléatoire X, que l’on
cherche à prédire par une suite d’informations (In ). Comment la prédiction
IE[X | In ] évolue-t-elle lorque n tend vers l’infini ? Nous avons déjà vu que la
suite (IE[X | In ]) est une martingale. Par l’inégalité de Jensen on a :
IE[(IE[X | In ])2 ] ≤ IE[IE[X 2 | In ] = IE[X 2 ] .
La martingale (IE[X | In ]) est bornée dans L2 , donc elle converge presque
sûrement vers une variable aléatoire X∞ . Cette limite appartient à l’espace
V(I∞ ), des variables aléatoires qui dépendent de la suite (In )n∈IN .
Cahier de Mathématiques Appliquées no 10
108
Reprenons maintenant le modèle de Galton-Watson (exemple 2), et voyons
dans quels cas le théorème 3.8 s’applique. Nous notons µ et σ 2 l’espérance
et la variance du nombre de descendants par individu. Si Xn est le nombre
d’individus de la génération n et Yn = Xn /µn sa valeur normalisée, nous
avons déjà observé que (Yn ) est une martingale. La loi conditionnelle de Xn
sachant “Xn−1 = i” est la loi de la somme de i variables aléatoires indépendantes, chacune de moyenne µ et de variance σ 2 (les descendances des
i individus de la génération précédente). La moyenne conditionnelle de Xn2
sachant “Xn−1 = i” est donc iσ 2 + (iµ)2 . On en déduit :
Xn−1 2
σ .
µ2n
2
IE[Yn2 | In−1 ] = Yn−1
+
Ceci permet d’écrire le crochet de la martingale (Yn ) sous la forme suivante :
hY in =
n
X
Xk−1
k=1
µ2k
σ2 .
Son espérance vaut donc :
IE[hY in ] =
n
X
µk−1
k=1
µ2k
σ2
Cette somme tend vers l’infini pour µ ≤ 1, vers une valeur finie pour µ > 1.
Or IE[Yn2 − hY in ] = IE[Y02 ]. On en déduit donc que la martingale (Yn ) est
bornée dans L2 si et seulement si µ > 1.
Nous appliquons ensuite le théorème 3.8 à des sommes de variables aléatoires
indépendantes.
Proposition 3.9 Soit (Zn ) une suite de variables aléatoires indépendantes,
telles que :
IE[Zn ] = µn et V ar[Zn ] = σn2 .
Pn
P 2
Pour n ≥ 1, posons Xn = i=1 (Zi − µi ). Si
σn converge, alors la suite
(Xn ) converge presque sûrement et dans L2 vers une variable aléatoire X∞ .
Démonstration : Il suffit d’appliquer le théorème 3.8 à la martingale (Xn ). Considérons par exemple une suite (Un ) de variables indépendantes et identiquement distribuées, suivant la loi de Bernoulli de paramètre 12 . Posons
Zn = U2nn , de sorte que :
IP[Zn = 0] = IP[Zn =
1
1
]= .
n
2
2
P
1
1
Alors IE[Zn ] = µn = 2n+1
et V ar[Zn ] = σn2 = 22n+2
.PLa série (Zn − µn )
converge donc presque sûrement, mais comme la série µn converge aussi, il
Martingales discrètes
109
P
en est de même de la série
Zn . Soit X∞ sa limite. Il n’est pas difficile de se
convaincre que X∞ suit la loi uniforme sur l’intervalle [0, 1]. Considérons en
effet une variable aléatoire U de loi U(0, 1), et notons (Un ) les coefficients de
son développement en base 2, choisis de telle sorte qu’il ne se termine pas par
une infinité de 1. Alors les Un sont indépendants et suivent la loi de Bernoulli
de paramètre 21 . Par définition :
U=
∞
X
Un
,
2n
n=1
de sorte que U et X∞ ont même loi.
Le théorème des trois séries de Kolmogorov fournit une condition nécessaire et suffisante pour que des sommes de variables indépendantes convergent
presque sûrement.
Théorème 3.10 Soit (ZnP
) une suite de variables aléatoires indépendantes.
n
Pour n ≥ 1, posons Xn = i=1 Zi . La suite (Xn ) converge presque sûrement
si et seulement si il exite une constante K > 0 telle que :
P
1.
IP[|Zn | > K] < ∞,
Pn
2.
IE[ZnK ] < ∞,
Pn
K
3.
n V ar[Zn ] < ∞,
où ZnK = Zn 11[K,+∞[ (Zn ).
Considérons pour finir un cas particulier du filtre de Kalman en dimension
1:
Xn+1 = aXn + n ,
(3.16)
Yn
= Xn + ηn ,
où a est un réel tel que |a| < 1, et les bruits n et ηn suivent la loi normale
N (0, 1). Dans ce cas An , Bn et Cn sont des réels, et les équations du théorème
1.8 donnent :

Bn


,
 An = C n =
Bn + 1
Bn−1


 Bn = a2
+1.
Bn−1 + 1
On vérifie que la seconde équation admet comme point fixe attractif la valeur
B suivante :
√
a2 + a4 + 4
B=
.
2
Supposons à présent que l’on démarre l’algorithme dans le passé, à l’instant
1
−k, et que X−k suive la loi normale N (0, 1−a
2 ). Dans ce cas, on peut vérifier
1
1
que les Xn suivent toutes la loi N (0, 1−a2 ), et les Yn la loi N (0, 1−a
2 +1). Ceci
permet de considérer une suite infinie (Xn , Yn ), indicée par n ∈ ZZ, vérifiant
(3.16), et pour laquelle les Xn et les Yn ont même loi. Faisant démarrer
Cahier de Mathématiques Appliquées no 10
110
l’algorithme de Kalman à l’instant −k, au bout de p + 1 itérations on aura
obtenu l’espérance conditionnelle de X1 sachant (Y0 , Y−1 , . . . , Y−k ), comme
combinaison linéaire de ces variables :
IE[X1 | (Y0 , . . . , Y−k )] =
k
X
αi,k Y−i .
i=0
D’après ce qui précède, on sait que la suite (IE[X1 | (Y0 , . . . , Y−k )]) converge
quand k tend vers l’infini. Il est possible de montrer, en étudiant les coefficients αi,k , que la limite est la suivante.
lim IE[X1 | (Y0 , . . . , Y−k )] =
k→∞
+∞
X
αi Y−i ,
i=0
avec :
αi =
aB
B+1
a
B+1
i
.
De plus, pour tout n :
lim IE[Xn+1 | (Yn , Yn−1 , . . .)] =
k→∞
3.3
+∞
X
αi Yn−i .
i=0
Théorème de la limite centrale
Soit (Zn ) une suite de variables indépendantes et de même
Pnloi, d’espérance
µ, de variance σ 2 finies. Pour tout n ≥ 0 posons Xn = i=1 (Zi − µ). La
loi des grands nombres affirme que (Xn /n) converge presque sûrement √
vers
0 ; le théorème de la limite centrale dit que la variable réduite (Xn / n)
converge en loi vers la loi normale N (0, σ 2 ). Or (Xn ) est un cas particulier
de martingale (proposition 1.12) : c’est une martingale centrée (IE[Xn ] =
0), dont le compensateur est déterministe : hXin = IE[Xn2 ] = nσ 2 . La loi
des grands nombres et le théorème de la limite centrale s’étendent à des
martingales qui ne sont pas nécessairement des marches aléatoires.
Soit (Xn ) une martingale de carré intégrable, nulle en 0. Pour tout n ≥ 1,
posons ∆n = Xn − Xn−1 , de sorte que :
Xn =
n
X
∆k
et hXin =
k=1
n
X
IE[∆2k | Ik−1 ] .
k=1
Voici d’abord la loi des grands nombres.
Théorème 3.11 Si (hXin ) tend vers l’infini presque sûrement, alors :
Xn
=0
n→∞ hXin
lim
presque sûrement.
Martingales discrètes
111
Dans le cas particulier où les ∆k sont indépendantes et de même loi, (Xn )
est une marche aléatoire, dont le crochet est déterministe : hXin = nσ 2 . On
retrouve donc la loi des grands nombres usuelle. Voici maintenant la version
la plus simple du théorème de la limite centrale.
Théorème 3.12 Soit (Xn ) une martingale centrée, de carré intégrable. On
n
converge en probabilité vers une constante σ 2 .
suppose que hXi
n
On suppose de plus qu’il existe une constante positive δ telle que :
1
n1+δ
n
X
IE[ |∆k |2(1+δ) | Ik−1 ] tend vers 0 en probabilité .
(3.17)
k=1
Alors :
X
√n converge en loi vers la loi normale N (0, σ 2 ) .
n
Revenons au cas particulier de la marche aléatoire, où les ∆k sont indépendantes et de même loi. La condition (3.17) est vérifiée dès que les ∆k
admettent un moment d’ordre supérieur à 2 : si IE[|∆k |2(1+δ) ] = c alors :
1
n1+δ
n
X
k=1
IE[ |∆k |2(1+δ) | Ik−1 ] =
nc
c
= δ .
n1+δ
n
La condition (3.17) n’est pas nécessaire pour le théorème de la limite centrale usuel, pas plus que pour le théorème 3.12. Il existe d’autres conditions
suffisantes, moins contraignantes mais d’utilisation plus délicate.
Pour de nombreuses martingales, le crochet n’est pas asymptotiquement équivalent à nσ 2 . Il est fréquent que pour une certaine suite de réels positifs (sn ),
n
le rapport hXi
sn converge en probabilité vers une variable aléatoire positive Γ.
Si c’est le cas, il est possible d’obtenir la convergence en loi de √Xsnn . Pour com√
prendre le passage de sn à sn , rappelons d’abord que IE[hXin ] = IE[Xn2 ].
Revenons ensuite à l’inégalité de Lenglart (proposition 2.13). On en déduit
immédiatement que pour tout n :
|Xn |
hXin
s
IP √ ≥ t ≤ 2 + IP
≥s .
sn
t
sn
Cependant, la limite en loi de √Xsnn ne sera pas nécessairement gaussienne. Ce
sera une loi mélange en variance de lois gaussiennes.
Définition 3.13 On dit qu’une variable aléatoire X a√une loi mélange en
variance de lois gaussiennes si l’on peut écrire X = Z Γ, où Z et Γ sont
indépendantes, Z suit la loi N (0, 1) et Γ est une variable aléatoire à valeurs
positives.
Cahier de Mathématiques Appliquées no 10
112
Avec la définition ci-dessus, on vérifie que la fonction caractéristique de X
est :
2 u
ϕ(u) = IE exp − Γ
,
2
ce qui caractérise d’une autre manière une loi mélange en variance de lois
gaussiennes.
Dans le cas particulier où Γ prend les valeurs σ12 , . . . , σk2 avec les probabilités p1 , . . . , pk , la densité de X est :
f (x) =
k
X
i=1
x2
p
√i exp(− 2 ) .
2σi
σi 2π
Si Γ admet pour densité fΓ (γ), la densité de X est :
Z
f (x) =
0
+∞
√
1
x2
exp(− ) fΓ (γ) dγ .
2γ
2πγ
Une telle loi peut être très différente d’une loi gaussienne.
Voici une version plus générale du théorème de la limite centrale pour les
martingales.
Théorème 3.14 Soit (Xn ) une martingale centrée, de carré intégrable, et
n
(sn ) une suite de réels strictement positifs. On suppose que hXi
sn converge en
probabilité vers une variable aléatoire positive Γ.
On suppose de plus qu’il existe une constante positive δ telle que :
Alors :
1
n
X
s1+δ
n
k=1
IE[ |∆k |2(1+δ) | Ik−1 ] tend vers 0 en probabilité .
(3.18)
Xn
√ converge en loi,
sn
vers un mélange en variance de lois gaussiennes, de fonction caractéristique
2
ϕ(u) = IE[exp(− u2 Γ)].
Bien sûr, si sn = n et si la limite Γ est constante et égale à σ 2 , on retrouve
le théorème 3.12.
Martingales discrètes
4
113
Exercices
Exercice 1 Deux joueurs jouent à un jeu équitable. On note Rn le résultat
de la n-ième partie pour le premier joueur. Les Rn sont indépendants et :
IP[Rn = +1] = IP[Rn = −1] =
1
.
2
On note In le n-uplet des résultats des n premières parties, et Xn la fortune
du premier joueur après la n-ième partie. Sa fortune initiale est fixée : X0 = a.
Pour tout n ≥ 1, on a donc :
Xn = a + R1 + · · · + Rn .
Le second joueur a une fortune initiale fixée à b et la partie se termine par la
ruine de l’un des deux joueurs. On définit donc :
T = min{n , Xn = 0 ou Xn = a + b} .
Le but de l’exercice est d’étudier la loi de T .
1. Montrer que (Xn ) est une martingale et que T est un temps d’arrêt,
relativement à (In ).
2. Montrer que :
IP[T > n] ≤ IP[0 < Xn < a + b] .
Déduire du théorème de la limite centrale que IP[T > n] tend vers 0,
puis que T est fini.
3. Déduire du théorème d’arrêt 1.16 que :
IP[XT = 0] =
b
a+b
et IP[XT = a + b] =
a
.
a+b
4. Montrer que (Xn ) est une martingale. Calculer hXin . En déduire que
(Xn2 − n) est une martingale. Déduire du théorème 2.8 que IE[XT2 ] −
IE[T ] = a2 . Conclure que IE[T ] = ab.
5. Observons que pour tout réel λ :
IE[eλRn ] =
eλ + e−λ
= cosh(λ) .
2
Pour tout n ≥ 0, on pose :
Yn (λ) = exp(λXn )(cosh(λ))−n .
Montrer que (Yn (λ)) est une martingale.
6. Déduire du théorème d’arrêt 1.16 que :
IE[(cosh(λ))−T (110 (XT ) + eλ(a+b) 11a+b (XT ))] = eλa .
Cahier de Mathématiques Appliquées no 10
114
7. En utilisant la martingale (Yn (−λ)), montrer que :
IE[(cosh(λ))−T (110 (XT ) + e−λ(a+b) 11a+b (XT ))] = e−λa .
8. En remarquant que
110 (XT ) + 11a+b (XT ) = 1, montrer que :
IE[(cosh(λ))−T ] =
sinh(λa) + sinh(λb)
.
sinh(λ(a + b))
(4.19)
9. Pour tout λ ≥ 0, on pose :
z=
1
,
cosh(λ)
de sorte que :
IE[(cosh(λ))−T ] = IE[z T ] = g(z) .
La fonction g est la fonction génératrice de T :
g(z) =
∞
X
z n IP[T = n] .
n=1
0
On rappelle que g (1) = IE[T ]. Retrouver le résultat de la question 4 à
l’aide de (4.19).
10. Pour a = b = 1, vérifier que g(z) = z : pourquoi ?
11. Pour a = 2, b = 1, vérifier que :
g(z) =
z
,
2−z
donc que T suit la loi géométrique de paramètre 12 . Simuler 10000 jeux
jusqu’à la ruine d’un des deux joueurs. Estimer IP[T = n] pour n =
1, 2, 3, 4, 5, et comparer avec le résultat théorique.
12. Pour a = b = 2, vérifier que :
g(z) =
z2
,
2 − z2
donc que T /2 suit la loi géométrique de paramètre 21 . Simuler 10000
jeux jusqu’à la ruine d’un des deux joueurs. Estimer IP[T = n] pour
n = 2, 4, 6, 8, 10, et comparer avec le résultat théorique.
13. Pour a = 3, b = 1, vérifier que :
g(z) =
z
,
2 − z2
donc que (T + 1)/2 suit la loi géométrique de paramètre 12 . Simuler
10000 jeux jusqu’à la ruine d’un des deux joueurs. Estimer IP[T = n]
pour n = 1, 3, 5, 7, 9, et comparer avec le résultat théorique.
Martingales discrètes
115
Exercice 2 Trois joueurs jouent à un jeu équitable : chacun a la même probabilité 13 de gagner. A chaque partie il y a un gagnant, qui reçoit +2. Les
deux autres perdent −1 chacun. On note In le n-uplet des résultats des n premières parties, et Xn , Yn , Zn les fortunes respectives des trois joueurs à l’issue
des n premières parties. Les fortunes initiales sont fixées : X0 = a, Y0 = b,
Z0 = c. Chacune des trois est supérieure ou égale à 1. On note s = a + b + c
la fortune totale, qui reste constante au cours du jeu.
1. Montrer que (Xn ), (Yn ) et (Zn ) sont des martingales relativement à
(In ).
2
2. Exprimer IE[Xn+1
| In ] en fonction de Xn2 . Vérifier que (Xn2 ) est une
sous-martingale et calculer hXin .
3. Exprimer IE[Xn+1 Yn+1 | In ] en fonction de Xn Yn . En déduire que
(Xn Yn ) est une sur-martingale. Quel est son compensateur ?
4. Exprimer IE[Xn+1 Yn+1 Zn+1 | In ] en fonction de Xn Yn Zn . En déduire
que (Xn Yn Zn ) est une sur-martingale. Quel est son compensateur ?
5. On note Πn = Xn Yn Zn +n(s−2). Montrer que (Πn ) est une martingale.
6. On note T le premier instant de ruine de l’un des joueurs :
T = inf{n ≥ 1 , Xn Yn Zn = 0} .
Montrer que T est un temps d’arrêt fini.
7. Déduire du théorème d’arrêt 1.16 que IE[T ] = abc/(s−2). Que se passet-il dans le cas particulier a = b = c = 1 ?
8. Simuler 10000 jeux, en partant de fortunes initiales a = b = c = 3,
puis a = 2, b = 3, c = 4, jusqu’au temps T . Estimer l’espérance de
T et comparer avec le résultat théorique. Estimer aussi la probabilité
que chacun des joueurs a de ne pas être ruiné au temps T ainsi que la
probabilité que deux joueurs soient ruinés simultanément au temps T .
9. Au temps T, si deux joueurs sont ruinés, le jeu se termine par la victoire
du troisième. Mais si deux joueurs restent en lice, ils continuent à jouer.
A chaque nouvelle partie, chacun a probabilité 12 de gagner +1, ou de
perdre −1. Montrer qu’avec ces nouvelles règles (Xn ), (Yn ) et (Zn )
restent des martingales.
10. Le jeu se termine au premier instant où la fortune de l’un des joueurs
vaut s, les deux autres étant nulles. Montrer que cet instant est un
temps d’arrêt fini. Montrer que la probabilité que chaque joueur gagne
est proportionnelle à sa fortune initiale.
11. Simuler 10000 jeux, en partant de fortunes initiales a = b = c = 3,
puis a = 2, b = 3, c = 4, jusqu’à la victoire d’un des joueurs. Estimer la
probabilité de gain de chacun des joueurs et comparer avec le résultat
théorique. Estimer la durée moyenne du jeu.
Cahier de Mathématiques Appliquées no 10
116
12. Généraliser pour un jeu équitable à k joueurs : initialement chaque
joueur a probabilité k1 de gagner +(k−1), les autres de perdre −1 chacun.
Dès que la fortune d’un joueur est nulle, il sort du jeu, et les autres
continuent, toujours en jouant des parties équitables. Le jeu s’arrête
quand tous les joueurs sauf un sont ruinés. Montrer que la probabilité
que chacun a de gagner est proportionnelle à sa fortune initiale.
13. Simuler 10000 jeux à 5 joueurs, partant de fortunes initiales 2, 3, 4, 5, 6.
Estimer la probabilité que chacun a de gagner ainsi que la durée moyenne du jeu.
Exercice 3 On souhaite étudier l’instant d’apparition d’une séquence binaire donnée à l’intérieur d’une suite de tirages de 0 ou 1. Dans ce qui suit
(n )n≥1 désigne une suite de variables aléatoires indépendantes identiquement
distribuées, suivant la loi de Bernoulli de paramètre 1/2.
∀n ≥ 1 ,
IP[n = 0] = IP[n = 1] =
1
.
2
On note In = (1 , . . . , n ).
On se donne un mot binaire A = (ai )1≤i≤` , où ai ∈ {0, 1}. Juste avant
chaque instant n, un nouveau joueur arrive, et parie 1 que n sera égal à a1 .
S’il gagne, la banque lui verse 2, et il parie 2 sur le fait que n+1 sera a2 . Il
continue tant qu’il gagne : à son k-ième essai, il parie 2k−1 que n+k−1 sera
ak , et reçoit 2k en cas de succès. Il quitte le jeu dès qu’il perd, ou s’il a gagné
` fois (le mot A est sorti en entier).
1. On note Xk la fortune d’un des joueurs juste avant sa k-ième partie :
Xk = 2k−1 s’il a gagné k−1 fois, Xk = 0 s’il a déjà perdu. Montrer que
(Xk ) est une martingale. Quelle est loi du nombre de parties jouées par
ce joueur ?
2. On note Sn la fortune de la banque à l’instant n. Montrer que (Sn ) est
une martingale relativement à (In ).
3. On définit l’instant d’apparition du mot A dans la suite (n ), noté T
par :
T = inf{n , (n−`+1 , . . . , n ) = A} .
Montrer que T est un temps d’arrêt relativement à (In ).
4. On définit le mot binaire (r1 , . . . , r` ), qui compte les auto-recouvrements
partiels de A, de la façon suivante. Pour tout k = 1, . . . , `,
rk = 1 si (a1 , . . . , a`−k+1 ) = (ak , . . . , a` )
= 0 sinon .
Montrer que si rk = 1, alors le joueur arrivé en T − ` + k sera encore en
lice à l’instant T et que la banque devra lui verser 2`−k+1 . Si rk = 0,
alors le joueur arrivé en T − ` + k sera sorti du jeu à l’instant T .
Martingales discrètes
117
5. On suppose que S0 = 0. Montrer que IE[ST ] = 0. En déduire :
IE[T ] =
`
X
rk 2`−k+1 .
k=1
6. Pour chacun des 16 mots binaires de longueur 4, calculer IE[T ]. Simuler
10000 suites (n ) indépendantes, jusqu’au temps T . Estimer l’espérance
et la variance de T .
7. On considère une suite aléatoire de lettres dans l’alphabet {A, C, G, T } :
les lettres sont indépendantes, et chacune a une probabilité 14 d’apparaître. Généraliser la technique des questions précédentes pour montrer
que l’instant moyen d’apparition du mot (A, G, A, G, A) dans la suite
est 45 + 43 + 4. Simuler 1000 suites jusqu’à la première apparition de ce
mot. Estimer le temps moyen d’apparition, et comparer avec le résultat
théorique.
Exercice 4 En génétique, le modèle de Moran considère des générations
successives, pour lesquelles le nombre de mâles est fixé à N1 et le nombre de
femelles à N2 . Le gène d’intérêt est g. Pour chaque individu, il peut apparaître
sur un chromosome paternel, ou sur le chromosome maternel de la même
paire. L’état de la population à la n-ième génération est décrit par un vecteur
à 6 coordonnées entières :
Rn = (Mn(0) , Mn(1) , Mn(2) , Fn(0) , Fn(1) , Fn(2) ) .
(k)
(k)
Dans ce vecteur, pour k = 0, 1, 2, Mn (respectivement Fn ) est le nombre
de mâles (respectivement de femelles) ayant k copies du gène g dans leur
génotype. On note In = (R0 , . . . , Rn ). Les fréquences d’apparition du gène g
parmi les mâles et les femelles de la génération n sont notées respectivement
(f )
(m)
Xn et Xn .
(1)
Xn(m) =
(2)
Mn + 2Mn
2N1
(1)
et Xn(f ) =
(2)
Mn + 2Mn
2N2
.
(4.20)
Pour constituer la génération suivante, on suppose que les gamètes mâles et
femelles sont appariés au hasard, selon le schéma dit “multinomial”. Chacun
des N1 mâles et chacune des N2 femelles de la génération n + 1 choisit au
hasard un gène paternel parmi les 2N1 présents à la génération n, et un gène
maternel parmi les 2N2 possibles.
1. Les probabilités pour un individu de la génération n+1 d’avoir 0, 1 ou 2
(2)
(1)
(0)
copies du gène g sont notées Pn , Pn et Pn respectivement. Montrer
que :
(0)
(m)
(f )
Pn = (1 − Xn )(1 − Xn ) ,
(1)
(m)
(f )
(m)
(f )
Pn = Xn (1 − Xn ) + (1 − Xn )Xn ,
(2)
(m) (f )
Pn = Xn Xn .
Cahier de Mathématiques Appliquées no 10
118
2. Montrer que :
(m)
(f )
IE[Xn+1 | In ] = IE[Xn+1 | In ] =
1 (m)
(X
+ Xn(f ) ) .
2 n
3. On pose :
1 (m)
(X
+ Xn(f ) ) .
2 n
Montrer que (Xn ) est une martingale relativement à (In ).
4. On note T le premier instant où le gène g disparaît ou bien envahit
toute la population :
Xn =
T = inf{n , Xn = 0 ou 1} .
Montrer que T est un temps d’arrêt relativement à (In ).
5. On fixe la proportion initiale : X0 = x0 . Montrer que IE[XT ] = x0 . En
déduire :
IP[XT = 1] = x0 .
6. Simuler 1000 fois selon ce modèle l’évolution d’une population partant
de :
R0 = (2, 3, 1, 3, 2, 5) .
Estimer IP[XT = 1] et comparer avec le résultat théorique. Estimer
l’espérance et la variance de T .
Exercice 5 Dans une famille, chaque nouvel enfant est une fille avec probabilité pF ou un garçon avec probabilité pG = 1 − pF . Les naissances sont
supposées indépendantes. On note In ∈ {F, G}n le n-uplet des sexes des n
premiers enfants, Fn le nombre de filles parmi ceux-ci, Gn = n−Fn le nombre
de garçons, et Dn = Fn − Gn la différence entre les deux.
1. Calculer IE[Dn+1 | In ]. Montrer que (Dn ) est une sous-martingale si
pF ≥ pG , une sur-martingale si pF ≤ pG . Montrer que (Dn −n(pF −pG ))
est une martingale.
2. Dans un certain pays, les parents préfèrent les garçons aux filles, mais
les lois interdisent d’avoir plus de 4 enfants. Les fratries s’arrêtent donc
au premier garçon, s’il arrive avant le quatrième enfant. Le nombre
d’enfants d’une famille est :
T = inf 4 , {n , Gn = 1} .
Montrer que T est un temps d’arrêt relativement à la suite d’informations (In ). Montrer que IE[DT ] = IE[T ](pF − pG ). En déduire que :
pF
IE[FT ]
=
.
IE[GT ]
pG
Dans ce pays, quelle est la proportion de filles parmi les enfants ?
Martingales discrètes
119
3. Déterminer la loi de T .
4. Dans un second pays, le nombre S d’enfants par famille est indépendant
du sexe des premiers nés. Montrer que IE[DS ] = IE[S](pF − pG ). Dans
ce pays, quelle est la proportion moyenne de filles parmi les enfants ?
5. On suppose pF = pG = 21 . Simuler 10000 familles du le premier pays.
Estimer l’espérance et la variance du nombre d’enfants par famille ainsi
que la proportion de filles. Comparer avec les résultats théoriques.
6. Simuler 10000 familles du second pays. On suppose toujours pF = pG =
1
2 . La loi de S est donnée dans le tableau suivant.
i
1 2 3 4
IP[S = i] 12 14 81 18
Estimer la proportion de filles.
Exercice 6 Urnes de Polya
Une urne contient initialement une boule noire et une rouge. Nous allons
envisager successivement deux règles d’évolution.
• Règle no 1 : On tire au hasard une des deux boules. Si elle est noire, on
la remet dans l’urne et on ajoute une boule noire ; sinon, on la remet et
on ajoute une rouge. On continue, en tirant à chaque instant une boule
au hasard avec remise, et en rajoutant une boule de la même couleur.
• Règle no 2 : On tire au hasard une des deux boules. Si elle est noire, on
la remet dans l’urne et on ajoute une boule rouge ; sinon, on la remet et
on ajoute une noire. On continue, en tirant à chaque instant une boule
au hasard avec remise, et en rajoutant une boule de couleur différente.
On note Xn le nombre de boules noires après le n-ième tirage (X0 = 1).
Comme le nombre total de boules après le n-ième tirage est n+2, la proportion
de boules noires est :
Xn
Yn =
.
n+2
On note In = (R1 , . . . , Rn ) le vecteur des n premières couleurs de boules
tirées, où Ri ∈ {Noir, Rouge} représente le résultat du i-ième tirage.
Règle no 1 :
1. Observer que IP[Rn+1 = Noir | In ] = Yn . Calculer IE[Xn+1 | In ]. En
déduire que Xn est une sous-martingale et que Yn est une martingale.
2. Montrer que le compensateur (An ) de (Xn ) est tel que :
An =
n−1
X
Yk .
k=0
Soit (Mn ) la martingale associée à (Xn ) par la décomposition de Doob.
Montrer que Mn+1 − Mn est toujours compris entre −1 et 1.
Cahier de Mathématiques Appliquées no 10
120
3. Calculer IE[(Mn+1 − Mn )2 | In ] (on observera que (Xn+1 − Xn )2 =
Xn+1 − Xn ). En déduire que :
hM in =
n−1
X
Yk (1 − Yk ) .
k=1
4. Montrer que Yn converge presque sûrement ainsi que dans L1 et L2 vers
une variable aléatoire, que l’on notera Y∞ .
5. Vérifier par récurrence que pour tout k = 1, . . . , n + 1 :
IP[Xn = k] =
1
.
n+1
En déduire que Y∞ suit la loi uniforme sur [0, 1].
6. Simuler 100 urnes jusqu’au temps 10000. Représenter sur un même
graphique les 100 trajectoires obtenues pour (Yn ) , n = 0, . . . , 10000.
7. Simuler 10000 urnes, jusqu’au temps n = 100. Pour n = 10, 50, 100,
représenter graphiquement les fonctions de répartition empiriques des
10000 valeurs de Yn ainsi obtenues, et comparer avec la fonction de
répartition de la loi uniforme sur [0, 1].
8. Montrer que :
n−1
X
IE[Mn2 ] =
IE[Yk (1 − Yk )2 ] .
k=0
En déduire que :
1
IE[Mn2 ]
= .
n→∞
n
6
9. On note Γn la variable aléatoire :
lim
hM in
.
n
Montrer que (Γn ) converge presque sûrement vers une variable aléatoire
Γ, à valeurs dans [0, 41 ]. Déterminer la densité de Γ.
10. Déduire du théorème de la limite centrale 3.14 que :
Γn =
Mn
√ converge en loi,
n
vers un mélange en variance de lois gaussiennes, de fonction caractéris2
tique ϕ(u) = IE[exp(− u2 Γ)].
11. Simuler 10000 urnes, jusqu’au temps n = 200, en calculant les valeurs
de Mn et hM in . Représenter un histogramme des valeurs de hM in /n, en
le superposant à la densité de Γ. Simuler un échantillon de taille 10000
de la loi mélange en variance de lois gaussiennes, de fonction caracté2
ristique ϕ(u) = IE[exp(− u2 Γ)]. Superposer sur un même graphique les
fonctions de répartition
empiriques de cet échantillon d’une part, et des
√
valeurs de hM in / n d’autre part.
Martingales discrètes
121
Règle no 2 :
1. Calculer IE[Xn+1 | In ]. En déduire que Xn est une sous-martingale.
2. Montrer que le compensateur (An ) de (Xn ) est défini par :
An = n −
n−1
X
Yk .
k=0
3. Calculer IE(Mn+1 − Mn )2 | In ]. En déduire que :
n−1
X
hM in =
Yk (1 − Yk ) .
k=1
4. Montrer que Yn converge presque sûrement, ainsi que dans L2 et L1 .
On admettra que la limite est la constante 21 .
5. Simuler 100 urnes jusqu’au temps 10000. Représenter sur un même
graphique les 100 trajectoires obtenues pour (Yn ) , n = 0, . . . , 10000.
6. Montrer que, presque sûrement :
lim
n→∞
hM in
1
= .
n
4
7. En déduire que :
Mn
√ converge en loi vers la loi N (0, 41 ).
n
8. Simuler 10000 urnes, jusqu’au temps n = 200, en calculant les valeurs
de hM in . Superposer sur un même graphique la fonction de répartition
empirique de cet échantillon d’une part, et la fonction de répartition de
la loi N (0, 14 ) d’autre part.
Exercice 7 Soit b un entier supérieur ou égal à 2 et (Xn ) une suite de
variables aléatoires indépendantes et de même loi. On pose :
Sn =
n
X
Xi
i=0
bi
.
1. On suppose que les Xn sont bornées : |Xn | < K. Montrer que la suite
(Sn ) converge. On note S sa limite. Montrer que :
|S − Sn | ≤
K 1
.
b − 1 bn
2. Pour b = 2, on suppose que la loi des Xn est la loi de Bernoulli B(1, p).
Calculer la plus petite valeur de n telle que |S − Sn | ≤ 10−3 .
Cahier de Mathématiques Appliquées no 10
122
3. Pour la valeur de n trouvée à la question précédente, et p = 0.2, puis
p = 0.8, simuler un échantillon de taille 10000 de Sn . Représenter graphiquement un histogramme à 32 classes d’amplitudes égales, ainsi que
la fonction de répartition empirique de l’échantillon.
4. Soient X et Y deux variables aléatoires indépendantes et de même
loi que Sn . Simuler un échantillon de taille 1000 du couple (X, Y ) et
représenter par des points dans le plan les 1000 couples obtenus.
5. Pour b quelconque, on suppose que Xn suit la loi uniforme sur {0, . . . , b−
1}. Montrer que la loi de S est la loi uniforme sur l’intervalle [0, 1].
6. Pour b = 3, on suppose que les Xn sont à valeurs dans {0, 1, 2}, avec :
IP[Xn = 0] = 0.1 ,
IP[Xn = 1] = 0.3 ,
IP[Xn = 2] = 0.6 .
Reprendre les questions 2, 3 et 4.
7. Recommencer les simulations avec :
IP[Xn = 0] = 0.2 ,
IP[Xn = 1] = 0.6 ,
IP[Xn = 1] = 0.2 .
Exercice 8 On considère le problème de filtrage en dimension 1 suivant.
Xn+1 = aXn + n ,
Yn
= Xn + ηn ,
où a est un réel, et les bruits n et ηn suivent la loi normale N (0, 1) (les suites
(n ) et (ηn ) sont deux suites indépendantes de variables aléatoires indépendantes). L’initialisation X0 suit la loi normale N (0, σ 2 ) et est indépendante
des suites (n ) et (ηn ). On note :
Ien = (X0 , 1 , . . . , n ) et In = (Y0 , . . . , Yn ) .
1. Montrer que pour tout n :
Xn = an X0 + an−1 1 + an−2 2 + . . . + n .
(a) On suppose |a| > 1. Montrer que (Xn /an ) est une martingale
relativement à (Ien ), uniformément bornée dans L2 . En déduire
qu’elle converge presque sûrement et dans L2 vers une variable
aléatoire Z dont on déterminera la loi.
(b) On suppose |a| < 1. Quelle est la loi de Xn ? Montrer que (Xn )
1
converge en loi vers la loi normale N (0, 1−a
2 ). On pose :
Xn0 = 1 + a2 + · · · + an−1 n .
Montrer que (Xn0 ) est une martingale relativement à (Ien ), uniformément bornée dans L2 . En déduire qu’elle converge presque
sûrement et dans L2 vers une variable aléatoire Z 0 dont on déterminera la loi.
Martingales discrètes
123
2. On suppose |a| < 1. Montrer que les suites (An ), (Bn ) et (Cn ) du
théorème 1.8 convergent et calculer leurs limites A, B et C, en fonction
de a. Pour a = 0.5 puis a = 0.7, calculer leurs valeurs numériques pour
n ≤ 10 et comparer avec la valeur limite.
3. On suppose désormais |a| < 1 et σ 2 =
1
1−a2 .
Quelle est la loi de Xn ?
bn+1,n la prédiction à l’instant n. Montrer que pour tout n, X
bn+1,n
4. Soit X
est combinaison linéaire des Yi . On notera :
bn+1,n =
X
n
X
βi,n Yn−i .
i=0
5. Pour a = 0.5, puis a = 0.7, calculer numériquement les coefficients βi,n
pour n = 10. Comparer les résultats obtenus à la suite (αi ) définie par :
αi =
aB
B+1
où :
B=
a2 +
a
B+1
i
,
√
a4 + 4
.
2
6. Simuler 10000 trajectoires de (Xn ) et (Yn ) jusqu’au temps n = 10. Pour
chaque trajectoire, calculer la valeur filtrée et la valeur prédite finales,
ainsi que les différences :
bn,n−1
Xn − X
bn,n .
et Xn − X
Estimer la variance de chacune de ces deux différences, et comparer aux
valeurs limites B et C.
7. Pour chacune des trajectoires de la simulation précédente, calculer la
valeur de Zn , définie par :
Zn =
n−1
X
αi Yn−1−i .
i=0
bn,n−1 .
Comparer les valeurs de Zn et X
Exercice 9 Soit X une variable aléatoire de loi N (0, σ 2 ). Soit (ηn ) une suite,
indépendante de X, de variables aléatoires indépendantes et de même loi
N (0, 1). On se donne une suite (cn ) de réels. Pour tout n ∈ IN, on note :
Yn = X + cn ηn .
Les Yn seront interprétés comme des observations bruitées successives de X.
bn = IE[X|In ].
On note In = (Y0 , . . . , Yn ) et X
Cahier de Mathématiques Appliquées no 10
124
bn ) est une martingale relativement à In , et
1. Montrer que la suite (X
2
b ] ≤ σ 2 . En déduire que (X
bn ) converge presque
que pour tout n, IE[X
n
sûrement et dans L2 vers une variable aléatoire que l’on notera X∞ .
2. Montrer que pour tout n, le vecteur (X, Y0 , . . . , Yn ) est gaussien. En
bn est combinaison linéaire de Y0 , . . . , Yn . On note vn =
déduire que X
bn )2 ].
IE[(X − X
b0 et v0 .
3. Calculer X
4. Soit (Z, T ) un couple gaussien tel que Z suit la loi N (µ, u) et la loi
conditionnelle de T sachant “Z = z” est la loi N (z, w). Soit Zb = IE[Z|T ]
b 2 ]. Montrer que :
et v = IE[(Z − Z)
1
1
1
= +
v
u w
et
b
Z
µ T
= + .
v
u w
et
bn
bn−1
X
X
Yn
=
+ 2 .
vn
vn−1
cn
5. En déduire :
1
1
1
=
+ 2
vn
vn−1
cn
On considèrera un couple (Z, T ) dont la loi est la loi conditionnelle de
(X, Yn ) sachant “In−1 = (y0 , . . . , yn−1 )”.
6. Montrer que :
vn =
σ
−2
+
n
X
!−1
c−2
n
.
i=0
En déduire que X∞ = X si et seulement si la série
P
c−2
n diverge.
7. Montrer que pour tout n ≥ 0 :
n
X
bn
X
Yi
.
=
vn
c2
i=0 i
8. On pose cn ≡ 1. Retrouver les résultats de la question 5 comme cas
particulier du théorème 1.8. Pour σ 2 = 1, simuler une valeur de X.
Simuler 100 trajectoires indépendantes de (ηn ) pour n allant de 0 à
bn , calculer
1000. Pour chaque instant n, calculer les 100 valeurs de X − X
la moyenne et la variance de ces 100 valeurs. Représenter graphiquement
ces moyennes et ces variances en fonction de n.
√
9. Recommencer la simulation pour cn = n + 1.
P −2
10. On suppose désormais que la série
cn converge et on note s sa
bn
somme. Montrer que ( X
)
converge
presque
sûrement et dans L2 vers
vn
une variable aléatoire suivant la loi normale N (0, σ 2 s2 + s).
11. Montrer que (vn ) converge vers (σ −2 + s)−1 . En déduire la loi de X∞ .
Martingales discrètes
125
2
12. On pose cn = n + 1 (donc s = π6 ). Simuler 1000 fois le vecteur
(X, Y0 , . . . , Yn ), pour n ≤ 100. Pour chaque instant n, estimer la vabn et X − X
bn et comparer avec les valeurs théoriques.
riance de X
Exercice 10 Algorithme de Robbins-Monro
Cet algorithme permet de trouver un zéro d’une fonction, même si celleci n’est connue qu’imparfaitement. Il fonctionne sous des hypothèses plus
générales que celles que nous utilisons ici. Soit f une fonction bornée de IR
dans IR. On suppose qu’il existe un unique réel x∗ tel que f (x∗ ) = 0, et que
pour tout δ > 0 :
inf{(x − x∗ )f (x) , x tel que |x − x∗ | > δ} > 0.
Les évaluations successives de f seront bruitées par une suite (n ) de variables aléatoires indépendantes, d’espérances nulles, et uniformément bornées. L’initialisation X0 est indépendante de la suite (n ) des bruits. On note
In le vecteur (X0 , 1 , . . . , n ).
On choisit une suite décroissante (γn ) de réels strictement positifs, vérifiant :
∞
∞
X
X
γn = ∞ et
γn2 = s < ∞ .
n=0
n=0
On définit une suite de variables aléatoires (Xn ) par l’initialisation X0 et
pour n ≥ 0 :
Xn+1 = Xn − γn (f (Xn ) + n+1 ) .
Le but de l’exercice est de montrer que la suite (Xn ) converge presque sûrement et dans L2 vers la constante x∗ .
1. Montrer que :
IE[(Xn+1 − x∗ )2 | In ] = (Xn − x∗ )2 − 2γn (Xn − x∗ )f (Xn )
+γn2 IE[(f (Xn ) + n+1 )2 | In ] .
2. Soit B un majorant de (f (x) + n )2 . Pour tout n ≥ 0, on pose :
Zn = (Xn − x∗ )2 + sB
n−1
X
γk2 IE[(f (Xk ) + k+1 )2 | Ik ] .
k=0
Montrer que (Zn ) est une sur-martingale positive. En déduire que (Zn )
converge presque sûrement.
3. En déduire que (Xn ) converge presque sûrement. On note X∞ sa limite.
4. On pose M0 = 0 et pour n ≥ 1 :
Mn = 2
n−1
X
γk (Xk − x∗ )k+1 .
k=0
Montrer que (Mn ) est une martingale.
Cahier de Mathématiques Appliquées no 10
126
5. Montrer par récurrence que pour tout n ≥ 1 :
(Xn − x∗ )2 ≤ (X0 − x∗ )2 − Mn +
n−1
X
γk2 (f (Xk ) + k+1 )2
k=0
En déduire que :
IE[(Xn − x∗ )2 ] ≤ IE[(X0 − x∗ )2 ] + sB .
6. Montrer que :
n−1
X
γk (Xk − x∗ )f (Xk ) ≥ 0 ,
k=0
et :
IE
"n−1
X
#
∗
γk (Xk − x )f (Xk ) ≤ IE[(X0 − x∗ )2 ] + sB .
k=0
En déduire que la série de terme général γn (Xn − x∗ )f (Xn ) converge
presque sûrement.
7. En déduire que pour tout δ > 0, la probabilité que |X∞ − x∗ | soit
supérieur à δ est nulle, donc que (Xn ) converge presque sûrement vers
x∗ .
8. On pose f (x) = arctan(x) − 1 (x∗ ' 1.5574). On supposera que les n
suivent la loi uniforme sur [− 21 , 12 ]. Simuler 100 trajectoires de (Xn ),
partant toutes de X0 = 1, jusqu’en n = 10000. Représenter graphiquement ces trajectoires. Estimer l’espérance et la variance de Xn à
chaque instant. Représenter graphiquement ces estimations en fonction
du temps.
9. Reprendre la question précédente pour des perturbations n suivant la
1
1
loi uniforme sur [− 20
, 20
].
Index
accroissement de martingale, 97
adaptée, 70, 82, 95
Azuma, 102
Bernoulli, 69, 103
compensateur, 96
convergence
dans L1 , 105
dans L2 , 106
presque sûre, 105, 106
convexe, 93
crochet, 98
décomposition de Doob, 95
Doob, 95, 101
erreur quadratique, 68
espérance conditionnelle, 67, 72
filtrage, 72, 76
filtre de Kalman, 71, 108, 121
Fisher, 85, 100
fonction
caractéristique, 111
convexe, 93
Galton-Watson, 87, 105
Hoeffding, 103
inégalité
d’Azuma, 102
de Bienaymé-Chebyshev, 101
de Doob, 101
de Hoeffding, 103
de Jensen, 94
de Lenglart, 102
de Markov, 101
de McDiarmid, 103
information, 70, 76
de Fisher, 100
de Kullback, 97
propre, 80
Jensen, 94
jeu équitable, 78, 83
Kalman, 73, 108, 121
Kolmogorov, 108
Kullback, 97
Lenglart, 102
loi conditionnelle, 67
loi des grands nombres, 110
loi mélange, 111
marche aléatoire, 79, 84, 95–97, 99
marché viable, 89
martingale, 77, 86, 88, 89, 94
sous-, 78, 87, 88, 94, 95
sur-, 78, 88
matrice de covariance, 72, 75
McDiarmid, 103
modèle
de file d’attente, 88, 96
de Fisher-Wright, 85, 98
de Galton-Watson, 87, 105
de marché financier, 88
de Moran, 116
du bin-packing, 104
mouvement brownien, 79
moyenne conditionnelle, 67, 87
option européenne, 90
Polya, 118
portefeuille, 90
prédiction, 67, 70, 72, 76, 77
prévisible, 70, 90, 95, 98
projection orthogonale, 69, 75
rapport de vraisemblance, 91, 94, 96
régression linéaire, 72
Robbins-Monro, 124
série aléatoire, 108, 120
127
128
Cahier de Mathématiques Appliquées no 10
sous-martingale, 78, 87, 88, 94, 95
stratégie, 81, 89
autofinancée, 90
d’investissement, 90
de couverture, 91
suite
adaptée, 70, 71, 81, 82, 95
bornée dans L1 , 105
bornée dans L2 , 105, 106
prévisible, 70, 81, 90, 95, 98
uniformément intégrable, 106
sur-martingale, 78, 88
temps d’arrêt, 81
théorème
d’arrêt, 83
de Kalman, 73
de la limite centrale, 111
de Pythagore, 98
de Wald, 84, 98
des trois séries, 108
urne de Polya, 118
variation quadratique, 98
vecteur gaussien, 72
vraisemblance, 91, 94, 99
Wald, 84, 98
Wright, 85