1 Introduction aux Probabilités

Transcription

1 Introduction aux Probabilités
Probabilités
Mathématiques 218
1
1.1
Introduction aux Probabilités
Généralités
Le hasard est le fait d’évènements qu’on ne peut pas prévoir et qui font partie
de notre quotidien. Les exemples sont nombreux :
–Les jeux de hasard bien sûr, mais aussi,
–La durée de vie d’un individu ou d’une lampe;
–Le nombre d’appels téléphoniques dans un central téléphonique;
–Les mouvements d’une particule (mouvement brownien);
–L’hérédité des caractères génétiques;
–Les phénomènes météorologiques; etc
Beaucoup de phénomènes naturels sont considérés comme le fruit du hasard
(“phénomènes aléatoires”), pour la simple raison qu’on ne maı̂trise pas tous
les paramètres intervenant dans la description de ces phénomènes. La désintégration d’un atome de radium, par exemple, dépend de faits que nous ne
pouvons prendre en considération à l’heure actuelle.
On cherche à décrire un modèle mathématique qui rende compte plus ou
moins fidèlement d’une expérience aléatoire; c’est facile pour certaines (jet
d’un dé), difficile ou impossible pour d’autres (météo). On note
• Ω l’ensemble de tous les résultats élémentaires possibles appelé univers.
Par exemple, pour le lancer d’un dé, Ω = {1, ..., 6};
Pour le jeu de pile ou face avec n jets, Ω = {0, 1}n ;
Pour la durée de vie, Ω = R+ ou N si on compte en unités de temps;
Pour le central téléphonique, Ω = Nd s’il y a d récepteurs;
Pour le mouvement d’une particule, Ω = R3 ou Z3 ; etc
• A, l’algèbre des évènements; c’est l’ensemble de tous les évènements
liés à l’expérience, qui s’expriment à l’aide des résultats élémentaires. Par
exemple, pour le lancer d’un dé, A =“Obtenir un nombre pair”;
Pour le jeu de pile ou face avec n jets, B =“Avoir 3 PILE successifs”;
Pour le mouvement d’une particule : “la particule ne coupe pas le plan xOy” ;
etc
1
On peut tout naturellement définir des opérations sur les évènements,
que l’on traduit par des opérations logiques (union, intersection, etc) ce qui
revient à identifier un évènement à une partie de Ω. Ainsi ∅ est l’évènement
impossible et Ω l’évènement certain; l’évènement contraire à A est noté Ac ,
la conjonction des évènements A et B, A∩B et la disjonction des évènements
A et B, A ∪ B. On les a résumées dans le tableau :
A=∅
A=Ω
A jamais réalisé
A toujours réalisé
Ac ou A
A∩B
A∪B
A\B
A⊂B
∪∞
n=1 An
∩∞
n=1 An
réalisé quand A n’est pas réalisé
réalisation simultanée de A et B.
réalisation de A ou B (ou non exclusif)
A est réalisé mais B ne l’est pas
B est réalisé dès que A l’est
réalisation d’un au moins des An , n ≥ 1
réalisation de tous les An , n ≥ 1
Rappelons les quelques règles à connaı̂tre en théorie des ensembles.
. Ωc = ∅ et (Ac )c = A;
. (A ∪ B)c = Ac ∩ B c et (A ∩ B)c = Ac ∪ B c ;
. A ∩ (B ∪ C) = (A ∩ B) ∪ (A ∩ C) et A ∩ (∪n Bn ) = ∪n (A ∩ Bn ).
• P la probabilité définie sur (Ω, A). On essaie d’estimer au mieux la
probabilité que l’évènement A ait lieu; pour cela on s’inspire de la notion
empirique de fréquence : on répète N fois une expérience (penser au lancer
d’un dé) et on note NA le nombre de fois où A est réalisé. Alors, la fréquence
d’apparition de A est
NA
fA =
N
Clairement la fréquence possède les propriétés suivantes :
0 ≤ fA ≤ 1;
fΩ = 1;
si A ∩ B = ∅.
fA∪B = fA + fB
On va s’inspirer de ces propriétés pour définir les axiomes d’une probabilité.
Retenons déjà
(1) 0 ≤ P (A) ≤ 1;
2
(2) P (Ω) = 1;
(3) P (A ∪ B) = P (A) + P (B) si A ∩ B = ∅.
Commençons par le cas simple où Ω est un ensemble fini.
1.2
Probabilités finies et combinatoire
Lorsque Ω est un ensemble fini {ω1 , ..., ωn }, on peut énumérer toutes les
parties de Ω, P(Ω), qui sont elles-aussi en nombre fini. Les singletons {ωi }
sont les évènements élémentaires et A = P(Ω) : tout évènement est une
union finie d’évènements élémentaires. La propriété (3) s’écrit
P (A) =
X
P ({ωi })
i;ωi ⊂A
Dans ce cas particulier une probabilité est donc entièrement définie par
les probabilités des évènements élémentaires, notées p1 , ..., pn ; en résumé
Une probabilité sur un ensemble fini {ω1 , ..., ωn } est la donnée
de n nombres p1 , ..., pn tels que
P
•0 ≤ pi ≤ 1, et n1 pi = 1
P
•P (A) = i;ωi ⊂A pi
•P (A ∪ B) = P (A) + P (B) si A ∩ B = ∅.
† Cas particulier important Fréquemment dans les jeux de hasard,
pour des raisons de symétrie, les évènements élémentaires ont la même probP
abilité (équiprobables); si Ω a n points, nécessairement, pour réaliser n1 pi =
1, on doit avoir pi = 1/n pour tout i. Ainsi
P (A) =
X 1
i;ωi ⊂A
n
=
|A|
|A|
=
n
|Ω|
en notant |A| le nombre de points de l’ensemble A (ou le cardinal de A,
noté encore #A).
On dit que P est la probabilité uniforme sur Ω et on l’exprime par
la phrase mnémotechnique “Nombre de cas favorables sur nombre de cas
possibles.” Ceci nous amène tout naturellement au dénombrement et à la
combinatoire.
Exemples simples 1. On lance un dé; les faces sont équiprobables
et si pi est la probabilité d’amener i, pi = 1/6, i = 1, 2, ..., 6. Si A est
3
l’évènement “on a obtenu un nombre pair” et B “on a obtenu un multiple
de 3”, P (A) = 1/2 et P (B) = 1/3 tandis que P (A ∩ B) = 1/6.
2. On lance deux dés; on choisit comme modèle, conforme à l’expérience,
Ω = {(i, j), 1 ≤ i, j ≤ 6}
l’ensemble des couples (ordonnés au sens où (x, y) 6= (y, x) si x 6= y), avec la
probabilité uniforme. Il faut donc calculer
|Ω| = 36;
L’évènement A “la somme des points obtenus est 4” est la réunion des
évènements élémentaires {(1, 3), (2, 2), (3, 1)} et P (A) = 3/36 = 1/12.
3. On lance n fois une pièce. Un évènement élémentaire est une suite de
n “pile” ou “face”, notés P et F , et Ω, représenté par {P, F }n , a 2n éléments.
L’évènement A = “on a obtenu un seul pile” a comme probabilité n/2n .
†† Rappels de combinatoire
1. Cardinal d’un ensemble fini. A savoir :
|A × B| = |A|.|B|
ce qu’on a déjà utilisé pour calculer {0, 1}n = 2n . Ainsi le nombre de k-uplets
d’éléments pris dans Ω de cardinal n est
|Ω|k = nk .
Par ailleurs
|A ∪ B| = |A| + |B| − |A ∩ B|
d’où l’additivité du cardinal lorsque les ensembles sont disjoints.
2. Arrangements. On appelle arrangement de k objets (distincts) parmi
n, et on note Akn , le nombre d’échantillons (ordonnés) de taille k parmi n.
Attention!
Ne pas confondre “échantillon de taille k” et “k-uplet”
Un k-échantillon est une partie ordonnée de k éléments,
sans répétition;
Un k-uplet est une partie ordonnée de k éléments
avec répétition possible.
4
Ainsi
Akn = n(n − 1)...(n − k + 1), k ≤ n
(on a n choix pour le 1-er objet, n − 1 choix pour le second, etc...)
3. Permutations. Une permutation σ de {1, ..., n} est une bijection de
l’ensemble qui envoie le n-uplet (x1 , ..., xn ) sur le n-uplet (xσ(1) , ..., xσ(n) ),
décrit dans un ordre différent. Le nombre de permutations de n objets est le
nombre d’échantillons de taille n parmi n soit n!.
4. Combinaisons. On appelle combinaison de k objets parmi n, le nombre
de parties à k objets pris parmi les n. Pour le calculer, on identifie les
échantillons faisant intervenir les mêmes objets et qui ne diffèrent que par
une permutation. On en déduit
Cnk = Akn /k! =
n!
k!(n − k)!
À savoir sur les coefficients binômiaux :
P
La formule du binôme : nk=0 Cnk xk y n−k = (x + y)n
P
P
et ses conséquences : nk=0 Cnk = 2n , nk=0 Cnk (−1)k = 0.
Le triangle de Pascal et cette identité :
k+1
= Cnk+1 + Cnk
Cn+1
On peut exprimer ce qui précède en termes de tirage d’objets. Il y a deux
types de tirage, avec ou sans remise; deux types d’ensemble de k objets tirés,
selon qu’on tient compte ou non de l’ordre. Voici un tableau récapitulatif
Ordonné
Non ordonné
avec remise
nk
k
(∗)
Cn+k−1
sans remise
n(n − 1)...(n − k + 1)
Cnk
On peut également exprimer ceci en termes de répartition de k objets
dans n boı̂tes. Il y a deux types de placement, selon que l’on met au plus
un ou plusieurs objet(s) par boı̂te ; et deux types d’objets, discernable ou
non (on peut interpréter ce point de vue comme un “tirage” de boı̂te avec
ou sans remise...).
discernables
Non discernables
plusieurs objets
par boı̂te
nk
k
Cn+k−1
(∗)
5
au plus un
par boı̂te
n(n − 1)...(n − k + 1)
Cnk
Exercices de base
1. Quel est le nombre de tiercés possibles dans une course de 20 chevaux ?
2. Quel est le nombre de mots de longueur n construits sur un alphabet
de 3 lettres {a, b, c} ?
3. Quel est le nombre de solutions de l’équation x1 + x2 + ... + xn = k où
xi = 0 ou 1 ?
4. Quel est le nombre de solutions de l’équation x1 + x2 + ... + xn = k
avec xi entiers ≥ 0 ?
5. Comment peut-on répartir p euros entre n personnes ?
Preuve de (∗): Choisissons le second point de vue : on dispose de n
boı̂tes dans lesquelles on veut répartir k boules indiscernables, avec éventuellement plusieurs boules par boı̂te. On figure les bords des boı̂tes par des | et
les boules par des O. Une répartition possible prend la forme suivante :
|O|OO| |OO| |
cad une configuration de k boules et n + 1 barres, commençant et finissant
par une barre.
Or le nombre de façons de placer k boules parmi les n+k+1−2 = n+k−1
k
d’où (∗).
♦
places possibles est Cn+k−1
5. Coefficient multinômial
Soit n1 , n2 , ..., nk k entiers ≥ 0 tels que n1 + n2 + ... + nk = n
Le nombre de façons de répartir n objets indiscernables dans k boı̂tes,
n!
.
avec exactement ni objets dans la i-ième boı̂te, vaut
n1 !...nk !
Preuve : On note B1 , ..., Bk les k boı̂tes. Il y a Cnn1 façons de choisir les
n2
n1 objets destinés à la première boı̂te; Cn−n
façons de choisir les n2 objets
1
nk
destinés à la deuxième boı̂te; etc; il y a finalement Cn−(n
= 1
1 +n2 +...+nk−1 )
façon de choisir les nk objets destinés à la dernière boı̂te. Le nombre cherché
est donc
nk
n2
Cnn1 Cn−n
...Cn−(n
=
1
1 +n2 +...+nk−1 )
(n − n1 )!
n − (n1 + n2 + ... + nk−2 )!
n!
...
n1 !(n − n1 )! n2 !(n − n1 − n2 )!
nk−1 !(nk )!
=
n!
n1 !...nk !
♦
6
Exercices sur les probabilités uniformes
1. Dans une assemblée de r personnes, quelle est la probabilité que
toutes aient des jours d’anniversaire différents ? (On choisira un modèle
qui ”colle” le mieux à la réalité, en précisant Ω et en se situant dans le
tableau récapitulatif)
2. On lance n balles de couleur différente dans n boı̂tes; quelle est la
probabilité qu’elles soient toutes occupées ? (On précisera le modèle choisi).
1.3
Axiomes d’une probabilité
On considère une expérience aléatoire modélisée par (Ω, A), où Ω est l’ensemble des résultats élémentaires et A l’algèbre des évènements. Lorsque Ω
n’est plus fini, on ne peut pas décrire toute partie de Ω, encore moins lui
attribuer une probabilité; on se restreint donc à une classe d’évènements qui
possède les trois propriétés suivantes :
1) Elle contient ∅ et Ω.
2) Si A est dans A, l’évènement contraire y est aussi.
3) Si (An ) est une suite d’évènements de A, la réunion est encore dans A.
Noter que 2) et 3) entraı̂nent que : si (An ) est une suite d’évènements de
A, l’intersection est encore dans A.
Une probabilité P sur (Ω, A) est une application P : A → [0, 1]
telle que :
•P (Ω) = 1
•P (A ∪ B) = P (A) + P (B) si A et B sont disjoints.
P
•P (∪n An ) = ∞
n=1 P (An ) si les An sont disjoints deux à deux.
On pourrait déduire le second axiome du troisième mais il est plus simple de le dégager. On aura besoin à l’occasion des propriétés suivantes qui
découlent immédiatement de la définition encadrée.
1)
2)
3)
4)
P (Ac ) = 1 − P (A)
P (∅) = 0
P (A) ≤ P (B) si A ⊂ B
P (A ∪ B) = P (A) + P (B) − P (A ∩ B)
Preuve : Appliquons le second axiome avec B = Ac ; puisque P (A) +
P (Ac ) = P (A ∪ Ac ) = P (Ω) = 1, on a la première propriété.
Ecrit en particulier avec A = Ω, 1) donne 2).
7
Si A ⊂ B, B peut s’écrire comme union disjointe de A et B\A; ainsi
P (B) = P (A) + P (B\A) ≥ P (A).
Plus généralement, lorsqu’on n’a plus d’inclusion de A dans B, B\A
n’est autre que B\(A ∩ B); A et B\A sont encore disjoints et P (A ∪ B) =
P (A) + P (B\A); de même B étant l’union disjointe de B\A et A ∩ B, il vient
P (B\A) = P (B) − P (A ∩ B) d’où 4).
♦
Exercices sur les probabilités :
1) Établir une propriété analogue à 4) avec trois évènements.
2) Avec 4 évènements, en supposant que les évènements sont “échangeables” cad :
P (Ai ) = α ∀i,
P (Ai ∩ Aj ) = β
P (Ai ∩ Aj ∩ Ak ) = γ
∀i < j
∀i < j < k
† Système complet d’évènements
Un système complet d’évènements est une suite d’évènements deux à deux
disjoints et de réunion égale à Ω.
A1 , A2 , ..., An , ... ∈ A tels que
•Aj ∩ Ak = ∅ si j 6= k
• ∪n An = Ω
Comme parties de Ω, ces ensembles forment une partition de Ω.
1.4
Exercices récapitulatifs
1. Trouver la valeur des sommes
[n/2]
X
[n/2]−1
Cn2k ;
X
k=1
et des sommes
n
X
k=0
kCnk ;
k=1
2. Calculer le produit des Cnk :
Cn2k+1 ,
n
X
(−1)k−1 kCnk ;
k=1
Qn
k=0
Cnk .
8
3. Calculer le coefficient de xk dans chaque membre de l’identité :
(1 + x)n (1 + x)m = (1 + x)n+m ; en déduire la valeur de
n
X
k−j
Cnj Cm
, k ≤ n + m.
j=1
4. Etablir les identités
n
X
n
(Cnk )2 = C2n
,
0
n
X
0
k(Cnk )2 =
n n
C
2 2n
et donner un équivalent√de ces sommes quand n → ∞ à l’aide de la formule
de Stirling (n! ∼ nn e−n 2πn).
5. Calculer A0n + A1n + ... + Ann .
6. Combien y a -t-il de façons d’asseoir 7 personnes :
a) sur un banc de 7 places ?
b) autour d’une table ronde de 7 places également ?
c) autour de cette table ronde si 2 personnes particulières ne veulent pas
être l’une à côté de l’autre ?
7. Montrer qu’un ensemble fini a autant de parties de cardinal pair que de
parties de cardinal impair.
8. On considère n points A1 , ..., An dans le plan, 3 quelconques n’étant jamais
alignés. On les joint deux à deux de toutes les façons possibles. Calculer
a) Le nombre N de droites ainsi obtenues;
b) le nombre de points d’intersection de ces droites autres que les Ai , en
supposant que deux droites quelconques ne sont jamais parallèles.
9.♠ a) Etablir la formule des cardinaux pour des ensembles finis A1 , ..., An :
|A1 ∪ A2 ∪ ... ∪ An | =
n
X
1
|Aj | −
X
i,j
|Ai ∩ Aj | +
X
|Ai ∩ Aj ∩ Ak |−
i,j,k
... + (−1)n−1 |A1 ∩ A2 ∩ ... ∩ An |.
b) Soit E = {1, 2, ..., n} et P l’ensemble des permutations de E. On pose
pour chaque i, Ai = {ϕ ∈ P; ϕ(i) = i}, cad les permutations de E fixant i;
calculer |Ai |, |Ai ∩ Aj |, |Ai ∩ Aj ∩ Ak |...
c) Déduire de a) le cardinal de D, le nombre de permutations sans point
fixe.
9
10. On considère le mot ATTACHANT.
a) Donner le nombre d’anagrammes de ce mot.
b) On tire au hasard et avec remise 4 lettres de ce mot; quelle est la
probabilité de pouvoir écrire CHAT avec ces lettres ?
c) Même question si le tirage a lieu sans remise.
11. Un ascenseur desservant 10 étages, contient 8 personnes qui descendent
de façon aléatoire.
a) Quelle est la probabilité pour qu’aucune ne descende au second étage ?
b) Quelle est la probabilité qu’elles descendent toutes à un même étage ?
c) Quelle est la probabilité pour que 2 descendent au second étage, 1
descende au troisième étage et 5 au dernier étage ?
12. Une urne contient n boules blanches et m boules rouges, n + m ≥ 2.
On tire deux boules simultanément; quelle est la probabilité d’obtenir deux
boules de la même couleur ? pour quelles valeurs de n, m cette probabilité
vaut-elle 1/2 ?
13. Une urne contient n boules numérotées de 1 à n. On tire deux boules
sans remise; quelle est la probabilité que les deux boules sortent dans l’ordre
de leur numéro ? quelle est la probabilité pour que les numéros soient
consécutifs ?
14.♥ Soit A et B deux évènements tels que P (A) = P (B) = 3/4. Que
peut-on dire de P (A ∩ B) et P (A ∪ B) ?
15.♠ (Les danseurs de Chicago) a) Dans une salle de danse il y a n couples.
Chaque femme choisit un cavalier au hasard. Quelle est la probabilité pour
que chaque femme danse avec son époux ? (cf exercice 9)
b) En repartant chaque homme reprend son chapeau au vestiaire mais de
façon aléatoire. Quelle est la probabilité qu’aucun ne reprenne son propre
chapeau ?
10
2
2.1
Conditionnement, Indépendance
Probabilités conditionnelles
Revenons à la notion empirique de fréquence. On s’intéresse à deux évènements A, B, liés à une même expérience aléatoire. On répète N fois cette
expérience et on note NB le nombre de fois où B est réalisé. Parmi ces NB
réalisations, l’évènement A s’est lui-même réalisé NA∩B fois. Le quotient
NA∩B
représente la fréquence relative d’apparition de A quand B est réalisé.
NB
Plus brièvement fA/B = NNA∩B
est la fréquence de A sachant que B est réalisé.
B
On remarque que
fA∩B
NA∩B N
=
fA/B =
N NB
fB
D’où la définition de la probabilité conditionnelle :
Si A et B ∈ A, on appelle probabilité de A sachant B, le nombre :
P (A ∩ B)
P (A/B) :=
si P (B) > 0.
P (B)
∇ Attention! Il s’agit d’un choix de modèle, donnant des résultats qui ne
sont pas toujours conformes à l’intuition première.
Exemple de base 1. Monsieur X a deux enfants; on sonne à sa porte
et un garçon ouvre. Quelle est la probabilité (conditionnelle) que l’autre soit
une fille ? Cette information “il y a un garçon” réduit les possibilités dans la
composition de la famille et laisse penser qu’il y a plus de chances que l’autre
soit une fille. Modélisons : on note B l’évènement “il y a un garçon”, A, “il
y a une fille”, et, dans le modèle classique avec Ω = {GG, GF, F G, F F } et
la probabilité uniforme,
B = {GG, GF, F G}, A = {F G, GF, F F }
On en déduit P (B) = 3/4, P (A ∩ B) = 1/2 et la probabilité conditionnelle
de A sachant B vaut
P (A/B) = 2/3
2. On apprend que c’est l’aı̂né qui a ouvert la porte; quelle est la probabilité qu’il y ait une fille ? On note cette fois C l’évènement “l’aı̂né est un
garçon”;
C = {GG, GF }, A ∩ C = {GF } et P (A/C) = 1/2
11
Paradoxalement, l’apport d’information a augmenté l’incertitude !
Propriétés : 1) Si B est de probabilité non nulle, on peut vérifier que
P (Ω/B) = 1
P ((A ∪ C)/B) = P (A/B) + P (C/B) si A ∩ C = ∅
P (Ac /B) = 1 − P (A/B)
P
P (∪n An /B) = ∞
n=1 P (An /B) si les An sont disjoints deux à deux.
Autrement dit, l’application : A ∈ A → P (A/B) est encore une probabilité.
2) P (A ∩ B) = P (A/B)P (B)
3) Si A est de probabilité non nulle, on a aussi bien
P (B/A) =
P (A/B)P (B)
P (A)
Remarquons que la définition peut prendre une forme symétrique
P (B/A)P (A) = P (A/B)P (B)
les deux valant P (A ∩ B) donc 0 si A ou B est de probabilité nulle.
† Formule des Probabilités Totales
On peut décomposer tout évènement A sur la partition {B, B c } et écrire :
A = (A ∩ B) ∪ (A ∩ B c ) où l’union est disjointe; on en déduit
P (A) = P (A ∩ B) + P (A ∩ B c ) = P (A/B)P (B) + P (A/B c )P (B c )
formule qui se généralise sous la forme suivante (formule des probabilités
totales)
Si (Bi ) est un système complet d’évènements alors, pour tout A ∈ A
P
P (A) = ∞
1 P (A/Bi )P (Bi )
Preuve : Puisque Ω est l’union disjointe des Bi ,
∞
A = A ∩ (∪∞
1 Bi ) = ∪1 (A ∩ Bi )
où l’union est disjointe. Par le troisième axiome d’une probabilité, on peut
écrire
∞
∞
P (A) =
X
P (A ∩ Bi ) =
1
X
P (A/Bi )P (Bi ).
1
♦
12
†† Formule de Bayes
La situation suivante se rencontre souvent dans la pratique : on connaı̂t
P (A/B) et P (A/B c ) (donc P (A) par ce qui précède) et on aimerait décider
de la part de A dans la réalisation de B. Commençons par un exemple :
Exemple : On prend 100 dés dont 25 sont pipés; pour ces derniers la
probabilité d’amener un 6 est 1/2. On choisit un dé au hasard, on le lance
et on obtient 6 ! Quelle est la probabilité pour qu’on ait choisi un dé pipé ?
Notons F l’évènement “le dé est pipé” et A l’évènement “le dé donne un 6”;
on connaı̂t bien sûr P (A/F ) et P (A/F c ) et on souhaite calculer P (F/A) car
c’est bien de cela qu’il s’agit, même si le mot “conditionnelle” n’est pas écrit.
On calcule facilement
1
1 1 1 3
P (A) = P (A/F )P (F ) + P (A/F c )P (F c ) = . + . =
2 4 6 4
4
de sorte que,
P (F/A) =
P (A/F )P (F )
= 1/2
P (A)
On a juste combiné la propriété 2) et la formule des probabilité totales.
Plus généralement on a donc (formule de Bayes)
Si (Bi ) est un système complet d’évènements alors,
pour A ∈ A de probabilité non nulle,
P (Bi )P (A/Bi )
P (Bi /A) = P∞
1 P (A/Bi )P (Bi )
† † † Formule des Probabilités Composées
Cette formule permet de calculer la probabilité d’une intersection d’évènements dépendants et sera dégagée dans le paragraphe suivant.
Si (Ai ) est une suite d’évènements avec P (∩ni=1 Ai ) 6= ∅,
= P (A1 )P (A2 /A1 )P (A3 /A1 ∩ A2 )...P (An /A1 ∩ ... ∩ An−1 )
P (∩ni=1 Ai )
Preuve : Il est facile de donner une preuve par récurrence de cette
formule. Pour n = 2 c’est une des propriétés de la probabilité conditionnelle.
Supposons-la établie pour n évènements et considérons P (∩ni=1 Ai ∩ An+1 );
une nouvelle application de cette propriété donne alors
P (∩ni=1 Ai ∩ An+1 ) = P (An+1 /A1 ∩ ... ∩ An )P (A1 ∩ ... ∩ An )
= P (A1 )P (A2 /A1 )...P (An /A1 ∩ ... ∩ An−1 )P (An+1 /A1 ∩ ... ∩ An )
13
♦
par l’hypothèse de récurrence.
Exercices de base
1. Trois groupes de TD, G1 , G2 , G3 d’effectifs 36, 24, 30 étudiants ont un taux
de réussite de 1/2, 1/3, 1/4 respectivement. Un élève ayant réussi, quelle est
la probabilité pour qu’il provienne du groupe G1 ?
2. Le quart d’une population a été vaccinée contre une maladie. Au cours
d’une épidémie, on constate qu’il y a parmi les malades, un vacciné contre
quatre non-vaccinés.
a) Le vaccin a-t-il eu une efficacité quelconque ?
b) On sait en outre qu’il y a un malade sur douze parmi les vaccinés.
Quelle est la probabilité de tomber malade pour une personne non vaccinée ?
3. Une chaussette se trouve avec probabilité p ∈]0, 1[ dans une commode de
sept tiroirs avec une même probabilité pour chaque tiroir. On a fouillé en
vain dans les 6 premiers. Quelle est la probabilité qu’elle se trouve dans le
septième ? (Ce n’est pas p !)
2.2
Indépendance
On considère une expérience aléatoire toujours modélisée par (Ω, A). L’évènement A est indépendant de l’évènement B si B n’a aucune influence sur la
réalisation de A; autrement dit la probabilité que A soit réalisé est la même,
que B soit réalisé ou non. Cela s’écrit P (A/B) = P (A).
Mais si P (A) 6= 0, B est à son tour indépendant de A puisque P (B/A)P (A) =
P (A/B)P (B) = P (A)P (B) et P (B/A) = P (B). D’où la définition, plus
symétrique :
Les évènements A, B ∈ A sont indépendants si
P (A ∩ B) = P (A)P (B)
∇ Attention! Ne pas confondre “indépendants” et “disjoints”; deux
évènements indépendants peuvent avoir lieu simultanément, par exemple
“gagner au loto” et “avoir le pied grec” ! Par contre deux évènements disjoints ne sont indépendants que si l’un est de probabilité nulle.
La définition d’indépendance est de plus en plus exigeante lorsque le nombre d’évènements en jeu augmente : l’indépendance d’une famille de n évènements signifie l’indépendance de toute sous-famille de k évènements, k ≤ n,
extraite de la famille.
14
Les évènements A1 , ..., An ∈ A sont indépendants si
Q
P (Ai1 ∩ ... ∩ Aik ) = kj=1 P (Aij )
pour tout i1 < i2 < ... < ik , k = 1...n
∇ Attention! Ce n’est pas équivalent à l’indépendance deux à deux!
Dans la pratique, l’indépendance est souvent une donnée du problème car
résultant de l’observation; on utilisera alors simplement ses conséquences. En
particulier les propriétés suivantes.
Propriétés 1) Si A et B sont indépendants, alors les évènements A et
B , Ac et B, et Ac et B c le sont également.
Q
2) Si A1 , ..., An sont indépendants, P (A11 c ∩ ... ∩ Ann c ) = n1 P (Ai i c ) pour
tout choix de i = 0, 1.
c
Preuve : Montrons à titre d’exercice les propriétés 1); en s’aidant de la
symétrie de la définition, il suffit de vérifier que A et B c sont indépendants.
Or P (A)P (B c ) = P (A)(1 − P (B)) = P (A) − P (A ∩ B) par indépendance de
A et B. Mais P (A) = P (A ∩ B) + P (A ∩ B c ) et P (A)P (B c ) = P (A ∩ B c ).
♦
On va dégager dans la fin de ce chapitre deux situations extrêmement importantes en calcul des probabilités qui nous permettront de classer la plupart
des expériences aléatoires. Un fait central en probabilités et statistiques est
la répétition d’expériences aléatoires identiques; soit parce que l’expérience
qui nous intéresse se présente ainsi : c’est le cas de nombreux jeux, “421” où
on lance 3 dés successivement, “pile ou face” où on lance une pièce jusqu’à
l’obtention de pile etc; soit qu’on répète une même expérience pour estimer de
manière empirique la probabilité d’un évènement : c’est le cas des sondages
par exemple. On va donc modéliser les répétitions d’épreuves indépendantes
et les répétitions d’épreuves dépendantes.
† Successions d’épreuves indépendantes
Commençons par des exemples.
Exemples 1. Lancer de deux dés, simultanément ou non. Les résultats
des lancers sont indépendants et tout évènement lié au second lancer est
indépendant de tout évènement lié au premier lancer. Si Ω1 et Ω2 sont les
univers de chaque lancer, Ω1 = Ω2 = {1, ..., 6} et Ω = Ω1 × Ω2 = {(i, j), 1 ≤
i, j ≤ 6}. P ((i, j)) = 1/36 = P ({i})P ({j}) en notant de la même façon la
probabilité sur Ω et sur Ω1 .
15
2. Sexe des enfants successifs dans une famille de n enfants. L’univers est
Ω où Ω = {F, G} est l’univers de l’épreuve initiale; si ω = (ω1 , ..., ωn ) ∈ Ωn ,
chaque ωi étant une fille ou un garçon, P ({ω}) = 1/2n = P ({ω1 })...P ({ωn }).
n
3. Une épreuve de Bernoulli est une expérience aléatoire avec deux
résultats possibles “échec” ou “succés” symbolisés en général par 0, 1; si
p = P (succés) et q = P (échec), p + q = 1. Si on répète n épreuves de
Bernoulli indépendantes, Ω = {0, 1}n et la probabilité peut se décrire à l’aide
d’un arbre binaire.
S...
p
S
1−p
@
@
R
@
p
E...
@
@
@
1−p
S...
@
p
@
@
R
@
E
1−p
@
@
R
@
E...
Un schéma de Bernoulli de taille n est la succession
de n épreuves de Bernoulli indépendantes;
si ω est constitué de k succés et n − k échecs
P ({ω}) = pk q n−k
où p est la probabilité de succés à chaque étape.
Cadre général : On répète n fois une expérience aléatoire de façon
indépendante; le modèle de cette succession d’épreuves a une structure de
produit. Lorsque l’expérience initiale n’a qu’un nombre fini de résultats
16
possibles Ω, l’univers devient Ωn et si ω = (ω1 , ..., ωn ) ∈ Ωn , P ({ω}) =
P ({ω1 })...P ({ωn }) en notant de la même façon la probabilité sur Ω et sur
Ωn .
C’est le cadre du tirage avec remise.
†† Successions d’épreuves dépendantes
Cette fois le résultat de la k-ième épreuve dépend des précédentes.
Exemples 1. Tirage sans remise Une urne contient 3 boules rouges et 3
blanches. On tire deux boules sans remise. Quelle est la probabilité d’avoir
une boule blanche au second tirage ?
La composition de l’urne change à chaque étape et les tirages ne sont plus
indépendants. Il faut faire intervenir les probabilités conditionnelles. Notons
Bi l’évènement “on a tiré une boule blanche au i-ième tirage”.
P (B1 ) = 1/2, P (B2 ) = P (B2 /B1 )P (B1 ) + P (B2 /B1c )P (B1c ) = 1/2(2/5 +
3/5) = 1/2.
La modélisation peut se faire à l’aide d’un arbre binaire d’arêtes, les
probabilités conditionnelles.
B
2/5
B
3/5
@
R
@
1/2
R
@
1/2
@
B
@
@
3/5
@
R
@
R
2/5
@
R
@
R
On extrait successivement trois boules. Quelle est la probabilité de tirer
trois boules blanches ?
17
Il s’agit de calculer P (B1 ∩ B2 ∩ B3 ) où les évènements sont dépendants. On
déduit donc de la formule des probabilités composées :
1 2 1
P (B1 ∩ B2 ∩ B3 ) = P (B1 )P (B2 /B1 )P (B3 /B1 ∩ B2 ) = . . = 1/20
2 5 4
2. Problème des menteurs : Dans une ville il n’y a que des menteurs;
lorsqu’on donne une information à l’un d’entre eux, il la transmet fidèlement
avec probabilité p < 1, transmet son opposée avec probabilité q = 1 − p.
Un premier menteur reçoit une information ( sous la forme OUI-NON), la
transmet à un second, qui la transmet à un troisième etc. Le résultat transmis
par le n-ième dépend de l’information qu’il a reçue du précédent! Quelle
est la probabilité que l’information transmise aprés n menteurs soit celle de
départ ? (On peut s’aider d’un graphe)
2.3
Exercices récapitulatifs
1.♥ On lance deux fois un dé au hasard et on considère les évènements suivants :
A= le premier lancer donne un nombre pair
B= le second lancer donne un nombre impair
C= la somme des valeurs obtenues dans ces deux lancers est impaire.
Montrer que A, B, C sont deux à deux indépendants mais pas indépendants.
2.♥ Monsieur X discute avec son chauffeur de taxi : il apprend qu’il a quatre
enfants et se demande
a) Quelle est la probabilité qu’il ait une fille ?
Au fil de la conversation, il entend parler de deux garçons Pierre et Paul;
b) Quelle est la probabilité qu’il ait aussi une fille ? se demande toujours
Monsieur X.
Le trajet dure et il finit par comprendre que Pierre est l’aı̂né et Paul le
dernier.
c) Quelle est la probabilité qu’il ait une fille ? Monsieur X se met à douter...
3.♥ Des jumeaux peuvent être des vrais jumeaux, auquel cas ils sont de même
sexe; ou de faux jumeaux et dans ce cas la probabilité qu’ils soient de même
sexe est estimée à 1/2. On note p la probabilité que des jumeaux soient de
vrais jumeaux.
a) Quelle est la probabilité que deux jumeaux de même sexe soient de
vrais jumeaux ?
18
b) Déterminer en fonction de p la probabilité que deux jumeaux soient
de même sexe.
4.♥ Problème des clefs Un gardien conserve en vrac dans sa poche les 10 clefs
de son trousseau et une seule ouvre la porte de son local. Quand il est mal
réveillé il remet dans la même poche les clefs essayées, sinon il les met dans
l’autre poche. Quelle est la probabilité que le k-ième essai soit le bon dans
chacun des deux cas ?
5. a) Quelle est la probabilité d’amener un total de 6 en lançant deux dés ?
un total de 7 ?
b) Deux joueurs A et B jouent avec deux dés l’un aprés l’autre et B
commence. La règle est la suivante : B gagne s’il amène un total de 6 avant
que A n’amène un total de 7. Quel est le joueur le plus favorisé ?
6. Un voyageur prend le train ou l’avion. Si au jour j il prend l’avion, il
prend systématiquement le train le lendemain; mais si au jour j il prend
le train, il prend l’avion le lendemain avec probabilité 1/2. On note pn la
probabilité qu’il prenne le train au n-ième jour.
a) Montrer que pn+1 = − 21 pn + 1.
b) En déduire pn , s’il a pris le train le premier jour.
7. Répondre à la question dans le problème des menteurs.
8.♠ Loi de succession de Laplace : On considère N + 1 urnes numérotées de 0
à N , la k-ième contenant k boule rouges et N − k boule blanches. On choisit
une urne au hasard et on tire avec remise dans cette urne. On notera Rn
l’évènement “on a tiré une boule rouge au n-ième tirage”.
a) Quelle est la probabilité de tirer une boule rouge au premier tirage ?
(On utilisera la formule des probabilités totales avec les évènements Uk : “on
a choisi la k-ième urne”.)
b) Quelle est la probabilité de tirer deux boules rouges lors des deux
premiers tirages ?
Q
c) Montrer que P (R1 ∩ ... ∩ Rn /Uk ) = ni=1 P (Ri /Uk ) = ( Nk )n . En déduire
la probabilité de tirer une boule rouge au n + 1-ième tirage sachant qu’on a
déjà eu n boules rouges.
d) Trouver la limite quand n → ∞ de cette probabilité.
9.♠ Soit A, B deux évènements indépendants de probabilité non nulle. On
pose
x = P (A ∩ B), y = P ((A ∪ B)\(A ∩ B)), z = P (Ac ∩ B c )
19
et on va montrer que x, y, z sont tous les trois ≥ 4/9.
a) Remarquer sans calculs que x + y + z = 1.
b) Si a = P (A) et b = P (B), exprimer x, y, z en fonction de a, b puis en
fonction de u = ab et v = a + b.
c) Montrer que max(u, v − 2u, 1 + u − v) ≥ 4/9 en distinguant les cas :
u ≤ 1/9, 1/9 ≤ u ≤ 4/9. En déduire l’affirmation.
20
3
Variables aléatoires discrètes
Dans les phénomènes aléatoires décrits en début de chapitre 1, le résultat
d’une épreuve se traduit numériquement par un nombre entier ou réel et les
évènements se décrivent souvent à l’aide d’une fonction réelle définie sur Ω.
Par exemple, le nombre de OUI à un sondage, la somme des points amenés
par deux dés, la durée de vie d’un appareil, etc. Les variables aléatoires
seront pour nous des objets nous permettant d’exprimer plus simplement les
évènements. Si l’expérience est modèlisée par (Ω, A, P ), on appelle variable
aléatoire (réelle) (var) sur cet espace une application X : Ω → R, c’est-àdire dont les valeurs dépendent des résultats de l’expérience, et telle que l’on
puisse calculer la probabilité des évènements {ω; X(ω) = k} ou {ω; a ≤
X(ω) ≤ b}.
Exemples : 1. X1 , X2 , les points amenés par chacun des deux dés, sont
des variables aléatoires à valeurs dans {1, ..., 6}, tandis que X, la somme des
points, est à valeurs dans {1, ..., 12}; on sait calculer P (X = k) pour tout k.
Noter que X = X1 + X2 .
2. Dans un sondage où N personnes sont interrogées et les réponses sont
N ON = 0 ou OU I = 1, le nombre de OUI n’est autre que X = ξ1 + ... + ξN
où ξi est la réponse de la i-ième personne.
3.1
Lois discrètes usuelles
Une variable aléatoire : Ω → R est dite discrète si elle ne prend qu’un
nombre fini ou dénombrable de valeurs : {x1 , x2 , ..., xn } ou {x1 , ..., xn , ...},
(dénombrable = qu’on peut énumérer). Remarquons tout de suite que les
évènements (X = xi ), i ≥ 1, forment un système complet d’évènements.
Dans la plupart des exemples, les valeurs xi sont les entiers naturels. Ces
valeurs ne suffisent pas pour travailler avec la var, il faut aussi préciser avec
quelle probabilité elles sont prises. Ainsi pour parier avec un dé pipé, il est
important de connaı̂tre la probabilité d’apparition de chaque face.
On appelle loi de la variable discrète X
la donnée des nombres pi = P (X = xi ), i ≥ 1
Propriétés d’une loi discrète : Les nombres pi vérifient
1) pi = P (X = xi ) ≥ 0 pour toute valeur xi prise par X;
P
2) i≥1 pi = 1.
21
Remarquons que toute série de terme général un positif, de somme 1,
définit une loi discrète de probabilité : la variable entière X telle que P (X =
n) = un a pour loi (un ). Par exemple, un = π62 . n12 , n ≥ 1 définit une loi de
probabilité sur N.
On va voir que les variables aléatoires n’interviennent que par leur loi qui
seule importe. On peut ajouter, multiplier des variables aléatoires mais le
problème sera de déterminer la loi de ces nouvelles variables.
Cependant si X est une variable discrète, de loi pi = P (X = xi ), i ≥ 1, et si
g est une application de R dans R, Y = g(X) prend les valeurs g(xi ) avec
les mêmes probabilités pi . On connaı̂t donc la loi de Y .
† Premières lois :
1) On dit que X suit la loi uniforme sur {x1 , ..., xn } si X prend chacune
de ces valeurs avec même probabilité, P (X = xi ) = n1 ∀i = 1...n. Cette loi
est associée au tirage équiprobable. C’est la loi du numéro de la face lors du
lancer d’un dé non pipé.
2) X suit la loi de Bernoulli de paramètre p si X ne prend que les
valeurs 1, 0 avec probabilité p, 1 − p. Cette loi est associée au lancer d’une
pièce éventuellement biaisée.
3) On s’intéresse au nombre X de succés (PILE) lorsqu’on lance n fois
une pièce (schéma de Bernoulli de taille n); X prend les valeurs 0, 1, ..., n;
pour k ≤ n, l’évènement (X = k) est l’union d’évènements élémentaires
constitués de k PILE et n − k FACE et il y a Cnk telles suites puisque Cnk
façons de placer les k PILE parmi n. Comme les lancers sont indépendants,
chaque suite a comme probabilité : pk q n−k où q = 1 − p, et P (X = k) =
Cnk pk q n−k , 0 ≤ k ≤ n. On dit que X suit la loi binômiale de paramètres
n, p.
4) Dans un schéma de Bernoulli infini cette fois, on s’intéresse à l’instant
X du premier succés; X prend les valeurs 1, 2, ...; l’évènement (X = k)
signifie qu’il y a eu échec lors des k − 1 premiers lancers et succés au k-ième.
Comme les lancers sont indépendants, P (X = k) = q k−1 p, k ≥ 1. On dit
que X suit la loi géométrique de paramètre p.
5) La loi de Poisson est une loi qui ne correspond à aucune expérience
aléatoire particulière, mais qui est bien adaptée aux phénomènes de croissance de population ou autres (appels téléphoniques). Elle apparaı̂t comme
limite de la loi binômiale au sens suivant :
22
P(λ) = limn→∞ B(n, λ/n), λ > 0
Preuve : Cela signifie que la loi binômiale tend vers la loi de Poisson
quand le nombre d’épreuves tend vers ∞, avec la probabilité de succés, p,
tendant vers 0, de façon que np reste fixe. Pour le voir, écrivons
Cnk pk q n−k =
λ
λ
n!
( )k (1 − )n−k
k!(n − k)! n
n
= n(n − 1)...(n − k + 1)
1
λ λ 1 k
(1 − )n ( )k
k!
n n
1 − nλ
nk −λ λk
λk −λ
∼ e
= e
k!
nk
k!
quand n → ∞; ce qui définit le terme de la loi de Poisson P(λ).
♦
On dit que X suit la loi de Poisson de paramètre λ > 0 si X prend
λk
les valeurs 0, 1, 2, ... avec probabilités P (X = k) = e−λ , k ≥ 0.
k!
La loi de Poisson sert d’approximation de la loi binômiale quand n est
grand et p petit (n ≥ 30, p ≤ 1/10, np ≤ 15) comme on le verra en application.
Voici un tableau récapitulatif des lois discrètes usuelles.
•
•
•
•
•
Loi
Loi
Loi
Loi
Loi
unifome sur {1, ..., n}, P (X = i) = 1/n, 1 ≤ i ≤ n
de Bernoulli B(p), P (X = 1) = p, P (X = 0) = q
binômiale B(n, p), P (X = k) = Cnk pk q n−k , 0 ≤ k ≤ n
k
de Poisson P(λ), P (X = k) = e−λ λk! , k ≥ 0
géométrique G(p), P (X = k) = q k−1 p, k ≥ 1
Exercices de base. 1. On lance simultanément trois dés et on appelle
X le numéro du premier lancer ayant apporté 421. Quelle est la loi de X ?
Il s’agit d’un schéma de Bernoulli de taille infini et, à chaque lancer, on
appelle succés 421, échec tout autre triplet obtenu. La probabilité de succés
est donc p = 6/63 = 1/36. La variable X suit ainsi la loi géométrique
G(1/36).
2. Problème des tortues. a) A chaque ponte une tortue produit n oeufs
et la probabilité pour un oeuf de donner une tortue est p = 1/10. Quelle est
la probabilité d’avoir finalement k tortues ?
On suppose (ce n’est pas précisé dans l’énoncé mais sous-entendu) que les
23
oeufs sont “indépendants” de sorte que si X est le nombre de tortues obtenues, X suit la loi B(n, 1/10).
b) On suppose maintenant que le nombre d’oeufs pondus par une tortue
n’est pas fixe mais aléatoire (ce qui est plus conforme à la réalité), et suit une
loi de Poisson P(λ), λ = 100. Quelle est la probabilité d’avoir finalement k
tortues ?
Notons N le nombre d’oeufs à chaque ponte. C’est maintenant une variable
aléatoire. En question a) on a déterminé P (X = k/N = n) = Cnk pk q n−k pour
k ≤ n. Pour décrire (X = k), on va s’aider du système complet d’évènements
(N = n), n ≥ 0 et de la formule des probabilités totales :
P (X = k) =
∞
X
P (X = k/N = n)P (N = n)
n=0
=
∞
X
P (X = k/N = n)P (N = n)
n=k
et en remplaçant par leurs expressions, on trouve
P (X = k) =
∞
X
Cnk pk q n−k e−λ
n=k
∞
X
n
n!
n−k λ
p
q
n!
n=k k!(n − k)!
−λ k
=e
λn
n!
= e−λ
= e−λ
∞
pk X
qm
λm+k
k! m=0
m!
∞
(λq)m
(λp)k X
k! m=0 m!
(λp)k
(λp)k λq
e = e−λp
k!
k!
et X suit la loi P(λp) = P(10).
= e−λ
†† Loi hypergéométrique
Le nombre de succés dans une suite de n tirages sans remise se calcule
de façon différente puisque les tirages successifs ne sont plus indépendants.
Cependant, lorsque le tirage se fait dans une population trés supérieure en
24
nombre au nombre de tirages (voire infinie), on peut imaginer que chaque
tirage dépende assez peu des précédents. D’où une loi limite pour la loi du
nombre de succés.
Un exemple classique de telle situation est le suivant (contrôle de qualité) :
Une usine produit chaque jour N pièces dont N1 sont défectueuses. On
prélève n objets parmi les N et on souhaite évaluer le nombre X de pièces
défectueuses parmi ces n.
Il s’agit bien d’un tirage sans remise de n objets parmi N et X prend les
valeurs 0, 1, ..., n si n ≤ N1 .
L’ensemble des résultats possibles, Ω, est l’ensemble des tirages sans
remise de n objets parmi N , l’ordre n’intervenant pas, et
|Ω| = CNn ;
par ailleurs la probabilité est uniforme sur Ω; on a immédiatement pour
k ≤ n ≤ N1
CNk 1 CNn−k
−N1
P (X = k) =
n
CN
On dit que X suit la loi hypergéométrique de paramètres N, N1 , n
et on la note H(N, N1 , n).
Supposons que la proportion de pièces défectueuses N1 /N tende vers la
valeur p ∈]0, 1[ lorsque N → ∞. On peut donc écrire
P (X = k) =
=
N1 !
(N − N1 )!
n!(N − n)!
k!(N1 − k)! (n − k)!(N − N1 − n + k)!
N!
n!
N1 (N1 − 1)...(N1 − k + 1)
(N − N1 )...(N − N1 − n + k + 1)
k!(n − k)! N (N − 1)...(N − n + 1)
N1 N1 − 1 N1 − k + 1 N − N1 N − N1 − n + k + 1
= Cnk
...
...
N N −1 N −k+1 N −k
N −n+1
k k
n−k
∼ Cn p (1 − p)
ce qui illustre le fait que les tirages peuvent être considérés indépendants
quand N est grand avec p = N1 /N .
On retiendra
• X suit la loi hypergéométrique H(N, N1 , n) si
C k C n−k
P (X = k) = N1 nN −N1
CN
• H(N, N1 , n) → B(n, p) si N → ∞ et N1 /N → p
25
3.2
Indépendance de variables discrètes
Soit X et Y deux variables aléatoires discrètes définies sur un même espace de
probabilité (Ω, A, P ); on dit qu’elles sont indépendantes (et on notera dans la
suite : X q Y ) si les évènements liés à X sont indépendants des évènements
liés à Y . D’où la définition
Soit X à valeurs (xi ), Y à valeurs (yj ), deux variables discrètes;
X q Y si P ((X = xi ) ∩ (Y = yj )) = P (X = xi )P (Y = yj ), ∀i, j ≥ 1
Plus généralement
Soit X1 , ..., Xn n variables discrètes; Elles sont indépendantes si
P ((X1 = xi1 ) ∩ ... ∩ (Xr = xir )) = P (X1 = xi1 )...P (Xr = xir ),
∀1 ≤ i1 < ... < ir ≤ n
Il est naturel ici d’introduire la notion de vecteur discret : (X, Y ) est un
vecteur discret s’il prend ses valeurs (xi , yj )i,j≥1 sur Ω avec les probabilités
pi,j = P ((X = xi ) ∩ (Y = yj )) =: P (X = xi , Y = yj ), i, j ≥ 1
La famille de nombres (pi,j ) s’appelle la loi du couple (X, Y ) ou la loi conjointe de X et Y . On appelle alors lois marginales les lois des composantes
X et Y et elles s’obtiennent ainsi :
Si pi,j = P (X = xi , Y = yj ), ∀i, j ≥ 1, alors
P
∀i ≥ 1 pi := P (X = xi ) = j≥1 pi,j ,
P
qj := P (Y = yj ) = i≥1 pi,j
Exemples : 1) Soit (X, Y ) un vecteur discret à valeurs dans N2 de loi

(pi,j )1≤i,j≤3

1/6, 0, 1/6


=  1/6, 0, 1/6 
0, 1/3, 0
où pi,j = P (X = i, Y = j).
Quelles sont les lois (marginales) de X et Y ?
P
Pour 1 ≤ i ≤ 3, pi = P (X = i) = 3j=1 pi,j , et pour 1 ≤ j ≤ 3, qj = P (Y =
P
j) = 3i=1 pi,j , autrement dit, pour avoir la loi de X on somme les lignes et
pour avoir la loi de Y on somme les colonnes. On trouve
p1 = p2 = p3 = 1/3;
q1 = q2 = q3 = 1/3;
X et Y suivent toutes les deux la loi uniforme sur {1, 2, 3}.
26
2) Soit (X, Y ) un vecteur discret à valeurs dans N2 de loi
pj,k =
c
2j 3k
, j, k ≥ 1
c étant une constante à déterminer pour que (pj,k ) soit bien une loi de probabilité. Les pj,k sont ≥ 0 si c l’est et il faut ajuster c pour que
X
pj,k =
j,k≥1
Or
X
c
j,k≥1
2j 3k
=1
∞ −k
−j
= 1.1/2 = 1/2. On en déduit c = 2.
= ∞
1 2
1 3
De plus la loi de X est ( 21j , j ≥ 1) et celle de Y est ( 32k , k ≥ 1).
1
j,k≥1 2j 3k
P
P
P
Propriétés :
1) Si X et Y sont discrètes indépendantes, toute fonction de X est
indépendante de toute fonction de Y .
2) Soit X et Y deux variables discrètes. Alors X q Y si et seulement si
la loi du couple (X, Y ) est le produit des lois marginales cad
pi,j = pi qj , ∀i, j
si X est de loi (pi ) et Y de loi (qj )
En particulier on sait reconstituer la loi du couple à partir des lois marginales lorsque les variables sont indépendantes. C’est le cas du second exemple mais pas du premier.
† Loi multinômiale
On s’intéresse cette fois à une succession d’épreuves indépendantes
mais à résultats multiples (plus seulement succés ou échec). A chaque
étape, on classe les résultats en résultats de type 1, de type 2,..., de type k et
on note pi la probabilité d’avoir un résultat de type i, 1 ≤ i ≤ k. Le vecteur
X = (X1 , ..., Xk ) suit la loi multinômiale de paramètres n, p1 ,...,pk si
P (X = (n1 , ..., nk )) =
n!
pn1 ...pnk k
n1 !...nk ! 1
avec n1 + ... + nk = n.
Voici une illustration : Un système de N particules se trouve dans l’état
(N1 , ..., Nn ), si, pour chaque k = 1, ..., n, Nk particules ont une énergie Ek ,
27
E1 , ..., En étant les valeurs possibles de l’énergie d’une particule. Si Wi est la
probabilité qu’une particule ait pour énergie Ei , la probabilité que le système
se trouve dans l’état (N1 , ..., Nn ) est exactement
W =
N!
W N1 ...WnNn
N1 !...Nn ! 1
En effet, chaque configuration a comme probabilité W1N1 ...WnNn et elles sont
équiprobables; reste à calculer le nombre de répartitions qui est le nombre
de façons de répartir N objets dans n boı̂tes, avec, pour chaque j, Nj dans
la j-ième boı̂te; c’est le coefficient multinômial.
Qu’obtient-on pour n = 2 ?
††Somme de variables discrètes
La loi d’une somme de deux variables entières se calcule à l’aide de la loi
du couple (pi,j ) et devient beaucoup plus simple lorsque ces variables sont
indépendantes. Supposons que X et Y soient à valeurs dans N; il en est
de même de Z = X + Y et l’évènement (Z = n) se décompose en n + 1
évènements disjoints
(Z = n) = (X = 0, Y = n) ∪ (X = 1, Y = n − 1) ∪ ...
∪(X = n − 1, Y = 1) ∪ (X = n, Y = 0)
de sorte que
P (Z = n) = P (∪nk=0 (X = k, Y = n − k))
=
n
X
P (X = k, Y = n − k) =
k=0
n
X
pk,n−k .
k=0
Si les variables sont indépendantes on peut utiliser la propriété 2)
Soit X q Y à valeurs dans N, X de loi (pi ) et Y de loi (qj ),
P
alors, P (X + Y = n) = nk=0 pk qn−k , n ≥ 0
On retrouve ainsi l’expression de la loi binômiale. En effet si X est le
“nombre de succés” dans un schéma de Bernoulli de taille n, X peut s’écrire
X = X1 + ... + Xn où Xi vaut 1 s’il y a succés au i-ème lancer, 0 sinon.
Comme les lancers sont indépendants, on peut résumer ceci en
X suit la loi binômiale B(n, p) ⇐⇒ X est la somme de
n variables de Bernoulli B(p), indépendantes et équidistribuées.
28
L’expression de la loi binômiale se vérifie immédiatement par récurrence
sur n mais peut aussi s’obtenir directement en écrivant, si X = X1 + ... + Xn ,
P (X = k) = 0 si k > n et sinon, par indépendance,
P (X = k) =
X
P (X1 = x1 )...P (Xn = xn )
x1 +...+xn =k
= p#1 (1 − p)#0
X
1 = Cnk pk q n−k
x1 +...+xn =k
puisque le nombre de solutions de x1 + ... + xn = k avec xi = 0 ou 1 vaut Cnk .
La remarque suivante nous servira dans le calcul des moments :
X suit la loi hypergéométrique de paramètres N, N1 , n
notée H(N, N1 , n) ⇐⇒ X est la somme de
n variables de Bernoulli dépendantes et équidistribuées.
L’équidistribution n’est pas évidente et demande une preuve (cf exercice
8).
3.3
Exercices récapitulatifs
1.♥ On lance quatre fois une pièce de monnaie et on appelle X le nombre de
FACE, Y le nombre de séries de FACE (une série étant une succession : par
exemple FPFF donne X = 3, Y = 2).
a) Quelle est la loi de X ?
b) Trouver la loi du couple (X, Y ) sous la forme d’un tableau (pi,j ).
c) Déterminer la loi de Y .
2. Calculer la loi de X + Y , où X et Y sont indépendantes, X suit la loi
B(n, p) et Y la loi B(m, p).
3. Soit X une variable aléatoire suivant la loi de Poisson P (λ). Montrer que
la probabilité que X prenne des valeurs paires est supérieure à la probabilité
qu’elle prenne des valeurs impaires.
4. Le nombre de véhicules circulant sur l’autoroute A1 dans le sens ParisLille, durant un intervalle de temps donné, suit une loi P(λ); de même le
nombre de véhicules circulant dans le sens Lille-Paris suit une loi P(µ); on
suppose les flux indépendants. Quelle est la loi du nombre total de véhicules
sur l’autoroute A1 durant cet intervalle de temps ?
29
5. a) Montrer que la loi géométrique est une loi sans mémoire au sens suivant :
P (X > n + m/X > n) = P (X > m).
b) Réciproquement, supposons que X soit une variable entière sans mémoire. En posant qn = P (X > n), montrer que qn = q1n ; vérifier que P (X =
n) = qn−1 − qn et montrer alors que X suit une loi géométrique.
6. Soit X et Y deux variables indépendantes à valeurs dans N. On pose
Z = min(X, Y ).
a) Montrer que P (Z ≥ n) = P (X ≥ n)P (Y ≥ n).
On suppose que X suit la loi G(p) et Y la loi G(p0 ).
b) Calculer dans ce cas P (Z ≥ n), puis P (Z = n). Quelle est la loi de
Z?
7.♠ Dans un schéma de Bernoulli infini, on s’intéresse à l’instant du second
succés, plus généralement à l’instant du r-ième succés noté Xr , r ≥ 1.
a) Montrer que pour k ≥ 0,
r−1
P (Xr = r + k) = Cr+k−1
pr q k
en remarquant qu’il faut répartir r − 1 succés dans les r + k − 1 premiers
lancers. (On vérifiera que c’est bien une loi de probabilité)
b) Montrer que X2 = X2 − X1 + X1 est somme de deux variables
indépendantes; retrouver ainsi la loi de X2 , puis celle de Xr par récurrence
sur r.
c) Problème des allumettes de Banach Banach, qui était un fumeur impénitent, avait toujours sur lui deux boı̂tes de n allumettes, une boı̂te par poche.
Pour allumer une cigarette, il choisissait une poche au hasard. Quelle est la
probabilité, que, ayant constaté qu’une boı̂te est vide pour la première fois,
il reste k allumettes dans l’autre ?
8.♠ Si X suit la loi hypergéométrique H(N, N1 , n), elle peut se décomposer
en X = X1 + ... + Xn où Xi est le résultat du i-ème tirage.
Montrer que les Xi suivent des lois de Bernoulli de même paramètre
N1 /N .
9.♠ Montrer que les composantes d’un vecteur de loi multinômiale suivent
des lois binômiales, mais ne sont pas indépendantes.
30
4
Moments de variables discrètes
4.1
Espérance, Variance
Une variable discrète est assez mal décrite par les valeurs qu’elle prend
(penser à une pièce biaisée) et, pour une première approximation, calculer
la moyenne de ces valeurs n’est pas vraiment pertinent; il faut tenir compte
des probabilités de les obtenir ce qu’on fait pour définir le premier moment
l’espérance. Ensuite, on mesurera la qualité de cette approximation, en calculant la moyenne des oscillations autour de ce nombre; ce sera l’objet du
second moment la variance.
† Espérance
Pour calculer la note moyenne d’un contrôle subi par N élèves, et noté
de 0 à 10, on commence par calculer les nombre Ni de copies ayant obtenu
la note i puis on effectue
0 × N0 + 1 × N1 + ... + 10 × N10
N
= 0 × f0 + 1 × f1 + ... + 10 × f10
m=
fi étant la fréquence d’apparition de i comme note dans la classe.
Ceci conduit à la définition de l’espérance mathématique. Remarquer
qu’elle ne dépend que de la loi de la variable, laquelle joue un rôle muet mais
pratique.
• Si X prend les valeurs x1 , ..., xn avec probabilité p1 , ..., pn ,
P
l’espérance de X, E(X) = n1 pk xk
• Si X prend les valeurs xi , i ≥ 1 avec probabilité pi , i ≥ 1,
P
l’espérance de X, E(X), existe et vaut ∞
1 pk xk
si la série converge absolument.
∇ Attention! une var peut ne pas avoir d’espérance : ainsi la variable X
prenant les valeurs 2k avec probabilité 2−k , k ≥ 1.
On trouve parfois le terme “valeur moyenne” pour désigner l’espérance : il
faut bien comprendre que c’est une moyenne pondérée par les probabilités.
Enfin on parlera indifféremment de l’espérance d’une variable ou de l’espérance d’une loi..
Avant de calculer l’espérance des lois usuelles, on dégage quelques propriétés qui nous aideront. À l’aide d’une autre expression de l’espérance, on
peut établir ce qui suit.
31
Propriétés 1) Si X vaut toujours 1, E(X) = 1
2) Si X et Y ont une espérance, il en est de même de cX avec c ∈ R et de
X + Y ; et l’on a
E(cX) = cE(X),
E(X + Y ) = E(X) + E(Y )
Autrement dit E est une application linéaire.
3) E(X − E(X)) = 0
4) Si g : R → R est telle que Y = g(X) a une espérance, alors
E(g(X)) =
X
g(xk )pk .
k
Espérance des lois usuelles
Désormais la notation X ∼? signifiera “X suit la loi ?”
1. Si X ∼ B(n, p), E(X) = np.
La façon la plus rapide de le voir est d’utiliser la linéarité de l’espérance
et la décomposition de X en somme de n variables de Bernoulli de même
paramètre p, X = X1 + ... + Xn ; ainsi
E(X) =
n
X
E(Xi ) = n.E(X1 ) = np
i=1
car E(X1 ) = 1.p + 0.q = p. On peut aussi faire un calcul direct (cf exercice
3.) (Noter que l’indépendance ne sert pas ici!)
2. Si X ∼ H(N, N1 , n), E(X) = n NN1 .
La façon la plus rapide ici aussi est de décomposer de X en somme de n
variables de Bernoulli de même paramètre N1 /N , X = X1 + ... + Xn , ce qui
a été établi en exercice; ainsi
N1
N
On peut aussi faire un calcul direct (cf exercice 3.)
E(X) = n.E(X1 ) = n
3. Si X ∼ P(λ), E(X) existe et vaut λ.
k
Il s’agit de vérifier que la série de terme général uk = kpk = ke−λ λk! conk−1
verge (puisque à termes positifs), ce qui est clair; en écrivant uk = λe−λ λk−1!
si k ≥ 1, on déduit
E(X) =
∞
X
1
λe−λ
∞
X
λk−1
λj
=
λe−λ = λ
k − 1!
j!
0
32
4. Si X ∼ G(p), p > 0, E(X) existe et vaut 1/p.
La série de terme général positif kpq k−1 , k ≥ 1 est convergente puisque
P
q < 1 et E(X) existe; de plus k≥1 kq k−1 est la dérivée terme à terme
P
k
de la série entière ∞
0 x (de rayon 1), évaluée au point x = q; comme
P∞ k
P
p
1
1
k−1
vaut (1−q)
2 et E(X) = (1−q)2 = 1/p.
k≥1 kq
0 x = 1−x ,
Si X et Y ont une espérance, ce n’est pas forcément le cas pour la variable
XY ; c’est pourtant vrai lorsque X et Y sont indépendantes, car on a plus
précisément
Si X et Y sont des variables discrètes admettant une espérance
et X q Y
alors E(XY ) existe et vaut E(X)E(Y ).
∇ Attention! la réciproque est fausse : vérifier l’identité E(XY ) =
E(X)E(Y ) ne suffit pas pour établir l’indépendance.
Preuve : Supposons pour simplifier que X et Y ne prennent qu’un
nombre fini de valeurs x1 , ..., xn et y1 , ..., ym . Z = XY prend les valeurs
xi yj avec les probabilités P (X = xi , Y = yj ) = P (X = xi )P (Y = yj ) par
indépendance et
E(Z) =
X
xi yj P (X = xi )P (Y = yj )
i≤n,j≤m
=
X
i≤n
xi P (X = xi )
X
yj P (Y = yj ) = E(X)E(Y ).
j≤m
♦
Exercices de base 1. Un tireur a une chance sur 8 de toucher sa cible;
combien d’essais lui faudra-t-il en moyenne pour y parvenir ?
Il s’agit clairement d’un schéma de Bernoulli, puisqu’à chaque étape, le tireur
remporte un succés avec probabilité p = 1/8, un échec sinon; de plus les tirs
sont “indépendants”. Si X est le nombre de tirs nécessaire pour toucher la
cible, X suit la loi G(p); le nombre moyen demandé est E(X) = 8.
Combien d’essais lui faudra-t-il en moyenne pour atteindre deux fois sa
cible ?
Cette fois il faut trouver E(Y ) où Y = X + X 0 , et X 0 le nombre d’essais
aprés le premier succés. Comme X 0 a clairement même loi que X, E(Y ) =
2E(X) = 16. (Inutile de chercher la loi de Y )
33
1
2. Soit X ∼ P(1) une variable de Poisson. Montrer que Y = X+1
a une
espérance et la calculer.
X prend les valeurs k ≥ 0 et Y = g(X) les valeurs g(k) = 1/(k + 1) avec
1
les probabilités pk = 1e k!1 , k ≥ 0. La série de terme général g(k)pk = 1e (k+1)!
converge et sa somme
∞
∞
X
X
1 1
11
=
0 e k + 1!
1 e j!
∞
1 X
1
1
1
= (
− 1) = (e − 1) = 1 − .
e 0 j!
e
e
†† Variance, écart-type
Soit X une variable discrète ayant une espérance; pour mesurer les oscillations de X autour de cette valeur moyenne, il serait naturel de calculer
E(|X−E(X)|); pour des raisons de commodité, on lui préfère E((X−E(X))2 )
lorsqu’elle existe.
Soit X une variable discrète d’espérance E(X) =: m
v(X)
= E((X − m)2 ) est la variance de X,
q
σ(X) = E((X − m)2 ) en est l’écart-type, s’ils existent.
Propriétés Supposons que X admette une variance.
1) v(X) = 0 ⇐⇒ X est constante, égale à m = E(X), avec probabilité 1.
2) (Formule de Koenig) v(X) = E(X 2 ) − E(X)2 .
3) σ(aX + b) = |a|σ(X).
Preuve : 1) Si P (X = m) = 1, la variable Y = X − m vaut 0 avec
probabilité 1, de sorte que P (Y = y) = 0 pour tout y 6= 0 et
v(X) = E(Y 2 ) = 0 × P (Y = 0) +
X
yi2 pi = 0
yi 6=0
Réciproquement si v(X) = E(Y 2 ) = 0, yi2 pi = 0 et yi = 0 pour tout i tel
que pi = P (Y = yi ) 6= 0; ainsi P (Y 6= 0) = 0 c’est-à-dire P (Y = 0) = 1; mais
Y = 0 si et seulement si X = m d’où 1).
2) Il suffit de développer (X − E(X))2 = X 2 + E(X)2 − 2XE(X) et d’en
prendre l’espérance :
P
E([X − E(X)]2 ) = E(X 2 ) + E(X)2 − 2E(X)E(X) = E(X 2 ) − E(X)2 .
34
3) Remarquons que E(aX + b) = aE(X) + b de sorte que v(aX + b) =
v(aX) = a2 v(X), d’où l’écart-type.
♦
La proposition qui suit est très importante :
1) Si X et Y sont des variables discrètes indépendantes admettant
une variance (finie), alors X + Y admet aussi une variance et
v(X + Y ) = v(X) + v(Y ).
2) Si X1 , ..., Xn sont des variables discrètes admettant une variance
et indépendantes 2 à 2, alors
P
P
v( ni=1 Xi ) = ni=1 v(Xi ).
En particulier, si les variables sont indépendantes deux à deux et équidistribuées, de même variance σ 2 ,
n
X
σ(
√
Xi ) = σ n.
i=1
Preuve : 1) Puisque v(X) = v(X −E(X)), on peut supposer les variables
centrées i.e. E(X) = E(Y ) = 0. Ainsi,
v(X + Y ) = E([X + Y ]2 ) = E(X 2 + Y 2 + 2XY );
or E(XY ) = E(X)E(Y ) = 0 par l’hypothèse d’indépendance et la réduction.
On trouve ainsi
v(X + Y ) = v(X) + v(Y ).
2) On établit plus généralement pour Sn = X1 + ... + Xn , somme de
variables quelconques,
v(Sn ) =
n
X
v(Xi ) + 2
i=1
X
cov(Xi , Xj )
1≤i<j≤n
où la covariance des variables Xi et Xj désigne
E(Xi Xj ) − E(Xi )E(Xj ).
Ces nombres sont nuls si les variables sont indépendantes deux à deux d’où
l’identité dans ce cas.
♦
Variance des lois usuelles
1. Si X ∼ B(n, p), v(X) = npq.
35
Cette fois encore, utilisons la décomposition de X en somme de n variables
de Bernoulli indépendantes de même paramètre p, X = X1 + ... + Xn ; par
la proposition,
v(X) =
n
X
v(Xi ) = n.v(X1 ).
i=1
Or, si Y suit une loi de Bernoulli, v(Y ) = E(Y 2 ) − E(Y )2 = E(Y ) − E(Y )2 =
p − p2 = p(1 − p) = pq; on trouve ainsi v(X) = npq. Le calcul direct, possible
aussi, est beaucoup plus long.
2. Si X ∼ G(p), p > 0, v(X) existe et vaut q/p2 .
La série de terme général positif k 2 pq k−1 , k ≥ 1 est convergente puisque
q < 1 et E(X 2 ), donc v(X), existe; en écrivant k 2 = k(k + 1) − k,
X
k 2 q k−1 =
k≥1
X
k(k + 1)q k−1 −
k≥1
X
kq k−1
k≥1
est une somme de dérivées de séries entières. En effet, pour |x| < 1,
P
P
P
P
k+1 00
k 0
k−1
k−1
) =
=( ∞
=( ∞
k≥1 k(k + 1)x
k≥1 kx
0 x
0 x ) (déjà utilisé) et
2
;
évaluées
au
point
x
=
q
<
1,
cela
donne
(1−x)3
E(X 2 ) = p(
et
v(X) =
2
1
2
− )= 2 −1
3
(1 − q)
p
p
1
q
2
− 1 − 2 = 2.
2
p
p
p
3. Si X ∼ P(λ), v(X) existe et vaut λ.
k
Il suffit de vérifier que la série de terme général uk = k 2 pk = k 2 e−λ λk!
converge, ce qui est clair; en écrivant cette fois k 2 = k(k − 1) + k, uk =
λk
λk
e−λ ( k−2!
+ k−1!
) si k ≥ 2, et on obtient
2
E(X ) =
∞
X
λe
1
=
∞
X
0
λe−λ
−λ
∞
k−2
X
λk−1
2 −λ λ
+
λe
;
k − 1!
k − 2!
2
∞
λj X
λj
+
λ2 e−λ = λ + λ2 .
j!
j!
0
Finalement
v(X) = E(X 2 ) − E(X)2 = λ + λ2 − λ2 = λ.
36
4.2
Exercices récapitulatifs
1.♥ Soit X une variable aléatoire telle que P (X = 0) = P (X = 1) = P (X =
1
si n ≥ 3. Vérifier qu’il s’agit bien d’une loi de
2) = 0 et P (X = n) = 2n−2
probabilité et calculer l’espérance de X.
2.♥ Dans le problème des clefs (exercice 3.§2.3), on définit X le numéro de
la première clef qui ouvre la porte; pouvez-vous préciser les lois obtenues et
calculer le temps moyen de réussite dans chacun des deux cas ?
3. Retrouver à l’aide de la définition, la valeur de l’espérance d’une loi
binômiale et d’une loi hypergéométrique, cad établir les identités
n
X
n
X
kCnk pk q n−k = np;
k=0
k=0
k
CNk 1 CNn−k
N1
−N1
=
n
CNn
N
4. A partir de X une variable suivant la loi binômiale, on définit Y ainsi : si
X = k avec k > 0 on pose Y = k et si X = 0, Y prend une valeur quelconque
dans {1, ..., n}. Trouver la loi de Y et calculer son espérance.
5. Lors d’une compétition sportive d’un niveau trés élevé, tous les athlètes
ont franchi 2 m. La compétition se poursuit ainsi : la barre est soulevée
d’un cm à chaque étape et chaque candidat franchit les différentes étapes
jusqu’à ce qu’il échoue; de plus il n’a droit qu’à un essai par saut. Enfin il a
la probabilité 1/n de réussir un saut de n cm au-dessus de 2 m.
On note X le nombre de sauts effectués avant d’être éliminé.
Trouver la loi de X, son espérance et sa variance.
6. On dispose de n boules numérotées de 1 à n, qu’on range au hasard dans
n cases. On pose Si = 1 si la i-ème boule est dans la i-ème case, 0 sinon.
Soit S le nombre de boules “à leur place ”.
a) Touver la loi, l’espérance, la variance de Si .
b) Trouver la loi, l’espérance de Si Sj .
c) En déduire l’espérance et la variance de S.
7. a) Soit X une variable aléatoire à valeurs dans {0, 1, ..., n}.
P
Montrer que E(X) = n1 P (X ≥ k) en utilisant P (X = k) = P (X ≥
k) − P (X ≥ k + 1), pour k = 0, ..., n − 1
b) Soit X une variable aléatoire à valeurs dans N et admettant une
espérance. Montrer que
E(X) =
∞
X
P (X ≥ k).
1
37
c) Retrouver ainsi l’espérance d’une loi géométrique.
8.♠ Dans un jeu de pile ou face infini, on appelle T le temps d’attente de deux
PILE consécutifs; on souhaite calculer E(T ) cad le temps moyen d’attente.
a) On pose qn = P (T = n) pour n ≥ 2; calculer q1 et q2 .
b) On note X1 , X2 , ..., Xn , ... la suite des résultats à chaque lancer. Montrer que (X1 = F ), (X1 = P, X2 = P ), (X1 = P, X2 = F ) forment un système
complet d’évènements.
c) Que vaut P (T = n + 2/(X1 = P, X2 = P )) pour n ≥ 0 ? Établir alors
1
1
P (T = n + 2) = P (T = n + 2/X1 = F ) + P (T = n + 2/X1 = P, X2 = F ),
2
4
puis
1
1
qn+2 = qn+1 + qn .
2
4
d) En déduire, sans calculer (pn ), la valeur de E(T ).
9. Fonction génératrice Si X est une variable aléatoire à valeurs dans N de
loi (pn )n≥0 , on définit sa fonction génératrice, lorsqu’elle existe, par
GX (z) = E(z X ) =
∞
X
pn z n .
0
a) Montrer que la série entière a un rayon de convergence au moins égal
à 1. Que vaut GX (1) ?
(n)
b) Quelle relation a-t-on entre pn et GX (0) ?
c) Montrer que si X et Y sont des variables aléatoires à valeurs entières
et indépendantes, GX+Y = GX .GY . Trouver ainsi l’expression de la fonction
génératrice de X lorsque X suit la loi binômiale de paramètres n et p.
d) Calculer la fonction génératrice d’une variable de Poisson. Par dérivation, retrouver ses moments (espérance et variance).
10.♠ Peut-on piper deux dés de façon que la somme des points obtenus soit
équirépartie sur {2, ..., 12} ?
Supposons qu’on ait trouvé des probabilités p1 , ..., p6 et q1 , ..., q6 avec
P6
P6
p
1 j =
1 qj = 1, représentant la loi des résultats de chaque dé, X, Y , telles
que
1
P (X + Y = k) = , ∀k = 2, ..., 12.
11
38
a) Montrer à l’aide des fonctions génératrices que
1 2
(x + ... + x12 ) = (p1 x + ... + p6 x6 )(q1 x + ... + q6 x6 ).
11
b) En raisonnant sur les racines des polynômes, aboutir à une contradiction.
39