Variables aléatoires indépendantes Loi de Bernoulli

Transcription

Variables aléatoires indépendantes Loi de Bernoulli
Variables aléatoires indépendantes
Nous aurons besoin dans la suite de parler de la notion de variables aléatoires indépendantes (et plus
généralement mutuellement indépendantes).
On en donne ici la définition sans en tirer les conséquences que nous verrons plus tard.
Définition
Soit et deux variables aléatoires définies sur un même espace probabilisé (Ω, #, $).
On dit que les variables et sont indépendantes si
%& ' (Ω), %( ' (Ω), $( ) & * ) () ) $( ) &)$( ) ()
Loi de Bernoulli
Situation standard
Toute expérience aléatoire conduisant à deux issues possibles : l’une est appelée succès et l’autre
échec. Une telle expérience s’appelle : épreuve de Bernoulli. La variable aléatoire associée prend la
valeur 1 si le succès est réalisé et 0 sinon.
Univers image
On a
(Ω) ) 60,17
Loi de probabilité
Si 8 est la probabilité du succès dans l’expérience aléatoire, on a
$( ) 1) ) 8
Espérance mathématique et variance
On a
9 () ) 8
Notation
On écrit
Pour aller plus loin
: B(8)
La loi de Bernoulli est la « brique » de nombreuses situations concernant les variables aléatoires.
Loi binomiale
Situation standard
On répète successivement = épreuves de Bernoulli indépendantes et de même loi (ce qui revient à
dire que l’on recommence la même épreuve de Bernoulli = fois dans les mêmes conditions).
On s’intéresse au nombre de succès obtenus dans ces = épreuves.
Univers-image
(Ω) ) >0, =?
Loi de probabilité
Si 8 est la probabilité du succès de chacune des = épreuves, on a :
=
%@ ' >0, =?, $( ) @) ) A B 8C (1 D 8)EFC
@
Soit en posant G ) 1 D 8 :
=
%@ ' >0, =?, $( ) @ ) ) A B 8C G EFC
@
Espérance mathématique et variance
On a
9() ) =8
Notation
On écrit
: B(=, 8)
Remarque
Si : B(8) alors : B(1, 8)
Nous avons en effet
1
$( ) 0) ) 1 D 8 ) A B 8H (1 D 8)I
0
Pour aller plus loin
On considère = variables de Bernoulli I , … , E de même paramètre 8, indépendantes.
E
Soit ) I K L K E ) M C .
CNI
Nous allons prouver que suit une loi binomiale de paramètres = et 8.
Cette preuve va être faite par récurrence.
Montrons que ce résultat est vraie pour = ) 1.
Dans ce cas ) I qui suit une loi de Bernoulli de paramètre 8 et donc une loi binomiale de
paramètres 1 et 8.
Soient I , … , E , EQI des variables de Bernoulli de même paramètre 8, mutuellement indépendantes.
Montrons que si E ) I K L K E suit une loi binomiale de paramètres = et 8, alors EQI ) I K L K
E K EQI suit une loi binomiale de paramètres (= K 1) et 8.
On a EQI ) E K EQI.
Nous admettrons le résultat suivant : les variables I , … , E , EQI étant mutuellement indépendantes,
alors E ) I K L K E et EQI sont indépendantes.
On s’intéresse d’abord à l’univers-image.
On sait que
On a donc pour tout élément S de Ω :
Donc
Et donc
E (Ω) ) >0, =?
0 T E (S) T =
0 T EQI (S) T 1
0 T E (S) K EQI (S) T = K 1
0 T EQI (S) T = K 1
Décrivons pour tout @ ' >0, = K 1? l’évènement $(EQI ) @).
Il y a deux cas particuliers : @ ) 0 et @ ) = K 1.
En effet
(EQI ) 0) ) (E ) 0 * EQI ) 0)
Et
(EQI ) = K 1) ) (E ) = * EQI ) 1)
Pour tout @ ' >1, =?, on peut écrire
(EQI ) @ ) ) (E ) @ * EQI ) 0) Y (E ) @ D 1 * EQI ) 1)
On a donc bien
EQI (Ω) ) >0, = K 1?
On a par indépendance
$(EQI ) 0) ) $(E ) 0 * EQI ) 0)
) $(E ) 0)$(EQI ) 0)
=
) A B 8H (1 D 8)E (1 D 8)
0
= K 1 H (1
)A
B8
D 8)EQI
0
On a par indépendance
$(EQI ) = K 1) ) $(E ) = * EQI ) 1)
) $(E ) =) $(EQI ) 1)
=
) A B 8E (1 D 8)H 8
=
= K 1 EQI
)A
B 8 (1 D 8)H
=K1
On a enfin pour tout 1 T @ T =, par incompatibilité puis par indépendance :
$(EQI ) @ ) ) $Z(E ) @ * EQI ) 0) Y (E ) @ D 1 * EQI ) 1)[
) $(E ) @ * EQI ) 0) K $(E ) @ D 1 * EQI ) 1)
) $(E ) @)$(EQI ) 0) K $(E ) @ D 1)$(EQI ) 1)
=
=
) A B 8C (1 D 8)EFC (1 D 8) K A
B 8CFI (1 D 8)EFCQI 8
@
@D1
=
=
) \A B K A
B] 8C (1 D 8)EQIFC
@
@D1
On a d’après la formule de Pascal
= K 1 C(
$(EQI ) @) ) A
B 8 1 D 8)EQIFC
@
Cette formule est vérifiée également pour 0 et (= K 1).
Donc la variable EQI suit bien une loi binomiale de paramètres (= K 1) et 8.
Il y a donc hérédité.
On peut énoncer le théorème suivant :
Théorème :
Soit I , … , E = variables aléatoires de Bernoulli, indépendantes et de même paramètre 8. Soit
) I K L K E .
La variable suit une loi binomiale de paramètres = et 8.
Ce théorème permet de retrouver un résultat connu.
On sait que %@, 9 (C ) ) 8
On a
E
E
E
CNI
CNI
CNI
9 () ) 9 ^M C _ ) M 9(C ) ) M 8 ) =8
Loi géométrique
Situation standard
On répète successivement des épreuves de Bernoulli indépendantes et de même loi jusqu’à ce que l’on
obtienne un succès.
On s’intéresse au nombre de répétitions qu’il a fallu faire pour obtenir un succès.
Univers-image
Loi de probabilité
(Ω) ) ab
Si 8 est la probabilité du succès de chacune des épreuves, on a :
%@ ' ab, $( ) @) ) (1 D 8)CFI 8
Soit en posant G ) 1 D 8 :
%@ ' ab , $( ) @ ) ) G CFI 8
Espérance mathématique et variance
On a
1
8
G
c () ) d
8
9 () )
Notation
On écrit
: G(8)
Pour aller plus loin
On considère une famille de variables aléatoires I , … , E indépendantes, suivant toutes une même loi
géométrique de paramètre 8.
On considère
E
On cherche la loi suivie par .
) I K L K E ) M C
On a %@ ' >0, =?, C e 1donc E e =. On a
CNI
E (Ω) ) f=, K∞fa
Explicitons une expérience aléatoire que l’on peut associer à E .
On considère une pièce pour laquelle la probabilité d’obtenir « pile » est égale à 8.
On lance cette pièce jusqu’à ce que l’on ait obtenu = piles.
Soit I la variable indiquant le nombre de lancers avant le premier pile, d la variable indiquant le
nombre de lancers entre le premier pile et le second pile (le premier lancer pris en compte étant celui
qui suit le premier pile),…, C est la variable indiquant le nombre de lancers entre le (@ D 1)hèij pile
et le @ hèij pile…
La variable k ) I K d K L K E correspond au nombre de lancers pour obtenir le =hèij pile. Elle est
donc égale à E .
Les variables I , d , … , E suivent des lois géométriques de paramètre 8.
Nous nous retrouvons dans la situation que nous voulons analyser d’une somme de lois géométriques
de même paramètre que l’on peut considérer comme mutuellement indépendantes.
Déterminons la probabilité de l’évènement (k ) l) avec l e =.
L’évènement (k ) l) signifie que l’on a eu sur les (l D 1) premiers lancers (= D 1) piles et (l D =)
faces.
Appelons # la variable aléatoire qui correspond au nombre de piles parmi les (l D 1) premiers
lancers. Cette variable aléatoire suit une loi binomiale de paramètres (l D 1) et 8.
On peut écrire
(k ) l) ) (# ) = D 1) * $E
On a par indépendance
l D 1 EFI
lD1 E
$(k ) l) ) A
B 8 (1 D 8) nFE 8 ) A
B 8 (1 D 8)nFE
=D1
=D1
Donc
lD1 E
$(E ) l) ) A
B 8 (1 D 8) nFE
=D1
Loi uniforme
Situation standard
C’est la loi de l’équiprobabilité. Toute variable aléatoire prenant un nombre fini de valeurs telles que
toutes ont la même probabilité suit une loi uniforme.
En général, on se ramène au cas où les valeurs prises par la variable sont les entiers entre 1 et =.
Univers-image
Dans le cas cité ci-dessus, l’univers image est
(Ω) ) >1, = ?
Loi de probabilité
%@ ' >1, =?, $( ) @ ) )
1
=
Espérance mathématique et variance
On a
=K1
2
d
= D1
c () )
12
9 () )
Notation
On écrit
: U>I,E ?
Loi hypergéométrique
Situation standard
Une urne contient q boules : r noires et s blanches (r K s ) q).
On extrait simultanément t boules de l’urne. On s’intéresse au nombre de boules noires qu’il y a dans
les t boules extraites.
Univers-image
L’univers image est difficile à définir précisément.
S’il y a « assez » de boules noires, c’est-à-dire si r e t et s’il y a assez de boules blanches (s e t), on
aura
(Ω) ) >0, t?
Mais s’il r v t, on ne pourra pas avoir plus de r boules noires, et si s v t, il y aura toujours au moins
une boule noire.
En pratique, si r v t, le maximum de boules noires que l’on peut obtenir est r, sinon c’est t. Le
maximum de boules noires est donc égal au plus petit des deux nombres : r et t.
Si s v t, l’échantillon contiendra au maximum s boules blanches et donc au minimum t D s boules
noires, sinon si t T s, c’est-à-dire si t D s négatif, le minimum de boules noires sera 0. Donc le
minimum de boules noires est le plus grand des deux nombres 0 et t D s.
On a donc en fait
(Ω) ) >max(0, t D s) , min (r, t)?
Loi de probabilité
r
s
A BA
B
@ tD@
%@ ' (Ω), $( ) @) )
rKs
A
B
t
Espérance mathématique et variance
On a
9 () )
rt
) t8
rKs
r
Z8 est la probabilité d' avoir une boule noire[.
rKs
On a également
t8(1 D 8)(r K s D t)
c () )
rKsD1
Donnons comme exemple le calcul de l’espérance.
On connaît la formule de Vandermonde
En posant 8 )
E
On a
On a
r
s
rKs
MA BA
B)A
B
@ =D@
=
CNH
r
s
@A BA
B
@ tD@
9 () ) M
rKs
A
B
CNH
t
z
1
r
s
)
M@A BA
B
@ tD@
rKs
A
B CNH
t
z
1
r!
s
)
M@
A
B
rKs
(r
t
D
@
@!
D
@)!
A
B CNI
t
z
1
r!
s
)
M
A
B
rKs
(
)
(
)
t
D
@
A
B CNI @ D 1 ! r D @ !
t
z
(r D 1)!
r
s
)
M
A
B
rKs
t
D
@
A
B CNI (@ D 1)! Z(r D 1) D (@ D 1)[!
t
z
Donc
(r K s D 1)!
rKsD1
A
B (r K s D t)! (t D 1)!
t
tD1
)
)
rKs
(r K s)!
rKs
A
B
(r K s D t)! t!
t
rt
r
)t
) t8
rKs
rKs
Où 8 est la probabilité d’obtenir une boule noire.
9 () )
Notation
On écrit
: H(r K s, t, r)
Ou bien
: H(q, t, 8)
Loi de Poisson
Il n’y a pas de situation standard.
La loi de Poisson apparaît d’abord comme approximation d’une loi binomiale quand le nombre de
répétition de l’épreuve de Bernoulli tend vers l’infini (en pratique devient grand) avec une probabilité
du succès « petite ».
Examinons la situation.
On considère une variable aléatoire tel que : B(=, 8).
On pose | ) =8.
On a
C
| EFC
= C
= |
EFC
%@ ' >0, =?, $( ) @ ) ) A B 8 (1 D 8)
) A B \ ] \1 D ]
@
@ =
=
Que se passe t’il quand = tend vers l’infini ?
Cherchons la limite de $( ) @) quand = tend vers l’infini, @ étant un nombre réel fixé.
Pour cela, on raisonne en terme d’équivalents.
On a
CFI
Or
Donc
Et donc
Donc
=!
1
1
=
A B)
) (= D @ K 1) … = ) (= D l)
@
@! (= D @)! @!
@!
%l ' >0, @ D 1?, = D l~=
CFI
CFI
nNH
nNH
(= D l) ~  =
E
 = ) =C
CNI
nNH
On en tire
1 C
=
A B ~
=
@ EQ‚ @!
1 C |C
| EFC |C
| EFC
$( ) @)~ = C \1 D ]
~
\1 D ]
@! =
=
=
@!
| EFC
.
Reste à trouver un équivalent pour \1 D ]
=
Calculons la limite de cette quantité quand = tend vers l’infini.
On écrira d’abord :
‡
| EFC
(EFC) …†\IF ]
E
\1 D ]
)„
=
‡
Quand = tend vers l’infini, E tend vers 0 et donc
Donc
On a donc
Et enfin
On en tire que
|
|
ln \1 D ] ~ D
=
=
|
=D@
=
(= D @ ) ln \1 D ] ~ D |
~D| ~D|
=
=
=
|
lim (= D @ ) ln \1 D ] ) D|
EQ‚
=
‡
| EFC
(EFC) …†\IF ]
E ) „ F‡
lim \1 D ]
) lim „
EQ‚
EQ‚
=
lim $( ) @ ) )
EQ‚
|C „ F‡
@!
Remarque
On sait que 9 () ) =8 ) |. On retrouve que dans la loi de Poisson, l’espérance vaut |.
On a également
|
c() ) =8(1 D 8) ) | \1 D ]
=
Quand = tend vers l’infini, on aura :
|
lim c() ) lim | \1 D ] ) |
EQ‚
EQ‚
=
Résultat conforme à celui connu sur les lois de Poisson.
Univers-image
On a donc
(Ω) ) a
Loi de probabilité
%@ ' a, $( ) @) )
„ F‡ |C
@!
Espérance mathématique et variance
On a également
9 () ) |