Variables aléatoires indépendantes Loi de Bernoulli
Transcription
Variables aléatoires indépendantes Loi de Bernoulli
Variables aléatoires indépendantes Nous aurons besoin dans la suite de parler de la notion de variables aléatoires indépendantes (et plus généralement mutuellement indépendantes). On en donne ici la définition sans en tirer les conséquences que nous verrons plus tard. Définition Soit et deux variables aléatoires définies sur un même espace probabilisé (Ω, #, $). On dit que les variables et sont indépendantes si %& ' (Ω), %( ' (Ω), $( ) & * ) () ) $( ) &)$( ) () Loi de Bernoulli Situation standard Toute expérience aléatoire conduisant à deux issues possibles : l’une est appelée succès et l’autre échec. Une telle expérience s’appelle : épreuve de Bernoulli. La variable aléatoire associée prend la valeur 1 si le succès est réalisé et 0 sinon. Univers image On a (Ω) ) 60,17 Loi de probabilité Si 8 est la probabilité du succès dans l’expérience aléatoire, on a $( ) 1) ) 8 Espérance mathématique et variance On a 9 () ) 8 Notation On écrit Pour aller plus loin : B(8) La loi de Bernoulli est la « brique » de nombreuses situations concernant les variables aléatoires. Loi binomiale Situation standard On répète successivement = épreuves de Bernoulli indépendantes et de même loi (ce qui revient à dire que l’on recommence la même épreuve de Bernoulli = fois dans les mêmes conditions). On s’intéresse au nombre de succès obtenus dans ces = épreuves. Univers-image (Ω) ) >0, =? Loi de probabilité Si 8 est la probabilité du succès de chacune des = épreuves, on a : = %@ ' >0, =?, $( ) @) ) A B 8C (1 D 8)EFC @ Soit en posant G ) 1 D 8 : = %@ ' >0, =?, $( ) @ ) ) A B 8C G EFC @ Espérance mathématique et variance On a 9() ) =8 Notation On écrit : B(=, 8) Remarque Si : B(8) alors : B(1, 8) Nous avons en effet 1 $( ) 0) ) 1 D 8 ) A B 8H (1 D 8)I 0 Pour aller plus loin On considère = variables de Bernoulli I , … , E de même paramètre 8, indépendantes. E Soit ) I K L K E ) M C . CNI Nous allons prouver que suit une loi binomiale de paramètres = et 8. Cette preuve va être faite par récurrence. Montrons que ce résultat est vraie pour = ) 1. Dans ce cas ) I qui suit une loi de Bernoulli de paramètre 8 et donc une loi binomiale de paramètres 1 et 8. Soient I , … , E , EQI des variables de Bernoulli de même paramètre 8, mutuellement indépendantes. Montrons que si E ) I K L K E suit une loi binomiale de paramètres = et 8, alors EQI ) I K L K E K EQI suit une loi binomiale de paramètres (= K 1) et 8. On a EQI ) E K EQI. Nous admettrons le résultat suivant : les variables I , … , E , EQI étant mutuellement indépendantes, alors E ) I K L K E et EQI sont indépendantes. On s’intéresse d’abord à l’univers-image. On sait que On a donc pour tout élément S de Ω : Donc Et donc E (Ω) ) >0, =? 0 T E (S) T = 0 T EQI (S) T 1 0 T E (S) K EQI (S) T = K 1 0 T EQI (S) T = K 1 Décrivons pour tout @ ' >0, = K 1? l’évènement $(EQI ) @). Il y a deux cas particuliers : @ ) 0 et @ ) = K 1. En effet (EQI ) 0) ) (E ) 0 * EQI ) 0) Et (EQI ) = K 1) ) (E ) = * EQI ) 1) Pour tout @ ' >1, =?, on peut écrire (EQI ) @ ) ) (E ) @ * EQI ) 0) Y (E ) @ D 1 * EQI ) 1) On a donc bien EQI (Ω) ) >0, = K 1? On a par indépendance $(EQI ) 0) ) $(E ) 0 * EQI ) 0) ) $(E ) 0)$(EQI ) 0) = ) A B 8H (1 D 8)E (1 D 8) 0 = K 1 H (1 )A B8 D 8)EQI 0 On a par indépendance $(EQI ) = K 1) ) $(E ) = * EQI ) 1) ) $(E ) =) $(EQI ) 1) = ) A B 8E (1 D 8)H 8 = = K 1 EQI )A B 8 (1 D 8)H =K1 On a enfin pour tout 1 T @ T =, par incompatibilité puis par indépendance : $(EQI ) @ ) ) $Z(E ) @ * EQI ) 0) Y (E ) @ D 1 * EQI ) 1)[ ) $(E ) @ * EQI ) 0) K $(E ) @ D 1 * EQI ) 1) ) $(E ) @)$(EQI ) 0) K $(E ) @ D 1)$(EQI ) 1) = = ) A B 8C (1 D 8)EFC (1 D 8) K A B 8CFI (1 D 8)EFCQI 8 @ @D1 = = ) \A B K A B] 8C (1 D 8)EQIFC @ @D1 On a d’après la formule de Pascal = K 1 C( $(EQI ) @) ) A B 8 1 D 8)EQIFC @ Cette formule est vérifiée également pour 0 et (= K 1). Donc la variable EQI suit bien une loi binomiale de paramètres (= K 1) et 8. Il y a donc hérédité. On peut énoncer le théorème suivant : Théorème : Soit I , … , E = variables aléatoires de Bernoulli, indépendantes et de même paramètre 8. Soit ) I K L K E . La variable suit une loi binomiale de paramètres = et 8. Ce théorème permet de retrouver un résultat connu. On sait que %@, 9 (C ) ) 8 On a E E E CNI CNI CNI 9 () ) 9 ^M C _ ) M 9(C ) ) M 8 ) =8 Loi géométrique Situation standard On répète successivement des épreuves de Bernoulli indépendantes et de même loi jusqu’à ce que l’on obtienne un succès. On s’intéresse au nombre de répétitions qu’il a fallu faire pour obtenir un succès. Univers-image Loi de probabilité (Ω) ) ab Si 8 est la probabilité du succès de chacune des épreuves, on a : %@ ' ab, $( ) @) ) (1 D 8)CFI 8 Soit en posant G ) 1 D 8 : %@ ' ab , $( ) @ ) ) G CFI 8 Espérance mathématique et variance On a 1 8 G c () ) d 8 9 () ) Notation On écrit : G(8) Pour aller plus loin On considère une famille de variables aléatoires I , … , E indépendantes, suivant toutes une même loi géométrique de paramètre 8. On considère E On cherche la loi suivie par . ) I K L K E ) M C On a %@ ' >0, =?, C e 1donc E e =. On a CNI E (Ω) ) f=, K∞fa Explicitons une expérience aléatoire que l’on peut associer à E . On considère une pièce pour laquelle la probabilité d’obtenir « pile » est égale à 8. On lance cette pièce jusqu’à ce que l’on ait obtenu = piles. Soit I la variable indiquant le nombre de lancers avant le premier pile, d la variable indiquant le nombre de lancers entre le premier pile et le second pile (le premier lancer pris en compte étant celui qui suit le premier pile),…, C est la variable indiquant le nombre de lancers entre le (@ D 1)hèij pile et le @ hèij pile… La variable k ) I K d K L K E correspond au nombre de lancers pour obtenir le =hèij pile. Elle est donc égale à E . Les variables I , d , … , E suivent des lois géométriques de paramètre 8. Nous nous retrouvons dans la situation que nous voulons analyser d’une somme de lois géométriques de même paramètre que l’on peut considérer comme mutuellement indépendantes. Déterminons la probabilité de l’évènement (k ) l) avec l e =. L’évènement (k ) l) signifie que l’on a eu sur les (l D 1) premiers lancers (= D 1) piles et (l D =) faces. Appelons # la variable aléatoire qui correspond au nombre de piles parmi les (l D 1) premiers lancers. Cette variable aléatoire suit une loi binomiale de paramètres (l D 1) et 8. On peut écrire (k ) l) ) (# ) = D 1) * $E On a par indépendance l D 1 EFI lD1 E $(k ) l) ) A B 8 (1 D 8) nFE 8 ) A B 8 (1 D 8)nFE =D1 =D1 Donc lD1 E $(E ) l) ) A B 8 (1 D 8) nFE =D1 Loi uniforme Situation standard C’est la loi de l’équiprobabilité. Toute variable aléatoire prenant un nombre fini de valeurs telles que toutes ont la même probabilité suit une loi uniforme. En général, on se ramène au cas où les valeurs prises par la variable sont les entiers entre 1 et =. Univers-image Dans le cas cité ci-dessus, l’univers image est (Ω) ) >1, = ? Loi de probabilité %@ ' >1, =?, $( ) @ ) ) 1 = Espérance mathématique et variance On a =K1 2 d = D1 c () ) 12 9 () ) Notation On écrit : U>I,E ? Loi hypergéométrique Situation standard Une urne contient q boules : r noires et s blanches (r K s ) q). On extrait simultanément t boules de l’urne. On s’intéresse au nombre de boules noires qu’il y a dans les t boules extraites. Univers-image L’univers image est difficile à définir précisément. S’il y a « assez » de boules noires, c’est-à-dire si r e t et s’il y a assez de boules blanches (s e t), on aura (Ω) ) >0, t? Mais s’il r v t, on ne pourra pas avoir plus de r boules noires, et si s v t, il y aura toujours au moins une boule noire. En pratique, si r v t, le maximum de boules noires que l’on peut obtenir est r, sinon c’est t. Le maximum de boules noires est donc égal au plus petit des deux nombres : r et t. Si s v t, l’échantillon contiendra au maximum s boules blanches et donc au minimum t D s boules noires, sinon si t T s, c’est-à-dire si t D s négatif, le minimum de boules noires sera 0. Donc le minimum de boules noires est le plus grand des deux nombres 0 et t D s. On a donc en fait (Ω) ) >max(0, t D s) , min (r, t)? Loi de probabilité r s A BA B @ tD@ %@ ' (Ω), $( ) @) ) rKs A B t Espérance mathématique et variance On a 9 () ) rt ) t8 rKs r Z8 est la probabilité d' avoir une boule noire[. rKs On a également t8(1 D 8)(r K s D t) c () ) rKsD1 Donnons comme exemple le calcul de l’espérance. On connaît la formule de Vandermonde En posant 8 ) E On a On a r s rKs MA BA B)A B @ =D@ = CNH r s @A BA B @ tD@ 9 () ) M rKs A B CNH t z 1 r s ) M@A BA B @ tD@ rKs A B CNH t z 1 r! s ) M@ A B rKs (r t D @ @! D @)! A B CNI t z 1 r! s ) M A B rKs ( ) ( ) t D @ A B CNI @ D 1 ! r D @ ! t z (r D 1)! r s ) M A B rKs t D @ A B CNI (@ D 1)! Z(r D 1) D (@ D 1)[! t z Donc (r K s D 1)! rKsD1 A B (r K s D t)! (t D 1)! t tD1 ) ) rKs (r K s)! rKs A B (r K s D t)! t! t rt r )t ) t8 rKs rKs Où 8 est la probabilité d’obtenir une boule noire. 9 () ) Notation On écrit : H(r K s, t, r) Ou bien : H(q, t, 8) Loi de Poisson Il n’y a pas de situation standard. La loi de Poisson apparaît d’abord comme approximation d’une loi binomiale quand le nombre de répétition de l’épreuve de Bernoulli tend vers l’infini (en pratique devient grand) avec une probabilité du succès « petite ». Examinons la situation. On considère une variable aléatoire tel que : B(=, 8). On pose | ) =8. On a C | EFC = C = | EFC %@ ' >0, =?, $( ) @ ) ) A B 8 (1 D 8) ) A B \ ] \1 D ] @ @ = = Que se passe t’il quand = tend vers l’infini ? Cherchons la limite de $( ) @) quand = tend vers l’infini, @ étant un nombre réel fixé. Pour cela, on raisonne en terme d’équivalents. On a CFI Or Donc Et donc Donc =! 1 1 = A B) ) (= D @ K 1) … = ) (= D l) @ @! (= D @)! @! @! %l ' >0, @ D 1?, = D l~= CFI CFI nNH nNH (= D l) ~ = E = ) =C CNI nNH On en tire 1 C = A B ~ = @ EQ @! 1 C |C | EFC |C | EFC $( ) @)~ = C \1 D ] ~ \1 D ] @! = = = @! | EFC . Reste à trouver un équivalent pour \1 D ] = Calculons la limite de cette quantité quand = tend vers l’infini. On écrira d’abord : | EFC (EFC) \IF ] E \1 D ] ) = Quand = tend vers l’infini, E tend vers 0 et donc Donc On a donc Et enfin On en tire que | | ln \1 D ] ~ D = = | =D@ = (= D @ ) ln \1 D ] ~ D | ~D| ~D| = = = | lim (= D @ ) ln \1 D ] ) D| EQ = | EFC (EFC) \IF ] E ) F lim \1 D ] ) lim EQ EQ = lim $( ) @ ) ) EQ |C F @! Remarque On sait que 9 () ) =8 ) |. On retrouve que dans la loi de Poisson, l’espérance vaut |. On a également | c() ) =8(1 D 8) ) | \1 D ] = Quand = tend vers l’infini, on aura : | lim c() ) lim | \1 D ] ) | EQ EQ = Résultat conforme à celui connu sur les lois de Poisson. Univers-image On a donc (Ω) ) a Loi de probabilité %@ ' a, $( ) @) ) F |C @! Espérance mathématique et variance On a également 9 () ) |