1 Introduction aux Probabilités
Transcription
1 Introduction aux Probabilités
Probabilités Mathématiques 218 1 1.1 Introduction aux Probabilités Généralités Le hasard est le fait d’évènements qu’on ne peut pas prévoir et qui font partie de notre quotidien. Les exemples sont nombreux : –Les jeux de hasard bien sûr, mais aussi, –La durée de vie d’un individu ou d’une lampe; –Le nombre d’appels téléphoniques dans un central téléphonique; –Les mouvements d’une particule (mouvement brownien); –L’hérédité des caractères génétiques; –Les phénomènes météorologiques; etc Beaucoup de phénomènes naturels sont considérés comme le fruit du hasard (“phénomènes aléatoires”), pour la simple raison qu’on ne maı̂trise pas tous les paramètres intervenant dans la description de ces phénomènes. La désintégration d’un atome de radium, par exemple, dépend de faits que nous ne pouvons prendre en considération à l’heure actuelle. On cherche à décrire un modèle mathématique qui rende compte plus ou moins fidèlement d’une expérience aléatoire; c’est facile pour certaines (jet d’un dé), difficile ou impossible pour d’autres (météo). On note • Ω l’ensemble de tous les résultats élémentaires possibles appelé univers. Par exemple, pour le lancer d’un dé, Ω = {1, ..., 6}; Pour le jeu de pile ou face avec n jets, Ω = {0, 1}n ; Pour la durée de vie, Ω = R+ ou N si on compte en unités de temps; Pour le central téléphonique, Ω = Nd s’il y a d récepteurs; Pour le mouvement d’une particule, Ω = R3 ou Z3 ; etc • A, l’algèbre des évènements; c’est l’ensemble de tous les évènements liés à l’expérience, qui s’expriment à l’aide des résultats élémentaires. Par exemple, pour le lancer d’un dé, A =“Obtenir un nombre pair”; Pour le jeu de pile ou face avec n jets, B =“Avoir 3 PILE successifs”; Pour le mouvement d’une particule : “la particule ne coupe pas le plan xOy” ; etc 1 On peut tout naturellement définir des opérations sur les évènements, que l’on traduit par des opérations logiques (union, intersection, etc) ce qui revient à identifier un évènement à une partie de Ω. Ainsi ∅ est l’évènement impossible et Ω l’évènement certain; l’évènement contraire à A est noté Ac , la conjonction des évènements A et B, A∩B et la disjonction des évènements A et B, A ∪ B. On les a résumées dans le tableau : A=∅ A=Ω A jamais réalisé A toujours réalisé Ac ou A A∩B A∪B A\B A⊂B ∪∞ n=1 An ∩∞ n=1 An réalisé quand A n’est pas réalisé réalisation simultanée de A et B. réalisation de A ou B (ou non exclusif) A est réalisé mais B ne l’est pas B est réalisé dès que A l’est réalisation d’un au moins des An , n ≥ 1 réalisation de tous les An , n ≥ 1 Rappelons les quelques règles à connaı̂tre en théorie des ensembles. . Ωc = ∅ et (Ac )c = A; . (A ∪ B)c = Ac ∩ B c et (A ∩ B)c = Ac ∪ B c ; . A ∩ (B ∪ C) = (A ∩ B) ∪ (A ∩ C) et A ∩ (∪n Bn ) = ∪n (A ∩ Bn ). • P la probabilité définie sur (Ω, A). On essaie d’estimer au mieux la probabilité que l’évènement A ait lieu; pour cela on s’inspire de la notion empirique de fréquence : on répète N fois une expérience (penser au lancer d’un dé) et on note NA le nombre de fois où A est réalisé. Alors, la fréquence d’apparition de A est NA fA = N Clairement la fréquence possède les propriétés suivantes : 0 ≤ fA ≤ 1; fΩ = 1; si A ∩ B = ∅. fA∪B = fA + fB On va s’inspirer de ces propriétés pour définir les axiomes d’une probabilité. Retenons déjà (1) 0 ≤ P (A) ≤ 1; 2 (2) P (Ω) = 1; (3) P (A ∪ B) = P (A) + P (B) si A ∩ B = ∅. Commençons par le cas simple où Ω est un ensemble fini. 1.2 Probabilités finies et combinatoire Lorsque Ω est un ensemble fini {ω1 , ..., ωn }, on peut énumérer toutes les parties de Ω, P(Ω), qui sont elles-aussi en nombre fini. Les singletons {ωi } sont les évènements élémentaires et A = P(Ω) : tout évènement est une union finie d’évènements élémentaires. La propriété (3) s’écrit P (A) = X P ({ωi }) i;ωi ⊂A Dans ce cas particulier une probabilité est donc entièrement définie par les probabilités des évènements élémentaires, notées p1 , ..., pn ; en résumé Une probabilité sur un ensemble fini {ω1 , ..., ωn } est la donnée de n nombres p1 , ..., pn tels que P •0 ≤ pi ≤ 1, et n1 pi = 1 P •P (A) = i;ωi ⊂A pi •P (A ∪ B) = P (A) + P (B) si A ∩ B = ∅. † Cas particulier important Fréquemment dans les jeux de hasard, pour des raisons de symétrie, les évènements élémentaires ont la même probP abilité (équiprobables); si Ω a n points, nécessairement, pour réaliser n1 pi = 1, on doit avoir pi = 1/n pour tout i. Ainsi P (A) = X 1 i;ωi ⊂A n = |A| |A| = n |Ω| en notant |A| le nombre de points de l’ensemble A (ou le cardinal de A, noté encore #A). On dit que P est la probabilité uniforme sur Ω et on l’exprime par la phrase mnémotechnique “Nombre de cas favorables sur nombre de cas possibles.” Ceci nous amène tout naturellement au dénombrement et à la combinatoire. Exemples simples 1. On lance un dé; les faces sont équiprobables et si pi est la probabilité d’amener i, pi = 1/6, i = 1, 2, ..., 6. Si A est 3 l’évènement “on a obtenu un nombre pair” et B “on a obtenu un multiple de 3”, P (A) = 1/2 et P (B) = 1/3 tandis que P (A ∩ B) = 1/6. 2. On lance deux dés; on choisit comme modèle, conforme à l’expérience, Ω = {(i, j), 1 ≤ i, j ≤ 6} l’ensemble des couples (ordonnés au sens où (x, y) 6= (y, x) si x 6= y), avec la probabilité uniforme. Il faut donc calculer |Ω| = 36; L’évènement A “la somme des points obtenus est 4” est la réunion des évènements élémentaires {(1, 3), (2, 2), (3, 1)} et P (A) = 3/36 = 1/12. 3. On lance n fois une pièce. Un évènement élémentaire est une suite de n “pile” ou “face”, notés P et F , et Ω, représenté par {P, F }n , a 2n éléments. L’évènement A = “on a obtenu un seul pile” a comme probabilité n/2n . †† Rappels de combinatoire 1. Cardinal d’un ensemble fini. A savoir : |A × B| = |A|.|B| ce qu’on a déjà utilisé pour calculer {0, 1}n = 2n . Ainsi le nombre de k-uplets d’éléments pris dans Ω de cardinal n est |Ω|k = nk . Par ailleurs |A ∪ B| = |A| + |B| − |A ∩ B| d’où l’additivité du cardinal lorsque les ensembles sont disjoints. 2. Arrangements. On appelle arrangement de k objets (distincts) parmi n, et on note Akn , le nombre d’échantillons (ordonnés) de taille k parmi n. Attention! Ne pas confondre “échantillon de taille k” et “k-uplet” Un k-échantillon est une partie ordonnée de k éléments, sans répétition; Un k-uplet est une partie ordonnée de k éléments avec répétition possible. 4 Ainsi Akn = n(n − 1)...(n − k + 1), k ≤ n (on a n choix pour le 1-er objet, n − 1 choix pour le second, etc...) 3. Permutations. Une permutation σ de {1, ..., n} est une bijection de l’ensemble qui envoie le n-uplet (x1 , ..., xn ) sur le n-uplet (xσ(1) , ..., xσ(n) ), décrit dans un ordre différent. Le nombre de permutations de n objets est le nombre d’échantillons de taille n parmi n soit n!. 4. Combinaisons. On appelle combinaison de k objets parmi n, le nombre de parties à k objets pris parmi les n. Pour le calculer, on identifie les échantillons faisant intervenir les mêmes objets et qui ne diffèrent que par une permutation. On en déduit Cnk = Akn /k! = n! k!(n − k)! À savoir sur les coefficients binômiaux : P La formule du binôme : nk=0 Cnk xk y n−k = (x + y)n P P et ses conséquences : nk=0 Cnk = 2n , nk=0 Cnk (−1)k = 0. Le triangle de Pascal et cette identité : k+1 = Cnk+1 + Cnk Cn+1 On peut exprimer ce qui précède en termes de tirage d’objets. Il y a deux types de tirage, avec ou sans remise; deux types d’ensemble de k objets tirés, selon qu’on tient compte ou non de l’ordre. Voici un tableau récapitulatif Ordonné Non ordonné avec remise nk k (∗) Cn+k−1 sans remise n(n − 1)...(n − k + 1) Cnk On peut également exprimer ceci en termes de répartition de k objets dans n boı̂tes. Il y a deux types de placement, selon que l’on met au plus un ou plusieurs objet(s) par boı̂te ; et deux types d’objets, discernable ou non (on peut interpréter ce point de vue comme un “tirage” de boı̂te avec ou sans remise...). discernables Non discernables plusieurs objets par boı̂te nk k Cn+k−1 (∗) 5 au plus un par boı̂te n(n − 1)...(n − k + 1) Cnk Exercices de base 1. Quel est le nombre de tiercés possibles dans une course de 20 chevaux ? 2. Quel est le nombre de mots de longueur n construits sur un alphabet de 3 lettres {a, b, c} ? 3. Quel est le nombre de solutions de l’équation x1 + x2 + ... + xn = k où xi = 0 ou 1 ? 4. Quel est le nombre de solutions de l’équation x1 + x2 + ... + xn = k avec xi entiers ≥ 0 ? 5. Comment peut-on répartir p euros entre n personnes ? Preuve de (∗): Choisissons le second point de vue : on dispose de n boı̂tes dans lesquelles on veut répartir k boules indiscernables, avec éventuellement plusieurs boules par boı̂te. On figure les bords des boı̂tes par des | et les boules par des O. Une répartition possible prend la forme suivante : |O|OO| |OO| | cad une configuration de k boules et n + 1 barres, commençant et finissant par une barre. Or le nombre de façons de placer k boules parmi les n+k+1−2 = n+k−1 k d’où (∗). ♦ places possibles est Cn+k−1 5. Coefficient multinômial Soit n1 , n2 , ..., nk k entiers ≥ 0 tels que n1 + n2 + ... + nk = n Le nombre de façons de répartir n objets indiscernables dans k boı̂tes, n! . avec exactement ni objets dans la i-ième boı̂te, vaut n1 !...nk ! Preuve : On note B1 , ..., Bk les k boı̂tes. Il y a Cnn1 façons de choisir les n2 n1 objets destinés à la première boı̂te; Cn−n façons de choisir les n2 objets 1 nk destinés à la deuxième boı̂te; etc; il y a finalement Cn−(n = 1 1 +n2 +...+nk−1 ) façon de choisir les nk objets destinés à la dernière boı̂te. Le nombre cherché est donc nk n2 Cnn1 Cn−n ...Cn−(n = 1 1 +n2 +...+nk−1 ) (n − n1 )! n − (n1 + n2 + ... + nk−2 )! n! ... n1 !(n − n1 )! n2 !(n − n1 − n2 )! nk−1 !(nk )! = n! n1 !...nk ! ♦ 6 Exercices sur les probabilités uniformes 1. Dans une assemblée de r personnes, quelle est la probabilité que toutes aient des jours d’anniversaire différents ? (On choisira un modèle qui ”colle” le mieux à la réalité, en précisant Ω et en se situant dans le tableau récapitulatif) 2. On lance n balles de couleur différente dans n boı̂tes; quelle est la probabilité qu’elles soient toutes occupées ? (On précisera le modèle choisi). 1.3 Axiomes d’une probabilité On considère une expérience aléatoire modélisée par (Ω, A), où Ω est l’ensemble des résultats élémentaires et A l’algèbre des évènements. Lorsque Ω n’est plus fini, on ne peut pas décrire toute partie de Ω, encore moins lui attribuer une probabilité; on se restreint donc à une classe d’évènements qui possède les trois propriétés suivantes : 1) Elle contient ∅ et Ω. 2) Si A est dans A, l’évènement contraire y est aussi. 3) Si (An ) est une suite d’évènements de A, la réunion est encore dans A. Noter que 2) et 3) entraı̂nent que : si (An ) est une suite d’évènements de A, l’intersection est encore dans A. Une probabilité P sur (Ω, A) est une application P : A → [0, 1] telle que : •P (Ω) = 1 •P (A ∪ B) = P (A) + P (B) si A et B sont disjoints. P •P (∪n An ) = ∞ n=1 P (An ) si les An sont disjoints deux à deux. On pourrait déduire le second axiome du troisième mais il est plus simple de le dégager. On aura besoin à l’occasion des propriétés suivantes qui découlent immédiatement de la définition encadrée. 1) 2) 3) 4) P (Ac ) = 1 − P (A) P (∅) = 0 P (A) ≤ P (B) si A ⊂ B P (A ∪ B) = P (A) + P (B) − P (A ∩ B) Preuve : Appliquons le second axiome avec B = Ac ; puisque P (A) + P (Ac ) = P (A ∪ Ac ) = P (Ω) = 1, on a la première propriété. Ecrit en particulier avec A = Ω, 1) donne 2). 7 Si A ⊂ B, B peut s’écrire comme union disjointe de A et B\A; ainsi P (B) = P (A) + P (B\A) ≥ P (A). Plus généralement, lorsqu’on n’a plus d’inclusion de A dans B, B\A n’est autre que B\(A ∩ B); A et B\A sont encore disjoints et P (A ∪ B) = P (A) + P (B\A); de même B étant l’union disjointe de B\A et A ∩ B, il vient P (B\A) = P (B) − P (A ∩ B) d’où 4). ♦ Exercices sur les probabilités : 1) Établir une propriété analogue à 4) avec trois évènements. 2) Avec 4 évènements, en supposant que les évènements sont “échangeables” cad : P (Ai ) = α ∀i, P (Ai ∩ Aj ) = β P (Ai ∩ Aj ∩ Ak ) = γ ∀i < j ∀i < j < k † Système complet d’évènements Un système complet d’évènements est une suite d’évènements deux à deux disjoints et de réunion égale à Ω. A1 , A2 , ..., An , ... ∈ A tels que •Aj ∩ Ak = ∅ si j 6= k • ∪n An = Ω Comme parties de Ω, ces ensembles forment une partition de Ω. 1.4 Exercices récapitulatifs 1. Trouver la valeur des sommes [n/2] X [n/2]−1 Cn2k ; X k=1 et des sommes n X k=0 kCnk ; k=1 2. Calculer le produit des Cnk : Cn2k+1 , n X (−1)k−1 kCnk ; k=1 Qn k=0 Cnk . 8 3. Calculer le coefficient de xk dans chaque membre de l’identité : (1 + x)n (1 + x)m = (1 + x)n+m ; en déduire la valeur de n X k−j Cnj Cm , k ≤ n + m. j=1 4. Etablir les identités n X n (Cnk )2 = C2n , 0 n X 0 k(Cnk )2 = n n C 2 2n et donner un équivalent√de ces sommes quand n → ∞ à l’aide de la formule de Stirling (n! ∼ nn e−n 2πn). 5. Calculer A0n + A1n + ... + Ann . 6. Combien y a -t-il de façons d’asseoir 7 personnes : a) sur un banc de 7 places ? b) autour d’une table ronde de 7 places également ? c) autour de cette table ronde si 2 personnes particulières ne veulent pas être l’une à côté de l’autre ? 7. Montrer qu’un ensemble fini a autant de parties de cardinal pair que de parties de cardinal impair. 8. On considère n points A1 , ..., An dans le plan, 3 quelconques n’étant jamais alignés. On les joint deux à deux de toutes les façons possibles. Calculer a) Le nombre N de droites ainsi obtenues; b) le nombre de points d’intersection de ces droites autres que les Ai , en supposant que deux droites quelconques ne sont jamais parallèles. 9.♠ a) Etablir la formule des cardinaux pour des ensembles finis A1 , ..., An : |A1 ∪ A2 ∪ ... ∪ An | = n X 1 |Aj | − X i,j |Ai ∩ Aj | + X |Ai ∩ Aj ∩ Ak |− i,j,k ... + (−1)n−1 |A1 ∩ A2 ∩ ... ∩ An |. b) Soit E = {1, 2, ..., n} et P l’ensemble des permutations de E. On pose pour chaque i, Ai = {ϕ ∈ P; ϕ(i) = i}, cad les permutations de E fixant i; calculer |Ai |, |Ai ∩ Aj |, |Ai ∩ Aj ∩ Ak |... c) Déduire de a) le cardinal de D, le nombre de permutations sans point fixe. 9 10. On considère le mot ATTACHANT. a) Donner le nombre d’anagrammes de ce mot. b) On tire au hasard et avec remise 4 lettres de ce mot; quelle est la probabilité de pouvoir écrire CHAT avec ces lettres ? c) Même question si le tirage a lieu sans remise. 11. Un ascenseur desservant 10 étages, contient 8 personnes qui descendent de façon aléatoire. a) Quelle est la probabilité pour qu’aucune ne descende au second étage ? b) Quelle est la probabilité qu’elles descendent toutes à un même étage ? c) Quelle est la probabilité pour que 2 descendent au second étage, 1 descende au troisième étage et 5 au dernier étage ? 12. Une urne contient n boules blanches et m boules rouges, n + m ≥ 2. On tire deux boules simultanément; quelle est la probabilité d’obtenir deux boules de la même couleur ? pour quelles valeurs de n, m cette probabilité vaut-elle 1/2 ? 13. Une urne contient n boules numérotées de 1 à n. On tire deux boules sans remise; quelle est la probabilité que les deux boules sortent dans l’ordre de leur numéro ? quelle est la probabilité pour que les numéros soient consécutifs ? 14.♥ Soit A et B deux évènements tels que P (A) = P (B) = 3/4. Que peut-on dire de P (A ∩ B) et P (A ∪ B) ? 15.♠ (Les danseurs de Chicago) a) Dans une salle de danse il y a n couples. Chaque femme choisit un cavalier au hasard. Quelle est la probabilité pour que chaque femme danse avec son époux ? (cf exercice 9) b) En repartant chaque homme reprend son chapeau au vestiaire mais de façon aléatoire. Quelle est la probabilité qu’aucun ne reprenne son propre chapeau ? 10 2 2.1 Conditionnement, Indépendance Probabilités conditionnelles Revenons à la notion empirique de fréquence. On s’intéresse à deux évènements A, B, liés à une même expérience aléatoire. On répète N fois cette expérience et on note NB le nombre de fois où B est réalisé. Parmi ces NB réalisations, l’évènement A s’est lui-même réalisé NA∩B fois. Le quotient NA∩B représente la fréquence relative d’apparition de A quand B est réalisé. NB Plus brièvement fA/B = NNA∩B est la fréquence de A sachant que B est réalisé. B On remarque que fA∩B NA∩B N = fA/B = N NB fB D’où la définition de la probabilité conditionnelle : Si A et B ∈ A, on appelle probabilité de A sachant B, le nombre : P (A ∩ B) P (A/B) := si P (B) > 0. P (B) ∇ Attention! Il s’agit d’un choix de modèle, donnant des résultats qui ne sont pas toujours conformes à l’intuition première. Exemple de base 1. Monsieur X a deux enfants; on sonne à sa porte et un garçon ouvre. Quelle est la probabilité (conditionnelle) que l’autre soit une fille ? Cette information “il y a un garçon” réduit les possibilités dans la composition de la famille et laisse penser qu’il y a plus de chances que l’autre soit une fille. Modélisons : on note B l’évènement “il y a un garçon”, A, “il y a une fille”, et, dans le modèle classique avec Ω = {GG, GF, F G, F F } et la probabilité uniforme, B = {GG, GF, F G}, A = {F G, GF, F F } On en déduit P (B) = 3/4, P (A ∩ B) = 1/2 et la probabilité conditionnelle de A sachant B vaut P (A/B) = 2/3 2. On apprend que c’est l’aı̂né qui a ouvert la porte; quelle est la probabilité qu’il y ait une fille ? On note cette fois C l’évènement “l’aı̂né est un garçon”; C = {GG, GF }, A ∩ C = {GF } et P (A/C) = 1/2 11 Paradoxalement, l’apport d’information a augmenté l’incertitude ! Propriétés : 1) Si B est de probabilité non nulle, on peut vérifier que P (Ω/B) = 1 P ((A ∪ C)/B) = P (A/B) + P (C/B) si A ∩ C = ∅ P (Ac /B) = 1 − P (A/B) P P (∪n An /B) = ∞ n=1 P (An /B) si les An sont disjoints deux à deux. Autrement dit, l’application : A ∈ A → P (A/B) est encore une probabilité. 2) P (A ∩ B) = P (A/B)P (B) 3) Si A est de probabilité non nulle, on a aussi bien P (B/A) = P (A/B)P (B) P (A) Remarquons que la définition peut prendre une forme symétrique P (B/A)P (A) = P (A/B)P (B) les deux valant P (A ∩ B) donc 0 si A ou B est de probabilité nulle. † Formule des Probabilités Totales On peut décomposer tout évènement A sur la partition {B, B c } et écrire : A = (A ∩ B) ∪ (A ∩ B c ) où l’union est disjointe; on en déduit P (A) = P (A ∩ B) + P (A ∩ B c ) = P (A/B)P (B) + P (A/B c )P (B c ) formule qui se généralise sous la forme suivante (formule des probabilités totales) Si (Bi ) est un système complet d’évènements alors, pour tout A ∈ A P P (A) = ∞ 1 P (A/Bi )P (Bi ) Preuve : Puisque Ω est l’union disjointe des Bi , ∞ A = A ∩ (∪∞ 1 Bi ) = ∪1 (A ∩ Bi ) où l’union est disjointe. Par le troisième axiome d’une probabilité, on peut écrire ∞ ∞ P (A) = X P (A ∩ Bi ) = 1 X P (A/Bi )P (Bi ). 1 ♦ 12 †† Formule de Bayes La situation suivante se rencontre souvent dans la pratique : on connaı̂t P (A/B) et P (A/B c ) (donc P (A) par ce qui précède) et on aimerait décider de la part de A dans la réalisation de B. Commençons par un exemple : Exemple : On prend 100 dés dont 25 sont pipés; pour ces derniers la probabilité d’amener un 6 est 1/2. On choisit un dé au hasard, on le lance et on obtient 6 ! Quelle est la probabilité pour qu’on ait choisi un dé pipé ? Notons F l’évènement “le dé est pipé” et A l’évènement “le dé donne un 6”; on connaı̂t bien sûr P (A/F ) et P (A/F c ) et on souhaite calculer P (F/A) car c’est bien de cela qu’il s’agit, même si le mot “conditionnelle” n’est pas écrit. On calcule facilement 1 1 1 1 3 P (A) = P (A/F )P (F ) + P (A/F c )P (F c ) = . + . = 2 4 6 4 4 de sorte que, P (F/A) = P (A/F )P (F ) = 1/2 P (A) On a juste combiné la propriété 2) et la formule des probabilité totales. Plus généralement on a donc (formule de Bayes) Si (Bi ) est un système complet d’évènements alors, pour A ∈ A de probabilité non nulle, P (Bi )P (A/Bi ) P (Bi /A) = P∞ 1 P (A/Bi )P (Bi ) † † † Formule des Probabilités Composées Cette formule permet de calculer la probabilité d’une intersection d’évènements dépendants et sera dégagée dans le paragraphe suivant. Si (Ai ) est une suite d’évènements avec P (∩ni=1 Ai ) 6= ∅, = P (A1 )P (A2 /A1 )P (A3 /A1 ∩ A2 )...P (An /A1 ∩ ... ∩ An−1 ) P (∩ni=1 Ai ) Preuve : Il est facile de donner une preuve par récurrence de cette formule. Pour n = 2 c’est une des propriétés de la probabilité conditionnelle. Supposons-la établie pour n évènements et considérons P (∩ni=1 Ai ∩ An+1 ); une nouvelle application de cette propriété donne alors P (∩ni=1 Ai ∩ An+1 ) = P (An+1 /A1 ∩ ... ∩ An )P (A1 ∩ ... ∩ An ) = P (A1 )P (A2 /A1 )...P (An /A1 ∩ ... ∩ An−1 )P (An+1 /A1 ∩ ... ∩ An ) 13 ♦ par l’hypothèse de récurrence. Exercices de base 1. Trois groupes de TD, G1 , G2 , G3 d’effectifs 36, 24, 30 étudiants ont un taux de réussite de 1/2, 1/3, 1/4 respectivement. Un élève ayant réussi, quelle est la probabilité pour qu’il provienne du groupe G1 ? 2. Le quart d’une population a été vaccinée contre une maladie. Au cours d’une épidémie, on constate qu’il y a parmi les malades, un vacciné contre quatre non-vaccinés. a) Le vaccin a-t-il eu une efficacité quelconque ? b) On sait en outre qu’il y a un malade sur douze parmi les vaccinés. Quelle est la probabilité de tomber malade pour une personne non vaccinée ? 3. Une chaussette se trouve avec probabilité p ∈]0, 1[ dans une commode de sept tiroirs avec une même probabilité pour chaque tiroir. On a fouillé en vain dans les 6 premiers. Quelle est la probabilité qu’elle se trouve dans le septième ? (Ce n’est pas p !) 2.2 Indépendance On considère une expérience aléatoire toujours modélisée par (Ω, A). L’évènement A est indépendant de l’évènement B si B n’a aucune influence sur la réalisation de A; autrement dit la probabilité que A soit réalisé est la même, que B soit réalisé ou non. Cela s’écrit P (A/B) = P (A). Mais si P (A) 6= 0, B est à son tour indépendant de A puisque P (B/A)P (A) = P (A/B)P (B) = P (A)P (B) et P (B/A) = P (B). D’où la définition, plus symétrique : Les évènements A, B ∈ A sont indépendants si P (A ∩ B) = P (A)P (B) ∇ Attention! Ne pas confondre “indépendants” et “disjoints”; deux évènements indépendants peuvent avoir lieu simultanément, par exemple “gagner au loto” et “avoir le pied grec” ! Par contre deux évènements disjoints ne sont indépendants que si l’un est de probabilité nulle. La définition d’indépendance est de plus en plus exigeante lorsque le nombre d’évènements en jeu augmente : l’indépendance d’une famille de n évènements signifie l’indépendance de toute sous-famille de k évènements, k ≤ n, extraite de la famille. 14 Les évènements A1 , ..., An ∈ A sont indépendants si Q P (Ai1 ∩ ... ∩ Aik ) = kj=1 P (Aij ) pour tout i1 < i2 < ... < ik , k = 1...n ∇ Attention! Ce n’est pas équivalent à l’indépendance deux à deux! Dans la pratique, l’indépendance est souvent une donnée du problème car résultant de l’observation; on utilisera alors simplement ses conséquences. En particulier les propriétés suivantes. Propriétés 1) Si A et B sont indépendants, alors les évènements A et B , Ac et B, et Ac et B c le sont également. Q 2) Si A1 , ..., An sont indépendants, P (A11 c ∩ ... ∩ Ann c ) = n1 P (Ai i c ) pour tout choix de i = 0, 1. c Preuve : Montrons à titre d’exercice les propriétés 1); en s’aidant de la symétrie de la définition, il suffit de vérifier que A et B c sont indépendants. Or P (A)P (B c ) = P (A)(1 − P (B)) = P (A) − P (A ∩ B) par indépendance de A et B. Mais P (A) = P (A ∩ B) + P (A ∩ B c ) et P (A)P (B c ) = P (A ∩ B c ). ♦ On va dégager dans la fin de ce chapitre deux situations extrêmement importantes en calcul des probabilités qui nous permettront de classer la plupart des expériences aléatoires. Un fait central en probabilités et statistiques est la répétition d’expériences aléatoires identiques; soit parce que l’expérience qui nous intéresse se présente ainsi : c’est le cas de nombreux jeux, “421” où on lance 3 dés successivement, “pile ou face” où on lance une pièce jusqu’à l’obtention de pile etc; soit qu’on répète une même expérience pour estimer de manière empirique la probabilité d’un évènement : c’est le cas des sondages par exemple. On va donc modéliser les répétitions d’épreuves indépendantes et les répétitions d’épreuves dépendantes. † Successions d’épreuves indépendantes Commençons par des exemples. Exemples 1. Lancer de deux dés, simultanément ou non. Les résultats des lancers sont indépendants et tout évènement lié au second lancer est indépendant de tout évènement lié au premier lancer. Si Ω1 et Ω2 sont les univers de chaque lancer, Ω1 = Ω2 = {1, ..., 6} et Ω = Ω1 × Ω2 = {(i, j), 1 ≤ i, j ≤ 6}. P ((i, j)) = 1/36 = P ({i})P ({j}) en notant de la même façon la probabilité sur Ω et sur Ω1 . 15 2. Sexe des enfants successifs dans une famille de n enfants. L’univers est Ω où Ω = {F, G} est l’univers de l’épreuve initiale; si ω = (ω1 , ..., ωn ) ∈ Ωn , chaque ωi étant une fille ou un garçon, P ({ω}) = 1/2n = P ({ω1 })...P ({ωn }). n 3. Une épreuve de Bernoulli est une expérience aléatoire avec deux résultats possibles “échec” ou “succés” symbolisés en général par 0, 1; si p = P (succés) et q = P (échec), p + q = 1. Si on répète n épreuves de Bernoulli indépendantes, Ω = {0, 1}n et la probabilité peut se décrire à l’aide d’un arbre binaire. S... p S 1−p @ @ R @ p E... @ @ @ 1−p S... @ p @ @ R @ E 1−p @ @ R @ E... Un schéma de Bernoulli de taille n est la succession de n épreuves de Bernoulli indépendantes; si ω est constitué de k succés et n − k échecs P ({ω}) = pk q n−k où p est la probabilité de succés à chaque étape. Cadre général : On répète n fois une expérience aléatoire de façon indépendante; le modèle de cette succession d’épreuves a une structure de produit. Lorsque l’expérience initiale n’a qu’un nombre fini de résultats 16 possibles Ω, l’univers devient Ωn et si ω = (ω1 , ..., ωn ) ∈ Ωn , P ({ω}) = P ({ω1 })...P ({ωn }) en notant de la même façon la probabilité sur Ω et sur Ωn . C’est le cadre du tirage avec remise. †† Successions d’épreuves dépendantes Cette fois le résultat de la k-ième épreuve dépend des précédentes. Exemples 1. Tirage sans remise Une urne contient 3 boules rouges et 3 blanches. On tire deux boules sans remise. Quelle est la probabilité d’avoir une boule blanche au second tirage ? La composition de l’urne change à chaque étape et les tirages ne sont plus indépendants. Il faut faire intervenir les probabilités conditionnelles. Notons Bi l’évènement “on a tiré une boule blanche au i-ième tirage”. P (B1 ) = 1/2, P (B2 ) = P (B2 /B1 )P (B1 ) + P (B2 /B1c )P (B1c ) = 1/2(2/5 + 3/5) = 1/2. La modélisation peut se faire à l’aide d’un arbre binaire d’arêtes, les probabilités conditionnelles. B 2/5 B 3/5 @ R @ 1/2 R @ 1/2 @ B @ @ 3/5 @ R @ R 2/5 @ R @ R On extrait successivement trois boules. Quelle est la probabilité de tirer trois boules blanches ? 17 Il s’agit de calculer P (B1 ∩ B2 ∩ B3 ) où les évènements sont dépendants. On déduit donc de la formule des probabilités composées : 1 2 1 P (B1 ∩ B2 ∩ B3 ) = P (B1 )P (B2 /B1 )P (B3 /B1 ∩ B2 ) = . . = 1/20 2 5 4 2. Problème des menteurs : Dans une ville il n’y a que des menteurs; lorsqu’on donne une information à l’un d’entre eux, il la transmet fidèlement avec probabilité p < 1, transmet son opposée avec probabilité q = 1 − p. Un premier menteur reçoit une information ( sous la forme OUI-NON), la transmet à un second, qui la transmet à un troisième etc. Le résultat transmis par le n-ième dépend de l’information qu’il a reçue du précédent! Quelle est la probabilité que l’information transmise aprés n menteurs soit celle de départ ? (On peut s’aider d’un graphe) 2.3 Exercices récapitulatifs 1.♥ On lance deux fois un dé au hasard et on considère les évènements suivants : A= le premier lancer donne un nombre pair B= le second lancer donne un nombre impair C= la somme des valeurs obtenues dans ces deux lancers est impaire. Montrer que A, B, C sont deux à deux indépendants mais pas indépendants. 2.♥ Monsieur X discute avec son chauffeur de taxi : il apprend qu’il a quatre enfants et se demande a) Quelle est la probabilité qu’il ait une fille ? Au fil de la conversation, il entend parler de deux garçons Pierre et Paul; b) Quelle est la probabilité qu’il ait aussi une fille ? se demande toujours Monsieur X. Le trajet dure et il finit par comprendre que Pierre est l’aı̂né et Paul le dernier. c) Quelle est la probabilité qu’il ait une fille ? Monsieur X se met à douter... 3.♥ Des jumeaux peuvent être des vrais jumeaux, auquel cas ils sont de même sexe; ou de faux jumeaux et dans ce cas la probabilité qu’ils soient de même sexe est estimée à 1/2. On note p la probabilité que des jumeaux soient de vrais jumeaux. a) Quelle est la probabilité que deux jumeaux de même sexe soient de vrais jumeaux ? 18 b) Déterminer en fonction de p la probabilité que deux jumeaux soient de même sexe. 4.♥ Problème des clefs Un gardien conserve en vrac dans sa poche les 10 clefs de son trousseau et une seule ouvre la porte de son local. Quand il est mal réveillé il remet dans la même poche les clefs essayées, sinon il les met dans l’autre poche. Quelle est la probabilité que le k-ième essai soit le bon dans chacun des deux cas ? 5. a) Quelle est la probabilité d’amener un total de 6 en lançant deux dés ? un total de 7 ? b) Deux joueurs A et B jouent avec deux dés l’un aprés l’autre et B commence. La règle est la suivante : B gagne s’il amène un total de 6 avant que A n’amène un total de 7. Quel est le joueur le plus favorisé ? 6. Un voyageur prend le train ou l’avion. Si au jour j il prend l’avion, il prend systématiquement le train le lendemain; mais si au jour j il prend le train, il prend l’avion le lendemain avec probabilité 1/2. On note pn la probabilité qu’il prenne le train au n-ième jour. a) Montrer que pn+1 = − 21 pn + 1. b) En déduire pn , s’il a pris le train le premier jour. 7. Répondre à la question dans le problème des menteurs. 8.♠ Loi de succession de Laplace : On considère N + 1 urnes numérotées de 0 à N , la k-ième contenant k boule rouges et N − k boule blanches. On choisit une urne au hasard et on tire avec remise dans cette urne. On notera Rn l’évènement “on a tiré une boule rouge au n-ième tirage”. a) Quelle est la probabilité de tirer une boule rouge au premier tirage ? (On utilisera la formule des probabilités totales avec les évènements Uk : “on a choisi la k-ième urne”.) b) Quelle est la probabilité de tirer deux boules rouges lors des deux premiers tirages ? Q c) Montrer que P (R1 ∩ ... ∩ Rn /Uk ) = ni=1 P (Ri /Uk ) = ( Nk )n . En déduire la probabilité de tirer une boule rouge au n + 1-ième tirage sachant qu’on a déjà eu n boules rouges. d) Trouver la limite quand n → ∞ de cette probabilité. 9.♠ Soit A, B deux évènements indépendants de probabilité non nulle. On pose x = P (A ∩ B), y = P ((A ∪ B)\(A ∩ B)), z = P (Ac ∩ B c ) 19 et on va montrer que x, y, z sont tous les trois ≥ 4/9. a) Remarquer sans calculs que x + y + z = 1. b) Si a = P (A) et b = P (B), exprimer x, y, z en fonction de a, b puis en fonction de u = ab et v = a + b. c) Montrer que max(u, v − 2u, 1 + u − v) ≥ 4/9 en distinguant les cas : u ≤ 1/9, 1/9 ≤ u ≤ 4/9. En déduire l’affirmation. 20 3 Variables aléatoires discrètes Dans les phénomènes aléatoires décrits en début de chapitre 1, le résultat d’une épreuve se traduit numériquement par un nombre entier ou réel et les évènements se décrivent souvent à l’aide d’une fonction réelle définie sur Ω. Par exemple, le nombre de OUI à un sondage, la somme des points amenés par deux dés, la durée de vie d’un appareil, etc. Les variables aléatoires seront pour nous des objets nous permettant d’exprimer plus simplement les évènements. Si l’expérience est modèlisée par (Ω, A, P ), on appelle variable aléatoire (réelle) (var) sur cet espace une application X : Ω → R, c’est-àdire dont les valeurs dépendent des résultats de l’expérience, et telle que l’on puisse calculer la probabilité des évènements {ω; X(ω) = k} ou {ω; a ≤ X(ω) ≤ b}. Exemples : 1. X1 , X2 , les points amenés par chacun des deux dés, sont des variables aléatoires à valeurs dans {1, ..., 6}, tandis que X, la somme des points, est à valeurs dans {1, ..., 12}; on sait calculer P (X = k) pour tout k. Noter que X = X1 + X2 . 2. Dans un sondage où N personnes sont interrogées et les réponses sont N ON = 0 ou OU I = 1, le nombre de OUI n’est autre que X = ξ1 + ... + ξN où ξi est la réponse de la i-ième personne. 3.1 Lois discrètes usuelles Une variable aléatoire : Ω → R est dite discrète si elle ne prend qu’un nombre fini ou dénombrable de valeurs : {x1 , x2 , ..., xn } ou {x1 , ..., xn , ...}, (dénombrable = qu’on peut énumérer). Remarquons tout de suite que les évènements (X = xi ), i ≥ 1, forment un système complet d’évènements. Dans la plupart des exemples, les valeurs xi sont les entiers naturels. Ces valeurs ne suffisent pas pour travailler avec la var, il faut aussi préciser avec quelle probabilité elles sont prises. Ainsi pour parier avec un dé pipé, il est important de connaı̂tre la probabilité d’apparition de chaque face. On appelle loi de la variable discrète X la donnée des nombres pi = P (X = xi ), i ≥ 1 Propriétés d’une loi discrète : Les nombres pi vérifient 1) pi = P (X = xi ) ≥ 0 pour toute valeur xi prise par X; P 2) i≥1 pi = 1. 21 Remarquons que toute série de terme général un positif, de somme 1, définit une loi discrète de probabilité : la variable entière X telle que P (X = n) = un a pour loi (un ). Par exemple, un = π62 . n12 , n ≥ 1 définit une loi de probabilité sur N. On va voir que les variables aléatoires n’interviennent que par leur loi qui seule importe. On peut ajouter, multiplier des variables aléatoires mais le problème sera de déterminer la loi de ces nouvelles variables. Cependant si X est une variable discrète, de loi pi = P (X = xi ), i ≥ 1, et si g est une application de R dans R, Y = g(X) prend les valeurs g(xi ) avec les mêmes probabilités pi . On connaı̂t donc la loi de Y . † Premières lois : 1) On dit que X suit la loi uniforme sur {x1 , ..., xn } si X prend chacune de ces valeurs avec même probabilité, P (X = xi ) = n1 ∀i = 1...n. Cette loi est associée au tirage équiprobable. C’est la loi du numéro de la face lors du lancer d’un dé non pipé. 2) X suit la loi de Bernoulli de paramètre p si X ne prend que les valeurs 1, 0 avec probabilité p, 1 − p. Cette loi est associée au lancer d’une pièce éventuellement biaisée. 3) On s’intéresse au nombre X de succés (PILE) lorsqu’on lance n fois une pièce (schéma de Bernoulli de taille n); X prend les valeurs 0, 1, ..., n; pour k ≤ n, l’évènement (X = k) est l’union d’évènements élémentaires constitués de k PILE et n − k FACE et il y a Cnk telles suites puisque Cnk façons de placer les k PILE parmi n. Comme les lancers sont indépendants, chaque suite a comme probabilité : pk q n−k où q = 1 − p, et P (X = k) = Cnk pk q n−k , 0 ≤ k ≤ n. On dit que X suit la loi binômiale de paramètres n, p. 4) Dans un schéma de Bernoulli infini cette fois, on s’intéresse à l’instant X du premier succés; X prend les valeurs 1, 2, ...; l’évènement (X = k) signifie qu’il y a eu échec lors des k − 1 premiers lancers et succés au k-ième. Comme les lancers sont indépendants, P (X = k) = q k−1 p, k ≥ 1. On dit que X suit la loi géométrique de paramètre p. 5) La loi de Poisson est une loi qui ne correspond à aucune expérience aléatoire particulière, mais qui est bien adaptée aux phénomènes de croissance de population ou autres (appels téléphoniques). Elle apparaı̂t comme limite de la loi binômiale au sens suivant : 22 P(λ) = limn→∞ B(n, λ/n), λ > 0 Preuve : Cela signifie que la loi binômiale tend vers la loi de Poisson quand le nombre d’épreuves tend vers ∞, avec la probabilité de succés, p, tendant vers 0, de façon que np reste fixe. Pour le voir, écrivons Cnk pk q n−k = λ λ n! ( )k (1 − )n−k k!(n − k)! n n = n(n − 1)...(n − k + 1) 1 λ λ 1 k (1 − )n ( )k k! n n 1 − nλ nk −λ λk λk −λ ∼ e = e k! nk k! quand n → ∞; ce qui définit le terme de la loi de Poisson P(λ). ♦ On dit que X suit la loi de Poisson de paramètre λ > 0 si X prend λk les valeurs 0, 1, 2, ... avec probabilités P (X = k) = e−λ , k ≥ 0. k! La loi de Poisson sert d’approximation de la loi binômiale quand n est grand et p petit (n ≥ 30, p ≤ 1/10, np ≤ 15) comme on le verra en application. Voici un tableau récapitulatif des lois discrètes usuelles. • • • • • Loi Loi Loi Loi Loi unifome sur {1, ..., n}, P (X = i) = 1/n, 1 ≤ i ≤ n de Bernoulli B(p), P (X = 1) = p, P (X = 0) = q binômiale B(n, p), P (X = k) = Cnk pk q n−k , 0 ≤ k ≤ n k de Poisson P(λ), P (X = k) = e−λ λk! , k ≥ 0 géométrique G(p), P (X = k) = q k−1 p, k ≥ 1 Exercices de base. 1. On lance simultanément trois dés et on appelle X le numéro du premier lancer ayant apporté 421. Quelle est la loi de X ? Il s’agit d’un schéma de Bernoulli de taille infini et, à chaque lancer, on appelle succés 421, échec tout autre triplet obtenu. La probabilité de succés est donc p = 6/63 = 1/36. La variable X suit ainsi la loi géométrique G(1/36). 2. Problème des tortues. a) A chaque ponte une tortue produit n oeufs et la probabilité pour un oeuf de donner une tortue est p = 1/10. Quelle est la probabilité d’avoir finalement k tortues ? On suppose (ce n’est pas précisé dans l’énoncé mais sous-entendu) que les 23 oeufs sont “indépendants” de sorte que si X est le nombre de tortues obtenues, X suit la loi B(n, 1/10). b) On suppose maintenant que le nombre d’oeufs pondus par une tortue n’est pas fixe mais aléatoire (ce qui est plus conforme à la réalité), et suit une loi de Poisson P(λ), λ = 100. Quelle est la probabilité d’avoir finalement k tortues ? Notons N le nombre d’oeufs à chaque ponte. C’est maintenant une variable aléatoire. En question a) on a déterminé P (X = k/N = n) = Cnk pk q n−k pour k ≤ n. Pour décrire (X = k), on va s’aider du système complet d’évènements (N = n), n ≥ 0 et de la formule des probabilités totales : P (X = k) = ∞ X P (X = k/N = n)P (N = n) n=0 = ∞ X P (X = k/N = n)P (N = n) n=k et en remplaçant par leurs expressions, on trouve P (X = k) = ∞ X Cnk pk q n−k e−λ n=k ∞ X n n! n−k λ p q n! n=k k!(n − k)! −λ k =e λn n! = e−λ = e−λ ∞ pk X qm λm+k k! m=0 m! ∞ (λq)m (λp)k X k! m=0 m! (λp)k (λp)k λq e = e−λp k! k! et X suit la loi P(λp) = P(10). = e−λ †† Loi hypergéométrique Le nombre de succés dans une suite de n tirages sans remise se calcule de façon différente puisque les tirages successifs ne sont plus indépendants. Cependant, lorsque le tirage se fait dans une population trés supérieure en 24 nombre au nombre de tirages (voire infinie), on peut imaginer que chaque tirage dépende assez peu des précédents. D’où une loi limite pour la loi du nombre de succés. Un exemple classique de telle situation est le suivant (contrôle de qualité) : Une usine produit chaque jour N pièces dont N1 sont défectueuses. On prélève n objets parmi les N et on souhaite évaluer le nombre X de pièces défectueuses parmi ces n. Il s’agit bien d’un tirage sans remise de n objets parmi N et X prend les valeurs 0, 1, ..., n si n ≤ N1 . L’ensemble des résultats possibles, Ω, est l’ensemble des tirages sans remise de n objets parmi N , l’ordre n’intervenant pas, et |Ω| = CNn ; par ailleurs la probabilité est uniforme sur Ω; on a immédiatement pour k ≤ n ≤ N1 CNk 1 CNn−k −N1 P (X = k) = n CN On dit que X suit la loi hypergéométrique de paramètres N, N1 , n et on la note H(N, N1 , n). Supposons que la proportion de pièces défectueuses N1 /N tende vers la valeur p ∈]0, 1[ lorsque N → ∞. On peut donc écrire P (X = k) = = N1 ! (N − N1 )! n!(N − n)! k!(N1 − k)! (n − k)!(N − N1 − n + k)! N! n! N1 (N1 − 1)...(N1 − k + 1) (N − N1 )...(N − N1 − n + k + 1) k!(n − k)! N (N − 1)...(N − n + 1) N1 N1 − 1 N1 − k + 1 N − N1 N − N1 − n + k + 1 = Cnk ... ... N N −1 N −k+1 N −k N −n+1 k k n−k ∼ Cn p (1 − p) ce qui illustre le fait que les tirages peuvent être considérés indépendants quand N est grand avec p = N1 /N . On retiendra • X suit la loi hypergéométrique H(N, N1 , n) si C k C n−k P (X = k) = N1 nN −N1 CN • H(N, N1 , n) → B(n, p) si N → ∞ et N1 /N → p 25 3.2 Indépendance de variables discrètes Soit X et Y deux variables aléatoires discrètes définies sur un même espace de probabilité (Ω, A, P ); on dit qu’elles sont indépendantes (et on notera dans la suite : X q Y ) si les évènements liés à X sont indépendants des évènements liés à Y . D’où la définition Soit X à valeurs (xi ), Y à valeurs (yj ), deux variables discrètes; X q Y si P ((X = xi ) ∩ (Y = yj )) = P (X = xi )P (Y = yj ), ∀i, j ≥ 1 Plus généralement Soit X1 , ..., Xn n variables discrètes; Elles sont indépendantes si P ((X1 = xi1 ) ∩ ... ∩ (Xr = xir )) = P (X1 = xi1 )...P (Xr = xir ), ∀1 ≤ i1 < ... < ir ≤ n Il est naturel ici d’introduire la notion de vecteur discret : (X, Y ) est un vecteur discret s’il prend ses valeurs (xi , yj )i,j≥1 sur Ω avec les probabilités pi,j = P ((X = xi ) ∩ (Y = yj )) =: P (X = xi , Y = yj ), i, j ≥ 1 La famille de nombres (pi,j ) s’appelle la loi du couple (X, Y ) ou la loi conjointe de X et Y . On appelle alors lois marginales les lois des composantes X et Y et elles s’obtiennent ainsi : Si pi,j = P (X = xi , Y = yj ), ∀i, j ≥ 1, alors P ∀i ≥ 1 pi := P (X = xi ) = j≥1 pi,j , P qj := P (Y = yj ) = i≥1 pi,j Exemples : 1) Soit (X, Y ) un vecteur discret à valeurs dans N2 de loi (pi,j )1≤i,j≤3 1/6, 0, 1/6 = 1/6, 0, 1/6 0, 1/3, 0 où pi,j = P (X = i, Y = j). Quelles sont les lois (marginales) de X et Y ? P Pour 1 ≤ i ≤ 3, pi = P (X = i) = 3j=1 pi,j , et pour 1 ≤ j ≤ 3, qj = P (Y = P j) = 3i=1 pi,j , autrement dit, pour avoir la loi de X on somme les lignes et pour avoir la loi de Y on somme les colonnes. On trouve p1 = p2 = p3 = 1/3; q1 = q2 = q3 = 1/3; X et Y suivent toutes les deux la loi uniforme sur {1, 2, 3}. 26 2) Soit (X, Y ) un vecteur discret à valeurs dans N2 de loi pj,k = c 2j 3k , j, k ≥ 1 c étant une constante à déterminer pour que (pj,k ) soit bien une loi de probabilité. Les pj,k sont ≥ 0 si c l’est et il faut ajuster c pour que X pj,k = j,k≥1 Or X c j,k≥1 2j 3k =1 ∞ −k −j = 1.1/2 = 1/2. On en déduit c = 2. = ∞ 1 2 1 3 De plus la loi de X est ( 21j , j ≥ 1) et celle de Y est ( 32k , k ≥ 1). 1 j,k≥1 2j 3k P P P Propriétés : 1) Si X et Y sont discrètes indépendantes, toute fonction de X est indépendante de toute fonction de Y . 2) Soit X et Y deux variables discrètes. Alors X q Y si et seulement si la loi du couple (X, Y ) est le produit des lois marginales cad pi,j = pi qj , ∀i, j si X est de loi (pi ) et Y de loi (qj ) En particulier on sait reconstituer la loi du couple à partir des lois marginales lorsque les variables sont indépendantes. C’est le cas du second exemple mais pas du premier. † Loi multinômiale On s’intéresse cette fois à une succession d’épreuves indépendantes mais à résultats multiples (plus seulement succés ou échec). A chaque étape, on classe les résultats en résultats de type 1, de type 2,..., de type k et on note pi la probabilité d’avoir un résultat de type i, 1 ≤ i ≤ k. Le vecteur X = (X1 , ..., Xk ) suit la loi multinômiale de paramètres n, p1 ,...,pk si P (X = (n1 , ..., nk )) = n! pn1 ...pnk k n1 !...nk ! 1 avec n1 + ... + nk = n. Voici une illustration : Un système de N particules se trouve dans l’état (N1 , ..., Nn ), si, pour chaque k = 1, ..., n, Nk particules ont une énergie Ek , 27 E1 , ..., En étant les valeurs possibles de l’énergie d’une particule. Si Wi est la probabilité qu’une particule ait pour énergie Ei , la probabilité que le système se trouve dans l’état (N1 , ..., Nn ) est exactement W = N! W N1 ...WnNn N1 !...Nn ! 1 En effet, chaque configuration a comme probabilité W1N1 ...WnNn et elles sont équiprobables; reste à calculer le nombre de répartitions qui est le nombre de façons de répartir N objets dans n boı̂tes, avec, pour chaque j, Nj dans la j-ième boı̂te; c’est le coefficient multinômial. Qu’obtient-on pour n = 2 ? ††Somme de variables discrètes La loi d’une somme de deux variables entières se calcule à l’aide de la loi du couple (pi,j ) et devient beaucoup plus simple lorsque ces variables sont indépendantes. Supposons que X et Y soient à valeurs dans N; il en est de même de Z = X + Y et l’évènement (Z = n) se décompose en n + 1 évènements disjoints (Z = n) = (X = 0, Y = n) ∪ (X = 1, Y = n − 1) ∪ ... ∪(X = n − 1, Y = 1) ∪ (X = n, Y = 0) de sorte que P (Z = n) = P (∪nk=0 (X = k, Y = n − k)) = n X P (X = k, Y = n − k) = k=0 n X pk,n−k . k=0 Si les variables sont indépendantes on peut utiliser la propriété 2) Soit X q Y à valeurs dans N, X de loi (pi ) et Y de loi (qj ), P alors, P (X + Y = n) = nk=0 pk qn−k , n ≥ 0 On retrouve ainsi l’expression de la loi binômiale. En effet si X est le “nombre de succés” dans un schéma de Bernoulli de taille n, X peut s’écrire X = X1 + ... + Xn où Xi vaut 1 s’il y a succés au i-ème lancer, 0 sinon. Comme les lancers sont indépendants, on peut résumer ceci en X suit la loi binômiale B(n, p) ⇐⇒ X est la somme de n variables de Bernoulli B(p), indépendantes et équidistribuées. 28 L’expression de la loi binômiale se vérifie immédiatement par récurrence sur n mais peut aussi s’obtenir directement en écrivant, si X = X1 + ... + Xn , P (X = k) = 0 si k > n et sinon, par indépendance, P (X = k) = X P (X1 = x1 )...P (Xn = xn ) x1 +...+xn =k = p#1 (1 − p)#0 X 1 = Cnk pk q n−k x1 +...+xn =k puisque le nombre de solutions de x1 + ... + xn = k avec xi = 0 ou 1 vaut Cnk . La remarque suivante nous servira dans le calcul des moments : X suit la loi hypergéométrique de paramètres N, N1 , n notée H(N, N1 , n) ⇐⇒ X est la somme de n variables de Bernoulli dépendantes et équidistribuées. L’équidistribution n’est pas évidente et demande une preuve (cf exercice 8). 3.3 Exercices récapitulatifs 1.♥ On lance quatre fois une pièce de monnaie et on appelle X le nombre de FACE, Y le nombre de séries de FACE (une série étant une succession : par exemple FPFF donne X = 3, Y = 2). a) Quelle est la loi de X ? b) Trouver la loi du couple (X, Y ) sous la forme d’un tableau (pi,j ). c) Déterminer la loi de Y . 2. Calculer la loi de X + Y , où X et Y sont indépendantes, X suit la loi B(n, p) et Y la loi B(m, p). 3. Soit X une variable aléatoire suivant la loi de Poisson P (λ). Montrer que la probabilité que X prenne des valeurs paires est supérieure à la probabilité qu’elle prenne des valeurs impaires. 4. Le nombre de véhicules circulant sur l’autoroute A1 dans le sens ParisLille, durant un intervalle de temps donné, suit une loi P(λ); de même le nombre de véhicules circulant dans le sens Lille-Paris suit une loi P(µ); on suppose les flux indépendants. Quelle est la loi du nombre total de véhicules sur l’autoroute A1 durant cet intervalle de temps ? 29 5. a) Montrer que la loi géométrique est une loi sans mémoire au sens suivant : P (X > n + m/X > n) = P (X > m). b) Réciproquement, supposons que X soit une variable entière sans mémoire. En posant qn = P (X > n), montrer que qn = q1n ; vérifier que P (X = n) = qn−1 − qn et montrer alors que X suit une loi géométrique. 6. Soit X et Y deux variables indépendantes à valeurs dans N. On pose Z = min(X, Y ). a) Montrer que P (Z ≥ n) = P (X ≥ n)P (Y ≥ n). On suppose que X suit la loi G(p) et Y la loi G(p0 ). b) Calculer dans ce cas P (Z ≥ n), puis P (Z = n). Quelle est la loi de Z? 7.♠ Dans un schéma de Bernoulli infini, on s’intéresse à l’instant du second succés, plus généralement à l’instant du r-ième succés noté Xr , r ≥ 1. a) Montrer que pour k ≥ 0, r−1 P (Xr = r + k) = Cr+k−1 pr q k en remarquant qu’il faut répartir r − 1 succés dans les r + k − 1 premiers lancers. (On vérifiera que c’est bien une loi de probabilité) b) Montrer que X2 = X2 − X1 + X1 est somme de deux variables indépendantes; retrouver ainsi la loi de X2 , puis celle de Xr par récurrence sur r. c) Problème des allumettes de Banach Banach, qui était un fumeur impénitent, avait toujours sur lui deux boı̂tes de n allumettes, une boı̂te par poche. Pour allumer une cigarette, il choisissait une poche au hasard. Quelle est la probabilité, que, ayant constaté qu’une boı̂te est vide pour la première fois, il reste k allumettes dans l’autre ? 8.♠ Si X suit la loi hypergéométrique H(N, N1 , n), elle peut se décomposer en X = X1 + ... + Xn où Xi est le résultat du i-ème tirage. Montrer que les Xi suivent des lois de Bernoulli de même paramètre N1 /N . 9.♠ Montrer que les composantes d’un vecteur de loi multinômiale suivent des lois binômiales, mais ne sont pas indépendantes. 30 4 Moments de variables discrètes 4.1 Espérance, Variance Une variable discrète est assez mal décrite par les valeurs qu’elle prend (penser à une pièce biaisée) et, pour une première approximation, calculer la moyenne de ces valeurs n’est pas vraiment pertinent; il faut tenir compte des probabilités de les obtenir ce qu’on fait pour définir le premier moment l’espérance. Ensuite, on mesurera la qualité de cette approximation, en calculant la moyenne des oscillations autour de ce nombre; ce sera l’objet du second moment la variance. † Espérance Pour calculer la note moyenne d’un contrôle subi par N élèves, et noté de 0 à 10, on commence par calculer les nombre Ni de copies ayant obtenu la note i puis on effectue 0 × N0 + 1 × N1 + ... + 10 × N10 N = 0 × f0 + 1 × f1 + ... + 10 × f10 m= fi étant la fréquence d’apparition de i comme note dans la classe. Ceci conduit à la définition de l’espérance mathématique. Remarquer qu’elle ne dépend que de la loi de la variable, laquelle joue un rôle muet mais pratique. • Si X prend les valeurs x1 , ..., xn avec probabilité p1 , ..., pn , P l’espérance de X, E(X) = n1 pk xk • Si X prend les valeurs xi , i ≥ 1 avec probabilité pi , i ≥ 1, P l’espérance de X, E(X), existe et vaut ∞ 1 pk xk si la série converge absolument. ∇ Attention! une var peut ne pas avoir d’espérance : ainsi la variable X prenant les valeurs 2k avec probabilité 2−k , k ≥ 1. On trouve parfois le terme “valeur moyenne” pour désigner l’espérance : il faut bien comprendre que c’est une moyenne pondérée par les probabilités. Enfin on parlera indifféremment de l’espérance d’une variable ou de l’espérance d’une loi.. Avant de calculer l’espérance des lois usuelles, on dégage quelques propriétés qui nous aideront. À l’aide d’une autre expression de l’espérance, on peut établir ce qui suit. 31 Propriétés 1) Si X vaut toujours 1, E(X) = 1 2) Si X et Y ont une espérance, il en est de même de cX avec c ∈ R et de X + Y ; et l’on a E(cX) = cE(X), E(X + Y ) = E(X) + E(Y ) Autrement dit E est une application linéaire. 3) E(X − E(X)) = 0 4) Si g : R → R est telle que Y = g(X) a une espérance, alors E(g(X)) = X g(xk )pk . k Espérance des lois usuelles Désormais la notation X ∼? signifiera “X suit la loi ?” 1. Si X ∼ B(n, p), E(X) = np. La façon la plus rapide de le voir est d’utiliser la linéarité de l’espérance et la décomposition de X en somme de n variables de Bernoulli de même paramètre p, X = X1 + ... + Xn ; ainsi E(X) = n X E(Xi ) = n.E(X1 ) = np i=1 car E(X1 ) = 1.p + 0.q = p. On peut aussi faire un calcul direct (cf exercice 3.) (Noter que l’indépendance ne sert pas ici!) 2. Si X ∼ H(N, N1 , n), E(X) = n NN1 . La façon la plus rapide ici aussi est de décomposer de X en somme de n variables de Bernoulli de même paramètre N1 /N , X = X1 + ... + Xn , ce qui a été établi en exercice; ainsi N1 N On peut aussi faire un calcul direct (cf exercice 3.) E(X) = n.E(X1 ) = n 3. Si X ∼ P(λ), E(X) existe et vaut λ. k Il s’agit de vérifier que la série de terme général uk = kpk = ke−λ λk! conk−1 verge (puisque à termes positifs), ce qui est clair; en écrivant uk = λe−λ λk−1! si k ≥ 1, on déduit E(X) = ∞ X 1 λe−λ ∞ X λk−1 λj = λe−λ = λ k − 1! j! 0 32 4. Si X ∼ G(p), p > 0, E(X) existe et vaut 1/p. La série de terme général positif kpq k−1 , k ≥ 1 est convergente puisque P q < 1 et E(X) existe; de plus k≥1 kq k−1 est la dérivée terme à terme P k de la série entière ∞ 0 x (de rayon 1), évaluée au point x = q; comme P∞ k P p 1 1 k−1 vaut (1−q) 2 et E(X) = (1−q)2 = 1/p. k≥1 kq 0 x = 1−x , Si X et Y ont une espérance, ce n’est pas forcément le cas pour la variable XY ; c’est pourtant vrai lorsque X et Y sont indépendantes, car on a plus précisément Si X et Y sont des variables discrètes admettant une espérance et X q Y alors E(XY ) existe et vaut E(X)E(Y ). ∇ Attention! la réciproque est fausse : vérifier l’identité E(XY ) = E(X)E(Y ) ne suffit pas pour établir l’indépendance. Preuve : Supposons pour simplifier que X et Y ne prennent qu’un nombre fini de valeurs x1 , ..., xn et y1 , ..., ym . Z = XY prend les valeurs xi yj avec les probabilités P (X = xi , Y = yj ) = P (X = xi )P (Y = yj ) par indépendance et E(Z) = X xi yj P (X = xi )P (Y = yj ) i≤n,j≤m = X i≤n xi P (X = xi ) X yj P (Y = yj ) = E(X)E(Y ). j≤m ♦ Exercices de base 1. Un tireur a une chance sur 8 de toucher sa cible; combien d’essais lui faudra-t-il en moyenne pour y parvenir ? Il s’agit clairement d’un schéma de Bernoulli, puisqu’à chaque étape, le tireur remporte un succés avec probabilité p = 1/8, un échec sinon; de plus les tirs sont “indépendants”. Si X est le nombre de tirs nécessaire pour toucher la cible, X suit la loi G(p); le nombre moyen demandé est E(X) = 8. Combien d’essais lui faudra-t-il en moyenne pour atteindre deux fois sa cible ? Cette fois il faut trouver E(Y ) où Y = X + X 0 , et X 0 le nombre d’essais aprés le premier succés. Comme X 0 a clairement même loi que X, E(Y ) = 2E(X) = 16. (Inutile de chercher la loi de Y ) 33 1 2. Soit X ∼ P(1) une variable de Poisson. Montrer que Y = X+1 a une espérance et la calculer. X prend les valeurs k ≥ 0 et Y = g(X) les valeurs g(k) = 1/(k + 1) avec 1 les probabilités pk = 1e k!1 , k ≥ 0. La série de terme général g(k)pk = 1e (k+1)! converge et sa somme ∞ ∞ X X 1 1 11 = 0 e k + 1! 1 e j! ∞ 1 X 1 1 1 = ( − 1) = (e − 1) = 1 − . e 0 j! e e †† Variance, écart-type Soit X une variable discrète ayant une espérance; pour mesurer les oscillations de X autour de cette valeur moyenne, il serait naturel de calculer E(|X−E(X)|); pour des raisons de commodité, on lui préfère E((X−E(X))2 ) lorsqu’elle existe. Soit X une variable discrète d’espérance E(X) =: m v(X) = E((X − m)2 ) est la variance de X, q σ(X) = E((X − m)2 ) en est l’écart-type, s’ils existent. Propriétés Supposons que X admette une variance. 1) v(X) = 0 ⇐⇒ X est constante, égale à m = E(X), avec probabilité 1. 2) (Formule de Koenig) v(X) = E(X 2 ) − E(X)2 . 3) σ(aX + b) = |a|σ(X). Preuve : 1) Si P (X = m) = 1, la variable Y = X − m vaut 0 avec probabilité 1, de sorte que P (Y = y) = 0 pour tout y 6= 0 et v(X) = E(Y 2 ) = 0 × P (Y = 0) + X yi2 pi = 0 yi 6=0 Réciproquement si v(X) = E(Y 2 ) = 0, yi2 pi = 0 et yi = 0 pour tout i tel que pi = P (Y = yi ) 6= 0; ainsi P (Y 6= 0) = 0 c’est-à-dire P (Y = 0) = 1; mais Y = 0 si et seulement si X = m d’où 1). 2) Il suffit de développer (X − E(X))2 = X 2 + E(X)2 − 2XE(X) et d’en prendre l’espérance : P E([X − E(X)]2 ) = E(X 2 ) + E(X)2 − 2E(X)E(X) = E(X 2 ) − E(X)2 . 34 3) Remarquons que E(aX + b) = aE(X) + b de sorte que v(aX + b) = v(aX) = a2 v(X), d’où l’écart-type. ♦ La proposition qui suit est très importante : 1) Si X et Y sont des variables discrètes indépendantes admettant une variance (finie), alors X + Y admet aussi une variance et v(X + Y ) = v(X) + v(Y ). 2) Si X1 , ..., Xn sont des variables discrètes admettant une variance et indépendantes 2 à 2, alors P P v( ni=1 Xi ) = ni=1 v(Xi ). En particulier, si les variables sont indépendantes deux à deux et équidistribuées, de même variance σ 2 , n X σ( √ Xi ) = σ n. i=1 Preuve : 1) Puisque v(X) = v(X −E(X)), on peut supposer les variables centrées i.e. E(X) = E(Y ) = 0. Ainsi, v(X + Y ) = E([X + Y ]2 ) = E(X 2 + Y 2 + 2XY ); or E(XY ) = E(X)E(Y ) = 0 par l’hypothèse d’indépendance et la réduction. On trouve ainsi v(X + Y ) = v(X) + v(Y ). 2) On établit plus généralement pour Sn = X1 + ... + Xn , somme de variables quelconques, v(Sn ) = n X v(Xi ) + 2 i=1 X cov(Xi , Xj ) 1≤i<j≤n où la covariance des variables Xi et Xj désigne E(Xi Xj ) − E(Xi )E(Xj ). Ces nombres sont nuls si les variables sont indépendantes deux à deux d’où l’identité dans ce cas. ♦ Variance des lois usuelles 1. Si X ∼ B(n, p), v(X) = npq. 35 Cette fois encore, utilisons la décomposition de X en somme de n variables de Bernoulli indépendantes de même paramètre p, X = X1 + ... + Xn ; par la proposition, v(X) = n X v(Xi ) = n.v(X1 ). i=1 Or, si Y suit une loi de Bernoulli, v(Y ) = E(Y 2 ) − E(Y )2 = E(Y ) − E(Y )2 = p − p2 = p(1 − p) = pq; on trouve ainsi v(X) = npq. Le calcul direct, possible aussi, est beaucoup plus long. 2. Si X ∼ G(p), p > 0, v(X) existe et vaut q/p2 . La série de terme général positif k 2 pq k−1 , k ≥ 1 est convergente puisque q < 1 et E(X 2 ), donc v(X), existe; en écrivant k 2 = k(k + 1) − k, X k 2 q k−1 = k≥1 X k(k + 1)q k−1 − k≥1 X kq k−1 k≥1 est une somme de dérivées de séries entières. En effet, pour |x| < 1, P P P P k+1 00 k 0 k−1 k−1 ) = =( ∞ =( ∞ k≥1 k(k + 1)x k≥1 kx 0 x 0 x ) (déjà utilisé) et 2 ; évaluées au point x = q < 1, cela donne (1−x)3 E(X 2 ) = p( et v(X) = 2 1 2 − )= 2 −1 3 (1 − q) p p 1 q 2 − 1 − 2 = 2. 2 p p p 3. Si X ∼ P(λ), v(X) existe et vaut λ. k Il suffit de vérifier que la série de terme général uk = k 2 pk = k 2 e−λ λk! converge, ce qui est clair; en écrivant cette fois k 2 = k(k − 1) + k, uk = λk λk e−λ ( k−2! + k−1! ) si k ≥ 2, et on obtient 2 E(X ) = ∞ X λe 1 = ∞ X 0 λe−λ −λ ∞ k−2 X λk−1 2 −λ λ + λe ; k − 1! k − 2! 2 ∞ λj X λj + λ2 e−λ = λ + λ2 . j! j! 0 Finalement v(X) = E(X 2 ) − E(X)2 = λ + λ2 − λ2 = λ. 36 4.2 Exercices récapitulatifs 1.♥ Soit X une variable aléatoire telle que P (X = 0) = P (X = 1) = P (X = 1 si n ≥ 3. Vérifier qu’il s’agit bien d’une loi de 2) = 0 et P (X = n) = 2n−2 probabilité et calculer l’espérance de X. 2.♥ Dans le problème des clefs (exercice 3.§2.3), on définit X le numéro de la première clef qui ouvre la porte; pouvez-vous préciser les lois obtenues et calculer le temps moyen de réussite dans chacun des deux cas ? 3. Retrouver à l’aide de la définition, la valeur de l’espérance d’une loi binômiale et d’une loi hypergéométrique, cad établir les identités n X n X kCnk pk q n−k = np; k=0 k=0 k CNk 1 CNn−k N1 −N1 = n CNn N 4. A partir de X une variable suivant la loi binômiale, on définit Y ainsi : si X = k avec k > 0 on pose Y = k et si X = 0, Y prend une valeur quelconque dans {1, ..., n}. Trouver la loi de Y et calculer son espérance. 5. Lors d’une compétition sportive d’un niveau trés élevé, tous les athlètes ont franchi 2 m. La compétition se poursuit ainsi : la barre est soulevée d’un cm à chaque étape et chaque candidat franchit les différentes étapes jusqu’à ce qu’il échoue; de plus il n’a droit qu’à un essai par saut. Enfin il a la probabilité 1/n de réussir un saut de n cm au-dessus de 2 m. On note X le nombre de sauts effectués avant d’être éliminé. Trouver la loi de X, son espérance et sa variance. 6. On dispose de n boules numérotées de 1 à n, qu’on range au hasard dans n cases. On pose Si = 1 si la i-ème boule est dans la i-ème case, 0 sinon. Soit S le nombre de boules “à leur place ”. a) Touver la loi, l’espérance, la variance de Si . b) Trouver la loi, l’espérance de Si Sj . c) En déduire l’espérance et la variance de S. 7. a) Soit X une variable aléatoire à valeurs dans {0, 1, ..., n}. P Montrer que E(X) = n1 P (X ≥ k) en utilisant P (X = k) = P (X ≥ k) − P (X ≥ k + 1), pour k = 0, ..., n − 1 b) Soit X une variable aléatoire à valeurs dans N et admettant une espérance. Montrer que E(X) = ∞ X P (X ≥ k). 1 37 c) Retrouver ainsi l’espérance d’une loi géométrique. 8.♠ Dans un jeu de pile ou face infini, on appelle T le temps d’attente de deux PILE consécutifs; on souhaite calculer E(T ) cad le temps moyen d’attente. a) On pose qn = P (T = n) pour n ≥ 2; calculer q1 et q2 . b) On note X1 , X2 , ..., Xn , ... la suite des résultats à chaque lancer. Montrer que (X1 = F ), (X1 = P, X2 = P ), (X1 = P, X2 = F ) forment un système complet d’évènements. c) Que vaut P (T = n + 2/(X1 = P, X2 = P )) pour n ≥ 0 ? Établir alors 1 1 P (T = n + 2) = P (T = n + 2/X1 = F ) + P (T = n + 2/X1 = P, X2 = F ), 2 4 puis 1 1 qn+2 = qn+1 + qn . 2 4 d) En déduire, sans calculer (pn ), la valeur de E(T ). 9. Fonction génératrice Si X est une variable aléatoire à valeurs dans N de loi (pn )n≥0 , on définit sa fonction génératrice, lorsqu’elle existe, par GX (z) = E(z X ) = ∞ X pn z n . 0 a) Montrer que la série entière a un rayon de convergence au moins égal à 1. Que vaut GX (1) ? (n) b) Quelle relation a-t-on entre pn et GX (0) ? c) Montrer que si X et Y sont des variables aléatoires à valeurs entières et indépendantes, GX+Y = GX .GY . Trouver ainsi l’expression de la fonction génératrice de X lorsque X suit la loi binômiale de paramètres n et p. d) Calculer la fonction génératrice d’une variable de Poisson. Par dérivation, retrouver ses moments (espérance et variance). 10.♠ Peut-on piper deux dés de façon que la somme des points obtenus soit équirépartie sur {2, ..., 12} ? Supposons qu’on ait trouvé des probabilités p1 , ..., p6 et q1 , ..., q6 avec P6 P6 p 1 j = 1 qj = 1, représentant la loi des résultats de chaque dé, X, Y , telles que 1 P (X + Y = k) = , ∀k = 2, ..., 12. 11 38 a) Montrer à l’aide des fonctions génératrices que 1 2 (x + ... + x12 ) = (p1 x + ... + p6 x6 )(q1 x + ... + q6 x6 ). 11 b) En raisonnant sur les racines des polynômes, aboutir à une contradiction. 39