Cours 8Processus de Naissance
Transcription
Cours 8Processus de Naissance
L3 MIS 4.3 Processus de Poisson non-homogène Un processus de Poisson est dit non-homogène lorsque son intensité dépend du temps. Les postulats précédents deviennent : (i) P ( N ( t + h) − N ( t) = 1 | N ( t) = x) = λ( t) h + o( h). (ii) P ( N ( t + h) − N ( t) > 1 | N ( t) = x) = o( h). On établit alors le résultat suivant (cf. TD 6, exercice 5) : P ( N ( t) = k ) = Λ( t)k −Λ( t) avec Λ( t) = e k! Zt 0 λ( s) ds. Λ est appelé mesure de concentration ou encore compensateur du processus. On peut donner une définition du processus de Poisson non homogène analogue la définition 15 : Définition 16 - Soit { N ( t), t > 0}, un processus de comptage sur R+ . On note N ( A ) le nombre d’événements survenus dans A , un intervalle de R+ . On dit que { N ( t), t > 0} est un processus de Poisson de mesure de concentration Λ, si : • quelque soit ( A 1 , A 2 , . . . , A m ) une partition de R+ , les variables aléatoires N ( A 1 ), N ( A 2 ), . . . , N ( A m ) sont indépendantes. • pour tout intervalle A de R+ , la loi de N ( A ) est une loi de Poisson de paramètre Λ( A ) : P r ( N ( A ) = k) = Λ( A )k exp{−Λ( A )} k! (11) Remarquons que : E [ N ( A )] = E [ N ([0, b))] − E [ N ([0, a))] = Λ( b) − Λ(a) Loi des dates d’événements – Notons, comme précédemment, S k , la date où se produit la k ème événement. La relation (4) nous permet d’écrire : P r ( S k 6 t) = P r ( N ( t) > k ) = Λ( t) i −Λ( t) e i=k i! +∞ X En dérivant, on obtient sans difficulté une expression de la densité de la loi de S k en fonction de la mesure de concentration : f S k ( t) = 40 Λ( t)k−1 0 Λ ( t) e−Λ( t) ( k − 1)! (12) P ROCESSUS A LÉATOIRES - C HAÎNES DE M ARKOV Loi des interarrivées – Elle s’obtient en utilisant la relation qui existe entre les dates et le nombre d’événements. En effet, P r (S k − S k−1 > x | S k−1 = s) = P r ( N [ s, s + x] = 0) On a donc : P r (S k − S k−1 > x | S k−1 = s) = exp{−[Λ( s + x) − Λ( s)]} On pourra donc calculer la loi des interarrivées par : P r ( S k − S k −1 > x ) = Z+∞ P r (S k − S k−1 > x | S k−1 = s) f S k−1 ( s) ds = Z+∞ exp{−Λ( s + x)} 0 0 Λ( s)k−2 d Λ( s) ( k − 2)! Exemple Un exemple classique de processus de Poisson non homogène est le processus de Weibull dont l’intensité est de la forme : λ( t ) = β αβ tβ−1 . La loi de N ( t) est alors une loi de Poisson de paramètre : Λ( t) = Zt 0 β αβ u β−1 µ ¶β t . du = α Posons Λ( t) = λ.tβ avec λ = 1/αβ , la loi de S k s’écrira : f S k ( t) = (λ.tβ )k−1 λk kβ−1 −λ.tβ .e .βλ tβ−1 exp{−λ.tβ } = .t ( k − 1)! Γ( k ) Le calcul de la loi des interarrivées est difficile. 4.4 Processus de Naissance Une généralisation naturelle du processus de Poisson consiste à considérer que la probabilité d’occurrence d’un événement à une date donnée dépend du nombre d’événements qui s’est déjà produit. Cette situation se rencontre en biologie dans l’étude de la reproduction d’où le nom : Processus de Naissance. Il trouve également de nombreuses applications industrielles, en particulier dans l’étude des phénomènes de queue. Ces processus appartiennent à la famille des processus de Markov (états discrets, temps continu). On fait l’hypothèse de stationnarité i.e. la probabilité de transition : p i, j ( t) = P ( N ( t + u) = j | 41 L3 MIS N ( u) = i ) , i, j = 0, 1, 2, . . . , ne dépend pas de u. Dans le processus de naissance, l’occurence de l’événement d’intérêt dépend du nombre d’événement qui a déjà eu lieu. Un processus de naissance peut donc être vu comme un processus de Poisson particulier où l’intensité ne serait plus constante mais dépendante de la taille de la population. Définition 17 – Un processus de Markov { N ( t), t > 0} à valeurs dans Z est un processus de naissance ssi il satisfait les conditions suivantes : Pour h → 0, (i) P ( N ( t + h) − N ( t) = 1 | N ( t) = n) = λn h + o 1,n ( h) (ii) P ( N ( t + h) − N ( t) = 0 | N ( t) = n) = 1 − λn h + o 2,n ( h) (iii) P ( N ( t + h) − N ( t) < 0 | N ( t) = n) = 0, ( n ≤ 0) Un exemple classique d’intensité est λn = nβ. La probabilité de voir apparaître un nouvel individu dans la population est directement proportionnelle à la taille de la population. On appelle ce processus le processus de Yule. L’hypothèse sous-jacente est que chaque individu à une probabilité β h + o( h) de donner naissance à un nouvel individu dans un intervalle de longueur infinitésimale h. Si on supppose l’indépendance et pas d’interactions, on peut écrire : P ( N ( t + h) − N ( t) = 1 | N ( t) = n) = C 1n [β h + o( h)][1 − β h]n−1 = nβ h + o n ( h). Sans perte de généralité et pour simplifier les calculs, on ajoute parfois le postulat N (0) = 0. Des postulats (i) et (ii), on déduit : P ( N ( t + h) − N ( t) ≥ 2 | N ( t) = n) = o 1,n ( h) + o 2,n ( h) On pose p n ( t) = P ( N ( t) = n). On a p 0 ( t + h) = p 0 ( t) p 0 ( h). D’après (i), P r ( N ( h) − N (0) = 0 | N (0) = 0) = 1 − λ0 h + o 1,0 ( h) d’où p 0 ( h) = 1 − λ0 h + o 1,0 ( h). On peut donc écrire : p 0 ( t + h) − p 0 ( t) = −λ0 hp 0 ( t) + o 1,0 ( h) p 0 ( t). En divisant par h et en passant à la limite, il vient l’équation différentielle : p00 ( t) = −λ0 p 0 ( t) 42 (13) P ROCESSUS A LÉATOIRES - C HAÎNES DE M ARKOV dont la solution est : p 0 ( t) = exp{−λ0 t} puisque p 0 ( t) = 1. Considérons le cas k > 0. En appliquant le théorème des probabilités totales, il vient : p n ( t + h) = P ( N ( t + h) = n) = n X P ( N ( t + h) = n | N ( t) = k ) P ( N ( t) = k ) k =0 = n X k =0 P ( N ( t + h) − N ( t) = n − k | N ( t) = k ) p k ( t) = P ( N ( t + h) − N ( t) = 0 | N ( t) = n) p n ( t) + P ( N ( t + h) − N ( t) = 1 | N ( t) = n − 1) p n−1 ( t) nX −2 P ( N ( t + h) − N ( t) = n − k | N ( t) = k ) p k ( t) + k =0 Or pour k = 0, 1, . . . , n − 2, on a : P ( N ( t + h) − N ( t) = n − k | N ( t) = k ) p k ( t) ≤ P ( N ( t + h) − N ( t) = n − k | N ( t) = k ) ≤ P ( N ( t + h) − N ( t) ≥ 2 | N ( t) = k ) = o 1,k ( h) + o 2,k ( h) On écrira donc : P ( N ( t + h) − N ( t) = n − k | N ( t) = k) = o 3,n,k ( h), pour k = 0, . . . , n − 2. De plus, P ( N ( t + h) − N ( t) = 0 | N ( t) = n) = 1 − λn h + o 1,n ( h) et P ( N ( t + h) − N ( t) = 1 | N ( t) = n − 1) = λn−1 h + o 1,n−1 ( h) d’après (i) et (ii). On a donc : p n ( t + h) = p n−1 ( t)[λn−1 h + o 1,n−1 ( h)] + p n ( t)[1 − λn h + o 1,n ( h)] + nX −2 k =0 | et p k ( t) o 3,n,k ( h) {z o n ( h) } p n ( t + h) − p n ( t) = λn−1 hp n−1 ( t) − λn hp n ( t) + o n ( h) En divisant par h de part et d’autre de l’égalité et en passant à la limite, il vient l’équation différentielle : p0n ( t) = −λn p n ( t) + λn−1 p n−1 ( t) pour n ≥ 1. Il s’agit donc de résoudre le système d’équations différentielles : p00 ( t) = −λ0 p 0 ( t) p0n ( t) = −λn p n ( t) + λn−1 p n−1 ( t), n ≥ 1 43 L3 MIS avec les conditions initiales : p 0 (0) = 1 et p n (0) = 0, n > 0. Procédons par récurrence. La première équation donne : p 0 ( t) = e−λ0 t . Pour n = 1, on a l’équation : p01 ( t) + λ1 p 1 ( t) = λ0 p 0 ( t) qui est une équation différentielle du 1er ordre avec second membre. La solution de l’équation sans second membre est : p 1 ( t) = Ce−λ1 t . On fait varier la constante et on calcule : p01 ( t) = C 0 ( t) e−λ1 t − λ1 C ( t) e−λ1 t . C ( t) est alors obtenu en résolvant : C 0 ( t) e−λ1 t = λ0 e−λ0 t . λ0 Il vient : C ( t) = e−(λ0 −λ1 ) t + K. λ1 − λ0 λ0 Or p 1 (0) = 0 = C (0) donc K = − et λ1 − λ 0 p 1 ( t) = λ0 λ1 − λ 0 [ e−λ0 t − e−λ1 t ]. Pour n = 2, on a : p02 ( t) + λ2 p 2 ( t) = λ1 p 1 ( t). Comme précédemment, on résout cette équation sans le second membre. On obtient : p 2 ( t) = Ce−λ2 t . On fait varier la constante et on résout : C 0 ( t) e−λ2 t = λ1 p 1 ( t) soit C 0 ( t) = Il vient : λ 0 λ1 λ1 − λ0 [ e−(λ0 −λ2 ) t − e−(λ1 −λ2 ) t ]. ¸ e−(λ0 −λ2 ) t e−(λ1 −λ2 ) t +K + λ 1 − λ 0 λ2 − λ 0 λ1 − λ2 · ¸ λ0 λ 1 1 1 + . Or p 2 (0) = 0 = C (0), donc K = − λ 1 − λ 0 λ2 − λ0 λ 1 − λ 2 On a alors la solution p 2 ( t) : · −(λ0 −λ2 ) t ¸ λ0 λ1 e − 1 e − ( λ 1 − λ2 ) t − 1 − λ2 t p 2 ( t) = + e λ1 − λ0 λ 2 − λ0 λ1 − λ 2 · − λ0 t ¸ e − e−λ2 t e−λ1 t − e−λ2 t λ0 λ1 = + λ1 − λ0 λ2 − λ0 λ1 − λ 2 · ¸ − λ0 t e e−λ1 t e−λ2 t = λ0 λ 1 + − (λ − λ0 )(λ2 − λ0 ) (λ1 − λ0 )(λ1 − λ2 ) (λ2 − λ0 )(λ1 − λ2 ) h 1 i = λ0 λ1 B0,2 e−λ0 t + B1,2 e−λ1 t + B2,2 e−λ2 t C ( t) = où B0,2 = λ0 λ1 · 1 1 1 , B1,2 = et B2,2 = . (λ1 − λ0 )(λ2 − λ0 ) (λ0 − λ1 )(λ2 − λ1 ) (λ0 − λ2 )(λ1 − λ2 ) On conjecture alors peut alors pour n > 2, h i p n ( t) = λ0 · · · λn−1 B0,n e−λ0 t + · · · + B n,n e−λn t 44 P ROCESSUS A LÉATOIRES - C HAÎNES DE M ARKOV avec, en supposant que les λk sont tous distincts, B0,n = B k,n = B n,n = 1 (λ1 − λ0 ) · · · (λn − λ0 ) 1 , pour 0 < k < n, (λ0 − λk ) · · · (λk−1 − λk )(λk+1 − λk ) · · · (λn − λk ) 1 . (λ0 − λn ) · · · (λn−1 − λn ) Soin est laissé au lecteur de montrer ce résultat par récurrence. Exemple – Dans le cas du processus de Yule, en supposant qu’il y a initialement un individu dans la population, l’intensité s’écrit : λn = ( n + 1)β. On trouve alors en appliquant les formules ci-dessus : p n ( t) = e−β t (1 − e−β t )n−1 , n ≥ 1. (cf. Exercice 3, TD 7). N ( t) suit donc une loi géométrique de paramètre eβ t . Supposons que l’on ait initialement N individus dans la population. A chaque individu est associé un processus de naissance d’intensité λ( t) = β t. On peut alors caractériser la loi de la taille de la population à un instant quelconque t, N ( t) comme la loi de la somme de N v.a. indépendantes de loi géométrique de paramètre eβ t . On en déduit alors (voir Exercice 8, TD 1) que le nombre de naissances suit une loi binomiale négative de paramètres ( N, e−β t ). On peut montrer que le temps qui s’écoule entre deux naissances est une variable aléatoire dont la loi est exponentielle. Plus précisement, le temps T i qui s’écoule entre la i ème naissance et la ( i + 1) ème naissance suit une loi exponentielle de paramètre λ i . On peut montrer également que ces v.a. T i sont indépendantes. 45