Cours 8Processus de Naissance

Transcription

Cours 8Processus de Naissance
L3 MIS
4.3
Processus de Poisson non-homogène
Un processus de Poisson est dit non-homogène lorsque son intensité dépend du temps.
Les postulats précédents deviennent :
(i) P ( N ( t + h) − N ( t) = 1 | N ( t) = x) = λ( t) h + o( h).
(ii) P ( N ( t + h) − N ( t) > 1 | N ( t) = x) = o( h).
On établit alors le résultat suivant (cf. TD 6, exercice 5) :
P ( N ( t) = k ) =
Λ( t)k −Λ( t)
avec Λ( t) =
e
k!
Zt
0
λ( s) ds.
Λ est appelé mesure de concentration ou encore compensateur du processus.
On peut donner une définition du processus de Poisson non homogène analogue la définition 15 :
Définition 16 - Soit { N ( t), t > 0}, un processus de comptage sur R+ . On note N ( A ) le nombre
d’événements survenus dans A , un intervalle de R+ . On dit que { N ( t), t > 0} est un processus de
Poisson de mesure de concentration Λ, si :
• quelque soit ( A 1 , A 2 , . . . , A m ) une partition de R+ , les variables aléatoires N ( A 1 ), N ( A 2 ), . . . , N ( A m )
sont indépendantes.
• pour tout intervalle A de R+ , la loi de N ( A ) est une loi de Poisson de paramètre Λ( A ) :
P r ( N ( A ) = k) =
Λ( A )k
exp{−Λ( A )}
k!
(11)
Remarquons que :
E [ N ( A )] = E [ N ([0, b))] − E [ N ([0, a))] = Λ( b) − Λ(a)
Loi des dates d’événements – Notons, comme précédemment, S k , la date où se produit la
k ème événement. La relation (4) nous permet d’écrire :
P r ( S k 6 t) = P r ( N ( t) > k ) =
Λ( t) i −Λ( t)
e
i=k i!
+∞
X
En dérivant, on obtient sans difficulté une expression de la densité de la loi de S k en fonction de
la mesure de concentration :
f S k ( t) =
40
Λ( t)k−1 0
Λ ( t) e−Λ( t)
( k − 1)!
(12)
P ROCESSUS A LÉATOIRES - C HAÎNES DE M ARKOV
Loi des interarrivées – Elle s’obtient en utilisant la relation qui existe entre les dates et le
nombre d’événements.
En effet, P r (S k − S k−1 > x | S k−1 = s) = P r ( N [ s, s + x] = 0)
On a donc : P r (S k − S k−1 > x | S k−1 = s) = exp{−[Λ( s + x) − Λ( s)]}
On pourra donc calculer la loi des interarrivées par :
P r ( S k − S k −1 > x ) =
Z+∞
P r (S k − S k−1 > x | S k−1 = s) f S k−1 ( s) ds
=
Z+∞
exp{−Λ( s + x)}
0
0
Λ( s)k−2
d Λ( s)
( k − 2)!
Exemple
Un exemple classique de processus de Poisson non homogène est le processus de Weibull
dont l’intensité est de la forme :
λ( t ) =
β
αβ
tβ−1 .
La loi de N ( t) est alors une loi de Poisson de paramètre :
Λ( t) =
Zt
0
β
αβ
u
β−1
µ ¶β
t
.
du =
α
Posons Λ( t) = λ.tβ avec λ = 1/αβ , la loi de S k s’écrira :
f S k ( t) =
(λ.tβ )k−1
λk kβ−1 −λ.tβ
.e
.βλ tβ−1 exp{−λ.tβ } =
.t
( k − 1)!
Γ( k )
Le calcul de la loi des interarrivées est difficile.
4.4
Processus de Naissance
Une généralisation naturelle du processus de Poisson consiste à considérer que la probabilité
d’occurrence d’un événement à une date donnée dépend du nombre d’événements qui s’est déjà
produit. Cette situation se rencontre en biologie dans l’étude de la reproduction d’où le nom : Processus de Naissance. Il trouve également de nombreuses applications industrielles, en particulier
dans l’étude des phénomènes de queue.
Ces processus appartiennent à la famille des processus de Markov (états discrets, temps continu).
On fait l’hypothèse de stationnarité i.e. la probabilité de transition : p i, j ( t) = P ( N ( t + u) = j |
41
L3 MIS
N ( u) = i ) , i, j = 0, 1, 2, . . . , ne dépend pas de u. Dans le processus de naissance, l’occurence de
l’événement d’intérêt dépend du nombre d’événement qui a déjà eu lieu. Un processus de naissance peut donc être vu comme un processus de Poisson particulier où l’intensité ne serait plus
constante mais dépendante de la taille de la population.
Définition 17 –
Un processus de Markov { N ( t), t > 0} à valeurs dans Z est un processus de naissance ssi il
satisfait les conditions suivantes :
Pour h → 0,
(i) P ( N ( t + h) − N ( t) = 1 | N ( t) = n) = λn h + o 1,n ( h)
(ii) P ( N ( t + h) − N ( t) = 0 | N ( t) = n) = 1 − λn h + o 2,n ( h)
(iii) P ( N ( t + h) − N ( t) < 0 | N ( t) = n) = 0, ( n ≤ 0)
Un exemple classique d’intensité est λn = nβ. La probabilité de voir apparaître un nouvel individu
dans la population est directement proportionnelle à la taille de la population. On appelle ce processus le processus de Yule. L’hypothèse sous-jacente est que chaque individu à une probabilité
β h + o( h) de donner naissance à un nouvel individu dans un intervalle de longueur infinitésimale
h. Si on supppose l’indépendance et pas d’interactions, on peut écrire :
P ( N ( t + h) − N ( t) = 1 | N ( t) = n) = C 1n [β h + o( h)][1 − β h]n−1 = nβ h + o n ( h).
Sans perte de généralité et pour simplifier les calculs, on ajoute parfois le postulat N (0) = 0.
Des postulats (i) et (ii), on déduit :
P ( N ( t + h) − N ( t) ≥ 2 | N ( t) = n) = o 1,n ( h) + o 2,n ( h)
On pose p n ( t) = P ( N ( t) = n).
On a p 0 ( t + h) = p 0 ( t) p 0 ( h).
D’après (i), P r ( N ( h) − N (0) = 0 | N (0) = 0) = 1 − λ0 h + o 1,0 ( h)
d’où p 0 ( h) = 1 − λ0 h + o 1,0 ( h).
On peut donc écrire :
p 0 ( t + h) − p 0 ( t) = −λ0 hp 0 ( t) + o 1,0 ( h) p 0 ( t).
En divisant par h et en passant à la limite, il vient l’équation différentielle :
p00 ( t) = −λ0 p 0 ( t)
42
(13)
P ROCESSUS A LÉATOIRES - C HAÎNES DE M ARKOV
dont la solution est : p 0 ( t) = exp{−λ0 t} puisque p 0 ( t) = 1.
Considérons le cas k > 0. En appliquant le théorème des probabilités totales, il vient :
p n ( t + h) =
P ( N ( t + h) = n) =
n
X
P ( N ( t + h) = n | N ( t) = k ) P ( N ( t) = k )
k =0
=
n
X
k =0
P ( N ( t + h) − N ( t) = n − k | N ( t) = k ) p k ( t)
=
P ( N ( t + h) − N ( t) = 0 | N ( t) = n) p n ( t)
+
P ( N ( t + h) − N ( t) = 1 | N ( t) = n − 1) p n−1 ( t)
nX
−2
P ( N ( t + h) − N ( t) = n − k | N ( t) = k ) p k ( t)
+
k =0
Or pour k = 0, 1, . . . , n − 2, on a :
P ( N ( t + h) − N ( t) = n − k | N ( t) = k ) p k ( t) ≤
P ( N ( t + h) − N ( t) = n − k | N ( t) = k )
≤
P ( N ( t + h) − N ( t) ≥ 2 | N ( t) = k )
=
o 1,k ( h) + o 2,k ( h)
On écrira donc :
P ( N ( t + h) − N ( t) = n − k | N ( t) = k) = o 3,n,k ( h), pour k = 0, . . . , n − 2.
De plus, P ( N ( t + h) − N ( t) = 0 | N ( t) = n) = 1 − λn h + o 1,n ( h)
et P ( N ( t + h) − N ( t) = 1 | N ( t) = n − 1) = λn−1 h + o 1,n−1 ( h) d’après (i) et (ii).
On a donc :
p n ( t + h) = p n−1 ( t)[λn−1 h + o 1,n−1 ( h)] + p n ( t)[1 − λn h + o 1,n ( h)] +
nX
−2
k =0
|
et
p k ( t) o 3,n,k ( h)
{z
o n ( h)
}
p n ( t + h) − p n ( t) = λn−1 hp n−1 ( t) − λn hp n ( t) + o n ( h)
En divisant par h de part et d’autre de l’égalité et en passant à la limite, il vient l’équation
différentielle :
p0n ( t) = −λn p n ( t) + λn−1 p n−1 ( t) pour n ≥ 1.
Il s’agit donc de résoudre le système d’équations différentielles :
p00 ( t) = −λ0 p 0 ( t)
p0n ( t) = −λn p n ( t) + λn−1 p n−1 ( t), n ≥ 1
43
L3 MIS
avec les conditions initiales : p 0 (0) = 1 et p n (0) = 0, n > 0.
Procédons par récurrence. La première équation donne : p 0 ( t) = e−λ0 t .
Pour n = 1, on a l’équation : p01 ( t) + λ1 p 1 ( t) = λ0 p 0 ( t) qui est une équation différentielle du 1er
ordre avec second membre. La solution de l’équation sans second membre est : p 1 ( t) = Ce−λ1 t . On
fait varier la constante et on calcule :
p01 ( t) = C 0 ( t) e−λ1 t − λ1 C ( t) e−λ1 t .
C ( t) est alors obtenu en résolvant : C 0 ( t) e−λ1 t = λ0 e−λ0 t .
λ0
Il vient : C ( t) =
e−(λ0 −λ1 ) t + K.
λ1 − λ0
λ0
Or p 1 (0) = 0 = C (0) donc K = −
et
λ1 − λ 0
p 1 ( t) =
λ0
λ1 − λ 0
[ e−λ0 t − e−λ1 t ].
Pour n = 2, on a : p02 ( t) + λ2 p 2 ( t) = λ1 p 1 ( t).
Comme précédemment, on résout cette équation sans le second membre. On obtient : p 2 ( t) =
Ce−λ2 t . On fait varier la constante et on résout :
C 0 ( t) e−λ2 t = λ1 p 1 ( t) soit C 0 ( t) =
Il vient :
λ 0 λ1
λ1 − λ0
[ e−(λ0 −λ2 ) t − e−(λ1 −λ2 ) t ].
¸
e−(λ0 −λ2 ) t e−(λ1 −λ2 ) t
+K
+
λ 1 − λ 0 λ2 − λ 0
λ1 − λ2
·
¸
λ0 λ 1
1
1
+
.
Or p 2 (0) = 0 = C (0), donc K = −
λ 1 − λ 0 λ2 − λ0 λ 1 − λ 2
On a alors la solution p 2 ( t) :
· −(λ0 −λ2 ) t
¸
λ0 λ1
e
− 1 e − ( λ 1 − λ2 ) t − 1 − λ2 t
p 2 ( t) =
+
e
λ1 − λ0
λ 2 − λ0
λ1 − λ 2
· − λ0 t
¸
e
− e−λ2 t e−λ1 t − e−λ2 t
λ0 λ1
=
+
λ1 − λ0
λ2 − λ0
λ1 − λ 2
·
¸
− λ0 t
e
e−λ1 t
e−λ2 t
= λ0 λ 1
+
−
(λ − λ0 )(λ2 − λ0 ) (λ1 − λ0 )(λ1 − λ2 ) (λ2 − λ0 )(λ1 − λ2 )
h 1
i
= λ0 λ1 B0,2 e−λ0 t + B1,2 e−λ1 t + B2,2 e−λ2 t
C ( t) =
où B0,2 =
λ0 λ1
·
1
1
1
, B1,2 =
et B2,2 =
.
(λ1 − λ0 )(λ2 − λ0 )
(λ0 − λ1 )(λ2 − λ1 )
(λ0 − λ2 )(λ1 − λ2 )
On conjecture alors peut alors pour n > 2,
h
i
p n ( t) = λ0 · · · λn−1 B0,n e−λ0 t + · · · + B n,n e−λn t
44
P ROCESSUS A LÉATOIRES - C HAÎNES DE M ARKOV
avec, en supposant que les λk sont tous distincts,
B0,n
=
B k,n
=
B n,n
=
1
(λ1 − λ0 ) · · · (λn − λ0 )
1
, pour 0 < k < n,
(λ0 − λk ) · · · (λk−1 − λk )(λk+1 − λk ) · · · (λn − λk )
1
.
(λ0 − λn ) · · · (λn−1 − λn )
Soin est laissé au lecteur de montrer ce résultat par récurrence.
Exemple – Dans le cas du processus de Yule, en supposant qu’il y a initialement un individu
dans la population, l’intensité s’écrit : λn = ( n + 1)β. On trouve alors en appliquant les formules
ci-dessus :
p n ( t) = e−β t (1 − e−β t )n−1 , n ≥ 1.
(cf. Exercice 3, TD 7). N ( t) suit donc une loi géométrique de paramètre eβ t .
Supposons que l’on ait initialement N individus dans la population. A chaque individu est associé
un processus de naissance d’intensité λ( t) = β t. On peut alors caractériser la loi de la taille de la
population à un instant quelconque t, N ( t) comme la loi de la somme de N v.a. indépendantes de
loi géométrique de paramètre eβ t . On en déduit alors (voir Exercice 8, TD 1) que le nombre de
naissances suit une loi binomiale négative de paramètres ( N, e−β t ).
On peut montrer que le temps qui s’écoule entre deux naissances est une variable aléatoire
dont la loi est exponentielle. Plus précisement, le temps T i qui s’écoule entre la i ème naissance et
la ( i + 1) ème naissance suit une loi exponentielle de paramètre λ i . On peut montrer également que
ces v.a. T i sont indépendantes.
45