Probabilité de ruine
Transcription
Probabilité de ruine
Méthodes de Monte Carlo pour la finance ENST, 2007-2008, MDI 345 TP : Méthodes de Réduction de Variance Enseignant : G. Fort Probabilité de ruine Renvoyer un rapport par bin^ ome pour le Lundi 16 Juin (matin) au plus tard, à l’adresse: [email protected] sujet du mail : TP 6 juin On s’intéresse à l’estimation, par une méthode d’échantillonnage préférentiel (importance sampling), de la probabilité de ruine d’une société d’assurance. Une société d’assurance collecte des primes et rembourse des dommages liés à des sinistres. Elle collecte des primes à un taux constant p par unité de temps. Les sinistres surviennent à des instants aléatoires 0 = T0 < T1 < T2 < · · · . Soit (Zk ,k ≥ 1) les montants des remboursements des dommages. Les v.a. ((Tk ,Zk ),k ≥ 1) sont définies sur le même espace de probabilité (Ω,A,P). Les durées entre deux def sinistres successifs (τk ,k ≥ 1) définies par τk = Tk − Tk−1 , sont supposées i.i.d. et distribuées suivant des variables exponentielles de paramètre λ : P(τk ≥ t) = e−λt 1t≥0 . τk ∼ E(λ) Les v.a. (Zk ,k ≥ 1) sont supposées i.i.d. indépendantes du processus d’arrivée des sinistres (Tk ,k ≥ 0), et distribuées suivant une loi Gamma de paramètres (α,β), α > 0 et β > 0 : 1 Z β α α−1 −βz z e y α−1 e−y dy . Γ(α) = 1z≥0 , Zk ∼ Ga(α,β) , fZ (z) = Γ(α) + R def Soit Nt le nombre de sinistres entre l’instant 0 et t, Nt = d’assurance à l’instant t est donc donnée par Nt X P k≥1 1Tk ≤t . La somme déboursée par la société Zk − pt . k=1 La société d’assurance a un capital initial x. La société est ruinée s’il existe un instant T fini (l’instant de ruine) où le montant déboursé par l’assurance excède le capital initial, c’est à dire si ) (N t X Zk − pt ≥ x . sup t≥0 k=1 1. On rappelle que l’espérance et la variance d’une loi Gamma sont α/β et α/β 2 1 1 Méthode de Monte Carlo L’objectif de cette partie est d’étudier l’efficacité de la méthode de Monte Carlo pour estimer la quantité ! NT X def Zk − pT ≥ x , I(x) = P k=1 pour différentes valeurs de (x,α,β,λ,p,T ), 1. (a) En écrivant {Nt = k} = {Tk ≤ t < Tk + τk+1 }, montrer que le nombre de sinistres est distribué suivant une loi de Poisson de paramètre λt, P{Nt = k} = e−λt (λt)k k! k≥0. (b) Montrer que pour tout T > 0 "N "N # # T T X X λα λα E − p T , Var Zk − pT = Zk = 2 T . β β k=1 k=1 2. On prend p = 1, α = 2.5, λ = 0.005. P T (a) Calculer l’espérance et la variance de la v.a. N k=1 Zk − pT pour tous les couples (β,T ) lorsque β ∈ {0.01; 0.03} , T ∈ {500,1000,1500,2000} . (b) Estimer par la méthode de Monte Carlo 2 , la probabilité I(x) pour les différentes valeurs du couple (β,T ) ci-dessus et pour un seuil x ∈ {0,50,100}. On tracera l’évolution de l’approximation en fonction du nombre de termes dans la somme de Monte Carlo (n ≤ nmax ). (c) Donner un intervalle de confiance à 95% de cette probabilité. On tracera l’évolution des intervalles de confiance en fonction du nombre de termes dans la somme de Monte Carlo (n ≤ nmax ). (d) Calculer le coefficient de variation i.e. le ratio de l’écart-type et de la moyenne obtenu avec les estimateurs de l’écart-type et de la moyenne pour n = nmax . (e) Commenter les résultats. 2 Méthode d’échantillonnage préférentiel Si la société d’assurance est ruinée, la ruine interviendra à l’instant d’arrivée d’un sinistre : en conséquence, on s’intéresse au processus à temps discret de la somme déboursée échantillonné aux instants d’arrivée des sinistres. La somme déboursée à l’instant d’arrivée du n-ième sinistre est égale à X1 + · · · + Xn , où def Xk = Zk − pτk . La probabilité de ruine est donc donnée par P(σx < ∞) = 1, où def σx = inf{n ≥ 1, n X Xk > x} , k=1 avec la convention inf ∅ = +∞. 2. On pourra utiliser les fonctions poissrnd et gamrnd qui permettent d’obtenir des réalisations de v.a. de loi de Poisson et de loi Gamma. Attention au sens des arguments de la fonction gamrnd. 2 Pour calculer la probabilité de ruine, nous allons implémenter une technique d’échantillonnage préférentiel et, pour déterminer le changement de loi, utiliser la fonction génératrice des cumulants. 3 Les v.a. (Xk ,k ≥ 1) sont indépendantes et de même loi; notons fX leur densité. On définit une famille de densités (gθ ,θ ∈ DX ) sur R, par la relation def gθ (x) = exp(θx) fX (x) . exp(ψX (θ)) On suppose dorénavant que les v.a. ((Tk ,Zk ),k ≥ 0) sont définies sur un espace mesurable (Ω,A) que l’on munit d’une famille de lois (Pθ ,θ ∈ DX ) telles que sous Pθ , les v.a. (Xk ,k ≥ 0) sont i.i.d. de loi gθ . Noter que 0 ∈ DX et que g0 = fX de sorte que P0 sera noté simplement P. Eθ désigne l’espérance associée à la probabilité Pθ . def Soit (Fn ,n ≥ 1) la filtration naturelle du processus ((Tk ,Zk ),k ≥ 1) : Fn = σ((Tk ,Zk ),k ≤ n). ′ (θ). 1. (a) Montrer que pour tout θ ∈ DX , Eθ [X1 ] = ψX (b) Montrer que si Y1 et Y2 sont indépendantes alors ψY1 +Y2 = ψY1 + ψY2 sur DψY1 ∩ DψY2 . (c) Montrer que ψZ (θ) = −α ln(1 − β −1 θ) , DZ =] − ∞,β[ , ψτ (θ) = − ln(1 − λ−1 θ) , Dτ =] − ∞,λ[ . (d) Déduire des questions précédentes, que ψX (θ) = −α ln 1 − β −1 θ − ln 1 + λ−1 pθ , DX =] − p−1 λ,β[ ; et que pour tout θ ∈ DX , la fonction génératrice des cumulants d’une v.a. de loi gθ - fonction notée ψX,θ - est donnée par ψX,θ (µ) = ψX (θ + µ) − ψX (θ), pour tout µ tel que θ + µ ∈ DX . (e) Montrer que pour tout A ∈ Fn , et tout θ ∈ DX , i h Pn P (A) = Eθ e−θ k=1 Xk +n ψX (θ) 1A . 2. Montrer que σx est un temps d’arrêt pour la filtration Fn . 3. Déduire de la question 1 que ′ (θ) > 0, P (σ < +∞) = 1. (a) pour tout θ ∈ DX , tel que ψX θ x (b) pour tout θ ∈ DX , h i Pσx P(σx < +∞) = Eθ e−θ k=1 Xk +σx ψX (θ) 1σx <+∞ . 3. On rappelle que pour une v.a. réelle Y de densite fY par rapport à la mesure de Lebesgue, la fonction génératrice des cumulants est donnée par Z def ψY (θ) = ln exp(θx) fY (x) dx , R def et est définie pour tout θ ∈ DY = {µ ∈ R : ψY (µ) < +∞}. De plus, la fonction génératice des cumulants caractérise la loi d’une v.a. : si ψY1 = ψY2 alors Y1 et Y2 ont même loi. 3 ′ (θ) > 0, 4. En déduire que pour tout θ tel que ψX h P(σx < +∞) = Eθ e−θ Pσx k=1 Xk +σx ψX (θ) i . 5. Soit θ ∈ DX . En utilisant la fonction génératrice des cumulants et les résultats de la question 1, montrer que si Z (θ) est une v.a. de loi Ga(α,β − θ), τ (θ) est une v.a. de loi E(λ + θp) et que Z (θ) et τ (θ) sont indépendantes alors Z (θ) − pτ (θ) est une v.a. de densité gθ . ′ (0) < 0 alors 6. (choix du drift θ) Montrer que ψX (θ) est convexe. En déduire que si ψX ′ (θ) > 0 sur ]θ̌,β[. (a) il existe un unique θ̌ > 0 (que l’on ne cherchera pas à déterminer) tel que ψX (b) il existe un unique θ⋆ ∈]θ̌,β[ tel que ψX (θ⋆ ) = 0. 7. (a) Déduire des questions 4, 5 et 6 , une procédure d’échantillonnage préférentiel de la probabilité de ruine P(σx < +∞). ′ (0) < 0 quand α = 1, β = 1, λ = 0.5 et p = 1; et déterminer θ (on pourra tracer (b) Vérifier que ψX ⋆ le graphe de θ 7→ ψX (θ) pour trouver la solution). (c) Implémenter la procédure lorsque θ = θ⋆ , x = 100 et les autres paramètres du modèle fixés aux valeurs de la question 7b. (d) Donner une estimation de la probabilité de ruine, un intervalle de confiance à 95%, ainsi que le coefficient de variation. On précisera avec quel nombre de termes utilisés dans la somme de Monte Carlo, ces résultats ont été obtenus. Rque : Pourquoi ce choix du drift θ ? Nous prenons θ = θ⋆ pour les raisons suivantes – Par définition de θ⋆ et σx , et comme θ⋆ > 0, on a pour tout x, " # σx X P (σx < +∞) = Eθ⋆ exp(−θ⋆ Xk ) ≤ exp(−xθ⋆ ) . (1) k=1 – On peut alors montrer qu’il existe une constante c > 0 telle que P(σx < +∞) ∼ c exp(−θ⋆ x) quand x → +∞. [cf. Asmussen, S. (1998) Applied Probability and Queues, Wiley, Chichester, England] – Comparer la variance des estimateurs sans biais de P(σx < +∞) revient à comparer leur moment d’ordre 2. D’une part, par Jensen et l’inégalité (1) " # σx X Eθ⋆ exp(−2θ⋆ Xk ) ≤ exp(−2θ⋆ x) , k=1 et d’autre part, par Jensen encore, " Eθ exp(−2θ σx X k=1 # Xk + 2σx ψX (θ)) ≥ " Eθ exp(−θ σx X k=1 #!2 Xk + σx ψX (θ)) ≥ (P (σx < +∞))2 ∼ c2 exp(−2θ⋆ x) . Ces inégalités montrent que d’un point de vue asymptotique (quand x → +∞) la dépendance en x de la variance des estimateurs ne peut pas être plus faible que exp(−2θ⋆ x). Or cette dépendance en x est atteinte avec θ = θ⋆ . En ce sens, l’estimateur calculé avec θ = θ⋆ est optimal. 4