Algorithmes d`Optimisation par Simulation pour la Calibration
Transcription
Algorithmes d`Optimisation par Simulation pour la Calibration
Algorithmes d’Optimisation par Simulation pour la Calibration de Modèles Financiers Sébastien Roland Essec & Université d’Evry 18 janvier 2004 Sébastien Roland 1 Introduction 1 En Probabilités/Statistiques: • Algorithmes d’optimisation par simulation: choix optimal bayesien, (Muller, 1999; Amzal et al., 2003). • Méthodes de Markov Chain Monte Carlo (MCMC ), (Casella-Robert, 1999; Doucet et al., 2001). • Résolution de programmes MEU (Maximum Expected Utility) dans cadre non-linéaire et dimension élevée. 2 En Finance: • Calibration de modèles financiers, (Bates, 1996-2000; Cont, 2002). • Etude de la classe affine des diffusions à sauts, (Duffie-Pan-Singleton, 2000; Duffie-Fillipovic, 2003). • Application à un modèle à taux d’intérêt, dividendes et volatilité stochastiques et à sauts. 18 janvier 2004 Sébastien Roland 2 Motivations • Approche pratique de la calibration (critère des moindres carrés): d∗ = Arg Min c (d, Y ) dD Xn c (d, Y ) = ω i [C ∗ (Ti, Ki) − C (Ti, Ki; Y, d)]2 (C0) i=1 • où C ∗ (Ti, Ki) prix de marché et C (Ti, Ki; Y, d) prix théoriques. • Cadre de résolution de (C0): • Variables latentes : volatilité, tailles et instants sauts. • Vraisemblance de (C0): • Maximisation ou intégration pas solvables analytiquement. • Recours à une approximation par simulation (Pedersen, 1995). • Recours à un cadre de travail bayesien: pd (y, θ) ∝ pd (y|θ) × p (θ) • où y observations, θ inconnues (covariables) et d choix. • d paramètre d’intérêt à estimer. 18 janvier 2004 Sébastien Roland 3 Principe MEU • MEU principle = Maximum Expected Utility principle. • De Groot (1983). • Cadre: les préférences de l’agent sont traduites dans la fonction d’utilité u (d, θ, y) qui décrit le mérite de choisir d et de recevoir y quand les inconnues du modèle prennent la valeur θ. • Programme bayesien: d∗ = Arg Max U (d) dD RR = Arg Max y,θ u (d, θ, y) pd (θ, y) dy dθ (MEU) dD • où y et θ sont aléatoires. • Echec des méthodes analytiques et algébriques: • Complexité de D dans situations pratiques. • Difficulté ou impossibilité à intégrer u et donc calculer U . 18 janvier 2004 Sébastien Roland 4 • Optimisation stochastique (Robert, 1996): max h (θ) θ Θ R • Si h ≥ 0 et Θ h (θ) dθ < +∞, • résoudre (P ) ⇔ déterminer mode de h. (P) • Simulation: replacer h dans contexte probabiliste. • Algorithmes MCMC : • "Toute méthode produisant une chaîne de Markov ergodique • de loi stationnaire la distribution d’intérêt". • Bien adaptés pour simuler suivant des distributions complexes. • Convergence de l’échantillon assurée par théorème ergodique. ¡ (t)¢ • Chaîne x produite par MCMC ≈ échantillon iid distribué suivant f : XT ¡ (t)¢ 1 −→ Ef (h (x)) h x T t=1 18 janvier 2004 Sébastien Roland 5 Algorithmes MCMC • Paradigme bayesien ⇒ théorème de Bayes: |θ) p(θ) f (θ|Y ) = f (Yp(Y ∝ ) f (Y |θ) × | {z } vraisemblance • où θ paramètre d’intérêt et Y observations. p(θ) |{z} a priori • Problème: calcul moyenne (a posteriori) conditionnelle: Z +∞ E (h (θ) |Y ) = h (θ) f (θ|Y ) dθ −∞ • Intégration par algorithme Monte-Carlo: Z N n o X 1 MC h θ(i) h(θ)f (θ|Y )dθ ∼ N i=1 • f (Y |θ) × p(θ) et f (Y |θ) peuvent ne pas être totalement connues. • Recours à des méthodes de Monte-Carlo Markov Chain (MCMC). 18 janvier 2004 Sébastien Roland 6 • Algorithme de Metropolis-Hastings: 1 2 3 4 5 6 Proposer q (θ|Y ) ≈ f (θ|Y ) , approximation simulable Pour j = 1, ..., J ³ ´ (j) Générer V (j+1) ∼ q V (j+1) | θi , θi− ; Y Prendre: ⎧ ³ ´ (j) ⎨ V (j+1) avec probabilité α θ , V (j+1) (j+1) ³i ´ θi = (j) (j) ⎩ θ avec probabilité 1 − α θi , V (j+1) i ¾ ½ ³ ´ (j) (j+1) (j+1) f (V | θi− ;Y ) q (θi | V ,θi− ;Y ) (j) ,1 où α θi , V (j+1) = min (j) (j) f (θi | θi− ;Y ) q (V (j+1) | θi ,θi− ;Y ) Retour en 2 n o MC 1 PJ Calculer E(h (θ) |Y ) ≈ J j=1 h θ(j) • Extension: Metropolis-Hastings à marche aléatoire. • Prise en compte valeur simulée ³ précédente. ´ (j) (j+1) (j+1) V ∼q V − θi | θi− ; Y 18 janvier 2004 Sébastien Roland 7 • Echantillonnage de Gibbs: 1 2 3 Décomposer f = (f1, ..., fp) , densités simulables Pour j = 1,³..., J ´ (j+1) (j+1) (j) ∼ f1 θ1 | θ2 , ..., θ(j) p ;Y ³ ´ (j+1) (j+1) (j+1) (j) θ2 ∼ f2 θ2 | θ1 , θ3 , ..., θ (j) p ;Y θ1 ³ ´ (j+1) (j+1) (j+1) ∼ fp θp | θ1 , ..., θp−1 ; Y Retour en 2 n o MC 1 Pp,J (j) Calculer E(h (θ) |Y ) ≈ J i,j=1 h θi θ(j+1) p 3 4 • Inconvénient: • En général, densités conditionnelles partiellement disponibles. • Recours à l’algorithme de Metropolis-Hastings. 18 janvier 2004 Sébastien Roland 8 Modèle à probabilité augmentée • Problème d’optimisation traduit comme un problème d’inférence: • Considérer U (·) comme une densité sur D. • Recourir à des algorithmes de maximisation par simulation. • Modification (1) du programme initial: h (d, θ, y) ∝ u (d, θ, y) p (θ, y|d) = u (d, θ, y) p (y|θ, d) p (θ) • où p (θ) a priori sur θ, p (y|θ, d) vraisemblance et u (d, θ, y) utilité. • Modèle à probabilité augmentée: distribution marginale h (d) ∝ U (d). • Intégration par un algorithme MCMC : R • Simuler (d, θ, y) selon h et déterminer le mode de θ,y h (d, θ, y) dθ dy . XM 1 b (d) = U u (d, θi, yi) , où (θi, yi)M i=1 ∼ p (θ, y|d) i=1 M 18 janvier 2004 Sébastien Roland 9 • Simulations d’utilités et détermination du mode: • Utilités ui = u (di, θi, yi) pour les simulations (di, θi, yi). b (d), lecture du choix optimal. • Mode de U • Si forme de U (d) plate et erreurs MC , indétermination du mode. 18 janvier 2004 Sébastien Roland 10 Concentration de la surface d’utilité • Problèmes de sélection du mode de h (d): • Fit de la surface d’utilité par couples (d, u): • ⇒ difficile pour d de dimension élevée. • Surface d’utilité plate ou multi-modale: • ⇒ nécessite nombre trop important de simulations. • Détermination du mode par "recuit simulé": • Simulation selon U J (·) où J entier élevé (Brooks-Morgan, 1995). • Accentue le haut de la surface d’utilité et concentre les simulations • autour du mode. • Modification (2) du programme initial: ³ ´ YJ J J hJ d, (θi)i=1 , (yi)i=1 ∝ u (d, θj , yj ) p (θj , yj |d) j=1 • Distribution marginale hJ (d) ∝ U J (d). 18 janvier 2004 Sébastien Roland 11 • Concentration de la fonction d’utilité autour du mode: • Surfaces d’utilités espérées simulées pour h et hJ (d) ∝ {U (d)}10. • Simulations selon hJ se concentrent autour du mode. • Schéma de recuit: une solution aux surfaces plates ou multi-modales. • Stratégie du schéma de recuit à adapter selon les applications. 18 janvier 2004 Sébastien Roland 12 Lien avec MV • Maximum de vraisemblance avec normalisation (Geyer, 1994): hθ (x) R l (θ) = c (θ) = hθ (x0 ) dµ (x0 ) • pour famille {hθ (x) : θ Θ} de fonctions intégrables et non négatives. (SML) • Remplacer c (θ) par une estimation Monte-Carlo. hθ (x) 0 ln (θ) = PS , où x s ∼ µ (·) 0 s=1 hθ (xs ) • Résultat de convergence pour (SML): θn −→ b • ln (θ) −→ l (θ) et b θ. • Programme (MEU) similaire à (SML): • Argument: échantillonnage pondéré. XM 1 e (d) = U M u(d,θi ,yi )pd(θi ,yi ) gd (θi ,yi ) i=1 • où gd fonction d’importance qui contient pd (θi, yi). 18 janvier 2004 Sébastien Roland 13 Interacting Particle Systems • Approche particulaire IP S : • Système de particules évoluant aléatoirement et subissant des trans• formations dans un environnement discret probabilisé. ¢ ¡ 1 ξ n = ξ n, ..., ξ N n , où N nombre de particules • Particules: exploration du support de la distribution du système. • Algorithmes évolutionnaires: 18 janvier 2004 Sébastien Roland 14 • Ramification et mutation des particules: • Schéma observé/non-observé. • Evolution en corrélation selon la loi du système: ³ ´ Ramif ication bn, b N (Nn, ξ n) −→ ξn • Duplication selon le processus des observations: ³ ´ Mutation bn, b N ξn −→ (Nn+1, ξ n+1) • Lien avec les algorithmes génétiques: • Population = distribution sur l’espace de simulation. • AG = système dynamique (markovien) doté d’une mesure. • Résumé: choix optimal bayesien et algorithmes évolutionnaires: • Ramification: opération de génération de la chaîne. • Mutation: opération d’acceptation/rejet des éléments générés. • Système dynamique créé par simulation (MCMC). 18 janvier 2004 Sébastien Roland 15 Algorithme général (1) • Pas particulaire: ³ ´N (t) (t) (t) • Simuler N chaînes parallèles di , θi , yi et non une seule. i=1 • But: générer des éventualités proches des modes. • Sélection des particules: • Conserver les simulations proches des modes. • But: concentrer la vraisemblance simulée autour des modes. • Pas markovien: • Explorer tout le spectre de valeurs de la densité cible. • But: éviter les problèmes de dégénérescence. • Schéma général: (t) di 18 janvier 2004 Sébastien Roland pas −→ particulaire (t) sélection (t) dei −→ dbi pas −→ markovien (t+1) di 16 Algorithme général (2) 1 Etape Pas particulaire ³(IS ): ´ ³ (t) ´ ³ ´ (t) (t−1) (t) (t) J e e |N ∼ p θ, y|dei |N a Simuler dei ∼ qIS d|di i=1 et θ ij , y i=1|j=1 ij ´ ³ ´ ³ YJ (t) (t) (t) (t) (t) (t) (t) (t−1) b Calculer u ei = u dei , e θij , yeij et wi ∝ u ei /qIS dei |di j=1 2 Etape Selection (MN ): µ³ ³ ´N ³ ´N ´N ¶ (t) (t) (t) a Rééchantillonner dbi , u bi ∼ Multinomial wi i=1 i=1 i=1 3 Etape Pas markovien (MH ): ´ ³ ³ (t) ´ ³ ´ (t) (t) (t) (t) J a Simuler di ∼ qMH d|dbi |N ∼ p θ, y|di |N i=1 et θ ij , y ij i=1|j=1 ³ (t) (t) ´ YJ (t) (t) b Calculer ui = u di , θij , y ij j=1 ³ ´´ ³ ³ (t) ´´´ ³ ³ (t) (t) (t) (t) (t) / u bi /qMH di |dbi • et αi = min 1, ui /qIS dbi |di (t) (t) (t) (t) c Prendre di = di avec proba αi et di = dbi sinon. 18 janvier 2004 Sébastien Roland 17 Particules et Sélection • Présentation heuristique: 18 janvier 2004 Sébastien Roland 18 Calibration de modèles financiers • Approche pratique de la calibration (critère des moindres carrés): d∗ = Arg Min c (d, Y ) dD Xn c (d, Y ) = ω i [C ∗ (Ti, Ki) − C (Ti, Ki; Y, d)]2 i=1 ∗ • où C (Ti, Ki) prix de marché et C (Ti, Ki; Y, d) prix théoriques. (C1) • Cadre: F = prix d’un actif, toujours positif: • Dividendes q (·), taux d’intérêt r (·) et volatilité V (·) stochastiques • (processus CIR). • Modèle sous P : p £ ¤ F dFt/Ft = rt − qt + η Vt − µλ dt + VtdWtF + dZt ´ p p ³ F V dVt = κv (ν − Vt) dt + σ v Vt ρdWt + 1 − ρ2dWt • où η F prime de risque pour le brownien. 18 janvier 2004 Sébastien Roland 19 • Spécification mesure martingale (de pricing): ³ R ´ ³ R ´ ³X t t π t = exp − 0 rτ dτ ε − 0 ξ τ dWτ exp i,τ i <t • où ξ (·) prix de marché du risque (brownien et volatilité). Uiπ ´ • Formes des primes de risque: £ F ¤p ∗ ξ F (t) = η − λ (µ − µ ) Vt √ ¸ ∙ V ¡ ¢ − Vt η ξ V (t) = p + ρ η F − λ (µ − µ∗) 1 − ρ2 σ v 18 janvier 2004 Sébastien Roland 20 • Modèle sous Q: p £ ¤ ∗ dYt/Yt = rt − qt − µ λ dt + VtdWtY (Q) + dZtQ ¤ £ V dVt = κv (ν − Vt) + η Vt dt ´ p p ³ Y V +σ v Vt ρdWt (Q) + 1 − ρ2dWt (Q) • où η V prime de risque pour la volatilité. • Calcul prix d’options: • Par tranformée de Fourier du prix du call (Madan-Carr). • Recours à une intégration numérique par quadrature Gauss. • Hypothèses modélisation: • Primes de risque: forme linéaire en Vt. • Sauts: ne sont pas pas directement rémunérés (pas de prime). 18 janvier 2004 Sébastien Roland 21 Mise en oeuvre • Modification des programmes (MEU) et (C1): d∗ = Arg Max u (d, Y ) dD u (d, Y ) = K − c (d, Y ) (C2) • Simulation de c (d, Y ): • Discrétisation du modèle sous Q selon un schéma de Milstein. • Choix des lois instrumentales: • qIS , marche aléatoire gaussienne de variance décroissante. • qMH , loi a priori de moments d’ordre 1 et 2 décroissants. • Règle: m2 (qMH ) > m2 (qIS ), • ⇒ exploration plus vaste dans étape MH que IS . 18 janvier 2004 Sébastien Roland 22 • Approche par simulation de la calibration: • Pour Y = (F, V ), simulations de F et V . • Connaissance préalable de Y pas nécessaire. • Niveaux de Y obtenus au cours de la simualtion. • ⇒ Intérêt quand difficultés à observer le stock. • Motivations pour une calibration mixte: • Simulation de c (d, Y ) où Y = (F, V ). • Si F fourni, réduction de l’incertitude de c (d, Y ) , • ⇒ amélioration de l’inférence produite. • Trois modèles calibrés: • SV : stochastic volatility. • SV J : stochastic volatility with jumps in returns. ¢ ¡ • ⇒ JF ∼ N µF , σ 2F . • SV CJ : stochastic volatility with double correlated jumps. ¢ ¡ • ⇒ JF ∼ N µF + ρJ JV , σ 2F et JV ∼ Exp (µV ). 18 janvier 2004 Sébastien Roland 23 Résultats numériques • Courbes de volatilité: • Données de S&P 500 Futures Options (2/11/93). 0.24 17 days 45 days 80 days 136 days 227 days 318 days 0.22 0.2 Black-Scholes Implied Vol (%) 0.18 0.16 0.14 0.12 0.1 0.08 0.06 0.75 0.8 0.85 0.9 0.95 1 Moneyness = Strike/Futures 1.05 1.1 1.15 1.2 • 87 prix d’options (calls) pour maturités 17-318 jours. 18 janvier 2004 Sébastien Roland 24 • Estimation de trois modèles de la classe AJD: SV κv 6.21 v 0.019 σ v 0.61 ρ −0.70 − µF − ρJ − σF − µV J λ − √ V0 10.1% SV J 3.99 0.014 0.27 −0.79 −0.12 − 0.15 − 0.11 9.4% SV CJ 3.46 0.008 0.14 −0.82 −0.10 −0.38 0.001 0.05 0.47 8.7% • Paramètres de la procédure d’optimisation: • Particules: 2000 selon marche aléatoire. • Schéma de recuit: fonction logarithme sur 1-4 pour 30 itérations • Lois instrumentales: variance décroissante avec fonction de recuit. 18 janvier 2004 Sébastien Roland 25 • Impact des sauts sur les niveaux de volatilité implicite: Options with T<=17 days 0.18 0.16 0.14 0.12 0.1 0.08 0.06 0.9 0.92 0.94 0.96 0.98 1 Moneyness = Strike/Futures 1.02 Market SV SVJ SVCJ 0.2 0.18 0.16 0.14 0.12 0.1 0.08 0.06 0.7 1.04 0.8 0.9 1 Moneyness = Strike/Futures Options with 80<=T<136 0.16 Market SV SVJ SVCJ 0.18 Black-Scholes Implied Vol (%) Black-Scholes Implied Vol (%) 1.1 Options with 227<=T<=318 0.2 0.16 0.14 0.12 0.1 0.08 0.7 Options with 45<=T<80 0.22 Market SV SVJ SVCJ Black-Scholes Implied Vol (%) Black-Scholes Implied Vol (%) 0.2 0.75 0.8 0.85 0.9 0.95 1 Moneyness = Strike/Futures 1.05 1.1 Market SV SVJ SVCJ 0.15 0.14 0.13 0.12 0.11 0.1 0.09 0.08 0.6 0.7 0.8 0.9 1 Moneyness = Strike/Futures 1.1 1.2 • Sauts diminuent effet de sur-évaluation des options OTM. 18 janvier 2004 Sébastien Roland 26 • Out-of-sample pricing errors: K/S < 0.97 Days < 60 Days 60-180 0.4 0.2 0.3 0 0.2 -0.2 0.1 -0.4 -0.5 -1 0 1 2 3 1 0.8 K/S 0.97-1.03 Days >180 0 -0.6 1 2 3 -1.5 0.8 0.6 0.6 0.4 0.4 0.2 0.2 0 1 2 3 1 2 3 SV SVJ SVCJ 0.6 0.4 0.2 0 1 2 3 0 1.5 1.5 1 1 0.5 0.5 1 2 3 -0.2 0.8 K/S > 1.03 0.6 0.4 0.2 0 SV SVJ SVCJ 0 SV SVJ SVCJ 0 • Erreurs relativement faibles pour les trois modèles. • Modèle SV CJ performe mieux que SV J et SV . 18 janvier 2004 Sébastien Roland 27 0.3 0.28 0.26 0.24 0.22 Market Price of Risk (Volatility) Market Price of Risk (Brownian) • Evolution des primes de risque dans le temps: 0 50 100 150 200 250 0 50 100 150 200 250 0 50 100 150 200 250 1.7 1.6 1.5 1.4 1.3 1.2 Stochastic Volatility (%) 0.16 0.14 0.12 0.1 0.08 Days, 1..251 • Calibrations historique et implicite sur 251 jours (1call/jour). • Primes augmentent quand volatilité baisse et inversement. • Evolutions coordonnées de ξ F et ξ V , seuls niveaux changent. 18 janvier 2004 Sébastien Roland 28 Conclusion • Pertinence des méthodes MCMC pour: • Résolution de programmes d’optimisation généraux. • Conduite d’une calibration sur des modèles complexes. • Sur le plan théorique: • Approche pour calibration mixte ou jointe. • Dérivation mesure de pricing pour modèles complexes. • Sur le plan numérique: • Choix des lois instrumentales. • Relative lourdeur des algorithmes. 18 janvier 2004 Sébastien Roland 29 Extensions • Tests de spécification et de qualité des modèles. • Régularisation du caractère mal posé de la calibration. • Etude de modèles plus généraux: • Processus de Lévy. • Processus marqués (Marked Point Processes). • Processes non homogènes dans le temps (Time-Inhomogeneity). 18 janvier 2004 Sébastien Roland 30