Algorithmes d`Optimisation par Simulation pour la Calibration

Transcription

Algorithmes d`Optimisation par Simulation pour la Calibration
Algorithmes d’Optimisation par Simulation
pour la Calibration de Modèles Financiers
Sébastien Roland
Essec & Université d’Evry
18 janvier 2004 Sébastien Roland
1
Introduction
1 En Probabilités/Statistiques:
• Algorithmes d’optimisation par simulation: choix optimal bayesien,
(Muller, 1999; Amzal et al., 2003).
• Méthodes de Markov Chain Monte Carlo (MCMC ),
(Casella-Robert, 1999; Doucet et al., 2001).
• Résolution de programmes MEU (Maximum Expected Utility)
dans cadre non-linéaire et dimension élevée.
2 En Finance:
• Calibration de modèles financiers,
(Bates, 1996-2000; Cont, 2002).
• Etude de la classe affine des diffusions à sauts,
(Duffie-Pan-Singleton, 2000; Duffie-Fillipovic, 2003).
• Application à un modèle à taux d’intérêt, dividendes et volatilité
stochastiques et à sauts.
18 janvier 2004 Sébastien Roland
2
Motivations
• Approche pratique de la calibration (critère des moindres carrés):
d∗ = Arg Min c (d, Y )
dD
Xn
c (d, Y ) =
ω i [C ∗ (Ti, Ki) − C (Ti, Ki; Y, d)]2
(C0)
i=1
• où C ∗ (Ti, Ki) prix de marché et C (Ti, Ki; Y, d) prix théoriques.
• Cadre de résolution de (C0):
• Variables latentes : volatilité, tailles et instants sauts.
• Vraisemblance de (C0):
• Maximisation ou intégration pas solvables analytiquement.
• Recours à une approximation par simulation (Pedersen, 1995).
• Recours à un cadre de travail bayesien:
pd (y, θ) ∝ pd (y|θ) × p (θ)
• où y observations, θ inconnues (covariables) et d choix.
• d paramètre d’intérêt à estimer.
18 janvier 2004 Sébastien Roland
3
Principe MEU
• MEU principle = Maximum Expected Utility principle.
• De Groot (1983).
• Cadre: les préférences de l’agent sont traduites dans la fonction d’utilité
u (d, θ, y) qui décrit le mérite de choisir d et de recevoir y quand les inconnues du modèle prennent la valeur θ.
• Programme bayesien:
d∗ = Arg Max U (d)
dD
RR
= Arg Max
y,θ u (d, θ, y) pd (θ, y) dy dθ
(MEU)
dD
• où y et θ sont aléatoires.
• Echec des méthodes analytiques et algébriques:
• Complexité de D dans situations pratiques.
• Difficulté ou impossibilité à intégrer u et donc calculer U .
18 janvier 2004 Sébastien Roland
4
• Optimisation stochastique (Robert, 1996):
max h (θ)
θ Θ
R
• Si h ≥ 0 et Θ h (θ) dθ < +∞,
• résoudre (P ) ⇔ déterminer mode de h.
(P)
• Simulation: replacer h dans contexte probabiliste.
• Algorithmes MCMC :
• "Toute méthode produisant une chaîne de Markov ergodique
• de loi stationnaire la distribution d’intérêt".
• Bien adaptés pour simuler suivant des distributions complexes.
• Convergence de l’échantillon assurée par théorème ergodique.
¡ (t)¢
• Chaîne x
produite par MCMC ≈ échantillon iid distribué suivant f :
XT
¡ (t)¢
1
−→ Ef (h (x))
h x
T
t=1
18 janvier 2004 Sébastien Roland
5
Algorithmes MCMC
• Paradigme bayesien ⇒ théorème de Bayes:
|θ) p(θ)
f (θ|Y ) = f (Yp(Y
∝
)
f (Y |θ) ×
| {z }
vraisemblance
• où θ paramètre d’intérêt et Y observations.
p(θ)
|{z}
a priori
• Problème: calcul moyenne (a posteriori) conditionnelle:
Z +∞
E (h (θ) |Y ) =
h (θ) f (θ|Y ) dθ
−∞
• Intégration par algorithme Monte-Carlo:
Z
N
n o
X
1
MC
h θ(i)
h(θ)f (θ|Y )dθ ∼
N i=1
• f (Y |θ) × p(θ) et f (Y |θ) peuvent ne pas être totalement connues.
• Recours à des méthodes de Monte-Carlo Markov Chain (MCMC).
18 janvier 2004 Sébastien Roland
6
• Algorithme de Metropolis-Hastings:
1
2
3
4
5
6
Proposer q (θ|Y ) ≈ f (θ|Y ) , approximation simulable
Pour j = 1, ..., J ³
´
(j)
Générer V (j+1) ∼ q V (j+1) | θi , θi− ; Y
Prendre: ⎧
³
´
(j)
⎨ V (j+1) avec probabilité α θ , V (j+1)
(j+1)
³i
´
θi
=
(j)
(j)
⎩ θ
avec probabilité 1 − α θi , V (j+1)
i
¾
½
³
´
(j)
(j+1)
(j+1)
f (V
| θi− ;Y ) q (θi | V
,θi− ;Y )
(j)
,1
où α θi , V (j+1) = min
(j)
(j)
f (θi | θi− ;Y ) q (V (j+1) | θi ,θi− ;Y )
Retour en 2
n o
MC 1 PJ
Calculer E(h (θ) |Y ) ≈ J j=1 h θ(j)
• Extension: Metropolis-Hastings à marche aléatoire.
• Prise en compte valeur simulée ³
précédente.
´
(j)
(j+1)
(j+1)
V
∼q V
− θi | θi− ; Y
18 janvier 2004 Sébastien Roland
7
• Echantillonnage de Gibbs:
1
2
3
Décomposer f = (f1, ..., fp) , densités simulables
Pour j = 1,³..., J
´
(j+1)
(j+1)
(j)
∼ f1 θ1
| θ2 , ..., θ(j)
p ;Y
³
´
(j+1)
(j+1)
(j+1) (j)
θ2
∼ f2 θ2
| θ1 , θ3 , ..., θ (j)
p ;Y
θ1
³
´
(j+1)
(j+1)
(j+1)
∼ fp θp
| θ1 , ..., θp−1 ; Y
Retour en 2
n o
MC 1 Pp,J
(j)
Calculer E(h (θ) |Y ) ≈ J i,j=1 h θi
θ(j+1)
p
3
4
• Inconvénient:
• En général, densités conditionnelles partiellement disponibles.
• Recours à l’algorithme de Metropolis-Hastings.
18 janvier 2004 Sébastien Roland
8
Modèle à probabilité augmentée
• Problème d’optimisation traduit comme un problème d’inférence:
• Considérer U (·) comme une densité sur D.
• Recourir à des algorithmes de maximisation par simulation.
• Modification (1) du programme initial:
h (d, θ, y) ∝ u (d, θ, y) p (θ, y|d)
= u (d, θ, y) p (y|θ, d) p (θ)
• où p (θ) a priori sur θ, p (y|θ, d) vraisemblance et u (d, θ, y) utilité.
• Modèle à probabilité augmentée: distribution marginale h (d) ∝ U (d).
• Intégration par un algorithme MCMC :
R
• Simuler (d, θ, y) selon h et déterminer le mode de θ,y h (d, θ, y) dθ dy .
XM
1
b (d) =
U
u (d, θi, yi) , où (θi, yi)M
i=1 ∼ p (θ, y|d)
i=1
M
18 janvier 2004 Sébastien Roland
9
• Simulations d’utilités et détermination du mode:
• Utilités ui = u (di, θi, yi) pour les simulations (di, θi, yi).
b (d), lecture du choix optimal.
• Mode de U
• Si forme de U (d) plate et erreurs MC , indétermination du mode.
18 janvier 2004 Sébastien Roland
10
Concentration de la surface d’utilité
• Problèmes de sélection du mode de h (d):
• Fit de la surface d’utilité par couples (d, u):
• ⇒ difficile pour d de dimension élevée.
• Surface d’utilité plate ou multi-modale:
• ⇒ nécessite nombre trop important de simulations.
• Détermination du mode par "recuit simulé":
• Simulation selon U J (·) où J entier élevé (Brooks-Morgan, 1995).
• Accentue le haut de la surface d’utilité et concentre les simulations
• autour du mode.
• Modification (2) du programme initial:
³
´ YJ
J
J
hJ d, (θi)i=1 , (yi)i=1 ∝
u (d, θj , yj ) p (θj , yj |d)
j=1
• Distribution marginale hJ (d) ∝ U J (d).
18 janvier 2004 Sébastien Roland
11
• Concentration de la fonction d’utilité autour du mode:
• Surfaces d’utilités espérées simulées pour h et hJ (d) ∝ {U (d)}10.
• Simulations selon hJ se concentrent autour du mode.
• Schéma de recuit: une solution aux surfaces plates ou multi-modales.
• Stratégie du schéma de recuit à adapter selon les applications.
18 janvier 2004 Sébastien Roland
12
Lien avec MV
• Maximum de vraisemblance avec normalisation (Geyer, 1994):
hθ (x)
R
l (θ) =
c (θ) = hθ (x0 ) dµ (x0 )
• pour famille {hθ (x) : θ Θ} de fonctions intégrables et non négatives.
(SML)
• Remplacer c (θ) par une estimation Monte-Carlo.
hθ (x)
0
ln (θ) = PS
,
où
x
s ∼ µ (·)
0
s=1 hθ (xs )
• Résultat de convergence pour (SML):
θn −→ b
• ln (θ) −→ l (θ) et b
θ.
• Programme (MEU) similaire à (SML):
• Argument: échantillonnage pondéré.
XM
1
e (d) =
U
M
u(d,θi ,yi )pd(θi ,yi )
gd (θi ,yi )
i=1
• où gd fonction d’importance qui contient pd (θi, yi).
18 janvier 2004 Sébastien Roland
13
Interacting Particle Systems
• Approche particulaire IP S :
• Système de particules évoluant aléatoirement et subissant des trans• formations dans un environnement
discret probabilisé.
¢
¡ 1
ξ n = ξ n, ..., ξ N
n , où N nombre de particules
• Particules: exploration du support de la distribution du système.
• Algorithmes évolutionnaires:
18 janvier 2004 Sébastien Roland
14
• Ramification et mutation des particules:
• Schéma observé/non-observé.
• Evolution en corrélation selon la loi du système:
³
´
Ramif ication
bn, b
N
(Nn, ξ n)
−→
ξn
• Duplication selon le processus
des observations:
³
´
Mutation
bn, b
N
ξn
−→ (Nn+1, ξ n+1)
• Lien avec les algorithmes génétiques:
• Population = distribution sur l’espace de simulation.
• AG = système dynamique (markovien) doté d’une mesure.
• Résumé: choix optimal bayesien et algorithmes évolutionnaires:
• Ramification: opération de génération de la chaîne.
• Mutation: opération d’acceptation/rejet des éléments générés.
• Système dynamique créé par simulation (MCMC).
18 janvier 2004 Sébastien Roland
15
Algorithme général (1)
• Pas particulaire:
³
´N
(t) (t) (t)
• Simuler N chaînes parallèles di , θi , yi
et non une seule.
i=1
• But: générer des éventualités proches des modes.
• Sélection des particules:
• Conserver les simulations proches des modes.
• But: concentrer la vraisemblance simulée autour des modes.
• Pas markovien:
• Explorer tout le spectre de valeurs de la densité cible.
• But: éviter les problèmes de dégénérescence.
• Schéma général:
(t)
di
18 janvier 2004 Sébastien Roland
pas
−→
particulaire
(t) sélection (t)
dei −→ dbi
pas
−→
markovien
(t+1)
di
16
Algorithme général (2)
1 Etape Pas particulaire ³(IS ): ´
³ (t)
´
³
´
(t)
(t−1)
(t)
(t)
J
e e
|N
∼ p θ, y|dei
|N
a Simuler dei ∼ qIS d|di
i=1 et θ ij , y
i=1|j=1
ij
´
³
´
³
YJ
(t) (t)
(t)
(t)
(t)
(t)
(t)
(t−1)
b Calculer u
ei =
u dei , e
θij , yeij et wi ∝ u
ei /qIS dei |di
j=1
2 Etape Selection (MN ):
µ³
³
´N ³ ´N
´N ¶
(t)
(t)
(t)
a Rééchantillonner dbi
, u
bi
∼ Multinomial
wi
i=1
i=1
i=1
3 Etape Pas markovien (MH
): ´
³
³ (t)
´
³
´
(t)
(t)
(t)
(t)
J
a Simuler di ∼ qMH d|dbi
|N
∼ p θ, y|di
|N
i=1 et θ ij , y ij
i=1|j=1
³ (t) (t)
´
YJ
(t)
(t)
b Calculer ui =
u di , θij , y ij
j=1
³
´´ ³
³ (t)
´´´
³ ³
(t)
(t)
(t)
(t)
(t)
/ u
bi /qMH di |dbi
• et αi = min 1, ui /qIS dbi |di
(t)
(t)
(t)
(t)
c Prendre di = di avec proba αi et di = dbi sinon.
18 janvier 2004 Sébastien Roland
17
Particules et Sélection
• Présentation heuristique:
18 janvier 2004 Sébastien Roland
18
Calibration de modèles financiers
• Approche pratique de la calibration (critère des moindres carrés):
d∗ = Arg Min c (d, Y )
dD
Xn
c (d, Y ) =
ω i [C ∗ (Ti, Ki) − C (Ti, Ki; Y, d)]2
i=1
∗
• où C (Ti, Ki) prix de marché et C (Ti, Ki; Y, d) prix théoriques.
(C1)
• Cadre: F = prix d’un actif, toujours positif:
• Dividendes q (·), taux d’intérêt r (·) et volatilité V (·) stochastiques
• (processus CIR).
• Modèle sous P :
p
£
¤
F
dFt/Ft = rt − qt + η Vt − µλ dt + VtdWtF + dZt
´
p
p ³
F
V
dVt = κv (ν − Vt) dt + σ v Vt ρdWt + 1 − ρ2dWt
• où η F prime de risque pour le brownien.
18 janvier 2004 Sébastien Roland
19
• Spécification mesure martingale (de pricing):
³ R
´ ³ R
´
³X
t
t
π t = exp − 0 rτ dτ ε − 0 ξ τ dWτ exp
i,τ i <t
• où ξ (·) prix de marché du risque (brownien et volatilité).
Uiπ
´
• Formes des primes de risque:
£ F
¤p
∗
ξ F (t) = η − λ (µ − µ )
Vt
√
¸
∙ V
¡
¢
− Vt η
ξ V (t) = p
+ ρ η F − λ (µ − µ∗)
1 − ρ2 σ v
18 janvier 2004 Sébastien Roland
20
• Modèle sous Q:
p
£
¤
∗
dYt/Yt = rt − qt − µ λ dt + VtdWtY (Q) + dZtQ
¤
£
V
dVt = κv (ν − Vt) + η Vt dt
´
p
p ³
Y
V
+σ v Vt ρdWt (Q) + 1 − ρ2dWt (Q)
• où η V prime de risque pour la volatilité.
• Calcul prix d’options:
• Par tranformée de Fourier du prix du call (Madan-Carr).
• Recours à une intégration numérique par quadrature Gauss.
• Hypothèses modélisation:
• Primes de risque: forme linéaire en Vt.
• Sauts: ne sont pas pas directement rémunérés (pas de prime).
18 janvier 2004 Sébastien Roland
21
Mise en oeuvre
• Modification des programmes (MEU) et (C1):
d∗ = Arg Max u (d, Y )
dD
u (d, Y ) = K − c (d, Y )
(C2)
• Simulation de c (d, Y ):
• Discrétisation du modèle sous Q selon un schéma de Milstein.
• Choix des lois instrumentales:
• qIS , marche aléatoire gaussienne de variance décroissante.
• qMH , loi a priori de moments d’ordre 1 et 2 décroissants.
• Règle: m2 (qMH ) > m2 (qIS ),
• ⇒ exploration plus vaste dans étape MH que IS .
18 janvier 2004 Sébastien Roland
22
• Approche par simulation de la calibration:
• Pour Y = (F, V ), simulations de F et V .
• Connaissance préalable de Y pas nécessaire.
• Niveaux de Y obtenus au cours de la simualtion.
• ⇒ Intérêt quand difficultés à observer le stock.
• Motivations pour une calibration mixte:
• Simulation de c (d, Y ) où Y = (F, V ).
• Si F fourni, réduction de l’incertitude de c (d, Y ) ,
• ⇒ amélioration de l’inférence produite.
• Trois modèles calibrés:
• SV : stochastic volatility.
• SV J : stochastic
volatility
with jumps in returns.
¢
¡
• ⇒ JF ∼ N µF , σ 2F .
• SV CJ : stochastic
volatility with
double correlated jumps.
¢
¡
• ⇒ JF ∼ N µF + ρJ JV , σ 2F et JV ∼ Exp (µV ).
18 janvier 2004 Sébastien Roland
23
Résultats numériques
• Courbes de volatilité:
• Données de S&P 500 Futures Options (2/11/93).
0.24
17 days
45 days
80 days
136 days
227 days
318 days
0.22
0.2
Black-Scholes Implied Vol (%)
0.18
0.16
0.14
0.12
0.1
0.08
0.06
0.75
0.8
0.85
0.9
0.95
1
Moneyness = Strike/Futures
1.05
1.1
1.15
1.2
• 87 prix d’options (calls) pour maturités 17-318 jours.
18 janvier 2004 Sébastien Roland
24
• Estimation de trois modèles de la classe AJD:
SV
κv 6.21
v 0.019
σ v 0.61
ρ −0.70
−
µF
−
ρJ
−
σF
−
µV
J
λ
−
√
V0 10.1%
SV J
3.99
0.014
0.27
−0.79
−0.12
−
0.15
−
0.11
9.4%
SV CJ
3.46
0.008
0.14
−0.82
−0.10
−0.38
0.001
0.05
0.47
8.7%
• Paramètres de la procédure d’optimisation:
• Particules: 2000 selon marche aléatoire.
• Schéma de recuit: fonction logarithme sur 1-4 pour 30 itérations
• Lois instrumentales: variance décroissante avec fonction de recuit.
18 janvier 2004 Sébastien Roland
25
• Impact des sauts sur les niveaux de volatilité implicite:
Options with T<=17 days
0.18
0.16
0.14
0.12
0.1
0.08
0.06
0.9
0.92
0.94
0.96
0.98
1
Moneyness = Strike/Futures
1.02
Market
SV
SVJ
SVCJ
0.2
0.18
0.16
0.14
0.12
0.1
0.08
0.06
0.7
1.04
0.8
0.9
1
Moneyness = Strike/Futures
Options with 80<=T<136
0.16
Market
SV
SVJ
SVCJ
0.18
Black-Scholes Implied Vol (%)
Black-Scholes Implied Vol (%)
1.1
Options with 227<=T<=318
0.2
0.16
0.14
0.12
0.1
0.08
0.7
Options with 45<=T<80
0.22
Market
SV
SVJ
SVCJ
Black-Scholes Implied Vol (%)
Black-Scholes Implied Vol (%)
0.2
0.75
0.8
0.85
0.9
0.95
1
Moneyness = Strike/Futures
1.05
1.1
Market
SV
SVJ
SVCJ
0.15
0.14
0.13
0.12
0.11
0.1
0.09
0.08
0.6
0.7
0.8
0.9
1
Moneyness = Strike/Futures
1.1
1.2
• Sauts diminuent effet de sur-évaluation des options OTM.
18 janvier 2004 Sébastien Roland
26
• Out-of-sample pricing errors:
K/S < 0.97
Days < 60
Days 60-180
0.4
0.2
0.3
0
0.2
-0.2
0.1
-0.4
-0.5
-1
0
1
2
3
1
0.8
K/S 0.97-1.03
Days >180
0
-0.6
1
2
3
-1.5
0.8
0.6
0.6
0.4
0.4
0.2
0.2
0
1
2
3
1
2
3
SV
SVJ
SVCJ
0.6
0.4
0.2
0
1
2
3
0
1.5
1.5
1
1
0.5
0.5
1
2
3
-0.2
0.8
K/S > 1.03
0.6
0.4
0.2
0
SV
SVJ
SVCJ
0
SV
SVJ
SVCJ
0
• Erreurs relativement faibles pour les trois modèles.
• Modèle SV CJ performe mieux que SV J et SV .
18 janvier 2004 Sébastien Roland
27
0.3
0.28
0.26
0.24
0.22
Market Price of Risk (Volatility)
Market Price of Risk (Brownian)
• Evolution des primes de risque dans le temps:
0
50
100
150
200
250
0
50
100
150
200
250
0
50
100
150
200
250
1.7
1.6
1.5
1.4
1.3
1.2
Stochastic Volatility (%)
0.16
0.14
0.12
0.1
0.08
Days, 1..251
• Calibrations historique et implicite sur 251 jours (1call/jour).
• Primes augmentent quand volatilité baisse et inversement.
• Evolutions coordonnées de ξ F et ξ V , seuls niveaux changent.
18 janvier 2004 Sébastien Roland
28
Conclusion
• Pertinence des méthodes MCMC pour:
• Résolution de programmes d’optimisation généraux.
• Conduite d’une calibration sur des modèles complexes.
• Sur le plan théorique:
• Approche pour calibration mixte ou jointe.
• Dérivation mesure de pricing pour modèles complexes.
• Sur le plan numérique:
• Choix des lois instrumentales.
• Relative lourdeur des algorithmes.
18 janvier 2004 Sébastien Roland
29
Extensions
• Tests de spécification et de qualité des modèles.
• Régularisation du caractère mal posé de la calibration.
• Etude de modèles plus généraux:
• Processus de Lévy.
• Processus marqués (Marked Point Processes).
• Processes non homogènes dans le temps (Time-Inhomogeneity).
18 janvier 2004 Sébastien Roland
30