1.3.3 Simulation Monte Carlo
Les méthodes Monte-Carlo
Les méthodes Monte Carlo visent à calculer une
valeur numérique en utilisant des techniques probabilistes.
Généralement ces méthodes sont utilisées pour
calculer des intégrales en dimensions plus grandes que 1. En finance, le
recours à ces méthodes permettent de calculer les prix des
options sur le marché.
Plus précisément, la simulation Monte-Carlo a pour
objet l'estimation de valeurs espérées (moyennes) de la forme:
Y = E[Y]
= E[P(X1,...,Xd)]
= XN1 ::: XNd P(xn1; :::; xnd)
f(xn1, ::., xnd) ou
n1 =1 nd=1
Z Z
::: P(x1; :::; xd) f(x1; :::;
xd)dx1:::dxd;
R R
selon la nature discrète ou continue de
l'expérience.
Dans le système précédent, on définit
Y comme un paramètre de performance d'un système stochastique de
dimension d caractérisé par:
* un output aléatoire Y;
* des inputs aléatoires X1, ..., Xd avec une
densité jointe f : Wd --p W+;
* une fonction de production P : Wd . W.
Ainsi, la simulation Monte-Carlo consiste à simuler de
manière indépendante N fois les inputs (X1N, ..., XdN)
et à calculer à chaque fois l'output correspondant YN = P(X1N,
..., XdN). N est appelé le nombre de trajectoires de la
simulation. Enfin, on obtient un échantillon d'outputs Y1, ..., YN iid
de taille N.
L'estimation de Y par l'estimateur de Monte-Carlo de taille N
s'écrit :
XN Yn
n=1
1
YN= N
=
1 N
XN n=1
P(X1n,...,Xdn)
L'estimateur Monte-Carlo est convergent vers sa cible en
probabilité presque sûrement et en distribution du moment qu'on
est capable de produire des échantillons Y1, ..., YN i.i.d.
Cette convergence est assurée par les deux
théorèmes suivants :
Théorème 1 (Loi des grands nombres)
Soit (Yn)n>1 une suite de variables
aléatoires réelles intégrables i.i.d de même loi que
Y,
alors : 1 N
|
PN n=1
|
Yn -!
N--*oo
|
E[Y] p.s dans L1. Si de plus, les (Yn)
sont de carré intégrable, on peut
|
1
YN=N
|
XN n=1
|
Y n et N =
|
tu u v
|
1 N-1
|
XN n=1
|
(YN - YN)2
|
montrer que la convergence se fait dans L2.
Théorème 2 (Théorème de la limite
centrale)
Soit (Yn)n>1 une suite de variables
aléatoires réelles i.i.d de carré intégrable de
même loi que Y. On suppose que Var(Y) > 0 et on pose
Alors
p \ YN -- E[Y ] J
N N!oo N (0, 1) en loi.
!
0N
Bien que la méthode de simulation de Monte Carlo est une
technique très utilisée dans l'évaluation des options,
elle présente quelques inconvénients qui sont principalement :
- une erreur de discrétisation donnée par
E[P(X1n, ..., Xdn)] -- E[P(X1, ..., Xd)];
- une erreur statistique dite erreur de Monte-Carlo donnée
par 1 N PN Yn -- E[Y ];
n=1
- une vitesse de convergence assez faible (de l'ordre de p~N
N , N > 0).
Compte tenu de ces erreurs, on propose pour la méthode de
simulation un intervalle de confiance à 95% autour de la valeur moyenne
YN. Cet intervalle s'écrit sous la forme suivante:
[ ]
YN -- 1:96 N
I95% = p N , YN + 1:96 N
p
N
Transformation inverse
On prend l'exemple du modèle NGARCH(1,1) qui
s'écrit comme suit:
St+1 lnSt
|
= r--
|
1
2
|
\/Ht+1 + Ht+1Et+1
|
Ht+1 =
/30+/1Ht+/2Ht(Et--À--O)2,
(1.3)
Q
Et+1 j Ft ~ N (0, 1),
Pour évaluer l'option à la date t 2 [0, T], il
faut connaître les variables St et Ht+1. Comme le montre
l'équation (1.3), ces deux variables dépendent de Et qui est une
variable aléatoire gaussienne sous la loi de probabilité risque
neutre Q.
Le principe de la simulation Monte Carlo consiste à
simuler plusieurs valeurs Et et Et+1 et par suite calculer St et
Ht+1. Ceci est possible puisque on connait la fonction inverse de la
fonction de distribution de la loi normale. En effet, dire que Et suit la loi
normale F, revient à dire qu'il existe une uniforme U sur [0, 1) tel que
Et = F ~1(U).
Ceci est justifié par le théorème suivant
:
Théorème 3 Soient F la fonction cumulative d'une
distribution continue D, F ~1 son inverse et U une uniforme sur [0,
1). On a alors :
F1(U) r D.
Ainsi, pour simuler un échantillon de E1, ..., ET i.i.d
selon la loi normale, on doit générer un échantillon U1,
..., UT i.i.d uniforme sur [0, 1) et puis le transformer par F ~1.
Il faut souligner que l'échantillon F ~1(U1), ..., F
~1(UT) a la même structure de distribution que
l'échantillon E1,...,ET.
Cette méthode appellée transformation inverse
est bien appréciée comme méthode de simulation d'inputs
car elle relie un input à une uniforme --[0, 1) par une relation
monotone.
1.3.4 Programmation dynamique
Définition 4 La programmation dynamique est une
méthode de résolution qui détermine la valeur optimale
d'un problème de décision selon le principe d'optimalité
de Bellman: «toute politique optimale est décomposée en
sous-politiques optimales».
Le programme dynamique utilisé dans notre travail
comporte deux caractéristiques spécifiques :
1. Le modèle GARCH. En effet, contrairement aux autres
méthodes de tarification proposées, la volatilité du prix
de l'actif sous-jacent n'est pas considérée constante et suit le
processus GARCH.
2. Des approximations polynomiales. En effet, il n'est pas
possible d'exprimer la valeur de l'option sous forme fermée. Donc on a
eu recours à des approximations polynomiales d'ordre 1 et 2.
|