CHAPITRE III :
Interprétation probabiliste des
EDPs
0. Introduction:
Le but de ce chapitre est de montrer les liens qui peuvent
exister entre la théorie des processus stochastiques et les
équations aux dérivées partielles (EDP). Les processus
stochastiques utilisés sont des processus possédant la
propriété de Markov. L'idée principale est de montrer que
l'espérance mathématique de fonctionnelles de ces processus
fournit une représentation probabiliste de solutions de certaines
équations. Nous donnons les outils nécessaires pour cette
présentation: les processus de diffusions obtenues comme solutions
d'équations différentielles stochastiques à partir du
processus de Wiener. Ces diffusions nous permettent, de représenter les
solutions d'EDP du second ordre, Nous exprimons ici les solutions d'EDP du
second ordre paraboliques avec divers types de conditions aux bords, comme
espérances de fonctionnelles de processus de Markov correctement
choisis. Nous étudions d'abord l'exemple le plus simple des
dérivées partielles linéaires, l'équation de la
chaleur, ensuite les techniques de martingales, de martingales exponentielles
qui conduisent à la généralisation connue sous le nom
d'équations de Feynman-Kac.
1. Générateur infinitésimal
:
Il est fondamental pour beaucoup d'applications que nous pouvons
associer un
operateur différentiel de second ordre A à une
diffusion d'Itô Xt ; la relation de base entre A et Xt est que A est le
générateur de la diffusion d'Itô Xt.
Définition 1:
Soit (Xt} une diffusion d'Itô homogène dans
WL, le générateur infinitésimal A de Xt est
définie par :
Af(x) = lim
~~~
Ex[fVD] -- f(x)
t , x E
L'ensemble des fonctions ( f: 1l --> 11 ) telle que la
limite existe en x est noté par DA(x), ou la notation : l'ensemble des
fonctions pour qui la limite existe pour tout x E Rn.
Pour montre la relation entre A et les coefficients a et b on a
le théorème suivant : Théorème
1:
Soit Xt la diffusion d'Itô homogène:
dXt = b(Xt)dt + Xt)dWt
Si f e cg(Ir) alors f e DA et
2 ~~~~~~~,~~~~ ~~~ 1
(x) (3.1)
~~~~~~
(x) +
~
~,~
Proposition 1:
Soit Xt la diffusion d'Itô non homogène:
dXt = b(t,Xt)dt + t, Xt)dWt
a2 f
+ 2 I(aaT)i, j(t, x) 1
(t, x) (3.2)
~~~~~~
~,~
Si f E col,20R+ x IV) alors f E
DAt et
~~~~~, ~~ ~ ~ ~~~~, ~~ ~~ ~~, ~~
oxi
~
Exemples 1:
1. Le mouvement brownien de dimension n et bien
sûr la solution de l'EDS :
dXt = dWt
(3.3)
2 Ox2
au
1 a2u
at .
c'est à dire nous avons b = 0 et a = In la
matrice identité; donc le générateur de Wrest:
~~ ~ 2 ~ ~~~
1 ; ~ ~ ~~~~, ... ~~~ ~ ~~ ~~~~~
~~~ ~
~
1
i.e. A = 2 ?, ou ? est le laplacien.
2. Soit W le Mouvement Brownien à une
dimension et soit X = ~~~
~~~ la solution de
l'EDS :
~
~~~ ~ ~~ ; ~~~0~ ~ ~~ ~~~ = dWt ; X2(0) = xo i.e. dX =
bdt + cidWt ; X(0) = ~~~
~~~.
Avec b = (01) and a = CD, le
générateur A de X est donné par :
1
02f
2
axe
Af = atof
+
Remarque : tous les espaces cités dans ce
chapitre sont définis dans l'annexe A. 2. Interprétation
probabiliste des EDP:
2.1 Equation de la chaleur :
Nous allons présenter quelques rapports entre les
diffusions et les équations aux dérivées partielles.
Grâce à la formule d'Itô, il est possible de donner une
interprétation probabiliste à certaines équations aux
dérivées partielles, ce qui permet ainsi de prouver l'existence
de solutions.
L'exemple le plus simple est celui de l'équation de la
chaleur en dimension 1. Considérons une barre métallique infinie,
assimilée à l'axe réel. Cette barre est chauffée et
on note f(x) sa température à l'instant t = 0 et pour la position
x sur la barre. Soit u(t, x), la température de la barre au temps
t et à la position x. Avec un choix approprié
d'unités, donc la fonction u est solution de l'équation de la
chaleur en dimension 1 :
avec la condition initiale, u(0,x) = f(x), x E IR, que l'on
suppose continue. On a alors le théorème suivant
:
Théorème2 :
1) Si u est une fonction continue sur [0, oo[de classe
C1,2 sur [0, oo[ x IR, et solution de (3.3), alors
:
u(t, x) = Ex(f(Wt))
(3.4)
, tf(t,x) E [0,oo[ x IR,+co
= f-co f 37)p(t; x, y)dy
où y 1-0 p(t; x, y) est la densité du mouvement
brownien issu de x au temps t. Cela entraîne donc
l'unicité d'une telle solution.
2) Supposons qu'il existe a > 0 tel que la fonction f
vérifie f IR,e-ax2|f (x)| dx < 8,
alors, pour tout 0 < t < 21 , la fonction u définie par (3.4)
est dérivable à tous ordres et est solution
de (3.3).
Cette fonction u est donc l'unique solution de l'équation
de la chaleur (3.3), qui soit une fonction continue et de
classe C1,2 sur [0, oo[ x IR,.
Preuve :
La preuve de la deuxième assertion utilise la formule
explicite de la densité p et consiste juste en une
vérification des dérivations sous le signe somme.
Le plus intéressant est la preuve de la première
assertion, qui va pouvoir s'étendre à des cas
plus généraux. L'interprétation probabiliste introduit un
retournement du temps. Soit T un réel fixé. Pour
montrer l'unicité de la solution u, on applique la
formule d'Itô à la fonction (t,x) 1-0 u(T -- t,x) et au
mouvement brownien W issu
de x.
On obtient alors :
u(T -- t, Wt) = u(T, x) + Mt
où M est une martingale nulle en 0.
Le terme à variation finie s'annule, du fait que u est
solution de (3.3). En prenant l'espérance dans chaque
terme de cette égalité, au temps t = T, on obtient
finalement que :
u(T, x) = Ex(u(0, WT)) = Ex(f(WT))
De ce theorème, on deduit egalement une solution de
l'equation de la chaleur retrograde, pour T > 0 fixe,
donnee par :
at 1 a2v
+ = 0 (3.5)
at 2 ax2
avec la condition terminale, v(T, x) = f(x), x E IR
Si nous sommes dans les conditions precedentes, l'unique solution
de classe C1,2 de (3.5) est donnee par :
v(t, x) = u(T -- t, x) = Ex(f(WT_t))
2.2. Formule de Feynman-Kac
multidimensionnelle:
On va generaliser l'approche precedente à d'autres
equations paraboliques. Plus precisement, nous allons tout
d'abord donner une representation probabiliste de la solution
d'une equation retrograde, apparaissant classiquement en mathematiques
financières. Pour T > 0 fixe, introduisons l'equation :
v 2
-- a + kv = 1 Av + g , (t, x) E [0, T) x IRa
at
(3.6)
v(T, x) = f(x) ,x E Ia
R
pour des fonctions k: IR~ --> [0, +00), g:
IR a x [0, +00) --> IR et f: IR a --> IR , les
fonctions k, g et f etant supposees continues et bornees. Une solution v est
dite solution du problème de Cauchy pour l'equation retrograde (3.6)
avec potentiel k et lagrangien g. Elle admet la representation
probabiliste suivante.
Théorème 3 :
Supposons que v soit une fonction continue sur [0, T) x IR
d, de classe C1,2 sur [0, T) x IR a,
solution de (3.6). Alors v admet la representation probabiliste : v(t, x) =
Ex [f (WT_t)exp f-- f oT t k
(Ws.)d.s}
+ f 0T_t g(t + u,Wu)exp{--
tou k (Ws.)d.s} du ] ;0 tT,x E IRa (3.7)
où Px est la loi du mouvement brownien W issu de x, et
Ex designe l'esperance sous Px.
Ce theorème donne en particulier un resultat d'unicite
pour les solutions de (3.6), continues sur [0,T] x IR a et de classe
C1,2 sur [0,T) x IR a.
Remarque :
Si on n'est pas sous des hypothèses qui assurent
l'existence d'une solution de classe ~1,2 au problème de
Cauchy, alors la fonction définie par le terme de droite de (3.7) peut
ne pas être de classe C1,2.
Les hypothèses sur les fonctions k,g et f peuvent
être allégées. Il faut qu'elles assurent l'existence des
termes stochastiques qu'on introduit dans la démonstration.
Un ensemble de conditions suffisantes pour que la solution v
de classe C1,2 existe et soit à croissance polynomiale est
donné dans Friedman [16]. Si on a ellipticité uniforme de la
matrice de diffusion, bornitude de a = ww*, b, k,
höldérianité de a, b, k et g, et croissance polynomiale de f
et g, alors on a existence d'une telle fonction v, et ainsi existence,
unicité, et une forme explicite de la solution v par le
théorème précédent.
On déduit alors du théorème
2 une représentation d'une solution de classe C1,2
de l'équation suivante :
at 2
+ kv = 1Au + g , (t, x) E (0, oo) x d
(3.8)
at
vérifiant la condition initiale :
u(0,x) = f(x) ,x E ~
Corollaire 1 :
Supposons que f: a --> , k: a --> [0, +oo) et
g: a x [0, +oo) --> sont
continues bornées et que la fonction u, continue sur [0,
+oo) x d et de classe ~1,2 sur [0, oo) x d, est solution
de (3.8). Alors u admet la représentation stochastique : u(t,x)=
Ex [f (Wt)exPf--f o k (Ws)ds}
(3.9)
+ f ot g (t -- 0, We)exp f-- f
o e k (Ws)ds} 01;0 < t < oo,x E
2.3. Problème de Cauchy pour des opérateurs
généraux :
On regarde ici la situation la plus générale que
l'on peut obtenir par cette approche. On considère un temps arbitraire
7' > 0 , des fonctions k(t,x): d --> [0, +oo), g(t,x):
a x [0, +oo) --> et f(x): a --> continues et telles qu'il existe L
> 0 et ~ > 0 avec :
If(x)I L(1 + 11x112A) ou bien f(x) 0 ; x E: Rd
Ig(t, x)I L(1 + 11x112A) ou bien g(t, x) 0 ; x E: IV;
0 t T (3.10)
On note At l'operateur defini par la relation (3.2), b et a
satisfaisant les hypothèses de lipschitzianite et de croissance
lineaire, et soit X le processus solution de l'equation differentielle
stochastique (1.33) associee. On note Et,x l'esperance sous laquelle
Xt = x. On a alors une forme generale du theorème de Feynman-Kac.
Théorème 4 :
Sous les hypothèses precedentes, soit v une fonction
continue sur [0. T] x Rd et de classe C1,2 sur [0, T) x R
d, satisfaisant au problème de Cauchy :
v(T,
x) =
f(x)
,x E
R d
et à la condition de puissance polynomiale :
1 -- at + kv = 1 Atv + g , (t, x) E [0,T) x
R d at (3.11)
max Iv(t, x)I M(1 + 11x112) ;x E: Rd
(3.12)
0.T
pour M > 0 et it 0. Alors v admet la representation
probabiliste :
(3.13)
v(t, x) = Et, [f (XT)exp f-- f r k
(s, Xs)ds}
+ f r g(u, Xu)exp{-- f tu k (s, X s)ds}
du ] ; 0 t T, x E IVI Comme dans le cas precedent, la preuve repose
sur la formule d'Itô appliquee à la semi-martingale :
s
v(t, x)expf-- 1 k (u, Xu)dul ; s E [t, T]
t
2.4. Interprétation des EDP de type elliptique
:
Soit b de Rddans Rdet a de Rd
dans les matrices d x d mesurables et bornees telles qu'il existe K > 0 tel
que :
11b(x) -- b(Y)11 + 110(x) -- a(Y)11 k11x -- Y11,vx,Y E Rd
Les normes etant les mêmes qu'au theorème 16 (chap.
I). On suppose que la matrice a = aaT verifie :
3a> 0 / (a(x)Y,Y) a11Y112
et que a est à derivees bornees.
W étant un P-Ye- processus de Wiener, on
dénote par Xx la diffusion solution de l'EDS :
t t
Xx = x + 1 b(Xs.x)ds + 1
o-(Xs.x)dWs. , t 0
o o
dont le générateur L s'écrit :
L =
avec
d d
;114
1=1
).1
Pour une fonction c de Rd dans R continue,
bornée et négative, on définit :
~
L = L + cl
a) Problème elliptique sans frontière
:
Supposons de plus que c(x) -- /3 < 0 avec /3 assez grand pour
qu'il existe 0 > 0 tel que :
(--Lu,u) 0iiuii2 (3.14)
pour tout u dans H1(Rd), L~ étant
considéré comme un opérateur de
Hl(Rd) dansH-1(Rd).
Pour f continue bornée sur Rdet de
carré intégrable, on considère l'équation : Lu(x) =
--f(x), x E Rd (3.15) La solution de ce problème admet une
représentation probabiliste suivante :
~ ~
u(x) = E 1 (Xexp {1
n c (Xs.x)ds} dt , Vx E Rd
(3.16)
o o
b) Problème elliptique avec condition de
Dirichlet :
Soit l) un ouvert borné de Rd, à
frontière al) assez régulière (C2 par exemple).
La condition de coercivité (1.14) devient :
(--Lu,u) eiiuii2 a(D) (3.17)
pour tout u de Ha(D) (nulle au bord).
L'inégalité (3.17) n'étant demandée que sur D,
on peut encore affaiblir les hypothèses sur c en incluant notamment
le cas L = A et c = 0. On dénote par Tx le temps d'atteinte
du fermé DC:
Tx = infft > 0: Xx D} (3.18)
Pour f continue sur D
|
= D U oD, on considère le problème :
f Lu(x) = --f (x), x E D
tu(x) = 0, x E oD (3.19)
|
dont l'unique solution u dans Ha(D) admet la
représentation probabiliste suivante, à l'aide de la diffusion
Xx:
~~ ~
u(x) = E 1 (Xexp {1
n c (Xsx)ds}dt ,Vx E D~ (3.20)
~ ~
Cette formule se démontre comme (3.16) en
remplaçant T par le temps d'arrêt Tx
dont on montre que son espérance est finie. Si, au lieu de la
condition de (3.19), nous considérons la condition inhomogène
u(x) = (P(x) pour x E oD, il suffit d'ajouter le terme :
~
E [(P(X~x)exP {1 c
(Xsx)ds}1
~
à (3.20), pour obtenir la solution de (3.19) avec cette
nouvelle condition au bord.
2.5. Interprétation des EDP de type parabolique
:
On se replace ici dans le cadre des diffusions à
coefficients dépendant du temps, c'est-à-dire que l'on se donne
deux applications, b de IE x RV dans IV et a
de IE x RV dans les matrices d x d, que nous supposerons
bornées donc vérifiée (avec a = aaT); il existe
K > 0 tel que pour tout t E ItEet tout x, Y E IV:
f IIb(t,x)II + IIa(t,x)II2 K2(1 +
IIxII2)
(3.21)
I IIb(t,x) -- b(t,Y)II + IIa(t,x) -- a(t,x)II KIIx -- YII
nous supposerons de plus que les dérivées spatiales
de a sont bornées. A tout (t, x ) de ILE x IV, on
associe le processus [Xsx,t,s > t} solution de :
{
= x
dXst,x = b(s,
Xst,x~ds + a(s,
Xst,x~dWs, s > t X,x
Pour T > 0 fixé, on se donne c, u~ et f tels que :
c E Cb([0, T] x 1d) , c(t, x) 0
u7 E L2(Id) n
Cb(Rd)
f E L2([0, T] x Id) n Cb([0, T]
x Id) Le générateur de (Xx,t) est
donné par :
d d d
1 L(t) = 211
aaxi(ctii(t,x) a ) + cti(t, x)
a
ax. axi
.1
1=1 j=1 i=1
d ,
octt -
Avec cti(t,x) = bi(t, x) -- 1 ax -I (t'
x)
-
i=1
on définit L_(t) par :
L_(t) = L(t) + c(t, x)I
a. Problème parabolique sans frontière
:
On considère l'équation parabolique
rétrograde (avec dormée finale en T ) sur IERd :
u(T,x) =
11
(x),
x E Irl Ce problème a une unique solution :
l
au _
+ L(t)u = --f, 0 t T (3.22)
u dans L2([0,T]: H1(d)) n
C([0,T]: L2(d)) qui se représente de la
manière suivante :
u(t, x) = E f r f (s, Xst,x)exp{f ts c (o,
X,t9,x)d0} ds
+E [17(X:,x)exp {f:. c (s,
Xst,x)ds}1
(3.23)
La démonstration se fait encore en appliquant la formule
d'Itô à :
s
1ps = u(t,Xst,x)exp ff
co,X,t9,x)del
entre s = t et s = T, en prenant l'espérance et en
utilisant (3.22).
Dans le cas homogène, où les coefficients (b, a, c,
f ) ne dépendent pas de t, on peut poser v (t,x ) = u
(T - t,x ) ; il résulte de (3.23) avec t = 0 que :
~
~~~, ~~ ~ ~ ~ ~~~, ~~ ~,~~~~~~~ ~
~ ~ ~~, ~~ ~,~~~~~ ~~
~
~3.24~
~~ ~~~~~~ ~,~~~~~ ~~ ~
~ ~ ~~, ~~ ~,~~~~~~
qui donne la solution au point (T, x) du problème :
{ay = L(t)v + f , t > 0
(3.25)
v(0, x) = u(x)
Dans le cas f = 0, cette formule est appelée
formule de Feynman-Kac énoncé précédemment
; dans le cas du mouvement brownien, en tombe dans l'exemple de
l'équation de la chaleur.
~3.26~
Ce problème a une unique solution u dans :
L2([0, T]: Ha(D)) n c([0, T.]:
L2(D))
En utilisant le processus (Xx,t,s Odéfini
précédemment, on introduit le temps
d'arrêt Tt,x défini par :
b. Problème parabolique avec condition de
Dirichlet :
Soit D un ouvert borné de Rd à
frontière al) de classe C2 .Avec les données du
paragraphe précédent, on s'intéresse au problème
:
~
~~ ~~ ~ ~~~~~~ ~ ~~, ~~~~ ~0, ~~ ~ ~ ~~~, ~~ ~ 0, ~~~
~0, ~~ ~ ~~ ~~~, ~~ ~ ~~~~~, ~~~~ ~
Tx = inf{s > 0: Xst,x D}
u(t, x) admet alors la représentation :
u(t, x) = E ~ ~~~, ~~
~~,~~~ ~,~~~~~~~ ~
~ ~ ~~, ~~ ~,~~~~~ ~~
~
~3.27~
~~ ~~~~~,~~~~~~~~~ ~,~~~~~ ~~ ~
~ ~ ~~, ~~ ~,~~~~~~
pour tout (t, x) E [0, T ] x D.
Cette formule se démontre comme (3.16) en appliquant ce
coup-ci la formule d'Itô, de s = t à s = Tt,x A T,
à iY's pour une suite (un) régulière
convergente vers u.
On peut ainsi considérer le problème non
homogène où la deuxième condition de (3.26) est
remplacée par u (t, x ) = (/) (t, x ) sur [0, T ] x aD ; il faut alors
ajouter à (3.27) le terme :
rTtx
E [II{Ttx<70(rt,x,X,t)exp fic (0, X
L,ide
t ll
A nouveau, si (b, a, c, f , (/) ) ne dépendent pas de t,
on peut poser v (t, x ) = u (T- t, x ) pour obtenir une représentation
de la solution de :
av
= L(t)v + f sur [0, T ] x D
at
avec les conditions v = (/) sur ]0, T] x aD et v(0, x) = u(x)
dans D.
3. Discrétisation de problème :
On a vu dans la partie précédente de ce chapitre
que l'interprétation des EDPs conduit à écrire la solution
sous forme E[f(X~)] avec la quantité f(Xt(w)) dépend de temps t
et du hasard w. Le processus X est une diffusion, il n'est alors pas possible
de calculer exactement E[f(X~)] et l'on a naturellement recours
à la simulation numérique. Tout d'abord une discrétisation
temporelle de la dynamique de X permit de générer une variable
aléatoire Xt dont la loi est proche de celle de Xt. On applique ensuite
la méthode de Monte Carlo : la moyenne arithmétique de N
copies indépendantes de la variable f(X~t)
converge vers E[f(X~t)].
3.1. Le schéma d'Euler :
La méthode d'Euler qui représente la
première étape dans la simulation, permet de donner une variable
aléatoire X qui est proche en loi de X, où X = (Xx)
est le processus de Markov solution de l'équation différentielle
stochastique.
Soit T un horizon de temps fini, on peut sans perte de
généralité prendre T = 1; on cherche à estimer la
loi de Xf. = Xf qui en général n'est pas connue. Pour ce faire on
approche Xxpar son schéma d'Euler d'ordre n > 1, disons
Xn,x défini de la façon suivante: on considère
la subdivision régulière
yn = (0 = ~~n <
· · · < tnn _i <
tnn = 1) de l'intervalle [0,1]
c.-à-d. tnn = k
/n et on pose X,x = x, et pour tout k = (0,1 ...,n
-- 1) et t E [tIn, q+1]
_
g n,x
t -- gnr,x + b (g tk
r,x) (t -- 41) + a (g tr,x)
(Wt -- Wtkn)
tk
Le schéma d'Euler est simulable. C'est une petite
perturbation Xxque l'on peut expliquer de la
façon suivante :
· On part à la date 0 de la valeur vraie x.
· Sur l'intervalle[0, tn], on gèle les
coefficients de l'EDS en leurs valeurs exactes b(x) et a (x)
à gauche de cet intervalle et on calcule la valeur gne en
ell de la
tl
solution de cette nouvelle petite EDS.
· Sur l'intervalle[t~n, tn], on
gèle les coefficients de l'EDS en leurs valeurs exactes
b(Xne) et CY ane ) à gauche de cet
intervalle et on calcule la valeur re en q de
tl tl t,
la solution de cette nouvelle petite EDS.
· Et ainsi de suite...
De plus on a les variable aléatoire
Wtil.ct+l --
WtIct sont mutuellement indépendantes et
de même loi gaussienne centrée de variance
q+1 -- ~~n.
3.2. La méthode de Monte Carlo :
On voit que les EDPs peuvent être
interprétés à l'aide de processus de Markov bien
choisis : on interprète u à l'aide du
générateur infinitésimal du semi-groupe
de transition d'un processus de Markov (Xt, t 0). Les
motivations de cette démarche peuvent être
d'ordre théorique et/ou numérique. En effet, en particulier
lorsque (Xt, t 0) est solution d'une équation
différentielle stochastique, le calcul stochastique
permet parfois d'obtenir des résultats d'existence, d'unicité ou
de régularité de la solution de l'EDP.
D'autre part, dès que l'on peut écrire la
solution de l'EDP sous la forme d'une espérance du type
u(t) = EF(X) avec F fonctionnelle sur l'espace des trajectoires
de X entre 0 et t, on peut chercher à développer une
méthode de Monte-Carlo pour approcher
u(t) même si on ne sait pas simuler des trajectoires exactes de X : il
suffit de construire un processus proche (en loi) de X, comme
on a vu dans la paragraphe
précédente (schéma d'Euler), en simuler
un grand nombre de trajectoires entre 0 et t, évaluer
la fonctionnelle F le long de chaque trajectoire simulée et
enfin moyenner toutes les valeurs obtenues.
Donnons un exemple élémentaire. Considérons
l'équation de la chaleur :
at
(t, x) = vAu(t,x), t f(t,x) E ]0,7] x Irl
(3.28) at avec pour condition initiale u(0, ·) =
uo( ·) une fonction mesurable bornée. Le
paramètre v est strictement positif et est appelé
« paramètre de viscosité » en
mécanique des fluides ou « volatilité » en
finance.
On vérifie facilement d'après qui
précédent que la fonction :
V(t,x) E ]0,7] x Irl, u(t,x) = Euo(x + V2vWt)
où (We) est un mouvement brownien standard à
valeurs dans Irl, satisfait (3.28) ainsi que
1imt,o u(t,x) = uo(x) en tout point de continuité de uo. Par
application de la loi des grands nombres, on peut donc
approcher u(t, x) par :
N
)
N1 1
uo(x + V2vtgj(w)
j=1
où les (gj(w)} forment une famille de variables
aléatoires gaussiennes indépendantes, à
valeurs dans Irl, centrées et de matrice de covariance
Id Ird . Cet algorithme est très simple
à mettre en oeuvre : on sait effectuer des tirages gaussiens
indépendants à l'aide d'appels à un
générateur de nombres
pseudo-aléatoires uniformément
répartis. La vitesse de convergence est décrite par des
théorèmes- limite tels que le théorème de limite
centrale, la loi du logarithme itéré, l'inégalité
de Berry-Essen : la convergence est d'ordre
1/VN, elle est donc lente. Toutefois, le coût de
l'algorithme croît seulement linéairement avec la dimension d de
l'espace puisqu'on simule Nd trajectoires d'un mouvement
brownien unidimensionnel standard, et ce coût est
indépendant du paramètre v.
Typiquement, les méthodes de
Monte-Carlo pour des équations aux
dérivées partielles elliptiques ou paraboliques
peuvent permettre de traiter des problèmes
extrêmes, en très grande dimension ou avec de
très faibles viscosités, lorsqu'il serait difficile, ou
extrêmement coûteux, d'utiliser des algorithmes classiques.
A l'aide de schéma d'Euler on peut écrire :
N
)
u(t,x)- 1
N Luo(~~r,x(wi)
i=1
|