3.1.2 Méthodes d'estimation des
paramètres
La littérature est vaste mais cette étude a
retenu seulement deux méthodes parmi les utilisées,
méthode de maximum de vraisemblance et méthode bayésienne,
à cause de leur fondement mathématique solide et leur robustesse
dans les études empiriques.
3.1.3 Méthode de maximum de vraisemblance
Cette méthode est couramment utilisée en analyse
statistique empirique
([51],[19],[42], [16], [142],[121], [159],[96],[48],[69],[148],
[137],[70])
50
On considère le problème de paramètre
è basé sur l'observation du processus X =
{Xt, 0 < t < T} et étudions ses
propriétés asymptotiques
T
quand T -+ oo. On note par
LT(è) la dérivée de Radon - Nikodym
dpô .
L'estimateur de maximum de vraisemblance
àèT est défini par la relation
LT(
|
àèT) = sup
\J
èEÈ
|
LT(è).
|
On suppose qu'il existe un estimateur mesurable du maximum de
vraisemblance. Les conditions suffisantes peuvent être données
pour l'existence d'un tel estimateur.
On sait que
QH,è(t) =
|
dJo
t
dWtH kH(è,
s)a(s) ds.
|
= dWH d Lt
kH(è,s)á((s))ds
+ èdWH
ftkH(è,s)â((s))ds.
t t
= ë1 + èë2.
Alors
logLT(è) = f
T(ë1 + èë2)dZt - 2
JoT (ë1 +
èë2)2dWsH
et l'équation de vraisemblance est donnée par
Z0
|
T ë2dZt - fT (ë1 +
èë2)ë2dWsH =
0.
|
Par conséquent, l'estimateur du maximum de vraisemblance
est donné par
.
f0 T ë2(t)dZt
- f0 T
ë1(t)ë2(t)dW
H
àèT = t
f0 T
ë22(t)dWtH
Soit è0 le vrai paramètre. En utilisant le
fait que
Z T
dZ(t) = 0 (ë1(t) +
è0ë2(t))ë2(t)dWH(t)
+ dMH(t).
On montre que
dPèT
dPT
è0
Z T Z T
= exp{(è - è0) 0
ë2(t)dMH(t) - 1
2(è - è0)2 0 ë2
2(t)dWH(t)}.
51
En suivant la représentation de la dérivée
de Randon - Nikodym, on obtient
__ f0
ë2(t)dMH(t)
(àèT - è0)
f0T ë22(t)dWH(t)
Le théorème suivant établit la
consistance forte de l'estimateur du maximum de vraisemblance.
'
Théorème 3.1.2. L
estimateur du maximum de vraisemblance
èN,E est fortement consistant,c'est- à -d
ire, èN,E ? è0 presque surement
[P90] quand T ? 8 en considérant
f0T ë2(t)dWH(t)
? 8 presque surement [P90] quand T ? 8.
3.1.4 Méthode d'estimation Bayésienne
Cette méthode s'impose de plus tant dans les analyses
théoriques qu'empi-
riques
([39],[134],[65],[64],[102],[182],[183],[7],[123],[143],[144],[79],[27],[37],[40],
[156],[52],[125],[59],[158],[163],[160],[108].
On suppose que l'espace du paramètre O est un
ouvert et A une mesure de probabilité a priori sur l'espace
paramétré O. En plus,on suppose que A a la
densité ê() en accord avec la mesure de Lebesgue. La
fonction de densité
est continue et positive dans un ouvert au voisinage de
è0,le vrai paramètre. f T
Soit öT = IT RT = IT 0
ë2(t)dMH(t), t = 0 et
çT = IThRiT =
I2 f0 T ë22(t)dMH(t),
t = 0.
T
L'estimateur du maximum de vraisemblance satisfait la relation
suivante
öT = (
|
àèT -
è0)I-1
T çT.
|
La densité de probabilité a posteriori de
è basée sur l'observation XT =
Xs, 0 = t = T est
dPe dPï
p(è|XT) =
dPe ë(è)/ fo dPe
ë(è)dè.
0 0
Soit t = I-1
T (è0 - BT) et nous
définissons
p*(è|XT) =
ITp(àè + tIT|XT).
Alors, la fonction
p*(è|XT) est la densité
de probabilité a posteriori de la
variable transformée t = I-1
T (è0 -
àèT).
52
|