3.3 La methode de PMV
Dans cette approche, l'utilisation de la méthode du QMV
ou PMV est particulièrement intéressante pour les modèles
GARCH car elle est valide, asymptotiquement, pour tout processus GARCH
strictement stationnaire (sous des conditions de régularité
mineures), sans hypothèse de moments
sur le processus observe. Par consequent, la fonction de
vraisemblance definissant l'estimateur du MV sous l'hypothese de normalite et
la fonction de pseudo-vraisemblance de l'estimateur PMV (ou QMV ) sont les
memes.
Les conditions de regularite sont toujours de trois types :
1. des conditions de stationnarite forte du processus,
2. des conditions d'existence des derivees et des moments
apparaissant dans les diverses formules,
3. des conditions d'indentifiabilite des parametres 0, qui
doit pouvoir etre retrouve, sans ambigüite a partir des deux premiers
moments conditionnels.
Definition 3.3.1 La fonction de log-vraisemblance
associée a un échantillon de T observations (yi, y2, .., yT) de
Yt- sous l'hypothese de normalité de la loi
conditionnelle de Yt sachant s'écrit :
log LT (0) = - 2 log (27r) -- x-N
t=1
|
1 x-N
log (4 (0)) -- 2
t=1
|
(Yt int (0))2
|
|
h? (0) :
|
L'estimateur du PMV OT du parametre 0 est une solution du
probleme :
Exemple 3.3.1 Appliquons cette formule au cas d'un modele de
régression linéaire avec erreur ARCH (p) :
f yt = + Et
1 Et =ratht (0)
avec nt est JV .d. (0, 1) et
E (Et/Et-1) = 0; V (Et/Et-1) = c +
|
x-N p
i=i
|
Oz "2 ti:
|
V (Yt/it-1) = ht (0) = c +
|
x-N p
i=i
|
(Yt-i OXit-i)2
|
Dans ce cas, on a donc :
E (Yt/It_i) = mt (0) = QXt;
oI ~= (0,c, OD · · ;Op)
E IRP+2 La log-vraisemblance
s'écrit :
T
log LT (0) = -- 2 log (27r) -- E
t=1
|
log c +
|
X p
t=i
|
(Y-i OXt-i)2)
|
1
2
~
XT t=i
2 2
(Y-t /3Yt-z) x [C E oz (Yt_i - oxt-z)1
-1
i=1
Definition 3.3.2 Les estimateurs du MV sous l'hypothèse
de normalité ou du PMV, notés OT, des paramètres
0 E Rk, satisfont un système non linéaire a K
équations :
~~~~~=^~T = 0
0 log LT (0) 00
avec
0 log LT (0)
00
|
~~~~~=^~T
|
= 2
|
XT t=i
|
1 Oht (0)
h? (0) 00
|
~~~~~=^~T
|
+E
t=i
|
(Yt -- mt (6))2 Oht (0) N (0)
ae
|
~~~~~=^~T
|
+E
t=i
|
Yt -- nit (0) h? (0)
|
amt (0)
00
|
~~~~~=^~T
|
Remarque : On peut montrer que ce systeme peut se
décomposer en deux sous systemes lorsque les parametres 0 interviennent
de façon séparée dans l'écriture de
l'espérance et de la variance conditionnelle. Ainsi, si l'on a 0 = (a,
0) oft a n'apparait que dans l'espérance conditionnelle et dans la
variance conditionnelle, on peut décomposer ce systeme en deux sous
systeme puisque :
0 log LT (a) 0a
|
~~~~~=^~T
|
=
|
XT t=i
|
Yt -- nit (&) h? (S)
|
amt (a)
as
|
a a
|
a log LT (0) 00
|
~~~~~=^~T
|
= 2
|
XT t=i
|
1
|
aht (3)
00
|
~~~~~=^~T
|
+E
t=i
|
OYt -- nit CO2
|
aht (3)
00
|
|
h? C4)
|
N C4)
|
s="4
|
Dans, le cas général du PMV, on sait que
l'estimateur 0 est asymptotiquement normal et que sa matrice de variance
covariance est définie par la formule suivante.
Propriete 3.1 Sous conditions de régularité,
l'estimateur du PMV est asymptotiguement convergent et normal.
-VT (Bt -- 0°) --> Ai
(0,J-1/J-1)
T--K:o
ofi la matrice de variance covariance asymptotigue de
l'estimateur du PMV est calculée a partir de :
I_
J = Eo 1 02 log LT (0) 1, I =
EE°10 log LT (0) a log LT (0)1 I_ 00
00' 00 00' i
|
·
|
Naturellement dans la pratique les matrice I et J sont
directement estimées en remplacant l'espérance E0 par
la moyenne empirique et le parametre inconnu 0 par son estimateur convergent 0.
Ainsi, on utilise :
J = _1
T
|
T
E
t=1
|
02 log LT (0)
|
~~~~0=.T
|
00 00'
|
I = 1
T
|
T
E
t=1
|
0 log LT (0)
00
|
~~~~=.T
|
0 log LT (0) 00'
|
=.6T
|
et la variance estimée de OT vérifie alors
V (/T (et -- 61) = k1i j-1 3.3.1 Exemples
Les formules donnant les précisions asymptotiques des
estimateurs du PMV peuvent se simplifier pour certains modeles particuliers.
i) Modeles conditionnellement normaux
La méthode coincide avec la méthode de MV. On a
Ku (0°) = 3, Mat (0°) = 0, et on
vérifie directement que I = J et
V (VT (6 1 t -- 19°)) = j-1 = I-1.
ii) Parametrages independants de la moyenne et de la variance Un
autre cas simple est celui on le parametre 0 peut de décomposer en
0= ( 0) '
a n'apparaissant que dans la moyenne et 0 que dans la variance
: mt (0) = mt (a) et ht (0) = ht (0) .
Nous avons alors :
2 h 1 i
@mt(~~) @mt(~~)
E 0
h2 t (~~) @~ @~0
J = 4h 1 i
@ht(~) @ht(~)
0 E 2h2 t (~~) @~ @~~
|
3 5
|
3
5 -
E0 L
F 1 amt(a0) aht(0 0) m3t (00)]
I = (0) as as r
E° [ 2h3 t / 2 (3°) as aa.
E0 [ 3 [ /41 0 amt
(a° ) amt (a° ) ]
1 ° as aS. amt(a0)
aht(0°) mu (0°)]
/ 2 E
2ht 03 ) r 1
aht(0°) aht(0°) ( K, (0°) -- 1)]
° L4h1(0°) as as' \
Les matrices de variance-covariance asymptotiques des estimateurs
sont :
~ ~
p ~ 1 @mt (~~) @mt (~~) ~~~1
V T (^~T ~ ~~) = E ;
h2 t (~~) @~ @~~
et
~ ~
p ~ 1
^~T ~ ~~~~ @ht (~~) @ht (~~) ~~~1
V T = E ~
2h2 t (~~) @~ @~~
~ 1 ~
@ht (~~) @ht (~~)
E @~~ (Ku (~~) ~ 1) ~
4h2 t (~~) @~
[Eo [
|
1 014 (13°) aht (13°)11
2h2t (0°) 00 00
|
-1
|
Plus les queues de distributions conditionnelles sont
épaisses (au sens kurtosis grande), moins les estimateurs des parametres
figurant dans la variance conditionnelle sont précis.
|