2.3.3 La méthode du maximum de vraisemblance
exacte
L'estimation d'un modéle AR(p) par la
méthode du maximum de vraisemblance est délicate car la fonction
de vraisemblance est très complexe et n'a pas de dérivée
analytique. Cette difficulté provient de l'interdépendance des
valeurs , ainsi que du fait que les observations antérieures ne sont
toutes disponibles pour les p premiers valeurs. Pour determiner la
vraisemblance, il est nécessaire de supposer connue la loi des erreurs.
Nous supposerons les erreurs normalements distribuées. Cette
méthode fait appel à la fonction d'autocorrélation pour
déterminer la fonction d'autocorrélation de toutes les
données de la série; ce qui permet d'évaluer la
vraisemblance conjointe. Soit
r
?
?????????????
? ?????????????
Yt
Yt-1
Y=
Yt-2
...
Y2 Y1
24
et soit la matrice T × T de covariance
Y (T le nombre d'observations de l'échantillon). La vraisemblance de Y
est
2 exp?-Y '-1Y
f(Y |ö, ó2) =
(2ð)-T 2 ||-T
2
On en déduit la forme de la log-vraisemblance (exacte, et
non conditionnelle),
L(ö,ó2;Y) = -T 2
ln(2ð) - T 2 ln || - 1 2Y
0-1Y
25
avec F la matrice des autocovariances ,
?
F= ?????????????
Y0 Y1 ... ...
YT-1 YT
Y1 Y0 ... ... YT-2 YT-1
Y2 Y1 ... ... YT-3 YT-2
... ... ... ... ... ...
YT-1 YT-2 ... ... Y0 Y1
YT YT-1 ... ... Y1
Y0
|
?? ?????????????
|
Ces autocovariances sont données par les paramètres
du modèle (exceptées les constantes) ö et
ó2. Souvent on a recours à un algorithme de
maximisation pour trouver le vecteur de paramètre maximisant la
log-vraisemblance. D'une manière générale, cette
méthode est considérée comme étant plus
précise que celle du maximum de vraissemblance approché ou
conditionel. On peut noter que la maximisation de la vraisemblance exacte est
un problème d'optimisation non-linéaire.
2.3.4 La méthode du maximum de vraisemblance
conditionnel
Une manière de simplifier la complexité de la
fonction de vraisemblance est de conditionner cette fonction aux p
premières observations c'est â dire on utilise la densité
de Rt sachant Rt-1, Rt-2, ... , pour
estimer les paramétres du modele AR(p). Ces
données sont supposées suivre conditionnellement une loi normale.
En considérant l'équation (2.4), cette densité est donc
:
2 exp-~2 i
f(Rt|Rt-1, Rt-2, ... ,
ö, ó2) = (2ðó2)-1
2ó2
2 1 -(Rt -i=1
öiRt-i)2
= (2ðó) 2 exp
2ó2
Et étant un bruit blanc, on a la
vraissemblance conjointe qui s'exprime comme suit :
f(Rt|Rt-1,Rt-2,...
,ö,ó2) =
|
?t i=1
|
- 2
(2ðó2) 21 exp i
2ó2?
|
la fonction log-vraissemblance est définit par
2 i
1
L(ö, ó2;
Rt|Rt-1, Rt-2, ...) = - ?
ln(2ð) - ? ln(ó2) - 1
t?i=1ó2 .
2 2 2
NB :
La condition du premier ordre pour la moyenne des
paramètres d'une log-vraisemblance normale ne dépend pas de
ó2. Ainsi l'estimateur du maximum de vraisemblance
de la variance est :
àó2 = T-1
|
?T t=1
|
(Rt - ö0 - ö1Rt-1
- ... - öpRt-p)2
|
= -
|
1
2
|
?T t=1
|
?T
1 ln?T-1 t- T PT
t
t=1 2
ln(2ð) - T?t=1 2PT
2
2 t=1 2
t=1 t
|
|
|
|
= -
|
1
2
|
?T t=1
|
?T
1 ln?T-1
ln(2ð) - T?t=1 t-
T
2
2 2
t=1
|
= -
|
1
2
|
?T t=1
|
?T
T 1 ln?T-1 t
ln(2ð) - T?t=1 2
2 - 2 t=1
|
= -
|
1
2
|
?T t=1
|
T T
ln(2ð) - 2 - 2
ln(àó2).
|
26
= T-1
L(Rt|Rt
Ceci introduit dans la log-vraisemblance fait que
? 1
T
Et 2
-1, Rt-2, ... ; ö,
ó2) = - ln(2ð) + ln?T-1
Et +
2 t=1 t=1
T-1PtT=1
Et2
= -
|
1
2
|
?T t=1
|
?T
1 2
ln?T-1 t- T t
ln(2ð) - T?t=1 2
T?t=1 T-1PT
2 2 t=1 2
t=1 t
|
27
La maximisation de cette fonction par rapport aux
paramètres ö correspond à la minimisation des
erreurs du modèle.
Autrement dit
max L(Rt|Rt-1, Rt-2, . .
. ; ö, ó2) = -T2
ln àó2
avec
àEt = Rt - ö0 -
ö1Rt-1 - ö2Rt-2 - . . .
- öpRt-p
L'estimateur du maximum de vraisembance conditionnel
correspond ainsi à celui des moindres carrés. L'estimateur obtenu
sera équivalent à l'estimateur inconditionnel dans de grands
échantillons et tous deux ont la même distribution asymptotique
1. Il peut être biaisé2
NB : Ces estimations nous permettent de faire
des prévisions.
|