III.3.AUTRES TESTS ECONOMETRIQUES
1° test d'autocorrélation des erreurs
Les hypothèses H3 et H4 stipulent successivement que
les erreurs sont non corrélées (ou indépendantes) et que
la variance des erreurs est constante (homoscédasticité). Lorsque
H3 est violée, nous sommes donc en présence
d'autocorrélation des erreurs. Les estimateurs restent sans biais mais
ne sont plus à variance minimale. Dans l'état normal des choses,
la matrice des variances covariances des erreurs est :
251654144251653120
E ( ) E ( ) ... E ( ) 0 ... 0
E ( ) E ( ) ... E ( ) 0 ... 0
Ùì=E ( ) = ... = ...
= I
E ( ) E ( ) ... E ( ) 0 0 ...![](Analyse-des-variations-de-l-inflation-et-du-taux-de-change-en-RDC-de-1983--201376.png)
En cas d'autocorrélation des erreurs, cette matrice
n'est plus composée de zéro à l'extérieur de la
diagonale principale, puisque dans ce cas, Cov(![](Analyse-des-variations-de-l-inflation-et-du-taux-de-change-en-RDC-de-1983--201377.png) ) ? 0, pour j ? 0.
Ùì ? I lorsque il y a autocorrélation car plusieurs termes
non diagonaux et éventuellement tous deviennent non nuls. H3 n'est plus
vérifiée car Cov(![](Analyse-des-variations-de-l-inflation-et-du-taux-de-change-en-RDC-de-1983--201380.png) ) ? 0.
1 2 3 4 5 6 7 8 Temps
e4 e5
e6
e3 e7
e1 e2
e8
et +
0
-
251660288L'autocorrélation apparaît lorsque les
erreurs sont liées par un processus de reproduction. On distingue
l'autocorrélation positive de l'autocorrélation négative.
Autocorrélation positive
1 2 3 4 5 6 7 8 Temps
e3
e6
e2
e1 e3
e5 e7
et +
0
-
251661312
Autocorrélation négative
Plusieurs raisons peuvent justifier l'autocorrélation des
erreurs :
· l'absence d'une variable explicative importante dont
l'explication résiduelle permettrait de rendre « un bruit
blanc » les erreurs ;
· une mauvaise spécification du
modèle : la relation entre la variable dépendante et la(les)
variable(s) indépendante(s) est non-linéaire ;
· un lissage par moyenne mobile (MA) ou une interpolation
des données crée une autocorrélation artificielle des
erreurs due à l'usage de ces opérateurs c'est-à-dire une
erreur de mesure de la variable dépendante.
L'autocorrélation des erreurs est
fréquente dans le modèle en séries temporelles et peu
probable dans les modèles en coupes instantanés (cross-section
data) parce que la collecte des données s'effectue de manière
aléatoire et la succession des valeurs de la variable à expliquer
n'a aucune raison de générer une autocorrélation.
III.3.1. Les
conséquences de l'autocorrélation :
Les estimateurs de l'OLS demeurent sans biais car b =
(X'X)-1X'Y ne contient pas de variance de l'erreur, mais deviennent
inefficaces. En effet, var (b) ? ó2(X'X)-1. Or,
c'est la ó2b et ó b [ou SE(b)]
qui sont utilisées pour construire les tests d'hypothèses. Tous
les tests d'hypothèses deviennent faux c'est-à-dire que les
procédures d'inférence statistique ne sont plus valables.
La matrice Ùì = E(ì'ì)
? ó2I n'est plus composée de zéros
à l'extérieur de la diagonale principale puisque cov
(ìiìj) ? 0 et donc les estimateurs OLS
n'ont plus une variance minimale. En effet, ó2b =
E[(b-â) (b- â)'] = E{[(X'X)-1X'ì]
[(X'X)-1X'ì]'}
= E[(X'X)-1X'ìì' X
(X'X)-1] =
(X'X)-1X'E(ìì')X(X'X)-1 =
(X'X)-1X' Ùì X(X'X)-1
Ce qui veut dire que b estun estimateur de â dont la
première diagonale de la matrice des variances-covariances est
supérieure à celle de ó2(X'X)-1.
|