IV.2.5.3.3- Test de cointégration
Dans la littérature, les tests de cointégration
les plus utilisés sont ceux de Johansen et Engle et Granger. Ce test
permet la vérification d'une relation entre deux ou plusieurs variables
en éliminant le risque de régression falacieuse. Puisque le test
de cointégration d'Engle et Granger (1987) vérifie la
cointégration entre plusieurs variables, c'est ce dernier qui sera
utilisé dans la suite de ce travail. Nous allons dans ce travail estimer
la relation de long terme par les MCO. Le test de cointégration
effectué sur nos deux modèles relève une relation de
cointégration dans les deux modèles.
Pour tous les modèles présentés ci-haut,
il est important de faire les tests économétriques de diagnostic
et de validation des modèles.
IV.2.6 Tests de diagnostic
On distingue plusieurs tests de diagnostic entre autres : ? Test
de racine unitaire :
53
Du fait du problème de rareté de la
stationnarité des variables économiques et financière, il
est toujours important de vérifier la stationnarité des
séries étudiées. Il existe dans la littérature
plusieurs méthodes de vérification de la stationnarité ou
non d'une série. On note la méthode graphique (qui ne fourni
qu'une indication quant' à la stationnarité ou non), la fonction
d'auto corrélation et le test de racine unitaire. Il est donc important
de faire un test de racine unitaire. Les tests de Dickey Fuller, de Dickey
Fuller augmenté (DFA) et de Phillips Perron sont les plus
utilisés pour vérifier la stationnarité des séries.
Du fait que le test de Dickey Fuller s'effectue en supposant que les termes
d'erreur suivent une loi normale alors, que celui de Dickey Fuller
augmenté (DFA) tient compte de l'auto corrélation des erreurs
dans le temps, c'est le test de DFA et celui de Phillips Perron qui en plus de
l'auto corrélation des erreurs prend en compte la cointégration
des variables que nous allons utiliser ici.
? Test de cointégration :
Il est utilisé quand les séries ne sont pas
stationnaires à niveau et intégrées de même
ordre.
? Test de Ramsey :
Il permet de voir si le modèle soufre de l'omission
d'une ou plusieurs variables pertinente en introduisant une variable
fictive.
IV.2.7 - Tests de validation du modèle
? Test de l'autocorrélation de Breusch-Godfrey (BG):
L'autocorrelation des résidus rend caduque les
commentaires sur la validité des modèles ou des tests
statistiques, il convient de tester l'autocorrelation des erreurs par le test
de BG.
? Test d'hétéroscédasticité de WHITE
:
Il permet de voir si les erreurs sont homoscédastiques
ou non. L'hétroscédasticité qualifie les données ou
les séries qui n'ont pas une
54
variance constante. Or les séries doivent être
homoscdastique pour
présenter les meilleurs résultats.
? Test de Student :
Il est utilisé lorsque l'échantillon est
inférieur à 30
H0 : le paramètre n'est pas significativement
différent de 0
H1 : le paramètre est significativement différent
de 0
Le tcal valeur estimée du paramètre
=(valeur estimée - valeur réelle)/écart
type de la valeur estimée du paramètre.
Le calcul de cette valeur nous permet de la comparer à la
valeur lue
dans la table qui est : tcal=tá/2(n-k-1) pour une valeur
de á choisie. Si
tcal<tlue,alors on accepte H0 et on conclut que le
paramètre n'est pas
significatif
? Test de significativité de Fisher
Il s'effectue sur la base de la valeur du coefficient de
détermination R2,
on a : FCal = (n-k)R2/(k-1)(1-R2), cette
valeur est comparée à celle lue dans
la table de Fisher à (k-1,n-k-1)degré de
liberté.
H0 : tous les paramètres du modèle sont nuls
H1 : au moins un paramètre est différent de
zéro.
? Test de normalité de Jarque-Bera :
Il permet de savoir si les variables du modèle suivent une
loi normale ou
non. L'hypothèse de normalité précise la
distribution statistique des
estimateurs.
|