III.2.3. Test d'homoscédasticité: Test de
White
III.2.3.1 Définition et présentation du
test
L'homoscédasticité, ou égale (Homo)
variance (scédasticité) d'un modèle est testé pour
voir si toutes les variables explicatives, sauf la constante, ont un effet
significatif sur la variable à expliquer. Dans ce cas, la variance de
l'erreur est constante pour toutes les estimations.
Le test de White permet de tester plusieurs variables
explicatives censées être responsables de
l'hétéroscédasticité des erreurs. Lorsqu'il y a
hétéroscédasticité, la variance de l'erreur est
liée aux valeurs de la variable explicative responsable de
l'hétéroscédasticité.
Les hypothèses du test de White
s'écrivent :
H0 : V(åt) =
á0 et á1 = á2 = 0 ;
il y a homoscédasticité des erreurs
H1 : V(åt) = á0 +
á1Yt + á2Y2t ; il y a
hétéroscédasticité des erreurs
III.2.3.2 Règle de décision
La règle décision au seuil de 5% est la
suivante :
· Le modèle est homoscédastique si
« P-value » > 0,05
· Le modèle est
hétéroscédastique si « P-value » <
0,05
Lorsqu'il y a des variables dichotomiques dans le
modèle, on ne les prend pas en compte dans le test, car elles ne peuvent
pas être responsables de l'hétéroscédasticité
(car ce sont des variables dont les valeurs ne sont pas liées à
la variance de l'erreur).
Pour ce qui nous concerne, l'application à notre base de
données a fourni les résultats suivants :
III.2.3.3 Application à la base de
données
Ø Enseignement primaire
D'après le tableau de l'annexe 10, tableau 20,
l'on constate que « P-value » = 0,0031< 0,05 ;
on rejette l'hypothèse H0 et nous concluons qu'il y a
Hétéroscédasticité des erreurs.
Ø Enseignement secondaire général
et technique
D'après le tableau de l'annexe 10, tableau 21, l'on
constate que « P-value » = 0,00012 < 0,05 ; on
rejette l'hypothèse H0 et nous concluons qu'il y a
Hétéroscédasticité des erreurs.
De manière globale donc, nous pouvons conclure que
notre modèle est Hétéroscédastique ; ceci
signifie pratiquement qu'il y a risque de colinéarité entre les
variables explicatives ; Dans ce cas une variable explicative de la
variable dépendante, est à son tour tributaire (expliquée)
par une autre variable explicative.(Ex : Le nombre élevé
d'enfants explique le faible revenu de la famille, et cette dernière
explique à son tour le faible CAP)
La conséquence de
l'Hétéroscédasticité est le biais de l'estimation
des coefficients de régression, et l'augmentation ou la diminution des
t-test.
En principe, s'il est observé dans un modèle une
quelconque Hétéroscédasticité, c'est toujours le
fait d'une ou de plusieurs variables
Nous allons corriger
l'Hétéroscédasticité en utilisant la commande STATA
nommée ROBUST
Ø Pour l'enseignement primaire
D'après le tableau de l'annexe 10, tableau 22, nous
observons que le t-test associé à la variable
« EDUCATION » a augmenté, cette
variable restant toujours significative au seuil de 1%.
Ø Pour l'enseignement secondaire
général et technique
D'après le tableau de l'annexe 10, tableau 22, nous
constatons encore que le t-test associé à la variable
« EDUCATION » a augmenté, cette
variable restant toujours significative au seuil de 1%.
|