III.2.3.1 Définition et présentation du test
L'homoscédasticité, ou égale (Homo)
variance (scédasticité) d'un modèle est testé pour
voir si toutes les variables explicatives, sauf la constante, ont un effet
significatif sur la variable à expliquer. Dans ce cas, la variance de
l'erreur est constante pour toutes les estimations.
Le test de White permet de tester plusieurs variables
explicatives censées être responsables de
l'hétéroscédasticité des erreurs. Lorsqu'il y a
hétéroscédasticité, la variance de l'erreur est
liée aux valeurs de la variable explicative responsable de
l'hétéroscédasticité.
Les hypothèses du test de White s'écrivent :
H0 : V(åt) = á0 et á1 = á2 = 0 ; il y
a homoscédasticité des erreurs H1 : V(åt) = á0 +
á1Yt + á2Y2t ; il y a
hétéroscédasticité des erreurs
III.2.3.2 Règle de décision
La règle décision au seuil de 5% est la suivante
:
? Le modèle est homoscédastique si « P-value
» > 0,05
27
? Le modèle est hétéroscédastique si
« P-value » < 0,05
Lorsqu'il y a des variables dichotomiques dans le
modèle, on ne les prend pas en compte dans le test, car elles ne peuvent
pas être responsables de l'hétéroscédasticité
(car ce sont des variables dont les valeurs ne sont pas liées à
la variance de l'erreur).
Pour ce qui nous concerne, l'application à notre base de
données a fourni les résultats suivants :
III.2.3.3 Application à la base de données
? Enseignement primaire
D'après le tableau de l'annexe 10, tableau 20,
l'on constate que « P-value » = 0,0031< 0,05 ; on rejette
l'hypothèse H0 et nous concluons qu'il y a
Hétéroscédasticité des erreurs.
? Enseignement secondaire général et
technique
D'après le tableau de l'annexe 10, tableau 21, l'on
constate que « P-value » = 0,00012 < 0,05 ; on rejette
l'hypothèse H0 et nous concluons qu'il y a
Hétéroscédasticité des erreurs.
De manière globale donc, nous pouvons conclure que
notre modèle est Hétéroscédastique ; ceci signifie
pratiquement qu'il y a risque de colinéarité entre les variables
explicatives ; Dans ce cas une variable explicative de la variable
dépendante, est à son tour tributaire (expliquée) par une
autre variable explicative.(Ex : Le nombre élevé d'enfants
explique le faible revenu de la famille, et cette dernière explique
à son tour le faible CAP)
La conséquence de
l'Hétéroscédasticité est le biais de l'estimation
des coefficients de régression, et l'augmentation ou la diminution des
t-test.
En principe, s'il est observé dans un modèle
une quelconque Hétéroscédasticité, c'est toujours
le fait d'une ou de plusieurs variables
Nous allons corriger
l'Hétéroscédasticité en utilisant la commande STATA
nommée ROBUST ? Pour l'enseignement primaire
D'après le tableau de l'annexe 10, tableau 22, nous
observons que le t-test associé à la variable «
EDUCATION » a augmenté, cette variable restant
toujours significative au seuil de 1%.
? Pour l'enseignement secondaire
général et technique
D'après le tableau de l'annexe 10, tableau 22, nous
constatons encore que le t-test associé à la variable «
EDUCATION » a augmenté, cette variable restant
toujours significative au seuil de 1%.
|