4.4.1.3. Le test d'auto corrélation de
Durbin-watson
L'auto corrélation peut être définie
comme une corrélation entre les éléments de séries
d'observations ordonnées dans le temps ou dans l'espace. Le test
développé par Durbin et Watson permet de détecter une
éventuelle auto corrélation des résidus. La statistique
est
donnée par la relation suivante : d = . On a ceci : si
d=2, pas d'auto
corrélation de premier ordre ; si d=0, existence d'une
corrélation positive parfaite dans les résidus, et si d=4,
existence d'une corrélation négative parfaite dans les
résidus.
4.4.1.4. Le test
d'hétéroscédasticité
On parle d'hétéroscédasticité
lorsque les termes d'erreur n'ont pas une variance constante, et dans ce cas on
utilise les MCG pour estimer les paramètres du modèle au lieu des
MCO comme c'est le cas avec l' homoscédasticité.
H0 : absence d'hétéroscédasticité
;
H1 : présence
d'hétéroscédasticité. Pour un seuil de
signification fixé à priori à 5%, si probabilité du
test est supérieure à ce seuil, on accepte H0.
62
4.4.1.5. Le coefficient de détermination R2
Il permet de mesurer le degré d'association entre la
variable expliquée et les variables explicatives. Il s'agit en d'autres
termes de déterminer la contribution des variables explicatives dans la
variation de la variable expliquée38. On démontre et
on admet ensuite que :
; Avec 0 < R2 < 1. De cette relation on peut
retenir les interprétations
suivantes :
· Si R2 = 1, tous les points sont situés
sur la droite de régression ;
· Si R2 = 0, la variation de la variable
expliquée est due à la variation dans le terme d'erreur.
Dans la mesure où le R2 présente
quelques limites ou défauts, on déterminera donc
le coefficient de détermination ajusté
défini par : 1k2 = 1- (1-R2) et on
interprètera de la même manière que
R2.
4.4.1.6. Le coefficient de corrélation
Etudier la corrélation entre deux ou plusieurs
variables aléatoires c'est étudier l'intensité de la
liaison qui existe entre ces variables. Le coefficient de corrélation le
plus utilisé est le coefficient de corrélation linéaire de
Pearson. Ce coefficient est défini par : Pxy =
rxy = ; avec -1 < Pxy < 1. Il mesure aussi bien
l'intensité de la liaison entre Y et X
que celle entre X et Y et n'est significatif d'une
réelle valeur de dépendance que si : |rxy| 2 0,87.
· Si |rxy| < 0,87, il n'existe pas une liaison
linéaire entre X et Y39.
· Si rxy = 0, il n'existe pas une liaison
linéaire entre X et Y, les droites de régression sont
parallèles aux axes de coordonnées, mais cela ne signifie pas
absolument une dépendance entre X et Y, parce qu'il peut exister une
liaison qui ne soit pas linéaire.
· Si rxy > 0, les variables X et Y évoluent
dans le même sens ;
· Si rxy < 0, les variables X et Y évoluent
dans le sens inverse ;
· Si rxy = -1, les variables X et Y évoluent en
sens contraire, les deux droites de régression sont confondues et la
dépendance est totale ;
38 JUMBO (2009), op cité.
39 M. Djom Djom (2007), cours de statistiques I, niveau I, FSEG,
Université de Dschang.
·
63
Si rxy = 1, les variables X et Y évoluent dans le
même sens, les deux droites de régression sont confondues et la
dépendance est totale.
Le coefficient de corrélation simple présente un
inconvénient. Par exemple, r12 ne reflète pas
réellement le vrai degré d'association entre Y et X2 en
présence de X3. Il est donc nécessaire de définir des
coefficients de corrélation qui soient indépendants de
l'influence de X3 sur X2 et Y. De tels coefficients sont appelés
coefficients de corrélation partielle. De ce fait, on peut avoir la
notation suivante :
r12. 3 = ; qui représente le coefficient de
corrélation partielle entre
Y et X2 en maintenant X3 constant.
|