4.4. Tests économétriques et méthode
d'estimation 4.4.1. Tests économétriques
D'une manière générale, les tests
économétriques permettent de voir si les différences
observées lors d'une observation sont dues au hasard ou si elles
trouvent leur origine dans la population générale. Pour cela,
nous allons retenir le test d'homogénéité par la
statistique Fcal de Fisher, le test d'auto corrélation de Durbin-Watson,
le test de normalité de Jarque-Bera, le test
d'hétéroscédasticité, puis le coefficient de
détermination R2 et le coefficient de corrélation de
Pearson.
4.4.1.1. Le test d'homogénéité
Il permet de détecter une certaine uniformité
des comportements des individus. Le test de significativité se fera
à l'aide du test de Fisher. Ce test permet de voir si les variables
60
retenues représentent fidèlement le
phénomène étudié. Il est effectué sur la
base du coefficient de détermination R2 et est défini
par :
Fcal = , le principe étant de tester
l'hypothèse nulle H0 contre l'hypothèse
alternative H1 défini tel que :
H0 : tous les paramètres du modèle sont nuls,
H1 : il existe au moins un paramètre non nul.
Règle de décision : si Fcal >
Flu (k - 1 ; n - k) pour un niveau de signification á donné,
alors
on rejette H0 ; c'est-à-dire que les paramètres du
modèle sont significatifs37.
4.4.1.2. Les tests de normalité
En statistique, les tests de normalité permettent de
savoir si les observations suivent une loi normale ou pas. Ces tests occupent
une place importante. En effet, de nombreux tests supposent la normalité
de la distribution pour être applicable. Pour notre travail nous allons
effectuer les tests de Jarque-Bera, de Skewness et de Kurtosis.
Le test de normalité de Jarque-Bera :
c'est un test qui cherche à déterminer si les variables
suivent une loi normale. Pour cela, on a les hypothèses suivantes :
H0 : le modèle suit une loi normale ;
H1 : le modèle ne suit pas une loi
normale.
La formule est la suivante : JB = ) ; avec n le nombre
d'observation, k le
nombre de variables explicatives et s le coefficient
d'asymétrie. Si JB est inférieur à 5,99 alors le
modèle suit une loi normale.
Le test de Kurtosis : En statistique, le
Kurtosis se traduit le plus souvent par le coefficient d'aplatissement. Etant
donné une variable réelle X d'espérance
mathématique u et d'écart type ó, on définit le
kurtosis comme le moment d'ordre quatre de la variable centrée
réduite. On distingue entre autres :
Kurtosis non normalisé â2
donné par la relation â2 = E [ ( (x-u) /
ó)4 ], et lorsque E existe, on a donc ; â2 = u4 / u2 ;
les ui étant les moments centrés d'ordre i.
Kurtosis normalisé ã2,
défini par ã2 = â2 - 3.
- Si ã2 = 0, la distribution est normale. On dit qu'elle
est Mésokurtique.
37 JUMBO (2009), cours d'Econométrie I, niveau III, FSEG,
Université de Dschang.
61
- Si ã2 > 0, la distribution est moins aplatie que
la distribution normale ; on dit qu'elle est Leptokurtique.
- Si ã2 < 0, la distribution est plus aplatie que
la distribution normale ; on dit qu'elle est platipkurtique.
Le test de skewness : Le coefficient de
dissymétrie (Skewness en anglais) correspond à une mesure de
l'asymétrie de la distribution d'une variable réelle X. Soit u
l'espérance mathématique et ó l'écart type, on
définit le Skewness comme le moment d'ordre trois de la variable
centée réduite par :
1 = E [ ( (x-u)/ó )3].
- 1 > 0 indique que la distribution est dissymétrique
et étalée à droite ;
- 1 < 0 indique une distribution dissymétrique et
étalée vers la gauche ;
- 1 = 0 indique une distribution symétrique ; c'est le
cas de la loi normale.
|