I 2 - les outils statistiques d'analyse
Le meilleur ajustement est la droite des moindres
carrés qui est la droite qui donne une valeur minimum à la somme
des carrés des distances de chacun des points du nuage à la
droite. Pour obtenir cette droite, il faut procéder par l'estimation du
modèle. Estimer un modèle, c'est déterminer la valeur de
ses paramètres. Pour affiner et compléter cette méthode
des moindres carrés, plusieurs tests statistiques sont utilisés
en l'occurrence le test de Fisher, le test de Student, le test de Durbin-Watson
et le test de CUSUM.
Le tableau d'analyse de la variance permet d'effectuer le test
de Fisher qui concerne la significativité globale du modèle. La
régression est jugée significative si la variabilité
expliquée est significativement différente de zéro (SCE
différente de zéro). Ce tableau permet de calculer le Fisher
empirique (F*) et de procéder au test de Fisher. Ce test peut être
formulé de la manière suivante :
H0 : â1 = â2
= â3 =..........= âk = 0 (tous les
coefficients sont nuls)
H1 : Il existe au moins un coefficient non
nul
L'hypothèse de la normalité des erreurs inclut
que : F* suit une loi de Fisher à k et n-k-1 degré de
liberté, c'est-à-dire F (k ; n-k-1) degré de
liberté. Il reste donc à comparer le Fisher empirique ou
calculé (F*) au Fisher théorique ou lu à (k ; n-k-1)
degré de liberté.
Si F* est supérieur à F lu, on rejette
l'hypothèse H0 et on conclut que le modèle est
globalement significatif. Dans le cas contraire, on accepte l'hypothèse
H0 et on conclut que le modèle n'est pas globalement
significatif. Ce test est un cas particulier du test d'hypothèses
linéaires (Doucouré, 2005).
Le test de Student est le test le plus usuel en matière
de test sur coefficient individuel. Il permet de tester la
significativité qu'une variable quelconque Xi exerce sur la
variable endogène Yi. En effet, ce test permet de voir
l'effet significatif d'une variable explicative sur la variable à
expliquer. Ce test peut être formulé de la manière
suivante :
H0 : âi = 0 contre
H1 : âi différent de 0
Le ratio de Student T* suit une loi de Student à
(n-k-1) degré de liberté. Il faut comparer alors le ratio de
Student à la valeur de Student théorique ou lue sur une table.
Si le ratio de Student est supérieur au Student lu, on
rejette l'hypothèse H0 et on conclut que la variable, en
question, explique bien la variable endogène et dans le cas contraire,
elle ne l'explique pas.
Le test de Durbin-Watson : ce test permet de
détecter une auto corrélation des erreurs d'ordre un. Il est
sensible à l'ordre des données, ce qui n'est pas le cas pour les
autres estimateurs. Le modèle doit comporter impérativement un
terme constant, le nombre d'observation doit être supérieur ou
égal à quinze (15) et la variable endogène ne doit pas
figurer parmi les variables explicatives. Si d1 < DW <
d2, le test n'est pas concluant. Si DW < d1, il existe
une auto-corrélation positive entre les erreurs. Si DW >
d2, il n'y a pas auto-corrélation positive. En pratique, on
considère qu'il n y a pas auto-corrélation positive lorsque DW
> 2.
Les tests de CUSUM sont des tests graphiques permettant
d'accepter ou non l'hypothèse de stabilité.
L'intérêt de ces tests réside dans le fait qu'ils
permettent d'étudier la stabilité d'une régression sans
définir à priori la date de rupture sur les coefficients. Ce test
résout le choix arbitraire du point de rupture du test de Chow. Si la
courbe sort du corridor, les coefficients du modèle sont instables. Si
la courbe ne sort pas du corridor, les coefficients du modèle sont
stables.
|