4.8.3.4- Test de signification pour les paramètres
estimés
Pour évaluer la signification statistique des estimations
des paramètres, nous avons déterminé les variances des
estimateurs et nous en avons déduit les écart-types (
sá1 , sá2,
sá3 ). La distribution de Student avec n-k (n : nombre
d'observations; k :
nombre de paramètres estimés) degrés de
liberté a été mise en oeuvre pour tester les
hypothèses sur les estimateurs et construire les intervalles de
confiance correspondants. Il s'agit alors de tester les hypothèses
suivantes :
H0 : áj = 0 ?j
? {1, 2, 3}
H1 : ?j ? {1, 3} /
áj ? 0 .
Si les valeurs absolues de t calculées (
|
tj
|
=
|
à
áj sáà
|
j
|
) sont toutes supérieures à celles lues
|
R2 = ?Qi =1- ?ei2
.
2
?
Qi Qi
(
|
tá 2; n-k ), nous rejetons
H0 et nous concluons que les estimateurs
áà 1, áà 2 , et
áà 3 sont
|
statistiquement signifiants pour n-k degrés de
liberté au seuil de 5%. Sáà
étant l'écart-
j
type de áàj.
4.8.3.5- Coefficient de détermination multiple
Le coefficient de détermination multiple
(R2 ) est la proportion de la variabilité totale de
Q expliquée par la régression multiple. Elle mesure donc
la capacité du modèle estimé à expliquer les
variations constatées de Q dans les données. On dit
aussi qu'il mesure la qualité de l'ajustement ainsi opéré
par le modèle. Il est donné par la formule
34
4.8.3.6- Test d'ensemble sur la signification de la
régression
Il s'agit de tester les hypothèses suivantes :
H0 : aucune des variables n'a d'action sur
Q H0: "j E {1, 2, 3} a j = 0
H1 : au moins une des variables a une action
sur Q Û H1 : $j E {1, 2, 3}/ a
j 1 0
Ce test cherche à apprécier la signification
globale de la régression grâce au rapport de la variance
expliquée à la variance inexpliquée. Celui-ci obéit
à une loi de distribution de Fisher-Snédecor avec k et n - k-1
degrés de liberté, n étant le nombre d'observations et
k le nombre de variables indépendantes.
?
2
2
R
à
Qi
k k
F = . Si le rapport F calculé dépasse la
valeur
)
k , n - k - 1 2 2
= ? e (1 - R
(n - k 1)
i
( n - k 1)
tabulaire de F pour le risque admis (5%) en fonction des
degrés de liberté k et n-k-1, nous acceptons l'hypothèse
que les paramètres de la régression ne sont pas tous nuls et que
R (coefficient de détermination) diffère
significativement de zéro.
2
4.8.3.7- Tests d'absence de
multicolinéarité des variables explicatives
Notre objectif est de rechercher les variables explicatives
qui maximisent leur coefficient de corrélation avec la série
à expliquer tout en étant le moins corrélées entre
elles. Pour diagnostiquer l'inexistence de liaisons entre les variables
explicatives, deux tests ont été mis en oeuvre : le test de Klein
et le test d'indicateur de tolérance.
|