II.1.4 TESTS STATISTIQUES ASSOCIES AU MODELE
KASONGO KIYAMBI FAUSTIN ((SECTEUR INFORMEL ET
RECOUVREMENT FSCA A LA DGRTANG/KALEMIE
|
|
Page 43
|
|
|
KASONGO KIYAMBI FAUSTIN
|
j(( SECTEUR INFORMEL ET RECOUVREMENT FISCAL A LA
DGRTANG/KALEMIE]
|
|
a) tests paramétriques
V' Test de student
Le test de student est celui qui consiste à
vérifier de manière individuelle la significativité des
paramètres du modèle estimé.
b) si la taille de l'échantillon est suffisamment
grande. Ainsi, le test de Student est présenté comme suit :
^
^ Tth (n-k; )
+ Règle des décisions
Si la statistique calculée de student est
supérieure à celle de la table,
le paramètre estimé est statistiquement
significatif au seuil prédéfini. Dans le cas contraire, le
paramètre n'est pas statistiquement significatif.
V' Test de Fisher
Le test de Ficher est celui qui va nous permettre de
vérifier la significativité globale des paramètres du
modèle. La statistique de Fisher teste l'hypothèse nulle selon
laquelle toutes les variables explicatives (exclues la constante) sont
égales à zéro contre l'hypothèse de recherche qui
stipule que les variables explicatives exclues la constante sont
statistiquement significatives conjointement. (Sem Mbimbi P. et Cornet A.,
2017).
Il est mathématiquement présenté de la
manière suivante : Fc=
|
,
|
Fth (n-k; k-1)
+ Règle des décisions
Si la statistique calculée de Ficher est supérieurs
à celle de la table, les
paramètres estimés sont statistiquement
significatif au seuil prédéfini. Dans le cas contraire, ces
paramètres ne sont pas statistiquement significatifs.
V' Coefficient de détermination
R2 = ?
? ;
Sur ce, R2 doit être compris entre 0 et 1
V' Test autocorrélation d'erreurs
Il y a autocorrélation des erreurs lorsque ceux-ci sont
liés suivant les unes des autres. :
KASONGO KIYAMBI FAUSTIN ((SECTEUR INFORMEL ET
RECOUVREMENT FSCA A LA DGRTANG/KALEMIE
|
|
Page 44
|
|
|
KASONGO KIYAMBI FAUSTIN
|
j(( SECTEUR INFORMEL ET RECOUVREMENT FISCAL A LA
DGRTANG/KALEMIE]
|
|
? Hypothèses de validation
H0 : P > 0,05 ; il y a absence d'autocorrélation des
erreurs
H1 : P < 0,05 ; il y a présence
d'autocorrélation des erreurs
1. La Théorie De La Corrélation
Lorsque deux phénols ont une évolution commune nous
disons qu'ils
sont corrélés. La corrélation simple mesure
le degré de liaison existant entre
ces deux phénomènes représentés par
des variables. Ainsi, nous pouvons
trouver une corrélation positive, négative et
nulle.
a) Mesure et limites du coefficient de
corrélation
Le coefficient de corrélation linéaire simple se
mesure à travers l'indicateur :
?
v?
v?
La covariance nous sert à déterminer la position de
la droite. Ainsi, le
coefficient de corrélation est compris entre -1 et 1
V' S'il est proche de 1, les variables sont
corrélées positivement
V' S'il est proche de -1, les variables sont
corrélées négativement
V' S'il est proche de 0, les variables ne sont pas
corrélées
En désirant tester la signification du coefficient de
corrélation, nous
procèderons comme suit :
HYPOTHESES :
H0 : , il n'y a pas de liaison
H1: , la liaison entre variables existe
|