3.2.1.3. La validité des instruments de mesure : Le
test KMO et le Khi-Deux Approximatif de
Bartlett
Elle permet de vérifier que l'instrument mesure
réellement ce qu'il est supposé mesurer. Son importance dans le
domaine des sciences sociales tient du fait que les objets de recherche de
cette discipline portent sur des concepts abstraits et qui ont
généralement plusieurs significations (Baumard et al, 2003).
Deux tests nous permettent de valider nos construits,
c'est-à-dire d'analyser la qualité (dimensionnalité) de
l'échantillonnage. Il s'agit du test KMO (Kaiser, Meyer et Olkin) ou MSA
(Measure of Sampling Adequacy) et du test se sphéricité
de Bartlett. Le test KMO permet de vérifier
corrélationsentrelesénoncéssontsuffisammentélevéespouryrechercherdes
dimensions communes. Selon Kaiser (1974), un KMO supérieur à 0,5
est acceptable, un KMO compris entre 0,8 et 0,9 est méritoire, et un KMO
supérieur à 0,9 est « merveilleux ». Si cette valeur
est inférieure à 0,5, l'énoncé peut être
éliminé pour l'analyse. L'indice KMO est alors à nouveau
calculé sans l'énoncé mal corrélé avec les
autres.
3.2.2. Les méthodes de validation des
hypothèses
La validation de nos hypothèses se fera à
travers la régression linéaire simple. La régression a
généralement pour but de fournir des informations sur l'effet que
peut avoir une variable indépendante ou explicative sur une variable
dépendante ou à expliquer. L'intérêt pour les
modèles de régression est important dans la mesure où
ceux-ci constituent un approfondissement pour les modèles d'analyse
bivariée qui restent la plupart du temps de nature descriptive (Evrard
et al, 2003).
L'analyse se fera en quatre étapes à savoir :
(1) vérifier qu'il existe une corrélation significative entre les
variables explicatives et les variables à expliquer et l'absence de
multi colinéarité entre les deux variables ; (2) évaluer
la pertinence du modèle à travers l'analyse de la variance, (F de
Fisher, et T de Student) ; (3) évaluer l'ajustement des données
et la variabilité expliquée au modèle de régression
; (4) évaluer les paramètres du modèle de
régression. Nous examinerons par ailleurs les résidus à
travers le test de Dublin-Watson.
3.2.2.1. La vérification de l'existence de
corrélation significative et de l'absence de multi
colinéarité entre les variables
Deux conditions sont essentielles pour réaliser une
analyse de régression. La première condition à la
réalisation de cette analyse de régression est l'existence d'une
corrélation forte entre les pratiques managériales et la
satisfaction des étudiants étrangers (Corrélation de
Person). La seconde condition est celle de l'inexistence d'une multi
colinéarité entre les deux variables. Dans une régression,
la multi colinéarité est un problème qui survient lorsque
certaines variables de prévision du modèle mesurent le même
phénomène. Une multi colinéarité prononcée
s'avère problématique, car elle peut augmenter la variance des
coefficients de régression et les rendre instables et difficiles
à interpréter. L'indicateur utilisé est la VIF (Variance
Inflation Factor). Il n'y a pas de consensus sur la valeur au-delà de
laquelle on doit considérer qu'il y a multi colinéarité.
Allison (2012) estime qu'une VIF en dessous de 4 est acceptable et lorsqu'elle
est proche de 1 c'est l'idéal.
|