II.2. TECHNIQUE DE TRAITEMENT DES DONNEES
Les données empiriques récoltées sur le
terrain seront soumises aux tests appropriés et les résultats qui
vont en découler, vont nous aider soit à confirmer ou soit
à infirmer notre hypothèse de recherche. Il s'agira de l'analyse
des composantes principales (ACP), du test de fiabilité et de
validité de l'échelle de mesure de l'intention entrepreneuriale,
du test de la corrélation entre les deux variables du sujet
d'étude ainsi que de la régression linéaire simple (Gower,
1996 ; Legendre, 1998).
Présenter synthétiquement un grand ensemble de
données résultant d'une étude de plusieurs
caractères quantitatifs ou qualitatifs sur une population n'est pas
facile. De ce fait, l'analyse en composantes principales et l'analyse
factorielle vont nous permettre de révéler les
corrélations entre les caractères et de proposer une structure de
la population. Un des intérêts majeures de ces analyses est de
fournir une méthode de représentation d'une population
décrite par un ensemble de caractères dont les modalités
sont quantitatives (mesures continues), pour une ACP ou qualitatif pour une
analyse factorielle (Igalens et Roussel, 1998).
L'analyse en composante principales (ACP) est une
méthode destinée à analyser les relations entre les
données quantitatives. C'est la méthode la plus utilisée
parmi les méthodes descriptives pour l'épuration et la validation
des échelles (Evrard et al. 2000, Igalens et Roussel, 1998). Elle
analyse uniquement les relations linéaires pouvant exister entre les
variables (Evrard et al. 2000).
Nous allons recourir à l'analyse factorielle (AF)
étant donné qu'elle nous permettra de passer d'un grand nombre
d'items à un nombre plus réduit par regroupement d'items mesurant
la même dimension appelée « composante » (Gianneloni et
Vernette, 2001).
14
Avant de procéder à l'analyse factorielle, nous
devons nous rassurer, que les données sont factorisables. Pour ce faire,
un test statistique nous permet de vérifier l'hypothèse (nulle)
selon laquelle notre matrice des corrélations est
déterminée à partir d'une population dont la matrice est
identité : c'est le test de sphéricité de
Bartlett.
Test de sphéricité de Bartlett
L'idée sous-jacente à ces indicateurs est la
suivante : est-il possible d'obtenir un bon résumé? En effet, on
peut considérer l'ACP (Analyse en Composante Principale) comme une
méthode de compression de l'information. Il n'est pas possible que si
les données présentent une certaine redondance. Si les variables
sont parfaitement corrélées, un seul axe factoriel suffit, il
restituera 100% de l'information disponible (Carricano et al, 2009).
Ce test vérifie si l'hypothèse nulle selon
laquelle toutes les corrélations seraient égales à
zéro, c'est-à-dire que les items ne seraient pas
corrélés entre eux et, par conséquent, seraient
parfaitement indépendants les uns des autres. Dans la mesure où
l'hypothèse nulle est acceptée, il sera difficile d'effectuer une
analyse factorielle. Le test doit donc être significatif, avec une valeur
de significativité inférieure à 0.05 pour permettre de
rejeter l'hypothèse nulle. Cette validité est donc établie
lorsque les réponses obtenues par différents indicateurs mesurant
un même construit sont fortement corrélées entre elles
(Carricano et Poujol, 2009).
Les chances de rejet de l'hypothèse nulle s'accroissent
d'autant plus que la taille de l'échantillon s'accroit, ce qui ne nous
garantit pas forcement des résultants excellents pour l'ACP.
Par ailleurs, il peut être utile d'écarter de
l'analyse, les variables qui n'ont de corrélation avec aucune autre.
Pour ce cas, nous faisons recours à l'outil supplémentaire
très intéressant : la mesure d'adéquation de
l'échantillonnage de Kaiser-Meyer-Olkin.
Indices Kaiser-Meyer-Olkin (KMO)
Parfois appelé MSA (Measure of Sampling Adequacy) dans
le logiciel anglo-saxon, il s'agit d'une mesure de compressibilité de
données. L'indice KMO s'inscrit dans le même ordre d'idée
que le test de sphéricité. Telle est la question qu'on se pose :
est ce qu'il est possible de trouver une factorisation intéressante de
données ?
Cet indice vérifie dans quelle proportion les variables
retenues forment un ensemble cohérent. L'indice KMO varie entre 0 et 1.
S'il est proche de 0, les corrélations sont identiques aux
corrélations brutes. Dans ce cas, une compression efficace n'est pas
possible. S'il est proche de
15
1, nous aurons un excellent résumé de
l'information sur les premiers axes factoriels. Une variable pertinente pour
l'analyse devrait obtenir un KMO supérieur à 0.5. Kaiser (1974)
propose une impressionnante échelle de valeur pour le KMO : inacceptable
en dessous de 0.5 ; médiocre entre 0.5 et 0,6 ; moyen entre 0.6 et 0.7 ;
bien entre 0.7 et 0.8 ; très bien entre 0.8 et 0.9 et en fin excellent
au-delà de 0.9. L'indice KMO est un indice d'adéquation de
solution factorielle. Une fois toutes ces analyses effectuées et leur
ajustement fait, l'ACP devrait donner les résultats concluants.
Epuration de l'échelle de mesure
La procédure exige que l'on puisse commencer d'abord
par les coefficients structurels, qui sont fonction de la
taille de l'échantillon. Le coefficient structure lest fixé
à 0.41. On procède par élimination de l'échelle de
tout item dont le poids factoriel est supérieur au coefficient
structurel sur plusieurs facteurs et celui qui n'a aucune contribution
supérieure ou égale à 0,50 sur l'une des composantes
principales identifiées. Ensuite par la Communalité :
la qualité de représentation d'un item, devrait
être supérieure ou égale à 0.5 (Foucart, 2006).
La fiabilité de l'échelle va être
testée à partir du coefficient alpha de Cronbach. Ce dernier est
un indicateur de la cohérence interne d'une échelle de mesure.
Une échelle est d'autant plus fiable que son alpha de Cronbach
s'approche de 1. Un alpha de Cronbach inférieur à 0,6 est
considéré comme insuffisant, un alpha compris entre 0.6 et 0.65
est considéré comme faible, l'intervalle de 0.65 à 0.7 est
considéré comme le minimum acceptable. Au-delà de 0.7
l'alpha de Cronbach serait élevé (Carricano et al. 2009).
|