SECTION II : LES OUTILS D'ANALYSE DES DONNEES ET
LA DESCRIPTION DES CARACTERISTIQUES DE L'ECHANTILLON FINAL DE LA RECHERCHE
La section précédente nous a permis de justifier
la démarche méthodologique adoptée ainsi que le processus
de mesure des concepts de notre recherche. L'objet de la section2 est de
présenter les outils d'analyse utilisés tant pour les
études quantitatives que pour l'approche exploratoire et de proposer une
description des caractéristiques de l'échantillon final de la
recherche.
I. Les outils d'analyse quantitative des données
L'outil utilisé lors du traitement des données
est le logiciel d'analyse des données SPSS. SPSS est une
bibliothèque de programme déjà écrits qu'il suffit
d'utiliser pour résoudre la plupart des problèmes statistiques
d'analyse des données. Ce logiciel nous a servi d'instrument d'analyse
de données nous permettant de soumettre les données recueillies
à des tests. La parfaite connaissance de la nature des données
collectées nous permet de mieux choisir le type de test à
utiliser. Pour tester les hypothèses de notre recherche, Nous utilisons
uniquement la méthode de régression multiple. Cependant, la
description de l'échantillon et la réduction des variables
faisant intervenir respectivement le tri à plat et l'ACP, il convient
d'en faire une brève analyse.
A. Le tri à plat et l'analyse en composante
principale
Considérer les outils d'analyse statistiques comme des
éléments au centre de l'analyse des données quantitatives
est indispensable dans l'analyse et l'interprétation des
résultats sortant du logiciel SPSS. Le tri à plat et l'ACP sont
à la base de l'interprétation de répartition en
fréquence de l'échantillon (pour le 1er) et de
l'analyse factorielle (pour la 2nde).
1. Le tri à plat
Le tri à plat est une opération consistant
à déterminer comment les observations se répartissent sur
les différentes modalités que peut prendre une variable à
modalités discrètes. Il constitue la première
démarche de traitement des données d'un fichier et permet de
classer les réponses obtenues d'un questionnaire ou tout autre
instrument de collecte de données. Aussi le tri à plat donne un
résultat sous forme de fréquences contenues dans un tableau, sur
les différentes variables contenues dans le fichier. Le tableau de
fréquences est une bonne façon de présenter les
informations que contient une banque de données à propos d'une
variable. En effet, il indique, pour une variable donnée, toutes les
valeurs que prend cette variable, le nombre de fois que chaque valeur ou
catégorie de la variable apparaît et la proportion (%) que
représentent les données correspondant à une
catégorie d'une variable par rapport au nombre total d'observations
prises en compte
2. L'analyse en composante principale
L'ACP fait partie des analyses descriptives
multivariées. Elle tente de mettre en évidence des composantes
tenant compte de la variance totale de toutes les variables à
l'étude (ensemble des variables de la matrice de données
géographiques). L'ACP a deux fonctions distinctes : la
première consiste à chercher à simplifier des variables
(Le Moal, 2002). Si l'on dispose d'un grand nombre de variables mesurant un
même construit unidimensionnel, ou supposé tel, on peut utiliser
cette analyse afin de regrouper les variables qui semblent mesurer
« la même chose » et de pouvoir ainsi calculer un
score synthétique (comme leur moyenne) ce qui s'avérera beaucoup
plus économique que de mener des analyses individuelles sur chaque item
isolé. L'ACP est le type d'analyse factorielle le plus adapté
pour apprécier l'opérationnalisation d'une variable
formulée selon plusieurs items.
a. Définition de l'analyse
factorielle
Un des points les plus délicats de l'ACP est
d'apprécier la perte d'information engendrée par la
réduction de la dimension. On a vu précédemment que la
qualité de représentation du nuage dans le sous-espace factoriel
est exprimée par le pourcentage d'inertie expliquée Cette mesure
globale doit être complétée par d'autres
considérations comme la représentation des individus et des
variables dans ce sous-espace factoriel. Il peut en effet arriver que les axes
retenus, bien que représentant une part importante de l'inertie globale
du nuage, ne suffisent pas à expliquer correctement certains individus
ou variables : deux individus peuvent être proches en projection sur
les axes factoriels retenus tout en étant très
éloignés en réalité, si leurs
représentations sur ces axes ne sont pas de bonne qualité.
b. Le choix des axes factoriels à
retenir
La sélection du nombre d'axes à retenir est une
étape importante d'une ACP. Le critère que nous retenons ici est
celui de Kaiser. Ce dernier consiste à ne retenir que les facteurs ayant
les valeurs propres supérieures à la moyenne : puisqu'on est
en ACP normée la somme des valeurs propres est égale au nombre de
ces valeurs propres, et la moyenne des valeurs propres est donc égale
à 1. On ne retiendra donc par le critère de Kaiser que les
facteurs ayant une valeur propre supérieure à 1.
|