Les déterminants du choix du secteur d’enseignement primaire par les parents de la ville de Bukavu.par Gloire NGONE NDJALO Institut supérieur pédagogique de Bukavu - Licence en pédagogie appliquée 2019 |
II.2.1.5 Les méthodes de traitement des donnéesNous utiliserons deux méthodes statistiques qui seront réalisées en deux niveaux : premièrement, nous utiliserons l'analyse factorielle exploratoire pour épuration des échelles de mesure et dans le second, nous utiliserons les méthodes des régressions logistiques pour tester notre hypothèse. II.2.1.5.1 L'analyse factorielle en composantes principales (ACP) comme méthode de purification des échelles de mesure Les analyses factorielles sont des méthodes descriptives, elles regroupent différentes techniques statistiques qui permettent d'examiner la structure interne d'un grand nombre de variables et/ou d'observations afin de les remplacer par un petit nombre de facteurs ou dimensions 42 (Bennour-Dahech, D.R. (2007). Ces analyses permettent de purifier l'échelle de mesure qui constitue une étape fondamentale afin de renforcer la validité et la fiabilité du construit utilisé. Le principe de cette analyse est de réduire un ensemble d'items ou de variables initiales, en un nombre plus réduit de variables nommées facteurs. L'interprétation de la signification des facteurs, le nombre d'items retenus par facteur et le nombre de facteurs à retenir se font a posteriori en fonction du savoir-faire du chercheur et des règles méthodologique qu'il applique. (Churchill G.A., 1979). L'analyse ACP offre une solution facilement interprétable grâce à cette réduction des données (Pupion, 2012). Ainsi, elle reste fondamentalement empirique et exploratoire pour extraire le maximum d'informations (la variance expliquée) à partir des variables observables initiales (Carricano et Poujol, 2010). II.2.1.5.2. La validité en utilisant l'analyse ACP La validité et la fiabilité sont deux critères utilisés dans la recherche qui aide le chercheur à savoir comment sa recherche peut être à la fois rigoureuse et réappropriable par d'autres chercheurs, il s'agit de savoir dans quelle mesure les résultats auxquels le chercheur aboutit peuvent apporter leur contribution au domaine scientifique dans lequel la recherche s'inscrit (Thiétart, R.A. (2014), a. Purification des échelles de mesure La purification consiste à supprimer les items peu pertinents et analyser les caractéristiques multi dimensionnelles des concepts. Afin de déterminer la structure factorielle de notre échelle, nous allons procéder par des analyses factorielles. b. Le test de Kaiser « Measure of Sampling Adequacy » (MSA) Kaiser-Meyer-Olkin (KMO). Ce test permet de vérifier que les variables mesurent de manière adéquate un concept. Des valeurs de KMO comprises entre 0,3 et 0,7 ou plus représentent des solutions factorielles acceptables Autrement dit, il teste si les coefficients de corrélation entre les énoncés sont suffisamment élevés pour y chercher des dimensions communes. Un KMO élevé (proche de 1) indique que l'analyse factorielle est une méthode appropriée et pertinente pour analyser les données. En revanche, un KMO inférieur à 0.5, signifie que les items ne partagent pas assez de variance pour que l'analyse factorielle soit adéquate. 43 c. Le test de spécificité de Bartlett L'objectif de ce test est de vérifier que les corrélations entre les variables de l'étude ne sont pas nulles. Les variables ne doivent pas être indépendantes les unes des autres (Jolibert et Jourdan, 2006). En examinant la matrice de corrélation, il fait ressortir la probabilité de l'hypothèse nulle selon laquelle toutes les corrélations sont nulles. Il serait donc difficile d'effectuer une analyse factorielle si l'hypothèse nulle est acceptée. Le test doit donc être significatif, avec une valeur de significativité inférieure à 0,05 pour nous permettre de rejeter l'hypothèse nulle. C'est-à-dire confirme l'existence de relations entre les variables et la pertinence de l'analyse factorielle, Evrard et al (1993). Si la signification (Sig.) tend vers 0.000, c'est très significatif ; inférieur à 0.05, significatif ; entre 0.05 et 0.10, acceptable et au-dessus de 0.10, on rejette. II.2.1.5.3. La fiabilité en utilisant l'analyse ACP La fiabilité des échelles de mesure est vérifiée par le calcul du coefficient l'alpha de Cronbach (á). Ce coefficient se base sur la variance et la covariance. Il est généralement mené de façon préliminaire dans la plupart de recherches. La valeur du coefficient (á) est entre 0 et 1, plus il est élevé et se rapproche de 1, plus l'échelle est considérée comme fiable Evrard, Y., Pras B. et Roux E. (2009), Il n'existe pas de règle précise quant au seuil d'acceptation de (á), ceci varie selon les chercheurs : par exemple pour Perrien et al. (1984) la valeur de á doit être entre 0.5 et 0.6, tandis que Peterson (1994) recommande une valeur supérieure à 0.8. Cependant, Evrard et al. (2009) proposent des seuils d'acceptation de á selon la nature de la recherche :
Tableau 6 : Les règles de décision de l'acceptabilité de l'Alpha de Cronbach
Source : Carricano et Poujol (2010, p. 53) 44 Dans notre étude, nous nous référons aux seuils de á préconisés par Evrard et al., (2009) : la valeur de á est acceptable si elle est supérieure à 0,6. Car nous nous sommes dans une étude exploratoire. Figure 2 : Schéma Méthodologie d'appui de notre recherche 1 . Spécifier le domaine du construit Définition et principes de la théorie choisie
(cadre théorique)
Testons la fiabilité
Source : karbouch(2011) 45 I.2.1.5.4. Analyses de corrélation et de régression
? La régression logistique ou modèle logit C'est un modèle de régression binomiale. Il s'agit de modéliser l'effet d'un vecteur des variables aléatoires (X1, ..., XK) sur une variable aléatoire génériquement notée Y. Cette régression permet d'expliquer une variable discrète en économétrie. Y est la variable à prédire ou à expliquer et X= (X1, X2, Xj) les variables prédictives. Etant donné qu'il s'agit de la régression logistique binaire, la variable Y prend deux modalités possibles, à savoir {1, 0} ; les variables Xj sont exclusivement continues ou binaires. http://fr.wikipédia.org/régressionlogistique consulté le 10 juin 2019 19heure 20. 46 ? Spécification du modèle et définition des variable La problématique du choix du secteur d'enseignement en RDC consiste à opérer deux alternatives : «le secteur des écoles du publiques» ou «des écoles privées» à un moment donné. Dans ce cas, pour un individu i, la variable endogène yi peut prendre deux valeurs : { D'où l'équation 1 : choix = 1130 + 1131X1 + 1132X2 + 113 3X3 + 1134X4 ..... 11318X18 + D'où l'équation 1 : choix = 1130 + 1131Résidence +1132Place du répondant dans le ménage +1133Sexe +1134Age +1135 Niveau d'étude +1136 Nombre de personnes dans le ménage +1137 Activité +1138Temps travail +1139 Etat - civil +11310 Revenu mensuel +11311 Accès au crédit +11312 Distance séparant l'école +11313 Langue +11314 Secteur d'enseignement +11315 Qualité différentielle perçue +11316 Nombre d'enfants scolarisés à l'école +11317 Dépenses +11318 Pourcentage moyen des enfants +e L'estimation du modèle repose sur l'hypothèse que yi dépend d'une variable notée yi* appelée variable latente. Comme vu plus haut, nous supposons que le sexe, âge, la commune de résidence du parent, place du répondant dans le ménage, le niveau du revenu, dépenses ,activité de l'enquêté, état - civil, le niveau d'éducation du parent, temps travail, accès au crédit, distance séparant, nombre d'enfants scolarisés, nombre de personnes dans le ménage, pourcentage moyen des enfants, langue maternelle du parent, secteur d'enseignement, qualité différentielle perçue expliquer le choix. Ainsi, nous avons donc ; Y*=V? + E. Avec Y* une variable latente binaire prenant la valeur 0 si le choix est de l'école publique et 1 si le choix est de l'école privée V représente le vecteur des variables (le sexe, âge, la commune de résidence du parent, place du répondant dans le ménage, le niveau du revenu, dépenses ,activité de l'enquêté, état - civil , le niveau d'éducation du parent, temps travail, accès au crédit, distance séparant ,nombre d'enfants scolarisés, nombre de personnes dans le ménage, pourcentage moyen des enfants, langue maternelle du parent, secteur d'enseignement, qualité différentielle perçue) susceptible d'influencer le choix . La variable expliquée étant binaire, deux modèles sont le plus couramment utiliser à savoir le modèle Probit et le modèle Logit. L'utilisation de l'un ou de l'autre modèle dépend de la distribution des erreurs. Si les erreurs sont normalement distribuées, le Probit est utilisé au lieu du Logit et dans le cas contraire c'est le Logit au lieu du Probit. Le test le plus couramment utilisé est celui de 47 Jacques BERRA. Les erreurs sont normalement distribuées si la probabilité de Jacques BERRA est supérieure au lieu choisi qui est le plus souvent égal à 0.05 ce qui est le cas de notre travail. |
|