WOW !! MUCH LOVE ! SO WORLD PEACE !
Fond bitcoin pour l'amélioration du site: 1memzGeKS7CB3ECNkzSn2qHwxU6NZoJ8o
  Dogecoin (tips/pourboires): DCLoo9Dd4qECqpMLurdgGnaoqbftj16Nvp


Home | Publier un mémoire | Une page au hasard

 > 

Les déterminants du choix du secteur d’enseignement primaire par les parents de la ville de Bukavu.


par Gloire NGONE NDJALO
Institut supérieur pédagogique de Bukavu - Licence en pédagogie appliquée 2019
  

précédent sommaire suivant

Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy

II.2.1.5 Les méthodes de traitement des données

Nous utiliserons deux méthodes statistiques qui seront réalisées en deux niveaux : premièrement, nous utiliserons l'analyse factorielle exploratoire pour épuration des échelles de mesure et dans le second, nous utiliserons les méthodes des régressions logistiques pour tester notre hypothèse.

II.2.1.5.1 L'analyse factorielle en composantes principales (ACP) comme méthode de purification des échelles de mesure

Les analyses factorielles sont des méthodes descriptives, elles regroupent différentes techniques statistiques qui permettent d'examiner la structure interne d'un grand nombre de variables et/ou d'observations afin de les remplacer par un petit nombre de facteurs ou dimensions

42

(Bennour-Dahech, D.R. (2007). Ces analyses permettent de purifier l'échelle de mesure qui constitue une étape fondamentale afin de renforcer la validité et la fiabilité du construit utilisé.

Le principe de cette analyse est de réduire un ensemble d'items ou de variables initiales, en un nombre plus réduit de variables nommées facteurs. L'interprétation de la signification des facteurs, le nombre d'items retenus par facteur et le nombre de facteurs à retenir se font a posteriori en fonction du savoir-faire du chercheur et des règles méthodologique qu'il applique. (Churchill G.A., 1979).

L'analyse ACP offre une solution facilement interprétable grâce à cette réduction des données (Pupion, 2012). Ainsi, elle reste fondamentalement empirique et exploratoire pour extraire le maximum d'informations (la variance expliquée) à partir des variables observables initiales (Carricano et Poujol, 2010).

II.2.1.5.2. La validité en utilisant l'analyse ACP

La validité et la fiabilité sont deux critères utilisés dans la recherche qui aide le chercheur à savoir comment sa recherche peut être à la fois rigoureuse et réappropriable par d'autres chercheurs, il s'agit de savoir dans quelle mesure les résultats auxquels le chercheur aboutit peuvent apporter leur contribution au domaine scientifique dans lequel la recherche s'inscrit (Thiétart, R.A. (2014),

a. Purification des échelles de mesure

La purification consiste à supprimer les items peu pertinents et analyser les caractéristiques multi dimensionnelles des concepts. Afin de déterminer la structure factorielle de notre échelle, nous allons procéder par des analyses factorielles.

b. Le test de Kaiser « Measure of Sampling Adequacy » (MSA) Kaiser-Meyer-Olkin (KMO).

Ce test permet de vérifier que les variables mesurent de manière adéquate un concept. Des valeurs de KMO comprises entre 0,3 et 0,7 ou plus représentent des solutions factorielles acceptables Autrement dit, il teste si les coefficients de corrélation entre les énoncés sont suffisamment élevés pour y chercher des dimensions communes. Un KMO élevé (proche de 1) indique que l'analyse factorielle est une méthode appropriée et pertinente pour analyser les données. En revanche, un KMO inférieur à 0.5, signifie que les items ne partagent pas assez de variance pour que l'analyse factorielle soit adéquate.

43

c. Le test de spécificité de Bartlett

L'objectif de ce test est de vérifier que les corrélations entre les variables de l'étude ne sont pas nulles. Les variables ne doivent pas être indépendantes les unes des autres (Jolibert et Jourdan, 2006). En examinant la matrice de corrélation, il fait ressortir la probabilité de l'hypothèse nulle selon laquelle toutes les corrélations sont nulles. Il serait donc difficile d'effectuer une analyse factorielle si l'hypothèse nulle est acceptée. Le test doit donc être significatif, avec une valeur de significativité inférieure à 0,05 pour nous permettre de rejeter l'hypothèse nulle. C'est-à-dire confirme l'existence de relations entre les variables et la pertinence de l'analyse factorielle, Evrard et al (1993). Si la signification (Sig.) tend vers 0.000, c'est très significatif ; inférieur à 0.05, significatif ; entre 0.05 et 0.10, acceptable et au-dessus de 0.10, on rejette.

II.2.1.5.3. La fiabilité en utilisant l'analyse ACP

La fiabilité des échelles de mesure est vérifiée par le calcul du coefficient l'alpha de Cronbach (á). Ce coefficient se base sur la variance et la covariance. Il est généralement mené de façon préliminaire dans la plupart de recherches. La valeur du coefficient (á) est entre 0 et 1, plus il est élevé et se rapproche de 1, plus l'échelle est considérée comme fiable Evrard, Y., Pras B. et Roux E. (2009), Il n'existe pas de règle précise quant au seuil d'acceptation de (á), ceci varie selon les chercheurs : par exemple pour Perrien et al. (1984) la valeur de á doit être entre 0.5 et 0.6, tandis que Peterson (1994) recommande une valeur supérieure à 0.8. Cependant, Evrard et al. (2009) proposent des seuils d'acceptation de á selon la nature de la recherche :

1) Une étude exploratoire : la valeur de á est acceptable si elle est supérieure à 0.6.

2) Une étude confirmatoire : la valeur recommandée de á doit être supérieure à 0,8. D'ailleurs, Carricano et Poujol (2010) présentent les règles de décision de l'acceptabilité d'á de Cronbach de la manière suivante :

Tableau 6 : Les règles de décision de l'acceptabilité de l'Alpha de Cronbach

La valeur á

La décision

< 0,6

Insuffisant

Entre 0,6 et 0,65

Faible

Entre 0,65 et 0,7

Minimum acceptable

Entre à 0,7 et 0,8

Bon

Entre 0,8 et 0,9

Très bon

> 0,9

Considérer la réduction du nombre d'items

Source : Carricano et Poujol (2010, p. 53)

44

Dans notre étude, nous nous référons aux seuils de á préconisés par Evrard et al., (2009) : la valeur de á est acceptable si elle est supérieure à 0,6. Car nous nous sommes dans une étude exploratoire.

Figure 2 : Schéma Méthodologie d'appui de notre recherche

1 . Spécifier le domaine du construit

Définition et principes de la théorie choisie (cadre théorique)
Etablir les différentes dimensions des concepts

2 . Générer un échantillon d'items Générer les énoncés pour construire questionnaire :

Mesures existantes

Testons la fiabilité

3 . Collecter les données

Tester le questionnaire auprès d 'un échantillon restreint de notre population d'étude

4 . Purifier l' instrument de mesure

- Analyse factorielle (permet de retirer max d'info sur les variables observables et de réduire le nombre de facteurs complète alpha de cronbach pour mesurer la dimensionnalité de chaque concept) - Regarder que nos données soient métriqu es (kaiser,kmo,bartlett).

- vérifier la dimensionnalité de l'échelle (échelle pertinente pour obtenir info désirée)

- calculer l»alpha de cronbach (vérifier interrelation entre énoncés)=1 : bon, =0 : mauvais

 
 

5 . Collecter des données

Données finales sur lesquelles sera jugée la validité du questionnaire

 
 
 

6 . Estimer la fiabilité

Alpha de crobach

7 . Estimer la validité

 

Analyse factorielle pour tester la structure théorique, évaluer la qualité d'ajustement

Source : karbouch(2011)

45

I.2.1.5.4. Analyses de corrélation et de régression

a) Analyse de corrélation

La corrélation est une statistique qui caractérise l'existence ou l'absence d'une relation entre deux variables quelconques. Cette corrélation est mesurée par un coefficient variant de 0 à 1. En sciences sociales, la corrélation de 0,20 à 0,30 (et -0,20 à -0,30) sont bien faibles, mais elles sont souvent considérées comme importantes (Carricano, M., Poujol, F. et Bertrandias, L. 2010)

La corrélation est une quantification de la relation linéaire entre des variables continues. Le calcul du coefficient de corrélation de Pearson repose sur le calcul de la covariance entre deux variables continues. Le coefficient de corrélation est en fait la standardisation de la covariance. Cette standardisation permet d'obtenir une valeur qui variera toujours entre -1 et +1, peu importe l'échelle de mesure des variables mises en relation.

b) La taille d'effet

Pour la corrélation, nous n'avons pas à effectuer de calcul particulier pour connaître la taille d'effet. Nous regardons seulement la valeur du coefficient et nous l'interprétons selon les balises de Cohen (1988) :

Dans notre étude, c'est le coefficient de corrélation de Pearson qui est utilisé pour tester les différentes corrélations entre les construits et les facteurs du modèle théorique. http://spss.espaceweb.usherbrooke.ca/pages/stat-inferentielles/correlation.php consulté le 5 avril 2019 11heure 36

c) Analyse de régression

? La régression logistique ou modèle logit

C'est un modèle de régression binomiale. Il s'agit de modéliser l'effet d'un vecteur des variables aléatoires (X1, ..., XK) sur une variable aléatoire génériquement notée Y. Cette

régression permet d'expliquer une variable discrète en économétrie. Y est la variable à prédire ou à expliquer et X= (X1, X2, Xj) les variables prédictives. Etant donné qu'il s'agit de la régression logistique binaire, la variable Y prend deux modalités possibles, à savoir {1, 0} ; les variables Xj sont exclusivement continues ou binaires. http://fr.wikipédia.org/régressionlogistique consulté le 10 juin 2019 19heure 20.

46

? Spécification du modèle et définition des variable

La problématique du choix du secteur d'enseignement en RDC consiste à opérer deux alternatives : «le secteur des écoles du publiques» ou «des écoles privées» à un moment donné. Dans ce cas, pour un individu i, la variable endogène yi peut prendre deux valeurs :

{

D'où l'équation 1 : choix = 1130 + 1131X1 + 1132X2 + 113 3X3 + 1134X4 ..... 11318X18 +

D'où l'équation 1 : choix = 1130 + 1131Résidence +1132Place du répondant dans le ménage +1133Sexe +1134Age +1135 Niveau d'étude +1136 Nombre de personnes dans le ménage +1137 Activité +1138Temps travail +1139 Etat - civil +11310 Revenu mensuel +11311 Accès au crédit +11312 Distance séparant l'école +11313 Langue +11314 Secteur d'enseignement +11315 Qualité différentielle perçue +11316 Nombre d'enfants scolarisés à l'école +11317 Dépenses +11318 Pourcentage moyen des enfants +e

L'estimation du modèle repose sur l'hypothèse que yi dépend d'une variable notée yi* appelée variable latente.

Comme vu plus haut, nous supposons que le sexe, âge, la commune de résidence du parent, place du répondant dans le ménage, le niveau du revenu, dépenses ,activité de l'enquêté, état - civil, le niveau d'éducation du parent, temps travail, accès au crédit, distance séparant, nombre d'enfants scolarisés, nombre de personnes dans le ménage, pourcentage moyen des enfants, langue maternelle du parent, secteur d'enseignement, qualité différentielle perçue expliquer le choix. Ainsi, nous avons donc ; Y*=V? + E.

Avec Y* une variable latente binaire prenant la valeur 0 si le choix est de l'école publique et 1 si le choix est de l'école privée V représente le vecteur des variables (le sexe, âge, la commune de résidence du parent, place du répondant dans le ménage, le niveau du revenu, dépenses ,activité de l'enquêté, état - civil , le niveau d'éducation du parent, temps travail, accès au crédit, distance séparant ,nombre d'enfants scolarisés, nombre de personnes dans le ménage, pourcentage moyen des enfants, langue maternelle du parent, secteur d'enseignement, qualité différentielle perçue) susceptible d'influencer le choix . La variable expliquée étant binaire, deux modèles sont le plus couramment utiliser à savoir le modèle Probit et le modèle Logit. L'utilisation de l'un ou de l'autre modèle dépend de la distribution des erreurs. Si les erreurs sont normalement distribuées, le Probit est utilisé au lieu du Logit et dans le cas contraire c'est le Logit au lieu du Probit. Le test le plus couramment utilisé est celui de

47

Jacques BERRA. Les erreurs sont normalement distribuées si la probabilité de Jacques BERRA est supérieure au lieu choisi qui est le plus souvent égal à 0.05 ce qui est le cas de notre travail.

précédent sommaire suivant






Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy








"Entre deux mots il faut choisir le moindre"   Paul Valery