2.3.3. Traitement
et d'analyse des données
Dans le cadre de ce travail, quatre méthodes d'analyse
et d'interprétation des résultats ont été mises en
marche. Il s'agit de la méthode descriptive, de la méthode
analytique, de la méthode statistique et de la méthode
comparative.
Laméthodedescriptiveapermisdeprésenteretdedécrirelesdonnéesrelativesàl'équilibre
entre la vie privée et la vie professionnelle
etàlaperformancedesagentsautravail.Laméthodeanalytique,quantàelle,afacilitél'analyse
systématique des données en se focalisant à la fois sur
l'analyse des données et des résultats dans l'ensemble et sur
chaque cas. Par contre, la méthode statistique a permis de
dégager les mesures aussi de position que de dispersion comme les tests
de significativité ont été ressortis. La méthode
comparative a facilité les confrontations des groupes d'agents suivant
certaines variables afin d'apprécier les niveaux d'équilibre vie
privée - vie professionnelle et deperformance.
Le traitement des données a consisté dans un
premier temps en une analyse descriptive des données. Ensuite, il
était question d'une analyse factorielle exploratoire. En fin, quelques
tests statistiques ont été effectué afin d'évaluer
le lien entre différentes variables.
La description des variables qualitatives a consisté
à présenter les effectifs, c'est-à-dire le
nombred'individusdel'échantillonpourchaquemodalitédelavariable,etlesfréquences,c'est-
à-dire le nombre de réponses associées aux
modalités de la variable étudiée. Pour ce qui est la
description des variables quantitatives, elles ont été
décrites sur base des mesures de tendance centrale (moyenne,
médiane, mode), des mesures de dispersion (écart-type,
coefficient de variation, étendue). Au-delà de cette statistique
descriptive uni variée, certaines variables ont été
analysées deux à deux au moyen des tableauxcroisés.
L'analysefactorielleaserviàidentifierlesdimensionsdelastructureetàdéterminerdansquelle
mesure chaque variable peut expliquer chaque dimension en poursuivant deux
objectifs majeurs : résumer les données et réduire
les données. Cette analyse factorielle exploratoire en composantes
principales s'est déroulée en cinq étapes : la
validité de l'échelle de mesure,
l'extractiondesfacteurs,larotationdesfacteurs,l'épurationdel'échelledemesureetlafiabilité
de l'échelle demesure.
La validité de l'échelle de mesure
employée a été mesurée par les deux
éléments suivants :
- Le test de Sphéricité de Bartlett : a permis
d'examiner la matrice de corrélation et ressortir la probabilité
de l'hypothèse nulle selon laquelle toutes les corrélations sont
de zéro. Si
l'hypothèsenulleestacceptée,ilestdifficiled'effectueruneanalysefactorielle.Letestdevait
donc être significatif, avec une valeur de significativité (en
abrégé « Sig. ») inférieure à0,05 pour
nous permettre de rejeter l'hypothèsenulle.
- L'indice Kaiser-Meyer-Olkin (KMO) : pour vérifier
dans quelle proportion les variables retenues forment un ensemble
cohérent et mesurent de manière adéquat le concept
étudié. Des valeurs de KMO comprises entre 0,3 et 0,7
représentent des solutions factorielles acceptables, fortes si entre
0,80 et0,89.
La méthode d'extraction employée est l'analyse
en composantes principales (ACP). Elle avait
pourobjetdesynthétiserlesdonnéesenconstruisantunpetitnombredevariablesnouvelles,les
composantes principales. Deux critères nous ont permis d'extraire les
facteurs:
- La règle des valeurs propres ou « eigenvalue
» ou règle de Kaiser-Guttman : qui représente la
quantité d'information capturée par une composante. Seules les
composantes ayant une valeur propre supérieure à 1 ont
été retenues, car un facteur qui aurait une valeur propre
inférieure à 1 représenterait moins d'informations qu'un
simpleitem.
- Le critère du pourcentage de variance : il s'agissait
d'observer les pourcentages cumulés de la variance extraite par les
facteurs successifs. L'objectif était de s'assurer qu'un facteur
explique une quantité significative de variance. L'extraction a
été arrêté lorsque 60 % de la variance
expliquée estextraite.
Afin de pouvoir interpréter les facteurs, il
était nécessaire de réaliser une rotation. Celle-ci
permetd'identifierdesgroupesdevariablesfortementliéslesunsauxautres.Larotationfaiten
sorte que chaque item ne soit fortement lié qu'à un seul facteur.
Cette étude a fait recours à la rotation de type « varimax
». Celle-ci permet de minimiser le nombre de variables ayant de fortes
corrélations sur chaque facteur et simplifie alors
l'interprétation desfacteurs.
L'épuration de l'échelle s'est faite en deux
temps :
- D'une part, les coefficients structurels : fixés en
fonction de la taille de l'échantillon. La taille de
l'échantillon des agents de régies à Goma étant
comprise entre 150 et 199 (inclus), le seuil
retenuestde0,45.Ainsi,avons-nousprocédéàl'éliminationdesitemsdontlepoidsfactoriel
était supérieur à 0,45 sur deux ou plusieurs composantes
ou alors ceux dont le poids factoriel inférieur était
inférieur à 0,5 sur la composante principale
identifiée.
- D'autrepart,lescommunalités
:ils'agitdelapartdevariancequiestexpliquéeparl'item.
Elle devait être supérieure à 0,5 (qui
représente le seuil recommandé).
Ce processus d'épuration a été
répété jusqu'à l'obtention des items satisfaisant
aux critères ci- dessus, après quoi, il ne restait qu'à
s'assurer de la fiabilité de l'échelle retenue.
Pour s'assurer de la fiabilité de l'échelle
construite, le coefficient alpha de Cronbach a été calculé
afin de mesurer la cohérence interne de l'ensemble d'items.
C'est-à-dire le degré avec lequel les instruments utilisés
mesurent de façon constante le construit étudié à
partir d'un ensemble d'items. Il était alors question d'éliminer
les items qui diminuent le score, et de conserver ceux qui contribuent à
augmenter l'alpha. Le seuil d'acceptabilité de l'alpha varie
selonl'objectifdelarecherche.Pouruneétudeexploratoirecommecelle-ci,uncoefficientplus
faibleestacceptable(0,6)alorsquedanslecadred'unerecherchefondamentale,ildoitêtreplus
élevé (>0,8).
Lesniveauxdeglobauxontétédégagésenfonctiondesitemsetdimensionssignificatifsextraits
de l'analyse factorielle en composantes principales. Pour chaque dimension, un
score moyen a été calculé. Afin de trouver l'indice global
du concept en étude, il a été question de
pondéré le
scoremoyendeladimensionàsonpoidsdansl'explicationduconcept.L'indiceainsicalculéa
été à son tour divisé par le niveau de
l'échelle (5 pour la performance et 4 pour l'équilibre vie
privée - vie professionnelle) afin de l'exprimer en pourcentage.
Statistiquement, les résultats de comparaison
algébrique des indices dégagés ne seraient pas valables.
En effet, en cas de différence entre les niveaux d'équilibre vie
privée - vie professionnelle et de performance des agents de la TMK, une
étude de significativité de cette différence s'impose.
C'est pourquoi,
nousavonsfaitrecoursautesttd'égalitédesmoyennesdedes niveaux
inter agents du point de vue genre (Homme et Femme).
Pourquele test t soit faisable, le critère
d'homogénéité des variances s'est imposé. Ce
critère est vérifié grâce au test de Levene. Pour
toutes les valeurs significatives au test de Levene (Probabilité y
attaché est inférieure à 0,05), la première ligne
du test a été lue. La lecture de la seconde ligne reposait sur le
critère selon lequel la probabilité au test Levene est
supérieure à 0,05. L'hypothèse nulle suppose qu'il n'y a
pas de différence entre les moyennes des groupes d'agents Hommes et
Femmes. En d'autres termes, la différence entre les deux moyennes est
de 0. L'hypothèse alternative soutient qu'il y a une différence
entre les deux moyennes.
Par ailleurs, lorsqu'il s'agissait de déterminer
l'influence des variables quantitatives sur une variable quantitative, la
régression a été appliquée. En effet, la
régression sert à analyser la relation entre une variable
dépendante quantitative et plusieurs variables indépendantes
quantitatives. Chaque variable indépendante a été
évaluée par la procédure de régression de
façon à maximiser la prédiction de la variable
expliquée. Pour notre cas, il s'agit ici de tester
l'influencedel'équilibre entre la vie privée et la vie
professionnelle surlaperformance individuelle des agents au travail.
En somme, l'analyse descriptive, l'analyse factorielle
exploratoire en composantes principales, la comparaison des moyennes et la
régression ont été facilitées par le logiciel
SPSS.23.0. Le Microsoft Office Excel 2016 est intervenue dans le retraitement
des données issues du Serveur KoBoToolBox, avant leur exportation vers
le staticiel SPSS.23.0.
Conclusion partielle du chapitre
Le présent chapitre était consacré au
cadre méthodologique d'investigation. La première partie aborde
directement la présentation de notre milieu d'étude et la seconde
de l'approche appropriée et l'échantillonnage, suivi des
théories sur la collecte des données où nous avons
parlé de l'instrument adopté pour la collecte des données
et enfin les outils statistiques qui ont été mobilisés
pour tester les hypothèses de cette recherche. Ainsi, nous avons
opté pour l'approche hypothético-déductive et la
méthode d'échantillonnage aléatoire simple a
été choisi, c'est-à-dire tout le personnel de la
Société TMK avait la même probabilité d'être
choisis. Le questionnaire a été administré selon le mode
face à face et par téléphone grâce à
l'application KOBO COLLECT et deux types d'échelle ont été
adoptés pour mesurer les variables mixtes : l'échelle de
SWING mais aussi l'échelle de Likert. Deux outils statistiques ont
été captés pour l'analyse de cette étude, à
l'occurrence le Microsoft Office Excel et l'IBM SPSS 23.
Le chapitre suivant va devoir nous dévoiler la
présentation des données et discussion des résultats.
|