CHAPITRE 3 : Méthodologie de recherche et
analyse des résultats
Pour atteindre nos objectifs, nous avons adopté une
démarche méthodologique qui se résume en plusieurs phases
:
3.1 Recherche documentaire
Après la prise de contact avec le personnel de la DPP,
nous avons commencé la recherche des ouvrages ayant trait à notre
thème. C'est ainsi que les recherches sur internet ont commencé,
la consultation des anciens mémoires de l'ENEAM et les documents sur les
EPES. L'examen des documents trouvés et dont la liste est publiée
dans la bibliographie nous a, d'une part, permis de cerner le contenu de la
notion de critère de performance ainsi que les instruments de sa mesure
et d'autre part de découvrir non seulement les différents travaux
déjà réalisés en la matière mais aussi les
différentes techniques d'élaboration d'un indicateur
composite.
Au vue de l'explication donnée au critère de
performance, ainsi que les variables qui permettront de le cerner, il s'agira
d'exposer ici quelques méthodes statistiques de construction des
indicateurs composites.
3.1.1 Quelques méthodes statistiques pour
élaborer un indicateur composite
Après nos recherches, nous avons retenu deux
méthodes pour l'élaboration d'un indicateur composite. Il s'agit
: une approche d'entropie et une approche d'inertie.
3.1.1.1 Approche entropie
L'approche d'entropie est issue de la mécanique
dynamique. Elle est beaucoup exploitée dans la théorie
statistique de l'information. Massoumi (1986) s'est basé sur cette
théorie pour proposer un indicateur composite optimal qui minimise une
somme pondérée de divergences deux à deux.
Soit X une variable aléatoire à valeur dans x1,
x2, ..., xn ; posons pi = P(X = xi) la probabilité de
réalisation de l'évènement X = xi. Soit g (pi) la
quantité d'information associée à la réalisation de
cet évènement.
L'entropie H(P) associée à cette distribution de
probabilité P se définit comme
n
l'espérance de
g p H p E g p
( ) : ( ) ( ( ))
= =?
p g p
( )
i i
i = 1
Si g ( pi ) = - log(
pi), on obtient l'entropie de Shannon dont l'expression est
donnée par :
n
H p
( ) = -? p p
log( )
i i
i = 1
Elle est comprise entre 0 et log(n), ces deux valeurs
correspondent respectivement aux évènements certains et aux
évènements équiprobables. Il devient ainsi possible de
définir des mesures pour capter la divergence entre deux distributions.
Les principales limites de cette approche résident dans le choix des
paramètres et des pondérations utilisées dans la forme
fonctionnelle de l'indicateur composite.
|