Élaboration des critères de performance des
établissements privés de l'enseignement supérieur
INTRODUCTION
Au lendemain des indépendances, les Gouvernements
Africains prirent une conscience aiguë du rôle capital que
l'éducation peut jouer dans le processus du développement
économique et social. Aussi, le Bénin dès 1972,
était-il contraint d'opérer une réforme de son
système éducatif, afin que l'école béninoise soit
un véritable instrument de lutte contre le sous-développement et
de formation de capital humain. L'éducation peut se définir en
termes généraux, en tant qu'ensemble des méthodes de
formation humaine, et de manière plus étroite en tant que
processus survenant dans les institutions spécialisées. Elle
constitue indiscutablement la forme essentielle d'épanouissement des
ressources humaines. Selon Khôï (1967, 13), «
l'éducation peut être définie comme l'ensemble des
processus qui forment les hommes et les préparent à leur
rôle dans la société ». De ce fait, le
secteur de l'éducation joue un rôle primordial dans le
développement économique et social.
Au Bénin, la constitution du 11 décembre 1990 et
les résolutions des États Généraux de
l'éducation, en exprimant une volonté populaire, affirment que
l'éducation est la première priorité du pays. La nouvelle
loi d'orientation de l'éducation nationale (loi n02003-17 du
17 octobre 2003) en ses articles 1, 2, 3 et 4 précise et insiste sur le
principe que l'école doit permettre à tous d'avoir accès
à la culture, à la science et au savoir-être. Ce secteur
est subdivisé en quatre (04) domaines dont l'Enseignement
Supérieur. Ce dernier est assuré à la fois par le public
et le privé. Le secteur privé de l'enseignement supérieur,
composé de centres privés et des universités
privées, est sous l'autorité du Ministère de
l'Enseignement Supérieur et de la Recherche Scientifique. Il forme les
étudiants dans de diverses filières compte tenu du besoin ou de
la demande exprimée par le marché de l'emploi.
Les étudiants formés dans les établissements
privés de l'enseignement supérieur, comblentils l'attente des
offreurs d'emplois ?
Les établissements privés apportent-ils une
solution à la gestion du flux des étudiants? Les programmes de
formation sont-ils respectés ?
Quelle est l'efficacité externe des établissements
privés?
Les enseignants qui interviennent dans ces établissements
sont-ils qualifiés?
C'est pour tenter de réponses à ces questions
que nous avons choisi de réfléchir sur le thème : «
élaboration des critères de performance des
établissements privés de l'enseignement supérieur
». Le présent travail s'articule autour de deux (02) parties:
- La première partie présente
l'intérêt de l'étude à travers la
problématique et informe sur les objectifs fixés ainsi que les
hypothèses sous-jacentes. Il s'agit de présenter
également, les travaux déjà réalisés sur le
classement des établissements d'enseignement supérieur ;
- La deuxième partie est consacrée d'une part
à la méthodologie utilisée, aux résultats de
l'étude ainsi qu'à leur analyse, la présentation de
l'indicateur et ses valeurs par établissement. D'autre part, une
étude comparée de l'indicateur avec ses principales variables a
été réalisée. Elle comporte enfin l'analyse des
résultats, les limites de l'indicateur ainsi que les recommandations
formulées.
CHAPITRE 1 : Cadre institutionnel de l'étude
Cette partie est décomposée en deux : la
première renseigne sur le cadre institutionnel et la seconde concerne la
présentation du cadre d'étude
1.1 Cadre institutionnel : Historique et mission de
MESRS 1.1.1 Historique de MESRS
Situé à Cotonou, capitale économique du
Bénin, le MESRS est l'un des Ministères en charge de
l'éducation au Bénin. En effet, l'administration du
système éducatif béninois a connu toutes sortes d'avatars.
Le cadre institutionnel a varié au rythme des changements politiques.
Jusqu'à l'avènement de la Réforme de 1975, un seul
ministère, le Ministère de l'Éducation Nationale, de la
culture, de la Jeunesse et des sports s'occupait du secteur. De 1975 à
la Conférence des Forces Vives de la Nation (Février 1990),
quatre ministères se sont partagés la tutelle du système
qui a mis en place un modèle de développement socialiste. Avec
les contestations à la fois politiques et institutionnelles de 1990, on
est revenu à un Ministère de l'Éducation Nationale et de
la Recherche Scientifique, la Culture et l'Alphabétisation étant
toujours logées dans un autre ministère. En 2001 de nouveau,
l'Éducation est placée sous la tutelle de quatre
ministères :
- Le Ministère de l'Enseignement Primaire et Secondaire
(MEPS), qui s'occupe aussi de l'enseignement maternel qui n'est pas
explicitement mentionné dans la dénomination du
ministère.
- Le Ministère de l'Enseignement Technique et de la
Formation Professionnelle (METFP) a en charge l'éducation formelle (les
établissements d'enseignement technique et de formation professionnelle)
et l'éducation non formelle (les apprentissages)
- Le Ministère de l'Enseignement Supérieur et de
la Recherche Scientifique (MESRS) dont relèvent les universités
et tous les établissements d'enseignement supérieur (les
Instituts Universitaires de Technologie et les établissements de
formation au BTS et autres formations professionnelles)
- Le Ministère de la Culture, de l'artisanat de du
Tourisme (MCSL) définit et gère la politique culturelle du
Bénin. Il s'occupe de l'alphabétisation des adultes.
En Avril 2006, le Ministère de l'Enseignement Technique
et de la Formation Professionnelle (METFP) et le Ministère de
l'Enseignement Supérieur et de la Recherche Scientifique a
été fusionnés en un seul ministère,
Ministère de l'Enseignement Supérieur et de la Formation
Professionnelle (MESFP). L'alphabétisation est placée sous la
tutelle du Ministère de la culture, des Sports et Loisirs (MCSL). Un an
plus tard ; les ministères ont changé de dénomination pour
devenir Ministère de l'Enseignement Maternel et Primaire
(MEMP) ; Ministère de l'Enseignement Secondaire et de
la Formation Professionnelle (MESFP) et le Ministère de l'Enseignement
Supérieur et de Recherche Scientifique (MESRS). Depuis lors, ces
ministères ont gardés leurs dénominations jusqu'à
ce jour.
1.1.2 Mission de MESRS
Il assure la conception, la mise en oeuvre et le suivi de la
politique de l'Etat en matière d'enseignement supérieur et de la
recherche scientifique conformément aux conventions internationales,
lois et règlements en vigueur en République du Bénin et
à la politique du gouvernement dans le développement des
ressources humaines. Il doit veiller au développement harmonieux de
l'ensemble du système éducatif et former des cadres
supérieurs compétents et compétitifs capable d'assurer
leur propre épanouissement et le développement de la Nation.
L'éducation supérieure est assurée par les
universités publiques et les universités et centres
privés.
Dans les secteurs publics, ils accueillent dans les
facultés, les écoles et les institutions supérieures, les
titulaires du baccalauréat ou toute autre certification admise en
équivalence pour les préparer aux différents
diplômes nationaux de l'enseignement supérieur, dans des cursus de
deux à huit ans (2 à 8 ans). La variation des durées de
formation est fonction des domaines et niveaux d'études ainsi que les
filières.
Pour assurer sa mission, le MESRS dispose: de structures
rattachées au ministre, d'un Cabinet du Ministre, d'un Secrétaire
Général du Ministère, des directions centrales, des
directions générales, des directions techniques, des Organismes
et Établissements publics sous tutelle et des Organismes consultants
et/ou délibérants. A l'enceinte du ministère même,
se trouvent le Cabinet du Ministre, le Secrétariat Général
et les trois directions centrales que sont :
La Direction des Ressources Humaines (DRH), la Direction des
Ressources Financières et Matérielles (DRFM) et la Direction de
la Programmation et de la Prospective (DPP).
1.2 Présentation du cadre d'étude : la
DPP
Conformément aux dispositions l'arrêté
N°146/MESRS/CAB/DC/SGM/DPP/SA de l'année 2008, portant
Attributions, Organisation et Fonctionnement de la DPP, elle doit suivre des
règles pour le bon fonctionnement des tâches qui lui ont
été assignées.
1.2.1 Attribution
En tant que direction centrale du Ministère, elle est
l'organe de conception, de planification et de suivi-évaluation des
projets et programmes du Ministère. Elle est chargée, en relation
avec les autres Directions et Organismes sous tutelle, d'une fonction d'aide
à la décision stratégique.
Élaboration des critères de performance des
établissements privés de l'enseignement supérieur
À ce titre, elle :
- Réalise toutes les études prospectives et
d'évaluation qui permettent d'éclairer les stratégies
à mettre en oeuvres par le Ministère, en fonction des
orientations de politique éducative dans le domaine de l'Enseignement
Supérieur et de la Recherche Scientifique ;
- Aide à la définition et au suivi, par leurs
responsables respectifs, des programmes d'activités et plans d'action
à mettre en oeuvre par le Ministère (conseil en management, aide
méthodologique)
- Élabore le budget-programme du Ministère avec
le concours de la Direction des Ressources Financières et du
Matériel (DRFM) et de la Direction des Ressources Humaines DRH) ;
- Assure le pilotage, la maintenance et l'exploitation des
systèmes d'information, en liaison avec les utilisateurs et les
producteurs ;
- Coordonne la programmation et le suivi des projets et
programmes du Ministère inscrits ou à inscrire au Programme
d'Investissements Publics ;
- Élabore les rapports trimestriels et annuels de
l'exécution du Programme d'Action du Gouvernement et du Programme
d'Investissements Publics ;
- Assure le suivi des tâches assignées au
Ministère par le conseil des Ministres et soumet
régulièrement au Ministre le point d'exécution de ces
tâches ;
- Centralise les informations relatives à la gestion des
projets et programmes en cours d'exécution, ainsi que leur
suivi-évaluation ;
- Fournit l'information en vue d'aider à la prise de
décisions stratégiques ;
- Assure les travaux d'organisation et d'amélioration des
méthodes de gestion dans l'ensemble des structures du Ministère
;
- Assure tous les travaux de suivi de la mise en oeuvre du
Plan Décennal du Secteur Éducation et du Plan Stratégique
de Développement de l'Enseignement Supérieur et de la Recherche
Scientifique ;
- Assure les plaidoyers en vue de l'amélioration de la
qualité et de l'équité de l'enseignement supérieur
et de la recherche scientifique.
1.2.2 Organisation et Fonctionnement
La DPP est divisée en sept services que sont : un
Service des Études et de la Prospective (SEP) ; un Service de
l'Organisation et de la Méthode (SOM) ; un Service de la Statistique et
de la Gestion de l'Information (SSGI) ; un Service de la Qualité et de
l'Équité (SQE), la Cellule de Suivi-Évaluation des Projets
et Programmes (CSEPP) et un Service Administratif et Financier (SAF). Parmi les
sept services, les six premiers s'occupent de la programmation et de la
prospective, et le dernier s'occupe des dossiers administratif et financier.
Service des Etudes et de la
Prospective
Il est composé de deux divisions à savoir la
division des études et celle de la prospective. Il est chargé
:
· de Réaliser ou de faire réaliser les
études prospectives et d'évaluation permettant d'éclairer
les stratégies à mettre en oeuvre au Ministère, en
fonction des orientations de la politique de formations dans le domaine de
l'enseignement supérieur et de la recherche scientifique ;
· de Contribuer à la définition des
programmes d'activité et des plans d'action ;
· d'Assurer l'étude, la conception et la
rédaction, à l'initiative des directions techniques et des
organismes sous-tutelle, des projets destinés au développement de
ce secteur de l'enseignement supérieur et de la recherche scientifique
;
· d'Assurer tout les travaux de suivi de la mise en
oeuvre du plan décennal du secteur éducation et des plan
stratégiques de développement de l'enseignement supérieur
et de la recherche scientifique ;
· de Définir, en relation avec les structures
responsables, la politique d'évaluation des diverses activités du
plan de développement de l'enseignement supérieur et de la
recherche scientifique ;
·
de Contribuer à l'identification et à la mise en
oeuvre des actions environnementales du ministère.
Service de l'Organisation et des
Méthodes
Il comprend deux divisions : division des normes et
procédures, et division du suivi organisationnel. Il est chargé
:
· de Définir, en relation avec les structures
concernées, le mécanisme d'évaluation de
l'exécution des diverses activités du ministère ;
· d'Élaborer et de faire appliquer les manuels de
procédures d'exécution des activités du Ministère
en vue d'améliorer la gouvernance et les performances des structures du
Ministère ;
· d'Assurer les travaux d'organisation et
d'amélioration des méthodes de gestions dans l'ensemble des
structure du Ministère en vue d'atteindre les résultats attendus
;
· de Déterminer les besoins en matière de
renforcement des capacités dans les directions centrales, les directions
techniques et les organismes sous tutelle ;
·
de Suivre et évaluer l'exécution du programme
d'activités du Ministère. Service des Statistiques et
de la gestion de l'information
Ce service est composé de deux divisions : la division
des Statistiques et celle de la Gestion de l'information. Il est chargé
:
· de Collecter, de traiter, d'analyser et de centraliser
les données du secteur et d'en assurer la synthèse et la
diffusion en vue de leur exploitation ;
· d'Élaborer et de diffuser l'annuaire statistique
du Ministère ;
· d'Élaborer au besoin avec la Direction
Générale de l'Enseignement Supérieur (DGES) des outils
d'aide à la décision dans le secteur de l'enseignement
supérieur et de la recherche scientifique : tableau de bord, carte
universitaire, guide d'orientation ;
· d'Assurer le pilotage, la maintenance et l'exploitation
des systèmes d'information, en liaison avec les utilisateurs et les
acteurs du système ;
· de Promouvoir l'utilisation des technologies de
l'information et de la communication dans les différentes structures du
Ministère en collaboration avec le Secrétariat
Général du Ministère ;
· de Coordonner en liaison avec la DGES toutes les
activités relatives à l'organisation du Conseil Consultatif
National de l'Enseignement Supérieur et d'en assurer le
Secrétariat.
|
Service de la Qualité et de
l'Équité
|
|
Ce service est composé de deux divisions : une division
de la qualité et celle de l'équité. Il est chargé
:
· d'Assurer l'amélioration de la qualité des
infrastructures académiques des universités ;
· de Contribuer à l'amélioration de
l'efficacité interne des Établissements de Formation et de
Recherche des universités ;
· de Veiller à la qualité et à la
durabilité des ouvrages réalisés par le Ministère
et ses différents structures, à savoir la construction et ou la
réhabilitation d'infrastructures administratives, pédagogiques et
sociales ;
· de Veiller à l'efficacité et à
l'équité dans la programmation et la mise en oeuvre de toutes les
actions du Ministère et de ses structures, en élaborant des
indicateurs appropriés régulièrement traités et
actualisés ;
· de Veiller à l'élaboration et à
la mise en oeuvre des mesures favorisant la discrimination positive au profit
des filles, des femmes et des handicapés dans les entités
universitaires en collaboration avec la DGES ;
· d'Assurer les plaidoyers auprès des
institutions nationales et internationales et auprès des partenaires au
développement, en vue de mobiliser des ressources matérielles et
financières pour soutenir les actions découlant de la mise en
oeuvre des différents programmes de promotion des jeunes filles et des
femmes de l'enseignement supérieur.
|
Cellule de Suivi-Evaluation des Projets et
Programmes
|
|
Elle est coiffée par un comité de pilotage de
la réforme budgétaire au sein du Ministère,
composée d'un secrétariat permanent et d'une division du
contrôle et de l'évaluation. Elle est chargée :
· d'Assurer la liaison entre le MESRS et les
Ministères en charge des Finances et de l'Économie, de la
Prospective et du Développement en matière de programmation, de
budgétisation et de suivi des opérations de développement
;
· d'Élaborer les budgets-programmes du
Ministère en collaboration avec la DRFM et DRH ;
· de Veiller à la définition, à
l'élaboration des indicateurs de performance des budgets-programmes du
Ministère et d'en assurer le suivi et l'évaluation ;
· d'Établir les bilans mensuels, trimestriels et
annuels d'exécution du budget-programme ;
· d'Assister les Directions Techniques en matière
d'élaboration de programmes, de rédaction des plans d'actions et
de suivi-évaluation des budgets-programmes,
· d'Initier des programmes de formation des acteurs
impliqués dans la gestion et l'animation des budgets-programmes
(préparation, exécution, suivi-évaluation). La CSEPP
dispose d'un point focal dans toutes les structures du Ministère.
|
Service Administratif et Financier
|
|
Il est composé de deux divisions, une division des
affaires administratives et l'autre des affaires financières et du
matériel. Il est chargé :
· d'Assurer la saisie et la reprographie des
correspondances et des dossiers de la direction ;
· de Réceptionner, d'enregistrer et
d'expédier le courrier administratif,
· de Classer et de tenir les dossiers et les archives ;
· de Coordonner les travaux de secrétariat de tous
les services de la direction ;
· de Gérer les ressources financière et
matérielles affectées à la direction ;
· de Coordonner la préparation du budget de
fonctionnement de la direction et d'en assurer l'exécution ;
· de Veiller à la mise en oeuvre des nouvelles
procédures budgétaires des ressources financières
affectées à la direction ;
· d'Exécuter toutes autres tâches à lui
confiées par le directeur.
CHAPITRE 2 : Cadre théorique de
l'étude
Cette section vient décrire le contexte, la
problématique, les objectifs, les hypothèses de recherche ainsi
que la revue de littérature.
2.1 Contexte et problématique de recherche
L'éducation, l'une des bases de développement
de toute nation, s'impose comme secteur prioritaire dans l'élaboration
de toute stratégie de développement. Il est difficile
d'espérer produire un capital humain compétent si rien n'est fait
dans le sens de l'amélioration de la qualité et de la
quantité de l'offre de la scolarisation.
Au Bénin, l'éducation formelle, assurée
par le secteur public et celui du privé, est subdivisée en trois
grandes parties à savoir : Enseignement maternel et primaire,
Enseignement secondaire et technique, enfin l'Enseignement supérieur.
Depuis les années 1990, le secteur de l'enseignement
supérieur public et de la recherche de notre pays est confronté
à une crise profonde dont l'origine se situe principalement dans le
déséquilibre croissant entre les besoins nécessaires pour
assurer un enseignement de qualité et les ressources financières
disponibles. L'un de ces nombreux problèmes est :
Comment gérer le paradoxe entre les effectifs
d'étudiants pléthoriques au regard des capacités
d'accueil, du nombre d'enseignants, des infrastructures et équipements
?
Pour trouver des solutions à cette crise et
maîtriser un peu l'évolution des flux et des ressources, on
assiste depuis les années 1990, à la création des
établissements privés d'enseignement supérieur. Il en
existe deux catégories : les universités privées et les
centres privés d'enseignement supérieur. Depuis lors, leur nombre
ne cesse d'augmenter. C'est ainsi qu'avec 29 établissements au cours de
l'année académique 1999-2000, on est passé à 95 au
cours de l'année académique 2008-2009. Ainsi, ce nombre a
été multiplié par 3 en 10 ans. Parmi ces 95
établissements privés autorisés par le Ministre en charge
de l'enseignement supérieur, on distingue 7 universités
privées et 88 centres privés qui assurent la formation d'un bon
nombre d'étudiants dans différentes filières. En
1999-2000, ces établissements privés avaient encadré
environ 6096 étudiants sur un effectif total de 24849 soit un
pourcentage de 24,53%. En 2008-2009, cet effectif du
privé est passé à 20438 sur un total de 82402 soit un
pourcentage de 24,80%. En effet, l'effectif des étudiants
absorbés par le privé a été aussi multiplié
par 3 en 10 ans (d'après l'annuaire statistique 2008-2009 du MESRS). Ce
secteur de l'enseignement supérieur se développe de
manière significative sans que cette évolution soit
véritablement encadrée et contrôlée par les pouvoirs
publics. Après leur autorisation pour la création d'une
filière, une fois arrivée sur le terrain, ils en créent
d'autres de leur choix, et délivrent des diplômes qui par la suite
amènent le problème de non reconnaissance de diplômes par
l'État. Malgré les nombreux efforts que font le gouvernement et
les récentes réformes entamées dans ce secteur, il se pose
la question de savoir :
Dans quel établissement privé envoyé un
enfant après son baccalauréat pour commencer ses études
supérieures ?
Quel est le niveau de la qualité de l'enseignement
dispensé par les EPES par rapport aux établissements publics au
Bénin ?
Quels sont les établissements autorisés et quelles
sont les filières autorisées dans chaque établissement
?
Est-ce que leurs programmes sont approuvés par le CAMES
?
Sur quels critères se base chaque établissement
pour dire qu'il est le meilleur à titre publicitaire à l'approche
de chaque rentrée universitaire ?
Comment est perçue la qualité des prestations des
EPES par les parents, l'État et certains apprenants?
Ces interrogations revêtent une importance capitale
pour le développement de l'éducation d'un pays, surtout au niveau
de l'enseignement supérieur. C'est pour répondre à
celles-ci que nous avons choisi de réfléchir sur le thème
: « élaboration des critères de performance des
établissements privés de l'enseignement supérieur
».
2.2 Objectif de recherche
L'objectif de ce travail est d'élaborer des
critères de performance des établissements privés
d'enseignement supérieur en vue de proposer des recommandations de
politiques ou stratégies socio- économiques ou éducatives
pouvant contribuer à l'amélioration de la performance de ces
établissements. A cet effet, nous nous sommes fixés les objectifs
spécifiques (OS) suivants:
Objectif Spécifique1 : Identifier les variables
pertinentes pouvant servir de critère d'appréciation de la
performance de ces établissements.
Objectif Spécifique2 : Élaborer un
indicateur composite en vue d'évaluer la performance de ces
établissements.
2.3 Hypothèses de recherche
Eu égard aux objectifs ci-dessus énoncés,
les hypothèses ci-après ont été formulées
:
Hypothèse1: Les variables qualité et
accès expliquent fortement la performance des établissements.
Hypothèse2: La variable qualité a le
coefficient le plus élevé dans la formation de l'indicateur.
2.4 Revue de littérature
Dans cette rubrique, nous ferons un compte rendu des travaux
de certains auteurs et institutions qui ont parlé des critères de
performance des établissements d'enseignement supérieur. Cette
revue est subdivisée en trois sections. La première concerne la
définition de quelques concepts. La deuxième présente les
différents classements principaux existants. Enfin, la troisième
section est consacrée à une synthèse qui présente
les grandes conclusions de la revue ainsi que la liste des variables
recensées.
2.4.1 Définition des concepts « performances
d'un système » et « indicateur »
2.4.1.1 Performance d'un système
Dans le dictionnaire français LAROUSSE, le mot «
performance » est défini comme étant le résultat
obtenu dans un domaine précis par quelqu'un, une machine, un
véhicule...Elle est aussi définie comme un exploit ou une
réussite remarquable en un domaine quelconque. Selon l'UNESCO, la
performance est la capacité qu'un établissement a pour atteindre
ses objectifs. En définissant la performance comme le résultat
perçu et évalué, nous supposons qu'il peut être
situé sur une échelle ordinale de quantité (par exemple,
plus loin ou moins loin) ou de qualité (par exemple, plus beau ou moins
beau) et qu'il est aussi comparé à d'autres résultats. Par
conséquent, le terme performance doit être utilisé d'une
manière très spécifique. Il fait référence
à un résultat situé sur un continuum évaluatif.
Depuis la mise en application de la LOLF, la performance
s'impose progressivement comme une évidence, un incontournable objet
à prendre en compte dans tous les domaines. La définition de la
performance du service public peut constituer une entrée pour
dépasser une première approche formelle et en comprendre le sens
et les conséquences dans le champ de l'éducation. La performance
est définie par l'atteinte des objectifs de l'administration dans la
réalisation d'un programme. Trois critères sont associés
à cette définition, la prolongent et la précisent. Le
critère de l'efficacité est mobilisé pour signifier
l'impact ou le résultat final sur l'action publique. L'efficience
constitue un deuxième critère de référence et
renvoie à l'amélioration du rapport entre les moyens
consommés et la réalisation. Le dernier critère consiste
à quantifier la qualité du service apporté à
l'usager. Les indicateurs de performance renvoient implicitement à ces
critères de référence. L'analyse de ce dernier se fait
soit sur l'enseignement soit sur l'établissement. Par rapport à
l'enseignement, la performance se mesure suivant plusieurs angles à
savoir : l'accès, l'efficacité interne, la pertinence et
l'efficacité externe, la qualité de l'enseignement, la
professionnalisation de l'enseignement supérieur, la capacité de
recherche et d'innovation, l'équité, les coûts et
dépenses, la capacité de gestion et de pilotage, (guide UNESCO).
Par contre, par rapport à l'établissement cette opération
se fait sous trois angles : en matière d'enseignement, il est important
de connaître les effectifs par formation; leur évolution dans le
temps; les diplômes par formation et par niveau; les taux de
réussite et d'abandon par formation.... Pour les enseignants, il s'agira
de
connaître leurs statuts; leurs qualifications et leurs
expériences. Ensuite, en matière de recherche, il faut voir le
nombre d'enseignants qui effectue des recherches (publication), et enfin, en
matière de gestion des établissements, il est aussi important de
connaître les sources de financement et de savoir si l'évolution
correspond au plan stratégique.
2.4.1.2 Rappel sur la notion d'indicateur
Généralement utilisé pour mesurer une
situation ou pour apprécier l'évolution d'un
phénomène dans le temps et/ou dans l'espace, un indicateur se
présente comme une variable quantitative ou qualitative qui permet de
caractériser une situation évolutive, une action ou les
conséquences d'une action, de façon à les évaluer
et à les comparer à leur état à différentes
dates. Dans le système éducatif, c'est un outil qui doit à
la fois permettre de rendre compte de l'état d'un système
éducatif, et également informer l'ensemble de la
communauté éducative d'un pays de cet état.
Il est élaboré à partir des informations
qui permettent d'étudier un phénomène
éducatif. Donc un indicateur est un outil d'aide à la
décision, dont l'utilisation s'inscrit dans une démarche qui
répond à un objectif et se situe dans un contexte donné.
Les indicateurs de performance permettent de caractériser
l'évolution des systèmes éducatifs dans leur contribution
à l'élévation du niveau général de
formation, dans la lutte contre les inégalités sociales et de
manière plus générale, dans l'optimisation du rapport
coût/ qualité du service. Ces indicateurs ont pour objectif de
mesurer la performance interne (part de marché des formations par
discipline, taux de diplômés par classe), la performance externe
(destination des diplômés, publications par le personnel
enseignant) et la performance opérationnelle (coûts unitaires,
ratios enseignants/étudiants).
Par ailleurs, on distingue les indicateurs simples et les
indicateurs composites. Les indicateurs simples ou élémentaires
sont rattachés à une grandeur simple, qui traduit une seule
variable. Quant aux indicateurs composites, encore appelé indicateurs
synthétiques, ils sont un agrégat ou une chaîne
d'indicateurs individuels valorisés c'est-à-dire une combinaison
d'indicateurs élémentaires qui traduisent le comportement d'une
grandeur
complexe. Dans sa forme la plus simple, un indicateur composite
suit la représentation
linéaire de l'exemple suivant : IC w y w y
= +
1 1 n 2 2
|
p
+ + w y
n p pn = ? w y
i in
|
où :
|
|
i = 1
IC , correspond au score du composite dans
l'unité n,
yin , correspond à l'indicateur individuel pour
l'attribut i dans l'unité n, wi , spécifie le
poids attaché à l'attribut i.
Un bon indicateur doit avoir un certains nombres de
caractéristiques :
- sa pertinence ;
- sa capacité à résumer l'information sans
la déformer ;
- son caractère coordonné et structuré qui
permet de le mettre en relation avec un autre indicateur pour une analyse du
système ;
- sa précision et sa comparabilité ;
- sa fiabilité.
Il doit permettre :
- de mesurer la distance par rapport à un objectif ;
- d'identifier les situations problématiques ou
inacceptables ;
- de répondre aux préoccupations des politiques et
au questionnement qui a conduit à son choix ;
- de comparer sa valeur à une valeur de
référence, à une norme ou à lui-même
calculé pour une période d'observation.
2.4.2 Les différents classements existants
Les pouvoirs publics s'intéressent de plus en plus aux
analyses comparatives nationales et internationales de l'éducation.
Elles leur permettent d'identifier des politiques d'éducation efficaces
qui contribuent à la fois à améliorer les perspectives
économiques et sociales des individus, à promouvoir une gestion
efficace des systèmes scolaires et à mobiliser des ressources
supplémentaires pour répondre à une demande croissante. Un
classement des universités et centres privés d'enseignement
supérieur va éclairer les différents acteurs sur le
bon fonctionnement de ces établissements, la
qualité de l'enseignement de leur formation ainsi que l'évolution
du système éducatif privé du supérieur.
La raison d'être des
classements
L'évaluation des programmes d'études et des
établissements n'est pas chose nouvelle. Depuis 1983, U.S. News and
World Report publie un palmarès des meilleures universités
américaines. C'est plutôt la comparaison, à
l'échelle mondiale, de la performance des universités, qui est
récente. En effet, la position qu'occupe une université dans
l'univers de la recherche, au plan national ou international, est souvent
perçue comme le gage de qualité de l'enseignement par excellence,
à l'époque où la connaissance, l'innovation, la recherche
et le développement sont essentiels au progrès des pays. Dans
notre pays le Bénin, un tel travail n'a jamais été
abordé, du moins à notre connaissance.
A quel besoin ces classements
répondent-ils?
D'abord, ils satisfont un besoin d'information au sein de la
clientèle étudiante, quant aux programmes d'études
proposés par ces universités. Ensuite, la comparaison nationale
de ces établissements d'enseignement supérieur, notamment sous la
forme des classements, vient satisfaire la demande d'information quant aux
forces et faiblesses de ces institutions. Enfin, elle comble un déficit
de transparence, alors que ni les institutions, ni les gouvernements ne sont en
mesure de fournir toutes les informations que requièrent leurs
clientèles (Usher & Savino, 2006). Selon le rapport Bourdin (2008),
les classements viendraient, en effet, pallier l'opacité qui plane sur
les performances des établissements. Toutefois, malgré leur
première utilité, les classements sont loin d'être des
outils servant à mesurer l'« assurance-qualité ».
Il s'avère essentiel d'étudier les classements
universitaires puisque de plus en plus d'institutions d'enseignement
supérieur s'y réfèrent pour orienter leurs actions et que
plusieurs gouvernements s'en servent pour formuler leurs politiques publiques
dans le domaine de l'éducation. Les classements ont un impact
réel sur les politiques. Devant la nécessité de fonder ces
politiques sur de solides données, on peut s'interroger sur la
qualité de cette source d'information. Les renseignements sur lesquels
s'appuient les décideurs publics et les gestionnaires
d'établissements sont-ils exacts, fiables, objectifs? Ces
classements permettent-ils d'évaluer la valeur
réelle des établissements en matière d'enseignement, de
recherche, missions premières des universités?
Les experts répondent que la meilleure façon de
tirer profit des informations que fournissent les classements est encore de
bien les connaître et les comprendre afin de correctement les
interpréter. Actuellement, il existe deux sortes de palmarès
à savoir :
· les palmarès nationaux qui présentent la
liste des meilleurs établissements d'enseignement supérieur
à l'échelle nationale et ;
· les palmarès internationaux qui présentent
la liste des meilleurs établissements d'enseignement supérieur
à l'échelle mondiale.
2.4.2.1 Les classements internationaux
Les principaux classements internationaux évaluent
à peu près les mêmes établissements d'enseignement
universitaire et leurs appréciations se fondent sur des principes et
approches assez similaires (Dyke, 2005). Au-delà de ces aspects, les
classements diffèrent considérablement dans les objectifs qu'ils
poursuivent, les données qu'ils collectent et les champs qu'ils
couvrent. Pour la seule notion de « qualité » d'un
établissement, que tous les classements se targuent d'évaluer,
les définitions peuvent grandement varier (Dyke, 2005; Usher &
Savino, 2006).
Aujourd'hui, il existe dans le monde au moins dix
palmarès en concurrence, que sont : le Shanghai Academic Ranking of
World Universities de l'université chinoise Jiao Tong (le classement de
Shanghai), le Times Higher Education World University Rankings (classement de
Times), le Webometrics Ranking of World Universities (classement Webometrics)
du Conseil supérieur de la recherche scientifique espagnol, le Leiden
World Ranking du Centre d'études sur les sciences et les technologies de
l'université de Leiden aux Pays-Bas, le classement des programmes de MBA
du Financial Times, le classement de l'École des Mines de Paris, le
Higher Education Evaluation and Accreditation Council of Taiwan (HEEACT), le
classement Newsweek du magazine américain Newsweek, le classement
Scimago proposé par un laboratoire espagnol et le classement
d'excellence du Centrum für Hochschulentwicklung, un think tank
allemand.
Parmi tous ces classements, trois d'entre eux, le Shanghai
Academic Ranking of World Universities de l'université chinoise Jiao
Tong, le World University Ranking du Times Higher Education Supplement et le
Webometrics Ranking of World Universities sont mieux connus, attendus et
même parfois redoutés. Ils sont compulsés par les chefs
d'établissements, les autorités gouvernementales, les
étudiants à la recherche de l'université où
poursuivre leurs études et même par les dirigeants d'entreprises
en recrutement. Cette section présente un tour d'horizon de ces trois
classements internationaux.
Le classement de Shanghai
Le classement de Shanghai est apparu la première fois
en 2003, et a été créé par 4 professeurs de
l'université de Jiao Tong en Chine. Le succès de leur classement
une fois publié a été tel qu'il a fini par faire le tour
du monde seulement en quelques mois, ce qui a conduit les enseignants à
continuer l'expérience face à ce succès, et le remettre
à jour tous les ans au mois d'août.
À l'origine, les initiateurs du projet avaient pour
objectif de situer, sur l'échiquier mondial, les établissements
d'enseignement supérieur chinois en les comparant à leurs
homologues à travers le monde (Pech, 2009; Bourdin, 2008). Le
succès retentissant de ce classement, principalement auprès des
médias, les incita à répéter annuellement cette
comparaison. Le classement de Shanghai compare 1200 institutions d'enseignement
supérieur sur la pondération de 6 indicateurs, tous liés
à la recherche. Cinq de ces indicateurs ont un effet de taille :
à qualité égale, plus le nombre de chercheurs est grand
dans une institution, plus sa note sera élevée.
Tableau N°1: Les indicateurs du classement de
Shanghai et leur pondération
Critères
|
|
Indicateurs
|
Pondération
|
Qualité formation
|
de
|
la
|
Nombre de prix Nobel et de médailles Fields parmi les
anciens élèves
|
10 %
|
Nombre de prix Nobel et de médailles Fields parmi les
chercheurs
|
20 %
|
|
|
|
Nombre de chercheurs largement cités dans les
disciplines des sciences du vivant, de la médecine, de
|
|
|
|
|
la physique, des sciences de l'ingénieur et des
sciences
|
20 %
|
Qualité personnel
|
|
du
|
sociales
|
|
|
|
|
Nombre d'articles publiés dans Nature et Science entre
|
20 %
|
|
|
|
2004 et 2009
|
|
|
|
|
Nombre d'articles répertoriés dans le Science
Citation
|
|
|
|
|
Index-expanded (SCI Expanded) et dans le Social
|
|
Output
|
de
|
la
|
|
20 %
|
recherche
|
|
|
Science Citation Index (SSCI) en 2009. Les articles du
|
|
|
|
|
SSCI comptent double. (Le SSCI entre dans le
décompte des articles depuis 2006).
|
|
Grandeur institutions
|
|
des
|
Performance académique au regard de la taille de
l'institution
|
10 %
|
Source : ARWU, 2008.
Basé sur des critères que ces créateurs
ont jugés représentatifs du niveau d'une université, ce
classement est néanmoins critiqué de par le fait qu'il met en
avant la recherche menée au sein des universités au
détriment de la qualité de l'enseignement. Ainsi, la logique fait
que plus l'université a de moyens, plus elle se retrouve proche du haut
du classement. Le classement de Shanghai nous donne donc une indication sur la
taille et la renommée d'une université, mais en aucun cas de la
qualité de l'enseignement qui y est dispensé. Aussi, dans ces
critères n'apparaissent malheureusement pas certaines orientations
jugées prioritaires en France comme la formation supérieure des
cadres, des ingénieurs et des gestionnaires pour les milieux
socio-économiques ou les sciences humaines et sociales. Les secteurs de
l'ingénierie et du management, l'ouverture sociale et l'innovation
technologique sont peu pris en compte dans les critères de ce
classement.
Le Times Higher Education World University Rankings
Un an après la publication du premier palmarès
de Shanghai, flairant la bonne affaire, le magazine britannique Times Higher
Education Supplement (THES) publie le World University Ranking, classement
devenu lui aussi l'un des plus connus à travers le monde. En tenant
compte des critiques émises à l'égard du classement de
Shanghai et cherchant à élargir les bases de l'évaluation
des établissements, le Times prend en considération non seulement
la recherche, mais aussi l'enseignement dispensé par
l'université. Cinq critères, qualitatifs et quantitatifs,
permettent au Times d'ordonner les 200 « meilleures »
universités du monde.
Tableau N°2: Les critères du THE (Times Higher
Education)
Critères
|
|
Indicateurs
|
Pondération
|
Évaluation par les pairs
|
|
Points obtenus lors de
l'enquête auprès des pairs (divisée en cinq
domaines)
|
40 %
|
Évaluation par
employeurs
|
les
|
Réponses à l'enquête
auprès des employeurs
|
10 %
|
Taux d'encadrement
|
|
Rapport entre les effectifs d'étudiants et
d'enseignants
|
20 %
|
Citation par Facultés
|
|
Nombre de citation divisé par le nombre de
chercheurs
|
20 %
|
Internationalisation corps enseignant
|
du
|
Proportion d'enseignants
étrangers
|
5 %
|
Internationalisation étudiants
|
des
|
Proportion d'étudiants
étrangers
|
5 %
|
Source: Times Higher Education, 2008.
Ce que certains reprochent au classement du Times, c'est
l'importance qu'il accorde à la réputation de
l'établissement : on y récompense davantage les efforts de
marketing plutôt que les chercheurs de l'institution (Marginson &
Wende, 2007). Cette mesure est obtenue, depuis 2005, grâce à
l'évaluation de l'établissement par les pairs (40% de la
pondération totale), de même que par les employeurs (10%). Cet
aspect, qui démarque grandement le classement du Times par rapport
à celui de Shanghai, repose sur le jugement de milliers de professeurs
et chercheurs des cinq continents qui portent un verdict sur les
universités dans les disciplines de recherche pour lesquelles ils sont
eux-mêmes spécialisés. Cette façon de
procéder a toutefois connu quelques ratés.
Le Webometrics Ranking of World Universities
Ce classement est réalisé par le laboratoire de
recherche Cybermetric du CSIC (Consejo Superior de Investigaciones cientificas)
en Espagne. Il rassemble plus de 4000 universités et centres de
recherche dans le monde, répartis par grandes régions
géographiques. Ce classement veut surtout promouvoir les publications
sur le web et les initiatives en Archives Ouvertes, comme ressort du texte sur
les pratiques conseillées pour le positionnement des sites et de la
méthode employée. Le classement Webometrics propose une approche
différente des autres classements mondiaux. En effet, celui-ci a pour
but d'évaluer la présence des universités sur internet, et
non leur niveau d'enseignement ou de recherche. Ils se basent avant tout sur la
quantité du contenu présent sur le net, et l'accessibilité
du site de l'université en question.
Le classement se base sur plusieurs critères en lien avec
le référencement dans les principaux moteurs de recherche, que
sont :
- Le Nombre de pages du site : Nombre de pages
récupérées par 4 moteurs Google, Yahoo, Live Search et
Exalead
- La Visibilité : Nombre de liens extérieurs
(backlinks) pour le site que l'on peut obtenir en interrogeant Yahoo Search,
Live Search et Exalead
- Les Fichiers téléchargés : Les formats
suivants ont été sélectionnés : Adobe Acrobat
(.pdf), Adobe PostScript (.ps), Microsoft Word (.doc) et Microsoft Powerpoint
(.ppt).
Il faut alimenter les moteurs en fichiers. On compte aussi le
nombre de fois que les fichiers sont téléchargés
- Les publications Académique : Google scholar donne le
nombre d'articles et des citations par domaine des articles publiés dans
le site.
Malgré sa renommée internationale, ce classement
n'est pas resté sans critiques :
Si le classement semble intéressant à consulter,
il faut savoir interpréter sa réelle utilité. La
présence d'une université sur internet dépend en grande
partie de sa renommée pour les internautes, plus le site d'une
université a de liens pointant vers elle sur le net, plus elle semble
populaire. Le nombre de pages du site indique aussi la quantité de
contenu mis à disposition des internautes, idem pour les fichiers
disponibles au téléchargement. Cependant ces indicateurs ne
doivent pas être pris comme un indice de renommée sur le net, et
pour plusieurs raisons.
Premièrement, un internaute mécontent parle plus
qu'un internaute satisfait. Le résultat de cette règle
déjà démontrée par le passé par Google remet
en cause l'indice des backlinks. En effet, les avis négatifs des
internautes avec un lien vers le site de l'université en question
comptent en tant que vote positif pour le classement.
Deuxièmement, si le nombre de pages du site et de
fichiers mis à disposition indiquent que le contenu sur le site est
important, il ne juge en rien sa qualité, mais uniquement sa
quantité. Seul l'indice Google Scholar semble prendre en compte la
qualité du contenu.
Critique des classements
universitaires
Le rapport Bourdin (2008) distingue des critiques sur la
légitimité de la mesure et sur la méthode.
- Critique de leur légitimité
Les classements comparent souvent des institutions
difficilement comparables. Ainsi, ces classements mettent sur un même
pied des universités généralistes, des grandes
écoles, ou encore Harvard, alors que cette dernière dispose d'un
budget annuel de 3 milliards de dollars pour vingt mille étudiants.
Les classements agrègent des indicateurs difficilement
comparables. Le choix d'indicateur pour chacune des missions de
l'université (enseignement, recherche, services à la
cité,...) et leur agrégation pour obtenir un score unique conduit
généralement à « additionner des pommes et des poires
». Pour prendre un exemple, le nombre d'articles publiés dans des
revues prestigieuses a probablement moins d'importance que le taux
d'encadrement des étudiants si vous cherchez une université
où étudier, mais elle en aura plus si vous êtes une
entreprise désireuse de débuter un partenariat de recherche. Et
l'addition entre ce nombre d'articles et le taux d'encadrement n'a pas grande
signification. Ceci explique les grandes variations que l'on peut observer,
pour la même université, d'un classement à l'autre et
même d'une année à l'autre dans le même
classement.
Par construction, les classements privilégient le monde
anglophone et les grandes universités spécialisées telles
que les écoles polytechniques. Pour les raisons évoquées
cidessus, les classements sont conçus avec un modèle
d'université idéale. Implicitement, ce modèle est bien
souvent celui des grandes universités anglo-saxonnes. Il n'est donc pas
étonnant de voir que les universités nord-américaines
occupent les premiers rangs, suivis des universités anglaises. De
même, les universités qui se spécialisent dans un petit
nombre de domaines porteurs grimpent plus facilement dans ces classements. Les
universités européennes généralistes de service
public ne cadrent donc pas forcément avec les critères
utilisés pour ces classements.
- Critique de leur méthode
Gingras (2008) souligne le manque de fiabilité du
classement de Shanghai, qui fait varier de 100 rangs la position de
l'université Humboldt de Berlin, en 2008, en raison de la publication en
1922 du Prix Nobel d'Einstein.
Le rapport Bourdin soulève plusieurs limites
méthodologiques :
Les mesures et pondérations choisies ne font l'objet
d'aucune justification théorique. Les utilisateurs des classements sont
invités à partager des choix dont ils ne sont pas toujours bien
informés. De façon générale, la
légitimité des indicateurs synthétiques est incertaine,
d'une part parce qu'ils agrègent des données disparates, et
d'autre part, parce qu'ils résultent de choix qui placent en fait
l'observateur supposé en situation d'acteur.
La source des indicateurs est problématique, dans le
cas de données déclarées par les universités
elles-mêmes. Des études menées aux États-Unis ont
montré que ces données étaient l'objet de manipulations,
ou que certaines règles étaient modifiées par les
universités en sorte d'améliorer artificiellement leur place dans
les classements.
Les indicateurs choisis ont parfois un caractère
indirect (utilisation de << proxies >>). Ainsi par exemple, que
mesurent, en réalité, les enquêtes de réputation
telles que celles effectuées dans le cadre du classement du Times
(TH-QS) ? Mesurent-elles la sélectivité de
l'établissement, la qualité de sa recherche, son prestige
historique ? Ces mesures créent des effets de rémanence, car la
réputation d'un établissement dépend en partie des
classements passés.
Les indicateurs retenus sont liés entre eux, en sorte
que la dimension << multicritères >> du classement est en
partie superficielle. Dans le cas du classement de Shanghai, les
critères bibliométriques se chevauchent (<< nombre
d'articles référencés au niveau international >> et
<< nombre d'articles publiés dans les revues << Science
>> et << Nature >> >> par exemple) ou recoupent
indirectement d'autres critères comme l'obtention de distinctions
académiques (prix Nobel, médailles Fields). Dans le cas du
classement du TH-QS, la réputation dépend aussi de ce qui est
mesuré par les autres indicateurs employés, en sorte que les
mêmes éléments sont pris en compte plusieurs fois pour la
réalisation d'un classement, dans une mesure qu'il est difficile
d'évaluer.
Enfin, les écarts statistiques ne sont pas toujours
suffisamment significatifs pour qu'un classement établissement par
établissement, par ordre décroissant de performance soit
réellement pertinent.
2.4.2.2 Les classements nationaux
Outre les classements internationaux qui évaluent les
universités dans le monde entier, il y a aussi les classements
nationaux, classement réalisé à l'intérieur d'un
pays. Les classements nationaux permettent à chaque pays
d'évaluer et de classer ses établissements d'enseignement
supérieur. Ce travail se réalise aujourd'hui dans plusieurs pays,
mais en Afrique, seulement quelques pays évaluent leurs
universités. Ainsi, c'est le cas de la Côte-
d'Ivoire en Afrique, du Canada en Europe et les États Unis
en Amérique, le premier pays au monde qui a commencé ce travail
depuis 1980.
La Côte d'Ivoire
La Côte d'Ivoire a commencé le classement de ces
établissements et centres d'enseignement supérieur depuis 2007.
Pour faire le travail, elle distingue les établissements de type
Universitaire et les grandes écoles formant au BTS (centres
d'enseignement supérieur). Les critères retenus dans
l'évaluation de ces entités d'enseignement supérieur sont
:
Pour les établissements de types universitaires
- Environnement et infrastructure ;
- Équipement ;
- Organisation institutionnelle et gouvernance ;
- Financement ;
- Rémunération, charges sociales et fiscales ;
- Coopération nationale et internationale ;
- Déroulement de la scolarité ;
- Organisation pédagogique ;
- Ressources humaines ; - Vie des étudiants ;
- Recherche et progrès des connaissances ;
- Service à la communauté ;
- Assurance qualité.
Pour les grandes écoles formant pour le BTS
- Environnement et infrastructure ;
- Équipement ;
- Gestion pédagogique ;
- Rendement ;
- Charges sociales et fiscales.
Le Canada
Les classements des universités au Canada se basent sur
la qualité perçue et la valeur.
Deux classements annuels des universités canadiennes sont
publiés par la revue Maclean's et
le quotidien The Globe and Mail.
Les critères de classement comprennent:
- Taux d'admission ;
- Le niveau moyen d'admission du nombre d'étudiants
poursuivant un 2e et 3e cycle ;
- Ampleur de la bibliothèque ;
- Nombre de professeurs titulaires d'un PhDs ;
- Subventions reçues pour la recherche et publications
;
- Interaction étudiants/corps professoral ;
- Cours disponibles ;
- Dépenses consacrées aux services des
étudiants ;
- Bourses d'études et prêts-bourses.
Les Principes de Berlin sur le classement des
établissements d'enseignement supérieur.
Les classements des établissements d'enseignement
supérieur sont devenus l'un des éléments de
responsabilisation et d'assurance qualité au niveau national,
régional et même mondial. Ils se développent et divers
classements sont proposés au niveau national, régional et
mondial. Du fait de l'hétérogénéité des
méthodologies des classements, un groupe d'experts internationaux en
classements - IREG [International Ranking Expert Group] a été
fondé en 2004 par le Centre européen pour l'enseignement
supérieur de l'UNESCO (UNESCO-CEPES) de Bucarest et l'Institute for
Higher Education Policy de Washington, D.C. C'est à partir de cette
initiative que s'est tenue la deuxième réunion de l'IREG (Berlin,
2006) afin de formuler un ensemble de principes concernant la qualité et
les bonnes pratiques dans les classements des établissements
d'enseignement supérieur appelés les Principes de Berlin sur le
classement des établissements d'enseignement supérieur. Au nombre
de 16, ils s'attachent à définir plusieurs critères de
bonne conduite à destination des producteurs de classements.
Les classements devraient:
A) Buts et objectifs des classements
1. Être l'une des nombreuses approches de
l'évaluation des ressources, des processus et des résultats de
l'enseignement supérieur. Les classements peuvent offrir des
informations comparatives et une meilleure compréhension de
l'enseignement supérieur, mais ne devrait pas être la
méthode principale utilisée pour évaluer ce qu'est et ce
que faire l'enseignement supérieur. Les classements offrent une
perspective basée sur le marché qui peut seulement
compléter le travail effectué par le gouvernement, les
autorités responsables de l'accréditation et des agences
expertises indépendantes.
2. Être explicites quant à leur objectif et
à leurs publics cibles. Les classements doivent être conçus
en tenant compte de leur objectif. Les indicateurs élaborés pour
atteindre un certains objectifs ou pour informer un certain public peuvent ne
pas être adéquats pour d'autres objectifs ou publics cibles.
3. Reconnaître la diversité des
établissements et prendre en considération leurs
différentes missions et objectifs. Par exemple, les critères de
qualité pour les établissements axés sur la recherche sont
tout-à-fait différents de ceux qui sont pertinents pour les
établissements qui assurent un plus large accès à des
communautés défavorisées. Les établissements qui
sont classés et les experts qui sont à la base du processus de
classement doivent être fréquemment consultés.
4. Être clairs quant à la gamme de sources
d'information employées dans les classements et des informations rendues
accessibles par chaque source. La pertinence des résultats des
classements dépend des publics qui reçoivent les informations et
des sources de ces informations (bases de données, étudiants,
enseignants ou employeurs). Une bonne pratique serait de combiner les
différentes perspectives fournies par ces sources afin d'obtenir une
image plus complète de chaque établissement d'enseignement
supérieur inclus dans un classement donné.
5. Indiquer les contextes linguistiques, culturels,
économiques et historiques des systèmes d'enseignements qui font
l'objet du classement. Les classements internationaux devraient être
particulièrement attentifs à toute possibilité de biais et
être précis sur leurs objectifs. Les états ou les
systèmes ne partagent pas tous les valeurs et croyances concernant ce
qui constitue la « qualité » dans les établissements
tertiaires, et des systèmes de classement ne devraient pas être
conçus dans le but d'imposer des comparaisons inadéquates.
B) Création et pondération des
indicateurs
6. Être transparents quant à la
méthodologie employée pour la création de classements. Le
choix des méthodologies employées pour élaborer les
classements devrait être clair et sans équivoque. Cette
transparence devrait inclure le calcul des indicateurs ainsi que l'origine des
données.
7. Choisir les indicateurs en fonction de leur pertinence et
de leur validité. Le choix des données devrait se baser sur la
reconnaissance de la capacité de chaque critère à
représenter la qualité et les atouts académiques et
institutionnels, et non pas sur la disponibilité des données. Les
raisons justifiant la prise en compte de chaque type de mesure ainsi que ce
qu'elles sont censées représenter doivent être
explicités.
8. Mesurer de préférence, et dans la mesure du
possible les résultats plutôt que les ressources. Les
données concernant les ressources sont pertinentes parce qu'elles
reflètent la situation générale d'un établissement
donné et sont plus fréquemment disponibles. L'analyse des
résultats offre une évaluation plus correcte de la position et/ou
de la qualité d'un établissement ou d'un programme donné.
Les producteurs de classements devraient s'assurer qu'un juste équilibre
est atteint.
9. Mettre en évidence les points assignés aux
différents indicateurs (si employés) et limiter leurs
changements. Les changements de poids font que les utilisateurs ont du mal
à discerner si le statut d'un établissement ou d'un programme
à changer dans le cadre des classements à cause d'une
différence inhérente ou du faite d'un changement
méthodologique.
C) Collecte et traitement des
données
10. Accorder une attention sévère aux standards
éthiques et aux recommandations concernant les bonnes pratiques
formulées dans ces Principes. Afin d'assurer la
crédibilité de chaque classement, les personnes responsables de
la collecte et de l'utilisation des données, ainsi que les visites sur
place, devraient être aussi objectifs et impartiaux que possible.
11. Utiliser les données auditées et
vérifiables chaque fois que cela est possible. Ces données
présentent plusieurs avantages comme le fait qu'elles ont
été acceptées par les établissements et qu'elles
sont comparable et compatibles entre établissements.
12. Inclure les données qui sont collectées par
des procédures appropriées de conforme à la collecte
scientifique de données. Les données rassemblées à
partir d'un groupe non-représentatif ou incomplet d'étudiants,
d'enseignants ou d'autres parties pourraient ne pas représenter un
établissement ou un programme, et devraient être exclues.
13. Appliquer des critères d'assurance qualité
aux processus même de classements. Ces processus devraient tenir compte
des techniques d'évaluation des établissements et mettre à
profit ces connaissances pour évaluer les classements eux-mêmes.
Les classements devraient être des systèmes d'apprentissages
capables d'utiliser ces connaissances pour améliorer leur
méthodologie.
14. Appliquer des critères organisationnels qui
accroissent la crédibilité des classements. Cela peut comprendre
des groupes à vocation des conseils, ou de surveillances, de
préférence à participation internationale.
D) Présentation des résultats des
classements
15. Offrir aux consommateurs une compréhension claire
de l'ensemble des facteurs employés pour la construction d'un
classement, ainsi que le choix de la manière dont les classements
doivent être présentés. Ainsi, les utilisateurs des
classements pourront mieux comprendre les indicateurs utilisés dans les
classements des établissements ou de programmes. De plus, ils devraient
avoir la possibilité de faire leurs propres choix quant aux poids
accordés à ces indicateurs.
16. Être compilés d'une manière qui
élimine ou réduise le nombre d'erreurs au niveau des
données d'origine, et être organisés et publiés
d'une manière qui permettent la correction des erreurs et des fautes
potentielles. Les établissements et le public devraient être
informés au sujet des erreurs apparues durant le processus.
2.5 Synthèse de la revue de littérature
De la même manière que la rareté, le
prestige, et l'accès au «meilleur» sont des critères de
plus en plus utilisés dans l'achat de biens comme les voitures, les sacs
à mains etc., les consommateurs (les étudiants, les parents qui
envoient leurs enfants dans les universités, ...) de l'enseignement
supérieur recherchent aussi des indicateurs qui les aident à
identifier et à choisir les meilleures universités. Dans cette
course à l'éducation «de luxe», les pays s'efforcent de
développer des «universités de rang mondial» qui
conduiront le développement d'une économie du savoir. À
cause de l'impact des classements, les institutions innovent et investissent en
tenant compte des critères et des méthodologies de classement
car, dans chaque classement, les critères et la méthodologie
retenus varient compte tenu des objectifs visés par les autorités
de ces classements.
En dépit des nombreuses critiques et même la non
acceptation par certains, les classements d'universités sont aujourd'hui
répandus et ne sont pas prêts à disparaître, parce
qu'ils définissent pour l'audience la plus large, ce que signifie un
«rang mondial». Ils ne
peuvent être ignorés par toute personne
intéressée par la mesure des performances des institutions
d'enseignement supérieur. Mais malgré leur réputation, ces
classements ne prennent pas en compte tous les principes de Berlin. Aussi,
depuis près de 10 ans que se développent et se répandent
les classements nationaux et internationaux, force est de constater que ce
travail n'a encore impressionné et intéressé beaucoup de
pays africains comme le nôtre.
Dans tous les classements, les critères pris en compte
sont nombreux compte tenu du vaste champ de la qualité et de la
performance. Dans le présent travail, nous retiendrons ceux propres et
communs aux établissements de notre pays en ayant toujours à
l'esprit, les principaux documents de référence en matière
de classement des établissements d'enseignement supérieur. Le
tableau que voici illustre les grandes variables proposées ainsi que les
indicateurs les mesurant.
Tableau N°3 : les différentes variables
Grandes Variables
|
Indicateurs
|
|
Accès
|
Nombre de Nouveaux Bacheliers qui s'inscrivent dans un
établissement
|
Taux de croissance des effectifs par année
d'étude
|
Qualité
|
|
Taux de réussite au BTS
|
Taux d'admission
|
Rapport enseignant élève (Ratio)
|
Proportion d'enseignants étrangers
|
Proportion d'étudiants étrangers
|
Nombre d'enseignants ayant le diplôme de doctorat
|
|
Taux d'achèvement
|
Performance académique au regard de la taille de
l'institution
|
Points obtenus lors de l'enquête auprès des pairs
(divisée en cinq domaines)
|
Réponses à l'enquête auprès des
employeurs
|
Le niveau moyen d'admission du nombre d'étudiants
poursuivant un 2e et 3e cycle
|
Ampleur de la bibliothèque
|
Recherche et innovation
|
Nombre de prix Nobel et de médailles Fields parmi les
anciens élèves
|
Nombre de prix Nobel et de médailles Fields parmi les
chercheurs
|
Nombre de chercheurs largement
cités dans les disciplines des sciences du vivant, de
la médecine, de la physique, des sciences de l'ingénieur et des
sciences sociales.
|
Nombre d'articles publiés dans Nature et Science entre
2004 et 2009
|
Nombre d'articles répertoriés dans le
Science Citation Index-expanded (SCI
Expanded) et dans le Social Science
Citation Index (SSCI) en 2009. Les
|
|
articles du SSCI comptent double. (Le SSCI entre dans le
décompte des articles depuis 2006).
|
Nombre de citations divisé par le nombre de chercheurs
|
Bonne gouvernance
|
Dépense totale de l'enseignement de
l'établissement
|
Rapport salaire des enseignants/Dépense totale
|
Nombre de bourses attribuées aux
étudiants par an
|
Les frais de formation payés par chaque étudiant
dans chaque établissement
|
Subventions reçues pour la recherche et les
publications
|
Cours disponibles
|
Dépenses consacrées aux services des
étudiants
|
Source : Les auteurs, 2011.
Malgré les nombreux critères qui existent pour
évaluer les établissements, nous autres, nous ne pouvons pas
retenir tous ces critères compte tenu des réalités de
notre pays. Pour la suite de ce présent travail nous prendrons en compte
la qualité de l'enseignement et l'accès de l'enseignement pour
pouvoir élaborer notre indicateur composite.
CHAPITRE 3 : Méthodologie de recherche et
analyse des résultats
Pour atteindre nos objectifs, nous avons adopté une
démarche méthodologique qui se résume en plusieurs phases
:
3.1 Recherche documentaire
Après la prise de contact avec le personnel de la DPP,
nous avons commencé la recherche des ouvrages ayant trait à notre
thème. C'est ainsi que les recherches sur internet ont commencé,
la consultation des anciens mémoires de l'ENEAM et les documents sur les
EPES. L'examen des documents trouvés et dont la liste est publiée
dans la bibliographie nous a, d'une part, permis de cerner le contenu de la
notion de critère de performance ainsi que les instruments de sa mesure
et d'autre part de découvrir non seulement les différents travaux
déjà réalisés en la matière mais aussi les
différentes techniques d'élaboration d'un indicateur
composite.
Au vue de l'explication donnée au critère de
performance, ainsi que les variables qui permettront de le cerner, il s'agira
d'exposer ici quelques méthodes statistiques de construction des
indicateurs composites.
3.1.1 Quelques méthodes statistiques pour
élaborer un indicateur composite
Après nos recherches, nous avons retenu deux
méthodes pour l'élaboration d'un indicateur composite. Il s'agit
: une approche d'entropie et une approche d'inertie.
3.1.1.1 Approche entropie
L'approche d'entropie est issue de la mécanique
dynamique. Elle est beaucoup exploitée dans la théorie
statistique de l'information. Massoumi (1986) s'est basé sur cette
théorie pour proposer un indicateur composite optimal qui minimise une
somme pondérée de divergences deux à deux.
Soit X une variable aléatoire à valeur dans x1,
x2, ..., xn ; posons pi = P(X = xi) la probabilité de
réalisation de l'évènement X = xi. Soit g (pi) la
quantité d'information associée à la réalisation de
cet évènement.
L'entropie H(P) associée à cette distribution de
probabilité P se définit comme
n
l'espérance de
g p H p E g p
( ) : ( ) ( ( ))
= =?
p g p
( )
i i
i = 1
Si g ( pi ) = - log(
pi), on obtient l'entropie de Shannon dont l'expression est
donnée par :
n
H p
( ) = -? p p
log( )
i i
i = 1
Elle est comprise entre 0 et log(n), ces deux valeurs
correspondent respectivement aux évènements certains et aux
évènements équiprobables. Il devient ainsi possible de
définir des mesures pour capter la divergence entre deux distributions.
Les principales limites de cette approche résident dans le choix des
paramètres et des pondérations utilisées dans la forme
fonctionnelle de l'indicateur composite.
3.1.1.2 Approche d'inertie
Elle tire son origine du champ de la mécanique
statique. Elle est principalement basée sur les techniques d'analyses
multidimensionnelles, encore appelées analyses factorielles. Parmi les
principales techniques d'analyses factorielles utilisées, on peut citer
: l'Analyse Factorielle des Correspondances (AFC), l'Analyse en Composante
Principales (ACP), et l'Analyse Factorielle des Correspondances Multiples
(AFCM). Sur la base des différentes techniques, l'application de cette
approche à la construction d'un indicateur composite présente
l'avantage de laisser moins de place à l'arbitraire dans le choix des
pondérations.
Ensuite, si le but de l'AFC est d'analyser les relations entre
deux variables qualitatives à partir d'un tableau de contingence obtenu
du croisement de deux variables, l'ACP s'applique aux variables quantitatives
alors que l'Analyse factorielle des correspondances multiples (AFCM), est une
généralisation de l'analyse factorielle des correspondances
permettant de décrire les relations entre les différentes
modalités de plus de deux variables qualitatives simultanément
observées sur un ensemble d'individus.
Enfin, la limite de cette approche se résume sur les
différentes limites de ses méthodes. En effet, elles consistent
à faire observer des données dans un espace de
dimensions réduites. Ceci signifie qu'il peut y avoir
perte d'informations car en appliquant de telles méthodes on peut
effacer voire obscurcir certaines différences dans la population.
3.1.2 Justification et méthode adoptée
Comme décrit, chacune des deux méthodes
ci-dessus présentées comporte dans son application des limites.
Toutefois, pour ce travail, c'est l'approche par inertie qui sera
employée notamment à cause de son avantage d'éviter des
pondérations arbitraires dans la construction de l'indicateur, biais que
présente l'autre méthode. Principalement, vu la nature
quantitative de toutes nos variables, c'est l'ACP qui sera adoptée. En
voici une description sommaire.
La méthode adoptée ici pour la construction de
l'indicateur composite recherché est celle de l'approche par inertie, en
particulier l'Analyse en Composantes Principales (ACP).
Elle est une méthode exploratoire dans la mesure
où elle recherche à détecter d'éventuelles
structures latentes dans un jeu de données. En d'autres termes, cette
méthode vise à dégager des relations de ressemblance ou de
différence intéressantes entre les variables. L'ACP accorde la
même importance à l'ensemble des variables, c'est-à-dire
qu'il n'y a pas de variables dépendantes et indépendantes comme
dans une analyse confirmatoire qui vise plutôt la modélisation des
données. L'ACP fait partie de la famille des méthodes
factorielles. Dans la recherche des structures latentes, l'ACP opte pour une
simplification de la représentation graphique des données. Le
moyen utilisé pour ce faire est de construire des axes factoriels qui
vont définir un espace de dimensions réduites. Chaque axe est une
combinaison linéaire des variables et doit répondre à deux
conditions:
Les axes doivent être orthogonaux entre eux et le
premier axe doit décrire le maximum de l'information contenue dans les
données ; le second, le maximum de l'information restante, etc. C'est ce
qu'on appelle la condition d'optimisation.
L'Analyse en Composantes Principales utilisée dans le
cadre de cette étude, permet de détecter les corrélations
entre les variables et de réduire celles superflues. Le choix de cette
méthode factorielle s'est fait en fonction de la nature des
données. L'Analyse en Composantes Principales s'adresse à des
données quantifiables. C'est grâce au logiciel
SPAD que nous allons obtenir le poids de chaque variable pour
construire l'indicateur composite.
3.2 Entretiens et collecte des données
3.2.1 Entretiens
C'est une phase qui permet de consulter les personnes
ressources ayant des compétences dans les notions de critères de
performance et d'élaboration d'indicateurs composites. Ensuite, en
dehors de nos maîtres de mémoire et de stage, nous avons
rencontré certains de nos professeurs d'économie et de
statistique ainsi que les techniciens de l'INSAE et le DEPES, qui nous ont
aidés à bien cerner ces notions.
3.2.2 Collecte des données
Un indicateur utile devant être renseigné par des
données, nous avons alors procédé à la collecte
d'importantes informations chiffrées sans lesquelles les variables de
notre indicateur ne pouvaient être alimentées. Ladite collecte a
lieu auprès des structures (DEC, DEPES...) détenant les
informations. Certaines données ont été également
collectées dans certains documents fournis par la DPP (Annuaire
statistique 2008-2009)
3.3 Synthèse des indicateurs retenus et
explication des variables retenues
3.3.1 Synthèse des indicateurs retenus Tableau
N°4 : Synthèse des indicateurs retenus
Grandes variables
|
Indicateurs
|
Accès
|
Nombre de Nouveaux Bacheliers qui s'inscrivent dans un
établissement
|
Qualité
|
Taux de réussite au BTS
|
Rapport étudiants enseignants
|
Taux d'enseignants qualifiés
|
Proportion d'enseignants permanents
|
Nombre de livres par étudiant
|
Nombre d'étudiants par micro-ordinateur
Nombre d'étudiants pour une place
Source : Les auteurs, 2011.
3.3.2 Explication des variables retenues
Le tableau ci-dessus retrace les grandes variables retenues pour
expliquer la performance d'un établissement privé dans le cadre
du présent travail. Il s'agit de :
3.3.2.1 L'accès
Il permet de voir le nombre de nouveaux étudiants qui
s'inscrivent dans un établissement, sans considération de
l'âge. Mais dans notre cas, nous voulons prendre l'effectif des
étudiants qui ont réellement le diplôme convenu
c'est-à-dire le Baccalauréat ou un diplôme
équivalent pour continuer les études universitaires parmi ceux
qui s'inscrivent. Cela retrace un peu la capacité des étudiants
et la qualité interne de l'organisation de l'établissement.
3.3.2.2 La qualité
Pour bien mesurer la performance, il faut qu'on tienne compte en
grande partie de la qualité. Par rapport à nos données,
nous allons prendre en compte :
a. Taux de réussite au BTS dans un
établissement
C'est le rapport entre le nombre d'admis au BTS et le nombre
d'étudiants en deuxième année. Cet indicateur permet de
mesurer la qualité de l'enseignement dispensé dans chaque
établissement car ces étudiants vont se confronter avec ceux du
public sur les mêmes épreuves.
b. Rapport étudiant enseignant
C'est la proportion du nombre d'étudiants par le nombre
d'enseignants. Cela permet d'évaluer le nombre moyen d'étudiants
par enseignant au premier cycle de l'établissement. Si la valeur
trouvée est conforme aux normes requises alors cet indicateur permet
à
l'enseignant de suivre l'évolution de chaque
étudiant c'est-à-dire ce ratio témoigne de la
qualité du suivi de l'étudiant lorsqu'il est faible. Il est
encore appelé le taux d'encadrement.
c. Taux d'enseignants qualifiés
C'est le rapport entre le nombre d'enseignants ayant au moins
le niveau doctorat sur le nombre total d'enseignant. Cela permet de voir la
part des enseignants dans un établissement qui ont le niveau requis pour
enseigner.
d. Proportion d'enseignants permanents
C'est le rapport entre le nombre d'enseignants permanents sur
le nombre total des enseignants intervenant dans l'établissement. Cela
permet de valoriser le recrutement des enseignants permanents dans le
privé. Ces enseignants consacrent plus leur temps à la recherche
et à l'innovation contrairement aux vacataires.
e. Nombre de livres par étudiant
C'est le rapport entre le nombre total de livres à la
bibliothèque par l'effectif total des étudiants. Cet indicateur
explique le nombre de livres disponibles pour un étudiant. Cela
reflète la qualité des livres disponibles qui servent aux
étudiants à la compréhension des cours.
f. Nombre d'étudiants par micro-ordinateur
C'est le nombre total d'étudiants divisé par le
nombre d'ordinateur fonctionnel. Cela renseigne sur le nombre
d'étudiants qui travaillent sur un ordinateur. C'est de voir le nombre
d'ordinateur disponible pour tous les étudiants.
g. Nombre d'étudiant pour une place
C'est le rapport entre l'effectif total des étudiants et
la capacité d'accueil de l'établissement. Cela montre les
conditions de travail pour les étudiants.
3.4 Présentation globale de l'Analyse en
Composantes Principales
L'ACP est une technique statistique d'analyse multidimensionnelle
des données de variables quantitatives en nombre égal au moins
à quatre. Elle conduit à des représentations
graphiques approchées du contenu d'un tableau de
données. Elle cherche à repérer les similitudes et les
différences entre les individus relativement aux variables choisies.
L'objectif de l'ACP est de revenir à un espace de
dimension réduite en déformant le moins possible la
réalité. Il s'agit donc d'obtenir le résumé le plus
pertinent possible des données initiales. C'est la matrice des
variances-covariances (ou celle des corrélations) qui va permettre de
réaliser ce résumé pertinent parce qu'on analyse
essentiellement la dispersion des données considérées. De
cette matrice, on va extraire, par un procédé mathématique
adéquat, les facteurs que l'on recherche, en petit nombre : c'est la
décomposition aux valeurs singulières de la matrice. Ils vont
permettre de réaliser les graphiques désirés dans cet
espace de petite dimension (le nombre de facteurs retenus), en déformant
le moins possible la configuration globale des individus selon l'ensemble des
variables initiales. C'est l'interprétation de ces graphiques qui
permettra de comprendre la structure des données analysées.
Tableau n°5 : Libellé et désignation
des indicateurs
Libellé de l'indicateur
|
Désignation de l'indicateur
|
Nombre de nouveaux bacheliers qui
s'inscrivent dans un établissement
|
NNEI
|
Taux de réussite au BTS
|
TBTS
|
Rapport Étudiants Enseignants
|
REE
|
Taux d'enseignants qualifiés
|
TEQ
|
Nombre d'étudiants par micro-ordinateur
|
NEMO
|
Proportion d'enseignants permanents
|
PEP
|
Nombre de livres pour un étudiant
|
NEL
|
Nombre d'étudiants pour une place
|
NEPP
|
Source : Les auteurs, 2011.
Le classement de quelques établissements en fonction des
indicateurs retenus est le suivant :
Tableau N°6 : Classement de quelques
établissements en fonction des indicateurs retenus.
|
NNEI
|
TBTS
|
REE
|
TEQ
|
NEMO
|
PEP
|
NEL
|
NEPP
|
École Supérieure Internationale d'Enseignement
Technique
|
14
|
1
|
17
|
17
|
22
|
17
|
1
|
1
|
Institut International de Management
|
12
|
6
|
27
|
2
|
28
|
4
|
11
|
3
|
Centre de Formation Touristique et
Hôtelier
|
5
|
1
|
4
|
26
|
12
|
8
|
13
|
25
|
Institut Universitaire du Bénin
|
15
|
1
|
7
|
3
|
11
|
2
|
17
|
22
|
École
d'Administration d'Informatique et de Gestion (EAIG)
|
8
|
1
|
9
|
4
|
16
|
27
|
21
|
23
|
Institut Coopératif de Technologie et de Management
|
4
|
7
|
16
|
5
|
27
|
16
|
27
|
13
|
École Internationale de Cotonou DAUPHINE
|
25
|
11
|
6
|
7
|
9
|
1
|
12
|
21
|
École Supérieure Jean Michel le FAUCON
|
9
|
28
|
1
|
28
|
1
|
18
|
2
|
27
|
Les cours SONOU
|
3
|
26
|
13
|
1
|
19
|
5
|
8
|
28
|
École Supérieure de Gestion Informatique et des
Sciences (ESGIS)
|
6
|
15
|
30
|
24
|
29
|
14
|
13
|
4
|
Haute École de Commerce et de Management
|
1
|
17
|
22
|
30
|
30
|
24
|
6
|
7
|
École Pigier
|
9
|
12
|
23
|
14
|
20
|
21
|
20
|
6
|
École de Technicien Supérieur du Bénin LA
GRÂCE
|
20
|
8
|
24
|
11
|
26
|
9
|
26
|
5
|
École Supérieure d'Enseignement Professionnelle LE
BERGER
|
11
|
16
|
11
|
19
|
21
|
23
|
9
|
10
|
Institut Cerco
|
2
|
24
|
28
|
12
|
1
|
7
|
4
|
14
|
Centre de Formation Professionnelle de
Tourisme et de l'Agence Africaine
|
29
|
9
|
14
|
8
|
14
|
25
|
29
|
2
|
Institut Supérieur de Communication d'Organisation et
Management
|
7
|
25
|
2
|
6
|
4
|
15
|
22
|
30
|
Centre d'Étude Supérieur en Tertiaire, Industrie
et Agriculture (CESTIABénin)
|
26
|
14
|
21
|
29
|
13
|
5
|
10
|
9
|
Institut Supérieur de Formation
Professionnelle et d'Appui à la Sécurité
|
13
|
13
|
15
|
25
|
23
|
28
|
23
|
15
|
Institut Supérieur de Formation
Professionnelle (ISFOP)
|
28
|
18
|
8
|
20
|
6
|
12
|
7
|
17
|
École Supérieure de Panafricaine et de Management
Appliquée
|
21
|
29
|
2
|
13
|
1
|
13
|
28
|
29
|
École Supérieure des cadres et Techniciens
|
16
|
21
|
25
|
21
|
18
|
3
|
18
|
11
|
Centre Régional de Formation pour les Entreprises
(CRAFE)
|
7
|
20
|
29
|
9
|
7
|
20
|
24
|
16
|
Institut Polytechnique le CITOYEN
|
22
|
1
|
20
|
27
|
17
|
30
|
18
|
26
|
Institut Supérieure de Management
ADONAÏ
|
23
|
10
|
19
|
18
|
25
|
29
|
15
|
19
|
École Supérieure STE FELICITE
|
19
|
19
|
26
|
23
|
24
|
25
|
3
|
12
|
Institut de Management et de Gestion
|
30
|
27
|
5
|
10
|
10
|
18
|
5
|
18
|
École Supérieure de Management
|
18
|
22
|
12
|
16
|
15
|
11
|
30
|
20
|
École Supérieure d'Administration et
d'Économie
|
27
|
23
|
18
|
22
|
8
|
10
|
25
|
8
|
École Supérieure de Gestion et Commerce
|
24
|
30
|
10
|
15
|
5
|
22
|
16
|
24
|
Source : Les auteurs, 2011.
Nous constatons à travers le tableau ci-dessus que le
classement des établissements en utilisant les indicateurs retenus ne
permet pas d'apprécier la qualité de l'enseignement puisque le
rang d'un établissement varie en fonction des indicateurs. Afin d'avoir
un outil de mesure de la qualité de l'enseignement, un indicateur
composite sera élaboré.
3.5 Analyse, présentation de l'indicateur et
interprétation des résultats
Dans cette partie, nous présenterons les résultats
de l'ACP qui ont conduit à l'élaboration de l'indicateur ainsi
que l'interprétation de ces résultats.
3.5.1 Analyse des indicateurs
Il s'agit d'analyser les différentes variables qui
seront traitées sous SPAD. Le tableau qui suit présente les
coordonnées des indicateurs retenus sur le premier axe factoriel. En
l'observant, on constate qu'à l'exception de l'indicateur NEMO, tous les
autres indicateurs sont bien représentés sur le premier axe
factoriel.
Élaboration des critères de performance des
établissements privés de l'enseignement supérieur
Tableau N°7 : Coordonnées des indicateurs
actifs
Indicateurs
|
Coordonnées sur l'axe factoriel 1
|
NNEI
|
0,95
|
TBTS
|
0,94
|
REE
|
0,93
|
TEQ
|
0,89
|
NEMO
|
- 0,33
|
PEP
|
0,89
|
NEL
|
0,78
|
NEPP
|
0,91
|
Source : Nos résultats sous SPAD 5.5, 2011.
Par ailleurs, l'analyse du tableau de corrélation
présenté ci-dessous nous montre que l'indicateur NEMO a une
corrélation négative faible avec tous les autres indicateurs et
que tous les autres indicateurs sont corrélés positivement entre
eux. Cela signifie que si pour un établissement, l'indicateur TBTS est
élevé, les autres le sont également.
Tableau N°8 : Matrice des corrélations
|
NNEI
|
TBTS
|
REE
|
TEQ
|
NEMO
|
PEP
|
NEL
|
NEPP
|
NNEI
|
1,00
|
|
|
|
|
|
|
|
TBTS
|
0,96
|
1,00
|
|
|
|
|
|
|
REE
|
0,92
|
0,94
|
1,00
|
|
|
|
|
|
TEQ
|
0,87
|
0,92
|
0,91
|
1,00
|
|
|
|
|
NEMO
|
- 0,23
|
- 0,25
|
- 0,20
|
- 0,26
|
1,00
|
|
|
|
PEP
|
0,77
|
0,76
|
0,78
|
0,70
|
- 0,24
|
1,00
|
|
|
NEL
|
0,70
|
0,59
|
0,56
|
0,48
|
- 0,27
|
0,75
|
1,00
|
|
NEPP
|
0,81
|
0,75
|
0,75
|
0,67
|
- 0,30
|
0,88
|
0,87
|
1,00
|
Source : Nos résultats sous SPAD 5.5, 2011.
En outre, la matrice des valeurs-tests nous indique que la
liaison entre l'indicateur NEMO et chacun des autres indicateurs n'est pas
significatif car sa valeur est inférieure à 2 en valeur absolue.
Ainsi la valeur prise par l'indicateur NEMO n'influence pas celle des autres
indicateurs. Par contre, la liaison entre chacun des indicateurs NNEI ; TBTS ;
TEQ et REE est significative.
Élaboration des critères de performance des
établissements privés de l'enseignement supérieur
Tableau N°9 : Matrice des valeurs-tests
|
NNEI
|
TBTS
|
REE
|
TEQ
|
NEMO
|
PEP
|
NEL
|
NEPP
|
NNEI
|
99,99
|
|
|
|
|
|
|
|
TBTS
|
10,59
|
99,99
|
|
|
|
|
|
|
REE
|
8,54
|
9,37
|
99 ,99
|
|
|
|
|
|
TEQ
|
7,21
|
8,70
|
8,52
|
99,99
|
|
|
|
|
NEMO
|
- 1,29
|
- 1,40
|
- 1,12
|
- 1,48
|
99,99
|
|
|
|
PEP
|
5,58
|
5,56
|
5,69
|
4,75
|
- 1,36
|
99,99
|
|
|
NEL
|
4,76
|
3,71
|
3,50
|
2,84
|
- 1,52
|
5,35
|
99,99
|
|
NEPP
|
6,17
|
5,38
|
5,33
|
4,42
|
- 1,72
|
7,48
|
7,40
|
99,99
|
Source: Nos résultats sous SPAD 5.5, 2011.
Nous pouvons alors visualiser les indicateurs avec leurs
corrélations sur le graphe suivant :
Graphique N°1 : Cercle de corrélation avec les
indicateurs
Source : Nos résultats sous SPAD5.5, 2011.
Ce graphique confirme la forte corrélation entre les
indicateurs NNEI ; TBTS ; TEQ et REE. De plus, il indique que ces même
indicateurs et les indicateurs NEPP et PEP sont bien représentés
car très proches du cercle.
Réalisé par Jennifer ADANHOUNSOUNOU et Jacques
Philippe FADONOUGBO 44
Élaboration des critères de performance des
établissements privés de l'enseignement supérieur
3.5.2 Présentation de l'indicateur
3.5.2.1 Construction de l'indicateur composite
La détermination du nombre de facteurs communs à
extraire se fait en considérant le critère de Kaiser indiquant la
limite inférieure du nombre de facteurs à extraire. Selon ce
critère, seuls les facteurs ayant une valeur propre supérieure
à 1 sont à retenir. Il apparaît donc à travers le
tableau ci-dessous que seul le premier axe factoriel est à retenir car
ayant sa valeur propre (5,7794) supérieure à 1,00. Ce facteur
résume la majeure partie de l'information apportée par les
variables utilisées. En effet, la valeur propre de cet axe correspond
à 72,24 % de l'information totale contenue dans ces variables. Il est
donc suffisant pour résumer l'information contenue dans les variables
retenues. C'est ce qui justifie le choix de ce seul axe pour la construction de
l'indicateur. Comme dit dans la méthodologie, le coefficient de
pondération des variables est la contribution de celles-ci à
l'inertie interceptée par le premier axe.
Tableau N°10 : Valeurs propres des facteurs
Axes factoriel
|
Valeurs Propres
|
1
|
5,7794
|
72,24
|
72,24
|
2
|
0,9537
|
11,92
|
84,16
|
3
|
0,7845
|
9,81
|
93,97
|
4
|
0,2267
|
2,83
|
96,80
|
5
|
0,0918
|
1,15
|
97,95
|
6
|
0,0776
|
0,97
|
98 ,92
|
7
|
0,0628
|
0,78
|
99,70
|
8
|
0,0236
|
0,30
|
100
|
Source : Nos résultats sous SPAD 5.5, 2011.
La contribution de chaque indicateur à la formation du
premier axe factoriel se présente dans le tableau suivant :
Tableau N°11 : Pondération des indicateurs
Libellé de la variable
|
Coordonnées sur l'ancien axe unitaire 1
|
Contribution
|
NNEI
|
0,40
|
0,16
|
TBTS
|
0,39
|
0,1521
|
REE
|
0,39
|
0,1521
|
TEQ
|
0,37
|
0,1369
|
NEMO
|
- 0,14
|
0,0196
|
PEP
|
0,37
|
0,1369
|
NEL
|
0,32
|
0,1024
|
NEPP
|
0,38
|
0,140
|
Source : Nos résultats sous SPAD 5.5, 2011.
D'où l'indicateur de qualité nommé FADAN est :
FADAN = 0,16*NNEI + 0,1521*TBTS + 0,1521*REE + 0,1369*TEQ +
0,0196*NEMO + 0,1369*PEP + 0,1024*NEL + 0,140*NEPP
|
NB: Dans la formule, le signe « * »
représente le signe de multiplication 3.5.2.2
Vérification de la validité de l'indicateur
Pour vérifier la validité de l'indicateur, nous
avons d'une part procédé à une comparaison des variations
de l'indicateur synthétique à celles des indicateurs individuels.
D'autre part nous avons fait le test de corrélation de Pearson entre
l'indicateur composite et ces mêmes indicateurs individuels.
Variation comparée de FADAN avec les indicateurs
individuels.
Graphique N°2 : Variation comparée de FADAN
avec les indicateurs individuels
300,00
250,00
L'axe des valeurs
200,00
150,00
100,00
50,00
0,00
1 3 5 7 9 11 13 15 17 19 21 23 25 27 29
L'axe représentant les
établissements
TEQ TBTS NNEI FADAN
250,00
L'axe des valeurs
200,00
150,00
100,00
50,00
0,00
1 3 5 7 9 11 13 15 17 19 21 23 25 27 29
L'axe représentant les
établissements
NEL PEP REE FADAN
200,00
L'axe des valeurs
150,00
100,00
50,00
0,00
1 3 5 7 9 11 13 15 17 19 21 23 25 27 29
L'axe représentant les
établissements
NEPP NEMO FADAN
Source : Nos résultats sous Excel 2007, 2011.
Le graphe ci-dessus montre que la variation de l'indicateur FADAN
et les indicateurs individuels pour l'année académique 2008-2009
sont en phase. Cela signifie que l'indicateur
FADAN et ces indicateurs individuels se modifient presque dans
le même sens. Une augmentation des indicateurs individuels entraîne
une augmentation de FADAN. De même une diminution de ces indicateurs
entraîne une diminution de FADAN. L'indicateur FADAN résume donc
correctement ces indicateurs.
3.6 Test de corrélation de Pearson de FADAN et
les indicateurs individuels
Le coefficient de corrélation de Pearson mesure
l'intensité de la Co-variation entre deux indicateurs. Cette mesure est
standardisée (c'est-à-dire elle ne dépend pas de
l'unité utilisée pour chaque indicateur), et est comprise entre
-1 et +1. Plus le coefficient est proche de 1 en valeur absolue, plus les
indicateurs sont dites corrélés.
- Test de corrélation de FADAN et
NEMO Tableau N°12 : Corrélation de FADAN et NEMO
|
|
FADAN
|
NEMO
|
FADAN
|
Corrélation de Pearson
|
1
|
- 0,284
|
Sig. (bilatéral)
|
|
0,128
|
N
|
30
|
30
|
NEMO
|
Corrélation de Pearson
|
- 0,284
|
1
|
Sig.
|
0,128
|
|
N
|
30
|
30
|
Source : Nos résultats sous SPSS 17.0, 2011.
Le coefficient de corrélation de Pearson calculé
pour l'indicateur FADAN et NEMO est proche de zéro en valeur absolue.
Cela montre qu'il n'y a pas de corrélation entre les deux variables.
Cela signifie que le nombre de micro-ordinateur disponible dans un
établissement n'influence pas sur la qualité de l'enseignement.
Ceci s'explique par le fait que plusieurs étudiants ont leur ordinateur
portatif donc le nombre d'ordinateurs disponibles dans un établissement
n'a plus une grande importance.
- Test de corrélation de FADAN et
PEP Tableau N°13 : Corrélation de FADAN et PEP
|
|
FADAN
|
PEP
|
FADAN
|
Corrélation de Pearson
|
1
|
0,890
|
Sig. (bilatéral)
|
|
0,00
|
N
|
30
|
30
|
PEP
|
Corrélation de Pearson
|
0,890
|
1
|
Sig.
|
0,00
|
|
N
|
30
|
30
|
Source : Nos résultats sous SPSS 17.0, 2011.
Le coefficient de corrélation Pearson calculé
pour l'indicateur FADAN et PEP est très proche de 1 en valeur absolue et
cette valeur est positive, ce qui montre qu'il y a une forte corrélation
positive entre les deux variables. Ainsi, plus un établissement dispose
d'enseignants permanent, plus la qualité de l'enseignement est
améliorée car les enseignants ont du temps pour faire des
recherches et innovent. Cela va leur permettre d'améliorer leurs
programmes et les cours dispensés.
- Test de corrélation de FADAN et
NEL Tableau N°14 : Corrélation de FADAN et NEL
|
|
FADAN
|
NEL
|
FADAN
|
Corrélation de Pearson
|
1
|
0,822
|
Sig. (bilatéral)
|
|
0,00
|
N
|
30
|
30
|
NEL
|
Corrélation de Pearson
|
0,822
|
1
|
Sig. (bilatéral)
|
0,00
|
|
N
|
30
|
30
|
Source : Nos résultats sous SPSS 17.0, 2011.
Le coefficient de corrélation calculé pour
l'indicateur FADAN et NEL est proche de 1 en valeur absolue et cette valeur est
positive, ce qui montre qu'il y a une forte corrélation positive entre
les deux indicateurs. Ainsi, plus un établissement dispose de livres
dans sa
bibliothèque et que les étudiants les utilisent,
plus la qualité de l'enseignement est améliorée car,
l'utilisation des livres par les étudiants aide ces derniers à
mieux comprendre les cours reçus en classe.
- Test de corrélation de FADAN et NEPP
Tableau N°15 : Corrélation de FADAN et NEPP
|
|
FADAN
|
NEPP
|
FADAN
|
Corrélation de Pearson
|
1
|
0,927
|
Sig. (bilatéral)
|
|
0,00
|
N
|
30
|
30
|
NEPP
|
Corrélation de Pearson
|
0,927
|
1
|
Sig. (bilatéral)
|
0,00
|
|
N
|
30
|
30
|
Source : Nos résultats sous SPSS 17.0, 2011.
Le coefficient de corrélation calculé pour
l'indicateur FADAN et NEPP est très proche de 1 en valeur absolue et
cette valeur est positive. Cela montre qu'il y a une forte corrélation
positive entre les deux variables. Ainsi, plus un établissement a une
grande capacité et bien aménagée pour dispenser les cours,
plus la qualité de l'enseignement est améliorée.
Au total l'indicateur FADAN résume bien (globalement
satisfaisant) les variables utilisées dans la construction. Il pourrait
donc être utilisé pour mesurer la qualité de l'enseignement
dans les établissements privés d'enseignement supérieur au
Bénin.
3.7 Classement de quelques établissements
En prenant en compte les Principes de Berlin, le classement
devrait être fait par domaine et par type d'établissement. Pour
cela, nous avons distingué d'une part les établissements de type
universitaire et les centres d'enseignement supérieur, et d'autre part
les grands domaines. Ainsi, nous avons identifié quatre (04) grands
domaines qui sont : Santé, Gestion, Génie civil et Topographie et
l'Audiovisuel. À cause du manque de données sur tous les domaines
et sur tous les établissements, d'une part, et le nombre
d'établissement d'autre part, nous nous sommes intéressés
uniquement aux centres d'enseignement supérieur du domaine Gestion.
L'indicateur synthétique obtenu est une combinaison
linéaire des variables, en utilisant les coefficients de
pondération (générés par SPAD 5.5) du facteur de
l'analyse. Ses valeurs pour l'année académique 2008-2009 et le
classement de quelques établissements sont présentés dans
le tableau ci-après :
Tableau N°16 : Valeur de FADAN mesurant la
qualité de l'enseignement dans les établissements privés
d'enseignement supérieur
Établissements
|
FADAN
|
Classement
|
École Supérieure Internationale d'Enseignement
Technique
|
56,33
|
1
|
Institut International de Management
|
53,24
|
2
|
Centre de Formation Touristique et Hôtelier
|
52,22
|
3
|
Institut Universitaire du Bénin
|
51,66
|
4
|
École d'Administration d'Informatique et de Gestion
(EAIG)
|
43,95
|
5
|
Institut Coopératif de Technologie et de Management
|
43,80
|
6
|
École Internationale de Cotonou DAUPHINE
|
43,14
|
7
|
École Supérieure Jean Michel le FAUCON
|
41,16
|
8
|
Les cours SONOU
|
41,09
|
9
|
École Supérieure de Gestion Informatique et des
Sciences (ESGIS)
|
40,65
|
10
|
Haute École de Commerce et de Management
|
39,52
|
11
|
École Pigier
|
39,44
|
12
|
École de Technicien Supérieur du Bénin LA
GRÂCE
|
39,02
|
13
|
École Supérieure d'Enseignement Professionnelle LE
BERGER
|
36,98
|
14
|
Institut Cerco
|
36,83
|
15
|
Centre de Formation Professionnelle de Tourisme et de l'Agence
Africaine
|
36,21
|
16
|
Institut Supérieur de Communication d'Organisation et
Management
|
35,21
|
17
|
Centre d'Étude Supérieur en Tertiaire, Industrie et
Agriculture (CESTIA-Bénin)
|
33,86
|
18
|
Institut Supérieur de Formation Professionnelle et d'Appui
à la Sécurité
|
32,66
|
19
|
Institut Supérieur de Formation Professionnelle (ISFOP)
|
32,10
|
20
|
École Supérieure de Panafricaine et de Management
Appliquée
|
32,03
|
21
|
École Supérieure des cadres et Techniciens
|
31,14
|
22
|
Centre Régional de Formation pour les Entreprises
(CRAFE)
|
30,06
|
23
|
Institut Polytechnique le CITOYEN
|
29,46
|
24
|
Institut Supérieur de Management ADONAÏ
|
28,65
|
25
|
École Supérieure STE FELICITE
|
28,10
|
26
|
Institut de Management et de Gestion
|
27,69
|
27
|
École Supérieure de Management
|
25,86
|
28
|
École Supérieure d'Administration et
d'Économie
|
25,40
|
29
|
École Supérieure de Gestion et Commerce
|
22,15
|
30
|
Source : Les auteurs, 2011.
Le graphe ci-après illustre la variation de l'indicateur
au niveau des établissements Graphique N°3 : Variation de
FADAN
Valeur de FADAN
40
20
60
30
50
10
0
1 2 3 4 5 6 7 8 9 101112131415161718192021222324252627282930
Les établissements
FADAN
FADAN
Source : Nos résultats sous Microsoft Excel 2007,
2011.
La valeur maximale de l'indicateur composite est 100 et sa
valeur minimale est 0. Ainsi, plus la valeur de FADAN pour un
établissement est proche de cette valeur maximale, plus celui-ci est
performant et la qualité de l'enseignement donné dans cet
établissement est meilleure.
Pour l'année académique 2008-2009, les valeurs
de l'indicateur FADAN sont comprises entre 22,15 et 56,33. La moyenne pour
cette même année est 36,99. Sur les 30 établissements
sélectionnés pour ce travail, 13 ont une valeur supérieure
à cette moyenne soit 43,33% et environ 57% ont une valeur
inférieure à la moyenne. Cela s'explique par le fait
que sur les 30 établissements
sélectionnés, une vingtaine environ ont peu d'enseignants
qualifiés, ne disposent pas d'assez d'enseignants pour encadrer les
étudiants, ne possèdent pas d'une bibliothèque ou ont
très peu de livres dans leur bibliothèque et certains ont plus
d'étudiants que la capacité de leur établissement.
On constate également que la valeur maximale obtenue par
les établissements est 56,33. Ceci dénote de la qualité
peu appréciable de ces établissements.
On pourrait par exemple fixer un seuil à ces
établissements et s'il est atteint, ces derniers pourraient
bénéficier d'une certaine forme de motivation.
CHAPITRE 4 : Vérification des hypothèses,
limites et recommandations
4.1 Vérification des hypothèses
Pour atteindre notre objectif, nous avions postulé les
hypothèses suivantes :
H1 : La variable qualité et accès expliquent
fortement la performance des établissements. H2: La variable
qualité a le coefficient le plus élevé dans la formation
de l'indicateur.
Les données utilisées pour vérifier ces
hypothèses sont pour l'année académique 2008-2009 et ont
été collectées au Ministère de l'Enseignement
Supérieur et de la Recherche Scientifique. Ces hypothèses
émises pour le présent travail ont été
testées et ont été confirmées.
En effet, la somme des coefficients des indicateurs qui
composent la variable qualité est égale à 0,84. Cette
valeur est proche de 1 et explique que la variable qualité a un poids
très élevé dans l'indicateur synthétique et
influence fortement la performance d'un établissement.
4.2 Limites de l'étude
L'indicateur proposé permet certes de mesurer le niveau
global de la qualité de l'enseignement dans les établissements
privés d'enseignement supérieur au Bénin. Toutefois, il
présente certaines limites notamment :
- La non prise en compte de certaines variables pertinentes en
matière de qualité de l'enseignement telles que le rapport
dépenses de salaires des enseignants/dépense totale, le nombre
d'articles publiés par un enseignant au cours de l'année
académique, les cours publiés par un établissement sur un
site internet.
- La non considération de variables qualitatives
traduisant la performance des établissements. Le présent travail
s'est limité aux variables quantitatives pouvant expliquer la
performance d'un établissement. La performance a également une
dimension subjective contenue dans la psychologie des hommes. En effet, la
perception qu'ont les hommes à propos d'un établissement, l'image
qu'ils se font sur celui-ci, le désir qu'ont les apprenants de
s'inscrire dans un établissement ou des parents à envoyer leurs
enfants dans tel établissement rendent aussi compte de la
performance d'un établissement. Les données sur
ces variables, habituellement obtenues par des enquêtes d'opinion
auprès des populations, n'ont pas pu être inclues dans
l'élaboration de l'indicateur car de tels sondages n'ont jamais
été effectués au Bénin.
4.3 Recommandations
A la suite des résultats obtenus et compte tenu des
problèmes rencontrés pour la réalisation de ce travail, il
est nécessaire de faire certaines propositions pour d'une part
améliorer la qualité des prochaines études dans ce domaine
et d'autre part rendre plus performant les établissements d'enseignement
supérieur.
Pour améliorer la qualité des prochaines
études sur la mesure de la performance et la qualité de
l'enseignement dans les établissements privés d'enseignement
supérieur, il s'agit principalement d'organiser
régulièrement des enquêtes d'opinion sur la performance des
établissements et la qualité de l'enseignement. Aussi, la
manière d'organiser les enquêtes sur ces établissements
pour recueillir les données existantes (très souvent
quantitatives) doit être revue ou changée. Pour ces
enquêtes, le questionnaire est envoyé ou déposé dans
les établissements par le MESRS ou les enquêteurs. Le
questionnaire est rempli par ces établissements et renvoyé au
MESRS ou les enquêteurs vont le chercher. Donc les renseignements sur les
questionnaires pourraient être non crédibles.
Il faut également changer la manière
d'élaborer le questionnaire et de construire la base de données
sur les établissements après l'enquête au MESRS et aussi la
manière de disposer les données dans l'annuaire statistique car
les données sont difficiles à exploiter.
Il faut que les autorités cessent de donner des
autorisations aux nouveaux établissements pour l'ouverture des
filières existantes comme comptabilité gestion ; banque
finance... et dans certaines localités (Cotonou, Godomey et Calavi).
Aussi, ils doivent exiger la création des établissements dans les
autres localités du pays pour réduire l'exode rural.
Après l'autorisation de création des
établissements, des inspections doivent être menées sur les
cours donnés par les professeurs et les infrastructures. Cette
inspection doit être très rigoureuse et doit se faire au moins
trois à quatre fois par an.
Créer une école normale pour former les
enseignants qui devront être consommés rien que par le
privé car la plupart des établissements utilisent les enseignants
du public et ces derniers n'ont plus de temps pour se consacrer à la
recherche.
En vue de rendre les établissements plus performants et
améliorer la qualité de l'enseignement, les autorités
à divers niveaux et les dirigeants de ces établissements devront
agir dans le sens :
- Implanter les locaux des établissements sur des sites
propres sécurisés et entièrement viabilisés.
- Avoir assez d'enseignants qualifiés et permanents pour
dispenser les cours aux étudiants.
- Disposer d'un site internet sur lequel doit être
publié des cours dont le public à besoin.
L'application de ces mesures améliorera la performance
des établissements privés d'enseignement supérieur et la
qualité de l'enseignement donné et impulsera surtout un nouveau
dynamisme de ces derniers.
Élaboration des critères de performance des
établissements privés de l'enseignement supérieur
CONCLUSION
Les classements d'universités aussi bien sur le plan
national qu'international font dorénavant partie du paysage de
l'enseignement supérieur. Compte tenu des informations que plusieurs
souhaitent obtenir quant à la performance, la qualité de
l'enseignement ou aux spécificités des divers
établissements d'enseignement supérieur, les classements se
révèlent les sources les plus simples et les plus faciles
à consulter. Une fois publiés, ils attirent l'attention des
médias, des étudiants, des parents d'élèves, des
professeurs-chercheurs, des chefs d'entreprises et les décideurs
publics.
Puisqu'ils fournissent, somme toute, des informations qui
peuvent être utiles à ces diverses clientèles, les
classements sont très prisés. Mais comment s'en servir à
bon escient ? Tous les chercheurs qui se sont penchés sur cette question
considèrent que les classements doivent être pris comme une source
d'information, parmi d'autres. Un modèle, même imparfait, peut
comporter des informations qui seront utiles, si elles sont
interprétées judicieusement (Taylor & Braddock, 2007). Ainsi,
pour permettre à la population d'avoir des informations sur la
performance et la qualité de l'enseignement surtout dans les
établissements privés d'enseignement supérieur, nous nous
sommes proposé d'élaborer un indicateur composite qui va
permettre de mesurer la qualité de l'enseignement dispensé dans
ces établissements.
Mais pour donner une grande importance aux classements des
universités dans notre pays, un programme national d'évaluation
de la performance et de la qualité de l'enseignement dans les
établissements doit être créé et mis en place par
l'État. Cela conférerait davantage de valeur et de
légitimité aux résultats qui en découleraient.
Élaboration des critères de performance des
établissements privés de l'enseignement supérieur
BIBLIOGRAPHIE
1. UNESCO-CEPES, Centre européen pour l'enseignement
supérieur, Volume XXX, n°2, juillet 2005 : << Le classement
et ses méthodologies dans l'enseignement supérieur >>,
http://unesdoc.
Unesco.org/images/0014219f.pdf (Page consultée le13/11/2011).
2. AIU, Association internationale des universités,
AIU Horizons, mai 2007, Volume 13, n°2-3, << Dossier
thématique : Classements, typologie des classements et classification
>>
http://www.unesco.org/iau/newsletters/iaunew13-2-3-fr.pdf
(Page consultée le 15/11/2011).
3. GAGNON, J. (2010), Analyse des impacts mondialisation sur
l'éducation au Québec-Rapport 9.
4. SYLIN, M. et DELAUSNAY (2007). Les démarches de
qualités dans l'enseignement supérieur : Quels choix
méthodologiques fondamentaux ?
5. Site du Secrétariat d'État à
l'éducation et à la recherche (SER) Suisse et de la
conférence des recteurs des universités Suisse (CRUS)
http://universityrankings.ch/fr/home
(Page consultée le 15/11/2011)
6. ADJIBOYE, A. et HOUNKPEVI, D. (2011). Élaboration
d'un indicateur composite pour la mesure de l'attractivité des communes
du Bénin, mémoire DTSENEAM, Bénin
7. KERGALL, E. (2008). Impact des comparaisons internationales
sur les politiques éducative.
8. CHE, Centre for Higher Education Development, Working paper
No 99, December 2007 : «Identifying the Best: The CHE Ranking of Excellent
European Graduate Programmers in the Natural Sciences and Mathematics»
http://www.che.de/downloads/CHE_ExcellenceRanking_AP99.pdf
(Page consultée le 02/12/2011)
9. Usher, A. et Savino, M. (2006). A world of difference: A
Global Survey of university League. Tables. Toronto, ON: Education Policy
Institute. Retrieved 12 Jan. 2011
http://www.educationalpolicy.org/pdf/world-of-difference-200602.pdf
(Page consultée le 08/12/2011)
10. DALSHEIMER, N. et DESPREAUX, D. (2008). Analyses des
classements internationaux des établissements d'enseignement
supérieur.
11. THERY, H. (2009). Palmarès des universités
mondiales, « Shanghai » et les autres.
12. NIASSE, B. (2009). L'enseignement supérieur
à l'heure de la mondialisation : état des lieux,
stratégies et qualité dans les établissements
privés d'enseignement supérieur au Sénégal,
mémoire de Master-Université Cheikh ANTA DIOP de DAKAR
13. PETRELLA, R. (2001). Finalités de l'enseignement
supérieur. Rénover ensemble l'enseignement supérieur,
UNESCO, 2011
14. SALL, N.H. et DE Ketele, J.M. (1997). L'évaluation du
rendement des systèmes éducatifs : Apport des concepts
d'efficacité, d'efficience et d'équité.
15. CARNOY, M. (1999). Mondialisation et réforme de
l'éducation : ce que les planificateurs doivent savoir. Unesco,
Paris.
16. GÖTTELMANN-Duret, G. (1991). Examens et management
de l'éducation dans les pays en développement. Institut
International de Planification de l'éducation (crée par
l'Unesco)
17. BOURDIN, J. (2008). Enseignement supérieur : Le
défi des classements. Paris : Sénat, République
Française
18. DALSHEIMER, N. et DESPREAUX, D. (2008). Analyse des
classements internationaux des établissements d'enseignement
supérieur. Comparaisons internationales, Education & Formation,
n°78
ANNEXES
Élaboration des critères de performance des
établissements privés de l'enseignement supérieur
ANNEXES
Annexes 1
Histogramme des 8 premières valeurs propres
|
|
|
|
|
|
|
Valeurs propres des axes
|
|
|
|
|
|
72,24%
|
|
|
|
|
|
|
|
11,92% 9,81%
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
2,83%
1,15%
0,97%
0,78%
0,30%
|
|
|
|
|
|
|
|
Pourcentage
|
|
Source : Nos résultats sous SPAD5.5, 2011.
Annexes 2
Intervalles Laplaciens D'ANDERSON
Intervalle au seuil 0,95
Numéro
|
Bonne inférieur
|
Valeurs propres
|
Bonne supérieur
|
1
|
2,8046
|
5,7794
|
8,7541
|
2
|
0,4628
|
0,9537
|
1,4445
|
3
|
0,3807
|
0,7845
|
1,1883
|
4
|
0,1100
|
0,2267
|
0,3434
|
5
|
0,0446
|
0,0918
|
0,1391
|
Source: Nos résultats sous SPAD 5.5, 2011.
Annexes 3
Ancien axes unitaire
Libellé de la variable
|
Axe 1
|
Axe 2
|
Axe 3
|
Axe 4
|
Axe 5
|
NNEI
|
0,40
|
- 0,14
|
- 0,80
|
- 0,40
|
- 0,42
|
TBTS
|
0,39
|
- 0,18
|
- 0,24
|
- 0,17
|
- 0,33
|
REE
|
0,39
|
- 0,23
|
- 0,21
|
0,08
|
- 0,07
|
TEQ
|
0,37
|
- 0,20
|
- 0,39
|
0,06
|
0,76
|
NEMO
|
- 0,14
|
- 0,87
|
0,47
|
- 0,02
|
0,07
|
PEP
|
0,37
|
0,05
|
0,26
|
0,77
|
- 0,19
|
NEL
|
0,32
|
0,27
|
0,57
|
- 0,44
|
0,27
|
NEPP
|
0,38
|
0,16
|
0,35
|
0,08
|
0,10
|
Source: Nos résultats sous SPAD 5.5, 2011.
|