Paragraphe 2 : Technique d'analyse, sources des
données et résultats attendus
2.1- Technique d'analyse des résultats
L'analyse des données consistera d'une part à
analyser l'évolution de la masse salariale et de l'investissement public
au Bénin au cour de la période 1990-2012 et d'autre part à
l'estimation du modèle économétrique permettant
d'évaluer les effets de la masse salariale sur les investissements
publics au Bénin toujours au cours de la période 1980-2012.
Pour des raisons pratiques, la période ci-dessus sera
divisée en deux périodes à savoir :
- la période allant de 1990 à 1999,
considérée comme une période de redressement (Programma
d'Ajustement Structurel (PAS) et dévaluation) et de réforme
budgétaire ;
2012-2013
Réalisé par Romaric
DOSSA
Analyse des effets de la masse salariale sur
l'investissement public au Bénin
27
- Et la période allant de 2000 à 2012,
considérée comme la période de l'initiative PPTE,
réduction de la dette et mise en oeuvre des mesures du Document de
Stratégie de Réduction de la Pauvreté (DSRP) et de
Stratégie de Croissance pour la Réduction de la Pauvreté
(SCRP).
Cette subdivision à été effectuée
dans le but d'apprécier les effets du PAS, de l'initiative des Pays
Pauvres Très Endettées (PPTE), de la dévaluation, du DSRP
et d la SCRP sur la masse salariale et l'investissement public au
Bénin.
Afin de mieux expliquer l'impact de la masse salariale sur
l'investissement public au Bénin, des séries chronologiques
seront utilisées ; or plusieurs problèmes sont propres aux
séries chronologiques notamment en raison de la corrélation entre
les observations (auto-corrélation) et de la possibilité de
changement du processus générateur de données d'une
époque à l'autre (stationnarité). Avant l'estimation de
l'équation du modèle économétrique, nous allons
procéder à une série de tests économétriques
afin d'éviter l'estimation de relations « fallacieuses » et
des interprétations erronées. A cet effet, l'estimation du
modèle sera faite par la méthode des MCO sur le logiciel
Eviews5.0. Ainsi, plusieurs tests statistiques seront fait sur ces
séries afin d'estimer le modèle à correction d'erreurs
à savoir des tests de diagnostic et de validation du modèle.
2.1.1- Tests de diagnostic
2.1.1.1- Etude de stationnarité
Test de racine unitaire : dans le cadre de notre étude,
c'est le test de Dickey-Fuller Augmenté (ADF) qui est utilisé
pour vérifier la stationnarité des séries. En effet, une
série temporelle est dite stationnaire si sa moyenne et sa variance sont
constantes dans le temps et si la valeur de la covariance entre deux
périodes ne dépend pas du moment auquel la covariance est
calculée. En somme, une série chronologique est stationnaire si
elle ne comporte ni tendance, ni saisonnalité, et plus
généralement aucun facteur n'évoluant dans le temps.
Ainsi, la non stationnarité d'une série se manifeste à
travers deux composantes : la présence de tendance déterministe
et/ou de tendance stochastique.
2.1.1.2- Etude de
coïntégration
La théorie de la cointégration permet de
spécifier des relations stables de long terme tout en analysant
conjointement la dynamique de court terme des variables
considérées. Le test de cointégration permet de
détecter une relation d'équilibre entre variables. La
cointégration traduit l'idée que des variables évoluent
ensemble aux même taux. Deux tests
2012-2013
Réalisé par Romaric
DOSSA
Analyse des effets de la masse salariale sur
l'investissement public au Bénin
28
de coïntégration sont généralement
utilisés selon le cas : le test d'Engle et Granger qui sera fait dans le
cas où le vecteur cointégrant est unique (les séries sont
intégrées de même ordre) et le test de Johansen lorsqu'il y
a plusieurs vecteurs cointégrant (les séries sont
intégrées de différent ordre). Les hypothèses du
test sont :
H0 : Non cointégration H1 : Cointégration
On compare le ratio de vraisemblance à la valeur
critique. Si le rang de cointégration est égal à
zéro, on rejette l'Hypothèse de cointégration. Mais si le
rang de cointégration est égal ou supérieur à un,
on accepte l'hypothèse de cointégration.
A l'issue de ce test, s'il s'avère qu'il existe une
relation de cointégration entre les variables, l'on conviendrait
d'estimer leur relation par un Modèle à Correction d'Erreur
(MCE). C'est un modèle qui permet d'intégré le
modèle de court terme autour d'une relation de long terme. Ainsi il sera
utilisé un modèle à correction d'Erreur .
2.1.2- Tests de validation du modèle
Une série de test sera appliquée au Modèle
à Correction d'Erreur : 2.1.2.1- Test de Ramsey
Le test de Ramsey est utilisé pour tester la
qualité de la spécificité du modèle. A cet effet,
les hypothèses du test sont les suivantes :
H0 : le modèle est bien spécifié
H1 : le modèle est mal spécifié
La règle de décision est la suivante ; on accepte
l'hypothèse :
H0 si la valeur de la probabilité est supérieure
à 5%
H1 si la valeur de la probabilité est inférieure ou
égale à 5%.
2012-2013
Réalisé par Romaric
DOSSA
Analyse des effets de la masse salariale sur
l'investissement public au Bénin
29
2.1.2.2- Test d'autocorrelation des erreurs de
Breusch-Godfrey
. L'autocorrélation est une situation dans laquelle les
termes d'erreurs ne sont pas
indépendants. Ce qui signifie que l'espérance
mathématique ( ') avec '. Les erreurs peuvent
être positives, négatives ou nulles. Cependant ce test nous permet
de détecter si les erreurs sont corrélées ou pas entre
elles. C'est-à-dire de vérifier si l'espérance
mathématique du terme d'erreur est nulle (erreurs non
corrélées) ou différent de zéro (erreurs
corrélées) ; d'où le test de Durbin-Watson et/ou celui de
Breusch-Godfrey.
Dans le cadre de cette étude, nous allons effectuer le
test de Breusch-Godfrey.
Ce test permet de détecter une autocorrélation des
erreurs d'ordre 1 selon la forme
Avec ( ) et ( )
Le test d'hypothèse est le suivant : ; Absence de
correlation
; Présence de correlation 2.1.2.3- Test de
Cusum
L'un des tests les plus importants pour l'estimation d'un
modèle est qu'il doit rester valable pour des données autres que
celle qui ont été utilisées lors de l'estimation. Ce
critère est celui de la constance des paramètres.
La stabilité des coefficients d'un modèle joue
un rôle important lorsqu'on cherche à comprendre les
mécanismes économiques et à réaliser des
projections. Leur instabilité peut refléter des
phénomènes ponctuels dans le temps (choc pétrolier,
dévaluation, calamités naturelles). Les variables sont stables si
la probabilité de chaque variable est inférieure à 5%
Le test de Cusum est utilisé pour tester la
stabilité structurelle du modèle et le test de Cusum carré
a permis de s'assurer d'un éventuel cas d'instabilité ponctuelle
dans le modèle. La règle de décision est la suivante : si
la courbe reste dans le corridor, alors les coefficients du modèle sont
stables et si la courbe est en dehors du corridor, alors les coefficients du
modèle sont instables.
2012-2013
Réalisé par Romaric
DOSSA
Analyse des effets de la masse salariale sur
l'investissement public au Bénin
30
2.1.2.4- Test de significativité globale du
modèle
Le coefficient de corrélation linéaire : le
coefficient de détermination R2 mesure la proportion de la
variance de la variable dépendante expliquée par la
régression de Y sur la matrice des variables explicatives.
L'appréciation et la qualité de l'ajustement que l'on a du
R2 doivent être tempérées par le degré de
liberté de l'estimation.
Quand le degré de liberté est faible, le nombre
d'observation comparé au nombre de facteurs explicatifs par le calcul du
R2 consigné est « le test de Fisher »,
(F-statistic).Un modèle est globalement significatif si la
probabilité (F-statistic) est inférieur à 5%.
2.1.2.5- Test de significativité des variables
explicatives
Pour ce test, l'objectif visé est d'évaluer la
contribution d'une variable explicative à la variance de la variable
dépendante. Dans la théorie, le test de student est celui
recommandé. Mais, dans la pratique, c'est la valeur de la
probabilité critique qui sert de règle de décision. Une
variable explicative sera considérée comme étant
significative si sa probabilité critique est inférieure à
5%.
2.1.2.6- Test de normalité de Jacques et
Berra.
L'hypothèse de normalité des termes d'erreurs
joue un rôle essentiel car elle va préciser la distribution
statistique des estimateurs. C'est grâce à cette hypothèse
que l'inférence statistique peut se réaliser. L'hypothèse
de normalité peut être testée sur les variables du
modèle ou sur les termes d'erreurs du modèle. L'étude de
la normalité des termes d'erreurs nous conduit à mettre en oeuvre
le test de normalité de Jacques-Berra comme suit :
H0 : X suit une loi normale
H1 : X ne suit pas une loi normale Règle de
décision
-on accepte H0 si JB est inférieure à 5,99 ou de
manière équivalente si la probabilité calculée des
observations est supérieure à 0,05.
-on accepte H1 si JB est supérieure à 5,99 ou de
manière équivalente si la probabilité calculée des
observations est inférieure à 0,05.
2012-2013
Réalisé par Romaric
DOSSA
Analyse des effets de la masse salariale sur
l'investissement public au Bénin
31
2.1.2.7- La multi-colinéarité des
variables
La multi-colinéarité des variables permet de
déceler les variables qui sont corrélées entre elles. Si
deux variables sont corrélées, des variables qui pourraient
être a priori significative ne le sont pas. On parle de
multi-colinéarité des variables quand les séries
explicatives sont liées entre elles. Dans ce cas, les estimateurs des
coefficients du modèle sont instables et de faibles variations des
variables explicatives produisent des fluctuations importantes de la variable
dépendante. La multi-colinéarité est
détectée par plusieurs tests entre les variables dont le test de
Kléin que nous allons adopter. Ce test stipule que : si
r2 inférieur à
R2, il y a absence de
multi-colinéarité avec r2 le
coefficient de corrélation linéaire et
R2 le coefficient de détermination.
Le coefficient de corrélation linéaire permet de
déterminer la nature du lien entre plusieurs variables. Il est
généralement compris entre 0 et 1 : ainsi lorsque r
est inférieur à 0,5 on dit que la corrélation est
faible et lorsqu'il est supérieur à 0,5 on dit que la
corrélation est forte entre les variables.
2.1.2.8- Test
d'homoscédasticité
Ce test vis à vérifier si l'une des
hypothèses pour avoir les estimateurs BLUE (Best Linear Unbased
Estimator) : c'est-à-dire des estimateurs sans biais, de variance
minimale et convergent. En effet, la spécification du modèle
suppose que le terme des erreurs a une variance constante
(homoscédasticité), ce qui n'est pas toujours le cas
(hétéroscédasticité), biaisant ainsi les
estimateurs sous stata, c'est le test d'homoscédasticité de White
qui est utilisé. Ce test se présente comme suit :
H0 : le modèle est homoscédastique H1 : le
modèle est hétéroscédastique
La règle de décision est la suivante : on
accepte H0 si la probabilité calculée des observations est
supérieure à la probabilité lue au seuil de 5% et on
accepte H1 si la probabilité calculée des observations est
inférieure à la probabilité lue au seuil de 5%.
|