III.2- LES VARIABLES : NATURE, SOURCES ET TRAITEMENT
L'étude de l'efficacité comparée des
politiques de ciblage de l'inflation et de niveau des prix implique un panel de
variables économiques de politique monétaire et de mesure de
l'activité notamment celles représentant les cibles de politique
monétaire à savoir, le taux d'inflation, le niveau des prix, le
produit intérieur brut (effectif et potentiel). Toutes les séries
utilisées sont en fréquence trimestrielle, comme cela est souvent
le cas dans les recherches empiriques relatives à la politique
monétaire (Taylor (1993), Ball (1997), Svensson (1999), Dittmar et Gavin
(2000), Dittmar et al (1999), Aubert et Adjemian (2003), Ténou (2002),
entre
autres), ceci pour tenir compte de la courte nature du terme
de la politique monétaire. Très généralement,
toutes les séries sont prises en logarithme. L'étude couvre la
période de 1993.IV à 2008.IV et concerne l'espace UMOA avec une
politique monétaire unique exprimée par l'institut
d'émission, la BCEAO.
Outre les Notes d'Informations Statistiques (NIS) et les
rapports annuels de la Banque Centrale, les données utilisées
proviennent aussi de la base de données du FMI : les
Statistiques Financières Internationales.
|
Les variables de niveau de prix et
d'inflation
|
L'Indice Harmonisé des Prix à la Consommation
(IHPC) est l'indicateur usuel du niveau général des prix dans
l'économie. Dans la méthodologie adoptée, l'IHPC de chaque
Etat membre de l'UMOA est un indice de type Laspeyres couvrant la consommation
des ménages au sens de la comptabilité nationale. L'indice UMOA
des prix à la consommation (IHPC) correspond ainsi, à la moyenne
pondérée des Indices Harmonisés des Prix à la
Consommation des pays membres de l'Union15. La mise en oeuvre de
l'objectif de stabilité des prix à assurer à moyen terme
donne un rôle à l'IHPC de l'union, étant donné que
la Banque réagit en fonction des évolutions relatives à la
zone dans son ensemble. En dépit des insuffisances liées au
retard de mise à jour des pondérations utilisées pour en
améliorer la mesure au niveau national, l'IHPC calculé en
fréquence mensuelle présente des avantages de
disponibilité et de crédibilité.
L'évolution de l'Indice Harmonisé des Prix
à la Consommation est la mesure du niveau général des prix
retenue par la BCEAO pour mesurer l'inflation. Trois raisons expliquent ce
choix16 : a) la forte harmonisation de cet indice dans les pays de
la zone ; b) la disponibilité ; c) l'importance relative dans les
décisions des agents économiques. A partir des IHPC, il existe
différentes approches du taux d'inflation. L'inflation en glissement
annuel
15Le poids d'un pays est égal à la part
des dépenses de consommation des ménages de la principale
agglomération du pays dans le total des dépenses de consommation
des ménages des principales agglomérations des pays membres.
16 Mais il peut être volatil dans les périodes
où certaines de ses composantes - prix alimentaires ou prix
pétroliers notamment - sont affectées par des chocs transitoires
n'influençant pas le rythme de la hausse des prix à moyen et long
terme qui est la préoccupation des autorités monétaires.
Pour pallier ce problème, il est utilisé parfois une mesure de
l'inflation sous-jacente ou structurelle.
mesuré par l'évolution annuelle des prix entre
un trimestre donné et le même trimestre de l'année
précédente est retenue, comme dans la plupart des études -
dont Taylor (1993) - afin d'éviter les variations
erratiques17. Ainsi, on a :
nt = (11113Ct - IHPCt_4)/11PCt-4
L'écart d'inflation étant la différence
entre le taux observé et le taux objectif, il se calcule
aisément. La Banque Centrale fixe en effet un taux d'inflation ex-ante
(n*) pour tenir compte de l'objectif de stabilité des prix et
des critères de convergence économique dans la
zone UMOA. Alors l'écart d'inflation se déduit
(nt - n*) .
La série des indices trimestriels calculés sur
la base 100 de l'année 1996 - année d'adoption de l'IHPC -
proviennent des NIS et des archives y relatives de l'UEMOA, disponibles sur le
site Web de la Commission.
|
Les variables de production et d'output
gap
|
L'activité économique est
représentée dans l'analyse par le PIB agrégé pour
l'ensemble des pays18. De façon générale,
l'indicateur auquel les Banques Centrales sont supposées réagir
constitue l'écart de production (output-gap) obtenu par
différenciation du PIB effectif par rapport à son niveau
potentiel de nature inobservable. Du point de vue méthodologique, en
l'absence d'observations infra-annuelles sur le PIB, il est fait recours au
processus de trimestrialisation des séries annuelles du PIB tel qu'il
résulte de l'algorithme d'interpolation proposé par Goldstein et
Khan (1976). Seulement si cette trimestrialisation est possible pour la
série du PIB effectif, il n'en est pas de même du produit
potentiel non observable, correspondant à un équilibre de plein
emploi et de l'écart au produit dont l'appréciation et
l'évaluation restent complexes.
Plusieurs méthodes sont proposées pour
évaluer le produit potentiel. Baghli, et al
17
Cette approche diffère bien de celle de Svensson et
autres qui considèrent le taux d'inflation par rapport au trimestre
précédent. Si cette méthode s'applique bien dans les
économies non extraverties, elle ne saurait rendre compte aussi
efficacement la variation du niveau des prix dans l'UMOA en raison de
l'importance des effets transitoires.
18 ..
ii pourrait être plus utile et plus pertinent d'adopter un
processus d'agrégation des données nationales suivant une
pondération liée à la taille de l'économie
considérée dans l'activité économique globale de
l'union.
(2002) en présentent les principales : deux approches
statistiques univariées, le lissage par la méthode du filtre
Hodrick-Prescott et l'ajustement d'une tendance ; deux prolongements portant
sur les méthodes statistiques étendues aux cas
multivariés, l'analyse de modèles VAR structurels et de
modèles à composantes inobservables (dont le filtre de Kalman) ;
puis, une évaluation fondée sur une méthode structurelle
dans laquelle la production du secteur marchand est décrite par une
fonction Cobb-Douglas alors que celle du secteur non- marchand est
supposée exogène.
Diop (2000) montre que la méthode d'estimation par la
fonction de production contribue à une meilleure estimation de la
production potentielle dans l'espace UMOA ; seulement, elle comporte aussi des
insuffisances liées au calcul du stock de capital et à une
moindre mesure de la dynamique du marché du travail. La mise en oeuvre
pratique des différentes méthodes achoppe au manque de
données statistiques fiables lié à
l'indétermination du seuil de plein emploi pour les pays à
économie sous développée notamment. En conséquence,
des hypothèses plausibles et moins restrictives conduisent à une
estimation du produit potentiel. La méthode d'estimation dépend
évidemment de l'étude. Le processus de filtrage Hodrick-Prescott
est adopté dans le cadre de cette étude : les insuffisances de
cette approche sont connues car étant dépourvue de fondements
théoriques rigoureux mais justifiée par l'absence de
données et de repères méthodologiques pratiques pour en
adopter d'autres.
Afin de recueillir un maximum d'informations statistiques
utiles sur les données, il apparaît indispensable de
procéder à une étude statistique approfondie des
différentes séries chronologiques des modèles d'analyse. A
cette phase, les tests pré-estimations sont nécessaires ; aussi
sera-t-il procédé successivement au test de normalité pour
connaître de la distribution de probabilité des observations, au
test de stationnarité des séries pour apprécier
l'existence ou non de racine unitaire puis l'étude des différents
processus ARMA (p,q).
|
Le test de normalité des
séries
|
Le concept de normalité sans être crucial permet en
effet, de vérifier si les différentes
hypothèses implicites aux modèles à
étudier sont conformes pour valider les tests statistiques
subséquents. Certains modèles et applications
économétriques impliquent des séries présentant une
distribution normale. Dès lors, il devient pertinent de vérifier
cette hypothèse de normalité. Une façon de tester la
normalité d'une série chronologique d'observations ou de
résidus consiste à mesurer l'écart que leur distribution
présente par rapport à la distribution normale théorique
en se focalisant sur les moments d'ordre 3 et 4 à savoir, le coefficient
d'asymétrie ou Skewness (m3) et le coefficient d'aplatissement ou
Kurtosis (m4).
Le test de Jarque-Bera (1987), un test d'hypothèse sur la
normalité des séries est appliqué.
J - K
6
(S2 + (I( - 3)2R
4
HI =
n = Nombre d'observations
k = Nombre de variables explicatives si les données
proviennent des résidus d'une régression linéaire. Sinon,
k = 0.
S = Skewness : moment d'ordre 3 d'une variable
centrée-réduite.
K = Kurtosis : moment d'ordre 4 d'une variable
centrée-réduite.
La statistique JB suit asymptotiquement une loi du
÷2 à 2 degrés de liberté. Une loi normale
a un coefficient d'asymétrie S = 0 et une kurtosis K = 3. En
conséquence, si les données suivent une loi normale, le test tend
alors vers 0 et il ne peut être rejeté l'hypothèse Ho de
normalité au seuil á. Plus formellement, le test de Jarque-Bera
ne teste pas à proprement parler si les données suivent une loi
normale, mais plutôt si les deux coefficients empiriques sont les
mêmes que ceux d'une loi normale de même espérance et de
même variance.
|
Le test de stationnarité des
séries
|
Un concept fondamental dans l'analyse de série
chronologique est sans aucun doute la stationnarité et plus
particulièrement la stationnarité au sens faible. Elle est
requise en effet pour observer la convergence des différents moments
empiriques vers les moments
théoriques correspondants. Il est dès lors
très important de s'assurer que cette condition de constance dans la
distribution des séries est remplie. Une série est faiblement
stationnaire, si elle présente une moyenne finie et constante, une
variance finie et constante et des autocorrélations indépendantes
de la date à laquelle les variables sont mesurées. Pour s'assurer
de la stationnarité d'une série, plusieurs approches sont
possibles dont le test de racine unitaire. En correction des éventuelles
autocorrélations des observations sérielles, le test Augmented
Dicker-Fuller (ADF) qui ajoute des retards (lags) au modèle
testé, est privilégié pour la mise en évidence de
la racine unitaire.
Y
?Xt = cste + fit + ØXt_1 +
Iej?Xt_i + gt
j=1
Suivant l'état de l'analyse, les hypothèses
alternatives vont varier dans le trend ou la constance. Les trois principales
sources de non stationnarité sont étudiées, à
savoir, le changement structurel, la tendance déterministe et la
tendance stochastique. Pour la qualité de l'examen de la
stationnarité des séries, le test de Perron (1989) qui permet
notamment, la prise en compte des ruptures de tendance dans les séries
renforce l'analyse.
L'hypothèse nulle de l'ensemble de ces tests est la
présence d'une racine unitaire, signifiant la non stationnarité
de la série. Si la statistique du test est supérieure à la
valeur critique il est rejeté l'hypothèse nulle de
non-stationnarité de la série, équivalant à la
présence de racine unitaire. A posteriori, l'analyse de la
stationnarité pourra permettre la détermination de l'ordre
d'intégration des séries dans le cas échéant pour
des processus Differency Stationnary (DS).
|
L'examen des processus AR(p)
|
Cet exercice se justifie essentiellement compte tenu de la
spécification du modèle d'analyse, laquelle implique des
observations retardées pour la variable de production notamment. Pour
ceci, il est estimé à l'instant t, le processus X comme
étant une somme pondérée de ses p valeurs passées
et d'un bruit blanc contemporain u.
Xt = Ø1Xt_1 + Ø2Xt_2 +
Ø3Xt-3 ... ... ... ... . . +ØpXt-p + Ut
Parmi les approches traditionnelles pour déterminer le
nombre de lags optimal, le corrélogramme de fonction
d'autocorrélation partielle, les critères d'information AIC de
Akaike (1973) et BIC de Schwartz (1978) puis le critère HQ19
proposé par Hannan et Quinn (1979) pour les processus ARMA sont à
considérer dans l'analyse.
Enfin, dans la perspective de vérification,
l'hypothèse de recherche étant que le ciblage du niveau des prix
implique un avantage spécifique de moindre variabilité de
l'inflation comparativement à la politique de ciblage du taux
d'inflation, la valeur estimée du paramètre
p mesurant la persistance endogène de la
production par rapport à la valeur 0.5 est une condition
nécessaire. La comparaison analytique et graphique de la
variabilité du taux d'inflation suivant les deux règles permet de
dégager l'avantage recherché et donc leur efficacité
relative.
19
Le critère HQ est considéré comme un
intermédiaire entre les critères AIC et le BIC ; notamment, il
adoucit quelque peu la sévérité de la fonction de
pénalité du critère BIC relativement à la
croissance de la taille de l'échantillon tout en maintenant une forte
convergence dans l'identification de l'ordre réel du modèle.
|