UniversitéOmarBongo
...........
Faculté de Droit et
deSciences Economiques
...........
Département
d'Economie
...........
Laboratoire d'Economie
Appliquée (L.E.A)
![](La-transparence-optimale-dune-banque-centrale1.png)
MEMOIRE DE MASTER II EN SCIENCES ÉCONOMIQUES
OPTION :
SPÉCIALITÉ :
ÉCONOMIE INTERNATIONALE
MACROÉCONOMIE APPLIQUÉE
LA TRANSPARENCE OPTIMALE D'UNE BANQUE
CENTRALE
THEME :
Présenté par : Sous la direction
de :
Artan ITSITSA NZAMBA Jean-Louis NKOULOU
NKOULOU
Email :
generationnews@outlook.frAgrégé
des Facultés de Sciences
Économiques et de Gestion
Maître de Conférences
Décembre 2014
SOMMAIRE
Introduction générale 1
Partie I : Les gains de la
transparence optimale d'une banque centrale 6
Chapitre 1 : La transparence optimale :
un déterminant de la crédibilité d'une Banque centrale
7
Section
1 :Opacité totale versus transparence
pure : un enjeu de la crédibilité des Banques
centrales...............................................................7
Section
2 : La transparence intermédiaire comme
moyen de restaurer la crédibilité des Banques
centrales........................................................15
Chapitre 2 : La transparence optimale :
un moyen de réduire le risque d'incohérence temporelle
17
Section 1 : La transparence totale comme
degré optimal 17
Section 2 :
La transparence intermédiaire comme
degré optimal 18
Partie II : Les implications de la
transparence optimale en termes de conduite de la politique
monetaire 20
Chapitre 3 : Règles monétaires,
transparence optimale et conduite de la politique monétaire 21
Section 1 :
La règle doit tenir compte de
l'activité économique 21
Section 2 : Les caractéristiques propres
à la formulation 33
Chapitre4
: L'adoption d'une règle
monétaire spécifique 39
Section 1 : La règle d'objectif
spécifique 40
Section 2 : « Clean » versus
« lean » 42
Conclusion générale 47
Référence bibliographiques
49
Annexe..................................................................................................53
Table des
matières..................................................................................56
Introduction générale
La transparence optimale d'une Banque centrale
caractérise un niveau de communication permettant à la politique
monétaire de garantir aussi bien la stabilité d'inflation que la
cohérence de celle-ci avec les anticipations des agents privés
(Gosselin, 2008 ; Cornand, 2013). Ainsi considéré,
l'existence de plusieurs niveaux de transparence a favorisé
l'émergence des débats au sein de la théorie
économique (Mishkin, 2004 ; Macklem, 2005 ; Cukierman, 2001,
2005 ; Musard-Gies, 2007 ; Geraats, 2007).
À cet égard, les débats ont
privilégié deux principales approches pour la recherche de la
transparence optimale d'une Banque centrale : celle qui fonde le choix de
la transparence sur les objectifs afin d'accroître les performances de la
politique monétaire, d'une part (Taylor, 1993 ; Bernanke et al,
1999 ; Pollin, 2005 ; Svensson, 1997, 1999, 2003, 2010), et
celle qui privilégie la transparence d'équilibre, supposant
l'existence de niveaux intermédiaires de transparence qui oscillent
entre l'opacité totale et la transparence parfaite, d'autre part (Morris
et Shin, 2002 ; Hahn, 2006 ; Cukierman, 2007 ; Hoogduin et al.,
2010).
S'agissant de la première approche, la question
relative à la détermination du degré optimal de
transparence retient l'attention depuis l'article pionnier de Cukierman et
Meltzer (1986) sur « Une théorie de l'ambiguïté,
la crédibilité et l'inflation sous discrétion et
l'asymétrie d'information ». Ces analyses sont
complétées par Barro et Gordon (1983), Eijffinger et al. (2000),
Faust et Svensson (2001), Jensen (2002) et Geraats (2006), pour justifier
l'opacité des Banques centrales. Ce choix apparait optimal dans la
mesure où la présence d'une asymétrie d'information sur
les préférences entre la Banque centrale et les agents
économiques permet à la Banque centrale de générer
des surprises inflationnistes afin d'augmenter la production au-delà de
son niveau naturel sans que cela soit coûteux en terme de
crédibilité.
Le manque de crédibilité conduit donc à
l'inefficacité de la politique monétaire et, par
conséquent, l'efficacité de la politique monétaire repose
sur la capacité des Banques centrales à réduire le biais
inflationniste (Gies, 2006).
L'abandon de la discrétion, source d'incohérence
temporelle1(*) aboutissant
à la perte de crédibilité des autorités
monétaires (Kydland et Prescott, 1977 ; Barro et Gordon, 1983), a
conduit a évoqué l'instauration des règles (Taylor,
1993 ; McCallum, 1993 ; Drumetz et Verdelhan, 1997).La transparence
de cette règle peut alors jouer un rôle dans la mise en place
d'une politique de soutien à la crédibilité et dans la
résolution du problème d'incohérence temporelle (Cornand,
2007 ; Gies, 2007).
Ainsi, plusieurs stratégies sont envisageables pour
assurer la transparence de la politique monétaire. Leur conception doit
s'efforcer de concilier trois caractéristiques qui ne sont pas
aisément compatibles. En effet, la règle de comportement doit
être lisible pour garantir la crédibilité de la politique
monétaire, s'approcher autant que possible de l'arbitrage optimal entre
la variabilité de l'inflation et celle de la production et offrir une
souplesse suffisante pour tenir compte d'événements
particuliers2(*) ou
d'évolutions dans le modèle de l'économie3(*) (Pollin, 2005).
Pour atteindre leurs objectifs, les Banques centrales doivent
alors se montrer responsables, transparentes et crédibles auprès
des agents économiques. La transparence de la règle
monétaire vient donc renforcer cette crédibilité des
autorités monétaires (Artus, 1998 ; Orphanides et Williams,
2007).
Cette stratégie de politique monétaire devrait
donc fournir une référence permettant au public d'évaluer
la responsabilité et la capacité de la Banque centrale à
atteindre les objectifs de politique monétaire fixés à
l'avance (Artus, 1998).
Cependant, en présence des chocs
asymétriques4(*), la
Banque centrale a-t-elle intérêt à être transparente
sans être responsable ? Autrement dit, la banque centrale a-t-elle
intérêt à réduire sa marge de transparence ?
Si la banque centrale reste transparente en présence
des chocs asymétriques, elle ne fera pas preuve de
responsabilité. La responsabilité de la politique
monétaire implique une flexibilité pour réagir aux chocs
qui affectent l'économie (Cruijsen et al., 2006 ; Hoogduin et al.,
2008). D'où le terme de «discrétion contrainte»5(*)préconisé par
Bernanke et Mishkin (1997) et Bernanke (2003) pour caractériser le
ciblage d'inflation. Lacontrainte n'étant plus ici
représentée par la règle de politique monétaire que
la Banquecentrale s'est fixée, mais simplement par la cible d'inflation
qu'elle s'est engagée à atteindre à un horizon
prédéterminé (Svensson, 1999 ; Heikensten, 1999 ;
Goodhart, 2001 ; Pollin, 2005).
La transparence optimale, quant à elle, reposant sur
les niveaux intermédiaires de transparence, a remis d'actualité
la problématique de divulgation des informations
privilégiées de la Banque centrale, d'une part (Cornand, 2007) et
les raisons de celle-ci, d'autre part (Morris et Shin, 2002 ; Cukierman,
2005 ; Hoogduin et alii., 2010 ; Cornand, 2013).
Par rapport à la problématique de divulgation
des informations privilégiées, unetransparence parfaite n'est
plus nécessairement une solution optimale. En effet, en gardant
confidentielle certaines informations, la banque centrale s'assure d'un
avantage stratégique vis-à-vis des agents privés et ce,
conduisant donc à un niveau optimal d'ambiguïté (Cukierman,
2007). Pour cette raison, il serait préférable sous certaines
conditions, pour la Banque centrale, de détenir certaines informations
plutôt que de les divulguer publiquement (Cukierman, 2005, 2007 ;
Musard-Gies, 2007 ; Muto, 2012).
Par rapport aux raisons qui fondent la transparence
intermédiaire, la notion même d'un niveau optimal de transparence
apparait théoriquement significative en limitant certaines formes de
transparence (Cruijsen et alii., 2010). En effet, le concept de niveaux
intermédiaires de transparence se pose pour au moins trois raisons.
D'abord, une transparence parfaite pourrait conduire à
des incertitudes. En fournissant trop d'informations, les agents focalisent sur
la complexité de l'élaboration de la politique monétaire
et l'incertitude entourant les prévisions (Hoogduin, 2010). Ensuite, le
degré élevé de transparence pourrait conduire à une
surcharge de l'information et de la confusion. L'hypothèse que les
individus sont capables d'absorber, comprendre et peser toutes les informations
que la banque centrale fournit est probablement trop forte (Eijfingeret alii.,
2010). Enfin, la prise en compte des complémentarités
stratégiques. Si les agents privés ont besoin d'anticiper la
valeur des fondamentaux pour prendre leur décision, ils doivent
également considérer l'opinion des autres quant à la
valeur de ces fondamentaux (Morris et Shin, 2002 ; Cornand, 2011).
La transparence optimale, nécessaire pour accroitre
l'efficacité de la politique monétaire, se situe alors entre une
dose d'informations précises à révéler et celle qui
ne doit pas l'être (Mishkin, 2004 ; Cukierman, 2005, 2007 ;
Gosselin, 2008 ; Muto, 2012).
Les approches liées à la recherche de la
transparence optimale d'une Banque centrale se réfèrent à
la divulgation des informations privilégiées (Cornand, 2013).
Ainsi, il y a transparence parfaite lorsque la banque centrale rend publique
toute l'information dont elle dispose et opacité complète
lorsqu'elle n'en divulgue rien. Entre ces deux cas extrêmes, il existe
tout un éventail de degrés de transparence possibles
(Musard-Gies, 2007 ; Diana, 2008). D'où la nécessité
de rechercher un niveau optimal de transparence.
En dépit de l'existence d'un consensus autour de
l'importance de la transparence, aucun consensus n'est dégagé
quant à la nature, la qualité et le volume de l'information
à divulguer (Kharrat, 2014). En outre, les différentes
manières de modéliser l'asymétrie d'information entre la
Banque centrale et les agents économiques peuvent également
expliquer la divergence des résultats quant au degré optimale de
transparence d'une Banque centrale (Musard-Gies, 2007).
C'est en fait la mise en évidence de différents
degrés de transparence des Banques centrales des pays de l'OCDE qui a
renouvelé l'intérêt pour l'analyse théorique de la
transparence optimale d'une Banque centrale (Cornand, 2007, 2011). Cette
analyse est une refondation de la proposition de Rogoff (1985) comme une
solution à l'incohérence temporelle en considérant
l'indépendance de la Banque centrale sur les objectifs.
Nous nous proposons alors de vérifier si la
transparence optimale permet à la politique monétaire d'atteindre
l'objectif d'inflation en cohérence avec les anticipations des agents
privés.
L'objet de la présente réflexion est d'analyser,
sur la base d'une littérature théorique, l'opportunité et
l'intérêt du choix de la transparence optimale en dehors des
solutions de coins6(*),
prenant pour cible la BEAC qui apparait inéluctablement un champ
d'investigation pertinent pour au moins deux raisons :
1°) la BEAC a un objectif statutaire de stabilité
des prix. Or sa politique monétaire actuellement en vigueur n'est pas en
cohérence avec les anticipations d'inflation des agents privés,
ce qui révèle que la stabilité des prix obtenue n'a pas
d'incidence sur les anticipations (Awana, 2013).
2°) le rôle de la transparence optimale comme
stratégie efficacement bénéfique dans la restauration de
la crédibilité de la BEAC.
De ce fait, la présente réflexion, qui vise
à définir une transparence d'équilibre pour la BEAC,
s'articule autour de deux parties : les gains associés à la
transparence optimale (Partie I) et ses implications en termes de conduite de
la politique monétaire (Partie II).
La littérature économique montre que la
transparence optimale exerce des effets économiques. Ces effets sont
doubles : l'effet incitatif engage la Banque centrale sur la poursuite d'une
inflation faible et l'effet d'information permet d'agir sur les anticipations
des agents privés et en retour sur la dynamique macroéconomique
(Hellwig, 2002 ; Walsh, 2006 ; Svensson, 2008 ; Geraats, 2009 ; Boivin,
2011).
À cet effet, les gains associés à la
transparence optimale d'une Banque centrale peuvent donc s'apprécier
à deux niveaux : la restauration de la crédibilité
des Banques centrales (Chapitre 1) et la réduction efficace du risque
d'incohérence temporelle (Chapitre 2).
Chapitre 1 : La
transparence optimale : un déterminant de la
crédibilité d'une Banque centrale
La transparence des Banques centrales est essentielle dans la
mesure où elle permet d'accroître l'efficacité de la
politique monétaire et in fine, d'accroître le bien-être
économique (Blinder, 1999 ; Bernanke, 2004a,b ; Kohn, 2005).
Toutefois, la littérature théorique étudiant le
degré optimal de transparence, ne présente pas les mêmes
gains suivant le cadre théorique retenu7(*). Cette divergence des résultats conduit
à des problèmes de crédibilité de la Banque
centrale, gage d'efficacité de sa politique (Jensen, 2002 ;
Cornand, 2007, Musard-Gies, 2006, 2007 ; Kharrat, 2014). Plus
précisément, la crédibilité indique le degré
de confiance du secteur privé dans l'aptitude et la détermination
de la Banque centrale à suivre la politique monétaire et à
atteindre les objectifs qu'elle a annoncés, en dépit de
déviations temporaires qu'elle pourrait consentir afin d'absorber les
chocs subis par l'économie (Aglietta, 2000 ; Loisel, 2006).
En effet, la mise en oeuvre de la transparence optimale dans
la recherche du gain de crédibilité soulève toutefois des
controverses dans la mesure où cette optimalité peut-être
soit une opacité totale, soit une transparence totale, soit une
transparence intermédiaire (Musard-Gies, 2007 ; Kharrat, 2014).
Section 1 : Opacité
totale versus transparence pure : un enjeu de la crédibilité
des Banques centrales
La littérature étudiant les
bénéfices et éventuellement les coûts
associés à la transparence des Banques centrales a
essentiellement analysé les effets de la transparence sur la
crédibilité des autorités monétaires, dans un cadre
de type Barro-Gordon8(*). De
manière générale, si la transparence des autorités
monétaires sur leurs préférences permet de réduire
le biais inflationniste, l'existence d'une asymétrie d'information
permet en revanche à la Banque centrale de créer des surprises
inflationnistes ayant des effets réels sur l'économie (Kydland et
Prescott, 1977 ; Barro et Gordon, 1983). Dès lors, un arbitrage
apparaît entre d'un côté la possibilité de
réduire le biais inflationniste en affichant de manière
transparente ses objectifs et de l'autre la possibilité d'agir sur la
production en ne dévoilant pas ses objectifs réels.
1.1Opacité totale comme degré optimal de
transparence
L'article de Cukierman et Meltzer (1986) est
généralement cité pour justifier l'opacité des
Banques centrales, que ces auteurs nomment d'ailleurs ``l'ambiguïté
constructive''. Dans la mesure où de temps en temps, la Banque centrale
a un objectif de production supérieur aux souhaits de la
société, l'absence de transparence peut se révéler
bénéfique tant que cela soit moins coûteux en termes de
crédibilité.
Dans la même ligné que ces deux auteurs, Faust et
Svensson (2001) et Jensen (2002) analysent la transparence sur les aléas
qui affectent le processus de transmission de la politique monétaire
dans un contexte d'incertitude des préférences de la Banque
centrale. Ils interprètent la variation des préférences
par le changement de personnes au sein du conseil de politique
monétaire. Ainsi, l'entrée d'un nouveau membre dans le
comité de décision de la Banque centrale peut influencer les
préférences de la Banque centrale si celui-ci est plus
libéral ou au contraire plus conservateur que la moyenne.
Cette façon de modéliser les
préférences qui apparaît dans de nombreux papiers,
notamment Eijffinger et al. (2000), Jensen (2002) et Geraats (2006) n'est pas
satisfaisante. En effet, pour Musard-Gies (2006) les préférences
de la Banque centrale ne changent pas continuellement dans le temps et
significativement à chaque entrée d'un nouveau membre dans le
conseil de politique monétaire. En outre, la question de savoir si une
Banque centrale doit dévoiler une partie variable de ses
préférences (un choc sur les préférences) semble
peu pertinente comme le souligne d'ailleurs Walsh (2005). D'où la
nécessité d'un cadre dynamique afin d'offrir la
possibilité, aux agents économiques, de réviser leurs
estimations initiales9(*)
(Gies, 2007). Il s'agit plus précisément du modèle
d'apprentissage adaptatif10(*)théorisé par Evans et Honkapohja, (2001,
2002).
En effet, les agents privés ne sont pas, en principe,
dotés d'anticipations rationnelles et doivent procéder
à un apprentissage (Evans et Honkapohja, 2001 ; Svensson, 2003).
Formuler une règle de politique monétaire prenant en compte les
anticipations des agents, facilite l'apprentissage du secteur privé et
accroît l'efficacité de la politique monétaire (Evans et
Honkapohja, 2004 ; Pollin, 2005 ; Gies, 2007).
La transparence totale des Banques centrales, et notamment la
publication d'une cible d'inflation, permet d'accélérer le
processus d'apprentissage des agents économiques et donc de converger
plus rapidement vers l'équilibre à anticipations rationnelles
(Orphanides& Williams, 2001, 2003, 2007).
Reconnaissant que toute tentative de sacrifier l'objectif
à moyen terme de stabilité des prix à des efforts visant
d'autres objectifs à court terme aura une incidence négative sur
la crédibilité et l'efficacité de la politique
monétaire et, en fin de compte, affaiblira la croissance
économique et la prospérité à long terme. Les
autorités monétaires ont compris que la politique
monétaire devait être conduite indépendamment des pressions
susceptibles de résulter d'objectifs politiques et électoraux
à court terme et donc l'indépendance des Banques centrales est
devenue un principe fondamental de la gouvernance économique moderne.
Mais si l'indépendance a permis de renforcer la
crédibilité anti-inflationniste des Banques centrales, elle a
parallèlement conduit à une forte demande de transparence de la
part des agents privés (Kempf et Lanteri, 2008 ; Blinder, 2009). En
fait, l'indépendance va de pair avec des dispositions précises
permettant de porter un jugement sur la capacité et les performances
d'une Banque centrale quant à l'accomplissement de son mandat. La
transparence, qui est donc la contrepartie de l'indépendance, favorise,
en retour, la responsabilité11(*).
1.2 La transparence totale comme degré optimal
de transparence
Une large littérature théorique s'est
développée autour du rôle de la transparence des Banques
centrales dans la mise en place d'une politique de soutien à la
crédibilité et dans la réduction du biais inflationniste
qui limitent l'efficacité de la politique monétaire. En effet,
cette littérature a identifiée quatre solutions au
problème de crédibilité et du biais inflationniste :
les mécanismes de réputation (Barro et Gordon, 1983b) avec
éventuellement un allongement du mandat de banquier central, la
nomination d'un banquier central conservateur (Rogoff, 1985), la mise en place
de contrats incitatifs (Walsh, 1995) et l'abandon de la discrétion au
profit d'une règle (Blanchard et Fischer, 1989 ; Taylor,
1993 ;Drumetz et Verdelhan, 1997).
1.2.1 Les mécanismes de
réputation
Pour Barro et Gordon (1983b), l'efficacité d'une
politique anti-inflationniste dépend du comportement des
autorités. Les auteurs ont pris en compte le fait qu'en
répétant le jeu, la Banque centrale peut devenir crédible.
Si elle dispose de suffisamment de temps, elle peut convaincre les agents
qu'elle va réussir à baisser l'inflation. Dans cet ordre
d'idées, la Banque centrale devrait fournir un effort pour montrer son
engagement et construire une réputation. Effectivement, certains auteurs
(Lane, Griffiths et Prati, 1995) soutiennent qu'en menant une politique qui
réussit à ralentir progressivement l'inflation, la Banque
centrale serait en mesure d'asseoir une réputation dans le temps.
Deux critiques majeures sont avancées à cette
approche. D'une part, sans antécédents, la réputation des
autorités monétaires serait difficile à asseoir. D'autre
part, basé seulement sur la réputation, l'itinéraire
à la crédibilité risque d'être attaché aux
personnes c'est-à-dire, le gouverneur ou le décideur politique,
plutôt qu'à l'institution elle-même. Une perte de
crédibilité est donc envisageable à la fin de chaque
mandat (Issing, Gaspar, Angeloni et Tristani., 2001). Pour éviter cet
inconvénient, Rogoff (1985) a proposé de choisir un banquier
central conservateur qui, par rapport aux gouvernants ou à la
majorité des électeurs, a une plus forte aversion pour
l'inflation.
1.2.2 La nomination d'un banquier central
conservateur
La nomination au poste de gouverneur de la Banque centrale
d'une personnalité reconnue pour avoir un seuil de tolérance
envers l'inflation moins élevé que celui du public et de
là, un degré plus élevé de conservatisme, serait en
mesure d'atténuer le problème d'incohérence temporelle
(Rogoff, 1985). Cette décision contribuerait à promouvoir la
crédibilité de la politique monétaire.
Interprétée comme
« l'indépendance de la Banque centrale », cette
approche du conservatisme a donné lieu à une abondante
littérature. Elle a cherché à traiter des arrangements
institutionnels permettant de déléguer la politique
monétaire à une institution indépendante (Rogoff,
1985 ; Flood et Isard, 1989 ; Cukierman, 1992 ; Lohman,
1992 ; Persson et Tabillini, 1993 ; Svensen, 1995) et déboucha
sur la solution qui a pris la forme de contrat optimal (Walsh, 1995).
1.2.3 Les contrats incitatifs
Conformément à cette approche, Walsh (1995)
souligne que l'arrangement prend la forme d'un contrat entre le gouvernement
d'une nation et sa Banque centrale. Ce contrat donnerait davantage de
liberté aux autorités monétaires afin qu'elles puissent
atteindre leur objectif de maîtrise de l'inflation. En contrepartie, il
leur impose un comportement dont elles ne peuvent dévier. Le responsable
de la Banque est ainsi pénalisé si l'inflation est
supérieure à l'objectif fixé par le gouvernement.
Confrontée à la pratique, la théorie est
controversée. L'expérience a montré qu'un pays peut
enregistrer une faible inflation sans disposer d'une Banque centrale
indépendante (Fischer, 1996). En effet, dans un bon nombre
d'économies, la politique monétaire répond partiellement
aux considérations électorales du pouvoir. Il n'en reste pas
moins que cette influence est d'autant plus faible que la Banque centrale est
indépendante. Toutefois, même aux États-Unis, où la
Réserve fédérale (FED) jouit d'un degré
élevé d'indépendance légale, les autorités
politiques trouvent le moyen d'influencer la politique monétaire
(Cukierman, 1992).
En bref, la délégation de la
responsabilité de la politique monétaire à une institution
plus averse que la société à l'inflation, permet de
réduire le biais inflationniste inhérent à toute politique
discrétionnaire. Elle garantit à la Banque centrale la
possibilité de réagir de manière flexible aux chocs
imprévus interdisant par la même occasion à l'État
d'avoir recours à la « planche à billets »,
pour financer un déficit des comptes publics. Sa mise en oeuvre a
été, cependant, jugée en mesure de poser un
problème supplémentaire de coordination des instruments de la
politique économique à l'intérieur du même pays.
Elle implique une spécialisation de la politique monétaire dans
la lutte contre l'inflation, réduit la possibilité d'une
utilisation combinée des instruments budgétaire et
monétaire et affecte ainsi l'usage conjoncturel de l'instrument
budgétaire (Villa, 1993).
Loin d'être partagé par tous, ce point de vue qui
évoque un éventuel conflit entre les deux autorités a
été quelquefois jugé constructif (Thygesen, 1995). Il
permettrait premièrement, de limiter les erreurs les plus graves et
deuxièmement d'obtenir en moyenne des résultats supérieurs
à ceux qui résulteraient de la domination par les
autorités non monétaires.
En complément à cette solution institutionnelle,
la littérature économique a souvent évoqué
l'instauration d'une règle.
1.2.4 La priorité de la règle
L'abandon de la discrétion, source de
l'incohérence temporelle12(*) aboutissant à la perte de
crédibilité des autorités monétaires (Kydland et
Prescott, 1977 ; Barro et Gordon, 1983), a conduit la littérature
économique a évoqué l'instauration des règles
(Taylor, 1993 ; McCallum, 1993 ; Drumetz et Verdelhan, 1997 ;
Kamgna et al, 2009). La crédibilisation de la politique monétaire
passe par l'identification de règles susceptibles d'éviter le
recours à la discrétion. Il s'agit dans la pratique de se
conformer à une politique qui fixe un objectif de moyen terme et de le
respecter. S'inscrivant dans la durée, cette règle doit faire
l'objet d'une déclaration a priori.
Pour les défenseurs de la règle
monétaire, il existe plusieurs stratégies envisageables pour
assurer la transparence de la politique monétaire. Leur conception doit
s'efforcer de concilier trois caractéristiques qui ne sont pas
aisément compatibles (Pollin, 2005, 2008). Il faut, en effet, que la
règle de comportement :
- soit assez claire pour garantir l'engagement de la Banque
centrale, donc la crédibilité de sa politique monétaire.
Il faut que l'on puisse vérifier que la politique annoncée est
effectivement appliquée ;
- qu'elle s'approche autant que possible de l'arbitrage
optimal entre la variabilité de l'inflation et celle de la
production ;
- qu'elle offre une souplesse suffisante pour tenir compte
d'événements particuliers13(*) ou d'évolutions dans la structure de
l'économie14(*).
Afin d'atteindre leurs objectifs, les Banques centrales
doivent alors se montrer responsables, transparentes et crédibles
auprès des agents économiques. La règle monétaire
vient donc renforcer cette transparence et cette crédibilité des
autorités monétaires (Orphanides et Williams, 2007). Cette
stratégie de politique monétaire devrait donc fournir une
référence permettant au public d'évaluer la
responsabilité et la capacité de la banque centrale à
atteindre les objectifs de politique monétaire fixés à
l'avance (Artus, 1998).
Cependant, ces solutions se sont trouvées inefficaces
dans la conciliation du triptyque
indépendance-transparence-responsabilité lorsque
l'économie est confrontée à des chocs asymétriques.
Cet échec à conduit à une perte de
crédibilité des autorités monétaires. D'où
la nécessité d'un niveau intermédiaire de transparence
permettant de concilier ce modèle du triptyque afin de restaurer
rapidement la crédibilité de la politique monétaire
(Cukierman, 205, 207 ; Coupey-Soubeyran, 2011).
Section 2 : La
transparence intermédiaire comme moyen de restaurer la
crédibilité des Banques centrales
Au regard de la discrétion absolue, source
d'incohérence temporelle et génératrice d'un
surcroît d'inflation, et de l'application rigide d'une règle
monétaire, la transparence intermédiaire apparaît alors
comme une « solution de secours »la plus à
même de restaurer relativement rapidement la crédibilité de
la politique monétaire et de contenir efficacement les tensions
inflationnistes (Svensson, 2003 ; Pollin, 2005, 2008 ; Lucotte,
2012).
La restauration de la crédibilité trouve son
ingrédient dans le modèle fondé sur le triptyque
indépendance-transparence-responsabilité (ITR) qui s'est
largement imposé comme le modèle de référence pour
la gouvernance des Banques centrales (Couppey-Soubeyran, 2011). Leur autonomie
y va de pairavec des exigences de concilier transparence et
responsabilitédémocratique lorsque l'économie est en
présence des chocs asymétriques. Le maintien de la
stabilité des prix doit rester la missionfondamentale de la politique
monétaire. La stabilisation conjoncturelle enest aussi un objectif
capital. Les autorités monétaires ne cherchent pas
àatteindre la cible d'inflation dans le court terme, mais à
moyen-long terme,ce qui revient à lisser l'évolution de
l'activité économique. La Banque centrale doit alors adopter un
niveau intermédiaire de transparence pour faire preuve de
responsabilité. La responsabilité de la politique
monétaire implique une flexibilité pour réagir aux chocs
asymétriques qui affecte l'économie (Cruijsen et al., 2006 ;
Hoogduin et al., 2008). D'où le terme de « discrétion
contrainte » employé par Bernanke et Mishkin (1997) pour
caractériser le ciblage d'inflation, qui constitue pour ces auteurs une
position intermédiaire entre la discrétion absolue, source
d'incohérence temporelle et génératrice d'un surcroit
d'inflation, et l'application rigide d'une règle monétaire.
En effet, Bernanke et Mishkin (1997) et Bernanke (2003)
indiquent que
l'aspect « contrainte » est lié
à l'engagement en faveur d'une inflation basse, engagement quipermet
d'ancrer les anticipations des agents privés tandis que
l'aspect « discrétion » recouvre
la liberté opérationnelle dont jouit la Banque centrale et la
possibilité qu'elle a de mener à bien ses taches de stabilisation
réelle. Lacontrainte n'étant plus ici représentée
par la règle de politique monétaire que la Banquecentrale s'est
fixée, mais simplement par la cible d'inflation qu'elle s'est
engagée à atteindre à un horizon
prédéterminé (Svensson, 1999 ; Heikensten, 1999 ;
Goodhart, 2001 ; Pollin, 2005).
De même, selon Cukierman (2001, 2005, 2007), en gardant
confidentielle l'écart de production et les signaux concernant de
sévères problèmes du système financier, la Banque
centrale s'assure d'un avantage stratégique vis-à-vis des agents
privés et ce conduisant donc à un « niveau optimal
d'ambiguïté ».
Par ailleurs, Jensen (2002) prône aussi un certain
niveau optimal de transparence, résultant de l'arbitrage entre la
crédibilité et la flexibilité. Il note à travers un
modèle avec un comportement prospectif
« forward-looking » qu'un niveau élevé de
transparence est désirable pour une Banque centrale avec une faible
crédibilité. Toutefois, la transparence procurera moins de
flexibilité à une Banque centrale ayant une forte
crédibilité. Cette forte crédibilité conduit
à une dynamique déstabilisante de l'économie
débouchant sur d'amples fluctuations des prix d'actifs. La Banque
centrale serait alors confrontée à un « paradoxe de la
crédibilité » (Blinder, 1999 ; Goodfriend,
2001 ; Viñals, 2001 ; Borio et Lowe, 2002a ; Borio,
English et Filardo, 2003 ; Mésonnier, 2004).
Ce paradoxe a suscité des interrogations quant à
la cohérence des objectifs de stabilité des prix et de
stabilité financière généralement affichés
par les Banques centrales. Ainsi, l'intégration de l'incertitude dans la
stratégie de la politique monétaire par l'adoption d'une cible du
niveau des prix dont la dynamique conduit à un lissage des effets d'un
choc, permet à la Banque centrale de contourner le paradoxe de
crédibilité et de d'ancrer efficacement les anticipations des
agents économiques (Awana, 2013). Ce qui aura pour effet, la
réduction efficace de l'incohérence temporelle.
Chapitre 2 : La
transparence optimale : un moyen de réduire le risque
d'incohérence temporelle
Section 1 : La
transparence totalecommedegré optimal
La littérature économique souligne qu'une ample
divulgation par la Banque centrale des informations relatives à ses
objectifs, à sa propre appréciation des effets de sa politique
monétaire et à la situation économique, la politique
monétaire réduira l'incertitude des agents économiques
(Mishkin, 2004), ce qui favorisera l'ancrage de leurs anticipations notamment
sur l'inflation (Bokino, 2015). La politique monétaire sera alors plus
efficace et le bien-être de la société s'en trouvera
amélioré (Musard-Gies, 2007 ; Eichengreen et Dincer,
2008 ; Qvigstad, 2009).
De même, cette transparence totale trouve son
ingrédient dans la divulgation des informations certaines telles que la
cible d'inflation de la Banque centrale, utiles à l'amélioration
des anticipations du secteur privé. En effet, lorsque la Banque centrale
communique ses prévisions de l'inflation, le secteur privé
l'utilise en combinaison avec ses propres prévisions pour former ses
anticipations d'inflation. Les agents économiques doivent estimer la
qualité relative des prévisions de la Banque centrale pour
pondérer leurs prévisions en conséquence (Walsh, 2006,
2007, 2008 ; Dale et al., 2008 ; Gosselin, 2008 ; Rudebusch et
Williams, 2008 ; Dale et al., 2011).
Cependant, dans la littérature économique, les
analyses divergent sur l'idée selon laquelle la transparence totale
réduit le risque d'incohérence temporelle. D'où
l'idée d'une transparence intermédiaire pour déterminer le
juste équilibre entre l'opacité totale et la transparence totale
(Cukierman, 2001 ; Morris et Shin, 2002 ; Cornand, 2007 ;
Musard-Gies, 2007).
Section 2 : La
transparence intermédiaire comme degré optimal
Au regard de la discrétion absolue, source
d'incohérence temporelle et génératrice d'un
surcroît d'inflation, et de la transparence totale, amplifiant
l'incohérence temporelle, la transparence intermédiaire
apparaît alors comme une «solution optimale» la plus à
même d'ancrer les anticipations des agents privés et de contenir
efficacement les tensions inflationnistes (Morris et Shin, 2002 ;Demertzis
et Viegi, 2008, 2009 ; Ueda, James et Lawler, 2011). Plus
précisément, cette transparence d'équilibre
caractérise un niveau de communication permettant à la politique
monétaire de garantir aussi bien la stabilité d'inflation que la
cohérence de celle-ci avec les anticipations des agents privés
(Cornand, 2014). Ce qui conduit les Banques centrales à réduire
leur marge de transparence en ne divulguant pas des informations incertaines
qui pourraient orienter les anticipations des agents privés sur une
trajectoire incompatible avec la cible d'inflation (Morris et Shin, 2002 ;
Cukierman, 2005 ; Pollin, 2005, 2008 ; Muto, 2012)15(*).
De ce point de vue, la communication d'informations
incertaines, telle que les prévisions de l'inflation, serait
néfaste car les agents lui accordent une grande importance. Cela
conduirait à une sur-réaction à l'information
procurée par la Banque centrale, dans un environnement où la
Banque centrale ou les agents privés ont des informations privées
concernant les conditions économiques. De même, il est fortement
risqué et contreproductif de publier des signaux concernant de
sévères problèmes du système financier. Ce
comportement peut engendrer une réaction non anticipée du public
qui obligerait la Banque centrale à prendre des mesures plus
expansionnistes qu'elle ne l'aurait fait si elle s'était temporairement
abstenue de publier l'information. Par ailleurs, les Banques centrales sont
incitées à être opaques concernant leurs
préférences si elles ont une asymétrie au niveau de
l'inquiétude concernant le niveau d'activité. Les anticipations
des erreurs dans les politiques futures par les agents ont un impact
déstabilisant sur leur anticipation de l'écart de production ou
du taux d'inflation. Cukierman (2007) évoque deux limites de la
transparence de la Banque centrale : sa désirabilité et sa
faisabilité. Il affirme d'abord que pour les banquiers centraux, il est
impossible d'être transparent concernant tous les points à cause
de leur connaissance limitée du fonctionnement de l'économie. Ce
qui conduit au recours à un niveau intermédiaire de transparence
en réduisant la marge de transparence (Bernanke et Mishkin, 1997 ;
Cukierman, 2001, 2005, 2007 ; Morris et Shin, 2002 ; Amato et Shin,
2003 ; Cruijsen et alii., 2010 ; Muto, 2012).
Les deux approches telles qu'élaborées ont
permis de distinguer l'efficacité d'une règle d'instrument dans
la divulgation de toutes les informations, d'une part, et, d'une règle
d'objectif dans la rétention de certaines informations incertaines,
d'autre part. L'accroissement de l'efficacité de la politique
monétaire et la crédibilité des Banques centrales
justifient l'emploi des règles dans la conduite de la politique
monétaire. Ainsi, nous pouvons conclure avec Drumetz et Verdelhan (1997)
Barro et Gordon (1983) que la règle est meilleure que la
discrétion dans la mesure où elle rend la politique
monétaire plus efficace. Cependant, toutes les règles sont-elles
robustes ?
Il convient à présent de présenter les
contraintes16(*) qui
pèsent sur les règles monétaires.
Après le consensus sur l'utilisation de la règle
par les Banques centrales, plusieurs économistes ont proposé
différentes règles monétaires. C'est ainsi qu'est
né le débat règle « activiste » contre
règle « automatique » de même que celui
opposant les règles d'instrument aux règles d'objectif (Chapitre
3). Après une présentation de ces débats, il sera
donné dans un second temps, le cadre de mise en oeuvre d'une
règle monétaire spécifique qui combine efficience,
souplesse et transparence (Chapitre 4).
Chapitre 3 :
Règles monétaires, transparence optimale et conduite de la
politique monétaire
En raison du lien instable entre instrument et objectif final,
d'une part, et les délais de réaction de la politique
monétaire sur l'économie réelle qui sont relativement long
d'autre part, les Banques centrales doivent définir un mécanisme
d'ancrage nominal permettant d'orienter les anticipations des agents
privés sur une trajectoire compatible avec l'objectif fixé
(Levieuge, 2003 ; Brand, 2008). Il s'agit d'un ciblage direct de
l'inflation au détriment du contrôle des agrégats
monétaires qui ont fait écho au cours des années 80
(Leiderman et Svensson, 1995 ; Svensson, 1997, 1998, 1999, 2010, Bernanke
et Mishkin, 1997 ; Bernanke et al., 1999) comme stratégie efficace
pour atteindre la stabilité des prix (Ondo Ossa, 2002 ;
EngoneMvé, 2010).
L'objet de cechapitre est de présenter une règle
de comportement (fonction de réaction) laissant une marge
discrétionnaire aux Banques centrales indépendantes dans un cadre
institutionnel propice à la pérennité de la confiance
(Aglietta, 2002) et permettant à la politique monétaire de
concilier crédibilité et flexibilité. La mise en oeuvre de
la stratégie de ciblage directe de l'inflation soulève des
controverses entre les partisans de la règle d'instrument et les tenants
de la règle d'objectif (Landais, 2008). Pour cela, il convient de
présenter les débats sur les règles monétaires.
Section 1 : La
règle doit tenir compte de l'activité économique
Le débat portant sur l'intégration du niveau de
l'activité comme facteur de prise de décision par les Banques
centrales remonte à plusieurs décennies. Pour certains
économistes, une Banque centrale ne doit suivre qu'un objectif
monétaire (maintien de la stabilité des prix). Alors que pour
d'autres, cette stabilité des prix ne doit se faire sans prise en compte
du niveau de l'activité (par exemple le taux de chômage pour ce
qui est de la FED). Ce débat va donc ouvrir celui sur les règles
« activistes » et les règles automatiques ainsi que
celui qui oppose les règles d'instruments aux règles d'objectifs.
Après ces débats, nous statuons sur les caractéristiques
propres à la formulation d'une règle monétaire.
1.1 Règle automatique versus règle activiste
Une règle monétaire
« mécaniste » indique une situation dans laquelle
les mouvements de l'économie ne sont pris en compte et qu'elle
s'intéresse uniquement à l'évolution du taux d'inflation
et des variables qui peuvent influencer ce taux. La règle automatique
qui a retenu beaucoup d'attention est la règle de K-pourcent de Friedman
(1960). Simple règle de politique monétaire qui suppose que :
« la Banque centrale doit maintenir un taux de croissance constant de
la masse monétaire » (Orphanides, 2007). Étant
donné que Milton Friedman est un monétariste (école de
Chicago), il formule cette règle en se basant sur l'équation des
échanges, base de la théorie quantitative de la monnaie.
Cette règle est donc indépendante de
l'état de l'économie et ce qui l'intéresse c'est le niveau
d'inflation. Orphanides (2007) affirme que davantage, si la vitesse de
circulation de la monnaie était parfaitement stable, cette règle
simple pourrait aussi produire un niveau élevé de la
stabilité économique. La condition qu'il pose lui-même sur
la vitesse de circulation de la monnaie nous permet de dire avec Drumetz et
Verdelhan (1997) que l'application aveugle de règles automatiques comme
celle de Friedman (1960) risque de conduire à une forte
variabilité de la production. Par conséquent, d'autres auteurs
comme McCallum (1987), Taylor (1993) ont défini des règles non
automatiques ou « activistes » de politique
monétaire.
Une règle « activiste » se
définit comme celle qui consiste à représenter et donc
définir la fonction de réaction de la Banque centrale ou des
autorités monétaires qui, contrairement au cas des règles
passives ou mécanistes, prend en considération les
« mouvements » de l'économie. En fait, elle implique
un réajustement continu des instruments de politique monétaire en
fonction de l'état de l'économie. Elle comporte donc des
éléments de feedback (rétroaction).
Pour Martin, Durand et Payelle (1999), il existe trois types
de règles activistes ou contingentes. Ce qui les distingue est en fait
la ou les cibles choisies. Ainsi il y a des règles en termes de PIB
nominal, la Banque centrale intervenant en fonction de l'écart entre le
PIB nominal constaté et le PIB nominal objectif. La seconde est une
règle directe d'inflation. Enfin, ils qualifient la troisième de
« règle mixte » dans la mesure où elle
considère à la fois l'écart d'inflation par rapport
à l'objectif et l'écart du revenu par rapport à sa
cible.
Après cette analyse des règles automatiques et
activistes de politique monétaire, il est constaté que
l'application aveugle d'une règle automatique peut conduire à une
forte variabilité de la production et donc à une
instabilité pouvant entrainer l'économie dans un chaos
général. Nombre des Banques centrales ayant pour objectif
statutaire le maintien du niveau général des prix (excepté
la FED qui précise clairement qu'elle a aussi un objectif de
réduction du chômage) tiennent aussi compte de l'état de
l'économie dans la conduite de leur politique (Drumetz et Verdelhan
(1997) ; Tenou (2002) ; Pollin, 2008 ; Kamgna et al (2009).
À cause de cette prise en compte explicite ou implicite
du niveau de l'activité économique dans la conduite de la
politique monétaire, penser une règle automatique pour une Banque
centrale serait ignoré certaines réalités pratiques dans
la formulation de règle de politique monétaire et donc ne plus
être en phase avec l'évolution des politiques monétaires
des Banques centrales. Raison pour laquelle dans cette littérature
seront considérées uniquement les règles activistes comme
celle de Taylor (1993) ou McCallum (1997) et non plus des règles
« automatiques » comme l'a pensé Friedman (1960).
Ces différentes règles ont eu des degrés
d'adhésion divers à telle enseigne qu'il s'est
développé dans la littérature un grand débat sur
les stratégies monétaires notamment entre règles
d'instrument et règles de ciblage.
1.2 Règles d'instrument versus règles
d'objectif : questions en débat
Ce débat a été animé par Svensson
(2002, 2005), McCallum et Nelson (2005). Le premier adhérant aux
règles de ciblage d'inflation et prônant leur optimalité et
flexibilité, les deux derniers défendant bien sûr les
règles d'instrument en insistant sur leur simplicité et
robustesse. Svensson attaque les règles d'instrument sur quatre plans et
ceci amène McCallum et Nelson à réagir
défensivement. Le tableau suivant récapitule ces points de
divergence.
Tableau n0 1 : Comparaison de
règles
Règles d'objectifs :
Svensson
|
Règles d'instrument : McCallum et
Nelson
|
· Les règles d'instrument ne prennent en compte
qu'un nombre limité de variables et laissant certaines sur lesquelles
pourrait agir la Banque Centrale d'une économie ouverte (termes de
l'échange, taux de change réel etc.).
|
· Les règles de revenu nominal offrent un
contre-exemple. De plus, les trois variables principales (inflation, output, et
taux) suffisent à refléter les conditions monétaires et
réelles de l'économie.
|
· Un engagement à une règle d'instrument ne
laisse pas de place aux jugements et à l'information disponible.
|
· Les taux effectifs peuvent être au-dessus ou en
dessous des valeurs indiquées par la règle chaque fois que la
Banque centrale juge les conditions justifiées : il y a donc place au
jugement.
|
· Elles ne peuvent être améliorées
lorsque de nouvelles informations sur les mécanismes de transmission, la
variabilité et la nature des chocs sont disponibles.
|
· Au contraire, elles peuvent être modifiées
mais tout en restant dans la logique de la « perspective
atemporelle » au sens de Woodford.
|
· Les règles d'instrument sont loin d'une
description précise de la politique monétaire, et dans la
pratique aucune Banque Centrale ne les utilise.
|
· Par leur simplicité, les règles
d'instrument sont robustes. Quant aux règles d'objectif, aucune Banque
centrale ne communique par exemple le poids X accordé à l'output
dans la fonction de perte.
|
Source : synthèse de l'auteur
Il est ici question de présenter une littérature
sur les règles d'instrument et sur les règles d'objectifs en
termes de conduite de la politique monétaire.
1.2.1 Les règles d'instrument
Les règles d'instrument ont pour objet de garder
l'inflation au taux visé, sans toutefois attiser les fluctuations de la
production (Svensson, 1997). Ces règles peuvent être soit
implicites, soit explicites, selon qu'elles sont définies avec ou sans
les variables anticipées.
L'activisme monétaire conduit les Banques centrales
à rechercher en permanence la stabilité des prix et du niveau
d'activité. Deux grandes règles peuvent êtres
notées : la règle de McCallum (1987) et celle de Taylor(1993) et
ses dérivées.
1.2.1.1 La règle de McCallum
Cette règle est aussi appelée règle de
revenu nominal. Elle introduit un amendement17(*) à la règle de Friedman et utilise
le taux de croissance trimestriel de la base monétaire.
De cette règle, il vient que la Banque centrale
observera une progression constante de la base monétaire (règle
de Friedman) lorsque la vitesse de circulation monétaire est constante
au cours des 16 derniers trimestres (4 ans) et l'économie sur un sentier
d'équilibre18(*).
Mais dès qu'il subsiste un écart au niveau de la circulation
monétaire et/ou de la production à la suite d'un choc
perturbateur, les autorités monétaires réagissent en
modulant la croissance monétaire. Si la vitesse de circulation augmente,
la Banque réduit la croissance de la base monétaire (et
inversement). Par contre si la production se rapproche de son niveau potentiel,
le rythme de croissance s'accélère. Il est à remarquer que
plus le coefficient de réactivité à
l'activité est élevé plus la réaction de
la Banque centrale est forte face à un écart de PIB.
L'un des avantages principaux de cette règle est sa
flexibilité. Bordes (1997) précise que cette flexibilité
assure à l'autorité des gains d'efficience dans la stabilisation
de l'output, et aussi permet d'échapper au risque d'incohérence
temporelle.
Toutefois, la règle de McCallum comporte des
inconvénients. En effet, l'instrumentalisation de la base
monétaire nécessite un contrôle direct (gestion
administrative) de la masse monétaire alors que nombre de Banques
centrales sont passées à la gestion indirecte ; ceci ne favorise
pas la transmission des impulsions d'une telle règle. La vitesse de
circulation ainsi que la demande de la monnaie sont devenues beaucoup
instables19(*) depuis
les années 80 et selonEstrella et Mishkin (1996), Bordes (1997), les
innovations financières de ces années ont rendu difficile la
définition même des agrégats monétaires et
fragilisent les liaisons entre ceux-ci et l'inflation.
Même si les changements financiers des années 80
semblaient diluer l'efficacité de la gestion de la politique
monétaire par les instruments (notamment les taux
d'intérêt), certaines recherches tentaient encore d'en montrer la
pertinence pour l'atteinte des objectifs finaux (stabilité des prix et
de l'activité). La réflexion de Taylor en est une.
1.2.1.2 La règle de Taylor et ses
limites
Cette règle approxime la conduite de la politique
menée par la Reserve Fédérale (FED) des États-Unis
durant la période 1987-1992 sous la houlette d'Allan Greenspan. Selon
Taylor, la FED module son taux d'intérêt directeur nominal en
fonction du gap du taux d'inflation et de la production par rapport à
leurs niveaux cibles (inflation cible et production potentielle).
La nature de la politique conduite par la FED est alors
déterminée par l'écart existant entre le taux
effectivement fixé et le taux déduit de la règle. Cette
politique sera dite accommodante lorsque le taux effectif est inférieur
au taux théorique et restrictive a contrario. La règle de
Taylor stipule que la banque centrale doit baisser ses taux directeurs lorsque
l'inflation et le niveau d'activité sont bas et les relever dans le cas
contraire pour permettre le retour à l'équilibre. Ainsi dans
cette logique, cette règle est basée sur le mécanisme
traditionnel du canal du taux d'intérêt : une augmentation du taux
directeur renchérit les coûts de refinancement des banques
secondaires auprès de la Banque centrale ainsi que dans l'interbancaire.
Cette situation engendre un relèvement des taux débiteurs offerts
aux entreprises et aux ménages, lesquels sont désincités
à emprunter sur le marché monétaire. La conséquence
finale est que la demande de monnaie se déprime et les tensions
inflationnistes s'atténuent sur le marché des biens et services,
car les comportements d'investissement et de consommation se réduisent
du fait de la hausse du taux d'intérêt réel. Le coût
du capital et le coût du crédit à la consommation
étant renchéris. Le résultat inverse est obtenu lorsque
les taux baissent.
L'un des avantages de la règle de Taylor est sa
clarté et sa simplicité. En effet, sa simplicité
d'écriture mathématique lui confère une certaine
appropriation par les agents économiques qui peuvent toutefois en juger
le respect. Au demeurant, la crédibilité et la transparence de la
politique monétaire se renforcent. Aussi selon McCallum(1999), Clarida,
Gali&Gertler (1999), McCallum et Nelson (2004), les règles de Taylor
ne retenant qu'un nombre limité de variables sont simples d'application
et fournissent de performances solides en matière de stabilisation dans
des cas de figure variés. Cependant, quelques critiques émanent
de la littérature vis-à-vis de la règle Taylor et
appellent au développement des « Taylor-type
rules».
Bref, simples soient-elles, les règles d'instruments
soulèvent un certain nombre de critiques entre autres le fait de ne
tenir compte que d'un trop petit nombre d'indicateurs dans l'orientation des
actions monétaires. Aussi, outre la critique de Lucas (1976)20(*), l'économie ne
réagit qu'aux variations de l'output ou de l'inflation en suivant des
règles de version Backward-Looking. En présence d'autres
types de choc, la Banque centrale qui s'appuie sur un tel modèle ne peut
pas aboutir à son objectif de stabilité des prix. Ainsi, à
la suite de ces critiques, certains auteurs proposent la
version Forward-looking.Cette forme de règle fait
l'hypothèse que la banque centrale ne dispose pas des données
courantes sur les variables lors de ses prévisions. Alors, celle-ci
formule son impulsion monétaire en intégrant les valeurs
anticipées en vue d'influer les objectifs dans le moyen terme.
Pour qu'elles soient crédibles c'est-à-dire non
inflationnistes et réagissant convenablement aux évolutions de la
conjoncture, ces règles devraient être pertinentes et
transparentes donc opérationnelles (Pollin, 2002, 2005, 2008). Pour les
tenant de la règle d'objectif, l'approche par les objectifs
intermédiaires sont qualifiées de sous optimal pour atteindre
l'objectif fixé (Tenou, 2002 ; Sirri, 2007 ; Ftiti et Goux,
2011).
1.2.2. Les règles d'objectif
Les règles d'objectif ont pour fondement le respect
d'un objectif fixé par les autorités monétaires (Rudebusch
et Svensson, 1998 ; Svensson, 2005). La littérature
économique distingue deux types de concepts : la variable-objectif et le
niveau-objectif anticipé (sur la base des informations pertinentes
disponibles) de ladite variable. Une règle d'objectif vise alors
à minimiser, dans une fonction de perte, l'écart entre le niveau
anticipé de la variable cible et le niveau-objectif de ladite variable
(Svensson, 2005). L'objectif ultime étant le contrôle de
l'inflation.
L'une des règles d'objectif qui a suscité une
abondante littérature ces dernières années est la
règle de ciblage du taux d'inflation. Ainsi, depuis le début des
années 90, plusieurs Banques centrales21(*) ont explicitement opté pour un objectif
d'inflation22(*) (Siklos, 1999, Svensson, 2010).
Les promoteurs de la règle d'objectif montrent que la
Banque centrale ne cible pas les variables intermédiaires, mais elle
doit agir directement sur l'objectif d'inflation. À cet effet, faute
d'un consensus sur un canal de transmission prédominant à travers
lequel la politique monétaire opère au sein de l'économie,
c'est la prévision de l'inflation23(*) qui tient lien d'objectif intermédiaire. La
Banque centrale doit donc veiller à l'évolution d'un certain
nombre d'indicateurs reconnus comme étant aptes à prévoir
l'inflation pour parvenir à contrecarrer les tensions inflationnistes
avant qu'elles ne se concrétisent. L'intervention de la Banque centrale
sur le marché monétaire vise dans ce cas à ramener le taux
d'inflation anticipé proche de l'inflation ciblée (Svensson,
1997 ; Gregory, 2003 ; Agenor, 2008).
La définition de la règle d'objectif d'inflation
se résume à deux conditions (Rudebusch et Svensson, 1998). La
première est que la cible d'inflation doit être quantifiée.
C'est soit un point bien déterminé (cible d'inflation ponctuelle)
comme dans la règle de Taylor, soit un intervalle de points (intervalle
de tolérance ou fourchette cible). La seconde est que les
Autorités monétaires doivent pouvoir estimer le niveau futur du
taux d'inflation sur la base d'informations internes et conditionnelles. Ce
niveau prévisionnel du taux d'inflation représente la cible
intermédiaire.
La principale caractéristique d'un régime de
ciblage d'inflation est le degré élevé de transparence et
de responsabilité. En effet, les banques centrales ayant adopté
un objectif d'inflation sont tenues de publier des relevés d'inflation
et d'expliquer leur politique. Cette transparence représente en
elle-même un engagement à minimiser la fonction de perte.
Lorsque l'objectif d'inflation est le seul objectif de la
Banque centrale, il s'agit d'un régime strict de ciblage d'inflation.
Par contre, si la Banque Centrale poursuit d'autres objectifs tels que la
stabilisation de la production ou du taux d'intérêt, il s'agit
d'un régime flexible de ciblage d'inflation. Dans ce dernier cas, la
politique monétaire est moins activiste, dans le sens où les
instruments sont faiblement ajustés par rapport à un choc
donné, et le niveau d'inflation s'ajuste progressivement au niveau
objectif ou cible de l'inflation. Il en résulte que l'horizon de
l'ajustement du niveau de l'inflation à la cible est plus long.
Dans un régime flexible de ciblage d'inflation, il y a
asymétrie entre l'inflation et la production dans la fonction de perte.
En effet, pour l'inflation, il s'agit à la fois d'un objectif de niveau
(la cible fixée) et de stabilité (écart entre le niveau
anticipé de la variable cible et l'objectif fixé de ladite
variable). Mais pour la production, on ne retient que l'objectif de
stabilité.
En effet, cette approche est formalisée selon
l'expression de Bernanke et Mishkin (1997) comme un cadre de
« discrétion contrainte »24(*). Il s'agit de fixer des
objectifs et une pondération précise de ces objectifs (donc une
fonction de perte à minimiser) aux autorités monétaires,
tout en leur laissant la latitude d'utiliser toutes les informations qu'elles
jugent pertinentes pour connaître l'orientation des anticipations des
agents et pouvoir ainsi décider de l'orientation future de la politique
monétaire (Bernake et al., 1999 ; Pollin, 2005, 2008). Ces
informations comportent plusieurs indicateurs, financiers et réels,
susceptibles de rendre compte des origines multiples de l'inflation et
d'éclairer les autorités monétaires sur l'évolution
future de l'inflation (Cecchetti, et al., 2000 ; Payelle et al.,
2001 ; Mishkin, 2004 ; Brand, 2008 ; Diane, 2011).
Par ailleurs, dans cette nouvelle formulation, la recherche
est portée sur les indicateurs qui peuvent bien anticiper l'inflation,
alors que dans le cas des objectifs intermédiaires la variable doit
avoir une relation structurelle causale avec l'inflation. C'est le pouvoir de
prédiction et le fait de ne pas être directement sensibles aux
manipulations des instruments, et non plus la relation de causalité
structurelle, qui devient la caractéristique la plus importante
(Allegret et Goux, 2003 ; Layouni, 2007).
Dès lors, la pertinence d'un indicateur est
jugée à partir de son pouvoir de prédiction qui
détermine la qualité du signal et l'information qu'il peut
renvoyer. Ce pouvoir de prédiction est d'autant plus précieux
qu'il est avancé dans le temps. À cet effet, l'idéal
serait que cette avance dans le temps correspond aux délais de
transmission des actions de la politique monétaire jusqu'à
l'objectif final pour que la Banque centrale ait le temps de l'exploiter
pleinement et surtout de réagir (Allegret, 1999).
Dans cette approche, la réputation, la
crédibilité et l'engagement de la Banque centrale à
maintenir l'inflation à un niveau bas, stable et prévisible lui
accorde le privilège d'une discrétion qui lui permet de concilier
entre la poursuite de la stabilité des prix à long terme et la
stabilisation du PIB réel à court terme. Par ailleurs, dans un
environnement caractérisé par une
hétérogénéité de l'information (Morris et
Shin, 2002), source de la non neutralité de la monnaie, la politique
monétaire ne doit pas seulement reposer sur ses actions, mais la
priorité à la communication est essentiel pour aider les
entreprise et les ménages à mieux prédire ses
interventions futures ; ce qui permet de réduire l'incertitude
(Croce et al., 2000 ; Baeriswil et Cornand, 2008 ; Cateau et
Murchison, 2010).
Comme stratégie de moyen et long terme pour la
politique monétaire, le ciblage d'inflation présente un certain
nombre d'avantages et d'inconvénients.
En effet, l'un des principaux avantages en faveur de la cible
d'inflation est que celle-ci accroît la confiance des agents
économiques dans la stabilité des prix futurs. Elle contourne en
outre le lien incertain établi entre la croissance monétaire et
l'inflation et évite par conséquent le problème
d'instabilité des fonctions de demande de monnaie lié au ciblage
d'agrégat monétaire. Elle est plus proche de l'objectif final et
accorde une grande importance à la transparence de la prise de
décision et à la communication régulière avec les
agents privés. Ce régime permet éventuellement de
réagir face à des chocs macroéconomiques imprévus,
de manière plus flexible (Lecarpentier-Moyal et al., 2001 ;
Mishkin, 2007 ; Stuckey, 2011).
Le principal inconvénient de cette politique
réside dans la longueur des délais existant dans la transmission
des effets de la politique monétaire, il faut attendre longtemps pour
voir les conséquences de la manipulation du taux directeur sur
l'inflation. Dans ces conditions, les agents privés ne perçoivent
pas les effets immédiats de la politique monétaire alors que les
signaux établis par les agrégats monétaires, les prix des
actifs ou les objectifs de change sont immédiatement transmise au
marché. De plus, des facteurs exogènes à la politique
monétaire peuvent intervenir pendant l'intervalle de temps
nécessaire à l'action de cette dernière, remettant en
cause les résultats escomptés de la politique monétaire et
sa crédibilité. L'inflation observée peut s'écarter
de l'inflation anticipée en raison des chocs affectant le niveau
général des prix (Lecarpentier-Moyal et al., 2001 ; Mishkin,
2007 ; Bousrih, 2011).
Dans cette configuration, le prix courant des actions peut
contenir une information supplémentaire sur l'inflation future, soit
parce qu'il reflète les anticipations du marché, relatives aux
évolutions économiques, soit en raison de son incidence sur les
évolutions économiques. Ce qui conduit à une dynamique
déstabilisante de l'économie débouchant sur d'amples
fluctuations des prix d'actifs.La crise financière de 2007-2009 a remis
en question le comportement que doit adopter la Banque centrale pour limiter
les fluctuations des prix des actifs, qui exercent des effets aussi bien sur
les activités de production que sur le système économique
dans son ensemble.D'où l'intérêt de la construction d'une
règle d'objectif spécifique intégrant l'objectif de
stabilisation des prix des actifs (Goodhart et Hofmann, Durré,
2001 ; 2001 ; Myftari et Rossi, 2010 ; EngoneMvé, 2013).
Après cette présentation des règles
d'instrument et de ciblage, nous pouvons conclure que de façon
générale, dans un modèle donné, une règle
d'objectif fait appel à une règle d'instrument, cette
dernière étant implicite (Huchet, 2003 ; Pollin, 2008).
Ainsi, au lieu de travailler sur des règles de ciblage qui dans leur
application posent le problème de transparence et de
responsabilité de la part des autorités monétaires, il est
préférable de retenir des règles d'instruments. Surtout
que, la Banque centrale ne retient comme instrument, des éléments
qu'elle manipule plus ou moins directement sur une base journalière ou
hebdomadaire dans leur tentative d'atteinte des cibles spécifiées
(McCallum, 1997).
Les règles d'instruments sont
préférées aux règles de ciblage d'autant plus
qu'une règle fait appel à l'autre même de manière
implicite.
En résumé, les règles activistes
d'instrument permettent une meilleure représentation du comportement des
Banques centrales. Cependant, ces règles sont formulées à
partir d'une fonction de perte et ont un caractère particulier qui nous
montrons dans la seconde articulation de cette section.
Ainsi, après ces débats, il convient à
présent de statuer sur les caractéristiques propres à la
formulation d'une règle monétaire.
Section 2 : Les
caractéristiques propres à la formulation
Il est question ici de présenter le caractère
simple et systématique d'une règle (1), les critères de
choix de la variable instrument (2) et enfin la manière dont est
spécifiée la règle à partir de la fonction de perte
(3).
2.1 Caractère simple et systématique d'une
règle
Il est sus montré que le souci de
crédibilité des Banques centrales a conduit l'ensemble des
Banques centrales à axer leurs politiques monétaires sur des
règles monétaires tout en délaissant l'optique de la
discrétion monétaire. C'est donc cette recherche de
crédibilité auprès des agents économiques qui nous
permet de marquer un temps d'arrêt sur le caractère
systématique et simple d'une règle de politique
monétaire.
En effet, la règle de politique économique de
manière générale et de politique monétaire
particulièrement doit être systématique c'est-à-dire
identique de période en période. D'où la
nécessité de la prise en compte de la dimension temps. En plus du
caractère systématique, elle doit aussi être simple afin
d'être compréhensible par l'ensemble des agents économiques
(Pollin, 2002).
Pour ce qui est du caractère systématique, il
est très avantageux qu'une règle monétaire revête ce
caractère pour au moins trois raisons (Pollin, 2005, 2008). D'abord,
l'engagement préalable des autorités monétaires même
si cet engagement revêt la forme d'un comportement conditionnel. Ensuite,
il est impossible pour les autorités monétaires lorsqu'une
règle est systématique d'opérer des optimisations de
période en période. Enfin, la transparence et la
crédibilité de l'institution se trouve accrues dans la mesure
où les public ne pourra pas croire (ou pourra croire) que la Banque
centrale suivra la même règle d'une période sur l'autre si
cette dernière ne laisse rien (laisse cela) transparaître sur la
politique qu'elle aura choisie d'adopter.
Le constat est que le caractère systématique
d'une règle entame la crédibilité et la transparence de la
Banque centrale auprès des agents économiques et donc elle doit
s'atteler à intégrer cette caractéristique dans la
formulation de sa règle monétaire. Cependant, il y a aussi une
autre caractéristique qui, tout comme la précédente peut
mettre en péril la transparence de la politique monétaire. Il
s'agit ici de la simplicité de la formulation de la règle
monétaire.
Pour Artus (1998), la transparence de la règle
dépend au premier chef de la facilité avec laquelle le public
peut évaluer le caractère sincère des efforts
déployés par la Banque centrale pour atteindre ses objectifs.
Aussi, Artus, Penot et Pollin (1999) précisent que pour être
communiquée et contrôlée sans trop de difficultés,
une règle monétaire se doit d'être suffisamment simple
c'est-à-dire facilement compréhensible par les agents
économiques.
Ces raisons expliquent pourquoi malgré les nombreuses
critiques économétriques faites à la formulation de Taylor
(1993) à l'exemple de celles de Drumetz et Verdelhan (1997) ; Auray
et Fève (2003), la règle de Taylor suscite toujours assez
d'engouement auprès des économistes de politiques
monétaires et mêmes auprès des Banques centrales.
Le caractère systématique et la
simplicité d'une règle monétaire s'imposent en raison de
la crédibilité et la transparence qu'ils accordent aux
autorités monétaires. Surtout que ces deux aspects sont
déterminants dans l'atteinte des objectifs de la politique
monétaire.
L'importance et la nécessité du caractère
systématique ainsi que de la simplicité d'une règle
étant démontrés, il est opportun de présenter, sans
ambages, ce sur quoi une Banque centrale s'appuie pour choisir son
instrument.
2.2. Critère de choix de la variable instrument
Il est question ici de définir tout d'abord ce qu'est
un instrument de politique monétaire et ensuite nous mettons en exergue
quelques critères de sélection de la variable instrument. Cette
partie nous permet de comprendre pourquoi une Banque centrale
préfère retenir telle instrument au lieu de telle autre.
2.2.1. Définition
Plusieurs auteurs ont défini ce qu'est une variable
instrument. Cependant la définition qui retient l'attention est celle de
McCallum (1997). Pour lui, les variables instruments sont des
éléments que les Banques centrales manipulent plus ou moins
directement sur une base journalière ou hebdomadaire dans leur tentative
d'atteindre des cibles spécifiées.
Ainsi après avoir compris ce qu'est une variable
instrument, il est donc intéressant d'apporter quelques
précisions sur les critères de choix des instruments.
2.2.2. Critères de sélection de la variable
instrument
Trois critères de sélection peuvent être
avancés selon la littérature économique (Pollin, 2008).
D'abord, la variable retenue doit être proche du champ d'action directe
des instruments de politique monétaire. Ensuite, la fréquence de
son observation, c'est-à-dire la disponibilité de données
fiables, doit être supérieure à celle des objectifs finals.
Enfin, il faut qu'elle soit solidement reliée aux objectifs finals de
politique par des relations statistiques stables, permettant aux
autorités de connaître les répercussions d'un changement de
cible sur les objectifs finals.
Ces critères donnent lieu à des arbitrages
(McCallum, 1997). Par exemple, des agrégats monétaires larges
(M2, M3 voire M4) ou des agrégats de crédit satisfont mieux au
troisième critère, tandis que la masse monétaire (M1) au
sens étroit répond mieux aux deux premiers critères. Il
convient alors de sélectionner la variable qui peut au mieux stabiliser
les variables objectifs finals de politique, en filtrant efficacement l'impact
des chocs aléatoires qui affectent l'économie. Ainsi, par rapport
à un objectif de stabilisation du revenu réel, le contrôle
de la masse monétaire assure une meilleure protection face aux chocs
d'origine réelle. En revanche, le contrôle du taux
d'intérêt filtre plus efficacement les perturbations d'origine
monétaire.
Si les perturbations d'origine réelle sont
prédominantes, le contrôle de la masse monétaire
représente une solution efficace. Le taux d'intérêt devient
par contre une cible intermédiaire d'autant plus fiable que les chocs
monétaires sont importants. La conjoncture économique des
années 60 et 70 était caractérisée par des chocs
réels relativement plus importants que les chocs monétaires. Elle
était donc plus favorable à l'emploi de la masse monétaire
comme cible intermédiaire de politique. Cette situation semble,
cependant, avoir changé pendant les années 80 marquées par
des chocs monétaires beaucoup plus importants. Ces chocs sont
liés au processus de dérèglementation et d'innovations
financières qui ont, dans plusieurs pays, fondamentalement
altéré les comportements en matière de demande de
monnaie.
Bien qu'un certain nombre substantiel d'économistes
académiques ait favorisé l'utilisation de l'instrument base
monétaire ou un agrégat de réserve, presque toutes les
Banques centrales actuelles utilisent un taux d'intérêt à
court terme (Black, Macklem, Rose, 1997 ; Taylor, 1999 ;
Couppey-Soubeyran et alii., 2014, 2015). Ce qui apparait conforme aux
caractéristiques réelles de la politique monétaire
moderne. L'instrument privilégié par les Banques centrales des
pays industrialisés est un taux d'intérêt à court
terme. Cette idée va à l'encontre de celle de Sargent et Wallace
(1979) qui estiment que le niveau des prix de l'économie serait
indéterminé si la Banque centrale devait utiliser un taux
d'intérêt comme instrument. D'ailleurs, pour eux, il n'y a pas de
règle s'appuyant sur un taux d'intérêt avec un niveau des
prix déterminé. Pour Poole (1970), la masse monétaire est
préférable en tant qu'instrument si la demande de monnaie est
relativement stable ou si les chocs sur la demande de monnaie sont positivement
corrélés avec ceux de la demande de biens. Friedman (1975)
considère cette comparaison comme étant fauchée si l'on
considère le taux d'intérêt et la masse monétaire
comme des instruments directs de la politique monétaire.
À cette approbation de la masse monétaire comme
étant le meilleur instrument de la politique monétaire s'oppose
des auteurs comme Goodhart (1994) qui penche pour le taux
d'intérêt. Il affirme que si la Banque centrale essaie d'avoir un
système de contrôle de la base monétaire, elle
échouera car cela lui est impossible. Aussi, l'emploi de la base
monétaire comme instrument entrainerait plus de variabilité du
taux d'intérêt à court terme et les institutions
financières avec lesquelles travaillent les Banques centrales
n'apprécient pas cette variabilité du taux
d'intérêt. Pour McCallum (1997), deux raisons conduisent les
Banques centrales à retenir le taux d'intérêt comme
instrument de la politique monétaire. Ainsi, la première raison
est d'avoir des croyances concernant la possible instabilité de
l'instrument et la seconde raison est le rôle de prêteur en dernier
ressort que joue la Banque centrale et qui lui permet de prévenir des
crises financières qui impliquent une large hausse de la demande de base
monétaire. Pour Creel et Sterdyniak (1999), l'agrégat
monétaire n'a plus de poids du fait des innovations financières
qui font perdre tout sens à un objectif en termes d'agrégat
monétaire. On note donc une disparition de la transparence et de la
contrôlabilité de la politique monétaire (cas de
l'Allemagne avec le contrôle de M3 par la Bundesbank).
Il convient donc de conclure avec Taylor (1999) qu'utiliser
une règle s'appuyant sur un taux d'intérêt n'élimine
pas le concept d'offre et de demande de monnaie ; elle rend tout simplement la
monnaie endogène. Pour Taylor, la connexion entre les règles
d'offre de monnaies et des règles de taux peut être utile. En
période d'inflation très élevée ou négative,
les règles de taux d'intérêt perdent de leur utilité
parce que les anticipations d'inflation changent et sont difficiles à
mesurer.
Ces critères ont permis de comprendre pourquoi le taux
d'intérêt est un instrument privilégié des Banques
centrales. Ainsi, il sera par la suite présenter la fonction de perte de
la Banque centrale.
2.2.3. Spécification de la
règle à base de l'optimisation de la fonction de perte
La fonction de réaction définit le lien qui
existe entre l'instrument de la politique monétaire et ses
différents objectifs final et intermédiaire (Huchet, 2003). Elle
représente donc la solution du problème de minimisation d'une
fonction de perte par rapport aux instruments de politique économique.
En d'autres termes la fonction de perte est une fonction qui met en relation
les variables objectifs et les variables instruments en vue de
déterminer la perte de la Banque centrale. Étant donné que
le comportement d'une Banque centrale basé sur une règle a
été retenu, il sera analysé uniquement la fonction de
réaction allant dans ce sens et le cas des politiques
discrétionnaires sera abandonné.
Cependant, la dynamique de la déflation par les prix en
oeuvre durant la récente crise financière (2007-2009) a
nécessité la mise en place de taux d'intérêt
nominaux négatifs pour relever les anticipations d'inflation et
contrecarrer les effets récessifs de la crise (Eggerstsson, 2008 ;
Romer et Christina, 2013). Dans une telle situation, la politique
monétaire se révèle inefficace face aux pressions
déflationnistes puisque le taux d'intérêt directeur est
contraint par la borne zéro (Krugman et Eggertsson, 2011). Ce qui
conduit à une hausse des anticipations d'inflation. En période
d'inflation très élevée ou négative, les
règles de taux d'intérêt perdent de leur utilité
parce que les anticipations d'inflation changent et sont difficiles à
mesurer. D'où la nécessité d'une règle
monétaire spécifique à même d'orienter les
anticipations d'inflation dans un sens souhaitable afin de garantir
l'efficacité de la politique monétaire.
Chapitre 4 : L'adoption d'une règle
monétaire spécifique
Les anticipations de la trajectoire complète du taux
directeur par le secteur privé sont ce qui importe pour
l'économie. Ces attentes se répercutent sur les taux
d'intérêt à long terme et les prix des actifs, lesquels
influencent à leur tour les décisions des agents privés.
En ce sens, la politique monétaire est plus efficace quand elle est
prévisible, dans la mesure où, les marchés financiers
étant mieux renseignés sur les actions et les intentions de la
Banque centrale, des modifications beaucoup moins substantielles du taux
directeur seront nécessaires pour obtenir les résultats voulus si
les taux anticipés évoluent de pair (Pollin, 2005 ;
Gosselin, 2008 ; Woodford, 2005, 2011, 2012).
À cet effet, il convient de présenter une
règle d'objectif spécifique qui intègre les prix des
actifs dans la fonction de réaction de la Banque centrale. Après
avoir présenté la règle d'objectif spécifique, il
sera opportun de présenter le débat qu'elle soulève en
termes de conduite de la politique monétaire.
Section 1 : La règle d'objectif
spécifique
Il s'agit d'élaborer une fonction de perte de la
règle de la politique monétaire qui vise aussi bien la
stabilité des prix que la stabilité financière (Woodford,
2011, 2012 ; Couppey-Soubeyran et alii., 2015). L'objectif étant la
mise en place d'une politique monétaire cohérente avec les
anticipations des acteurs du marché financier.
Dans ce cas de figure, la fonction de réaction de la
Banque centrale prendrait la forme d'une règle de Taylor
augmentée des prix des actifs. Cela signifie que la politique
monétaire s'intéresse seulement aux déviations des prix
des actifs par rapport aux valeurs fondamentales de ces mêmes actifs
(Morris et Shin, 2002). Cela suppose donc que la Banque centrale soit toujours
en mesure de connaître ces valeurs fondamentales, ce qui est
assurément une hypothèse très forte. Sur la base de cette
hypothèse, il apparait opportun d'adapter la réaction de
l'autorité monétaire à la nature des chocs à
l'origine d'une fluctuation des prix des actifs (Cecchetti et al., 2000 ; Borio
et White, 2004 ; White, 2009 ; Christiano et al., 2010 ; Agénor et
Da Silva, 2013).
L'efficacité des interventions de la Banque centrale
face aux différents chocs sera fonction du poids relatif accordé
à chaque objectif dans la fonction de réaction. Si le poids
attribué à l'objectif de stabilité financière est
élevé, la variation du taux d'intérêt suite à
un choc d'offre (choc de demande) sera élevé (plus faible). La
règle spécifiée à cet effet, permet de mieux
déterminer le comportement des autorités
monétaires25(*).
Cependant, une transparence accrue de cette règle ne
conduit cependant pas toujours à un bien-être plus
élevé. Selon Morris et Shin (2002), lorsque le niveau de la
production potentielle ou la valeur fondamentale des actifs est très
incertain et qu'il est peu probable que la banque centrale soit mieux
informée que le secteur privé, la divulgation du niveau
estimé de cette variable risque d'amener les acteurs des marchés
financiers à ne pas tenir compte de leurs propres sources d'information
et à agir plutôt en fonction de la valeur estimative
annoncée (même si celle-ci est entachée de bruit), ce qui
accentuera la volatilité.
De même, Geraats (2007) démontre, au moyen d'un
modèle intégrant des degrés de transparence réelle
et perçue qui peuvent différer, que les marchés financiers
réagissent plus prudemment aux communications de la Banque centrale
s'ils perçoivent de l'opacité chez celle-ci, une attitude qui est
de nature à atténuer la volatilité des attentes du secteur
privé.
Cukierman (2005) énumère des situations
où un niveau de transparence intermédiaire serait probablement
optimal. Par exemple, il pourrait être contre-productif pour une Banque
centrale de publier des indications précoces sur les difficultés
potentielles de certains segments du système financier. La nouvelle
pourrait provoquer une ruée vers les banques ou d'autres
réactions imprévisibles qui forceraient la Banque centrale
à prendre des mesures plus expansionnistes qu'elle ne l'aurait fait si
elle s'était temporairement abstenue de publier l'information. Il peut
aussi être très important de préserver la
confidentialité des discussions du comité de politique
monétaire lorsque des désaccords existent parmi ses membres.
Mishkin (2004) affirme que le dévoilement de la
fonction objectif de la Banque centrale est susceptible de compliquer le
processus de communication et d'affaiblir l'appui donné à
l'institution dans la poursuite de ses objectifs à long terme. Enfin,
l'accroissement de la transparence est dans certains cas impossible. Comme
Macklem (2005) le souligne, une règle dépendant
entièrement de l'état de l'économie est d'une
complexité telle qu'aucune banque centrale n'acceptera de la
déterminer ou de la communiquer de sitôt26(*).
Il apparait donc primordial de rechercher le juste
équilibre entre opacité et transparence, caractérisant une
position intermédiaire de transparence capable à même
d'être en conformité avec la critique de Lucas (1976). Cette
transparence d'équilibre décline un niveau de communication
permettant à la politique monétaire d'atteindre aussi bien les
stabilités d'inflation et financière en cohérence avec les
anticipations des agents privés.
L'adoption de cette règle relance le débat quant
à l'orientation stratégique « clean » versus
« lean » de la politique monétaire en présence de la
politique macroprudentielle (PMP) qui sera mis en revue dans la sous-section
suivante.
Section 2 : « Clean » versus
« lean »
Si l'on tient pour acquise l'hypothèse, aujourd'hui
largement partagée dans la littérature (Beau et al., 2011),
qu'une politique macroprudentielle est désormais indispensable au
maintien de la stabilité financière, alors un policy-mix des
politiques monétaire et macroprudentielle devient nécessaire.
Deux conceptions polaires de ce policy-mix sont envisageables : policy-mix
intégré et policy-mix séparée. Celles-ci relancent
le débat quant à l'orientation stratégique « clean
» versus « lean » de la politique monétaire en
présence de la PMP.
Celle selon laquelle le taux d'intérêt pourrait
agir en priorité sur la stabilité monétaire mais agir
aussi en temps voulu sur la stabilité financière en
complément des instruments macroprudentiels relève d'une approche
« intégrée » du policy-mix entre politique
monétaire et PMP selon une terminologie introduite par Kremers et
Schoenmaker (2010) et popularisée par Blanchard (2012) et le FMI
(2013a). Dans cette approche, la stabilité monétaire et la
stabilité financière sont « intégrées »
dans une règle de Taylor « augmentée ». La
politique monétaire est orientée « lean »
pour soutenir l'instrument macroprudentiel» (Cecchetti et al., 2000 ;
Borio et White, 2004 ; White, 2009). Le taux d'intérêt et
l'instrument macroprudentiel sont alors supposés complémentaires
(Blanchard, 2012).
Les promoteurs de ce policy-mix soulignent qu'une règle
de Taylor standard accentue les risques financiers via le « canal de
la prise de risque » (Borio et Lowe, 2002). Ils soulignent aussi les
limites du macroprudentiel (Mishkin, 2011) et l'intérêt d'y
associer une règle de Taylor augmentée à un taux
d'intérêt ajusté en fonction des tensions
financières (Carré et alii., 2015). La Banque centrale peut en
effet faire preuve d'une transparence approfondie en annonçant les
initiatives prises, les cibles visées, les mécanismes de
transmission attendus ainsi que le délai sur lequel s'étendent
les mesures prises (L'oeillet et Roudaut, 2012).
À l'opposé de cette approche
intégrée, l'approche « séparée » (Kremers
et Schoenmaker, 2010 ; Svensson, 2010) ou
« découplée » (Stein, 2013) n'envisage pas
que le taux d'intérêt puisse répondre à quelque
moment que ce soit à la stabilité financière. Pour les
défenseurs de ce policy-mix, prônant une transparence accrue,
l'extension de la règle de Taylor standard à une cible
financière permettant de faire réagir le taux directeur aux
tensions financières, peut réduire la transparence dans la mesure
où il peut y avoir un conflit d'objectif entre stabilité des prix
et stabilité financière selon le banquier central (Goodhart et
Schoenmaker, 1995 ; Goodhard, 2013). Sur la base d'une lecture stricte
à la fois du principe de séparation, de la règle de
Tinbergen27(*) et du
principe de Mundell28(*),
l'approche séparée préconise d'affecter la politique
monétaire tout entière à la stabilité
monétaire et la PMP tout entière à la stabilité
financière (Goodhart, 2010). La politique monétaire est
orientée « clean », consistant à ignorer la
bulle en formation excepté dans le cas où elle fait augmenter
l'inflation ou les anticipations en la matière (White, 2009). Le taux
d'intérêt et l'instrument macroprudentiel sont alors
supposés substituables.
Pour les défenseurs du policy-mix séparé,
en l'absence de règle uniforme et clairement établie, la
politique macroprudentielle est davantage exposée à des
problèmes d'incohérence temporelle, ce qui peut aussi affecter la
crédibilité des Banques centrales et, par suite,
l'efficacité de leur politique monétaire (Ueda et Valencia,
2012).
La mise en oeuvre concrète de la PMP sur le plan
opérationnel prendra néanmoins du temps.
Précisément parce que la stabilité financière est
un concept multidimentionnel29(*). La Banque Centrale Européenne (2013)
définie la stabilité financière comme une
« situation dans laquelle le système financier, qui recouvre
les intermédiaires financiers, les marchés et les infrastructures
de marché, est capable de faire face aux chocs et à une
correction brutale des déséquilibres financiers, réduisant
ainsi la probabilité qu'apparaissent, dans le processus
d'intermédiation financière, des perturbations suffisamment
graves pour compromettre sérieusement l'allocation de l'épargne
à des projets d'investissement rentables ». Mais c'est aussi
la raison pour laquelle il n'existe pas encore de consensus dans la
littérature autour de la définition de la stabilité
financière (Borio et Drehmann, 2009).
À la différence de la stabilité
monétaire que les Banques centrales comme la communauté
académique ont convenu de réduire à une cible d'inflation
et donc à « un chiffre », sinon une fourchette, la
stabilité financière de par sa nature multidimensionnelle se
prêtera difficilement à ce type de réduction. Du moins,
chaque autorité qui en aura la charge à un niveau global
devra-t-elle préciser la (les) dimension(s) qu'elle entend
privilégier : la stabilité du crédit pour les unes, celle
des prix d'actifs pour les autres, etc.
Cette deuxième partie a permis de saisir les
règles d'instrument, de ciblage, automatiques et activistes, que les
règles activistes d'instrument sont les mieux adaptées pour la
représentation des fonctions de réaction des Banques centrales.
Aussi, la littérature a démontré qu'une règle pour
accroître la transparence et la crédibilité des
autorités monétaire vis-à-vis des agents
économiques, doit être simple et systématique. Et surtout
que sa formulation découle de la minimisation d'une fonction de perte de
la Banque centrale. Cette fonction de perte met en relation l'instrument de la
Banque centrale (qui est choisi selon des critères bien définis)
et les autres variables entrant en jeu dans la construction de la fonction de
réaction.
Dans le processus de recherche de la meilleure politique
monétaire par les Banques centrales, il ressort que la discrétion
monétaire entraine un biais inflationniste qui entame sa
réputation auprès des agents économiques. Le coût
positif entrainé par cette discrétion monétaire (la perte
de transparence et de crédibilité des autorités
monétaires) va persuader les économistes de l'abandon d'une telle
politique au profit de l'observation des règles monétaires. Cette
adoption des règles monétaires comme mode de conduite de la
politique monétaire va ouvrir le débat sur le type de
règle devant être observé par les autorités
monétaires. Ainsi, Friedman proposera une règle
« automatique » qui ne fera pas l'unanimité car
considérée comme insuffisante et ne prenant pas en compte le
niveau de l'activité économique ainsi que celui de l'inflation.
Des auteurs ont démontré qu'ainsi formulée, cette
règle risque d'entrainer une énorme variabilité de la
production. D'où l'adoption des règles
« activistes » qui sont plus dynamiques car
intégrant le niveau de l'activité économique. Cependant,
il reste le débat sur les règles d'instrument et de ciblage. En
conclusion à ce débat, il a été arrêté
que les règles d'objectif font appel à des règles
d'instrument et ceci de façon implicite (Pollin, 2008). D'où
l'adoption des règles d'instrument surtout que celle de ciblage posent
un problème de transparence et de responsabilité de la part des
autorités monétaires. Donc la règle que nous retenons
comme étant la mieux adaptée à la représentation du
comportement d'une Banque centrale est une règle « activiste »
d'instrument d'autant plus que les règles « activistes » sont
généralement des règles d'instrument. Aussi, ce chapitre
nous a permis de comprendre que la spécification fonctionnelle d'une
règle monétaire passe par un programme d'optimisation d'une
fonction de perte de la Banque centrale. La solution de cette optimisation
permet d'obtenir une relation entre la variable instrument et les variables de
la fonction de réaction de la Banque centrale. Pour qu'une variable soit
choisie comme instrument, elle doit remplir des critères bien
précis. Ce chapitre nous permet de conclure que ce ne sont pas toutes
les règles formulées par les économistes qui sont capables
de reproduire le comportement de la Banque centrale en termes de conduite de la
politique monétaire. Aussi, en raison du caractère simple et
systématique de la règle de Taylor (1993) et de sa prise en
compte du niveau de l'activité, elle est la plus testée dans le
cadre des études portant sur les fonctions de réactions des
banques centrales. Pour cela, notre deuxième section a montré la
pertinence de la règle de Taylor augmentée des prix d'actifs pour
ce qui est d'une Banque centrale.
Il apparait donc nécessaire du choix d'une règle
monétaire optimale qui reflète le juste équilibre entre
opacité et transparence caractérisant une position
intermédiaire de transparence qui décline un niveau de
communication permettant à la politique monétaire d'atteindre
aussi bien les stabilités d'inflation et financière en
cohérence avec les anticipations des agents privés.
Conclusion générale
Il était question de vérifier, sur la base d'une
littérature théorique, si la transparence optimale peut permettre
à la politique monétaire d'atteindre l'objectif d'inflation en
cohérence avec les anticipations des agents privés. La
réflexion menée qui visait à définir une mesure de
transparence d'équilibre, révèle les
bénéfices associés à celle-ci et les implications
en termes de conduite de la politique monétaire.
La littérature économique a montré que la
transparence optimale exerce des effets économiques doubles. La
restauration de la crédibilité qui engage la Banque centrale sur
la poursuite d'une inflation faible et l'effet d'information permettant
d'ancrer efficacement les anticipations des agents économiques
privés et en retour a des effets sur la dynamique
macroéconomique. L'ancrage des anticipations des agents privés
par la Banque centrale va donc contribuer à réduire efficacement
l'incohérence temporelle dont souffrirait la politique
monétaire.
En termes de conduite de la politique monétaire, la
transparence d'équilibre recommande, à la Banque centrale,
l'utilisation d'une règle d'objectif spécifique dont un niveau
ambigüe de communication permet à la politique monétaire
d'atteindre simultanément les stabilités d'inflation et
financière en cohérence avec les anticipations des agents
privés.
Ainsi, la définition d'une mesure de transparence
d'équilibre en dehors des solutions de coins (opacité totale ou
transparence pure) apparait théoriquement possible si la Banque centrale
divulgue des informations privilégiées (informations certaines)
capable d'ancrer efficacement les anticipations des agents économiques
privés et prend en compte les fluctuations des prix d'actifs dans une
règle de Taylor augmentée des prix d'actifs ainsi que
l'importance du canal des anticipations afin de se conformer à la
critique de Lucas (1976)30(*). En effet, cette position est formalisée selon
l'expression de Bernanke et Mishkin (1997) comme un cadre de
« discrétion contrainte ». Il s'agit donc de fixer
des objectifs et une pondération précise de ces objectifs (donc
une fonction de perte à minimiser) aux autorités
monétaires, tout en leur laissant la latitude d'utiliser toutes les
informations qu'elles jugent pertinentes pour connaître l'orientation des
anticipations des agents et pouvoir ainsi décider de l'orientation
future de la politique monétaire. Ces informations comportent plusieurs
indicateurs, financiers et réels, susceptibles de rendre compte des
origines multiples de l'inflation et d'éclairer les autorités
monétaires sur l'évolution future de l'inflation.
Il reste que, dans un environnement globalisé, chaque
Banque centrale doit fonder le choix de la transparence optimale sur certaines
préoccupations qui apparaissent aujourd'hui essentielles :
réponse aux chocs asymétriques qui frappent l'économie, la
stabilité des prix d'actifs pour lutter contre les bulles. À cet
égard, une nouvelle doctrine monétaire, combinant
stabilité financière et stabilité des prix doit
inéluctablement remplacer l'obsession exclusive pour la stabilité
des prix, car la dernière crise économique et financière
(2007-2009) a battu en brèche l'idée selon laquelle la
stabilité des prix entraine nécessairement la stabilité
financière.
· Agénor P., Pereira Da Silva, L. (2013), «
Inflation targeting and financialstability: A perspective from the developing
world », Banco Central do Brasil, WorkingPapers No. 324.
· Artus, P. (1998), « Quel objectif pour une
Banque Centrale? », Revue Économique, 49 (3), p. 643-653.
· Artus, P., Penot, A., Ollin, J.P. (1999), «
Quelle règle monétaire pour la Banque Centrale
Européenne ? », Revue d'Économie Politique, 109,
p.309-374.
· Awana C. (2013), « Politique
monétaire et incertitude dans la CEMAC », Revue
d'Économie Appliquée, vol.1, n°1, janvier-juin,
p.201-221.
· Awana C. (2013), « Taux d'inflation
d'équilibre », Revue d'Économie Appliquée,
vol.1, n°2, juillet-décembre, p.167-190.
· Barro, R. & Gordon, D. (1983a),
«A positive theory of monetary policy in a natural rate
model», Journal of Political Economy 91(4), 589-610.
· Barro, R. & Gordon, D. (1983b),
«Rules, Discretion and Reputation in a Model of Monetary Policy»,
Journal of Monetary Economics 12(1), 101-121.
· Bernanke, B. &Mishkin, F. (1997),
«Inflation Targeting : A New Framework for Monetary Policy
?», Journal of Economic Perspectives 11(2), 97 - 116.
· Bernanke, B. (2004a), «Central Bank
Talk and Monetary Policy», Remarks at the Japan Society corporate
luncheon, New York, October 7.
· Bernanke, B., Gertler, M., Gilchrist, S. (1999),
«The financial accelerator in a quantitative business cycle
framework», in Taylor, J., Woodford, M. (ed.), Handbook of
Macroeconomics, vol. 1, pp. 1341-93, Amsterdam: Elsevier.
· Betbèze, J.-P., Bordes, C., Couppey-Soubeyran,
J. &Plihon, D. (2011), « Banques centrales et
stabilité financière », La Documentation
française / Conseil d'Analyse Economique.
· Carré E.,Couppey-Soubeyran, Salim Dehmej( 2014)
« La coordination entre politique monétaire et politique
macroprudentielle Que disent les modèles dsge » Revue
économique - vol. 66, N° 3, mai 2015, p. 469
· Clarida, R., Gali, J., et M. Gertler (1997): «
Monetary Policy Rules and Macroeconomic Stability Evidence and some
Theory », manuscript, New York University.
· Cornand, C. &Baeriswyl, R. (2011),
«Transparency and Monetary Policy Effectiveness», Annals of
Economics and Statistics 103/104, pp.175-194.
· Cornand, C. & Heinemann, F. (2008),
«Optimal degree of public information dissemination», The
Economic Journal 118(528), 718-742.
· Cornand, C. (2014), « Communication des
banquescentrales :lorsque latransparence n'est pas optimale »,
Working Paper of GATE Review, Vol. 1, n°1, pp.236-268.
· Cukierman, A. & Meltzer, A. H. (1986), «A
theory of ambiguity, credibility, and inflation under discretion and asymmetric
information», Econometrica54(5), pp.1099-1128.
· Cukierman, A. (2001), «Accountability,
Credibility, Transparency and Stabilization Policy in the
Eurosystem», in C. WyploszThe Impact of EMU on Europe and the
DevelopingCountries pp. chapter 3, Oxford University Press, pp.40-75.
· Cukierman, A. (2007), «The Limits of
Transparency». Papier présenté à la
conférence «Monetary policy, Transparency and Credibility»,
Federal Reserve Bank of San Fransico, 23-24 Mars 2007.
· Drumetz, F. et A. Verdelhan (1997): «
Règle de Taylor : Présentation, applications et Limites
». Bulletin de la Banque de France, N°45.
· EngoneMvé S. (2013), « Politique
d'inflation et prix d'actifs », Revue d'Économie
Appliquée, vol.1, n°2, juillet-décembre, p.167-190.
· Faust, J. &Svensson, L. E. O. (2001),
«Transparency and credibility : Monetary policy with unobservable
goals», International Economic Review 42(2), 369-97.
· Friedman M. (1975): « Targets, Instruments,
and Indicators of Monetary Policy », Journal of Monetary
Economics.
· Geraats, P. (2006), «Transparency of Monetary
Policy: Theory and Practice», CESifo Economic Studies 52(1),
pp.111-152.
· Geraats, P. (2009), «Trends in Monetary Policy
Transparency», International Finance 12(2), pp.235-268.
· Gosselin, P., Lotz, A. &Wyplosz, C. (2008),
«The Expected Interest Rate Path: Alignment of Expectations vs.
Creative Opacity», International Journal of Central Banking 4(3),
pp.145-185.
· Henderson D.W. et W. J Mc Kibbin (1993): « A
comparison of some Basic Monetary Policy Regimes for Open Economy: Implications
of Different Degrees of Instrument Adjustment and Wage Persistence »,
Carnegie-Rochester Conference series on Public Policy, 39, p. 221-317.
· Huchet M. (2003) : « Fonctions de
réaction des banques centrales européennes et
convergence », L'Actualité économique, vol.79,
n°3, pp.297-326.
· Jensen, H. (2002), «Optimal degrees of
transparency in monetary policymaking», Scandinavian Journal of
Economics 104(3), p.399-422.
· Kamgna S. Y., Nguenang C. K., Talabong H., Ould I. S.
(2009): « Central Bank reaction fonction and monetary policy
credibility: The case of BEAC », MPRA Paper N° 16557.
· Kyland F., Prescott E. (1977): « Rules Rather
Than Discretion: the Inconsistency of Optimal Plans », Journal of
Political Economy,vol.85, pp. 473-491.
· McCallum B.T (1987): « The case for rules in
the conduct of monetary policy: A concrete example, Federal Reserve Bank of
Richmond », 123, p.415-429.
· Mésonnier J.S, Renne J.P (2004):
« Règle de Taylor et politique monétaire dans la
zone euro », Bulletin de la Banque de France, N°45.
· Morris, S. & Shin, H. S. (2002), «Social
value of public information», American Economic Review
92(5), 1521-1534.
· Myftari, E. et Rossi S. (2010), « Prix des
actifs et politique monétaire : enjeux et perspectives après la
crise financière de 2007-2009 », L'Actualité
économique, Revue d'analyse économique, vol. 86, n° 3, p.
355-383.
· Orphanides A. (2007): «Taylor
Rules», Board of Governors of the Federal Reserve System.
· Orphanides, A. & Williams, J. C. (2007),
«Inflation Targeting under Imperfect Knowledge», in
F. S. Mishkin& K. Schmidt-Hebbel, eds, «Monetary Policy Under
Inflation Targeting», Vol. XI, Banco central de Chile, Santiago,
Chile.
· Pollin J.P (2005): « Théorie de la
politique monétaire, esquisse d'une refondation », Revue
économique, vol.56, N°3, p.507-540.
· Pollin, J.P (2008) :
« Maîtriser l'inflation : avec quels objectifs et quelles
stratégies ? », Revue économique et
monétaire, N°4, pp.9-34.
· Rogoff, K. (1985), «The optimal degree of
commitment to an intermediate monetary target», The Quarterly
Journal of Economics 100(4), 1169-89.
· Rudebusch, G.D et L.E.O. Svensson, (1998): «
Policy Rules for Inflation Targeting », Center for Economic
Policy Research, Discussion Paper, N°1999.
· Svensson L. (1997): «Inflation forecast
targeting: Implementation and monetary inflation targets», European
Economic Review N°41, pp. 1111-1146.
· Svensson L. (1999): «Inflation targeting as
monetary policy rule», Journal of Monetary Economics N°43, pp.
607-654.
· Svensson, L. E. (2010), «Inflation
Targeting», in B. M. Friedman & M. Woodford, eds,
«Handbook of Monetary Economics», Vol. 3 of Handbook of
Monetary Economics, Elsevier, chapter 22, pp. 1237-1302.
· Taylor, J. (1993): « Discretion versus Policy
Rules in Practice ». Carnegie-Rochester Conference Series on Public
Policy, N°49.
· Walsh, C. E. (1995), «Optimal contracts for
central bankers», American Economic Review 85(1), p.150-67.
· White, W. (2009), «Should monetary policy
«lean or clean»?», Federal Reserve Bank of Dallas, Working
Paper No. 34.
· Woodford, M. (2012), «Inflation targeting and
financial stability», Riksbank Economic Review.
ANNEXE
Modèle théorique
A. Présentation du modèle
Il s'agit de modéliser une fonction de perte de la
règle de politique monétaire qui vise à la fois la
stabilité des prix et la stabilité financière. Le
degré optimal de transparence est déterminé par le niveau
de la perte. En effet, comme le souligne Geraats (2004b) et
Musard-Gies (2007) que la façon d'écrire la fonction objectif, et
tout particulièrement la façon d'introduire les poids que
l'autorité monétaire accorde à la stabilisation de
l'inflation, de la production et financière peut avoir des
répercussions importantes sur les conclusions en matière de
transparence. Il convient alors de spécifier le modèle.
B. La spécification du modèle
A l'instar du modèle développé par
Myftari et Rossi (2010), inspiré par le modèle de Bernanke,
Gertler et Gilchrist (1999) et repris par EngoneMvé (2013), qui
présente l'avantage de tester la capacité d'une règle de
politique monétaire à stabiliser l'inflation et l'output gap
lorsque l'économie est en proie à une bulle. Ce modèle
s'inscrit dans le cadre de la nouvelle économie keynésienne, avec
viscosité des prix, délai d'investissement et règle de
politique monétaire.
Étant donné que l'évolution d'une bulle
spéculative est imprévisible (Selody et Wilkins, 2004), la
fonction de réaction de la Banque centrale va intégrer la
possibilité d'un choc exogène, c'est-à-dire
l'hypothèse de la création d'une bulle spéculative.
La spécification d'une telle fonction de
réaction prend la forme d'une règle de Taylor augmentée
des prix des actifs, dont la fonction de perte s'écrit de la forme
suivante :
£ = Et[(yt - y* -
ut)2+ ÷(ðt - ð*)2+
ã(lt- l*)2]
(1)
où Etreprésente
l'espérance au temps t de la perte,
ytreprésente l'output, ðtest le taux
d'inflation, ltreprésente les prix des actifs et
utreprésente les différents types de chocs
technologiques qui peuvent frapperl'activité économique.
Lesobjectifs poursuivis par la Banque centrale s'avèrent être les
suivants : minimisationde la déviation du niveau de production par
rapport au niveau de productionpotentiel (ou de plein-emploi, y*),
minimisation de la déviation du taux d'inflationpar rapport à la
cible fixée (ð*) et stabilisation des prix des actifs par
rapport àleur cible (l*). Cela signifie que la politique
monétaire s'intéresse seulement auxdéviations des prix des
actifs par rapport aux valeurs fondamentales de ces mêmesactifs. Cela
suppose donc que la Banque centrale soit toujours en mesure deconnaître
ces valeurs fondamentales, ce qui est assurément une hypothèse
trèsforte. Sur la base de cette hypothèse, nous pouvons
maintenant étudier le comportement de la Banque centrale face à
chaque type de choc.
Ainsi, en cas de chocs de demande positifs, la demande globale
augmente, induisant par là des pressions à la hausse du niveau
des prix. La Banque centrale intervient en augmentant son taux directeur afin
de minimiser l'écart du taux d'inflation par rapport à sa cible.
L'augmentation du taux d'intérêt conduit à une diminution
des prix des actifs qui, à son tour, induit une diminution de la demande
globale par l'intermédiaire des effets de richesse.
En revanche, en cas de chocs d'offre, c'est-à-dire
lorsque l'élasticité de la demande globale par rapport aux prix
des actifs est faible, la Banque centrale opère un arbitrage entre la
stabilisation de l'activité économique et celle des prix des
actifs. Elle est alors confrontée au respect d'objectifs
contradictoires : accepter un taux d'inflation plus élevé
afin de contrecarrer les fluctuations des prix des actifs, ou maîtriser
l'inflation au prix d'une variabilité des prix des actifs.
Il convient de préciser l'efficacité des
interventions de la Banque centrale face aux différents chocs sera
fonction du poids relatif accordé à chaque objectif dans la
fonction de réaction : si le poids attribué à
l'objectif de stabilité financière est élevé, la
variation du taux d'intérêt suite à un choc d'offre (choc
de demande) sera élevée (plus faible). La règle
monétaire spécifique à cet effet est définie de la
manière suivante :
it =
áit-1 +
âEtðt+1+
äYt + ã(S - S*)t
+ ut(2)
où itest le taux
d'intérêt nominal fixé par les autorités
monétaires au temps t,
Etðt+1 exprime l'anticipation en
t de l'écart inflationniste qui sera créé en
t+1, Ytreprésente l'output gap en
t et (S - S*)treprésente
l'écart au temps t entre la valeurboursière des actifs,
ou prix de marché des actifs (S), et leur valeur jugée
fondamentale (S*) et ut,représente le terme
de l'erreur.
Cette spécification est avantageuse dans la mesure
où elle permet aux agents privés de lire la transparence de la
Banque centrale. Elle permet également de déterminer :
· si les autorités monétaires doivent
adopter un comportement accommodant ou agressif envers l'inflation
anticipée ;
· si les autorités monétaires doivent
réagir à une variation des prix des actifs.
TABLE DES MATIÈRES
Dédicace...................................................................................................i
Remerciement.........................................................................................
ii
Sommaire................................................................................................iv
Introduction générale 1
Partie I : Les gains de la
transparence optimale d'une Banque centrale. 6
Chapitre 1 : La transparence optimale :
un déterminant de la crédibilité d'une Banque centrale
7
Section
1 :Opacité totale versus transparence
pure : un enjeu de la crédibilité des Banques centrales
7
1.1 Opacité totale comme degré optimal
de transparence 8
1.2 La transparence totale comme degré optimal
de transparence 10
1.2.1 Les mécanismes de réputation
11
1.2.2 La nomination d'un banquier central conservateur
11
1.2.3 Les contrats incitatifs 12
1.2.4 La priorité de la règle 13
Section
2 : La transparence intermédiaire comme
moyen de restaurer la crédibilité des Banques centrales 15
Chapitre 2 : La transparence optimale : un
moyen de réduire l'incohérence temporelle 17
Section 1 : La transparence totale comme
degré optimal 17
Section 2 :
La transparence intermédiaire comme
degré optimal 18
Partie II : Les implications de la
transparence optimale en termes de conduite de la politique monétaire
20
Chapitre 3 : Règles monétaires,
transparence optimale et conduite de la politique monétaire 21
Section 1 :
La règle doit tenir compte de
l'activité économique 21
1.1Règle automatique versus règle
activiste 22
1.2 Règles d'instrument versus règles
d'objectif : questions en débat 24
1.2.1 Les règles d'instrument 25
1.2.1.1 La règle de McCallum 25
1.2.1.2 La règle de Taylor et ses limites
27
1.1.2.2 Les règles d'objectif 28
Section 2 : Les caractéristiques propres
à la formulation 33
2.1 Caractère simple et systématique
d'une règle 34
2.2 Critère de choix de la variable
instrument........................... 35
2.2.1 Définition 35
2.2.2 Critères de sélection de la
variable instrument 36
2.2.3 Spécification de la règle à
base de l'optimisation de la fonction de perte 38
Chapitre4 : L'adoption d'une règle
monétaire spécifique 39
Section 1 : La règle d'objectif
spécifique 40
Section 2 : « Clean » versus
« lean » 42
Conclusion générale 47
Références bibliographiques
49
Annex....................................................................................................53
Table des
matières..................................................................................56
* 1On dit qu'une
politique souffre d'une incohérence temporelle quand la politique en t +
1 remet en cause la politique décidée en t. La politique optimale
est alors sans cesse remise en cause (Kydland et Prescott, 1977 ; Barro et
Gordon, 1983).
* 2Une crise
financière, un choc extérieur, etc.
* 3Le processus de
transmission des impulsions monétaires, la dynamique de la demande et de
l'inflation, les caractéristiques des chocs, etc.
* 4Un choc est dit
asymétrique lorsqu'il ne touche qu'un pays ou un groupe de pays de
l'union ou même l'ensemble des pays de l'union mais dans des proportions
différentes. Il est symétrique lorsqu'il atteint
simultanément et dans les mêmes proportions tous les pays membres
d'une union.
* 5Bernanke et Mishkin
(1997), Bernanke (2003) indiquent que
l'aspect « contrainte » est lié à
l'engagement en faveur d'une inflation basse, engagement quipermet d'ancrer les
anticipations du public tandis que
l'aspect « discrétion » recouvre la
liberté opérationnelle dont jouit la Banque centrale et la
possibilité qu'elle a de mener à bien ses taches de stabilisation
réelle.
* 6Opacité ou
transparence.
* 7Chaque cadre
théorique retient comme degré optimal de transparence soit
l'opacité totale, soit la transparence totale ou soit la transparence
intermédiaire (Musard-Gies, 2006, 2007 ; Cornand, 2007).
* 8Kydland& Prescott
(1977), Barro& Gordon (1983a).
* 9La Banque centrale
peut dévoiler de l'information sur ses préférences de deux
manières : soit elle dévoile explicitement de l'information sur
ses préférences (jeu statique), soit elle révèle de
manière implicite ses préférences en dévoilant
d'autres informations permettant au secteur privé d'inférer les
préférences (jeu dynamique).
* 10L'hypothèse
d'apprentissage adaptatif pose le problème de la formation des
anticipations des agents économiques privés eu égard
à l'information disponible dans l'économie et celui de la
coordination de ces derniers pour atteindre l'équilibre à
anticipations rationnelles (Duffy, 2002 ; Gies, 2007).
* 11D'où parfois
une certaine confusion entre les termes "responsabilité" et
"transparence". La notion de responsabilité des Banques centrales
correspond à une obligation vis-à-vis de l'``ordre politique'',
l'idée étant de ``rendre compte'', d'être responsable de
ses décisions et de les justifier, les expliquer alors que la
transparence apparaît plus comme une notion issue de l'``ordre
économique'' et dans cet esprit, comme un instrument au service de la
Banque centrale afin de renforcer l'efficacité de la politique
monétaire (Musard-Gies, 2007).
* 12On dit qu'une
politique souffre d'une incohérence temporelle quand la politique en t +
1 remet en cause la politique décidée en t. La politique optimale
est alors sans cesse remise en cause (Kydland et Prescott, 1977 ; Barro et
Gordon, 1983).
* 13Une crise
financière, un choc extérieur, etc.
* 14Le processus de
transmission des impulsions monétaires, la dynamique de la demande et de
l'inflation, les caractéristiques des chocs, etc.
* 15Cette option
résulte de la critique de Lucas (1976). Si les autorités
monétaires décident de modifier le niveau de l'inflation cible
dans le futur, alors elles ont intérêt à anticiper la
réaction des agents dans le futur. C'est sur la base de ces
anticipations qu'elles fixeront leur taux d'intérêt et la
politique monétaire à mener effectivement.
* 16Par contraintes, il
faut entendre l'ensemble des conditions requises pour qu'une règle
monétaire puisse être jugée apte (ou adéquate)
à appréhender le comportement d'une Banque centrale en
matière de conduite de la politique monétaire (Pollin,
2005).
* 17Une certaine
flexibilité a été intégrée à travers
la prise en compte de la vitesse de circulation et le gap d'output
retardé.
* 18Sentier ou
trajectoire d'équilibre est compris ici dans le sens d'un gap nul entre
la production nominale et sa cible ou valeur potentielle.
* 19Ce constat tend à
vérifier la loi de Goodhart : « toute
régularité statistique tend à disparaitre dès qu'on
lui impose une pression pour des motifs de
régulation ».
* 20Si les
autorités monétaires décident de modifier le niveau de
l'inflation cible dans le futur, alors elles ont intérêt à
anticiper la réaction des agents dans le futur. C'est sur la base de ses
anticipations qu'elles fixeront leur taux d'intérêt et la
politique à mener effectivement.
* 21Banque du Canada,
Banque d'Angleterre, Banque de Réserve de la Nouvelle Zélande,
Banque de Suède, Banque de Pologne, Banque de Finlande et Banque
d'Australie.
* 22De toutes ces
banques centrales, seule celle de la Nouvelle Zélande a fait adopter
l'objectif de ciblage d'inflation par un texte législatif.
* 23Cette option
résulte de la critique de Lucas. Si les autorités
monétaires décident de modifier le niveau de l'inflation cible
dans le futur, alors elles ont intérêt à anticiper la
réaction des agents dans le futur. C'est sur la base de ses
anticipations qu'elles fixeront leur taux d'intérêt et la
politique à mener effectivement.
* 24C'est une
disposition intermédiaire entre la discrétion absolue, porteuse
d'incohérence temporelle et génératrice du biais
inflationniste et le suivi aveugle des règles intangibles. À
l'intérieur des contraintes imposées par les objectifs
d'inflation de moyen et long terme, les banquiers centraux se sont
accordés de grandes latitudes pour répondre aux conditions de
l'emploi, des changes et autres développements de court terme (Landais,
2008).
* 25Il s'agit d'une
part, de déterminer si les autorités monétaires doivent
adopter un comportement accommodant ou agressif envers l'inflation
anticipée ou si ces derniers doivent réagir à une
variation des prix des actifs (Myftari et Rossi, 2010 ; EngoneMvé,
2013).
* 26Pour la Banque
centrale, cette règle définit la conduite optimale à
suivre pour tous les scénarios d'évolution de l'économie
(Gosselin, 2008).
* 27Le principe de
Tinbergen (1952) qui exige qu'il y ait autant d'instrument que
d'objectifs.
* 28La règle
d'affectation de Mundell (1969) stipule que l'on doit pouvoir affecter chaque
instrument à l'objectif pour lequel il est le plus efficace.
* 29La stabilité
financière renvoie tout autant à la stabilité du secteur
bancaire, du crédit (Christiano et al., 2010 ; Agénor et Da
Silva, 2013), du crédit spread (Woodfor et Curdia (2010), à celle
des marchés d'actifs et des prix qui s'y forment, celle des
marchés des changes, des marchés interbancaires, au bon
fonctionnement des systèmes de paiement.
* 30Il est le premier
à avoir mis en évidence le fait que les anticipations des agents
économiques s'adaptent aux politiques économiques menées,
qui en retour doivent elles aussi s'adapter