Chapitre I : Revue de la littérature théorique
et empirique de la détermination du taux de change
d'équilibre
Introduction Générale
L'importante volatilité
observée des taux de change réels pose de manière
récurrente le problème de la détermination d'un niveau de
référence ou d'équilibre. En outre, l'efficacité du
taux de change en tant qu'instrument de la politique économique
dépend fortement de la connaissance de son niveau d'équilibre. En
effet, en l'absence d'une telle référence, les notions de sous ou
surévaluation d'une monnaie par rapport à une autre n'auraient
plus aucun sens. Il apparaît donc primordial de s'intéresser
à la détermination des taux de change d'équilibre. Les
nombreux travaux dans ce domaine
ont pour objet de mettre en évidence une valeur de
référence de long terme, fonction
de variables fondamentales, vers laquelle doit converger
le taux de change réel. Comme le rappelle Cadiou [1999], la notion
d'équilibre envisagée ici provient du fait que les
économies nationales sont au plein emploi et que leur position
extérieure nette
est à un niveau jugé satisfaisant.
La théorie de
référence en termes de détermination du taux
de change d'équilibre est la théorie de la parité des
pouvoirs d'achat. Cependant, même si cette théorie peut
s'avérer utile pour déterminer un niveau de
référence à long terme des taux de change nominaux,
elle apparaît fortement limitée dés lors que l'on raisonne
en termes réels. Cette théorie stipule en effet que le taux de
change réel est constant, ce
qui semble difficilement s'accorder avec les importantes
fluctuations que l'on observe empiriquement. En outre, étant
essentiellement fondée sur la loi du prix unique, la
théorie de la parité des pouvoirs d'achat ignore
toute référence à l'équilibre
macroéconomique. Ces limites nous conduirons à expliciter
l'approche monétaire du taux de change pour en distinguer d'autres
approches alternatives dont l'approche macroéconomique et l'approche
NATREX.
L'approche macroéconomique consiste
à interpréter le taux de change réel comme un
indicateur de la compétitivité globale d'un pays. Nous verrons
que cette approche occupe aujourd'hui une place fondamentale dans les travaux
portant sur ce thème. La deuxième approche a pour objet de
rechercher les fondements
microéconomiques du taux de change.
Chapitre I : Revue de la littérature théorique
et empirique de la détermination du taux de change
d'équilibre
Le premier travail consiste donc à
présenter ces diverses approches du taux de change réel
d'équilibre. Une fois ces théories sont explicitées, nous
avons mené une étude empirique afin d'étudier la
relation entre le taux de change réel et les
fondamentaux. Les méthodes mises en oeuvre font largement appel aux
tests de racines unitaires, à la cointégration. L'idée
est donc d'exhiber une relation de long terme entre
le taux de change réel et les fondamentaux (relation de
cointégration) et d'en expliquer
les déviations entre eux.
Chapitre I - Revue de la litterature théorique et
empirique de la détermination du taux de change d'équilibre
Introduction
L'importante volatilité
observée des taux de change réels pose de manière
récurrente le problème de la détermination d'un niveau de
référence ou d'équilibre. En outre, l'efficacité du
taux de change en tant qu'instrument de la politique économique
dépend fortement de la connaissance de son niveau d'équilibre.
L'objet de ce chapitre est ainsi de
présenter les diverses théories de détermination
du taux de change réel d'équilibre. Face aux insuffisances de la
théorie
de la parité des pouvoirs d'achat, de l'approche
monétaire du taux de change deux nouvelles approches se sont
privilégiées : l'approche macroéconomique et l'approche
NATREX. Le développement de la littérature consacrée
aux taux de change réels
d'équilibre nous conduit ensuite à dresser un
panorama des travaux empiriques.
Section1- Des insuffisances de la parité des
pouvoirs d'achat et l'approche
monétaire du taux de change
Après avoir rappelé
brièvement les principales spécificités de la
théorie de la parité des pouvoirs d'achat, nous mettrons en
avant les insuffisances d'une telle théorie dans la détermination
du taux de change réel d'équilibre. Ces limites nous conduirons
à expliciter l'approche monétaire du taux de change pour
en distinguer d'autres approches alternatives dont l'approche
macroéconomique et l'approche NATREX, que nous présenterons les
grandes lignes.
1.1- Les insuffisances de la parité des pouvoirs
d'achat en tant que théorie
de détermination des taux de change réels
d'équilibre
1.1.1- La parité de pouvoir d'achat
La parité des pouvoirs d'achat1
(PPA) constitue la théorie la plus fréquemment
utilisée pour déterminer les taux de change
d'équilibre. Cette théorie existe en deux formes : la forme
absolue et la forme relative.
La forme absolue de la PPA s'applique
en l'absence de toute entrave au commerce international (barrières
tarifaires, barrières non tarifaires, etc.) en supposant
négligeables les coûts de transaction et d'information. Selon
cette approche, la valeur
du taux de change nominal est déterminée
par le rapport des niveaux de prix entre deux pays. Cette
définition découle de la loi du prix unique selon laquelle le
prix d'un bien échangeable est identique partout, une fois converti dans
une monnaie commune.
La réalisation de cette loi suppose alors que les taux de
change réels bilatéraux sont toujours égaux à
l'unité.
En présence d'entraves au commerce
international, la loi du prix unique ne s'applique plus. Le principe
de la PPA peut alors s'exprimer sous une version dite
1 On rappelle que cette théorie a
été introduit par Cassel en 1916 qui a suggéré de
définir le niveau du taux de change nominal d'équilibre comme le
taux assurant la parité de pouvoir d'achat entre deux monnaies : une
unité monétaire quelconque peut être échangée
contre la même quantité de biens dans son pays d'origine ou dans
tout
autre pays après conversion en monnaie locale.
relative : une variation du taux de change nominal vient
compenser l'écart d'inflation
entre deux pays. Dans ces conditions, le taux de change
réel est constant (mais non nécessairement égal à
l'unité).
1.1.2- Limites de la théorie de la PPA
De façon générale, la
théorie de la PPA souffre de plusieurs inconvénients
majeurs, tant au niveau théorique qu'au niveau empirique, bien qu'elle
puisse être utile pour évaluer les parités de long terme
entre pays à niveau de développement similaire.
Au niveau théorique, le taux de change
réel auquel fait référence la PPA fait abstraction
de toute considération d'équilibre macroéconomique.
En d'autres termes, elle ne permet pas de relier le taux de change
réel à la situation économique d'un pays,
et notamment à sa position extérieure. Au
niveau empirique, les difficultés sont nombreuses. En particulier,
nous avons vu que la PPA suppose la constance du taux de change réel, ce
qui semble difficilement compatible avec les importantes fluctuations
observées des parités réelles. Les partisans de la
PPA ont dès lors mis en avant la validité de cette
théorie, mais uniquement sur le long terme, en raison notamment de
l'existence de diverses rigidités rendant le processus d'ajustement
très lent. Empiriquement, les études ont alors eu pour objet de
tester la stationnarité du taux de change réel. A nouveau,
les résultats sont apparus décevants, même à
long terme. Ainsi, Roll [1979], Adler et Lehmann [1983], Darby [1983]
ou encore Huizinga
[1987] mettent en avant le fait que le taux de change réel
suit une marche aléatoire. D'autres auteurs, comme par exemple Corbae et
Ouliaris [1988], Enders [1988], Taylor
[1988] et Mark [1990], acceptent quant à eux
l'hypothèse d'absence de relation de cointégration2
entre le taux de change nominal et les prix relatifs. Il en
découle donc l'existence d'écarts permanents à la PPA.
Signalons néanmoins, à la suite de Coudert
[1999], que certains travaux ont cherché à
réhabiliter la version relative de la PPA à long terme en
concluant à la stationnarité des taux de change réels d'un
grand nombre
de pays contre le dollar ou contre le mark.
2 On rappelle que deux variables sont dites
cointégrées si elles sont toutes deux non stationnaires
et s'il
est possible de trouver une combinaison linéaire de ces
deux variables qui soit stationnaires.
Ces insuffisances tant au niveau
théorique qu'au niveau empirique liées à la
PPA ont conduit à retirer d'autres approches. Nous
présenterons l'approche monétaire que se soit à prix
flexibles ou à prix rigides.
1.2- L'approche monétaire des taux de change
Comme le taux de change, est par
définition, le prix d'une monnaie locale en termes d'une monnaie
étrangère, il serait nécessaire d'analyser les
déterminants de la demande de ces deux monnaies. D'où la raison
d'être de l'approche monétaire des taux
de change (Frenkel (1976), Kouri (1976) et Mussa (1976,
1979)).
Deux modèles de base dans cette approche
se présentent alors:
· Le modèle monétaire à prix
flexibles.
· Le modèle monétaire à prix
rigides.
1.2.1- Le modèle monétaire à prix
flexibles
1.2.1.1- Fondements
théoriques
Le modèle monétaire à
prix flexibles est basé sur les deux hypothèses de la
continuité de la parité des pouvoirs d'achat (PPA) et de
l'existence de fonctions stables de demande de monnaie dans l'économie
locale et étrangère3 .
Le logarithme de la demande de monnaie
peut dépendre du logarithme du revenu réel (y), du logarithme
du niveau des prix (p), et du niveau du taux d'intérêt (i).
L'équilibre monétaire dans les pays local et étranger peut
être donné par :
mt = pt + á yt - â it (1.1)
mt* = pt* + á* yt* - â* it*
(1.2)
L'équilibre sur le marché des
biens marchands s'établit lorsqu'il n'y a plus
d'opportunités d'arbitrages. Autrement dit, si la PPA est
vérifiée, il s'ensuit que:
3 Ronald MACDONALD and Mark.P. TAYLOR :
«exchange rate economics : a survey», IMF staff papers, vol
39, n° 1, (march 1992).
et = pt* - pt
(1.3)
Où et désigne le
logarithme du taux de change nominal.
Par ailleurs, les niveaux des prix
étrangers, déterminés par la demande
étrangère de monnaie, constituent des variables
exogènes à l'économie locale. En outre, les niveaux
des pris locaux sont déterminés par la demande domestique
de monnaie. Dans ces conditions, le taux de change serait
gouverné par les demandes relatives de monnaies.
Formellement, en substituant les
équations (1.1) et (1.2) dans la relation (1.3)
et en réarrangeant les termes, nous aurons
l'équation de base du modèle monétaire en situation de
flexibilité des prix formulée ainsi:
et = (mt - mt*) - á yt + á* yt* + â it -
â* it* (1.4)
La relation (1.4) stipule qu'un excès
dans l'accroissement de demande locale de monnaie par rapport à la
demande étrangère entraîne une augmentation de et,
signalant ainsi, la détérioration de la valeur de la monnaie
locale en terme de son homologue étrangère.
1.2.1.2- Limites et formulations
alternatives
Le raisonnement préconisé par
le modèle monétaire à prix flexibles semble être
assez intuitif. En fait, toutes choses étant égales par ailleurs,
une augmentation de la production locale entraîne souvent une
appréciation de la monnaie locale (et baisse).
De même, une augmentation des taux d'intérêt
locaux engendre une dépréciation de la
monnaie locale (et augmente).
Pour connaître l'effet réel, il
faut reconnaître le rôle fondamental de la demande relative de
monnaie dans le modèle à prix flexibles.
A cet égard, un accroissement du revenu
réel local crée un excès de demande de
monnaie locale. Les agents vont essayer alors
d'accroître leurs stocks de monnaie en réduisant leurs
dépenses. Les prix, à leur tour, baisseront jusqu'à
ce que le marché monétaire soit en équilibre. Ce
faisant, la PPA entraîne une appréciation de la monnaie locale en
termes de monnaie étrangère.
Une analyse exactement inverse explique
la réaction du taux de change aux variations des taux
d'intérêt: un accroissement des taux d'intérêt
réduit la demande de monnaie et mène à une
dépréciation de sa valeur.
Eu égard à ces
développements, il semble fort nécessaire de
réécrire l'équation
de base du modèle monétaire sous deux formulations
alternatives et équivalentes.
Supposons que les coefficients de demande
de monnaie locale et étrangère soient égaux (á=
á* et â = â*), l'équation (1.4) sera réduite
à :
et = (mt - mt*) - á (yt - yt*) + â (it - it*)
(1.5)
D'autre part, le modèle
monétaire à prix flexibles suppose que l'hypothèse
parité des taux d'intérêt (PTI) soit
vérifiée4 , c'est-à-dire que le
différentiel de taux d'intérêt doit égaler le taux
anticipé de dépréciation ou d'appréciation de la
monnaie locale.
Si nous désignons par « a » les
anticipations des agents formulées à l'instant t.
t+1
alors en substituant (it -it*) par ?ea
dans l'équation (1.5), nous trouvons:
t+1
et = (mt - mt*) -
á (yt - yt*) + â ?ea
(1.6)
4 Mark.P. TAYLOR : « the economics of exchange
rates », journal of economics literature, vol XXXIII ( march
1995), pp 13-47.
Ainsi, les variations anticipées du
taux de change et du différentiel de taux
d'intérêt (qui reflètent les anticipations
inflationnistes), sont interchangeables dans le modèle.
Certains chercheurs ont relâché la contrainte
d'égalité des élasticités du revenu et du
taux d'intérêt. Il en résulte que:
t+1
et = (mt - mt*) -
á yt + á* yt* + â ?ea
(1.7)
Notons que l'équation (1.7) peut
être réécrite comme suit :
t+1
et = (1+â)-1 (mt -
mt*) - á(1+â)-1 yt +
á*(1+â)-1 yt* + â (1+â)-1 ?ea
(1.8)
En supposant que les anticipations sont
rationnelles, et en procédant par
itérations, l'équation (1.8) peut être
formulée comme suit:
t+i
- á y
et = (1+â)-1 [â
/(1+â)]i [ (mt - mt*)a
a
t+i
t+i
+ á* ya
* ] (1.9)
Bien entendu, les anticipations rationnelles
5 sont conditionnées par
l'information disponible à l'instant t.
Dès lors que tous les modèles
adoptent 1'hypothèse des anticipations rationnelles, la présence
du facteur d'actualisation [â / (1 + â)] < 1
dans l'équation
(1.9) n'exige pas une actualisation à l'infini tant
que les variables sont supposées s'accroître à un taux
inférieur à (1/ â).
Dès lors, étant donnée
les ajustements des taux de change afin d'équilibrer l'offre et
la demande sur le marché de change et en supposant l'équilibre
sur le marché
des biens (à travers des prix parfaitement
flexibles)6 et sur le marché de travail (à
5 La première application de la
théorie des anticipations rationnelles aux taux de change
revient à F. Black
(1973).
6 En effet, une économie
macroéconomique ouverte est caractérisée par six
marchés : marchés de biens, de travail, de change,
obligations domestiques, obligations étrangères et le
marché monétaire. Mais le modèle
monétaire à prix flexibles est
concentré sur les conditions d'équilibre d'un seul type
de marché : le marché monétaire. En supposant la
parfaite substitution des actifs domestiques et étrangers, les
marchés d'obligations
domestiques et étrangers deviennent un seul
marché.
travers des salaires flexibles), l'équation du
système total est déterminée donc par les
conditions d'équilibre du marché
monétaire. Le modèle monétaire à prix
flexibles
est donc implicitement un modèle d'équilibre
général « market clearing general equilibrium model
» sous lequel la PPA est toujours vérifiée.
La volatilité élevée
du taux de change réel durant les années 70 du
régime flottant rejette l'hypothèse de continuité de la
parité des pouvoirs d'achat et induit le modèle monétaire
à prix rigides de Dornbusch et Frenkel.
1.2.2- Le modèle monétaire en présence
de rigidité de prix
Le problème majeur de l'approche
monétaire en présence de flexibilité des prix
réside dans la vérification de 1'hypothèse de la PPA.
En effet, sous cette hypothèse, le
taux de change réel ne peut, par définition, changer.
Toutefois, les premières
expériences des régimes de change flottants ont montré une
forte volatilité des taux de change réels entraînant des
fluctuations des niveaux de compétitivité (Dornbusch, 1976)
7 . Ainsi, l'approche monétaire à prix flexibles
ne reflète pas convenablement l'effet réel et c'est ainsi que
l'on a assisté avec Dornbusch (1976) (qui introduit une dynamique
dans le modèle monétaire) au développement
d'une deuxième génération de modèles
monétaires à prix rigides.
1.2.2.1- Fondements
théoriques
Le modèle monétaire à prix
rigides suppose la possibilité de déviations des taux
de change nominaux et réels de leurs niveaux
d'équilibre de long terme, gouvernés par
la PPA.
7 Dornbush. R. (1976) : « exceptations and
exchange rate dynamics», journal of political economy, vol 84, pp
1161-1176.
Il traite fondamentalement, des conditions
d'équilibre sur le marché monétaire
sous 1'hypothèse de parfaite substitution entre les
actifs monétaires locaux et étrangers. L'idée intuitive
sous-jacente à la déviation de ce modèle peut
être illustrée par l'exemple suivant:
Supposons une baisse de l'offre nominale de
monnaie. A court terme, la rigidité des prix implique une baisse de
l'offre réelle de monnaie et par suite un accroissement des taux
d'intérêt. Cette hausse des taux va stimuler l'entrée de
capitaux conduisant à une appréciation du taux de
change nominal qui, à son tour, entraînera une
appréciation du taux de change réel.
Dans de telle situation, les investisseurs
étrangers vont faire baisser les produits
de leurs investissements à l'étranger.
Toutefois, au fur et à mesure que la perte de change
anticipée (taux de dépréciation anticipé) soit
inférieure au différentiel de rendement des capitaux
(c'est-à-dire le différentiel de taux d'intérêt),
les investisseurs averses au risque vont continuer à acheter des
actifs étrangers. L'équilibre de court terme est atteint
lorsque le taux de dépréciation anticipée égalise
le différentiel de taux d'intérêt (la PTI est
vérifié). Dès lors que ces deux variables sont
différents de zéro. Le taux de change va dévier de sa
valeur d'équilibre de long terme, donnée par la PPA. Toutefois,
à moyen terme, les prix locaux vont baisser
Suite à une réduction de l'offre
de monnaie entraînant ainsi une baisse de l'offre réelle de
monnaie et donc du taux d'intérêt local: Le taux de change nominal
réagira à
ces perturbations en se dépréciant
lentement pour converger vers son niveau d'équilibre de long
terme, défini par la PPA.
Il est à noter que l'approche
monétaire de Dornbusch (1976) a été fortement
critiquée par Frenkel (1979) qui a expliqué la faiblesse du
modèle par sa négligence des effets temporels de l'inflation.
1.2.2.2- Présentation du
modèle
Nous adoptons ici la représentation
proposée par Frenkel (1979)8 et reprise par
Meese et Rogoff (1983), qui permet de relier le taux de change
réel à l'écart de taux d'intérêt réel.
L'hypothèse de départ est que la PPA n'est valide que sur longue
période:
e = p - p *
(1.10)
Où:
p et p * les logarithmes des prix domestiques et étrangers
;
e Le logarithme du taux de change à long terme.
Ou bien:
e = (m - m*
) - á ( y - y * ) +
â ( i - i * )
(1.11)
Où les variables représentées avec une
barre sont les variables d'équilibre de long terme.
Le taux de dépréciation anticipée du change
est spécifié de la façon suivante:
t
t
Et( ? et+1) = - ö ( et
- et ) + ( Ïa
- Ïa *) 0< ö<1
(1.12)
Où:
? et = et+1 - et
t
Et est l'espérance mathématique conditionnelle
à l'information disponible en t; Ïa
t
et Ïa * désignent les anticipations
d'inflation à long terme. Enfin. 1'hypothèse de la PTINC
s'écrit:
it -it* = Et (? et+1) (1.13)
En combinant les équations (1.12) et (1.13), on
obtient:
et - et
= - (1/ ö) (it -it*) + (1/ ö) ( Ïa
- Ïa *) = - (1/ ö) ( r - r *)
(1.14)
t t t t
Où
t
rt = it - Ïa
est le taux d'intérêt réel ex-ante.
8 Jeffery. A. FRANKEL : « on the mark : a theory
of floating exchange rates based on real interest differentials», American
economic review, 1979, vol 69, pp 610-622.
En intégrant les équations
(1.10) et (1.14) et en supposant que la meilleure
estimation du niveau d'équilibre des prix, de l'offre
de monnaie, du revenu et des taux d'intérêt sont les niveaux
observés (hypothèse de marche aléatoire), on obtient les
deux représentations suivantes, en notant Rt = et -pt + pt*, le taux
de change réel:
et = pt - pt* - (1 /
ö) (rt - rt*) (1.15)
Et par suite
Rt = -(1 / ö) (rt - rt*)
Le modèle monétaire à prix
rigides se présente comme suit:
et = (mt - mt*) - á (yt - yt *) + â (it - it*)
- (1 / ö) (rt - rt*) (1.16)
La relation (1.15) constitue une
représentation plus générale que la PPA (que l'on
retrouve quand ö ? , c'est-à-dire quand le taux de
change, donc les prix, s'ajustent instantanément à leur
niveau de long terme), mais conserve une forme
aisément testable.
D'une manière analogue, la
spécification (1.16) propose une représentation plus
générale que la spécification du
modèle monétaire à prix flexibles (1.5). Ce
point
est important même dans le cadre d'une analyse des
déterminants de long terme du taux de change.
D'un point de vue théorique, en effet,
les deux modèles doivent être équivalent à long
terme puisque, à cet horizon, les prix s'ajustent pour assurer
l'équilibre entre offre
et demande de biens. Cette notion de long terme n'est
toutefois pas très précise et il n'est pas sûr, en tous
cas, qu'elle corresponde au long terme défini dans le cadre d'une
relation de cointégration. En effet, autant d'un point de vue
théorique l'écart de taux d'intérêt réels
est stationnaire (puisqu'il est, d'après la PTINC, égal
aux taux de dépréciation du change réel), autant
empiriquement les écarts de taux d'intérêt
réels apparaissent souvent non stationnaires.
Les deux modèles monétaires ont
alors des implications différentes en termes
de relation de long terme : d'après le modèle
à prix flexibles, taux de change et écart de prix doivent
être cointégrés ; d'après le modèle à
prix rigides il faut ajouter l'écart de taux d'intérêt
réels pour que la relation soit stationnaire.
1.2.3- Limites et insuffisances des modèles
monétaires
L'échec empirique qui a
caractérisé le modèle monétaire est
attribué à de nombreuses défaillances tant au niveau
théorique qu'au niveau empirique.
Lane (1991) a énuméré
six raisons pouvant expliquer l'échec, apparent, du modèle
monétaire. Elles se résument comme suit:
9 Le manque de fiabilité inhérente aux estimations
des fonctions de demande de monnaie ;
9 L'hypothèse d'égalité des
paramètres caractérisant les fonctions de demande de monnaie,
dans les deux pays ;
9 L'hypothèse de stationnarité du taux de change
réel découlant de l'hypothèse
de la PP A ;
9 L'hypothèse de la parité de taux
d'intérêt couverte (PTIC) impliquant soit la neutralité
à l'égard du risque soit la diversification parfaite du
risque de change ;
9 L'hypothèse d'exogénéité de
la fonction d'offre de monnaie écartant la
possibilité d'un effet retour (Feed-back) ; et
9 La possibilité de bulles spéculatives qui,
en étant présentes contribuent à l'échec
empirique du modèle monétaire. En fait, il serait
extrêmement difficile
de distinguer ces bulles des variables omises ou des erreurs de
spécification ;
Pour contourner ces insuffisances, plusieurs
versions correctives et extensives ont été mises au point.
Dans la suite, nous nous proposons d'examiner
quelques unes de ces tentatives.
Les modèles examinés sont celles du
modèle FEER appelé aussi l'approche macroéconomique
et le modèle NATREX.
Section 2- Les nouvelles approches
2.1- L'approche macroéconomique
Le taux de change réel
d'équilibre selon l'approche macroéconomique, nommé taux
de change d'équilibre fondamental9, est alors
défini comme le taux de change assurant simultanément la
réalisation de l'équilibre interne (l'économie se
trouve sur
son sentier de croissance potentielle ou
soutenable10) et de l'équilibre externe (son
compte courant est soutenable à long terme).
2.1.1- Détermination graphique du taux de change
d'équilibre fondamental
Si l'on suppose que la condition de
Marshall-Lerner 11 est vérifiée, alors la
relation entre le taux de change réel et l'équilibre
externe est claire : en cas de dépréciation du change
réel, le solde de la balance courante s'améliore.
L'équilibre externe est donc défini par
l'égalité du compte courant à une valeur
d'équilibre généralement reliée à la
soutenabilité des paiements extérieurs. Plus
précisément, pour maintenir la balance courante à son
niveau soutenable, toute baisse des exportations induite par une
appréciation réelle du change devra être
compensée par une baisse équivalente des importations, ce
qui implique dès lors une baisse de la production. Ainsi, dans
le plan (PIB, change réel), la pente de la droite
d'équilibre externe
est positive : elle indique les combinaisons du change
réel et de l'activité pour
9 C'est Williamson [1985, 1994] en cherchant à
expliquer les insuffisances de la PPA par l'absence de référence
aux déterminants réels des taux de change qui a introduit la
notion de taux de change d'équilibre fondamental
(Fundamental Equilibrium Exchange Rate, FEER).
10 On rappelle que le sentier de croissance
potentielle ou soutenable est tel qu'il n'engendre pas de tensions sur le
système productif.
11 Cette condition définit la relation sur les
élasticités-prix du commerce extérieur qui permet à
une dépréciation
du change d'engendrer à terme un excédent
commercial pour le pays considéré.
lesquelles le compte courant est à un niveau
prédéterminé, qualifié d'équilibre. Cette
droite décrit donc l'influence du change réel sur
le bloc de demande du modèle.
Comme le soulignent Borowski et al.
[1998a], l'endogénéisation de l'équilibre interne12
est plus problématique. Ainsi, de façon
générale, si l'on n'endogénéise pas
l'équilibre interne, ce dernier coïncide avec la
réalisation d'un niveau potentiel ou soutenable de production. En
conséquence, dans le plan (PIB, change réel), l'équilibre
interne est représenté par une courbe verticale, constituant la
courbe d'offre du modèle, indiquant le niveau potentiel
d'activité. Dans ce cadre d'analyse, le taux de change réel
d'équilibre est alors la valeur du change réel qui permet
d'obtenir une cible donnée de compte courant, sachant que
l'activité domestique et l'activité étrangère
sont à leur niveau d'équilibre de moyen terme. Dans ces
conditions, la détermination du taux de
change réel d'équilibre peut être
représentée comme suit :
Taux de change réel
équilibre interne équilibre externe
R*
Y* PIB domestique
Figure 5. Détermination du taux de change
réel d'équilibre
(cas où l'équilibre est
exogène)
Cette détermination graphique du
taux de change réel d'équilibre étant
présentée, intéressons nous à présent
à sa détermination analytique13.
12 Ceci revient à considérer
l'écriture d'une boucle prix-salaires non pas en niveau, mais en taux de
croissance
13 Nous reprenons ici, en raison de sa clarté,
la formulation proposée par Joly et al. [1996].
2.1.2- Détermination analytique du taux de change
d'équilibre fondamental
En vertu des développements
précédents, le taux de change réel
d'équilibre
est donc la valeur du change réel assurant une cible
donnée de compte courant, sachant que l'équilibre interne est
réalisée. Il est possible d'écrire le compte
courant (Cc) comme une fonction du PIB domestique (Y), du PIB étranger
(Y*), du change réel (R)
et d'un ensemble de diverses variables exogènes (Z) :
Cc =
f (Y , Y * , R,
Z )
(1.17)
Le taux de change réel d'équilibre, noté,
Rà est alors simplement défini par :
Cà =
f (Yà ,
Yà * , Rà , Z
)
(1.18)
où Cc, Y et Y* représentent
respectivement les valeurs d'équilibre du compte courant,
du PIB domestique et du PIB étranger.
Comme le rappellent Joly et al.
[1996], deux difficultés apparaissent ici. En premier lieu la
forme de la fonction f est difficile à évaluer.
En second lieu, les variables exogènes Z ne sont pas
aisément identifiables. Pour pallier ces deux
difficultés, on log-linéarise le modèle :
(1.19)
c
c
C - Cà =
f (Y ,Y * , R,
Z )- f
(Yà,Yà * ,
Rà , Z )
Soit encore :
*
Cc
= - Y + * Y
+ R
(1.20)
Y Y Y * R
, *
et étant des paramètres liés aux
élasticités du bloc du commerce extérieur
et X = X - Xà
donné par :
. L'écart relatif du taux de change réel
à sa valeur d'équilibre est donc
R =
1 Cc
+ OG - *OG *
(1.21)
R Y
Où OG et OG* désignent respectivement les
output gaps
Finalement, on peut donc écrire :
c
R-Rà = 1
C s
-Càc
domestique et étranger.
(1.22)
R Y
c
Où C s désigne le compte
courant structurel défini par :
C
s
c = Cc
Y Y
+ OG - *OG *
(1.23)
Il ressort donc de ces brefs
développements que l'écart relatif du change réel
à
sa valeur d'équilibre est fonction de
l'écart, en part du PIB domestique, du compte courant structurel
à sa valeur d'équilibre. Ainsi, un compte courant structurel
inférieur
à sa valeur d'équilibre correspond à une
surévaluation du taux de change par rapport à
sa valeur d'équilibre. Il reste maintenant à
déterminer précisément la valeur de cette cible de compte
courant.
2.1.3- Les difficultés de définition des
cibles
Au regard des développements figurant
dans les deux paragraphes précédents,
on constate que le calcul des taux de change
d'équilibre fondamentaux nécessite de connaître deux
éléments :
· L'écart entre la production
réalisée et la production potentielle (l'équilibre
interne) ; et
· L'écart entre le solde courant observé et le
solde courant soutenable (l'équilibre externe).
Cependant, la définition de ces deux
cibles, ou niveaux de référence, pose un
certain
nombre
de problèmes et ne fait pas l'unanimité
(voir notamment Borowski
et al. [1998b]). Pour cette raison, l'approche
de Williamson est souvent qualifiée de normative dans la mesure
où le niveau des taux de change d'équilibre est conditionnel aux
hypothèses retenues. C'est pourquoi Artis et Taylor [1993] et
Bayoumi et al.
[1994] préfèrent parler de taux de change
d'équilibre désiré (Desired Equilibrium
Exchange Rates, DEER) plutôt que de taux de change
d'équilibre fondamental.
Joly et al. [1999] insistent ainsi
particulièrement sur le problème de la
définition des cibles de compte courant et
suggèrent plusieurs possibilités 14 . Une
première possibilité consiste à n'autoriser
aucun écart du solde courant par rapport à
l'équilibre pour chacune des périodes
considérées. Néanmoins, comme le soulignent
les auteurs, cet objectif n'est pas efficace dans la mesure
où un pays peut avoir intérêt à tirer profit
d'importations ou d'exportations de capital sur une longue
période. En outre, Williamson [1994] indique que cette
définition n'est pertinente que si l'on s'intéresse
à la détermination d'un équilibre de très
long terme. Il semble donc préférable de chercher à
définir des déséquilibres soutenables plutôt
que d'éliminer automatiquement toute éventualité de
déséquilibre. Même si l'intérêt d'une
telle approche ne fait pas de doute, sa mise en oeuvre est délicate dans
la mesure où peu de théories permettent de quantifier ces
déséquilibres (voir notamment Joly et al. [1999]).
Williamson [1994], faisant appel aux théories du cycle d'endettement et
du cycle de vie, suggère de relier la cible de la balance
courante à la position extérieure nette, compatible avec
le cycle d'endettement et les caractéristiques
démographiques du pays. Cependant, comme Williamson lui même le
souligne, cette approche présente le risque, pour certains pays, de
conduire à des niveaux de déficit courant qui ne sont pas
soutenables à moyen terme. Le recours à la théorie du
cycle de vie autorise également
à effectuer une distinction entre les pays ayant des taux
d'épargne privée plus élevés que d'autres. Enfin,
dans la mesure où l'évolution des finances publiques a un
impact
sur le compte courant à moyen terme, il convient
également de tenir compte des mesures de politique budgétaire
afin d'évaluer la cible de compte courant.
Comme le notent très justement Joly
et al. [1996], ces théories ne permettent pas de
définir de façon précise un niveau de compte
courant d'équilibre. Joly et al.
[1999] suggèrent alors de rattacher le taux de change
réel d'équilibre à la contrainte budgétaire inter
temporelle de la nation en générant un profil de compte courant
qui
permette de rembourser la dette extérieure en un nombre
donné de périodes. Une telle
14 Cadiou [1999] souligne en outre que le choix des
élasticités du commerce extérieur est également
fondamental dans la
mesure où l'élasticité revenue influence
l'évolution du solde commercial lorsque l'économie rejoint sa
production potentielle. Elle détermine l'écart entre la balance
commerciale de plein emploi et sa cible. Les élasticités prix ont
alors pour objet de déterminer l'ampleur de l'ajustement du taux de
change réel permettant d'annuler cet écart.
technique permet ainsi de tenir compte des
déséquilibres extérieurs tant courants que
passés. Une dernière possibilité, moins
restrictive, consiste à stabiliser le stock de la dette en part de PIB.
Cette règle consistant donc à stabiliser le ratio de la dette sur
le PIB à un niveau donné a été retenue par
Williamson et permet de définir un niveau soutenable de déficit
courant pouvant continuer à être financé par des
entrées de capitaux.
2.1.4- Endogénéisation de l'équilibre
interne
Nous avons précédemment
présenté l'approche macroéconomique de base dans
laquelle l'équilibre interne était supposé
exogène. Nous nous proposons à présent de
lever cette hypothèse.
L'endogénéisation de
l'équilibre interne est relativement complexe et repose sur
l'écriture d'une boucle prix salaires en niveau dont l'une
des caractéristiques est de faire
dépendre le chômage d'équilibre du niveau
des variables susceptibles d'engendrer des tensions inflationnistes (coin
fiscal15, taux de remplacement, ...). L'équation de prix se
résume alors à l'application d'un taux de marge sur les
coûts salariaux unitaires. Quant
à l'équation de salaire, elle est telle que les
entreprises fixent le niveau de l'emploi une fois déterminé le
montant du salaire (modèle de "droit à gérer"). Dans ce
cadre, l'un des déterminants fondamentaux du taux de chômage
d'équilibre est constitué des termes de l'échange
intérieurs. On peut alors montrer (voir Borowski et al.
[1998]) Qu'il existe une relation inverse entre le taux de change effectif
réel et la production potentielle qui transite par le marché du
travail. En effet, si le change réel se déprécie,
il s'ensuit naturellement une hausse des prix domestiques
que doivent se partager firmes et salariés. Si les salariés
refusent de supporter cette
Augmentation - qui induit naturellement une baisse de leur
pouvoir d'achat - les firmes sont alors contraintes de réduire le volume
de l'emploi en raison de la hausse du coût réel du travail. Il en
résulte une hausse du taux de chômage d'équilibre et une
baisse du
niveau de la production potentielle.
15 On rappelle que le coin fiscal est défini
par l'écart entre le coût réel du travail payé par
l'employeur et le pouvoir d'achat d'un salarié.
Certains auteurs, tels que Barrell [1993]
mettent cependant en avant un certain
nombre d'arguments allant à l'encontre de
l'endogénéisation de l'équilibre interne. Il souligne
en particulier que si l'offre de travail est inélastique
à long terme, le coin fiscal ne conserve aucun impact durable sur le
niveau du chômage. Ainsi, l'impact du taux de change effectif sur le
chômage d'équilibre mis en évidence empiriquement ne serait
en réalité qu'une importante rigidité nominale des
salaires. Comme le soulignent Borowski et al. [1998], la
discussion relative à la nécessité
d'endogénéiser ou non l'équilibre interne reflète
l'ambiguïté attachée au taux de change d'équilibre
fondamental au sens où il s'agit d'un concept de "moyen terme".
Joly et al. [1998] ont
cependant proposé une extension de l'approche
macroéconomique 16 en prenant en compte les effets
du taux de change réel sur l'équilibre interne, et en
particulier sur le taux de chômage : les auteurs suggèrent ainsi
d'endogénéiser le bloc d'offre habituellement supposé
rigide à court terme. Il est alors possible de définir un
équilibre macroéconomique déterminant simultanément
le taux
de change réel et l'offre potentielle. La
définition du taux de change réel d'équilibre ne change
pas : il s'agit toujours de la valeur du change réel assurant
la réalisation simultanée des équilibres interne et
externe. L'équilibre externe n'est pas modifié par rapport
à la définition précédemment donnée.
Cependant, l'équilibre interne n'est plus indépendant du change
réel et la confrontation des deux courbes permet alors de
déterminer non seulement le change réel d'équilibre mais
également le niveau potentiel
du PIB. La courbe de l'équilibre interne est
décroissante dans la mesure où une
dépréciation du change réel augmente le chômage
d'équilibre et a impact négatif sur l'offre potentielle. Ainsi
que le rappellent Joly et al. [1998] ceci repose sur le fait que
les salaires nominaux s'indexent sur les prix à la
consommation et non pas sur les prix
à la production. Le mécanisme est alors le
suivant. Une dépréciation du change réel engendre une
augmentation des prix à la consommation relativement aux prix
à la production, entraînant par la même une augmentation du
coût nominal du travail par
rapport aux prix de production. Le coût réel
du travail est alors augmenté, ce qui
16 On pourra également se reporter
à Cadiou [1999] pour une brève revue de la
littérature sur l'endogénéisation du bloc d'offre du
modèle.
implique naturellement une baisse de la demande de travail de la
part des entreprises
et donc une hausse du chômage. Graphiquement, on a donc la
représentation suivante :
Taux de change réel
équilibre interne équilibre externe
R*
Y* PIB domestique
Figure 6. Détermination du taux de change
réel d'équilibre
(Cas où l'équilibre est
endogène)
Il est possible, à la suite de Joly
et al. [1998], de transposer cette représentation
dans le plan (taux de chômage, taux de change réel).
En effet, les effets de demande
intervenant dans la relation entre le taux de chômage et le
taux de change réel sont tels
qu'une dépréciation du change stimule les
exportations et engendre une baisse du chômage. Les effets d'offre
sont tels qu'une dépréciation du change réel
détériore les termes de l'échange et conduit les
entreprises à diminuer leur demande de travail
et donc à accroître le chômage. On a alors la
représentation graphique suivante :
Taux de change réel
demande offre
R*
u* Taux de chômage
Figure 7.taux de change réel
d'équilibre dans le plan
(Taux de chômage, taux de change
réel)
Après avoir mis en avant que l'essentiel
du chômage en France est un chômage
de type structurel (par opposition à conjoncturel), Joly
et al. [1998] soulignent que le
lien entre le taux de change réel et le chômage
doit être initialement appréhendé par le biais des effets
d'offre conditionnant le chômage structurel. Ainsi, sur le
marché du travail, une dépréciation du change réel
a pour effet d'augmenter le niveau de chômage d'équilibre, et non
pas de le faire diminuer eu égard au traditionnel effet
keynésien. Joly et al. [1998] notent cependant, en
faisant référence au coin salarial et à la
dégradation des termes de l'échange, que le problème du
chômage en France ne relève pas d'un éventuel
mésalignement du change réel, mais plutôt des
rigidités spécifiques
au marché du travail. En conséquence, la
solution au problème du chômage en France passe par des
politiques structurelles d'amélioration du fonctionnement du
marché du travail.
Globalement, le fait
d'endogénéiser l'équilibre interne ne modifie pas
les principaux résultats obtenus lorsque celui-ci était
exogène. Néanmoins, cette
endogénéisation permet de tenir compte de
l'ensemble des déterminants potentiels du chômage
d'équilibre. Comme le montrent Joly et al. [1996], toute
variable susceptible d'accroître le chômage d'équilibre
(coin fiscal, fiscalité indirecte, taux d'intérêt
réel, ...) peut engendrer une augmentation du taux de change
réel et par là même limiter la hausse du
chômage d'équilibre. Inversement, les déterminants du
chômage d'équilibre peuvent être enrichis par la prise en
compte de l'équilibre externe. Joly et al. [1996] prennent
ainsi l'exemple de l'impact d'un choc pétrolier sur un pays
importateur de pétrole. L'augmentation des prix du pétrole a
pour conséquence une dépréciation du change réel,
en supposant donnés la cible de compte courant et l'équilibre
interne. La courbe décrivant l'équilibre externe se
déplace alors vers le haut indiquant une
dépréciation du change réel et une augmentation du
chômage d'équilibre.
2.2- L'approche NATREX (Natural Real Exchange Rate)
Si l'approche FEER reste assez répandue
au sein des organisations
internationales et des instituts de recherche appliquée,
le NATREX de Stein, ainsi que
d'autres modèles assez proches tels que le BEER
(Behavioral Equilibrium Exchange
Rate) de Clark et MacDonald (1998), se sont
récemment imposés dans la littérature
académique. Ceci tient à la fois à des raisons
d'ordre théorique et empirique. Les
principales caractéristiques du modèle NATREX sont
détaillées dans l'encadré 1.
Encadré 1 : Equations du modèle NATREX
dans le cas d'un petit pays
Soit une petite économie ouverte. Elle ne peut
influencer le taux d'intérêt mondial, de
sorte que celui-ci est exogène. Le modèle NATREX
s'écrit alors, de façon synthétique :
r = r* : à moyen terme, le taux d'intérêt
réel est égal au taux d'intérêt réel
mondial
Y = y - rF : le PNB est la somme du PIB et des revenus de
facteurs (positifs si F < 0 par convention)
y = C + I + B : le PIB est la somme de la consommation, de
l'investissement et de la balance commerciale
C = cY - c'F : la consommation dépend positivement du
revenu (PNB) et négativement
de la dette extérieure
dk / dt = I (r, k, ä) / L : l'investissement par
tête dépend négativement du taux d'intérêt
réel et de l'intensité capitalistique, et positivement du
progrès technique
-dF / dt=BC (Q)=B- r*F=S-I : la variation de la position
extérieure nette est égale au solde de la balance courante
(somme de la balance commerciale et de la balance des revenus de
facteurs), lui-même comptablement égal à l'écart
entre épargne
et investissement.
Les variables exogènes sont r* : le taux
d'intérêt réel mondial, c : la propension marginale
à consommer (appelée «préférence pour le
présent»), ä: le progrès technique,
L : la population. Les variables endogènes sont Q:
le TCR, r : le taux d'intérêt réel national, y : le
PIB, Y : le PNB, C : la consommation (privée et publique), S :
l'épargne,
I : l'investissement, k : le capital par tête, F
: la dette extérieure nette (ou les actifs extérieurs nets
si F < 0), B : le solde commercial, BC : le solde courant.
La solution du modèle est le NATREX de moyen
terme Q [MT]. La solution de long terme est le NATREX de long terme Q
[LT], défini par Q [LT] = {Q [MT], dk / dt = 0,
dF / dt = 0}.
Les flux de capitaux ne sont pas
fixés de manière exogène. Ils résultent
directement des comportements d'épargne et
d'investissement, qui dépendent eux- mêmes de
déterminants explicites. En ce sens, par rapport à
l'approche FEER, le NATREX fait davantage le lien entre
l'évolution du TCR et les comportements microéconomiques
des agents. Outre le taux d'intérêt mondial, exogène
dans le cas d'un petit pays17, il existe principalement
deux fondamentaux 18 qui influencent les flux de capitaux et,
in fine, le taux de change d'équilibre. Le premier est le taux de
consommation ou "préférence pour le présent", qui
désigne la propension des ménages
et du gouvernement à consommer le revenu national. Par
exemple, lorsqu'une hausse des dépenses publiques n'est pas
compensée par une réduction de celles des ménages,
le taux de consommation s'accroît : ceci entraîne
une diminution de l'épargne soit, à investissement
inchangé, une augmentation des flux de capitaux entrants. Le
deuxième facteur fondamental est le progrès technique, dont
l'accroissement élève le niveau d'investissement : ici
encore, à épargne inchangée, il s'en suit une
amélioration du solde de la balance des capitaux.
Le modèle théorique se
fonde sur un lien de causalité comparable à celui
existant dans le FEER: les déterminants «structurels» de
l'épargne et de l'investissement engendrent un solde des flux de
capitaux de moyen terme ; ce dernier
détermine le solde de la balance courante
ex-post, qui est atteint par le biais d'un
ajustement du change réel. Au total, le TCR
d'équilibre est donc fonction des deux principaux
déterminants de l'épargne et de l'investissement, à
savoir la propension marginale à consommer ("préférence
pour le présent") et le progrès technique.
Les enseignements du modèle NATREX
peuvent différer selon l'horizon d'analyse retenu. Le NATREX est
un modèle dynamique. Du fait notamment des effets de
l'évolution de la position extérieure nette sur
l'épargne et sur le solde des
revenus de facteurs, le taux de change d'équilibre
évolue en effet au fil du temps. Sa
17 Mais endogène dans le cas de
vastes zones telles que les Etats-Unis ou la zone euro, dont le
poids dans l'économie mondiale est suffisant pour que leurs
comportements d'épargne et d'investissement influencent le taux
d'intérêt mondial.
18 Un troisième, les termes de
l'échange, est également susceptible d'être
intégré dans le modèle.
dynamique ne prend fin que lorsque la position extérieure
nette se stabilise, c'est-à-
dire lorsque le solde courant est nul : on atteint alors
l'équilibre de long terme, stable, déterminé par les deux
fondamentaux que sont le taux de consommation et le progrès technique.
Par conséquent, les enseignements du modèle peuvent
différer selon qu'on
se place à un horizon de moyen ou de long terme.
Il est possible d'illustrer cette distinction en examinant par exemple
l'impact d'une hausse du taux de consommation
sur le change d'équilibre. A investissement
inchangé, la baisse induite de l'épargne nationale fait monter le
taux d'intérêt réel national.
Ceci attire les capitaux et fait monter le
TCR, jusqu'à ce que le taux d'intérêt réel soit
à nouveau égal au taux d'intérêt réel
mondial. La hausse du TCR dégrade la balance courante, qui contrebalance
ex-post le nouveau solde des flux de capitaux. A
moyen terme, les effets d'une hausse du taux de consommation sont
donc les suivants :
entrées
de capitaux, appréciation du TCR, dégradation
du solde courant. Le TCR
d'équilibre précédent n'est toutefois pas
soutenable à long terme, car il entraînerait un accroissement
perpétuel de la dette extérieure. C'est pourquoi le modèle
impose que celle-ci se stabilise à long terme. Le
mécanisme par lequel cette stabilisation va intervenir repose sur
un "effet de richesse" (ici négatif) : à mesure que la
dette extérieure s'accroît, la richesse nette des ménages
et du gouvernement décline, ce qui
les incite à réduire leur consommation. A mesure
que l'épargne augmente, les capitaux sortent, ce qui
déprécie le TCR et redresse progressivement le solde
courant. Ce processus se poursuit jusqu'à ce que les flux de capitaux
et le solde courant deviennent nuls. La dépréciation du TCR va
plus que compenser son appréciation initiale, pour la raison suivante
: avec une dette extérieure plus forte qu'initialement, les
paiements d'intérêts sont supérieurs à ce qu'ils
étaient au départ, de sorte qu'un solde courant nul
ne peut être obtenu que moyennant un redressement du
solde commercial et donc une baisse du TCR. A long terme, les effets d'une
hausse de la préférence pour le présent sont donc les
suivants : hausse de la dette extérieure nette,
dépréciation du TCR. L'impact du progrès technique sur
le change d'équilibre de long terme apparaît a priori plus
favorable. La différence majeure avec une hausse du taux de consommation
tient
à ce que les entrées de capitaux financent non plus
la consommation, mais la formation
de capital. Cette accumulation va générer un
surcroît de production, et donc d'épargne.
Il est donc possible que le pays passe progressivement d'un
statut d'importateur à un statut d'exportateur net de capitaux, accumule
alors des excédents extérieurs, ce qui apprécierait le TCR
à long terme (cas du Japon dans les années 1970-1980). Cet
effet
est toutefois ambigu, dans la mesure où le
surcroît d'activité engendré par les gains de
productivité entraîne une hausse des importations, laquelle
tend à dégrader le solde courant. Les estimations
économétriques concluent toutefois presque
systématiquement à un impact positif du progrès technique
sur le change réel à long terme.
Section 3- Une brève revue de la
littérature empirique
Comme le rappellent Borowski et al.
[1998], les estimations du taux de change d'équilibre dépendent
bien évidemment des choix méthodologiques effectués. Il
existe
deux grandes catégories de méthodes d'estimation :
d'une part, les simulations réalisées
à partir d'un modèle macroéconomique
multinational complet (approche dynamique)
et, d'autre part, la construction d'une maquette
représentative du long terme d'un modèle donné; cette
seconde approche étant qualifiée de statique comparative. Cette
dernière méthode est la plus fréquemment utilisée
et consiste à comparer la situation historique à une situation
dite d'équilibre, sans se préoccuper de la transition
d'une situation à l'autre. Selon Borowski et al. [1998],
l'avantage de la méthode de statique comparative est qu'elle est simple
et transparente et qu'elle autorise ainsi un calcul de sensibilités
à des hypothèses alternatives.
Nous distinguerons ici les études
basées sur l'approche traditionnelle (approche macroéconomique
généralement appréhendée au travers de la
statique comparative) des études plus positives reposant sur une
démarche économétrique.
3.1- Les études basées sur l'approche
traditionnelle
Les évaluations empiriques de taux de
change réel d'équilibre ont
principalement été effectuées à
partir des travaux pionniers de Williamson [1983] :
citons notamment Barrell et Wren- Lewis [1989],
Barrell et In't Veld [1991],
Williamson [1991], Church [1992]. Rappelons que Williamson a
introduit la notion de taux de change d'équilibre fondamental
(Fundamental Equilibrium Exchange Rate, FEER) défini comme
le taux de change réel assurant à moyen terme la
réalisation simultanée de l'équilibre interne et
de l'équilibre externe. Un modèle macro
économétrique est alors utilisé pour assurer la
cohérence des différentes variables utilisées.
Néanmoins, ainsi que le rappelle Coudert [1999], un grand
nombre de travaux plus récents n'utilisent pas des modèles macro
économétriques complets, mais seulement des équations
de commerce extérieur. En inversant ces équations, une
relation peut être obtenue entre le taux de change réel, la
balance courante et l'output gap.
L'étude de Williamson [1991],
fondée sur l'utilisation de plusieurs modèles macro
économétriques multinationaux, a quant à elle pour
objet la comparaison de diverses estimations du taux de change
d'équilibre fondamental dans plusieurs pays
européens. En 1994, l'auteur utilise les simulations de
plusieurs modèles afin d'estimer
le taux de change réel d'équilibre des pays
industrialisés au début des années 90. Les
résultats qu'il obtient mettent en exergue d'importants écarts
significatifs entre change effectif et change d'équilibre pour les
Etats-Unis, le Japon et l'Allemagne.
Dans leur étude sur les taux de change
d'équilibre fondamentaux des dix grands pays industrialisés sur
la période 1984-1995, Borowski et al. [1998] retiennent
l'approche de statique comparative afin d'estimer ces taux de change
d'équilibre. Dans
ce cadre, les auteurs définissent l'équilibre
interne à la manière de Williamson [1985,
1991, 1994]. Ils supposent en effet que cet équilibre
interne est défini à partir d'une évaluation des rythmes
de croissance potentielle effectuée indépendamment de la
maquette retenue19. En conséquence, l'équilibre
interne est exogène au modèle dans la
19 La méthode de résolution
employée par les auteurs repose sur la construction d'une maquette de
long terme du commerce
extérieur issue du modèle NIGEM (National
Institute Global Econometric Model). La résolution de cette
maquette
est effectuée en log-linéarisant les
différentes équations du modèle à chaque
période au voisinage de l'état réalisé. Elle permet
alors d'obtenir, à chaque période, les écarts des taux de
change à leur valeur d'équilibre. Ceux-ci apparaissent ainsi
comme une combinaison linéaire des output gaps et des
écarts aux cibles de balance courante de l'ensemble des pays.
mesure où il est supposé que la croissance
potentielle et le taux de change réel sont
indépendants. Enfin, dans la détermination de
l'équilibre externe, les auteurs retiennent uniquement les interactions
entre les échanges de biens et services et le taux de change
réel. Les résultats obtenus par les auteurs montrent que
le franc a été proche de sa valeur d'équilibre
jusqu'en 1989 et se caractérise ensuite par un mouvement
d'appréciation réelle qui atteint un pic en 1991. A
partir de 1991, le franc retourne progressivement vers son niveau
d'équilibre qu'il atteint à la fin de l'année
1995. Concernant le mark, les résultats mettent en avant l'existence
d'une importante sous- évaluation de 1983 à 1993. A partir de
1993, le mark rejoint ensuite rapidement son niveau d'équilibre pour
l'atteindre en 1995. Ces résultats confirment ainsi ceux obtenus
par Barrell et In't Veld [1991]. Borowski et al.
[1998] cherchent également à évaluer le rôle
joué par les outputs gaps et les écarts aux
cibles de balance courante dans les surévaluations et les
sous-évaluations réelles des monnaies. Concernant la France, les
auteurs soulignent que de 1986 à 1988, l'output gap et
l'écart à la cible de balance courante contribuent tous
deux à la surévaluation du franc. A partir de 1989, ces deux
effets se compensent partiellement avant de se renforcer mutuellement de 1992
à 1995.
Du point de vue de l'Allemagne, les résultats montrent
que de 1984 à 1990, la sous évaluation du mark s'explique
principalement par l'écart à la cible de la balance
courante; l'excédent de la balance courante ayant pour effet
d'éloigner le taux de change réel du mark de son niveau
d'équilibre. A la fin de l'année 1990 la sous-
évaluation du mark résulte essentiellement du rôle
joué par l'output gap; l'écart à la balance
courante n'exerçant plus aucun effet en raison de l'importante
détérioration de son solde. Enfin, les facteurs expliquant le
retour vers l'équilibre du taux de change réel du mark
à partir de 1993 sont difficiles à identifier dans la mesure
où l'économie allemande ne semble jouer aucun rôle.
Borowski et al. [1998] se sont
également attachés à déterminer les taux de
change d'équilibre de dix pays industrialisés (sur la
période 1987.4 à 1997.2) dans le cadre des relations de long
terme du modèle multinational NIGEM dans deux scénarios :
un scénario à cibles de balances courantes nulles dans tous les
pays et un scénario à cibles de balances courantes
"réalistes". Leurs résultats mettent alors en
avant la grande sensibilité des conclusions au choix des
cibles de balances courantes.
Ainsi, dans le scénario de référence
d'équilibre de tous les comptes courants, le dollar apparaît
nettement surévalué en termes réels sur la période
1988-1997. En revanche, lorsque l'on retient un scénario de cibles
de balances courantes réalistes, le dollar apparaît sous
évalué à partir de 1996 malgré l'important
mouvement d'appréciation qu'il a subi. Borowski et al.
[1998] concluent alors qu'en diminuant l'ampleur de l'ajustement
à réaliser pour les Etats Unis, l'impact des conjonctures
étrangères et la résorption des
déséquilibres externes du reste du monde l'emportent sur
l'impact du déficit courant américain. Notons que les
auteurs mettent également en avant cette sensibilité des
résultats au choix des cibles de balance courante dans le cas
de la France. Ainsi, dans le cas de cibles nulles, le franc apparaît
surévalué jusqu'en 1994.
En retenant une cible plus réaliste (cible de compte
courant d'un point de PIB), cette surévaluation s'atténue
très sensiblement. Une telle conclusion semble confirmée par Joly
et al. [1999].
Joly et al. [1999] ont en effet
également cherché à estimer le taux de change réel
d'équilibre dans le cas de la France sur la période
1977-1997. En retenant initialement une cible de compte courant soutenable
consistant à laisser inchangée la dette externe du pays, les
auteurs montrent que le franc (en termes réels) n'est pas
surévalué par rapport à l'ensemble des
monnaies des partenaires. En supposant ensuite que la cible de compte courant
soutenable consiste à rembourser la dette externe en un nombre
donné d'années, les résultats de Joly et al.
[1999] font ressortir l'existence d'une certaine sous-évaluation
du change en fin de période. Globalement, il ressort de cette
étude que le franc n'est pas surévalué à la fin des
années quatre-vingt-dix et qu'il aurait plutôt tendance
à s'apprécier à moyen terme. Selon les auteurs, ce
résultat témoigne du fait que la France ne souffre pas de
problème de compétitivité dans ses échanges
extérieurs et que le niveau du change effectif réel n'a
pas constitué un obstacle à une croissance plus soutenue au
cours de la décennie quatre-vingt-dix.
Mentionnons également l'étude
de Borowski et Couharde [1999] visant à définir la
parité d'équilibre (en termes nominaux, et non pas réels)
de l'euro vis à vis du
dollar en retenant les spécifications de long terme des
équations du modèle NIGEM.
En supposant une cible de compte courant globalement
équilibrée pour l'ensemble des
pays considérés, les auteurs montrent que
c'est l'excédent courant de la zone euro, combiné au
déficit américain, qui se trouve à l'origine de la
sous-évaluation de l'euro
vis à vis du dollar au premier trimestre 1998. Cette
sous-évaluation est telle que, au premier trimestre 1998, le taux de
change d'équilibre de l'euro s'établit au niveau de
1,20$US. Les auteurs relativisent cependant ce résultat
pour deux raisons principales. D'une part, cette parité peut
être surestimée du fait des incertitudes pesant sur le
chiffrage de l'excédent commercial de la zone euro. D'autre
part, l'accentuation du déficit courant américain et celle du
surplus courant européen se font en grande partie
sur des zones non prises en compte dans l'étude,
ce qui peut à nouveau conduire à surestimer la sous
évaluation de l'euro.
On constate que les études
précédemment citées portent essentiellement sur les pays
industrialisés. A cet égard, les travaux de Coudert
[1999] portant sur les pays émergents apparaissent
intéressants et permettent de compléter ce bref
aperçu de la
littérature empirique. Coudert [1999]
cherche à évaluer les taux de change
réels
d'équilibre de 16 pays émergents d'Asie et
d'Amérique latine sur la période 1977-1997
par le
biais d'un modèle incorporant deux types d'effets :
d'une part, l'effet Balassa
et d'autre part, la soutenabilité de la dette
extérieure liée aux paiements des intérêts (la
soutenabilité de la dette extérieure est définie
par la stabilisation en pourcentage du PIB). L'auteur montre alors que les
périodes de surévaluation détectées sont souvent
suivies de crises de change. C'est ainsi notamment le cas au Mexique, avant les
deux crises de 1981 et 1994, au Brésil depuis 1995 et en Thaïlande
en 1996. Dans ce cadre,
on peut également mentionner les travaux de Mongardini
[1998]. Cette étude portant
sur la monnaie égyptienne met en avant le fait que le
taux de change égyptien était fortement surévalué
avant 1993 mais qu'aujourd'hui, cette surévaluation est nettement plus
faible; le taux de change se trouvant proche de son niveau
d'équilibre.
3.2- Les études économétriques
D'autres approches, plus positives que
normatives, cherchent à évaluer le taux
de change d'équilibre au moyen d'équations
réduites. Ces travaux s'appuient sur les relations de long terme
existant entre le taux de change réel et diverses variables
macroéconomiques influençant les équilibres interne et
externe. La mise en évidence
de telles relations de long terme fait dès lors appel
à la théorie de la cointégration et à l'estimation
de modèles à correction d'erreur (voir notamment Stein [1994],
McDonald
[1995, 1997], Clark et McDonald [1998], Aglietta et al.
[1998]). Ces diverses études
se situent ainsi dans une perspective plus
économétrique que les travaux précédemment
cités. Notons que cette approche économétrique
constitue l'approche adoptée pour estimer les taux de change
réels d'équilibre selon l'approche microéconomique. En
effet, face aux difficultés résultant de la mise en
oeuvre d'un modèle d'équilibre général inter
temporel, les travaux empiriques se sont principalement attachés
à mettre en évidence plusieurs déterminants fondamentaux
des taux de change réels d'équilibre. Ceci peut donc se
faire grâce à la théorie de la cointégration
en mettant en avant l'existence de relations de long terme entre le taux de
change réel et divers facteurs structurels; les écarts de court
terme du change observé
au change d'équilibre résultant de facteurs
cycliques, spéculatifs ou monétaires.
Edwards [1989] a ainsi estimé le taux de
change réel d'équilibre d'un ensemble
de pays en voie de développement. L'auteur a
mis en avant l'existence d'un certain nombre de déterminants du
change réel tels que les termes de l'échange, le
progrès technique, l'accumulation du capital, le niveau de la
répartition des dépenses publiques entre les biens
échangeables et les biens non échangeables et divers
indicateurs du contrôle des changes. Halpern et Wyplosz [1996]
ont cherché à déterminer les fondamentaux du change
réel des pays en transition de l'Europe de l'Est et ont mis en exergue
l'importance de la productivité apparente du travail, des termes de
l'échange
et du taux de participation sur le marché de l'emploi.
Parikh et Kahn [1997] appliquent quant à eux la théorie de la
cointégration au taux de change de l'Afrique du Sud. Leurs
résultats montrent que le taux de change réel
d'équilibre de long terme est fonction d'un certain nombre de
fondamentaux tels que les prix de l'or, la croissance de la
productivité, les coûts de transport et les termes
de l'échange. A court terme, le poids
de la dette extérieure et intérieure influence
le comportement du taux de change réel. Leur analyse montre en outre que
la croissance de la productivité en Afrique du Sud a pour
conséquence une appréciation du taux de change réel
contre le dollar à long terme, alors qu'à court terme
elle ne semble avoir aucun effet. Signalons enfin les travaux de
Abimanyu [1998] analysant, pour l'Indonésie, la relation entre le taux
de change réel effectif, le taux de change réel
d'équilibre et diverses variables macroéconomiques. Son
étude montre que deux déterminants expliquent l'évolution
du change réel : la consommation publique et le déficit fiscal.
Une augmentation de ces deux variables entraîne ainsi une
appréciation du change réel, ce qui remet en cause
l'équivalence ricardienne.
Aglietta et al. [1998]
considèrent quant à eux un modèle de taux de change
réel d'équilibre prenant en compte l'effet Balassa, la
soutenabilité de la position extérieure nette et un terme
représentatif de la compétitivité hors prix. L'effet
Balassa est pris en compte par le biais du rapport des prix relatifs entre les
biens échangeables et les biens
non échangeables : lorsque ce rapport augmente plus vite
dans un pays A que dans un pays B, le taux de change réel du pays A
relativement au pays B tend à se déprécier.
La position extérieure nette est définie
par le solde cumulé de la balance courante : plus un pays a
accumulé d'excédents, plus sa position extérieure nette
est élevée et plus son taux de change réel
d'équilibre s'apprécie. Enfin, à la suite des travaux de
Aglietta
et Baulant [1994], la variable représentative de la
compétitivité hors-prix est constituée des
dépenses en recherche et développement : une augmentation
de la compétitivité hors prix engendre une
appréciation du taux de change réel d'équilibre. Ce
modèle
est appliqué aux taux de change réels
bilatéraux du dollar par rapport à trois monnaies
européennes : mark, franc et lire sur la période 1973.1 à
1996.4. Les tests effectués par Aglietta et al. [1998]
montrent que les séries de taux de change réels sont
intégrées d'ordre un et mettent en avant l'existence d'une
relation de cointégration entre les taux
de change réels et les variables fondamentales
du modèle pour tous les pays considérés.
L'estimation de modèles à
correction d'erreur montre en outre que les écarts de
taux d'intérêt jouent un rôle important dans
la dynamique du taux de change, de même
que le mésalignement 20 constaté
à la période précédente. Les auteurs
agrègent ensuite
les trois monnaies considérées selon leur
poids dans l'ECU afin de construire une proxy du taux de
change d'équilibre de l'euro contre le dollar. Les
résultats obtenus font ressortir le fait que le mésalignement
est croissant depuis 1983, la surévaluation réelle du dollar par
rapport à l'euro dépassant 40% en 1985. Depuis 1986, le taux de
change réel d'équilibre du dollar contre l'euro suit une tendance
légèrement baissière.
En étudiant les contributions des diverses variables
fondamentales à la détermination
du taux de change réel d'équilibre, les auteurs
montrent que l'impact de la recherche- développement, bien que
significatif, joue très faiblement. En revanche, les rapports de prix
relatifs et les positions extérieures nettes apparaissent
comme étant deux déterminants fondamentaux dans la formation
du taux de change réel d'équilibre.
Concernant à présent l'approche
en termes de besoin de financement des nations, la plupart des
études (voir Cadiou [1999]) suppose qu'à moyen terme
la
balance des capitaux s'ajuste à la balance
courante, c'est à dire au besoin (ou
à la
capacité) de financement des différents pays.
Dans ce cadre, Masson et al. [1996]
et Stein [1995] estiment des équations d'investissement et
d'épargne et s'appuient sur la différence entre l'épargne
et l'investissement pour définir les cibles de balance courante
à moyen terme. Stein [1995] réalise alors une
application empirique concernant le taux
de change du dollar contre les autres monnaies des pays du G7. Le
taux de change réel
du dollar ne dépend à long terme que des
préférences pour le présent des Etats Unis
et des pays du G7, définies comme la propension
moyenne des agents domestiques privés et publics à
consommer le revenu national. L'auteur montre qu'il existe une relation
de cointégration entre le taux de change réel et les propensions
à consommer.
20 Bien évidemment, ce mésalignement de
la période antérieure représente le résidu (en t-1)
de la relation de cointégration précédemment
estimée
Plus précisément, le dollar se
déprécie lorsque la préférence pour le
présent
augmente aux Etats Unis en raison de l'aggravation du
déficit extérieur et de la baisse
du stock d'avoirs extérieurs net à long
terme. La balance commerciale doit dès lors s'améliorer
pour répondre aux paiements d'intérêts vis à vis des
pays du G7. A plus court terme, le change réel s'apprécie
en raison de l'augmentation du différentiel d'intérêt
entre les Etats Unis et les pays du G7 afin d'assurer l'équilibre de la
balance
des paiements.
Conclusion
Même si la théorie de la
parité des pouvoirs d'achat constitue une référence
utile
à long terme pour les taux de change nominaux,
nous avons mis en avant ses inconvénients lorsque l'on raisonne en
termes de taux de change réels. En particulier, cette théorie,
postulant la constance ou la stationnarité du change réel, fait
abstraction
de toute considération d'équilibre
macroéconomique : elle ne permet pas de relier le taux de change
réel à la situation économique d'un pays et, en
particulier, à sa position extérieure. Face à ces
insuffisances théoriques et aux nombreuses difficultés
empiriques soulevées par cette théorie, nous nous sommes
tournés vers d' autres approches de détermination du taux de
change réel d'équilibre notamment : l'approche
macroéconomique et l'approche NATREX.
Ces approches nous ont explicité les
fondamentaux et les déterminants du taux
de change réel d'équilibre .La question qui
se pose alors est de savoir s'il y a une rupture entre le taux de
change et ses fondamentaux.
Chapitre II - Expliquer les déviations du taux
de change: mémoire longue
Introduction
Les approches du taux de change
d'équilibre sont fondées sur l'idée que le prix relatif de
deux monnaies doit refléter les différences de structures
économiques entre deux pays à un moment donné du temps.
Cette définition du taux de
change d'équilibre a donné lieu à deux types de
travaux. D'un côté, certains auteurs cherchent à
étudier les trajectoires des taux de change vers un
équilibre de long terme que le théoricien définit au
regard de critères normatifs. Le plus connu de ces critères
est la soutenabilité des équilibres internes
et externe à la Williamson (1994). Cette approche
conduit à définir le taux de change comme un "taux de change
d'équilibre fondamental". D'un autre côté, il est possible
d'avoir une approche plus empirique, basée sur l'estimation formes
réduites. Dans ce cas, les cibles de long terme ne sont pas
fixées a priori, mais déterminées suivant
une relation de long terme entre le taux de change et ses fondamentaux
économiques.
Ce chapitre s'inscrit dans la seconde
optique. Notre but est d'expliquer les écarts persistants du
taux de change euro/dollar par rapport à leurs valeurs
fondamentales durant la période 1990-2004.
Ce chapitre est organisé de la
manière suivante. La section 1 présente le cadre théorique
de base retenu et les séries utilisées. La section 2
est consacrée à une première étude de la
cointégration entre le taux de change et leurs fondamentaux.
Et une section 3 qui met en évidence le caractère
persistant des déviations du taux de change du taux de change
réel à travers le processus de mémoire longue ARFIMA.
Section 1 : Le cadre théorique
1.1. Le modèle théorique
Les modèles monétaristes avec
ses différentes versions sont les plus utilisés dans les
études empiriques afin d'évaluer les propriétés
dynamiques de la relation liant
le taux de change aux fondamentaux.
L'équilibre monétaire dans le
pays domestique et étranger21 peut être
donné
par :
mt - pt = 1 it + 2 yt
(2.1)
mt* - pt* = 1 it* + 2
yt* (2.2)
Où mt, pt,
it et yt sont respectivement les encaisses
monétaires, le niveau de
prix, le taux d'intérêt et le revenu. Tous les
variables sont exprimés en logarithme à l'exception du taux
d'intérêt.
Avec 1, 2 sont les paramètres du demande
de monnaie avec 1 < 0, 2 > 0
et tous les deux sont identiques pour le pays domestique22
et étranger.
L'équilibre sur le marché des
biens marchands s'établit lorsqu'il n'y a plus
d'opportunités d'arbitrages, en d'autres termes, si la PPA est
vérifiée, il s'ensuit que :
et = pt* - pt
(2.3)
Où et désigne le logarithme du
taux de change nominal (le nombre d'unité de monnaie
étrangère par unité de monnaie domestique).
Formellement, en substituant les
équations (1) et (2) dans l'équation (3) et en
réarrangeant les termes, nous aurons l'équation de base du
modèle monétaire :
et = (mt - mt* ) - 1 (it - it* )
- 2 (yt -yt* ) (2.4)
En supposant la validité de
l'hypothèse de la PTINC23 :
it - it* = Et ( et+1)
(2.5)
21 L'astérisque dénote les variables
étrangères
22 Dans notre étude empirique, on suppose que
la zone euro est le pays domestique
23 La parité de taux
d'intérêt Non Couvert PTINC est un équilibre
provenant d'une spéculation entre taux d'intérêt, avec
prise de risques de change (en supposant une concurrence parfaite dans des
marchés financiers
internationaux intégrés, donc sans contrôle
ni taxe de change). Cette parité peut être utilisée en
conjonction avec l'hypothèse d'anticipations rationnelles pour tester
l'efficience des marchés du change.
en t .
Où Et est
l'espérance mathématique conditionnelle à
l'information disponible
*
cas :
Dans le cas où et+1 = 0
(hypothèse de stationnarité), on a alors it
= it. Dans ce
et = (mt - mt*) - 2 (yt -yt*)
(2.6)
Mark (1995) et Mark et Sul (2001) ont
validé une autre hypothèse à travers des études
empiriques à savoir 2 = 1, d'où l'équation devient :
et = (mt - mt*) - (yt -yt*)
(2.7)
Suivant cette relation, le taux de change est
déterminé par les différentiels des encaisses
monétaires et des revenus.
La relation 2.7 stipule qu'un excès dans
l'accroissement de la demande locale
de monnaie par rapport à la demande
étrangère entraîne une augmentation de et, signalant
ainsi, la détérioration de la valeur de la monnaie
locale en terme de son homologue étrangère.
Aussi, la relation stipule que, toutes
choses étant égales par ailleurs, qu'une augmentation du
revenu local entraîne souvent une appréciation de la monnaie
locale
(et baisse).
1.2. Donnée
Afin d'effectuer notre étude
empirique, nous avons collecté les données se rapportant
aux taux de change EUR/USD des publications mensuelles de la banque
centrale Européenne.
Nous avons collecté d'autre part,
à partir des statistiques de l'Eurostat , du Federal Reserve Bank
et du Board of Governors of The Federal Reserve System des données se
rapportant aux demandes de monnaie domestique zone Euro24 et
étrangère USA et les indices de productions industriels
domestiques et étrangères.
Notre échantillon couvre la
période allant de 1990 à 2004 (les données ont
été
toutes normalisées à la même période
de base 2000). Les données sont en fréquence
24 La zone euro comporte 12 pays à
savoir : Belgique, Allemagne, Grèce, Espagne, France, Irlande,
Italie, Luxembourg, Pays-Bas, Autriche, Portugal et Finlande.
mensuelle, soit un total de 177 observations. Toutes les
variables sont prises en
logarithmes.
L'analyse empirique sera consacrée
à l'évaluation empirique de la théorie
monétariste de détermination du taux de change
(modèle 2.7). Pour ce faire, nous allons dans un
premier temps, étudier les propriétés statistiques des
différentes séries
au moyen des tests de racines unitaires (test de
stationnarité). Il s'agit dans un deuxième temps de
vérifier à partir des tests de cointégration si le
taux de change converge à long terme vers ses fondamentaux.
Section 2 : Vérification de l'hypothèse
de convergence à long terme entre le taux de change et les
fondamentaux
Afin de tester l'hypothèse de convergence
à long terme entre le taux de change
et les fondamentaux, noux allons étudier les
propriétés statistiques des différentes au moyen des tests
de racine unitaires à savoir le test de Dickey-Fuller, test
Dickey-Fuller augmenté, test Phillips-Perron et le test Kwiotowski,
Phillips, Schmidt, Shin. Ensuite, nous allons tester la relation de convergence
à long terme entre le taux de change et les fondamentaux à
travers deux méthodes à savoir la méthode en deux
étapes de Engle
et Granger et la méthode de Johansen.
2.1. Les tests des racines unitaires
Dans la littérature, la non
stationnarité d'un processus stochastique est souvent définie
à travers la variabilité temporelle de ses moments d'ordre 2.
Afin de donner une définition « plus concrète »
à la notion de la non stationnarité, Newbold et Granger
ont proposé deux types de processus distinguant la nature
de la non stationnarité.
Le premier type, appelé Trend Stationary
(TS) est donné par :
Xt = á0 + á1 t + åt
(2.8)
Le processus TS est non stationnaire en
moyenne, il vérifie le phénomène retour à la
moyenne décrit ci-dessus : E (Xt) = á0 + á1 t
Le deuxième type, appelé
Difference Stationary (DS) :
Xt = á0 + á1 t + Xt-1 + åt
(2.9)
Le processus DS est non stationnaire aussi bien
en moyenne qu'en variance :
E (Xt) = X0 + á1 t ; V (Xt) = t 2
et Cov( Xt, Xs) = min(t, s) 2
avec s t
Il apparaît évident que les
structures DS et TS jouent un rôle important dans le
traitement statistique d'une série. Comment
choisir entre l'une ou l'autre des structures ? Les tests de
recherche de racine unitaire dans les processus
générateurs tentent de répondre à cette question.
Nous présentons tout d'abord le test de Dickey- Fuller simple (1979),
puis le test de Dickey-Fuller augmenté (1981), le test de Phillips-
Perron (1988) et enfin le test test Phillips-Perron et le test
Kwiatkowski, Phillips, Schmidt, Shin qui mettent en évidence le
caractère stationnaire ou non d'une série.
2.1.1. Test de Dickey-Fuller DF
Dickey -Fuller (1979) considèrent
trois modèles de base pour la série Xt,
t = 1,..., T.
Les trois modèles de base
- Modèle (1) : modèle AR (1) sans constante ni
tendance déterministe :
(1 - ñ L) Xt = å t
(2.10)
- Modèle (2) : modèle AR (1) avec constante sans
tendance déterministe :
(1 - ñ L) (Xt - á) = å t
(2.11)
- Modèle (3) : modèle AR (1) avec constante et
tendance déterministe :
(1 - ñ L) (Xt - á - â t) = å t
(2.12)
ó2å).
Dans chacun des trois modèles, on
suppose que å t suit un bruit blanc BB (0,
Si ñ =1, cela signifie qu'une des racines
du polynôme retard est égale à 1. On
dit alors qu'on est en présence d'une racine
unitaire. En d'autres termes, Xt est un
processus non stationnaire et la non stationnarité est de
nature stochastique (processus
DS).
Hypothèses
On teste l'hypothèse nulle de racine
unitaire (Xt est intégrée d'ordre 1, c'est-à- dire non
stationnaire) contre l'hypothèse alternative d'absence de racine
unitaire (Xt
est intégrée d'ordre 0, c'est-à-dire
stationnaire). Ecrivons plus précisément les
hypothèses nulle et alternative pour chacun des trois
modèles considérés :
Modèle (1) :
H0 : ñ = 1 ? Xt = Xt-1 + å t
H1 : | ñ | < 1 ? Xt = ñ Xt-1 + å
t
Ainsi, sous l'hypothèse nulle, il s'agit
d'un modèle DS de marche aléatoire sans
dérive. Sous l'hypothèse alternative, Xt suit un
processus AR (1).
Modèle (2) :
H0 : ñ = 1 ? Xt = Xt-1 + å t
H1 : | ñ | < 1 ? Xt = ñ Xt-1 + ã +
å t avec ã = á (1 - ñ)
L'hypothèse nulle correspond à un
modèle DS de marche aléatoire sans dérive. Sous
l'hypothèse alternative, Xt suit un processus AR (1) avec
dérive.
Modèle (3) :
H0 : ñ = 1 ? Xt = Xt-1 + â + å t
H1 : | ñ | < 1 ? Xt = ñ Xt-1 + ë +
ät + å t
Avec ë = á (1 - ñ) + ñâ et
ä = â (1 - ñ)
Sous l'hypothèse nulle, il s'agit
d'un modèle DS de marche aléatoire avec
dérive. Sous l'hypothèse alternative, Xt est un
processus TS avec erreurs ARMA.
Stratégie séquentielle de
test
En pratique, on estime les modèles sous
la forme suivante :
Modèle (1') :
? Xt = Ö Xt-1 + å t
(2.13)
Modèle (2') :
? Xt = Ö Xt-1 + ã + å t
(2.14)
Modèle (3') :
? Xt = Ö Xt-1 + ë + ät + å t
(2.15)
å
Avec, pour chaque modèle, Ö =
(1 - ñ) et å t suit BB (0, ó2 ). On ne teste
alors
l'hypothèse nulle Ö = 0 (non
stationnarité) contre l'hypothèse alternative Ö < 0
(stationnarité) en se référant aux valeurs tabulées
par Fuller (1976) et Dickey -Fuller (1979, 1981). Dans la mesure
où les valeurs critiques sont négatives, la règle
de décision est la suivante :
- Si la valeur calculée de la t-statistique
associé à Ö est inférieur à la valeur
critique,
on rejette l'hypothèse nulle de non
stationnarité.
- Si la valeur calculée de la t-statistique associé
Ö est supérieur à la valeur critique, on accepte
l'hypothèse nulle de non stationnarité.
Il est fondamental de noter que l'on n'effectue
pas de test sur les trois modèles.
Il convient en effet d'appliquer le test de Dickey-Fuller sur un
seul des trois modèles.
En pratique, on adopte une stratégie séquentielle
en trois grandes étapes.
- Etape 1 :
On estime le modèle (3). On
commence par tester la significativité de la tendance en se
référant aux tables de Dickey-Fuller (voir tableau 2.1).
Deux cas peuvent se présenter :
- si la tendance n'est pas significative, on passe à
l'étape 2.
- si la tendance est significative, on teste l'hypothèse
nulle de racine unitaire en
comparant la t-statistique de Ö aux valeurs tabulées
par Dickey-Fuller. On a alors deux possibilités :
* si l'on accepte l'hypothèse nulle, Xt est non
stationnaire. Dans ce cas, il faut
la différencier et commencer la procédure de test
sur la série en différence première.
* si l'on rejette nulle, Xt est stationnaire. Dans ce
cas, la procédure de test s'arrête et l'on peut directement
travailler sur Xt.
Tableau2.1 Valeurs critiques de la constante et de la
tendance, tests de Dickey- Fuller
T
|
Modèle 2
|
Modèle 3
|
Constante
|
Constante
|
Trend
|
1% 5% 10%
|
1% 5% 10%
|
1% 5% 10%
|
100
|
3.22 2.54 2.17
|
3.78 3.11 2.73
|
3.53 2.79 2.38
|
250
|
3.19 2.53 2.16
|
3.74 3.09 2.73
|
3.49 2.79 2.38
|
500
|
3.18 2.52 2.16
|
3.72 3.08 2.72
|
3.48 2.78 2.38
|
|
3.18 2.52 2.16
|
3.71 3.08 2.72
|
3.46 2.78 2.38
|
- Etape 2 :
Cette étape ne doit être que si la
tendance dans le modèle précédent n'est pas significative.
On estime le modèle (2') et l'on commence par tester la
significativité.
On estime le modèle (2') et l'on commence par tester la
significativité de la constante
en se référant aux tables de Dickey-Fuller :
· si la constante n'est pas significativité, on passe
à l'étape 3.
· si la constante est significative, on teste
l'hypothèse nulle de racine unitaire en comparant la t-statistique
de Ö aux valeurs tabulées par Dickey-Fuller. On a alors deux
possibilités :
* si l'on accepte l'hypothèse nulle, Xt est non
stationnaire. Dans
ce cas, il faut la différencier et recommencer la
procédure de test sur la série en différence
première.
- Etape 3 :
* si l'on rejette l'hypothèse nulle, Xt est stationnaire.
Dans ce cas,
la procédure de test s'arrête et l'on peut
directement travailler sur
Xt.
Cette étape ne doit être
appliquée que si la constante dans le modèle
précédent n'est pas significative. On estime le modèle
(1') et on teste l'hypothèse nulle de racine unitaire :
* si l'on accepte l'hypothèse nulle, Xt est non
stationnaire. Dans ce cas,
il faut la différencier et recommencer la procédure
de test sur la série en différence première.
* si l'on rejette l'hypothése nulle, Xt est
stationnaire. Dans ce cas, la procédure de test s'arrête et
l'on peut directement travailler sur Xt.
Les tests simples de Dickey-Fuller
souffrent de deux limites importantes, à
savoir :
· D'une part, l'apparition quasi-systématique d'une
autocorrélation
des résidus ; et
· D'autre part, l'importance d'une formulation
« adéquate » de la composante déterministe, faute
de quoi les résultats du test pourraient être
systématiquement biaisés.
Deux types de corrections ont été
proposés afin de prendre en compte du problème
d'autoccorélation des erreurs : une correction paramétrique
(le test de Dickey-Fuller augmenté) et une correction non
paramétrique ou semi-paramétriques (test de
Phillips-Perron).
Présentons successivement ces deux
stratégies de tests.
2.1.2. Test de Dickey-Fuller augmenté (ADF)
Dans les modèles
précédentes, utilisés pour les tests de Dickey-Fuller
simples,
le processus å t est, par hypothèse, un bruit
blanc. Or il n'y a aucune raison pour que, a priori, l'erreur
soit non corrélée ; on appelle test de Dickey-Fuller
augmentés (ADF,
1981) la prise en compte de cette hypothèse.
Tout comme dans le cas du test de
Dickey-Fuller simple, trois modèles sont
distingués où å t est un processus AR (p-
1):
Modèle (1'') :
p
? Xt = Ö Xt-1 + j
X t - j + å t
(2.16)
j =1
Modèle (2'') :
p
? Xt = Ö Xt-1 + u + j
X t - j + å t
(2.17)
j =1
Modèle (3'') :
p
? Xt = Ö Xt-1 + ë + ät +
j X t - j + å
t (2.18)
j =1
La mise en oeuvre du test ADF est similaire
à celle du test de DF simple : on
adopte la même stratégie séquentielle
descendante partant de l'estimation du modèle
(3 ''). Les statistiques de test sont les mêmes que
dans le cas du test DF simple. Il convient cependant de remarquer que
l'application du test ADF nécessite au préalable
de choisir le nombre de retards p à introduire de
sorte à blanchir les résidus. Le problème du choix
de p est important dans la mesure où :
* L'inclusion d'un nombre insuffisant de retards peut
affecter le niveau du test ; et
* L'introduction d'un nombre trop élevé de retards
réduit le nombre de degrés
de liberté et la puissance du test, ce qui conduit trop
souvent, de manière erronée, au non rejet de l'hypothèse
nulle.
Le problème du choix du nombre de
retard sera résolu à travers les critères
d'informations.
Critères d'informations
Il est nécessaire de spécifier les
ordres de retard (p) dans les tests DF et ADF en
se basant sur des critères statistiques tels que le
critère d'information d'Akaike (Aic)
et le critère de Schwartz (Sc).
Le critère d'Akaike :
Selon le critère d'Akaike, la valeur
de (p) sera celle qui minimise la fonction d'Akaike ci-après
:
Aic (p) = ln (
n
t =1
2
(et / n) + (2 p / n)
(2.19)
Avec :
n
2
et
est la somme des carrés des résidus de
l'équation et n est le nombre
t =1
d'observations.
Le critère de Schwartz :
Selon Schwartz, la valeur de (p) sera celle qui
minimise la fonction suivante :
Sc (k) = ln (
n
t =1
2
(et / n) + p(ln(n) /
n)
(2.20)
2.2. Test de Phillips-Perron (PP)
Phillips et Perron (1988) proposent une
correction non paramétrique au test de Dickey-Fuller simple afin
de régler le problème de l'autoccorélation
et/ou de l'hétéroscédasticité des erreurs. Ils
proposent ainsi un test très général avec des
hypothèses minimales sur la séquence d'innovation (å t).
L'idée sous-jacente aux tests ADF est
qu'en remplaçant les modèles du cadre
DF par des modèles du type :
p
? Xt = dt + Ö Xt-1 + j
X t - j
j =1
+ å t (2.21)
On peut toujours choisir p assez grand
pour conserver l'hypothèse de bruit
blanc sur åt. Ceci entraîne que les lois limites des
estimateurs caractérisant la nature stochastique de la série sont
identiques à celle du cadre DF.
La mise en oeuvre du test de
Phillips-Perron est identique à celle du test de Dickey-Fuller :
on adopte la même stratégie séquentielle descendante
partant de l'estimation du modèle avec constante et tendance. Il
convient cependant au préalable
de choisir le paramètre de troncature l, tout comme il
convient de choisir le nombre de
retards p dans le cas du test ADF. On retient en
général l = T1/4.
Au-delà des tests qui ont
tenté d'apporter des solutions aux diffécultés
soulevées par l'application des tests de Dickey-Fuller simples
(apparition quasi- systématique d'une autocorrélation des
résidus et la formulation adéquate de la composante
déterministe). D'autres stratégies de tests ont été
développées, comme par exemple la procédure de
Kwiatkowski, Phillips, Schmidt, Shin.
2.3. test Kwiatkowski, Phillips, Schmidt, Shin (KPSS)
La spécificité du test KPSS
de Kwiatkowski et al. (1992) est de tester l'hypothèse nulle
d'absence de racine unitaire contre l'hypothèse alternative de
présence d'une racine unitaire.
Kwiatkowski et al. décomposent
la série Xt étudiée en la somme d'un
trend
déterministe, d'une marche aléatoire et d'un terme
d'erreur å t stationnaire. Sous l'hypothèse nulle de
stationnarité, la variance de la marche aléatoire est
égale à zéro. Plus précisément, la
série étudiée Xt, t = 1, ..., T, est
générée par :
Xt = á t + rt +
åt (2.22)
u
Où rt est une marche aléatoire,
rt = rt-1 + ut, et ut ~ BB (0, 2 ).
Kwiatkowski et al. suggérent d'utiliser
un test du multiplicateur de
langrange(LM) pour tester l'hypothèse nulle de
stationnarité, c'est-à-dire
u
2 = 0.
Puisque åt est stationnaire, sous
l'hypothèse nulle Xt est un processus
stationnaire
autour d'un trend. Si á = 0, alors, sous
l'hypothèse nulle, Xt est stationnaire autour d'un niveau (disons
r0) et non autour du trend.
Notons et, t = 1,..., T, les résidus
issus de la régression de Xt sur une constante
et un trend déterministe. La statistique LM est
donnée par :
S
T
2
t
LM =
t =1
à 2
(2.23)
Où St désigne les
sommes partielles des résidus åt :
t
St = ei
i =1
t = 1, ..., T
Et à 2
est un estimateur de la variance des résidus
et.
Si l'on souhaite tester l'hypothèse nulle
de stationnarité en niveau au lieu de la
stationnarité autour d'un trend, il suffit de
définir et comme les résidus issus de la
régression de Xt sur une constante seulement.
Considérons tout d'abord le cas de
la stationnarité autour d'un niveau. La
statistique de test est donnée par :
T
2
Tl
St
t =1
(2.24)
=
T 2à 2
Avec à 2 = 1
T 2
e 2 +
1
(1 -
s ) e e
et fait référence à la
régression
T
Tl t
t =1
T
s =1
l + 1
t
T
t = s +1
t - s
de Xt seulement sur une constante.
Considérons maintenant le cas de la
présence d'une tendance déterministe linéaire. La
statistique de test s'écrit :
T
2
St
=
=t =1=
(2.25)
Tl
T 2à 2
Où l'indice fait
référence à la régression de Xt sur une
constante et un trend
déterministe linéaire.
Kwiatkowski et al. Ont tabulé les valeurs
critiques pour les deux statistiques de
test
et . Celles-ci sont reportées dans le tableau 2.2.
Tableau 2.2 : valeurs critiques du test
KPSS
|
1%
|
5%
|
10%
|
Sans tendance ( )
|
0.739
|
0.463
|
0.347
|
Avec tendance ( )
|
0.216
|
0.146
|
0.119
|
La règle de décision est la
suivante :
· Si la valeur calculée de
ou
est inférieure à la valeur critique
correspondante, on accepte l'hypothèse nulle de
stationnarité ; et
· Si la valeur calculée de
ou
est supérieure à la valeur
critique correspondante, on rejette l'hypothèse nulle
de
stationnarité.
2.4. Résultats et commentaires
Considérons les séries du taux
de change EUR/USD, différentiel de l'indice de production entre la
zone Euro et celle de l'USA, différentiel de la masse
monétaire (M2) entre la zone Euro et celle de l'USA. Ces séries
transformées en logarithme sont notées LTCR, LDIP, LDDM. On
note DLTCR, DLDIP et DLDDM sont les différences premières
des séries déjà citées.
Remarques introductives
Une première intuition concernant la
stationnarité peut être fournie par l'étude des
corrélogrammes des séries. Les corrélogrammes
représentés dans l'annexe 2 montrent que les
autoccorélations des séries LTCR, LDIP et LDDM sont
toutes significatives et décroissant très lentement. Ces
remarques laissent présager que les séries sont non
stationnaires.
Par ailleurs, la figure 2.1
représentant l'étude du corrélogramme des
séries DLTCR, DLDIP et DLDDM semble indiquer que les
séries en différence première sont stationnaires.
Nous nous proposons de vérifier ces
intuitions par l'application des tests de racine unitaire
précédemment présentés. Nous adoptons la
stratégie consistant à tester
en premier lieu l'hypothèse nulle de racine
unitaire sur les séries DLTCR, DLDIP
et DLDDM. Si l'hypothèse nulle est rejetée, nous
testons, en second lieu, l'hypothèse nulle de racine unitaire sur les
séries LTCR, LDIP et LDDM.
Figure 2.1 corrélogramme des séries
DLTCR, DLDIP et DLDDM
Corrélogramme DLTCR
Corrélogramme DLDIP
Corrélogramme DLDDM
Test de Dickey-Fuller
Testons l'hypothèse nulle selon
laquelle DLTCR, DLDIP et DLDDM sont non stationnaires (elles contiennent
chacune au moins une racine unitaire) contre l'hypothèse
alternative de stationnarité. Pour cela, on adopte la stratégie
séquentielle précédemment présentée qui
consiste tout d'abord à estimer avec constante et tendance
déterministe :
p
j
D2LTCR = Ö' DLTCRt-1 + á + ât +
=1
D 2 LTCR
t - j
+ å t (2.26)
j
p
j
D2LDIP = Ö' DLDIPt-1 + á + ât +
j =1
t - j
D 2 LDIP
+ å t (2.27)
p
j
D2LDDM = Ö' DLDDMt-1 + á + ât +
j =1
D 2 LDDM
t - j
+ å t (2.28)
Où D2LTCR, D2LDIP
et D2LDDM désignent les différences secondes
de
LTCR, LDIP et LDDM.
L'application des tests de Dickey-Fuller
nécessite tout d'abord de sélectionner
le nombre p de retards de sorte à blanchir les
résidus de régression. Nous avons choisi
de nous baser sur l'étude des critères
d'information (Tableau2.3). On retient donc p=1
pour les variables LTCR, LDIP et p = 0 pour LDDM, DLTCR, DLDIP et
LDDM.
Tableau 2.3 Critères de choix du nombre de
retard optimal des séries
Variables
|
Min (AIC)
|
Min (BIC)
|
Ordre retenu
|
LTCR
|
1
|
1
|
1
|
LDIP
|
11
|
1
|
1
|
LDDM
|
0
|
0
|
0
|
Les résultats de l'estimation des
équations (2.26, 2.27) avec p=1et l'équation
(2.28) avec p = 0 sont reportés dans le tableau
2.4. La constante est notée C et la
tendance
@Trend. On commence par tester la
significativité de la tendance en se
référant aux tables de Dickey-Fuller (voir tableau
2.1)
La tendance n'est pas significativement
différente de zéro pour les 3 séries puisque les
t- statistique sont respectivement (0.58 pour DLTCR, 1.32 pour
DLDIP
et -0.03 pour DLDDM) sont inférieures chacune à
la valeur critique de 2.79 au seuil
de 5%.
On estime en conséquence le
modèle avec constante, sans tendance déterministe dont les
résultats figurent dans le tableau 2.4. On remarque que la
constante n'est pas significativement différente de zéro pour les
3 séries puisque les
t-statistiques sont respectivement (-0.003 pour DLTCR,
-2.42 pour DLDIP et 0.76
pour DLDDM) sont inférieures chacune à la valeur
critique de 2.54 au seuil 5%.
Tableau 2.4 Significativité de la tendance et
de la constante
|
Différence1ère
|
variables
|
Avec constante
et tendance
|
Avec constante
et sans tendance
|
LTCR
|
0.58
|
-0.003
|
LDIP
|
1.32
|
-2.42
|
LDDM
|
-0.03
|
0.76
|
On estime alors le modèle sans constante
ni tendance dont les résultats sont
donnés dans le tableau 2.5
Tableau 2.5 Résultat du test d'ADF dans le
modèle sans tendance et sans constante
variables
|
Différence
1ère
|
LTCR
|
-10.03
|
LDIP
|
-16.15
|
LDDM
|
-13.12
|
On procède au test de racine unitaire. La
valeur estimée de la statistique ADF
est égale à -10.03 pour DLTCR, -16.15 pour
DLDIP et -13.12 pour DLDDM. Ces valeurs sont inférieures chacune
à la valeur critique -1.94 au seuil statistique de 5%.
On rejette en conséquence l'hypothèse nulle
de racine unitaire : Les séries DLTCR, DLDIP et DLDDM sont
stationnaires, c'est-à-dire intégré d'ordre 0. Ceci est
cohérent avec l'étude des corrélogrammes de séries
DLTCR, DLDIP et DLDDM (Figure2.1).
Afin de déterminer l'ordre
d'intégration des séries LTCR, LDIP et LDDM, nous
appliquons à présent la procédure de test
sur la série non différenciée.
Commençons par estimer le modèle avec constante et
tendance déterministe :
p
DLTCR = Ö' LTCRt-1 + á + ât +
j DLTCRt - j
j =1
+ å t (2.29)
p
DLDIP = Ö' LDIPt-1 + á + ât +
j DLDIPt - j
j =1
+ å t (2.30)
p
DLDDM = Ö' LDDMt-1 + á + ât +
j DLDDM t - j
j =1
+ å t (2.31)
Les résultats de l'estimation des
équations (2.29, 2.30, 2.31) sont reportés dans
le tableau 2.6. Les t-statistique estimées du
trend pour les séries sont égales respectivement
à -0.65 pour LTCR, 0.07 pour LDIP et 2.10 pour LDDM : elles sont
inférieures chacune à la valeur critique 2.79
au seuil statistique de 5%. On accepte
donc l'hypothèse nulle selon laquelle la
tendance n'est pas significativement différente de zéro.
On estime alors le modèle avec
constante mais sans tendance déterministe (tableau 2.6). On
commence par tester la significativité de la constante. Les t-
statistique de la constante pour les séries sont égales
respectivement à 1.21 pour LTCR, -0.60 pour LDIP et -0.48 pour
LDDM : elles sont inférieures chacune à la valeur critique
2.54 lue dans la table de Dickey-Fuller (voir tableau 2.1). On accepte donc
l'hypothèse nulle selon laquelle la constante n'est pas
significativement différente de zéro.
Tableau 2.6 Significativité de la tendance et
de la constante
|
Niveau
|
variables
|
Avec constante
et tendance
|
Avec constante
et sans tendance
|
LTCR
|
-0.65
|
1.21
|
LDIP
|
0.07
|
-0.60
|
LDDM
|
2.10
|
-0.48
|
On estime pour finir le modèle sans
constante ni tendance dont les résultats sont
donnés dans le tableau 2.7.
Tableau 2.7 Résultat du test d'ADF dans le
modèle sans tendance et sans constante
variables
|
Niveau
|
LTCR
|
-1.22
|
LDIP
|
-1.80
|
LDDM
|
-1.94
|
On peut alors procéder au test de
racine unitaire. La valeur calculée de la
statistique ADF est égale à -1.22 pour LTCR,
-1.80 pour LDIP et -1.55 pour LDDM. Cette valeur est supérieure
à la valeur critique -1.94 au seuil statistique de 5%. On
accepte l'hypothèse nulle de racine unitaire. Les séries LTCR,
LDIP et LDDM sont des séries intégrées d'ordre 1,
puisqu'il faut les différencier une fois pour les rendre
stationnaire.
Test de Phillips-Perron
La mise en oeuvre du test de Phillips-Perron
(PP) est identique à celle du test Dickey-Fuller. Rappelons
également que les valeurs critiques sont les mêmes que
celles de Dickey-Fuller. Comme dans le cas du test ADF, on commence
par tester l'hypothèse nulle selon laquelle DLTCR, DLDIP et DLDDM
sont non stationnaires contre l'hypothèse alternative de
stationnarité.
L'application du test de Phillips-Perron
nécessite de choisir au préalable le paramètre de
troncature l intervenant dans le calcul de la variance de long terme des
résidus. Nous présentons la valeur de ce paramètre
en utilisant la formule déjà mentionnée
précédemment, soit l = T1/4 = 1771/4 =
4.
On estime le modèle avec constante et
tendance. La tendance n'est pas apparue
significativement différente de zéro25
(tableau 2.8). Nous avons en conséquence estimé
un modèle avec constante, sans tendance. A nouveau, la
constante a été trouvée non significativement
différente de zéro (tableau 2.8). Nous estimons donc au
final un
modèle sans constante ni tendance dont les
résultats sont reportés dans le tableau 2.9.
25 Dans la mesure où la procédure est
identique à celle des tests de Dickey-Fuller, nous ne reportons que les
résultats relatifs au modèle finalement retenu afin de ne pas
surcharger le chapitre de tableaux.
Tableau 2.8 Significativité de la tendance et
de la constante
|
Différence 1ère
|
variables
|
Avec constante
et tendance
|
Avec constante
et sans tendance
|
LTCR
|
0.58
|
-0.003
|
LDIP
|
1.37
|
-2.42
|
LDDM
|
-0.03
|
0.76
|
La valeur calculée de la statistique de
PP est égale à -9.95 pour DLTCR, -15.84
pour DLDIP et -13.13 pour DLDDM. Ces valeurs sont à
comparer chacune à la valeur critique -1.94 au seuil statistique de 5%.
Ils sont chacune inférieure à cette valeur : on rejette
l'hypothèse nulle de racine unitaire. Les séries sont
stationnaires, c'est-à-dire intégrées d'ordre 1.
Tableau 2.9 Résultat du test de PP dans le
modèle sans tendance et sans constante
variables
|
Différence
1ère
|
LTCR
|
-9.95
|
LDIP
|
-15.84
|
LDDM
|
-13.13
|
Afin de déterminer l'ordre
d'intégration des séries LTCR, LDIP et LDDM,
nous appliquons la stratégie de test sur les
séries non différenciées. L'estimation du modèle
avec constante et tendance a montré que la tendance n'est pas
significativement différente de zéro (tableau 2.10). Nous
avons alors procédé à l'estimation du modèle
avec constante, sans tendance déterministe. La constante
n'étant pas apparue significativement différente de zéro
(tableau 2.10), le modèle sans constante, ni tendance est estimé
(voir tableau 2.11) afin de procéder au test de racine unitaire. La
valeur calculée de la statistique de PP est égale à -1.06
pour LTCR, -1.42
pour LDIP et -1.57 pour LDDM. Elles sont chacune
supérieures à celle de valeur
tabulée de -1.94. On accepte l'hypothèse
nulle de racine unitaire : les séries LTCR, LDIP et LDDM sont des
séries non stationnaire.
Les résultats du test de
Phillips-Perron confirment ainsi ceux issus de l'application du test
ADF.
Tableau 2.10 Significativité de la tendance
et de la constante
|
Niveau
|
variables
|
Avec constante
et tendance
|
Avec constante
et sans tendance
|
LTCR
|
-0.16
|
0.93
|
LDIP
|
-0.37
|
-0.32
|
LDDM
|
-2.10
|
-0.48
|
Tableau 2.11 Résultat du test de PP dans le
modèle sans tendance et sans constante
variables
|
Niveau
|
LTCR
|
-1.06
|
LDIP
|
-1.42
|
LDDM
|
-1.57
|
Test KPSS
Appliquons le test KPSS aux
séries DLTCR, DLDIP et DLDDM. Rappelons qu'il s'agit d'un test de
stationnarité dans la mesure où, contrairement aux autres tests,
sous l'hypothèse nulle les séries DLTCR, DLDIP et
DLDDM sont supposées stationnaires.
La première étape consiste
à choisir si l'on retient un modèle avec ou sans trend
linéaire. Pour cela, on peut notamment s'aider du graphique des
séries, se référer à la théorie
économique ou encore utiliser les résultats des tests
Dickey-Fuller
1
précédemment appliqués. On retient alors
un modèle avec constante sans tendance
pour mener à bien le test KPSS, c'est-à-dire que
nous calculons la statistique . Nous avons mis en oeuvre ce test pour les
valeurs du paramètre de troncature l suggérées par
Schwert, à savoir :
1
T
4
T
4
l4 = int
4
l12 = int
12
100
100
Soit, dans notre cas, l4 = 4 et
l12 = 13. Les résultats obtenus, reportés dans
le
tableau 2.12, indiquent que les valeurs calculées
de la statistique de KPSS pour les trois séries DLTCR, DLDIP et
DLDDM sont inférieures à la valeur critique 0.463 au seuil de 5%
( voir tableau 2.2). On accepte donc l'hypothèse nulle de
stationnarité de DLTCR, DLDIP et DLDDM.
Tableau 2.12 Résultat du test
KPSS
Variables
|
Différence 1ère
|
LTCR
|
0.1361
|
0.1341
|
LDIP
|
0.2677
|
0.1860
|
LDDM
|
0.0405
|
0.0493
|
On s'intéresse à présent
à la stationnarité des séries LTCR, LDIP et
LDDM.
Afin de sélectionner le modèle à retenir,
nous nous basons sur les résultats des tests de
Dickey-Fuller. Nous retenons un modèle avec
constante et sans tendance pour
effectuer le test KPSS, c'est-à-dire que nous
calculons la statistique
pour l4 = 4
et l12 = 13. Les résultats obtenus
figurent dans le tableau 2.13. Ces valeurs sont à
comparer à la valeur critique 0.463 au seuil statistique
de 5% (voir tableau 2.2). On remarque que les valeurs calculées sont
supérieures à la valeur 0.463.
Tableau 2.13 Résultat du test
KPSS
Variables
|
Niveau
|
LTCR
|
1.8021
|
0.7076
|
LDIP
|
2.9215
|
1.096
|
LDDM
|
2.7980
|
1.1053
|
Les résultats du test de KPSS
confirment bien ceux du test ADF et PP
et montrent que les séries des variables du modèle
admettent tous des racines unitaires
(I (1)) et présentent une stationnarité en
différence première (I (0)). Nous pouvons ainsi passer au
test de cointégration.
2.5. Test de cointégration
Dans cette partie, nous allons
expliciter deux approches de cointégration à savoir
l'approche en deux étapes d'Engle et Granger (1987) et la
cointégration multidimensionnelle de Johansen (1988).
2.5.1. Théorème de représentation
d'ENGLE et GRANGER (1987)
Soit la relation suivante :
Yt = a + bXt + et (2.32)
Si les deux variables Yt et Xt sont I (1)
alors, en général, la combinaison linéaire
Yt - a - bXt = et est également I (1). Cependant, il
est possible que et soit stationnaire
ou bien I (0). Pour qu'une telle éventualité se
réalise, il faudra que les trends entre les variables Yt et Xt soient
cointégrées et b est le paramètre de
cointégration. En d'autres termes, deux séries Yt et Xt sont
dites cointégrées si chacune d'entre elle est I (1)
et qu'il existe une combinaison linéaire telle que
Yt - a - bXt = et soit I (0).
et décrit les déviations de Yt et de Xt
par rapport à leurs sentiers d'équilibre respectifs.
Ce résidu est souvent qualifié d'erreur
d'équilibre. A partir du moment que et est stationnaire, les deux
séries temporelles Yt et Xt respectent une relation stable de
long terme. L'application de la technique de la cointégration
reviendrait dans
ces conditions à s'assurer de la
stationnarité des termes d'erreur d'équilibre. La
méthode employée par Engle et Granger (1987) repose
sur deux étapes :
· La première étape consiste à
estimer l'équation ou la régression de cointégrations
par la méthode des moindres carrées ordinaires (MCO) sachant que
Yt et Xt sont intégrées d'ordre 1. Cette
opération permettra d'extraire les résidus estimés ;
· La seconde étape sera consacrée à
tester la stationnarité des résidus dégagés de la
première ètape. Si ceux-ci sont stationnaires, les
variables figurant au niveau de la régression
susmentionnée sont cointégrées. Engle et Granger
préconisent pour ce faire, l'utilisation
du test de Dickey-Fuller augmenté (ADF).
Disposant de variables stationnaires en
différence première, on va chercher dans ce qui suit,
à identifier des variables d'équilibre de long terme
à partir de l'estimation de relations cointégrantes liant
le taux de change à ses déterminants fondamentaux.
Estimation par MCO
Comme première étape au test
de cointégration de Engle et Granger, on va procéder
à l'estimation par les moindres carrées ordinaires le
modèle monétaire (MM :
équation 2.20).
2.14.
LTCR = C + C1 LDIP + C2 LDDM + åt
(2.33)
Les résultats de l'estimation de
l'équation 2.33 sont reportés dans le tableau
Tableau 2.14 estimation du MM par
MCO
Parités
|
C
|
C1
|
C2
|
R2
|
DW
|
EURO/$
|
0.0375
|
0.5156
|
-0.2210
|
0.4013
|
0.0752
|
Les résultats des estimations du MM,
Durant la période (1990 : 01 - 2004 : 09),
par les moindres carrées ordinaires sont
satisfaisantes puisque les signes des coefficients sont conformes aux
prédictions de la théorie.
Par ailleurs, la lecture des résultats
révèle la présence conjointe d'un coefficient
de détermination assez faible (R2 =
0.4013) et d'une statistique de Durbin-Watson faible (DW = 0.0752) ce
qui illustre bien le cas d'une régression fallacieuse (ce
résultat est cohérent avec la « règle »
intuitive fournie par Granger et Newbold (1974) concernant la
présomption de régression fallacieuse). Ce
phénomène s'explique principalement par la non
stationnarité des variables sous-jacentes au modèle
monétaire.
Etude du résidu
Après l'estimation du modèle
par MCO, on va étudier dans ce qui suit les
propriétés statistiques du résidu dégagé
par la régression. Cette étude confirmera l'existence d'une
relation de cointégration entre les différentes variables du
modèle si
le résidu est stationnaire et l'infirmera dans le cas de
non stationnarité du résidu. Dans
ce but, on va commencer par jeter un oeil sur l'évolution
de ce résidu par la figure 2.2.
Figure 2.2 : graphique du
résidu
Figure 2.2 : graphique du
résidu
3
2
0
-1
-2
1990 1992 1994 1996 1998 2000 2002 2004
D'après l'examen de l'évolution
du résidu, on constate que le résidu est non
stationnaire qu'on va confirmer par le test de racine unitaire
d'ADF et de PP.
Les résultats de tests de
stationnarité d'ADF et PP sont reportés dans le tableau
2.15. Ces résultats confirment bien l'existence
de racine unitaire dans le résidu du modèle
étudié. Ceci infirme la présence de relation
de cointégration entre les différentes variables des
modèles.
Tableau 2.15 Test ADF et PP sur le
résidu
Variables
|
Test ADF
|
Test PP
|
Résidu
|
-1.4461
|
-1.09925
|
On conclut que les tests fondés sur
la méthode en deux étapes de Engle
et Granger (1987) conduisent à un rejet quasi
systématique des modèles théoriques (du fait de l'absence
de relation de cointégration).
Nos résultats rejoingnent ceux de Meese
(1986) et Boothe et Glassman (1987)
pour les modèles monétaires.
Plus récemment, en utilisant la
méthode de Johansen, MacDonal et Taylor (1993, 1994) mettent en
évidence plusieurs relations de cointégration, rendant une
certaine validité empirique à ces modèles.
2.5.2. Le test de cointégration de
Johansen(1988)
Cette partie d'étude est consacrée
à l'application de la méthode de cointégration. En effet,
la littérature empirique de la finance offre un très grand
cumul
de travaux empiriques qui ont tenté de définir les
théories de détermination du taux de change en tant que relations
d'équilibres stables de long terme. Cette voie de recherche
a été encouragée par le développement
de l'économétrie des séries temporelles et de la
théorie de cointégration.
La technique de cointégration constitue
une analyse qui génère des estimations
empiriques pour le trajet de long terme de taux de change
réel tout en tenant compte de l'évolution des séries
temporelles des fondamentaux. Selon la théorie de cointégration,
deux séries xt et yt sont dites co-intégrés
d'ordre d et b, pour 0<b<d, s'il existe un vecteur
co-intégrant (á, â) tel que :
Zt = á xt + â yt est intégré
d'ordre (d - b).
On distingue dans la littérature les
travaux employant les procédures de test de cointégration en
deux étapes de Engel et Granger (1987) des autres utilisant la
cointégration multidimensionnelle de Johansen (1988) et la
cointégration d'Engel
et Joyeux (1990).
Johansen propose une estimation de
l'espace des vecteurs co-intégrants d'un processus vectoriel
autorégressif co-intégré par la méthode
de maximum de vraisemblance. C'est pour cela qu'il a proposé
un test de rapport de vraisemblance (LR) pour déterminer les
vecteurs co-intégrants qui traduisent le mieux les relations
co-intégrantes. Donc, l'avantage de cette méthode
est qu'elle offre plus qu'un vecteur
co-intégrant.
Soit le modèle vectoriel
autorégressif (VAR) d'ordre p suivant :
Xt = 1 Xt-1 + 2 Xt-2 + ... + k Xt-k +ut
(2.34)
K représente l'ordre de retard du
modèle choisit suivant le rapport de vraisemblance.
Xt contient n variables toutes intégré d'ordre 1 I
(1).
Si on écrit cette relation sous une forme
de correction d'erreur pour un vecteur
à : n variables Xt = (x1t, ..., xnt) on a :
Xt = 1 ?Xt-1 + 2 ? Xt-2 + .... + k ? Xt-k + Ð
Xt-k + åt (2.35)
Où åt est supposé un
vecteur de perturbations normales.
S'il existe r relations de cointégration
(0< r< n) entre les composantes de Xt, la matrice Ð est de rang (n -
r) et peut être décomposée sous la forme Ð = á
.â, avec á
et â de dimension (n, r). Dans ce cas, si on note ë
= (ë1, ..., ën) le vecteur des valeurs propres associés
à la matrice des corrélations canoniques entre ? Xt et
Xt-k et V = (v1,..., vn) la matrice des vecteurs propres associés
à ë, alors seules les r plus grandes
propres (ë1, ..., ën) sont
significatives et â = (v1,..., vn) est
constitué des r premiers
vecteurs propres.
L'étape suivante consiste à
tester des vecteurs co-intégrants. Pour cela, Johansen a
utilisé deux statistiques basées sur le rapport de vraisemblance
(LR) :
Test de la trace : LR1 = T
N
log(1 - i )
i =q +1
(2.36)
Les ëi représentent
les corrélations canoniques entre les séries ? Xt et
Xt-k. LR1
teste l'hypothèse nulle r q contre
l'hypothèse alternative r = q + 1, où r est le nombre
des vecteurs co-intégrants.
La deuxième statistique est :
Test de la valeur propre : LR2 = T log
(1- ëq+1) (2.37)
LR2 teste l'hypothèse nulle r = q contre
l'hypothèse alternative r = q + 1.
De ce fait, le nombre des vecteurs
co-intégrants est déterminé en comparant la valeur de LR1
ou de LR2 aux valeurs critiques pour des seuils de 1%et de 5%
tabulées
par Johansen (1988).
Dimension de l'espace de
cointégration
Les valeurs propres calculées ainsi que
les statistiques du ratio de maximum de vraisemblance (LR) sont
résumées dans le tableau suivant :
Tableau 2.16 Résultat du test de
cointégration de Johansen
Relation de
cointégration
|
Relation de
cointégration
|
Statistique
LR
|
Valeurs critiques
|
Seuil 1%
|
Seuil 5%
|
LTCR=F (LDIP,
LDDM)
|
0
1
2
|
27.13
13.26
3.58
|
29.75
16.3
6.51
|
24.31
12.53
3.84
|
Les résultats des tests de
cointégration de Johansen (1988) nous permettent de
détecter des relations de cointégration.
En effet, la valeur de la statistique
(LR), pour la relation de cointégration,
inhérente à l'hypothèse (0 relation
de cointégration et 1 relation de cointégration) (27.13,
13.26) est supérieure à la valeur critique (24.31, 12.53) et ce,
pour un seuil de significativité de 5. Ce résultat nous conduit
à accepter l'hypothèse de présence d'au moins 2 vecteurs
de cointégration.
D'autre part, cette même
statistique afférente à l'hypothèse (2 relation de
cointégration) admet une valeur calculée de 3.58
inférieure à la valeur tabulée pour un seuil de
significativité de 5%. Ce résultat nous conduit à
l'affirmation de présence de 2 relations de cointégration.
Commentaires
Les résultats contradictoires entre les
deux approches de cointégration à savoir celle de Engle et
Granger et celle de Johansen peut être expliquées par
plusieurs
facteurs.
· En présence de coûts de transaction, la
vitesse d'ajustement vers
l'équilibre varie directement avec l'étendue de
l'écart par rapport à la cible de long terme. Les
coûts de transaction impliquent différents régimes de
transaction. Il existe une " bande de transaction" à
l'intérieur de laquelle aucune transaction n'a lieu, même si le
taux de change n'est pas à sa parité. A l'extérieur
de la bande, c'est-à-dire une fois que la déviation du change
a dépassé le seuil déterminé par les coûts de
transaction, l'arbitrage international sur les marchés des marchandises
redevient profitable et assure la convergence du taux de change vers sa valeur
d'équilibre de long terme ;
· Les fondamentaux eux-mêmes sont sujets
à des variations susceptibles d'être incompatibles avec un
ajustement linéaire des taux de change ;
· Le caractère inefficient des marchés
de changes. En effet, la dynamique du taux de change dépend des
anticipations que font les investisseurs sur les fondamentaux
économiques ; et
· La dynamique du taux de change est soumise
à des rigidités. Il
peut s'agir de rigidités liées au
fonctionnement des marchés
(rigidités des prix), à la politique
économique (les gouvernements
ne défendent les parités que si les
écarts dépassent un certain seuil), aux comportements des
agents (en raison des coûts de transaction, il existe des seuils en
deçà desquels il est trop coûteux d'acheter ou de
vendre).
Au total, de nombreux arguments
économiques permettent de justifier les contraductions entre les
résultats de la méthode de cointégration en deux
étapes de Engle et Granger et celle de Johansen. Ces
éléments ont des implications importantes
au niveau économétrique. Il est difficile de
rendre compte du caractère persistant des écarts du taux de
change en retenant le cadre empirique des modèles basés
sur l'hypothèse de cointégration linéaire avec retour
à la moyenne rapide vers la cible de long terme. Les arguments
évoqués précédemment conduisent plutôt
à se poser la question de l'introduction d'une dynamique avec
mémoire longue. Il convient alors
de s'attacher aux modèles reposant sur la
cointégration fractionnaire.
Dans la section suivante, nous tentons de
vérifier si le processus d'ajustement
du taux de change réel vers sa valeur
fondamental exhibe un phénomène de persistance et s'il y
a une relation de cointégration fractionnaire entre le taux de
change et les fondamentaux.
Section 3 : Quelle explication pour
l'ajustement du taux de change :
mémoire longue
Les résultats des tests usuels de
cointégration peuvent provenir du fait que le processus d'ajustement du
taux de change réel vers sa valeur fondamental exhibe un
phénomène de persistance. En d'autres termes, le processus
d'ajustement est un processus à mémoire longue. Nous nous
proposons ici d'étudier cette possibilité.
3.1. Mémoire longue et processus ARFIMA
3.1.1. Définition de la mémoire
longue
L'hypothèse d'indépendance des
séries temporelles est dans la plupart des cas uniquement une
approximation de la véritable structure de corrélation des
séries. D'importantes corrélations pour de faites retards
peuvent parfois être détectés et des processus à
mémoire courte, comme par exemple les processus ARMA, peuvent
suffire à modéliser la structure de dépendance des
séries.
Toutefois, il existe de nombreux exemples de
donnés où les corrélations prises seules sont faibles,
mais dont la somme est extrêmement élevée. Le
périodogramme de
ces séries indique un pic dans le spectre
à la fréquence zéro. A l'origine, trois explications
possibles d'un tel pic sur le périodogramme (ou de manière
équivalente des corrélations décroissants lentement)
existent : la non stationnarité, les phénomènes
transitoires et la stationnarité avec une dépendance à
long terme.
La première explication a
été avancé par nombre d'auteurs et en premier lieu
par Klemes (1974), Potter (1976,1979) et Bhattacharya, Gupta
et Waymire (1983). Les phénomènes transitoires ont souvent
été évoqués pour expliquer l'effet Hurst. Les
processus stationnaires avec dépendance à long terme ont
été analysés en premier par Kolmogorov (1940) dans un
travail théorique.
Selon Hosking (1984), la mémoire
longue peut être définie de différentes
manières. En effet, le phénomène de la mémoire
longue est caractérisé par :
· Une fonction de corrélation décroissant
hyperboliquement au fur et à mesure
que le retard s'accroît, c'est-à-dire ñk
~ k-x, alors que celle des processus à mémoire
courte décroît exponentiellement (ñk ~ åk,
0 < å < 1) ,
· Une densité spectrale s'accroissent sans
limite quand la fréquence tends vers zéro, ou
· L'étendue normalisée, se comportant comme la
fonction TH, H > ½ et T étant la
taille de l'échantillon, plutôt que comme la
fonction T1/2, caractéristique des processus à
mémoire courte.
Cette dernière caractéristique de la mémoire
longue est appelée « phénomène
de Hurst ».
Mandelbrot et Wallis (1968, 1969a, b, c),
Mandelbrot et Van Ness (1968),
Mandelbrot et Taqqu (1979) ont été les
premiers à introduire de tels processus en statistique.
Les processus stationnaires les plus simples
avec une dépendance de long terme sont les incréments des
processus appelés processus « auto-similaires26
» avec pour paramètre d'autosimilarité H [1, 1/2].
Leur structure de corrélation est complètement
déterminée par H. Les processus auto-similaires gaussiens sont
appelés « mouvements browniens fractionnaires » et leur
dérivée « bruit gaussien fractionnaire27
».
Le mouvement brownien est un processus
stochastique en temps continu B (t) avec des incréments gaussiens. Sa
dérivée est le bruit gaussien en temps continu qui a une
densité spectrale constante. Mandelbrot et Van Ness (1968) ont
montré que la mémoire longue est compatible avec la
stationnarité en construisant le mouvement brownien fractionnaire,
BH (t), un processus stochastique stationnaire en temps continu avec une
fonction de corrélation décroissant hyperboliquement,
correspondant à une généralisation du mouvement
brownien. Les propriétés de base du mouvement brownien
fractionnaire sont :
· Le mouvement brownien fractionnaire de paramètre H,
habituellement 0<H<1,
est le dérivée fractionnaire (1/2 - H) ième
du mouvement brownien, la dérivée étant définie au
sens de Weyl ou de Riemenn-Liouville ;
· La densité spectrale du mouvement brownien
fractionnaire est proportionnelle à
w -2H - 1 ; où w correspond à la
fréquence ;
· La fonction de covariance du mouvement brownien
fractionnaire est proportionnelle à k 2H-2
où k est le retard.
Le processus bruit fractionnaire en temps
continu est ainsi défini comme B'H
(t), la dérivée du mouvement brownien
fractionnaire. Il peut également être vu comme
la dérivée fractionnaire (1/2 - H) ième du
bruit blanc en temps continu, auquel il se réduit pour H = 1/2.
26 La loi liée aux autocorrélations
fortes est largement reliée au concept de processus autosimilaire,
introduit par
Kolmogorov (1940).
27 Le mouvement brownien fractionnaire (Sowell, 1990)
est un processus stochastique continu gaussien
1+ 2 d
stationnaire, de moyenne nulle, de fonction de covariance E
Wd
(t ) - Wd
(s ) 2 =
t - s défini pour d
(-1/2 ; 1/2). Quand d = 0 , il se réduit au mouvement
brownien ordinaire.
On recherche un analogue en temps discret du
processus bruit fractionnaire en
temps continu. Hosking (1981) indique qu'une
possibilité est le bruit fractionnaire en temps discret proposé
par Mandelbrot et Wallis (1969), lequel est défini comme un
processus dont la fonction d'autocorrélation est la même
que celle du processus à incréments unitaires ?BH (t) = BH
(t) - BH (t-1) du mouvement brownien fractionnaire. Mandelbrot et Wallis
(1969) ont montré que ce bruit gaussien fractionnaire exhibe
effectivement le « phénomène de Hurst ».
Les méthodes d'identification de la
mémoire longue dans une série temporelle sont diverses. La
procédure la plus ancienne fait référence au calcul de
l'exposant de Hurst (1951) lors de son étude sur les flux du
Nil. Elle a été par la suite largement
développée par Mandelbrot, puis améliorée par Lo
(1991) . Les propriétés théoriques
de cette statistique ont été
étudiées par Mandelbrot et Wallis (1968, 1969)
et Mandelbrot (1972).
Un second type d'outils permettant de
détecter la présence d'une mémoire longue dans une
série temporelle est constitué des tests de rapport de
variances développés par Cochrane (1988) et Lo et Mac Kinlay
(1988, 1989). Le test du rapport des variances exploite le fait que la variance
des incréments d'une série suivant une marche aléatoire
est linéaire dans l'intervalle échantillonnal,
c'est-à-dire que la variance des différences qièmes
de la série est égale à q fois la variance des
différences premières de la série. Cependant, la
difficulté de l'utilisation de ces tests réside dans le
le choix nécessaire a priori d'un paramètre de
troncature du nombre de retards de la fonction d'autocorrélation. Afin
de contourner ce problème, on peut utiliser un test basé
sur les autocorrélations spatiales : le test BDS
élaboré par Brock, Dechert
et Scheinkmen (1987). Ce test ne vise cependant pas initialement
à une mesure de la mémoire des séries, mais teste
l'hypothèse nulle de série indépendamment
et identiquement distribuée (absence de mémoire)
contre une alternative non spécifiée (présence d'une
mémoire). Il présente néanmoins l'intérêt
de déceler tout type de dépendance, entre les séries
linéaire ou non linéaire, à la différence des tests
classiques
de marche aléatoire. En ce sens il semble
suppléer aux insuffisances des tests précédents. Ces
différentes procédures d'estimation ont été
appliquées par Lardic
et Mignon (1995) sur diverses séries de taux de change et
d'indices boursiers. Nous
nous intéressons ici à une approche alternative
d'identification et de modélisation de la
mémoire longue, à savoir les modèles
ARFIMA (Autorégressif, fractionnairement intégré,
moyenne mobile).
3.1.2. Définition du processus ARFIMA
Les modèles ARFIMA sont des
processus à mémoire longue, et permettent donc d'identifier
les phénomènes de persistance. Ces modèles ont
été développés par Granger et Joyeux (1980) et
Hosking (1981) et constituent une généralisation des
processus ARIMA de Box et Jenkins dans lesquels l'exposant de
différenciation d était
un entier. Dans le cas des processus ARFIMA, d peut prendre
des valeurs réelles. Une série fractionnairement
intégrée a pour caractéristique une dépendance
entre des observations éloignées comme on peut le voir
dans la fonction d'autocovariance ou dans la fonction de densité
spectrale.
Un processus à mémoire longue
peut toujours être approximé par un processus ARMA (p, q), mais
les ordres p et q nécessaires pour obtenir une approximation
relativement bonne peuvent être trop grands et rendre
l'estimation précise des paramètres très difficile.
L'approche ARFIMA permet en ce sens
d'atténuer les contraintes pesant sur les paramètres du
modèle qui devaient modéliser le comportement à la fois de
court terme
et de long terme de la série. Avec les processus
ARFIMA, le comportement de court terme des séries peut être saisi
par les paramètres ARMA et le comportement de court terme de long terme
par le paramètre d'intégration fractionnaire.
Processus ARFIMA (0, d, 0)
L'analogue en temps discret du mouvement
brownien est la marche aléatoire,
ou ARIMA (0, 1, 0) :
(1 - L) Xt = ut (2.38)
où ut est une variable aléatoire iid.
Ainsi, la différence première de
{Xt} est le bruit blanc {ut} en temps discret.
Par analogie, on définit le bruit blanc
discret fractionnaire de paramètre d :
(1 - L) d Xt = ut (2.39)
où est un bruit blanc.
Avec le développement binominal :
d = (1 - L) d
= 1 - dL -
d (1 - d ) L2 -
2!
d (1 - d )(2 - d ) L3
- ..... =
3!
j
j L
j =0
( j - d )
k - 1 - d
où j =
( j + 1)(-d )
=
0<k j k
j= 0,1,...
où correspond à la fonction gamma :
t x -1e-t
dt
si x > 0
0
t = si x = 0
x-1 (1 + x) si x < 0
Les fonctions de densité spectrale (f
(.)), d'autocovariance ( (.)),
d'autocorrélation ( (.)) et d'autocorrélation
partielle ( (.)) sont respectivement :
-2 d 2
-2 d
2
f (ë) =
1 - e -i
= 2 sin
0<
(h) =
2
(1 - 2d )(h + d )
2 2
(d )(1 - d )(h + 1 - d )
(h) = ( ) ( )
=
h = 1, 2, ...
h + d 1 - d
k - 1 - d
(h) =
(h - d + 1)(d )
d
h - d
0< k h k
h = 1, 2, ...
Le processus ainsi défini est le
processus ARFIMA (0, d, 0). Les propriétés de
ce processus sont largement développées dans
Hosking (1981), nous n'en reprendrons
ici que les caractéristiques essentielles.
Soit {Xt} un processus ARFIMA (0, d, 0).
· Quand d< 1/2, {Xt} est stationnaire.
· Quand d > 1/2, {Xt} est inversible.
On voit donc que lorsque -1/2 < d <1/2
la série {Xt} est stationnaire et inversible. Les
autocorrélations diminuent à un taux hyperbolique, donc nettement
plus lentement que les autocorrélations des processus ARMA (qui
décroissent à un taux géométrique).
Généralisation : Processus ARFIMA (p, d,
q)
Le processus ARFIMA (0, d, 0) est un cas
particulier des processus ARFIMA
(p, d, q) où d ]
- 1 , 1 [qui peuvent être
définis comme suit :
(L)X t
2 2
= (L) t
(2.40)
t
où t
= - d u
ut : BB (0, 2 )
(L) et (L) sont des polynômes retard de
degré p et q respectivement.
Soit donc :
Xt - 1Xt-1 - ... -
p Xt-p = t
+ 1 t -1
+ ... + q1 t
-q
(2.41)
avec
t = ut + dut-1 +
d (d + 1)
2
-2
ut-2 +
d (d + 1)(d + 2)
6
ut-3 + ...
Bien entendu, comme dans le cas du processus
ARFIMA (0, d, 0), les processus
ARFIMA (p, d, q) sont des processus à mémoire
longue lorsque d ]
- 1 , 1 [et d 0.
2 2
La fonction d'autocorrélation (
(.)), et la densité spectrale (f (.))
de la série
{Xt} satisfont, pour d 0 :
(h) ~ Ch2d-1 où C 0 et
f(h) =
(e
-ih ) 2
1 - e
-i
-2 d 2
~
(1)
2
-2 d
quand tend vers zéro .
(e -ih ) 2
2 (1) 2
3.1.3. Exposant de Hurst et classification des
séries temporelles en fonction de
leur structure de dépendance
Analyse R/S et exposant de Hurst
Le calcul de la statistique R/S28
donne lieu à un coefficient appelé exposant de
Hurst, noté H et défini par :
28 Hurst a introduit la statistique R/S en 1951
lors de son étude sur les débits du Nil. Cette statistique,
largement développée par la suite par Mandelbrot, a
été définie dans le but de détecter la structure de
dépendance de long terme d'une série temporelle. La
statistique R/S (Rescaled Range) se définit comme
l'étendue des sommes
partielles des écarts d'une série temporelle
à sa moyenne divisée par son écart type.
H = log Q
log n
(2.42)
où Q est la statistique R/S et n le nombre
d'observations.
Il est alors possible de déterminer
la structure de dépendance de la série en fonction des
valeurs de H.
· Si H =
1 : le mouvement brownien fractionnaire se
réduit au mouvement
2
brownien ordinaire. Le processus ne présente donc aucune
dépendance à long terme. Les autocorrélations
décroisent à un taux géométrique vers
zéro.
· Si
1 < H <1 : On est en présence
d'un processus à mémoire longue. Le
2
processus présente « l'effet Joseph 29
» de dépendance à long terme,
dépendance d'autant plus forte que H se rapproche de 1. Dans
ce cas, la corrélation est positive et il y a persistance : si
la série a été à la hausse la
période précédente, alors il y a de fortes chances pour
qu'elle soit également à
la hausse la période suivante.
· Si 0< H < 1 : la
corrélation est négative. Le processus présente ce
que
2
Mandelbrot a nommé l'antipersistance. Ce
phénomène s'interprète comme suit :
des phases de hausse ont tendance à être suivies par
des phases de baisses.
Relation entre exposant de Hurst et paramètre
d'intégration fractionnaire
On peut montrer (Hosking, 1981 ; Geweke et
Porter-Hudak, 1983 ; Lo, 1991) qu'il existe une relation remarquable
entre le paramètre d des processus ARFIMA
et l'exposant de Hurst H : d = H - 1 .
2
Dés lors, il est possible
d'effectuer une classification des séries temporelles en fonction
des valeurs du paramètre d :
29 Le terme « d'effet Joseph », retenu
par Mandelbrot et Wallis (1968), renvoie à un passage de la
bible où
Joseph interprète un rêve de Pharaon : il avait vu
sept vaches maigres suivre sept vaches grasses et Joseph en conclut qu'il
s'agissait d'une succession prévue de sept années de
sécheresse à sept année de bonnes récoltes.
· Si 0 < d <
1 : Le processus ARFIMA est un processus
stationnaire à
2
mémoire longue. Les autocorrélations sont positives
et diminuent hyperboliquement vers 0 lorsque le retard augmente. La
densité spectrale
est concentrée autour des faibles fréquences
(cycles lents), elle tend vers l'infini lorsque la fréquence
tend vers zéro. On fait face à un processus
persistant ( 1 < H <1).
2
· Si d = 0, le processus ARFIMA se réduit au
processus ARMA standard.
· Si -
1 < d < 0 : Le processus est antipersistant.
Les autocorrélations sont
2
négatives et la densité spectrale est
dominée par des composantes de haute fréquence (la densité
spectrale tend vers zéro lorsque la fréquence tend vers
zéro).
3.1.4. Cointégration fractionnaire et processus
ARFIMA
Dans la définition usuelle de la
cointégration, l'ordre d'intégration D du terme d'erreur de la
relation de long terme est nécessairement un entier (1 si les variables
ne sont pas cointégrées, 0 si elles le sont). Cependant,
la restriction au cas de résidu intégré d'ordre 0
(relation stationnaire) et de résidu intégré d'ordre
1 (relation non stationnaire) peut paraître arbitraire. La
cointégration fractionnaire généralise ainsi le concept
usuel de cointégration en permettant à l'ordre
d'intégration du terme à correction d'erreur de prendre une
valeur réelle, et non plus nécessairement entière. En
d'autres termes, le terme d'erreur peut être fractionnairement
intégré, ce qui implique (pour D< 1) l'existence d'une
relation d'équilibre de long terme.
Plus précisément, soit EC
(équivalent à la variable t ) l'écart
du taux de change
réel par rapport à sa valeur fondamentale,
c'est-à-dire le terme d'erreur de la relation statique de long terme
entre le taux de change réel et ses fondamentaux. Le taux de change
réel et les fondamentaux sont fractionnairement
cointégrés si EC suit un processus à mémoire
longue, tel qu'un processus ARFIMA.
t
(L) (1 - L) D EC = (L)
(2.43)
Où (L) et (L) sont les polynômes retards
autorégressif et moyenne mobile,
t est un bruit blanc et :
(1 - L) D = 1 - DL -
D(1 - D) L2
-
2!
D(1 - D)(2 - D) L3
- ... (2.44)
3!
Ainsi, de la même façon que les
processus ARIMA peuvent être généralisés au travers
des processus ARFIMA, il est possible d'étendre le concept de
cointégration au
cas fractionnaire. Cette notion de cointégration
fractionnaire, introduite par Granger (1986), nous paraît
importante d'un point de vue économique puisqu'elle a pour
conséquence l'existence d'une relation d'équilibre de long terme.
En effet, dans ce sac,
les erreurs tendent à retourner vers la moyenne,
même si ce retour ne s'effectue qu'après un temps
relativement long. En ce sens, les alternatives de résidus
intégrés d'ordre 0 (cointégration) et
intégrés d'ordre 1 (absence de cointégration) sont
trop restrictives. Pour que le processus d'erreurs exhibe un
comportement de retour à la moyenne, il n'est pas nécessaire
qu'il soit intégré d'ordre 0 : les processus à
mémoire longue, tels que les processus ARFIMA , affichent
également un tel comportement.
3.1.5. Résultats et commentaires
Pour déterminer l'exposant de
Hurst, il faut que la variable étudiée soit stationnaire.
La variable EC n'est pas stationnaire (voir tableau 2.15) donc on étudie
la stationnarité de la variable DEC (voir annexe20).
D'après l'annexe 22, on constate que
le même résultat est trouvé que se soit pour le
test ADF ou PP, la variable DEC est stationnaire puisque on a la valeur
estimée
de la statistique ADF est égale à -8.54 qui est
inférieur à la valeur critique -1.94et on a aussi la valeur
calculée de la statistique PP est égale -9.11 qui est
inférieur à la valeur critique -1.94.
L'estimation de l'exposant Hurst donne comme
résultat :
H = 0,55649 ; d = H -
1 = 0,55649 -
2
1 = 0,05649.
2
D'après le coefficient Hurst, on peut
déduire la valeur de l'ordre d'intégration à
savoir d (0,05649) qui appartient à l'intervalle]
0,0.5 [. D'après ce résultat, il
est évident que la variable étudiée
est stationnaire et possède un comportement de mémoire
longue. Ses corrélations ainsi que ses corrélations
partielles sont toutes positives et décroissent hyperboliquement vers
zéro lorsque les retards augmentent.
Ainsi, les résultats font ressortit
l'existence d'une relation de cointégration fractionnaire entre le
taux de change et ses fondamentaux.
Conclusion
L'objet de ce chapitre était
d'étudier la dynamique d'ajustement du taux de change réel
EUR/USD vers les fondamentaux. Après avoir mis en
évidence les résultats des tests usuels de cointégration,
nous avons cherché les causes possibles de
ces résultats. Nous nous sommes en particulier
attaché à expliciter la dynamique d'ajustement
linéaire à mémoire longue (processus ARFIMA).
Les résultats obtenus montrent que
la dynamique d'ajustement du taux de change réel peut être
bien décrite par un processus à mémoire longue, mettant
ainsi en évidence la persistance des écarts du taux de change par
rapport à ses fondamentaux.
Chapitre II : Expliquer les déviations du taux
de change : mémoire longue
Conclusion Générale
Etant donné l'important rôle des
taux de change dans la réussite des expériences d'ouverture des
économies, nous nous sommes concentrés au sein de ce
travail à analyser la dynamique du taux de change à long
terme.
En fait, le terme change prendra
dans ce contexte une grande place
et nécessitera obligatoirement une étude et
un approfondissement. Pour cette raison, nous avons organisé notre
travail autour de deux chapitres. Dans le premier chapitre, nous avons
essayé de présenter les principales théories et approches
de détermination pour passer, dans le deuxième chapitre,
à l'analyse économétrique d'un de ces approches
à savoir l'approche monétaire.
Grâce à une étude portant
sur des observations mensuelles couvrant la période
Janvier 1990 Septembre 2004, nous avons pu expliquer la
déviation du taux de change
par rapport aux fondamentaux moyennant la technique de
cointégration et le processus
ARFIMA pour le couple EURO/DOLLAR .
Notre étude a pu monter l'existence
d'une convergence fractionnaire entre le taux de change et les fondamentaux et
que le processus d'ajustement est plus long que celui dans le cas d'une
cointégration linéaire.
Désormais, l'étude que nous
avons menée, peut être approfondie, puisque notre recherche n'a
porté que sur le processus ARFIMA. Ceci peut constituer un point de
démarrage pour d'autres travaux, qui traitent cette même
problématique, et qui se base
sur d'autres modèles (par ex : modèles STAR,
modèle GARCH ...).
Chapitre II : Expliquer les déviations du taux
de change : mémoire longue
Bibliographie
Bibliographie
Article
Aglietta, M., Baulant, C., Coudert, V. (1998), "Pourquoi l'euro
sera fort. Une approche par les taux de change d'équilibre" Revue
économique, n° 3, pp. 721-731.
Baillie, R.T. (1996), "Long memory processes and
fractional integration in econometrics" Journal of Econometrics, n° 73,
pp. 5-59.
Barrell, R., Wren-Lewis, S. (1989), "Fundamental Equilibrium
Exchange Rates
for the G7" CEPR Discussion Paper, n° 323, Center of
Economic Policy Research, pp.
1-27.
Bayoumi, R., Mac Donal, R. (1999), "Deviations of
Exchange Rates from Purchasing Power Parity: a Story Featuring Two Monetary
Unions" IMF Staff Papers, Mars, pp. 89-102.
Bec, F., Ben Salem, M., MacDonald, R., (1999), "Real exchange
rates and real interest rates : A nonlinear perspectives" Working Paper THEMA,
99-17, Université Paris X.
Borowski, D., Couharde, C., Thibault, F. (1998),
"Les taux de change d'équilibre fondamentaux : de l'approche
théorique à l'évaluation empirique" Revue Francaise
d'Economie, Vol. 13, n° 3, pp. 177-206.
Borowski, D. Couharde, C., Thibault, F. (1998),
"Sensibilités des taux de change d'équilibre aux output
gaps et aux cibles de balance courante" Economie
et Prévision, n°134, pp. 71-96.
Cadiou, L. (1999), "Que faire des taux de change réels
d'équilibre ?" Economie
International, n° 77, pp. 67-96.
Clark, P., Bartolini, L., Bayoumi, T., Symansky, S.
(1994), "Exchange Rates and Economic Fundamentals : A Framework for
Analysis" IMF Occasional Paper,
n° 115.
Cheung, Y. (1993), "Long Memory in Foreign Exchange
Rates" Journal of
Business and Economic Statistics, n° 11, Janvier, pp.
93-101.
Chapitre II : Expliquer les déviations du taux
de change : mémoire longue
Bibliographie
Cheung, Y., Chinn, M.D., Pascual, A.G. (2002),
"Empirical exchange rate models of the nineties: are any fit to
survive?" NBER Working Paper 9393, Décembre, 27+18p.
Clostermann J., Bernd Schnatz [C-S] (2000), "The Determinants
of the Euro- Dollar Exchange Rate" Discussion Paper 2/00, Economic
Research Group of the Deutsche Bundesbank, May.
Coudert, V. (1999), "Comment définir un taux de change
d'équilibre pour les pays émergentes?" Economie Internationale,
n° 77, pp. 45-65.
De Grauwe, P. (2000), "Exchange rates in search of fundamentals:
the case of the euro-dollar rate" International Finance, 3:3, pp. 329-356.
Dufrénot, G. (2004), "Cointégration entre les
taux de change et les fondamentaux : changement de régime ou
mémoire longue ?" Document de travail du GREQAM, n° 2004 -15.
Dornbush, R. (1976)," exceptations and exchange rate
dynamics" Journal of
Political Economy, vol 84, pp 1161-1176.
Dufrénot, G., Mathieu, L., Mignon, V.,
Péguin-Feissolle, A. (2002), "Persistent misalignments of the
European exchange rates : Some evidence from nonlinear
cointégration" Working Paper THEMA , Université Paris X.
Duval, R. (2001), "Estimation du taux de change réel
d'équilibre de long terme euro/dollar par une approche dynamique" Revue
économique.
Faruquee, H. (1995), "Long-Run Determinants of the Real Exchange
Rate: A Stock-Flow Perspective" IMF Staff Papers, Vol.42, n°1, pp.
80-107.
Feyzigolu,T. (1997), "Estimating the Equilibrium Real
Exchange Rate : An application to Finland" IMF Working Paper,
n°97/109.
Gandolfo, G., Felttigh, A. (1998), "The NATREX: an
Alternative Approach, Theory and Empirical Verifications" CIDEI Working
Paper # 52, La Sapienza, Universita di Roma.
Groen, J.J. (2000), "The monetary Exchange Rate Model as
a Long-Run
Phenomenon" Journal of International Economics, 52(2),
299-319.
Chapitre II : Expliquer les déviations du taux
de change : mémoire longue
Bibliographie
Hinkle, Lawrence and Peter Montiel (Ed), "Exchange Rate
Misalignment: Concept and Measurement for Developing Countries",
World Bank Research Publication, Oxford University Press, (1999).
FRANKEL, J.A. (1979), " on the mark : a theory of
floating exchange rates based on real interest differentials" American
economic review, vol 69, pp 610-622.
Joly, H., Prigent, C., Quinet, A., Sobczak, N. (1999) "Une
estimation du taux
de change réel d'équilibre pour l'économie
française" Economie internationale, n°77, pp.3-20.
Joly, H., Quinet, A., Sobczak, N. (1996), "Le taux de change
réel d'équilibre :
une introduction" Economie et Révision, n° 123-124,
pp. 1-21.
Kilian, Lutz. (1997), "Exchange Rate and Monetary
Fundamentals: What Do We Learn from Long-Horizon Regressions?" Working paper,
University of Michigan, December 1997.
Lardic, S., Mignon, V. (1996), "Les tests de mémoire
longue appartiennent-ils
au camp du démon ?" Revue économique, 47, n°
3, pp. 531-540.
Lardic, S., Mignon, V. (1997), "Essai de mesure du degré
de mémoire longue des séries. L'exemple de la
modélisation ARFIMA" Economie appliquée, n°2, pp.
161-195.
Ma, Y., Kanas, A. (2000), "Testing for a
nonlinear relationship among fundamentals and exchange rates in the
ERM" Journal of Internationnal Money and Finance, n° 19, pp.
135-152.
Mac Donald, R. (1995), "Long -run exchange rate modelling: a
survey of the recent evidence" IMF Staff Papers, Septembre 1995, pp.
437-489.
Mac Donald, R., Taylor, M.P. (1991), "Exchange Rate Economics: A
survey" IMF Working Paper, Juin 1991.
Maeso-Fernandez F.,Osbat C., Schnatz B.(2001), "Determinants of
the euro real
R/PEER approach" ECB Working Paper Series,
effective exchange rate : a BEE Novembre 2001.
Bibliographie
Mark, N.C. (1995), "Exchange Rates and Fundamentals:
Evidence on Long- Horizon Predictability" American Economic Review, 85,
201-18.
Chapitre II : Expliquer les déviations du taux
de change : mémoire longue
Mark, N.C., and S. Donggyu (2001), "Nominal Exchange Rate and
Monetary
Fundamentals: Evidence from a small Post-Bretton
Woods Panel" Journal of
International Economics, 53, 29-52.
Meredith, G.(2001), "Why has the euro been so weak?" IMF
Working Paper, WP/01/155.
Ministère de l'économie des finances
et de l'industrie, Direction de la Prévision,
République Française (2000), Note de Conjoncture
Internationale, "Quels déterminants des taux de change à long
terme ?", Décembre pp. 26-37.
Neary, P. (1988), "Determinants of the Equilibrium Real
Exchange Rate" American Economic Review, vol.78, n° 1, pp.210-215.
Neely, C.J., and Sarno, L. (2002), "How well do
Monetary Fundamentals Forecast Exchange Rates?" Working Papers 2002-007,
Federal Reserve Bank of St.Louis.
Rapach, David E and Wohar, Mark E. (2002), "Testing the
Monetary Model of Exchange Rate Determination: New Evidence from a
century of Data." Journal of International Economics, 58. pp. 359-385.
Rogoff, Kenneth, (1999),"Monetary Models of
Dollar/Yen/Euro Nominal
Exchange Rates: Dead or Undead?" Economic Journal, 109, (November
1999), 655-
659.
Stockman, Alan C. (1987), "The equilibrium Approach to
Exchange Rate" Economic Review Federal Reserve Bank of Richmond, Mars-Avril,
pp. 12-29.
Taylor, M.P. (1995), " the economics of exchange rates" Journal
of Economics
Literature, vol XXXIII , pp 13-47.
Taylor, M.P., and D.A. Peel (2000), "Nonlinear adjustment,
Long-run Equilibrium and Exchange Rate Fundamentals" Journal of
International Money and Finance, 19, 33-53.
Villa, P., (1997), "Ces taux de change qui bifurquent" Working
Paper, CEPII.
Ouvrages
Lardic S., Mignon V. "Econométrie des séries
temporelles macroèconomiques
et financiers" Economica, 2002.
Chapitre II : Expliquer les déviations du taux
de change : mémoire longue
Internet
Hansen, H., Juselius, k. (1995) "Cats in Rats.
Cointegration analysis of time series" Estima.
www.estima.com
|