I.2- Méthodes d'estimations
économétriques
Le présent paragraphe est consacré à
l'explication des différents tests économétriques
successivement utilisés dans la méthodologie de l'estimation.
Ainsi on a effectué les tests suivants :
> Stationnarité des variables
La première étape de toute étude
économétrique, est de vérifier la stationnarité. On
peut le faire par les tests de racines unitaires. Si les variables sont non
stationnaires, on se doit de les rendre stationnaires avant toute estimation
économétrique, car les seules séries que l'on sache
modéliser sont celles stationnaires. Les développements
récents de la littérature suggèrent que les tests de
racine unitaire sur données de panel sont plus puissants que les tests
sur séries chronologiques individuelles. Dans notre étude, nous
privilégions le test IPS proposé par Im et al. (1997, 2002,
2003), car il prend en compte
l'hétérogénéité, mais aussi, propose une
statistique simple fondée sur la moyenne des statistiques DF ou ADF
(Hurlin et Mignon, 2005).
PPage 32
40
Ce test postule la racine unitaire contre la
possibilité de la cohabitation de deux catégories d'individus
dans le panel. Les individus pour lesquels la variable est stationnaire et ceux
pour lesquels elle ne l'est pas.
> Test de spécification ou
d'homogénéité
Lorsque l'on est en présence d'un échantillon de
données de panel, on se doit de faire est de vérifier la
spécification homogène ou hétérogène du
processus générateur des données. Cela revient, sur le
plan économétrique, à tester l'égalité des
coefficients du modèle étudié dans la dimension
individuelle. Sur le plan économique, les tests de spécification
visent à déterminer si le phénomène
étudié est parfaitement identique pour tous les individus, ou au
contraire, s'il existe des spécifications propres à chaque
individu.
On considère un échantillon de 7 observations de
8 processus individuels 9:;,<, = ? Z, 3 ? NA et 9B;,<, = ? Z, 3 ? NA. Par
la suite, l'on notera 9:;,<A et 9B;,<A ces deux processus. On
suppose que le processus 9:;,<A est défini de façon
générale par la relation linéaire suivante,
? 3 ? N,? = ? Z : =a ·+ Fx + e (/1
·oùa ·ERa'=(a a pli )F est un
yi,t ai ~i ti,t ti,t l ) ai F~ F~i,;,
,-2,;, ... K,i
vecteur de dimension(N, 1). On considère ainsi un vecteur
de N variables explicatives :
B;,< = (BJ,;,<, BK,;,<, ... , BM,;,<)F
(2)
Les innovations G;,< sont supposées être3. 3.
Q. 24. On suppose ainsi que les paramètres D; et E; du
modèle (1) peuvent différer dans la dimension individuelle, mais
l'on suppose qu'ils sont constants dans le temps.
Plusieurs configurations sont alors possible pour ce
modèle (1) :
1. Les 8 constantes D; et les 8 vecteurs de paramètres
E; sont identiques : D; = D, E; = E, ?3 ? S1, 8T selon les individus. On
qualifie alors le panel de panel homogène.
2. Les 8 constantes D; et les 8 vecteurs de paramètres
E; sont différents selon les individus. On a donc 8 modèles
différents, on rejette la structure de panel.
3. Les 8 constantes D; sont identiques, D; = D, ?3 ? S1, 8T ,
tandis que les vecteurs de paramètres E; diffèrent selon les
individus. Dans ce cas, tous les coefficients du modèle,
24 Indépendantes et identiquement distribuées :
c'est -à-dire de moyenne nulle et de variance constante
Page 33 Page 4
à l'exception des constantes, sont différents
selon les individus. On a donc N modèles différents.
4. Les N vecteurs de paramètres [3i
sont identiques, [3i = [3, Vi E [1, N], tandis que les constantes
ai diffèrent selon les individus. On obtient un
modèle à effets individuels.
Pour discriminer ces différentes configurations et pour
s'assurer du bien-fondé de la structure de panel, il convient d'adopter
une procédure de tests d'homogénéité
emboîtés, selon la procédure de Hsiao (1986), tel que
décrite sur la figure III.1 se trouvant à l'annexe.
Dans une première étape, on teste
l'hypothèse d'une structure parfaitement homogène (constantes et
coefficients identiques) : Ha: [3i = [3, ai = a, Vi E [1, N] ;
Hal: 3 (i,j) E [1,N]/[3i *
[3]ouai*agi
On utilise alors une statistique de Fisher pour tester ces
(K + 1)(N - 1) restrictions linéaires. En effet, dans notre
modèle, chaque vecteur [3i comprend K
paramètres. Pour les N individus du panel, on obtient
KN paramètres. L'égalité des N vecteurs
[3i revient donc à imposer KN - K restrictions. De la
même façon, l'égalité des N constantes
revient à imposer N - 1 restrictions. Au total,
l'hypothèse Ha revient à imposer (K + 1)(N - 1)
restrictions linéaires.
Si l'on suppose que les résidus £i,t sont
indépendamment distribués dans les dimensions i et t
, suivant une loi normale d'espérance nulle et de variance
constante, cette statistique suit une distribution de Fisher avec (K + 1)(N
- 1) et NT - N(K + 1) degrés de liberté. Les
conclusions de ce test sont les suivantes. Si l'on accepte
l'hypothèse nulle Ha d'homogénéité, on obtient
alors un modèle de pooled totalement homogène. yi,t = a
+ [3'xi,t + £i,t (3)
Si en revanche, on rejette l'hypothèse nulle, on passe
à une seconde étape qui consiste à déterminer si
l'hétérogénéité provient des coefficients
[3i.
La seconde étape consiste à tester
l'égalité pour tous les individus des K composantes des
vecteurs [3i. Hg: [3i = [3, Vi E [1,N] ; Hâ: 3 (i,
j) E [1, N]/[3i * [3i .
Sous l'hypothèse nulle, on n'impose ici aucune
restriction sur les constantes individuelles ai. De la même
façon, on construit une statistique de Fisher pour tester ces (N -
1)K restrictions linéaires. Toujours sous l'hypothèse
d'indépendance et de normalité des résidus, cette
statistique suit une loi de Fisher avec (N - 1)K et NT - N(K + 1)
degrés de liberté. Si l'on rejette l'hypothèse
nulle Hg d'homogénéité des coefficients [3i, on rejette
alors la structure de
Page 34 Pa 42
panel, puisque au mieux seules les constantes ai
peuvent être identiques entre les individus : yi,t = a +
[3i'xi,t + ei,t (4). On estime alors les
paramètres vectoriels [3i en utilisant les modèles
différentes pays par pays. Si en revanche, on accepte
l'hypothèse nulle HoK
d'homogénéité des coefficients [3i, on
retient la structure de panel et l'on cherche alors à déterminer
dans une troisième étape si les constantes ai ont une dimension
individuelle.
La troisième étape de la procédure
consiste à tester l'égalité des N constantes
individuelles ai
sous l'hypothèse de coefficients [3i communs
à tous les individus : Ho`: ai = a, Vi E [1, N] ;
Hal: 3 (i, j) E [1, N]/ai * ai .Sous
l'hypothèse nulle, on impose [3i = [3. Sous l'hypothèse
d'indépendance et de normalité des résidus, on construit
une statistique de Fisher pour tester ces N - 1 restrictions
linéaires. Cette statistique suit une loi de Fisher avec (N - 1)K
et N(T - 1) - K degrés de liberté. Si l'on
rejette l'hypothèse nulle Ho`
d'homogénéité des constantes ai, on obtient alors un
modèle de panel avec effets individuels :
yi,t = ai + [3'xi,t + ei,t (5).
Dans le cas où l'on accepte l'hypothèse nulle
Ho`, on retrouve alors une structure de panel totalement
homogène (modèle pooled).
> Test de spécification de Hausman
Après avoir effectué le test
d'homogénéité qui nous a permis de retenir un panel, il
nous faut choisir le type de panel à utiliser. Nous utilisons pour ce
faire le test de spécification de
c
Hausman. Ce test repose sur la différence entre un
estimateur convergent et efficace (b
|
o sous
|
l'hypothèse nulle de bonne spécification), mais
non convergent sous l'hypothèse alternative, et un estimateur convergent
sous les deux hypothèses ( bl). En d'autres termes,
le test de Hausman teste l'hypothèse nulle selon laquelle les effets
spécifiques à chaque pays peuvent être
corrélés avec les variables du modèle contre
l'hypothèse alternative selon laquelle ces effets sont orthogonaux aux
variables explicatives. Autrement dit, le test de Hausman nous permet de
choisir entre un modèle à effets fixes et un modèle
à effets aléatoires.
> Test de causalité bidirectionnelle : test de
causalité en panel de Granger par paire de
variables
Soient xt et yt , deux
séries stationnaires. En effectuant la régression linéaire
de yt sur ses propres valeurs passées
ys, et sur les valeurs passées xs
de xt (s < t ), si l'on obtient des
coefficients significatifs de xs alors la connaissance du
passé de xt peut améliorer la
prévision de yt. On dit que xt
cause uni directionnellement yt. Il y a
causalité instantanée,
PPage 35
43
lorsque la valeur courante de xt
apparaît comme une variable explicative supplémentaire
dans la régression précédente. Le test de Granger issue
directement de la représentation autorégressive, consiste
à estimer par la méthode des moi/~ndres carrés
les deux équations suivantes : xt = a + Eki yi
xt-i + Eki Çi int-i+Et et yt
= / + E 1 coixt-i + E 1 Si yt-i + Et Un
test d'hypothèses jointes permet de conclure sur le sens de la
causalité. Ainsi, xt cause au sens de Granger yt
si l'hypothèse nulle H0 : co1 = co2 = ? = cok = 0 peut être
rejetée au profit de l'hypothèse alternative H1 : au moins un des
coi ? 0 . De façon analogue, yt cause xt au sens
de Granger si l'hypothèse nulle H0 : cp1 = cp2 = ? = cpk = 0 peut
être rejetée au profit de l'hypothèse alternative H1 : au
moins un des cpi ? 0 . Si l'on est amené à rejeter les deux
hypothèses nulles, on a une causalité bidirectionnelle.
> Estimation des paramètres du modèle par
l'estimateur des variables instrumentales.
Lorsqu'une variable indépendante est
corrélée avec le terme d'erreur, les hypothèses classiques
du modèle linéaire sont violées et on se retrouve face
à un problème d'endogénéité. Dans ce cas, on
peut faire appel à l'estimateur de variables instrumentales (VI). Il se
présente comme suit : Soit Z, une matrice de variables instrumentales
(VI) et X, la matrice originale. L'estimateur VI est donné par:
--2
n E
|
(V I) = (Z'X)-1Z'y et l'estimateur VI de la
covariance par: a
|
(Z'X)-1(Z'Z)(X'Z)-1 où
|
at2=1 /T (y - X â(IV ))'(y - Xâ(IV )) .
Ou, lorsque J > K (J étant le nombre de VI et K le nombre de
variables indépendantes), par:
~(V,)=[X'Z(Z.
Z')Z'X]-1X'Z(Z'Z)-1Z'y.
at2[X'Z(Z'Z)-1Z'X]-1.
Pour utiliser cette méthode, il faut que coy(X, y)#0;
et coy(X, Z)#0. A cet effet, nous avons calculé la matrice des
coefficients de corrélations.
Cette étape est l'une des plus importantes de notre
travail, car elle nous permet de confirmer ou d'infirmer notre première
hypothèse. En effet, il est question ici d'estimer les paramètres
de notre modèle [III.1], afin de montrer l'influence de chaque variable
indépendante sur la variable dépendante.
Page 36 ag
|