5.3) Modèle Tobit
généralisé : la méthode de Wynand et van Praag
Une des possibilités est de supposer une
dépendance gaussienne entre åi et ui. Dans ce
cas, l'une des méthodes économétriques les plus
utilisées dans la littérature est la méthode d'estimation
d'Heckman 7 (voir par exemple Johnston and Dinardo (1997), Verbeek
(2000), Greene (2002), Wooldridge (2003) et Cameron and Trivedi (2005)). Avec
une variable dichotomique dans l'équation principale, une
légère modification est nécessaire, ce qui justifie notre
approche de Wynand et van Praag (1981), qui ont fait la même
spécification. Dans le modèle, on suppose que les deux erreurs
åi et ui sont reliées par la distribution
suivante :
D(åi, ui) ~ N(0, Ó)
où Ó est une matrice symétrique
définie positive 8. Le modèle se présente donc
comme suit :
? ?ui
åi
avec
)N((0),(1 óñE
E[yf|xi, wi, r = 1] =
â'xi + E[åi|ui =
á' iwi]
= â'xi +
(ñóE)[?(á'wi)/Ö(á'wi)]
= â'xi +
(ñóE)ë(á'wi)
et ë(·) =
?(·)/Ö(·) (l'inverse du ratio de Mills qui
sera estimé dans le modèle), où Ö est la fonction de
répartition d'une loi normale univariée, et ? sa
densité. Si ñ est positif, on parle
6. Heckman (1979) avait proposé un probit pour la
première étape et une régression avec les moindres
carrées ordinaires dans la deuxième étape car sa variable
dépendante (pour l'équation principale) était continue. Le
choix des moindres carrées ordinaires dans la deuxième
étape est basé sur le théorème de
Gauss-Markov : il énonce que, parmi tous les estimateurs
linéaires non-biaisés, l'estimateur par moindres carrées
présente une variance minimale.
7. Elle est aussi appelée Tobit-2 model
(Takeshi, 1984, 1985).
8. On peut donc lui appliquer une factorisation de Cholesky.
Voir l'annexe F pour plus de développement sur le modèle, ainsi
que sa construction.
d'une sélection positive, dans le sens où
l'espérance y* est augmentée.
En général, deux estimations de type probit
(méthode en deux étapes qui permettent de faire des
inférences sur l'équation de sélection) servent
d'initialisation à l'algorithme de l'estimation à partir de la
vraisemblance globale du modèle9. Le
modèle est mieux spécifié si l'ensemble des variables de
l'équation de sélection contient l'ensemble des variables de la
régression sur l'auto-emploi (règle d'exclusion). L'inverse du
ratio de Mills peut engendrer une multicolinéarité 10
dans le cas où cette régle n'est pas respectée,
car étant quasi-linéaire (voir graphique 5.1.), elle peut
être approchée par une fonction linéaire de áw
(Stolzenberg et Relles, 1997).
IMR(x)
|
0.0 0.2 0.4 0.6 0.8
|
|
0 1 2 3 4 5
X
Graphique 5.1 - L'inverse du ratio de
Mills Source: Auteur
Le test du biais de sélection revient au test de
significativité du coefficient de l'inverse du ratio de Mills, ou bien,
dans le cas de l'estimation par la vraisemblance, un test de Wald avec comme
hypothèse nulle H0 : p = 0. Dans le meilleur des cas,
une convergence de l'algorithme de l'estimation à partir de la
vraisemblance est obtenu après 15 itérations en moyenne (Ott et
al., 2008). Mais, dans de nombreuses études, ceci n'est pas souvent le
cas, car la spécification du modèle adapté n'est pas
forcément linéaire, ou gaussienne, surtout pour l'équation
qui prend en compte l'inverse du ratio de Mills.
|