5.4) Robustesse du Modèle
5.4.1) Critique du modèle d'Heckman
Les problèmes de spécification du modèle
font écho dans la littérature. Bien que des progrès dans
l'analyse économétrique et le traitement de sélection de
l'échantillon ne peuvent être
9. Voir annexe F aussi.
10. Voir Nawata et Nagase (1996), Leung et Yu (1996, 2000),
Puhani (2000).
niés, le débat est toujours ouvert sur ce qui
est la meilleure procédure à suivre pour obtenir des estimations
robustes. En général, la méthode basée sur le
maximum de vraisemblance est reconnue pouvoir fournir des estimateurs
efficaces, et asymptotiquement convergents. Mais, des réserves
subsistent, car cette méthode est généralement
basée sur l'hypothèse de normalité de la distribution
conjointe des résidus, et des distributions marginales. Dans de
nombreuses applications, cette hypothèse est trop restrictive, car elle
exclut la possibilité de flexibilité de la distribution. Les
estimateurs construits sur l'hypothèse de normalité sont
très sensibles à de petits écarts par rapport aux
hypothèses de distribution qui ne sont souvent pas satisfaites dans la
pratique.
Gallant and Nychka (1987) ont proposé une approximation
de la vraie densité conjointe de åi et ui par
une fonction du type:
~ XK XJ ~
båu = ðkjåkuj
?å?u k=0 j=0
où ?å et ?u
sont les densités marginales respectives, ðkj
est un paramètre inconnu à estimer. L'idée de
base est de trouver un facteur de type polynomial, multipliant le produit des
densités marginales, et capable de nous rapprocher le plus possible de
la vraie distribution 11. Ils ont montré que
les estimateurs de â et á sont convergents
à condition que le nombre de termes de l'approximation soit très
grand, avec une taille d'échantillon assez élevé.
Toutefois, une étude rigoureuse n'est pas disponible sur la
pertinence 12 de cette approche (Vella,1998), qui
requiert le calcul d'un nombre assez élevé de
paramètres.
Lee (1982) a suggéré aussi une alternative
à la normalité des erreurs, tout en maintenant la technique de
maximisation de la vraisemblance. Son idée est la suivante : supposons
que åi et ui ont des distributions marginales connues
respectives F(åi) et F(ui). Il est
possible de retrouver des erreurs de distribution gaussienne par la
transformation suivante :
å* i =
Ö-1[F
(åi)] u i =
Ö-1[G(ui)]
où å* i et u i
ont des distributions normales. Mais, vue la spécification,
la détermination de F et G pose des problèmes
de précision. Une autre approche est l'introduction des distributions
à copules 13 (Genius et Strazzera, 2003). Le
problème est que ces procédés ont leurs propres limites :
ils ne sont pas forcément adaptés aux données, leur
robustesse n'a pas vraiment été étudiée. C'est
Hampel (1971) qui donna la définition de la robustesse, qui doit rester
continue dans la topologie de la convergence faible, autrement dit,
l'estimateur doit avoir une sensibilité finie à de petites
déviations des hypothèses du modèle, et les statistiques
semi-paramétriques ne
11. båu est dite série de
Hermite.
12. Pour mettre en oeuvre une telle méthode, il est
nécessaire de faire le tour des algorithmes requis à son
implémentation et comparer leurs efficacités. Une seule
étude ne suffit donc pas.
13. D'une manière générale, une copule
est une fonction qui lie deux distributions marginales spécifiées
dans une distribution multivariée (Voir annexe G sur le
procédé).
42
sont pas forcément en accord avec cette exigence. Nous
proposons pour la suite l'option d'une robustesse dont les principes
récents sont formalisés et connus.
|