II.1.2 : La méthode du Maximum de
vraisemblance
Pour estimer le modèle PROBIT, on a recours à la
méthode du maximum de vraisemblance. C'est une méthode
d'estimation alternative à la méthode des moindres carrés.
Elle consiste à trouver les valeurs des paramètres qui maximisent
la vraisemblance des données. La vraisemblance en
économétrie est définie comme la probabilité jointe
d'observer un échantillon, étant donné les
paramètres du processus ayant généré les
données.
Dans le cas du modèle dichotomique univarié, la
construction de la vraisemblance est extrêmement simple. En effet,
à l'événement Bienêtre i = 1 est
associée la probabilité et à l'événement
Bienêtre i = 0 correspond la probabilité Ceci permet de considérer les valeurs observées
Bienêtre i comme les réalisations d'un processus binomial
avec une probabilité égale à . La vraisemblance des échantillons associés
à notre modèle dichotomique s'écrit donc comme la
vraisemblance d'échantillons associés à des modèles
binomiaux. La seule particularité étant que les
probabilités pi varient avec l'individu puisqu'elles
dépendent des caractéristiques Xi. Ainsi, la
probabilité jointe d'observer les n variables de
Bienêtre est donnée par la fonction de vraisemblance :
Dès lors, la vraisemblance associée à
l'échantillon de taille N, noté Bienêtre =
(Bienêtre 1, ..,
Bienêtre75) s'écrit de la façon
suivante.
(1.2)
On doit maintenant spécifier la fonction de
distribution Ö(.) pour obtenir la forme fonctionnelle de la
vraisemblance. Elle découle de la distribution des probabilités
d'un événement qui ne peut avoir que deux occurrences: un niveau
de bien être élevé ou bas. Il s'agit de la distribution
binomiale d'une loi normale :
(1.3)
L'estimation des paramètres s'effectue par maximisation
de la log-vraisemblance en fonction du vecteur des paramètres
ç. Cette log-vraisemblance est la suivante :
(1.4)
Etant donné que la variable Bienêtre ne
peut prendre que deux valeurs (1 ou 0), cette fonction devient :
(1.5)
En remplaçant la probabilité par sa valeur (voir 1.3) dans (1.5), on
obtient :
L'optimisation numérique se fait par une suite
d'itérations à l'exemple de la méthode d'optimisation de
NEWTON RAPHSON lorsque le critère à maximiser est globalement
concave. Et la nullité simultanée des pentes du modèle
(sauf constante) peut être testée à partir de trois
statistiques asymptotiquement équivalentes et peu fiables sur des
petits échantillons:
- la statistique de Wald,
- la statistique du Score ou de Lagrange,
- le test LRT (Likelihood Ratio Test).
Les hypothèses sont les mêmes pour ces trois
tests:
H0 : C=ç1= ç
2= ç3= ... çk= o
Contre
H1 : Il existe au moins un des coefficients
différent de 0
|