II Analyse par maximum de vraisemblance
L'analyse par maximum de vraisemblance comporte
plusieurs avantages par rapport aux deux autres méthodes en raison de sa
possibilités de tenir en compte les données manquantes sans les
estimer et la modèlisation de la structure de la covariance. En effet,
cette dernière étape est cruciale dans l'analyse, car les tests
sur les effets fixes sont grandement influencés par le choix de la
covariance (Stroup et Wolfinger, 1996) et (Verbecke et Molenbergs,
1997).
Nous allons traiter les aspects théoriques de
cette méthode en précisant d'abord la démarche à
suivre, le modèle mixte et l'estimation de ses paramétres, le
choix de la structure de la matrice des covariances et les tests sur les effets
fixes.
II.1 Méthodologie
On identifie d'abord le sujet (bloc) puis on
sélectionne les effets fixes à évaluer ainsi que leur
interaction.
L'étape suivante consiste à choisir les
structures de matrices des covariances des facteurs aléatoires et du
facteur intra-sujet.
Une fois la structure de covariance fixée, on
regarde les tests sur les effets fixes afin de déterminer s'il y'a lieu
de réduire le modèle proposé.
II.2 Le modèle mixte : Notations et
hypothèses
Le modèle linéaire mixte est une
généralisation du modèle linéaire standard. Il
enrichit ce dernier d'une composante aléatoire et permet une structure
beaucoup plus souple pour la matrice des covariances des observations. Les
dimensions se rapportent à un modèle ayant un facteur fixe
inter-bloc à r modalités (le traitement), un facteur fixe
intra-bloc à p niveaux (saison) et leur interaction. Les rn blocs
constituent un facteur aléatoire, dans le sens où on tient compte
de la variabilité dû au bloc sans interesser aux modalités
précises
16 CHAPITRE III. MODÉLISATION
de ce facteur mais bien à une population plus
large d'individus. Ainsi la forme générale du modéle est
:
Y = X3 +
Z'y + (III.3)
? ?
y111
? y112 ?
? ?
? ... ?
? ? ? y11p ?
? ?
? ... ?
? ? ? yrn1 ?
? ? ? yrn2 ?
? ?
... yrnp
avec:
|
=
|
?
? ? ? ? ? ?
|
1 1 0 0 .. 0
1 1 0 0 .. 0
1 0 1 0 .. 0
.. .. .. .. .. ..
1 0 0 0 .. 1
|
?
? ? ? ? ? ?
|
?
? ? ? ? ? ? ? ? ? ? ? ? ? ?
|
u
T1 ... Tr
... 81
8p
(T8)11
(T8)rp
|
?
? ? ? ? ? ? ? ? ? ? ? ? ? ?
|
+
|
?
???
|
1 0 0 .. 0
0 1 0 .. 0
.. .. .. .. ..
0 0 0 .. 1
|
? ?
? ?
? ?
? ?
|
'y1
'y2
... 'yw
|
?
???
|
? ?
111
? 112 ?
? ?
? ... ?
? ? ? 11p ?
+ ? ?
? ... ?
? ?
? rn1 ?
? ? ? rn2 ?
? ?
... rnp
|
?
??????
??????
|
yrnpx1 =
vecteur des observations
Xrnpx(r+1)(p+1)=
la matrice des coefficients(connus)
effets fixes
3(r+1)(p+1)x1 =
vecteur des paramètres (à
estimer) des effetsfixes
Zrnpxw =
matrice des coefficients
(connus) des effets
aléatoires
'yw1 =
vecteur des coefficients(à
estimer) des effets aléatoires
rnpx1 = vecteurs des
erreurs aléatoires explicites
|
Hypothèses du modèle
Le modèle mixte retient les hypothèses
suivantes :
'y ? J\I w(0,
G)
'y et sont indépendants
? J\I rnp(0,
R)
Il en découle de ces hypothèses que les
observations suivent une loi normale multivariée avec une matrice de
covariance appelée V :
Y J\Irnp(X3,V
)
La matrice R des covariances a une forme bloc-diagonale,
avec un bloc de covariance [Rij1 pour les p meusues
pises sur le jime sujet du groupe i. Les
blocs R11 à
Rrn ont tous la
même structure.
En effet la variance des observations V est fonction de
Z, G et R :
V=Var(Y)=Var(X3 + Z'y
+ ) = V ar(Z'y
+ ) = ZGZ' +
R
II.3 Estimation des paramètres
Estimation de 3 :
Pour estimer 3 on considère le logarithme
de la fonction de vraisemblance :
II. ANALYSE PAR MAXIMUM DE VRAISEMBLANCE
17
n 1
l(?,V ) =
-2
log(2?) -
2log|V | -
2(Y -
X?)?V
-1(Y -
X?)
1
L'estimateur du maximum de vraisemblance de ? est donc
obtenu par moindres carrés
généralisés :
à?GLS =
(X'V
-1X)-1X'V
-1Y
Il reste à remplacer la matrice V =
ZGZ' + R par son estimation. En effet on
utilise la
méthode du maximum de vraisemblance restreint pour
les estimations Gà et
Rà
1
lR(G,R) =
-2log|V | -
2loglX'V
-1X| -1 r'V
-1r
où r = Y -
Xà?GLS
On obtient ensuite l'estimation finale de ? en
remplaçant V par :
?GLS d'où
Và = Z
àGZ' +
Rà dans
?à = (X'
Và-1X)-1X'
Và-1Y
Estimation de ? :
Soit ?à cet estimateur
de
?à=àGZ'V
-1(Y -
Xà?)
En effet les résultats dépendent des
vraies valeurs des composantes de la variance, ainsi que le modèle
ajusté. D'où l'importance de sélectionner la structure de
la matrice des covariances pour tirer des bonnes conclusions.
|