3.1.2 Les méthodes de Monte Carlo par chaines de
Markov
Les méthodes de Monte Carlo par chaînes de Markov
(MCMC) permettent d'obtenir un échantillon Y1, . . . , Yn de
loi ðY sans simuler directement suivant ðY . Le principe
général des méthodes MCMC repose sur l'utilisation d'une
chaîne de Markov (V)tEN ergodique de loi stationnaire ðY
;
1Cette méthode est appelée importance
sampling en anglais
ainsi, si Y t a comme distribution marginale ðY
, Y t+1 est aussi marginalement distribué selon ðY (Marin
et Robert, 2007). On appelle algorithme MCMC toute méthode
produisant une chaîne de Markov ergodique de loi stationnaire la
distribution d'intérêt (Robert, 1996). Le théorème
ergodique garantit la convergence presque sûre de
vers EY [h(Y )] = f h(Y )dðY (Y ) lorsque T tend vers
l'infini pour toute fonction h réelle dont l'espérance en valeur
absolue est finie et ceci quelque soit la distribution initiale (Marin et
Robert, 2007).
En inférence bayésienne, la méthode MCMC
la plus couramment utilisée pour simuler selon la loi a posteriori
ðö|Y (ö|Y ) est celle dite de Metropolis-Hastings (Parent et
Bernier, 2007). celle approche, décrite par l'Algorithme 1, repose sur
l'utilisation d'une loi dite loi instrumentale ou loi de proposition de
densité conditionnelle qö|öt-1(ö|öt-1) et
sur le calcul du ratio de MétropolisHasting suivant :
ñ=
fö|Y (ö|Y
) föt-1|Y (öt-1|Y
)
qöt-1|ö(öt-1|ö)
qö|öt-1(ö|öt-1)
=
fY |ö(Y |ö)fö(ö)
qöt-1|ö(öt-1|ö)
fY |öt-1(Y
|öt-1)föt-1(öt-1)
qö|öt-1(ö|öt-1)
L'intérêt majeur de l'algorithme de
Metropolis-Hastings est qu'il n'est pas nécessaire de calculer les
constantes de normalisation. Il suffit donc pour mettre en oeuvre cet
algorithme de connaître la loi cible à la constante de
normalisation près. Cet algorithme a été d'abord
développé par Metropolis et al. (1953) et
généralisé plus tard par Hastings (1970). Cependant, bien
que, la convergence de l'algorithme de Metropolis-Hastings soit
théoriquement garantie pour un large choix de lois de proposition
(Roberts et Smith, 1994), le choix de la loi de proposition influence fortement
la vitesse de convergence de l'algorithme (Parent et Bernier, 2007). Un mauvais
choix de la loi de proposition peut entraîner soit un fort taux de rejet
des valeurs proposées et donc la chaîne de Markov bouge
difficilement soit une mauvaise exploration du support de la loi cible
ðö|Y car la chaîne reste dans un voisinage de la valeur
initiale ö0 (Marin et Robert, 2007). Un autre algorithme MCMC est celui de
l'échantillonnage de Gibbs qui a été initialement
développé par Geman et Geman (1984). Considérons un
vecteur ö = (ö1, ... , öK) de dimension K de loi
ðö|Y (ö|Y ). Supposons qu'il est possible de simuler selon toutes
les lois conditionnelles ðök|ö(-k),Y (ök|ö(-k), Y ), k
= 1, ... , K et oil ö(?k) désigne
Algorithme 1 Algorithme de Metropolis-Hastings
Initialisation : choisir ö0
for t from 1 to T do
générer ö ~
qö|öt1(ö|öt-1) et u ~ U[0,1]
fö|Y (ö|Y )
qöt-1|ö(öt-1|ö)
calculer ñ = föt-1|Y
(öt-1|Y
)qö|öt-1(ö|öt-1)
décider
if u = ñ then öt =
ö
else
öt = öt-1
end if end for
le vecteur ö privé de la composante k.
L'algorithme d'échantillonnage de Gibbs est donné par
l'Algorithme 2. Chaque étape de l'algorithme de Gibbs est en fait
scindée en K sous-étapes successives correspondant chacune
à la simulation suivant la distribution conditionnelle de l'une des
composantes du vecteur ö sachant toutes les autres composantes. La
distribution jointe est stationnaire à chacune des K sous-étapes
de l'itération t = 1, . . . ,T et si la chaîne est
irréductible, elle converge vers ðö|Y pour toute
valeur initiale (Marin et Robert, 2007). L'algorithme d'échantillonnage
de Gibbs est un cas
Algorithme 2 Algorithme d'échantillonnage de Gibbs
for t from 1 to T do
générer öt1 ~
ðöt 2 , . . . , öt-1
1|öt-1
2 ,...,öt-1
K ,Y (öt 1|öt-1 K ,Y )
générer öt 2 ~ ðöt K , Y )
2|öt
1,öt-1
3 ...,öt-1
K ,Y (öt 1, öt-1
3 . . . , öt-1
...
générer ötK ~
ðöt 3 . . . , öt
K|öt 1,öt
3...,öt K-1,Y (öt 1, öt K-1, Y )
end for
particulier de l'algorithme de Metropolis-Hastings
Alors que la mise en oeuvre de l'algorithme de
Metropolis-Hastings exige de connaître la loi a posteriori à une
constante multiplicative près, celle de l'algorithme
d'échantillonnage de Gibbs exige la connaissance des distributions
conditionnelles complètes. Ainsi, l'algorithme de Metropolis-Hastings
comparé à celui de l'échantillonnage de Gibbs est
générique en ce sens qu'il présente de plus larges
possibilités d'utilisation.
Paramètre inconnu
Variable latente
Variable observée
IBD
IBS
Ä
FIG. 3.1 - Graphe acyclique orienté du modèle
bayésien hiérarchique
|