![]() |
Etude des Phénomènes Critiques par les Méthodes de Monte Carlo : Cas du modèle d'Ising à 2 D pour la transition de phase Ferro<->Para( Télécharger le fichier original )par Rostand Choisy TCHUENTE Université de Douala - Cameroun - Maîtrise / Master en Physique (Physique de la matière condensée) 2006 |
1.C.2.2. ErgodicitéLa condition d'Ergodicité est le fait qu'il sera
possible par notre processus de Markov d'atteindre n'importe quel état
du système à partir d'un autre si nous évoluons durant un
temps suffisamment grand. Ceci est nécessaire pour atteindre notre
initial, celui de généraliser des états à partir
d'une probabilité correcte dite de Boltzmann. Chaque état La condition d'Ergodicité nous informe que nous pouvons prendre certaines probabilités de transition nulle dans le processus de Markov mais ceci ne sera pas le cas pour deux états distincts que nous prenons dans un espace restreint. En pratique, la plupart des algorithmes de Monte Carlo configurent toutes les probabilité de transition à zéro, et il faudra faire attention dans ce cas à ne pas créer un algorithme qui viole la condition d'Ergodicité. 1.C.2.3. Balance spécifique12(*)Cette autre condition du processus de Markov est l'une de celles qui assurent que la probabilité de distribution de Boltzmann que nous générerons après que notre système ait atteint l'équilibre est la plus grande de toutes les autres distributions. La déviation de cette balance est assez subtile. Comme défini en introduction, le sens réel de « système à l'équilibre » : l'équivalence entre les différents états lors des transitions à l'équilibre, peut s'exprimer mathématiquement par :
Introduite, la relation de fermeture (1.34) sur l'équation (1.35) conduit à :
Si cette équation est satisfaite, la probabilité pí sera à l'équilibre dans le processus dynamique de Markov. Mais il peut arriver que la satisfaction de cette équation ne soit pas totalement efficiente pour garantir que la probabilité de distribution puisse atteindre pu de n'importe quel état du système si nous faisons tourner le système pendant un long temps. En effet, la probabilité de transition
Sous forme matricielle, on obtient Où w(t) est le vecteur dont les coordonnées sont
les différents poids statistiques Toutefois, il est possible au processus d'atteindre l'équilibre dynamique par rotation de w sur toute la chaîne. En notant « n » la taille limite du cycle parcouru, on aura :
Si nous choisissons une probabilité de transition (ou
de manière équivalente une matrice de Markov) pour satisfaire la
relation (1.36). Nous garantirons ainsi que la chaîne aura une
simple probabilité d'équilibre de distribution De ce qui précède nous pouvons dire que nous sommes informé que rien ne garantie que l'état d'équilibre généré aura la probabilité de distribution attendue. Pour contourner ce problème l'on applique donc une autre condition à notre probabilité de transition. la condition de balance spécifique ou détaillée énoncée telle que:
Il est donc alors clair que chaque état qui satisfera
cette condition (1 .41) satisfera alors absolument
(1.35) qui n'est qu'une sommation de (1.41) sur les
différents états concernés. En remarquant la forme
bidirectionnelle équivalente de (1.41), l'on constate bien que la
condition de balance spécifique élimine la notion de cycle qui
incluait la limite « n ». En effet, la balance
détaillée nous informe qu'en moyenne, le système peut
quitter d'un état u vers un autre í indifféremment du
chemin choisi et après un temps infini, l'on aura une probabilité
de distribution Observons à nouveau l'équation (1.40), l'on remarque que les grandes valeurs propres des matrices de Markov P pourront être équivalentes. Si la limite du cycle de la forme (1.41) était présente, nous pourrions ainsi avoir des valeurs propres qui seront des racines complexes, mais la condition de balance détaillée nous prévient de cette possibilité. * 12 On parle aussi de Balance détaillée provenant de l'anglais « Detailed balance » * 13 P étant la matrice de Markov ou la matrice stochastique du processus de Markov. |
|