Etude des Phénomènes Critiques par les Méthodes de Monte Carlo : Cas du modèle d'Ising à 2 D pour la transition de phase Ferro<->Para( Télécharger le fichier original )par Rostand Choisy TCHUENTE Université de Douala - Cameroun - Maîtrise / Master en Physique (Physique de la matière condensée) 2006 |
1.C.2.2. ErgodicitéLa condition d'Ergodicité est le fait qu'il sera possible par notre processus de Markov d'atteindre n'importe quel état du système à partir d'un autre si nous évoluons durant un temps suffisamment grand. Ceci est nécessaire pour atteindre notre initial, celui de généraliser des états à partir d'une probabilité correcte dite de Boltzmann. Chaque état apparaît avec une certaine probabilité non nulle Pí dans la distribution de Boltzmann. Et si cet état ne peut-être accessible à partir d'un autre état u ce ne sera pas un problème, nous continuerons notre processus et dans ce cas l'on reprendra le schéma à partir de ce nouvel état. La condition d'Ergodicité nous informe que nous pouvons prendre certaines probabilités de transition nulle dans le processus de Markov mais ceci ne sera pas le cas pour deux états distincts que nous prenons dans un espace restreint. En pratique, la plupart des algorithmes de Monte Carlo configurent toutes les probabilité de transition à zéro, et il faudra faire attention dans ce cas à ne pas créer un algorithme qui viole la condition d'Ergodicité. 1.C.2.3. Balance spécifique12(*)Cette autre condition du processus de Markov est l'une de celles qui assurent que la probabilité de distribution de Boltzmann que nous générerons après que notre système ait atteint l'équilibre est la plus grande de toutes les autres distributions. La déviation de cette balance est assez subtile. Comme défini en introduction, le sens réel de « système à l'équilibre » : l'équivalence entre les différents états lors des transitions à l'équilibre, peut s'exprimer mathématiquement par : (1.35) Introduite, la relation de fermeture (1.34) sur l'équation (1.35) conduit à : (1.36) Si cette équation est satisfaite, la probabilité pí sera à l'équilibre dans le processus dynamique de Markov. Mais il peut arriver que la satisfaction de cette équation ne soit pas totalement efficiente pour garantir que la probabilité de distribution puisse atteindre pu de n'importe quel état du système si nous faisons tourner le système pendant un long temps. En effet, la probabilité de transition peut être déterminée comme un élément de la matrice P13(*). En considérant, si nous mesurons le temps mis dans chaque état durant la chaîne de Markov, alors la probabilité à un instant t + 1 suivant (où sera le système à l'état í) sera : (1.37) Sous forme matricielle, on obtient (1.38) Où w(t) est le vecteur dont les coordonnées sont les différents poids statistiques.A l'équilibre ( à ), le processus de Markov satisfera (1.39) Toutefois, il est possible au processus d'atteindre l'équilibre dynamique par rotation de w sur toute la chaîne. En notant « n » la taille limite du cycle parcouru, on aura : (1.40) Si nous choisissons une probabilité de transition (ou de manière équivalente une matrice de Markov) pour satisfaire la relation (1.36). Nous garantirons ainsi que la chaîne aura une simple probabilité d'équilibre de distribution, quelque soit la valeur de « n ». De ce qui précède nous pouvons dire que nous sommes informé que rien ne garantie que l'état d'équilibre généré aura la probabilité de distribution attendue. Pour contourner ce problème l'on applique donc une autre condition à notre probabilité de transition. la condition de balance spécifique ou détaillée énoncée telle que: (1.41) Il est donc alors clair que chaque état qui satisfera cette condition (1 .41) satisfera alors absolument (1.35) qui n'est qu'une sommation de (1.41) sur les différents états concernés. En remarquant la forme bidirectionnelle équivalente de (1.41), l'on constate bien que la condition de balance spécifique élimine la notion de cycle qui incluait la limite « n ». En effet, la balance détaillée nous informe qu'en moyenne, le système peut quitter d'un état u vers un autre í indifféremment du chemin choisi et après un temps infini, l'on aura une probabilité de distribution. (A , devra tendre exponentiellement comme les vecteurs propres correspondant aux fortes valeurs propres de P). Observons à nouveau l'équation (1.40), l'on remarque que les grandes valeurs propres des matrices de Markov P pourront être équivalentes. Si la limite du cycle de la forme (1.41) était présente, nous pourrions ainsi avoir des valeurs propres qui seront des racines complexes, mais la condition de balance détaillée nous prévient de cette possibilité. * 12 On parle aussi de Balance détaillée provenant de l'anglais « Detailed balance » * 13 P étant la matrice de Markov ou la matrice stochastique du processus de Markov. |
|