1.6 Distribution initiale et comportement
transitoire
1.6.1 Distribution initiale
La distribution des états d'une chaàýne de
Markov après n transitions est notée ð(n). Cette
distribution est un vecteur de probabilités contenant la loi de la
variable aléatoire Xn
ði = P [Xn = i],
(n) Vi E S.
En l'occurrence, ð(0) est la distribution
initiale.
Remarque 1.6.1 : Si l'état initial est connu avec
certitude et égal a` i, on a simplement ði = 1 et
ð(0)
(0) j = 0 pour tout j =6 i.
Comportement transitoire
Théorème 1.3 [13] : Soit P la matrice de
probabilités de transition d'une chaàýne de Markov et
ð(0) la distribution de son état initial. Pour tout n =
1, on a :
ð(n) = ð(n--1)P, et ð(n) =
ð(0)Pn.
|