1.2 Chaàýnes de Markov a` temps
discret
Les chaàýnes de Markov sont des processus
markoviens a` temps discrets.
1.2.1 Définitions et propriétés
Une chaàýne de Markov a` temps discret
{Xn, m = 0, 1, ...} définie sur un espace d'états S
satisfait la propriétéde Markov si pour tout m = 1 et pour tout i
E S, il est vrai que :
P[Xn = i/Xn_1 = in_1, ..., X0] = P[Xn =
i/Xn_1 = i - 1]. (*)
Une chaàýnes de Markov a` temps discret est un
processus stochastique {Xn, m = 0} satisfaisant les trois
restrictions suivantes :
1. le processus est a` temps discret;
2. l'espaces des états S est fini ou
dénombrable;
3. le processus satisfait la propriétéde Markov
(*).
|