République Algérienne Démocratique et
Populaire Ministère de l'Enseignement Supérieur et de la
Recherche Scientifique UniversitéA. Mira de
Béja·ýa
Facultédes Sciences Exactes
Département de Recherche Opérationnelle
M'emoire de fin d''etudes
Pour l'obtention du Diplôme Master En Recherche
Opérationnelle
Th`eme
???????????????????????????????????????????
Estimation de l'erreur de troncature de
? l'espace d'etats du système d'attente
M/M/1 :
? Méthode de StabilitéForte
?
???????????????????????????????????????????
Présentépar :
Melle Haoua LARAB
Devant le jury composéde :
Présidente Mme O. LEKADIR M C B
Encadreurs
Mr K. ABBAS M C B
Mr D. A·ISSANI Professeur
Examinateurs
Mme K. ADEL C C
Melle S. HAKMI M A
Année Universitaire 2010 - 2011
Table des matières
Introduction générale
1 Généralités sur les chaàýnes
de Markov
|
2
5
|
|
1.1
|
Processus stochastiques
|
5
|
|
|
1.1.1 Définitions
|
6
|
|
|
1.1.2 Processus Markoviens
|
6
|
|
1.2
|
Chaàýnes de Markov a` temps discret
|
7
|
|
|
1.2.1 Définitions et propriétés
|
7
|
|
1.3
|
Exemples
|
7
|
|
|
1.3.1 File d'attente en temps discret
|
7
|
|
|
1.3.2 La Gestion des stocks
|
8
|
|
1.4
|
Chaàýnes de Markov discrètes
|
8
|
|
|
1.4.1 Classification des états d'une chaàýne
de Markov
|
8
|
|
1.5
|
Classification des chaàýnes de Markov
discrètes
|
10
|
|
|
1.5.1 Chaàýnes de Markov homogènes
|
10
|
|
|
1.5.2 Chaàýnes de Markov irréductibles
|
10
|
|
|
1.5.3 Chaàýnes de Markov absorbantes
|
13
|
|
1.6
|
Distribution initiale et comportement transitoire
|
13
|
|
|
1.6.1 Distribution initiale
|
13
|
|
1.7
|
Comportement asymptotique des chaàýnes
irréductibles
|
13
|
|
|
1.7.1 Comportement asymptotique
|
13
|
|
|
1.7.2 Distribution limite
|
14
|
|
|
1.7.3 Distribution invariante
|
14
|
|
|
1.7.4 Comportement asymptotique des chaàýnes
irréductibles et apériodiques 15
|
|
|
1.7.5 Chaàýnes de Markov ergodiques
|
16
|
|
1.8
|
Conclusion
|
17
|
2
|
Systémes de files d'attente
|
18
|
|
2.1
|
Introduction et structure d'un système d'attente
|
18
|
|
|
2.1.1 Classification et formalisation d'un système de
files d'attente . . . .
|
19
|
|
|
2.1.2 Analyse mathématique d'un système de files
d'attente
|
21
|
|
2.2
|
Files d'attente markoviennes
|
21
|
|
|
2.2.1 La file d'attente M/M/1
|
21
|
2.2.2 La file d'attente M/M/m 23
2.2.3 La file d'attente M/M/1/N 25
2.3 Files d'attente non Markoviennes 28
2.3.1 Système de files d'attente M/G/1 28
2.3.2 Système de files d'attente G/ M/ l 31
2.4 Conclusion 33
3 Chaàýnes de Markov tronquées 34
3.1 Chaàýnes de Markov tronquées 34
3.1.1 Principe de troncature 35
3.1.2 Définitions 35
3.2 Différentes techniques de la troncature des
chaàýnes de Markov 36
3.2.1 Augmentation linéaire 37
3.2.2 Renormalisation 37
3.2.3 Distance entre les distributions stationnaires 39
3.3 Exemple de la troncature sur un réseau de files
d'attente en tandem avec
blockage 39 3.4 Exemple illustratif sur les techniques de
troncature par l'augmentation linéaire 41 3.5 Conclusion 46
4 Calcul de la borne de stabilitéforte pour le cas de
troncature de la capacitéd'attente de la file M/M/1 47
4.1 Préliminaires et notations 47
4.1.1 Borne de la stabilitéforte 48
4.2 Troncature de la capacitéd'attente de la file M/M/1
49
4.2.1 Description du modèle et position du problème
49
4.3 L'augmentation de la première colonne 50
4.3.1 Calcul de la borne de stabilitéforte
:Augmentation de la premi`ere
colonne 51
4.4 L'augmentation uniforme 57
4.4.1 Calcul de la borne de stabilitéforte : Augmentation
uniforme . . 58
4.4.2 Calcul de la borne réelle 62
4.4.3 Bornes de déviation du nombre moyen de clients
62
4.5 Conclusion 62
5 Comparaison des techniques de troncature 63
5.1 Applications numériques 63
5.1.1 Environnement MATLAB 63
5.1.2 Approche algorithmique 64
5.1.3 Algorithme de StabilitéForte 64
5.1.4 Organigramme de stabilitéforte 65
5.1.5 Variation de l'erreur en fonction de 66
5.1.6 Variation de l'erreur en fonction de N 67
5.1.7 Variation de l'erreur en fonction 3 75
5.2 Conclusion 75
Conclusion générale 76
Bibliographie 78
Introduction générale
L
a mod'elisation est un outil de la recherche d'une expression
simplifi'ee d'un ph'enomène naturel dans sa complexit'e, et qui permet
de pr'evoir le comportement dans un inter-
valle de temps et d''echelle de grandeur. De plus, lorsque la
mod'elisation tient compte des facteurs al'eatoires, on parle alors de
mod'elisation stochastique et de modèle stochastique. Or la th'eorie
analytique des modèles stochastiques s'avère d'une port'e
limit'ee en raison de la complexit'e des r'esultats connus. En effet, dans la
majorit'e des cas, on se retrouve confront'e a` des systèmes
d''equations dont la r'esolution est complexe, qui est en g'en'eral difficile
voire impossible, c'est ainsi le cas pour les fonctions g'en'eratrices, les
transform'ees de Laplace-Stieltjes.
Par ailleurs, on peut citer le degr'e de difficult'e pour
l'obtention de certaines caract'eristiques dans quelques modèles
stochastiques tels que les modèles de files d'attente avec vacance,
serveur non fiable, arriv'ees par groupe, avec rappel et avec impatience, etc.
Pour pallier a` toutes ces difficult'es, les chercheurs ont fait recours a` des
m'ethodes d'approximation. Ainsi, lors de l'analyse d'un modèle
stochastique, on est souvent amen'e a` remplacer le système r'eel
(g'en'eralement complexe), par un système plus simple id'eal dont les
r'esultats analytiques sont exploitables.
Dans le même contexte, les chaàýnes de
Markov constituent un outil principal pour la mod'elisation et la r'esolution
de problèmes dynamiques stochastiques. Elle sont utilis'ees, dans des
situations d'applications pratiques telles que les t'el'ecommunications
(r'eseaux de files d'attente, de radiodiffusion, de communication par
satellite), l''evaluation de performance informatique (r'eseaux informatiques,
programmation parallèle, stockage et retransmission en m'emoire tampon),
la fabrication (lignes d'assemblage, systèmes de manutention), la
fiabilit'e (analyse de pannes), et la th'eorie d'inventaire.
Cependant,en simplifiant quelques hypothèses la
mod'elisation des situations r'eelles, est entach'ee par quelques erreurs dues
au processus de mod'elisation lui-même. D'o`u la paru-
tion, a` ce niveau du problème, de calcul des bornes de
perturbation ou du problème de stabilité.
Dans la pratique, l'espace d'états rencontréest
souvent grand ou infini. C'est le cas par exemple d'une file d'attente a`
capacitéd'attente infinie. Lors d'évaluation des performances de
tels systèmes et pour des raisons de complexitédu calcul, on
rencontre alors des problèmes liés a` leur dimension. En effet,
des modifications dans le système peuvent être
suggérées pour obtenir des bornes simples ou des approximations
faciles a` calculer. Dans ce sens, la troncature de l'espace des états
est souvent exigée dans les calculs qui concernant les
chaàýnes de Markov infinies. L'objectif de ce travail est de
trouver la technique de troncature la plus efficace pour l'estimation de
l'erreur de troncature de l'espace d'état de la file d'attente M/M/1 par
la méthode de stabilitéforte.
Dans la majoritédes travaux, l'attention des chercheurs
était plus focalisée sur l'objectif d'analyse des modèles
et la stabilitéétait obtenue dans la plupart des cas, souvent
pour des hypothèses particulières.
L'étude de la stabilitédans la théorie
des file d'attente, consiste a` délimiter le domaine dans lequel le
modèle idéal peut être utilisécomme une bonne
approximation du modèle réel (perturbé). Ainsi, elle
occupe une place remarquable dans la théorie qualitative des
systèmes dynamiques, ainsi que dans celle des système
stochastiques. On dit qu'un système est stable si une petite
perturbation dans ses paramètres entraàýne une petite
perturbation dans ses caractéristiques. La stabilitése
définie alors comme étant la capacitédu système a`
résister aux perturbations .
Depuis les années soixante dix, plusieurs
méthodes de stabilitédes modèles stochastiques ont
étéélaborées : Méthode des fonctions tests
élaborée par Kalashnikov [28], méthode métrique
initiée par Zolotariev [52] et Rachev [36], méthode de
convergence faible introduite par Stoyan [43] méthode de renouvellement
proposépar Borovkov [5], méthode de stabilitéforte
élaborée par Aissani et Kartashov [3, 30], méthode de
stabilitéabsolue introduite par Ispen et Meyer [25] et la méthode
du développement en séries proposépar Heidergott et
Hordjik [17, 19].
La méthode de stabilitéforte (ou des
opérateurs) a étéélaborée par Aissani et
Kartashov au début des années 1980. L'intérêt de
cette méthode est que l'ergodicitéuniforme par rapport a` une
norme donnée est préservée sous de petites perturbations
du noyau de transition. Elle nous donne un calcul exact des constantes dans les
estimations quantitatives de stabilité. Les résultats
fondamentaux de cette méthode ont fait l'objet de la publication en 1996
de la monographie de Kartashov [30]. Cette méthode a
étéappliquée a` plusieurs modèles stochastiques
régi par des chaàýnes de Markov : Modèles de files
d'attente classiques (Bouallouche et Aissani[6, 7] .
Ce mémoire comprend cinq chapitres, une conclusion
générale et enfin une liste de
r'ef'erences bibliographiques.
* Le premier chapitre permet de pr'esenter les g'en'eralit'es sur
les chaàýne de Markov .
* Le deuxième chapitre est consacr'ee aux
systèmes de files d'attente et aux caract'eristiques de quelques
systèmes d'attente classiques tels que : M/M/1, M/M/m, M/M/1/N, M/G/1,
G/M/1.
* Ensuite, le troisième chapitre concerne une
synthèse sur les r'esultats et les diff'erentes techniques de
troncature connues dans la litt'erature sur les chaàýne de
Markov.
* Le quatrième chapitre est l'ossature de notre
travail. En effet, dans ce chapitre on s'int'eressera a` l'estimation de
l'erreur par la m'ethode de stabilit'e lors de la troncature de l'espace d'etat
de la chaàýne de Markov d'ecrivant l'etat de la file d'attente
M/M/1, et ce, en consid'erant plusieurs techniques de troncature.
* Enfin, le cinquième chapitre est consacr'e a` la
comparaison des deux techniques de troncature par l'application num'erique de
l'algorithme de stabilit'e forte.
* Notre m'emoire s'achève par une conclusion g'en'erale,
o`u nous mettons l'accent sur quelque perspectives de recherche induites par ce
travail.
1
Généralités sur les
chaàýnes de Markov
Les chaàýnes de Markov sont un objet essentiel
des probabilités modernes. Elles apparaissent et sont utilisées
avec succès dans des domaines aussi divers que la physique, la biologie,
les sciences sociales ou l'informatique.
L'objet de ce chapitre est de présenter la théorie
des chaàýnes de Markov. Nous nous limiterons au cas particulier
(essentiel) o`u l'espace des états est un ensemble
dénombrable.
Ainsi, nous introduirons quelques concepts fondamentaux des
chaàýne de Markov. En particuliers, nous nous focaliserons sur le
problème d'existence d'une distribution stationnaire.
1.1 Processus stochastiques
Les processus stochastiques décrivent
l'évolution d'une grandeur aléatoire en fonction du temps. Les
processus stochastiques ont pris un énorme essor, non seulement en
finances, dans la fiabilitédes systèmes, en mécanique
statistique ou encore dans les sciences de la vie, mais également dans
des techniques appliquées a` des problèmes qui au départ
n'ont rien a` voir avec les probabilités ou le risque. Tel est le cas
des méthodes d'optimisation globale, ou du traitement de certains
problèmes de l'analyse numérique.
1.1.1 D'efinitions
Un processus stochastique {X(t)}t?T est une fonction
du temps dont la valeur a` chaque instant dépend de l'issue d'une
expérience aléatoire .
Un processus stochastique est donc une famille de variables
aléatoires (non indépendantes). On appelle espace des
états l'ensemble S o`u les variables {Xt} prennent leurs valeurs[15].
L'espace peut être discret ou continu. Le temps peut
être discret, continu, temps continu o`u les évolutions n'ont lieu
qu'àdes instants discrets.
Une trajectoire d'un processus est décrit par un couple
(espace, temps). Par conséquent, on distingue quatre types de processus
(si l'ensemble S est fini ou dénombrable le processus est
appeléune chaàýne) :
- Suite stochastique a` espace d'états discret; - Suite
stochastique a` espace d'états continu; - Processus continu a` espace
d'états discret; - Processus continu a` espace d'états
continu.
Quelques exemples
- EC/TC : réaction chimique ou le mouvement de particules
en interaction;
- EC/TD : modèle journalier de remplissage d'un
barrage;
- ED/TC : nombre de particules au cours d'une réaction
chimique;
- ED/EvD : nombre de clients dans une file d'attente;
- ED/TD : gain d'un joueur a` chaque étape, somme de
variables aléatoires indépendantes.
On peut aussi caractériser un processus {Xt} par les
relations qui existent entre les variables Xt qui le compose.
1.1.2 Processus Markoviens
La notion de processus Markovien repose sur le principe de
processus sans post action, on entend un processus pour lequel la
probabilitéqu'il se trouve dans un état (ou un ensemble
d'états) a` l'instant t ne dépend que de son état au
dernier instant connu s < t. Plus précisément, il est
défini comme suit :
Un processus stochastique {Xt, t = 0} a` valeurs dans l'espace
d'états S est satisfait la propriétéde Markov si pour tout
instant t, et tout sous ensembles d'états I c S, il est vrai que
P[Xt+Ä E I/Xu, 0 = u = t] = P[Xt+Ä E I/Xt]
?Ä ? 0.
Un processus stochastique vérifiant la
propriétéprécédente est appeléprocessus de
Markov ou processus Markovien.
1.2 Chaàýnes de Markov a` temps
discret
Les chaàýnes de Markov sont des processus
markoviens a` temps discrets.
1.2.1 Définitions et propriétés
Une chaàýne de Markov a` temps discret
{Xn, m = 0, 1, ...} définie sur un espace d'états S
satisfait la propriétéde Markov si pour tout m = 1 et pour tout i
E S, il est vrai que :
P[Xn = i/Xn_1 = in_1, ..., X0] = P[Xn =
i/Xn_1 = i - 1]. (*)
Une chaàýnes de Markov a` temps discret est un
processus stochastique {Xn, m = 0} satisfaisant les trois
restrictions suivantes :
1. le processus est a` temps discret;
2. l'espaces des états S est fini ou
dénombrable;
3. le processus satisfait la propriétéde Markov
(*).
1.3 Exemples
1.3.1 File d'attente en temps discret
File d'attente en temps discret [35] : On considère une
file d'attente qui se forme a` un guichet. Dans ce cas, Xn
désigne le nombre de clients dans la file en attente ou le nombre de
clients entrain de se faire servir a` l'instant n. Entre les instants n et n+1
arrivent Yn+1 clients, et si Xn > 0 partent Zn+1
clients. On suppose que X0, Y1, Z1,Y2, Z2, ... sont
indépendantes, vérifiant 0 < P(Yn = 0) < 1, et
les Zn vérifient P(Zn = 1) = p = 1 -
P(Zn = 0). C'est a` dire que
Xn+1 = Xn + Yn+1 - 1{Xn>0}Zn+1.
1.3.2 La Gestion des stocks
Une entreprise doit g'erer le stock d'un article dont la demande,
a` chaque p'eriode n, est une variable al'eatoire Dn de
distribution
P[Dk = k] = ak k = 0,1,2,...
Supposons que ce stock soit g'er'e de la manière suivante
[4] :
Au d'ebut de la p'eriode n, le niveau Xn du stock
est observ'e et un r'eapprovisionnement, dont le d'elai de livraison est
suffisamment court pour qu'il puisse servir a` satisfaire la demande de la
p'eriode, est d'ecid'e selon la règle :
. Si Xn < s, commander S - Xn
unit'es;
. Si Xn = s, ne rien commander.
Une telle règle de gestion est connue sous le nom de
politique (s, S) o`u s et S sont deux paramètres donn'es .
Au d'ebut de la p'eriode n + 1, le niveau du stock est
{ S - Dn, si Xn < s;
Xn+1 = (1.1) x - Dn, si Xn = s.
La suite des niveaux de stock {Xn,n = 0, 1,2, ...}
d'efinit donc une chaàýne de Markov dont l'espace des 'etats est
'egal a` S. De plus, pour tout n = 1, nous avons :
P[Xn = j/Xn_1 = i] =
|
|
ak, si i < s et j = S - k, k = 0,1,2,...
ak, si i = s et j = i - k, k = 0,1,2,...
0, autrement.
|
(1.2)
|
1.4 Chaàýnes de Markov
discrètes
Pour ce type de chaàýne de Markov, l'espace des
'etats S est un ensemble d'enombrable ou fini. On d'esignera par les lettres i,
j, ... les points de cet espace. Une chaàýne de Markov est
homogène (dans le temps) si la probabilit'e d'effectuer une transition
d'un 'etat dans un autre est ind'ependante de l'instant auquel a lieu cette
transition.
1.4.1 Classification des états d'une
chaàýne de Markov
Afin d'aborder le comportement a` long terme d'une
chaàýne de Markov, il nous faut introduire les diff'erents 'etats
d'un processus Markovien.
On peut aussi distinguer les 'etats d'une chaàýne
de Markov par une propri'et'e concernant le renouvellement des 'etats.
Un état j ? S est accessible a` partir d'un état i
si la probabilitéde transition de i en j en un certain nombre
d'étapes est positive, i.e. ?n > 0 tel que;
pij > 0.
(n)
Si j est accessible a` partir de i, et i a` partir de j, les
états i et j sont dits communicants. Par définition un
état est toujours communicant avec lui-même.
La communication de i et j sera notée i ? j, la
relation ? est une relation d'équivalence et les classes
d'équivalence forment une partition de S. Chaque classe est
composée d'états communicants.
Une classe est persistante si elle correspond a` un sommet sans
successeur de graphe réduit, dans le cas contraire la classe est
transitoire.
Un état persistant (ou récurrent) s'il appartient
a` une classe persistante.
Un état i est récurrent si :
Fii(+00) = 1.
o`u Fij(n) = Pn fij(k) représente la
probabilitépour que la chaàýne passant en i atteigne
i=1
j en moins de n + 1 transitions.
f(n)
ij la probabilit'e de premier passage.
f(n)
ij = P(Xn = j,Xk =6 j).
et le temps de premier passage
Tij = min{k > 0 : Xk = j,X0 = i}.
Les états récurrents eux-mêmes se divisent en
deux sous-catégories :
'Etats récurrents non nuls :
Un état i est récurrent non nul si, la
chaàýne partant de i repassera par i au bout d'un temps fini
.ie,
ui = X8 nfii(k) < 00.
n=1
'Etats récurrents nuls : un état i est
récurrent nul si,la chaàýne partant de i repassera par i
au bout d'un temps infini.i.e
ui = +00.
- Un état i est transitoire si, la chaàýne
partant de i peut ne pas repasser par i,
Fii(+8) < 1.
Plus précisément :
Il existe trois type d'états : transients (on n'y
revient pas toujours), récurrents nuls (on y revient toujours, au bout
d'un temps moyen infini), ou récurrents positifs (on y revient une
infinitéde fois, a` intervalle de temps finis, en moyenne),
- Périodicitéd'un état : un état i
est périodique de période d(i) si :
d(i) = PGCD{n,pii > 0},
si d(i)=1 , »i» est dit apériodique.
o`u PGCD est le Plus Grande Commun Diviseur .
Finalement, un état est dit ergodique s'il est
récurrent non nul et apériodique. - Un état est absorbant,
s'il fait a` lui seul une classe persistante;
- Un état i est absorbant, si seulement si pii = 0 et pij
= 1, ?j =6 i.
1.5 Classification des chaàýnes de Markov
discrètes
On dit qu'une chaàýne de Markov X est
discrète si son espace d'états S est fini ou
dénombrable.
1.5.1 Chaàýnes de Markov homogènes
Une chaàýne de Markov est homogène (dans
le temps) si la probabilitéd'effectuer une transition d'un état
dans un autre est indépendante de l'instant auquel a lieu cette
transition [16]. En d'autre termes, pour tout paire d'états (i,j) et
pour tout instant n
P[Xn = j/Xn_1 = i] = P[Xn+k = j/Xn+k_1 = i],
quel que soit k = 0.
1.5.2 Chaàýnes de Markov
irréductibles
Les notions de récurrence et
d'irréductibilitéadmettent une caractérisation simple pour
les chaàýne discrètes.
D'efinition 1.1 : Une chaine de Markov est irr'eductible si elle
n'est constitu'ee que d'une seule classe d''etats communicants.
On peut aussi faire une classification probabiliste des 'etats
d'une chaine de Markov. D'efinissons la probabilit'e de premier passage : ?k =
1, ..., n - 1/X0 = i
f(n)
ij = P(Xn = j, Xk =6 j),
et le temps de premier passage
Tij = min{k > 0 : Xk = j; X0 = i},
Nous avons alors, Posons :
|
fi(j n) = P(Tij = n).
|
Fij(n) =
|
Xn i=1
|
fij(k).
|
qui repr'esente la probabilit'e pour que la chaine passant en i
atteigne j en moins de n + 1 transitions.
Th'eor`eme 1.1 [16] : Consid'erons une chaine de Markov
Xn irr'eductible. Pour tout i ? S ;
ôi = inf{k > 0; Xk = i}.
On voit que ôi est le temps d'atteinte de l''etat i, i.e,
le temps de premier passage. Pour tout i, j ? S, on a
Ei(ôi) =
|
X+ n=0
|
Pn(i, j).
|
C'est l'esp'erance du nombre de passages par j partant de i.
Les conditions suivantes sont 'equivalentes :
1. Il existe un 'etat i ? S tel que Ei(ôi) < +8 ;
2. Pour tout 'etat i ? S, Ei(ôi) < +8;
3. La chaine de Markov poss`ede une probabilit'e invariante
ð.
Sous ces conditions, la chaine est dite r'ecurrente positive et
ð est la seule probabilit'e invariante. Pour tout k ? S,
1
Ek(ôk),
ð(k) =
et pour tout i ? S,
ð(k) = Ei(ôi)Ei(Óô%-1
1 n=0 1k(Xn)).
On dit qu'une suite (xn) de S tend vers l'infini si
pour toute partie finie F de S, xn n'appartient pas a` F pour tout n
assez grand.
Définition 1.2 : Une chaàýne de Markov est
irréductible si son graphe représentatif est fortement connexe.
Dans le cas contraire la chaàýne est réductible.
Les deux propriétés suivantes qui
découlent directement de la définition d'une classe persistante
et des états communiquants, auraient également pu servir de
définition d'une chaàýne irréductible.
Propriété1.1 : Une chaàýne de Markov
est irréductible, si pour tout état i et j, il existe in = 0
(pouvant dépendre de i et j) tel que :
P (m)
ij > 0.
Propriété1.2 : Une chaàýne de Markov
est irréductible si et selement si toute paire d'états sont
communiquants.
Proposition 1.1 : Si S est un espace d'états fini, toute
chaàýne irréductible est récurrente.
Théorème 1.2 :
On considère une chaàýne de Markov
irréductible. Alors, un et un seul des deux cas suivants peut se
produire :
Cas récurrent : Tous les états sont
récurrents et partant de tout point, la chaàýne visite une
infinitéde fois tous les autres, presque sàurement.
Cas transitoire : Partant de tout état, Xn tend
vers l'infini, presque sàurement.
Quelques autres propriétés [4]
. Une chaàýne de Markov irréductible ne
possédant qu'une seule classe et tous ses états ont la même
période. Nous dirons qu'une telle chaàýne est
périodique. Apériodique dans le cas contraire.
. Une chaàýne de Markov irréductible est
fortement irréductible si et seulement si elle est irréductible
et apériodique.
. Si P est la matrice de transition d'une chaàýne
de Markov irréductible, alors tous les états ont même
nature (récurrents positifs ou bien récurrents nuls ou bien
récurrents).
1.5.3 Chaàýnes de Markov absorbantes
Une chaàýne de Markov est absorbante si tous ses
états persistants sont absorbants, c'est a` dire si chacune de ses
classes persistantes ne comporte qu'un seul état.
- Une chaàýne possédant des états
absorbants n'est pas irréductible (sauf si l'espace d'états est
réduit a` un point).
- Une chaàýne irréductible qui est
transiente ou récurrente nulle, ne possède pas de
probabilitéinvariante.
1.6 Distribution initiale et comportement
transitoire
1.6.1 Distribution initiale
La distribution des états d'une chaàýne de
Markov après n transitions est notée ð(n). Cette
distribution est un vecteur de probabilités contenant la loi de la
variable aléatoire Xn
ði = P [Xn = i],
(n) Vi E S.
En l'occurrence, ð(0) est la distribution
initiale.
Remarque 1.6.1 : Si l'état initial est connu avec
certitude et égal a` i, on a simplement ði = 1 et
ð(0)
(0) j = 0 pour tout j =6 i.
Comportement transitoire
Théorème 1.3 [13] : Soit P la matrice de
probabilités de transition d'une chaàýne de Markov et
ð(0) la distribution de son état initial. Pour tout n =
1, on a :
ð(n) = ð(n--1)P, et ð(n) =
ð(0)Pn.
1.7 Comportement asymptotique des
chaàýnes irréductibles
1.7.1 Comportement asymptotique
L'étude du comportement a` long terme d'une
chaàýne de Markov cherche a` répondre a` des questions
aussi diverses que :
. La distribution ð(n) converge-t-elle, lorsque n
? 8?
. Si la distribution ð(n) converge lorsque n ? 8,
quelle est la limite ð et cette limite est-elle indépendante de la
distribution initiale ð(0) ?
. Si l'état i est persistant, quelle est la proportion du
temps passédans cet état et quel est le nombre moyen de
transitions entre deux visites successives de cet état?
. Si l'état i est transitoire, quel est le nombre moyen de
visites de cet état?
1.7.2 Distribution limite
On dit qu'une chaàýne de Markov converge vers ð
ou possede une distribution limite ð
indépendamment de la distribution initiale
ð(0) et si ð est une distribution de probabilité. La
convergence d'une chaàýne de Markov est donc une
propriétéqui ne dépend que de la matrice de transition
P.
Théorème 1.4 (Théorème d'existence
des distributions limites [37]) :
Si la matrice de transition P est telle qu'une au moins de ses
puissances n'a que des termes
strictement positifs, alors
ð(n) = ð.
quelle que soit la distribution initiale
ð(0),et
Pn = P*,
lorsque n --* 00. ð est un vecteur de
probabilitéstrictement positif, et p* une matrice dont toute
les lignes sont identiques au vecteur limite ð. En plus
ðP* = ð.
1.7.3 Distribution invariante
Une distribution de probabilitédiscrete ð = (ð1,
ð2, ...) est appelée invariante ou stationnaire par rapport a` une
matrice stochastique P si
ð = ðP.
En particulier, si la loi de X0, notée í0, est
une probabilitéinvariante, alors la loi de X1 est í1 =
í0P = í0, et en itérant, on obtient que Xn a
même loi que X0. La loi de Xn est
donc constante, on dit aussi stationnaire, au cours du temps,
d'o`u le nom de probabilitéstationnaire [10].
Propriété1.3 :Si lim
n?8
|
ð(n) existe, alors la limite est une distribution
invariante.
|
Théorème 1.5 (Théorème d'existence
des distributions stationnaires [37]) : Une chaàýne de Markov
possède toujours au moins une distribution invariante, ce qui n'est plus
nécessairement vrai si l'espace des états est infini.
Théorème 1.6 :Une chaàýne de Markov
possède autant de distributions invariantes linéairement
indépendantes que la multiplicitéde la valeur propre 1 de sa
matrice de transition.
Théorème 1.7 [37] : Une chaàýne de
Markov finie admet une unique distribution stationnaire si et selement si elle
comprend une seule classe récurrente.
Théorème 1.8 [16] : La distribution
ð(n) des états d'une chaàýne de Markov
converge vers une distribution (invariante) ð*
indépendante de la distribution initiale ð(0), si et
seulement si la suite des puissances de la matrice de transition P de la
chaàýne converge vers une matrice (stochastique) P * dont toutes
les lignes sont égales entre elles. De plus, si tel est le cas, chaque
ligne de P * est égale a` distribution limite ð*.
Théorème 1.9 [37] : Si ð est la distribution
limite d'une chaàýne de Markov, alors ð est l'unique
distribution stationnaire de cette chaàýne.
1.7.4 Comportement asymptotique des chaàýnes
irréductibles et apériodiques
Le théorème suivant résume le comportement
asymptotique des chaàýnes irréductibles et
apériodiques.
Théorème 1.10 [13] : Soit P la matrice de
transition d'une chaàýne irréductible et
apériodique. Les propriétés suivantes sont
vérifiées : - La matrice P n tend vers une matrice
stochastique
P* lorsque n tend vers l'infini; - Les lignes de P * sont toutes
égales entre elles; - P ij * > 0 pour tout i; j ? S; -Pour toute
distribution initiale ð(0),
lim
n?8
|
ð(n) = lim
n?8
|
ð(0)Pn = ð*
|
-ð* est la solution unique du système :
{ ðP = ð;
(1.3)
ð1 = 1.
ð* égal a` n'importe quelle ligne de la matrice P *;
-Pour tout i ? S, ð* i = ui 1 o`u ui est l'espérance du nombre de
transitions entre deux visites successives de l'état i.
1.7.5 Chaàýnes de Markov ergodiques
Ce qu'on appelle propri'et'es ergodiques pour une
chaàýne de Markov concerne l''etude de ces comportements a`
l'infini, soit de la chaàýne elle-même, soit de ses
probabilit'es de transition P n.
Une chaàýne de Markov est ergodique si elle admet
une distribution asymptotique, i.e. si lim ð(n) existe, unique et
ind'ependante de la distribution initiale.
n-400
Propriété1.4 Les chaàýnes
irr'eductibles et ap'eriodiques sont ergodiques.
Théorème 1.11 (Théorème ergodique en
moyenne [26]) :
Lorsque n ? 8, la matrice ðn converge
('el'ement par 'el'ement) vers la matrice ð de composantes ðij =
fij//ij (avec ðij = 0 si /ij = 1). o`u /ii est l'esp'erance du
nombre de transitions entre deux visites successives de l''etat i.
Théorème 1.12 (Théorème ergodique
[16]) :
Soit {Xn;n = 0, 1, ...} une chaàýne de
Markov ergodique de distribution stationnaire ð* et f une
fonction r'eelle d'efinie sur l'espace des 'etats S de la
chaàýne. Alors,
lim
n-400
|
1
|
Xn k=0
|
X
f(Xk) =
i?S
|
ð* i f(i),
|
presquesàurement.
|
n + 1
|
La moyenne temporelle est donc 'egale a` la moyenne spatiale par
rapport a` la probabilit'e invariante.
Théorème 1.13 [26] : Si X est une
chaàýne irr'eductible, il existe une probabilit'e
invariante si et seulement si la chaàýne est positive. Dans ce
cas, la probabilit'e invariante est unique et
donn'ee par
1
Théorème 1.14 [16] : Une chaàýne de
Markov irr'eductible poss'ede au plus une probabilit'e invariante ð et
alors ð(i) > 0 pour tout i E S.
Si S est fini, alors toute chaàýne de Markov
irr'eductible possède une et une seule probabilit'e invariante.
1.8 Conclusion
Dans ce chapitre, nous avons pr'esent'e les 'el'ements de base
de la th'eorie des chaàýnes de Markov, et quelques types des
chaàýnes de Markov (chaàýnes irr'eductibles,
r'ecurrentes, 'ergodiques,...) qui seront utilis'ees dans la suite de ce
m'emoire.
L''etude de comportement a` long terme d'une
chaàýne de Markov, nous permet de r'epondre a` quelques questions
aussi diverses que, la convergence d'une distribution ð(n)
lorsque n --* +8.
2
Systémes de files d'attente
2.1 Introduction et structure d'un système
d'attente
Les premiers résultats sur les systèmes de files
d'attente ont étéproposés par l'ingénieur
électricien Erlang au début du vingtième siècle,
dans le but de décrire les phénomènes de congestion et
d'attente ont étéutilisées dans la modélisation des
systèmes de production et des systèmes informatique [14].
D'une manière générale, une file
d'attente est la donnée d'une (ou plusieurs) unitéde service o`u
arrivent des clients qui demandent une certaine durée d'utilisation de
cette unité. Quand les clients ne peuvent accéder a` cette
unitéde service, ils attendent dans une file d'attente (qui peut
être éventuellement de capacitélimitée).
FIGURE 2.1 - Système de files d'attente a` un seul
serveur
2.1.1 Classification et formalisation d'un système
de files d'attente
En g'en'eral, une file d'attente est d'efinie par :
1) Un processus d'arriv'ee de clients, i.e. une suite
croissante {Tn, m = 0}, o`u Tn est l'instant d'arriv'ee
du m`eme client. Le processus d'arriv'ee est alors la fonction de
comptage associ'ee aux temps d'inter-arriv'ees. Si de plus la loi est une
exponentielle, alors le processus des arriv'ees est un processus de Poisson, et
on utilise la notation M pour souligner le caractère markovien.
2) Une suite de r'eels {Sn, m = 0} avec
Sn est la dur'ee de service requise par le m`eme client.
Nous verrons que dans ce cas, si le processus d'arriv'ee est un processus de
Poisson, alors l''evolution de la taille de la file d'attente est une
chaàýne de Markov.
3) Une discipline de service . Distributions des
inter-arrivées
Les symboles utilis'es pour d'ecrire les processus d'entr'ee et
de service sont :
- M : Loi exponentielle (processus de Markov);
- G : Loi g'en'erale;
- GI : Loi-g'en'erale ind'ependante;
- D : Loi constante (d'eterministe);
- Ek : Loi Erlang-k;
- Hk : Loi hyper exponentielle d'ordre k;
- Ck : Loi de Cox-k.
Discipline de service
- FIFO(First In First Out) : Les clients sont servis suivant leur
ordre d'arriv'ee; - LIFO(Last In First Out) Le dernier client arriv'e est le
premier servi;
- Services partagées Tous les clients sont servis en
même temps, mais avec une vitesse inversement proportionnelle au nombre
de clients;
- Aléatoire Le prochain client de la file d'attente a`
être servi est choisi au hasard;
- SPT (Shortest Processing Time) Le prochain client de la file
d'attente a` être servi est celui qui a la requête la plus
courte;
-
...
Ces trois 'el'ements sont consid'er'es comme les
paramètres essentiels du système, Kendall [15] a propos'e de
repr'esenter les modèles stochastiques de files d'attente sous forme
d'un sextuplet
A/S/Ns/Nc/K/Z,
. A concerne la loi du processus des inter-arriv'ees
{En, m = 0} = {Tn+1 - Tn, m = 0};
. S concerne la loi des dur'ees de service Sn ;
. Ns est le nombre de guichets ou serveurs;
. Nc est la capacit'e de la file d'attente;
. K concerne la source des clients;
. Z est la discipline de service.
Lorsque les trois derniers 'el'ements ne sont pas mentionn'es,
il est sous-entendu que la capacit'e et la source sont infinies et que la
discipline est FIFO (premier arrivé, premier servi).
Caractéristiques d'un système de files d'attente
La th'eorie des systèmes d'attente a comme objectif
d'en 'etudier les structures et de calculer les valeurs caract'eristiques
permettant de d'ecrire les performances d'un tel système : L : Nombre
moyen de clients dans le système de files d'attente;
Lq : Nombre moyen de clients dans la file;
W : Temps moyen de s'ejour d'un client dans la file (attente +
service);
Wq : Temps moyen d'attente d'un client dans la
file.
Ces valeurs sont li'ees les unes aux autres par les relations
suivantes [37] :
L = ëeW ;
Lq = ëeWq;
;
1
W = Wq + u
ëe
L = Lq + .
u
Les deux premières relations sont appel'ees Formules de
Little, avec : ëe : Taux d'arriv'ees dans le système;
u : Taux de service;
1 : Intervalle de temps moyen s'eparant deux arriv'ees
cons'ecutives;
ëe
i : Dur'ee moyenne de service j;
u
p = ëeu : Taux d'occupation du système.
2.1.2 Analyse mathématique d'un système
de files d'attente
La description mathématique d'une file d'attente se fait
par l'introduction des processus stochastiques suivants :
. {Xt, t = 0} o`u Xt correspond au nombre de clients dans le
système a` la date t; . {Wn, m = 1} o`u Wn
correspond a` la durée d'attente du mieme client;
. {At, t = 0} o`u At est le nombre d'arrivée a` la date
t;
. {Nt, t = 0} o`u Nt est le nombre de clients pouvant être
servis si le serveur travaillait sans interruption durant la période
[0,t];
. {Dt, t = 0} o`u Dt est le nombre d'arrivées a` la date
t.
Ces quantités peuvent être considérées
comme les caractéristiques essentielles du système.
2.2 Files d'attente markoviennes
Les files d'attentes makoviennes sont celles pour lesquelles
les inter-arrivées et les durées de service sont exponentielles.
Leur notation de Kendall sera de la forme M/M/... (M comme markovien).
2.2.1 La file d'attente M/M/1
Pour ce système, le plus simple de la théorie des
files d'attente, le flux des arrivées est poissonnien de
paramètre ë et la durée de service est exponentielle de
paramétre u.
Régime transitoire
Soit le processus stochastique {X(t), t = 0} : »le nombre
de clients dans le système a` l'instant t ». Gràace aux
propriétés fondamentales du processus de Poisson et de la loi
exponentielle suivante :
. P(exactement une arrivée pendant At) = At + o(At);
. P(aucune arrivée pendant At )= 1 - At + o(At); . P(2
arrivées ou plus pendant At)= o(At);
. P(exactement 1 départ pendant At/X(t) = 1 )= ut +
o(At);
. P(aucun départ pendant At/X(t) = 1 )= 1 - ut + o(At);
. P(2 départs ou plus pendant At )= o(At).
Dans ce cas, la matrice des taux de transition P = (Pij)i,j?N
prend la forme suivante :
? ? ? ? ? ? ?
P=
? ??????
-A A 0 . .
-( + A) A 0
0 -( + A) A 0
... ...
0 -( + A) A
... 0 ...
Et le graphe représentatif du processus de naissance et
mort de la file d'attente M/M/1 est donnésous la forme:
FIGURE 2.2 - Graphe représentatif du processus de
naissance et de mort
{
P ' 0(t) = -AP0(t) + P1(t); (2.1) P '
n(t) = -(A + )Pn(t) + APn_1(t) + Pn+1(t), m =
1, 2, ... o`u Pn(t) = P(Xt = m).
Si A < , le processus {Xt, t = 0} converge vers une variable
aléatoire X dont la distribution ð est définie par [9] :
ðn = (1 - p)pn,
o`u p = A/ , m = 0,1,...
Caractéristiques de la file M/M/1
La file M/M/1 est stable (A < , c'est-à-dire p <
1).
- Le nombre moyen de clients dans la file Lq :
Le nombre moyen de clients dans la file ne dépend que du
taux de charge p :
>
E[m] =
n>0
|
mð(m) = p
1 - p = Lq,
|
- Temps moyen de séjour W est obtenu par:
L
W = ë
|
|
1
|
|
=
|
|
|
u(1 -- ñ),
|
qui peut se décomposer en :
|
1
W = u
|
ñ
+ u(1 -- ñ).
|
On déduit alors, le temps moyen passédans la file
d'attente Wq :
ñ
Wq = u(1 -- ñ),
- D'après la formule de Little, le nombre moyen de clients
dans le système de la file d'attente
stable M/M/1 est donnépar le produit de leur taux
d'arrivée ëe et leur temps de séjour moyen W :
L = ëeW = ñ2 .
1 -- ñ
2.2.2 La file d'attente M/M/m
On considère un système identique a` la file M/M/1
exceptéqu'il comporte m serveurs identiques et indépendants les
uns des autres.
On conserve les hypothèses : processus
d'arrivées des clients poissonnien de taux u et temps de service
exponentiel de taux ë (pour chacun des serveurs). Ce système est
connu sous le nom de file M/M/m. L'espace d'états S est, comme pour la
M/M/1 infini, S = {0, 1, 2, ...}. On a un processus de naissance et de mort de
taux :
ën = ë.
0, si n = 0;
nu, si 0 < n < m; (2.2)
mu, si n = m.
La condition de stabilitéici est ë < mu, et
exprime le fait que le nombre moyen de clients qui arrivent a` la file par
unitéde temps doit être inférieur au nombre moyen de
clients que les serveurs de la file sont capables de traiter par unitéde
temps.
On peut donner ðn comme suit [15] :
ðk = ñkmm
{ (mñ)k
m! , k = m, m + 1, ...
k! , k = 0, 1..., m -- 1; (2.3)
avec,
m-1X k=1
mñ)k k! ].
mñ)m
ð0 = [1 + m!(1 - ñ) +
Le graphe représentatif du processus de naissance et mort
est :
FIGURE 2.3 - Graphe de la file d'attente M/M/m
Caractéristiques de la file M/M/m
La file M/M/m, est plus simple (au niveau des calculs). On
calcule d'abord le temps moyen de séjour et on déduit le nombre
moyen de clients.
- Temps moyen de séjour W :
Le temps moyen de séjour d'un client se
décompose en un temps moyen dans la file d'attente, plus un temps moyen
de service. Il suffit alors d'appliquer la formule de Little a` la seule
file
1
W = Wq + u
|
Lq
= ë +
|
1 u
|
,
|
Il reste alors a` calculer le nombre moyen de clients en attente
dans la file, Lq :
Lq = X8 ðn,
n=m+1
Lq = ñ (ë/u)n
(1 - ñ2) m!mn-m ð0.
o`u, ñ = ë/mu.
On en déduit l'expression du temps moyen de
séjour
W = ñ
(1 - ñ2)
|
(ë/u)n
ð0 +
m!mn-m
|
1 u
|
,
|
- Nombre moyen de clients L :
Le nombre moyen de clients s'obtient alors par application de la
formule de Little:
L = WA = A( p (A/u)
(1
n 1
ð0 + ).
- p2) m!mn-m u
2.2.3 La file d'attente M/M/1/N
On considère un système a` serveur unique identique
a` la file M/M/1 exceptéque la capacitéde la file d'attente est
finie. On a donc toujours les hypothèses suivantes :
Le processus d'arrivées des clients dans la file est un
processus de Poisson de taux A et le temps de service d'un client est une
variable aléatoire exponentielle de taux u.
Soit N la capacitéde la file d'attente, c'est le nombre
maximal de clients qui peuvent être présents dans le
système, soit en attente, soit en service.
Quand un client arrive alors qu'il y a déjàN
clients présents dans le système, il est perdu.
Ce système est connu sous le nom de file M/M/1/N,
l'espace d'états S est maintenant fini S = {0, 1, 2, ..., N}, le
nombre de clients dans la file ne peut donc jamais »partir» a`
l'infini.
De plus, dès qu'un client est autoriséa` entrer,
il sortira avec un temps de séjour dans la file fini, puisqu'il
correspond au temps de service de tous les clients devant lui et que ce nombre
est limitéa` N. Sur un temps très long, le débit de sortie
sera donc bien égal au débit d'entrée, ce qui correspond
bien a` la stabilitéinconditionnelle du système.
FIGURE 2.4 - Graphe de la file M/M/1/N
On décrit un tel système par le processus {X(t), t
= 0} représentant le nombre de clients dans le système a`
l'instant »t».
Le processus de naissance et de mort modélisant ce type de
file d'attente est alors défini de la façon suivante :
{ A, n < k;
An = (2.4) 0, n = k.
{ u, n =6 0;
un = (2.5) 0, n = 0.
Régime transitoire
Le graphe représentatif de la file M/M/1/N est
donné:
FIGURE 2.5 - Graphe de la file M/M/1/N
D'après ce graphe, on extrait les équations
différentielles de Kolmogorov correspondantes au processus X(t) du
système M/M/1/N qui sont identiques a` celles du système M/M/1
sauf pour n = N :
|
P0 0(t) = --ëP0(t) + uP1(t);
P 0 n(t) = --(ë + u)Pn(t) +
ëPn-1(t) + uPn+1(t), n = 1, N; (2.6)
P 0 N(t) = --uPn(t) +
ëPN-1(t).
|
Régime stationnaire
On note ðn = Pn(t) la
probabilitéstationnaire d'être dans l'état n
(probabilitéque le système contient n clients). Ces
probabilités peuvent être calculées en écrivant les
équations
d'équilibre, o`u lim
n?8
|
P 0 n(t) = 0 :
|
ë
ðn = u
ðn-1; n = 0...N,
o`u ñ = ë/u.
En appliquant n fois cette relation:
ðn = ð0ñn n = N,
ð0 :
|
1
|
1 - ñ
|
ð0 =
|
|
|
|
|
|
N
E
n=0
|
ñn
|
|
1 - ñN+1 ,
|
Ou obtient finalement :
|
ðn = ( 1 - ñ 1 - ñN+1
)ñn.
|
N
En se servant de la condition de normalisation E
ðn = 1, on peut deduire la probabilite
n=0
Caract'eristiques du syst`eme M/M/l/N
-Nombre moyen de clients dans le syst`eme (L) :
L = ñ
1 - ñ
|
(N + 1)ñN+1
|
|
1 - ñN+1 ,
|
A nouveau, lorsque N tend vers l'infini et ñ < 1, on
retrouve les resultats de la file M/M/1 :
L = ñ
1 - ñ.
Pour le syst`eme dont la capaciteest limit'ee a` N, le calcul de
ëe se fait comme suit :
ëe = ë(1 - ðn),
o`u, (1 - ðn) represente la probabilitede
»non refus d'un client dans le syst`eme».
ñ
L=
(1 - ñ)
|
(N + 1)ñN+1
|
|
1 - ñN+1 ,
|
A l'aide des formules de Little , on obtient
(N + 1)ñN+1 1 - ñN
-Nombre moyen de clients dans la file (Lq) :
Lq = L - ñ(1 - ðN) = (1 ñ
ñ) - 1 - ñN+1 - ñ( 1 - ñN+1),
ñ NñN+1 + ñ
L=
q (1 - ñ) 1 - ñN+1 .
-
textbfTemps moyen de s'ejour el d'attente d'un client dans le
syst`eme (W et Wq) : W = L/ëe , on obtient
[14] :
W = (1 + NñN+1 - (N +
1)ñN u(1 - ñ)(1 - ñN) ,
Wq
-NñN + (N - 1)ñN+1 +
ñ
u(1 - ñ)(1 - ñN) .
2.3 Files d'attente non Markoviennes
L'étude des files non markoviennes est cependant
beaucoup plus difficile que celles de la section précédente sur
les systèmes de files d'attente Markoviennes, et nous nous limitons ici
a` présenter les résultats disponibles dans les cas les plus
simples.
2.3.1 Système de files d'attente M/G/1
Dans ce type de système, la durée des
inter-arrivées est une variable aléatoire suivant une loi
exponentielle de paramètre ë, et la durée de service est une
variable aléatoire suivant une loi quelconque H, de moyenne 1/u. La
propriétéde Markov du processus {X(t), t = 0} représentant
»le nombre de clients dans le système a` l'instant t»
facilitant l'analyse des systèmes de type M/M/1 n'est plus
vérifiée pour le système M/G/1 qui rend son analyse plus
délicate. Ainsi, plusieurs méthodes ont
étéproposées dan la littérature [14] :
. Méthode des étapes d'Erlang;
. Méthode de la chaàýne de Markov
induite;
. Méthode des variables auxiliaires;
. Méthode des événements fictifs;
. Méthodes d'approximation;
. Simulation.
Chaàýne de Markov induite
Considérons le processus X(t), le nombre de clients dans
le système aux instants (tn, m = 1, 2, ...) o`u tn
est l'instant de départ du m`eme client.
On défini ainsi le processus stochastique a` temps
discret {Xn = X(tn), m = 0, 1, ...} représentant
le nombre de clients dans le système juste après le départ
du m`eme client. La variable aléatoire Xn est une
chaàýne de Markov a` temps discret. Pour vérifier cela,
considérons le nombre An de clients qui entrent dans le
système pendant que le meme client est servi.
Les variables aléatoires An sont
indépendantes entre elles, leur distribution commune est :
f e-ët(ët)k
P(An = k) = ak = k! dH(t),
Alors,
{ Xn - 1 + An+1, Xn = 1;
Xn+1 = (2.7)
An+1, Xn = 0.
o`u
=
eë(Z-1)sdH(s).
0
X
A(z) =
j=0
On remarque que Xn+1 dépend que de
Xn et de An+1 et non pas des valeurs de Xn-1, Xn-2, ...
Ce qui signifie que la suite {Xn, n = 0, 1, ...} ainsi
définie est une chaine de Markov induite du processus {X(t), t = 0}.
R'egime transitoire
Les probabilités de transition de la chaine de Markov
induite {Xn, n = 1, 2, ...}, sont données par :
Pij = P(Xn+1 = j/Xn = i),
? ?
?
P0j = P(Xn+1 = j/X0 = 0) = aj = p(An+1 = j), j = 0;
Pij = P(Xn+1 = j/Xn = i) = aj-i+1 = p(An+1 = j - i + 1), 1 = i =
j + 1; (2.8)
Pij = 0, ailleurs.
D'o`u la matrice de transition :
|
|
|
|
|
|
|
a0
?
|
a1
|
a2
|
a3
|
·
|
· ·
|
?
|
? a0
|
a1
|
a2
|
a3
|
·
|
· ·
|
?
|
? ? 0
|
a0
|
a
|
a2
|
·
|
· ·
|
? ?
|
P= ? ? 0
|
0
|
a0
|
a1
|
·
|
· ·
|
? ?
|
|
? ? 0
|
0
|
0
|
a0
|
|
...
|
? ?
|
...
?
|
...
|
...
|
...
|
.
|
..
|
?
|
Puisqu'on peut passer de chaque état vers n'importe
quel autre état, alors ; il s'agit d'une chaine de Markov
irréductible donc, on peut montrer qu'elle converge vers une
distribution limite si ñ = ë/u < 1 .
R'egime stationnaire
Supposons que ñ < 1, la distribution stationnaire de la
chaine de Markov (Xn, n = 1, 2, ..), o`u
Il ne sera généralement pas possible de trouver
la distribution ð elle-même, mais nous pou- vons calculer la
fonction génératrice correspondante ð(z). Ceci, en utilisant
la définition de la distribution de probabilitédiscr`ete
stationnaire par rapport a` une matrice stochastique
P : ðP = ð. On obtient :
( Z) ð0A(z)(z - 1) =
z - A(z) ,
est la transformée de Laplace de la densitéde
probabilitédu temps de service, avec |z| < 1. On remplace A(z) par
la transformée de Laplace b(ë - ëz), on obtient la formule
suivante :
.
ð(z) = (1 - ñ)b(ë - ëz)(1 - z)
b(ë - ëz) - z
Cette formule est connue sous le nom de la Pollaczek-Khinchine
.
Caractéristiques du système d'attente M/G/l
- Nombre moyeu de clients dans le système (L) :
Cette quantitépeut être déterminée en
régime stationnaire, en utilisant la relation :
E(X) = lim
z?1 ð'(z),
Ce calcul s'avère compliqué. Par contre, elle peut
être obtenue aisément en utilisant la relation [9] :
{ 1, siXn > 0;
ón = (2.9)
0, siXn = 0.
Tel que,
Xn+1 = Xn + ón + An+1,
ó2 + ë2V ar(Y )
L = E(Xn) = ó + 2(1 - ó)
On obtient ainsi :
,
O`u Y est la durée de service et V ar(Y ) = óY 2
est la variance de service. - Le temps moyen de séjour d'un client dans
la file W :
L 1 ë[óY2+ u2 1 ]
W = ë W = + 2(1 - ñ) ,
u
- Le temps moyen de d'attente d'un client dans le système
Wq :
1
Wq = W - u
|
=
|
ë[óY 2+ u2 1]
|
|
2(1 - ñ) ,
|
- Nombre moyeu de clients dans la file Lq :
ë ë2[(óY
2+ñ2)2]
L = Lq + Lq = L - ñ = 2(1 -
ñ) . u
2.3.2 Système de files d'attente G/ M/ l
Le système G/M/l peut être
considérécomme symétrique du système M/G/1. En
effet, les temps des inter-arrivées des clients suivent une loi
générale F, de moyenne 1/A et le temps de service est une
variable aléatoire suivant une loi exponentielle de paramètre u.
Afin d'analyser ce système, on fait appel a` la méthode de la
chaàýne Markov induite.
Chaàýne Markov induite
Soit Yn : le nombre de clients se trouvant dans le
système G/M/1 juste avant l'arrivée du neme client .
La variable aléatoire Yn est une chaàýne de
Markov a` temps discret.
Pour vérifier ce résultat, considérons le
nombre Bn de clients servis entre les instants d'arrivées
consécutives (Tn_1, Tn), les variables
aléatoires Bn sont indépendantes entre elles, leur
distribution commune est [14] :
P(Dn = k) = Bk = On a alors la relation suivante :
|
Z0
|
+00e_ut (mut)k
k! dF(t).
|
Yn = Tn_1 - Dn + 1,
Dn est une variable aléatoire qui ne
dépend que de la durée (Tn - Tn_1).
D'autre part (Tn - Tn_1) est une variable
aléatoire indépendante de Yn_1 , de l'état du
processus avant Tn_1 ainsi que de n. Et que Tn ne
dépend que de Tn_1 et non pas de Tn_2, Tn_3,....
La suite {Yn : n = 0, 1, ...} forme une
chaàýne de Markov induite du processus {Y (t), t = 0} o`u y(t) :
le nombre de clients dans le système a` l'instant »t».
Régime transitoire
Les probabilités de transition de la chaàýne
de Markov induite {Yn : n = 0, 1, ...}, sont données par:
qij = P(yn+1 = j/yn = i) = P(Dn = k),
j.
~P(Dn = i - j + 1), si Xn > 0; 0, si i + 1 <
qij = (2.10)
Pi0 = 1 -
|
Xi+ 1 j=1
|
Pij.
|
Q =
|
? ? ? ? ? ? ? ? ? ? ? ? ? ?
|
? ? ? ? ? ? ? ? ? ? ? ? ? ?
Ainsi, la matrice des probabilites de transition Q = (qij)i,jinN
prend la forme suivante :
1 -- B0 B0 0 0 0 ...
1
P j=0
1 --
Pij B1 B0 0 0 ...
2
P j=0
1 --
Pij B2 B1 B0 0 ...
3
P j=1
1 --
..
Pij B3 B2 B1 B0 .
.· · · · · · · · ·
· · · · · ·..
R'egime stationnaire
Supposons que le regime stationnaire existe (A/au <
1).
Notons 7r = (7rn)n>0, le vecteur de probabilitestationnaire de
la chaine de Markov induite
(Yn).
On a, 7r = 7rP,
7ri =
?
?? ?
???
+00
k=0
7r0 =
7ri+k-1Bk, si i = 1;
+00
t=0
[7re(1 --
+00
t=0
Bk)].
(2.11)
On utilise la fonction generatrice de la variable aleatoire
Dn note par
B(z) = z. (*)
Notons par rj(0 < rj < 1) la jeme solution de
l'equation (*), la solution pour 7ri est :
7ri = E cjrij,
j
cj une constante.
En utilisent l'equation (*), z = B(z) et 7ri =
Cri 0, i = 1, on verifie ; 7r0 = 1 -- r0.
D'ou,
7ri = (1 -- r0)ri 0, n > 0.
Caractéristiques du système d'attente G/M/l
ðn = Pn, n'est pas
vérifiée ici parceque les arrivées sont
générales avec
Pn = lim
t--++8
|
P(X(t) = n).
|
Les mesures de performance juste aux instants
d'arrivées, et Pn = ñðn-1. On constate que toutes
les caractéristiques stationnaires du système M/M/1 peuvent
être déduite a` partir des caractéristique stationnaire de
la chaàýne de Markov induite (bien que ðn =6
Pn).
Les mesures de performance sont donc données comme suit
: - Temps moyen d'attente d'un client dans le système Wq
:
r0
Wq = u(1 -- r0),
- Temps moyen de séjour d'un client dans le système
W :
1
W = Wq + u
|
|
1
|
|
=
|
|
|
u(1 -- r0),
|
- Nombre moyen de clients dans le système L :
ë
L = u(1 -- r0),
Nombre moyen de clients dans la file Lq :
1
Lq = u
|
=
|
ër0
|
|
u(1 -- r0).
|
2.4 Conclusion
Nous avons abordédans ce chapitre, d'une manière
générale et claire les notions de base de la théorie des
files d'attente. Nous avons étudiéles systèmes de files
d'attente Markoviens comme, M/M/1, M/M/m et M/M/1/N de la théorie des
files d'attente élémentaire, et les systèmes de files
d'attente non Markoviens : M/G/1 et G/M/1 de la théorie des files
d'attente intermédiaire (la méthode de la chaàýne
induite qui ramène l'étude du processus non Markovien a` celle
d'une chaàýne de Markov a` temps discret).
3
Chaàýnes de Markov tronquées
3.1 Chaàýnes de Markov
tronquées
Les chaàýnes de Markov constituent l'outil
principal pour la mod'elisation et la r'esolution de problèmes
dynamiques stochastiques. Dans ce chapitre, nous allons voir certains
r'esultats consacr'es aux chaàýnes de Markov tronqu'ees.
Les chaàýnes de Markov sont connues, dans des
situations d'applications pratiques qui se trouvent dans les
t'el'ecommunications (r'eseaux de files d'attente, de radiodiffusion, de
communication par satellite), l''evaluation de performance informatique
(r'eseaux informatiques, programmation parallèle, stockage et
retransmission en m'emoire tampon), la fabrication (lignes d'assemblage,
systèmes de manutention), la fiabilit'e (analyse de panne), et la
th'eorie d'inventaire, l'analyse de performances des systèmes
informatiques.
Cependant, la mod'elisation des situations r'eelles, en
simplifiant les hypothèses et les estimations en utilisant l'analyse de
perturbations conduisant a` des erreurs introduites par ces inexactitudes. Nous
allons pr'esenter quelques travaux sur le problème de troncature des
chaàýnes de Markov.
3.1.1 Principe de troncature
En g'en'eral, le »principe de troncature» peut
être 'enonc'e comme suit : »Pour r'esoudre un système infini
d''equations lin'eaires a` un nombre infini d'inconnues, on limite le
système aux n premières 'equations, et on n'eglige le reste des
'equations». Ce principe à'et'e introduit en 1913 par Riesz
[40].
3.1.2 D'efinitions
Nous rappelons d'abord brièvement quelques d'efinitions
essentielles des chaàýnes irr'eductibles a` valeurs dans un
ensemble d'enombrable S. De nombreux r'esultats suppl'ementaires peuvent
être trouv'es dans les ouvrages de Meyn et Tweedie [33] et de Nummelin
[34] :
. Soient X et Y deux variables al'eatoires a` valeurs r'eelles
de fonction de r'epartition F et G respectivement, X est dite stochastiquement
inférieure a` Y, est on note X st Y , si pour tout t on a
:
. P = (p(i,j))i,j>1 est dite stochastiquement
inférieure a` Q = (q(i,j))i,j>1, not'e P st Q, ssi :
Vi = 1,Vm = 1, Xm p(i,j) = Xm q(i,j).
(3.1)
j=1 j=1
. Q = (q(i, j))i,j>1 est dite stochastiquement
monotone ssi :
i j Vm Xm q(i,k) = Xm q(j,k). (3.2)
k=1 k=1
. On appelle »small set» une partie A de S, pour
laquelle il existe un m > 0 et une mesure non triviale õm
sur S tels que, pour tout i dans A et tout j dans S, on ait
p(m)(i, j) = õm(j) (3.3)
Pour une chaàýne irr'eductible a` valeurs dans S,
toute partie finie est un »small set»(i,e petite s'erie).
. Soit Z = (Z(k))k>0 une chaàýne irr'eductible
et A une partie de S, le temps d'atteinte l'ensemble A est d'efini par :
ôA = inf{k = 1; Z(k) E A}, (3.4)
La chaine Z = (Z(k))k>0 est dite geometriquement recurrente
s'il existe un »small set» B et un nombre r > 1, dependant
eventuellement de B, tel que
sup
iEEi {rôB} < +8. (3.5)
. L'etat i est dit geometriquement recurrent s'il existe r >
1, dependant eventuellement de i, tel que :
Eirôi < +8, (3.6)
Si la chaine est geometriquement recurrente, tous les etats sont
geometriquement recurrents.
i> La chaine Z = (Z(k))k>0 est dite uniformement recurrente
s'il existe un »small set» B et un nombre r > 1, dependant
eventuellement de B, tel que
sup EirôB < +8. (3.7)
iEs
3.2 Diff'erentes techniques de la troncature des
chaines de Markov
Soit P = (P(i, j))i, j = 1, une matrice stochastique infinie,
irreductible et recurrente positive elle admet une distribution stationnaire
unique ðn = (ðn(j))j>1, le calcul de cette distribution
etant en general difficile sinon impossible.Pour cela, une solution consiste a`
approcher P par une matrice stochastique finie Pn.
»Le Coin Nord-Ouest» d'ordre n de la matrice P :
Tn = (P(i, j))n>i,j>1.
P etant irreductible, il existe au moins une ligne i pour
laquelle
alors la matrice tronquee Tn n'est pas
stochastique.
A partir de Tn, on construit une matrice stochastique
(Pn(i, j))n>i,j>1 verifiant Pn = Tn
c'est a` dire Pn(i, j) > P(i, j) pour 1 = i, j = n;
cela peut se faire de plusieurs facons, citons les principales :
3.2.1 Augmentation linéaire
La masse de probabilitéperdue lors de la troncature de P
est redistribuée sur les colonnes de Pn, plus
précisément, soit
An = (án(i,j))1<i,j<n,
une matrice stochastique quelconque, on pose pour 1 = i, j =
n,
X
Pn(i,j) = P(i,j) + án(i, j)
k>n
En particulier, on obtient :
|
P(i, k).
|
- L'augmentation de la première colonne, travaux de
Kalashnikov et Rachev [27], seulement si án(i, 1) = 1 pour 1
= i = n;
- L'augmentation de la dernière colonne [51], seulement si
án(i, n) = 1 pour 1 = i = n ; - L'augmentation uniforme
án(i,j) = n-1 pour 1 = i,j = n .
- On peut aussi prendre pour A, une matrice dont toutes les
lignes sont identiques,c'est un cas considérépar Gibson et Seneta
[11].
- Encore plus simplement, on peut comme van Dijk [48], choisir A
booléenne.
3.2.2 Renormalisation
On pose s(i, n) = Pn P(i,j), on choisit alors pour 1 =
i,j = n :
j=1
P (i, j)
Pn(i, j) = s(i,n) .
En prenant n assez grand afin que s(i, n) > 0.
Notons que les deux conditions Pn stochastique et
Pn = Tn, impliquent lim
n-400
|
Pn(i,j) =
|
P(i, j). Par consequent si n est grand, Pn et P sont
voisines, ce qui amène aux questions suivantes :
(Q1) Pn admet-elle une distribution stationnaire
ðn ? - (Q2) ðn converge-t-elle, en un sens a`
préciser vers ð ?
En ce qui concerne (Q1), l'existence d'une distribution
stationnaire ðn a
étéétudiépour divers types de matrices
Pn, en particulier par Seneta [41, 39]. Nous notons que si
l'état 1 est récurrent positif pour
Pn, il existe au moins une distribution stationnaire
ðn. En effet, la chaàýne réduite a` la
classe de l'état récurrent 1 admet une distribution stationnaire
qu'on peut compléter par 0 sur les autres états.
De nombreux travaux ont étéconsacrés a`
l'étude de (Q2), parmi les plus intéressants, citons :
(1) Wolf [50], qui s'est intéresséa`
l'approximation de la distribution stationnaire d'une matrice infinie P,
irréductible, récurrente positive, par ailleurs quelconque, par
les distributions stationnaires de matrices finies Pn. Il a
examinéquatre types de matrices Pn, obtenues par:
. Augmentation de la première colonne;
. Augmentation de la dernière colonne;
. Augmentation uniforme des colonnes;
. Renormalisation.
et établit la convergence en variation de
ðn vers ð, sous des conditions analogues au critère
de Foster.
(2) Seneta [41] a prouvéque ðn converge
faiblement vers ð . Cette prouve a étérepris par Gibson et
Seneta [11] pour établir la convergence faible de ðn vers
ð quand P est stochastiquement monotone et Pn construite par
augmentation.
(3) Heyman [20] a construit des chaàýnes
Xn et X de matrices de transitions respectives Pn et P et
il a introduit les temps de retour en 1, Cn et C des
chaàýnes Xn et X puis le temps nécessaire pour
que la chaàýne X dépasse la barrière n; en
s'appuyant sur les résultats de Heyman et Whitt [21], il établit
une condition suffisante pour assurer la convergence faible de
ðn vers ð .
(4) Kalashnikov et Rachev [27] ont aussi
étudiéle problème d'approximation d'une
chaàýne de Markov infinie, l'essentiel de leurs travaux est
orientévers l'approximation uniforme de la chaàýne
initiale par des chaàýnes finies construites par augmentation de
la première colonne.
(5) Tweedie [46] s'est intéressé, en
particulier aux chaàýnes géométriquement ergodiques
et les chaàýnes de Markov stochastiquement monotone, pour
étudier les deux questions. Il a considéréPn,
»la matrice coin nord-ouest de troncature» de P. On
connaàýt que les approximations de ð(j)/ð(0)
peut être construite a` partir de Pn, mais seulement dans des
cas particuliers, sont celles connues de la convergence de la distribution de
probabilitévers elle-même. Il a montre ainsi que cette convergence
se produit toujours pour deux autres classes générales de
chaàýnes de Markov : les chaàýnes
géométriquement ergodiques, et celles dominées par les
chaàýnes stochastiquement monotones. Dans les cas particuliers,
de
manière uniforme, les chaàýnes ergodiques et
les chaàýnes stochastiquement monotones, il a obtenu des
estimations d'erreur d'approximation ||ð(n) - ð||.
(6) Zhao et Liu [51] ont prouvéque la la
chaàýne de Markov censurée fournit la meilleure
approximation dans le sens que, pour une taille de troncature donnée, la
somme des erreurs est le minimum et ils ont montré, par exemple, que la
méthode d'augmenter la dernière colonne n'est pas toujours la
meilleure.
3.2.3 Distance entre les distributions stationnaires
Les résultats établis par Simonot [42] ne
concernent que les distributions de probabilité»transitoires»,
en faisant tendre n vers l'infini nous obtiendrons un majorant de la distance
entre les distributions limites. Une comparaison de ce résultat avec les
résultats obtenus par d'autres auteurs a
étéconsidérépar le même auteur. De
même, Gibson et Seneta [11] ont traitéce problème, ils ont
établi la convergence faible de ðn vers ð sous les
mêmes hypothèses sur ce qui concerne les matrices P, Q et
Pn.
En outre, Heyman [20] considère la même question
sous les hypothèses suivantes :
(A1) P est irréductible, récurrente positive et
stochastiquement monotone;
(A2) Pn est une matrice stochastique vérifiant
Pn(i, j) = P(i, j) pour 1 = i, j = n ;
(A3) L'état 1 est récurrent positif pour
Pn ;
(A4) lim
n-4+8
|
Pn(i,j) = P(i,j).
|
et en déduisant la convergence faible de ðn
vers ð.
3.3 Exemple de la troncature sur un réseau de
files d'attente en tandem avec blockage
Dans la pratique, l'espace d'états rencontréest
souvent grand ou infini, c'est le cas par exemple d'une file d'attente a`
capacitéd'attente infinie. Lors d'évaluation des performances de
tels systèmes et pour des raisons de la complexitédu calcul, on
rencontre alors des problèmes liés a` leur dimension. Alors, la
troncature de l'espace d'états devient a` ce niveau nécessaire.
Dans cette section, nous présentons un exemple illustratif de la
troncature d'espace d'états d'un réseau de files d'attente en
tandem avec blockage.
Considérons un réseau de files d'attente en tandem
constituéde deux files : la première est la file M/M/1/8 et la
seconde est la file M/M/1/N. Supposons que lorsque la deuxième
file est saturée, alors le premier serveur sera
bloqué. Chaque station contient un seul serveur et la discipline de
service est FIFO (le premier arrivépremier servi).
Les durées de temps de service des deux serveurs suivent
des lois exponentielles de pa-
rametres /t1 et /t2 respectivement.
Les temps d'inter-arrivées dans le réseau sont
également exponentielles de parametre ë(i) qui dépend de
nombre de clients présents dans la premiere file.
La distribution stationnaire conjointe de la taille de ce
réseau en tandem avec blockage (nombre total de clients présents
dans le réseau) n'existe pas sous forme explicite (voir par exemple
Hordijk [24] et Van Dijk [48]).
Ainsi, plusieurs auteurs ont proposédifférentes
approches d'approximation de celle-ci. Entre autres, on peut citer les
approximations numériques : Boxma et Konheim [8], Hillier et Boling [22]
et Latouche et Neuts [32], les approximation par bornes de perturbation : Van
Dijk [48]. Ce dernier auteur a considéréun cas de troncature de
l'espace d'états de la chaàýne de Markov décrivant
l'état de ce réseau de files d'attente, et cela tout en limitant
la capacitéd'attente de la premiere file a` Q buffers.
Dans ce cas, l'auteur [48] a démontréque sous
certaines hypotheses supplémentaires que la distribution stationnaire de
la taille de ce réseau peut-être exhibée sous forme
explicite.
A4 =
|
? ???
|
á11 á12 á13 á14 á21
á22 á23 á24 á31 á32 á33 á34
á41 á42 á43 á44
|
? ???
|
,
|
3.4 Exemple illustratif sur les techniques de
troncature par l'augmentation linéaire
Soit P = (P(i,j))i,j>1, une matrice stochastique infinie,
irréductible et récurrente positive. Elle admet donc une
distribution stationnaire unique ðn = (ðn(j))j>1.
? ? ? ? ? ? ?
P=
.
? ??????
p11 p12 p13 p14 . . . p21 p22 p23 p24 . . . p31 p32 p33 p34 .
. . p41 p42 p43 p44 . . . ... ... ... ... ...
Exemple pour m = 4
Considérons » le Coin Nord-Ouest» d'ordre 4 de
la matrice P qui est donnée par:
T4 = (P(i,j))4>i,j>1.
? ???
T4 =
,
? ???
p11 p12 p13 p14 p21 p22 p23 p24 p31 p32 p33 p34 p41 p42 p43
p44
P étant irréductible, il existe au moins une ligne
i pour laquelle 4 j=1 pij < 1, alors la matrice tronquée T4 n'est pas
stochastique.
Afin de rendre la matrice T4 stochastique, on construit une
nouvelle matrice stochastique (P4(i, j))4>i,j>1
vérifiant P4 = T4 c'est a` dire P4(i, j) > P(i, j) pour 1 i, j 4.
Cela peut se faire de plusieurs facons. La masse de
probabilités perdue lors de la troncature de
P est redistribuésur les colonnes de T4.
Soit A4 une matrice stochastique quelconque,
A4 = (á4(i,j))1<i,j<4,
4
telle que
|
P j=1
|
áij = 1, i.e.
|
á11 + á12 + á13 + á14 = 1;
á21 + á22 + á23 + á24 = 1; á31 +
á32 + á33 + á34 = 1; á41 + á42 +
á43 + á44 = 1.
L'estimation de la masse perdue dans chaque ligne est obtenue par
Ek>4 P(i, k). Pour notre exemple :
X Xp1k = (á11 + á12 + á13 +
á14) p1k,
k>4 k>4
Donc,
P p1k = á11 E p1k + á12 E p1k +
á13 E p1k + á14 E p1k. k>4 k>4 k>4 k>4 k>4
P p2k = á21 E p2k + á22 E p2k +
á23 E p2k + á24 E p2k. k>4 k>4 k>4 k>4 k>4
P p3k = á31 E p3k + á32 E p3k +
á33 E p3k + á34 E p3k. k>4 k>4 k>4 k>4 k>4
P k>4
|
p4k = á41 E
k>4
|
p4k + á42 E
k>4
|
p4k + á43 E
k>4
|
p4k + á44 E
k>4
|
p4k.
|
On construit notre nouvelle matrice et pour cela on pose pour 1
< i, j < 4,
P4(i,j) = P(i,j) + á4(i,j)E pik.
k>4
Posons s(i,k) = E
k>4
|
pik, et P4 s'écrit :
|
? ???
P4 =
p11 + á11s(1,k) p12 + á12s(1,k) p13 +
á13s(1,k) p14 + á14s(1,k) p21 + á21s(2,k) p22 +
á22s(2,k) p23 + á23s(2,k) p24 + á24s(2,k) p31 +
á31s(3,k) p32 + á32s(3,k) p33 + á33s(3,k) p34 +
á34s(3,k) p41 + á41s(4,k) p42 + á42s(4,k) p43 +
á43s(4,k) p44 + á44s(4,k)
|
?
? ? .
?
|
Xp11 + p12 + p13 + p14 + (á11 + á12 + á13 +
á14)
k>4
|
p1k = p11 + p12 + p13 + p14
+E
k>4
|
p1k,
|
o`u, (á11 + á12 + á13 + á14) = 1.
En particulier, on obtient A4 par les techniques d'augmentation
linéaire qu'on a déjàcite dans la section
(3.2), et on commence par :
* L'augmentation de la première colonne(voirles travaux de
Kalashnikov et Rachev [27]).
Si et seulement si á4(i, 1) = 1 pour 1 < i < 4;
Alors A4, s'écrit sous la forme :
,
?
|
1
|
0
|
0
|
0
|
?
|
|
1
|
0
|
0
|
0
|
|
A4 = ???
|
1
|
0
|
0
|
0
|
???
|
|
1
|
0
|
0
|
0
|
|
et la matrice p4 est donnée comme suit :
P4 =
|
? ???????
|
p11 + P k>4 p21 + P k>4 p31 +
P k>4 p41 + P k>4
|
p1k p12 p13 p14 p2k p22 p23 p24 p3k p32 p33 p34 p4k p42 p43
p44
|
? ???????
|
.
|
* L'augmentation de la dernière colonne [51], si et
seulement si á4(i, 4) = 1 pour 1 < i < 4 ;
Alors,
,
?
|
0
|
0
|
0
|
1
|
?
|
|
0
|
0
|
0
|
1
|
|
A4 = ???
|
0
|
0
|
0
|
1
|
???
|
|
0
|
0
|
0
|
1
|
|
et P4 sera donnée comme suit :
p11
?
p21
P4 =
???????
p31 p41
|
p12 p22 p32 p42
|
p13 p23 p33 p43
|
p14 + P p1k
k>4 ?
p24 + P p2k
k>4
.
???????
p34 + P p3k
k>4
p44 + P p4k
k>4
|
* L'augmentation uniforme : dans ce cas la matrice A4 est
construite de sorte que
|
toutes les composantes á4(i, j) = 1 4pour 1
|
i, j
|
4.
|
|
1/4 1/4
?
|
1/4
|
1/4
|
?
|
1/4 1/4
|
1/4
|
1/4
|
|
A4 = ??? 1/4 1/4
1/4 1/4
|
1/4 1/4
|
1/4 1/4
|
??? ,
|
et P4 sera donnée sous la forme:
? ???
P4 =
p11 + 1 4s(1,k) p12 + 1 4s(1,k) p13 + 1 4s(1,k) p14 + 14s(1,k)
p21 + 1 4s(2,k) p22 + 1 4s(2,k) p23 + 1 4s(2,k) p24 + 14s(2,k) p31 + 1 4s(3,k)
p32 + 1 4s(3,k) p33 + 1 4s(3,k) p34 +1 4s(3,k) p41 + 1 4s(4,k) p42 + 1 4s(4,k)
p43 + 1 4s(4,k) p44 + 1 4s(4,k)
|
?
? ? .
?
|
* On peut aussi considérer que A comme étant une
matrice dont toutes les lignes sont identiques, c'est un cas
considérépar Gibson et Seneta[11].
Dans ce cas;
A4 =
|
? ???
|
á11 á22 á33 á44 á11
á22 á33 á44 á11 á22 á33 á44
á11 á22 á33 á44
|
? ???
|
,
|
avec; á11 + á22 +
á33 + á44 = 1. et P4 est donnée comme suit :
? ???
P4 =
p11 + á11s(1,k) p12 + á22s(1,k) p13 +
á33s(1,k) p14 + á44s(1,k) p21 + á11s(2,k) p22 +
á22s(2,k) p23 + á33s(2,k) p24 + á44s(2,k) p31 +
á11s(3,k) p32 + á22s(3,k) p33 + á33s(3,k) p34 +
á44s(3,k) p41 + á11s(4,k) p42 + á22s(4,k) p43 +
á33s(4,k) p44 + á44s(4,k)
|
?
? ? .
?
|
D'o`u,
P4(i,j) = T4 + (I - T4)e4a, a = (a11, a22, a33, a44).
* Ou encore plus simplement, on peut choisir A booléenne,
comme Van Dijk [48] : Dans ce cas, si par exemple on prendre A comme une
matrice unitaire telle que :
.
?
A4 = ???
|
1 0 0 0
|
0 1 0 0
|
0 0 1 0
|
0 0 0 1
|
?
? ?
?
|
Alors,
? ???????
P4 =
p11 + P p1k p12 p13 p14
k>4
p21 p22 + P p2k p23 p24
k>4
p31 p32 p33 + P p3k p34
k>4
p44 + P
p41 p42 p43
k>4
* Renormalisation :
On pose s(i, 4) = /4 j=1 P(i, j), on choisit alors pour 1 i, j 4
:
P (i, j)
P4(i, j) = s(i,4) .
En prenant n assez grand afin que s(i, 4) > 0.
Exemple :
s(1,4) = p11 + p12 + p13 + p14, s(2,4) =
p21 + p22 + p23 + p24, s(3,4) = p31 + p32 +
p33 + p34, s(4, 4) = p41 + p42 + p43 + p44.
D'o`u
?
? ? ? ? ? ? ? ? ? ? ? ?
P4 =
|
p11
|
p12
|
p13
|
p14
|
?
.
? ? ? ? ? ? ? ? ? ? ? ?
|
s(1,4)
p21
|
s(1,4)
p22
|
s(1,4)
p23
|
s(1,4)
p24
|
s(2,4)
p31
|
s(2,4)
p32
|
s(2,4)
p33
|
s(2,4)
p34
|
s(3,4)
p41
|
s(3,4)
p42
|
s(3,4)
p43
|
s(3,4)
p44
|
s(4,4)
|
s(4,4)
|
s(4,4)
|
s(4,4)
|
3.5 Conclusion
Dans ce chapitre, nous avons introduit une synthèse
bibliographique sur le concept de la chaàýne de Markov
tronquée. Ensuite, nous avons donnédeux exemples
différents sur l'application de la technique de troncature, que nous
avons illustrépar quelque exemples. Dans le prochain chapitre, nous nous
intéressons a` l'application de ces techniques de troncature sur le cas
de la file d'attente M/M/1, o`u nous estimerons également l'erreur due
a` ces troncatures a` l'aide de la méthode de stabilitéforte.
4
Calcul de la borne de stabilitéforte pour le
cas de troncature de la capacitéd'attente de
la file M/M/1
Ces dernière ann'ees, la m'ethode de stabilit'e forte a
'et'e appliqu'ee pour divers problèmes et sur plusieurs modèles
stochastiques qui peuvent être r'egis par des chaàýnes de
Markov homogènes.
Dans ce chapitre, on s'int'eressera au cas d'application de la
m'ethode de stabilit'e tout en consid'erant le problème de la troncature
de l'espace des 'etats de la chaàýne de Markov d'ecrivant la file
M/M/1. Notre objectif est de faire une 'etude comparative entre deux techniques
de troncature (augmentation de la première colonne et augmentation
uniforme) pour le cas de calcul de la borne de stabilit'e forte.
4.1 Préliminaires et notations
L'outil principal utilis'e dans notre travail est la norme v
not'ee .kõ, o`u v est un vecteur dont les 'el'ements v(s)
> 1 pour tout s ? S (S est l'espace des 'etats de la chaàýne
de Markov) et pour tout w ? RS on a par d'efinition:
kwkõ = sup
i?S
|
w(i)
v(i) .
|
Soit ,t une mesure de probabilit'e dans S, alors la norme v de
,t est d'efinie comme suit:
Calcul de la borne de stabilit'e forte pour le cas de troncature
de la capacit'e d'attente de la file M/M/1 Page 48
La norme v est 'elargie aux noyaux de transition dans S. Dans ce
cas, soit A ? RS×S alors :
MAIõ = sup
i,kwk=1
|
PS j=1
|
|A(i,j)w(j)|
|
|
|
v(i) .
|
Supposons que -7 et 7 possedent une norme v finie,
alors
|e7f - 7f| = ke7 - 7kõkfkõ
inf
i?S
|
v(i).
|
4.1.1 Borne de la stabilit'e forte
Le critere de stabilit'e forte est donn'ee dans le th'eoreme
suivant.
Th'eor`eme 4.1 (Aissani et Kartashov 1983 [3]) :
Soit X une chaine de Markov de noyau de transition P et de
mesure invariante 7, cette chaine est dite v - fortement stable par rapport a`
la norme 11 · kv, si elle existe une mesure invariante ó
et une fonction mesurable non n'egative h sur N, satisfaisant les conditions
suivantes :
a) 7h > 0, ó1I = 1, óh > 0, et
b) T = P - h ? ó est non n'egatif,
c) ||T||v < 1,
d) 1P1v < 8.
O`u ? repr'esente le produit de la convolution entre la mesure
ó et la fonction h et 1I est un vecteur dont tout les 'el'ements sont
'egaux a` 1.
Ce r'esultat nous permet de d'elimiter le domaine des valeurs de
perturbation de la norme v (]1, â0]) pour lequel la chaine de Markov en
question est v-fortement stable.
La borne de la m'ethode de stabilit'e est donn'ee dans le
th'eoreme suivant.
Th'eor`eme 4.2 ([31]) :
Soit P un noyau de transition v - fortement stable si :
|| Pe -P|| 1 - 11T11õ
õ < ||I
? Ð||õ, (4.1)
alors la borne de la stabilit'e forte peut s''ecrire sous la
forme suivante :
||e7 ?? Ð||v || 7||õ =
Dr||õ ||I
Pe- P||õ
(4.2)
P- P||õ.
1 - kT kõ - ||I ? Ð||õ
||
En g'en'eral, la constante ||I ? Ð||õ est
estim'ee par 1 + 171õ.
4.2 Troncature de la capacitéd'attente de la
file M/M/1
Dans cette section, nous introduisons les résultats
théoriques obtenus lors de l'étude de la stabilitéforte de
la chaàýne de Markov dans un système de files d'attente
M/M/1 après la troncature de la capacitéde la file d'attente par
les deux techniques : augmentation de la première colonne et
augmentation uniforme.
4.2.1 Description du modèle et position du
problème
Considérons un système de files d'attente M/M/1,
le flux des arrivées est poissonnien de paramètre A, et le temps
de service est une variable aléatoire suivant une loi exponentielle de
paramètre u.
Notons par Q = A/u la charge (ou l'intensitédu trafic) de
ce système
Le noyau de transition Pe = (fPij)i,j>0
associéau modèle d'attente M/M/1 est défini comme suit
:
ePij =
|
? ???
???
|
a, si i = j = 0;
a, si j = i + 1;
a, si j = i - 1,i > 0; 0, ailleurs,
|
o`u a = A/(A + u) et a = (1 - a) = u/(A + u).
On a, Pe = (fPij)i,j>0, une matrice stochastique
infinie, irréductible et récurrente positive, elle admet donc une
distribution stationnaire unique eð = (eð(j))j>0.
? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ?
a
0
0
Pe =
a
a 0 a 0
|
0 a 0 a 0
|
0 0 a
0 .. .
0
|
0 0 a
.. .
a
|
.. 0 . 0 a
|
..
.
a 0 a
|
.. 0 ... ... ... . ... 0 a 0 .
|
....
0
...
...
...
...
0 a
..
|
···
· · · ?
· · ·
· · ·
· · · .
· · ·
· · ·
··· ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ?
..
|
Considérons »le Coin Nord-Ouest» T d'ordre N de
la matrice Pe , TN = (Tij)i,j>0 donnécomme suit :
Tij =
|
ePij,si 0 = i = N ; 0 = j = N.
|
.
a
? a
0
0
? ? ? ? ? ? ? ? ? ?
Tij =
|
a 0 a 0
|
0 a 0 a
0
|
0 0 a 0 ...
0
|
0 0 a ...
a
|
0 ...
0 a
|
?
??????????
...
a 0
|
D'après l'irréductibilitéde la matrice de
transition du système M/M/1,
si on considère leur Coin-Nord-Ouest, il existe au moins
une ligne i pour laquelle PN j=1 T(i, j) < 0, alors la matrice
tronquée TN n'est pas stochastique.
Afin de rendre T stochastique, on construit une nouvelle matrice
stochastique (P(i, j))N=i,j=0 vérifiant P = T c'est a` dire P(i,j) >
Pe (i,j) pour 0 = i,j = N. Cela peut se faire en utili-
sant plusieurs technique.
La masse perdue dans chaque ligne est estimée par
>k>N P(i, k). On pose pour 0 = i, j = N,
P(i,j) = Pe (i, j) + An(i, j) >1 P(i,
k),
k>N
avec A est une matrice stochastique quelconque, qu'on
construit par des techniques d'augmentation linéaire,
déjàmentionnées précédemment. En effet, on
s'intéressera juste aux techniques suivantes : Augmentation de la
première colonne et augmentation uniforme.
4.3 L'augmentation de la premi`ere colonne
Dans ce cas, la matrice stochastique A est donnée sous la
forme suivante :
Calcul de la borne de stabilitéforte pour le cas de
troncature de la capacité
d'attente de la file M/M/1
|
|
|
|
|
|
|
|
|
Page 51
|
1
? 1 1 1
A =
? ? ? ? ? ? ? ? ? ? ? ?
1 1 1 1
et la matrice P devient :
á
? á
0
P=
? ? ? ? ? ? ? ? ? ?
á
|
0 0 0 0 ...
...
0 0
á 0
á 0
0
|
0 0 0 0 ...
...
0 0
0 á 0 á
0 0
|
0 0 0 0 ...
...
0 0
0 0 á 0 ...
0 0
|
··· ··· ···
··· ...
...
0 0
|
0 0 á ...
á 0
|
··· ··· ···
··· ...
...
0 0
|
... 0 0 á
|
0 0 0 0
0
0 0 0
|
0
0 ?
0 0 0 ,
0
0 ? ? ? ? ? ? ? ? ? ? ? ?
0
?
,
??????????
... á
0
|
Pij =
|
? ?
?
|
ePij, si 0 = i = N - 1 ; 0 = j = N; á, si j = N
- 1 ; i = N;
á, si j = 0 i = N.
|
4.3.1 Calcul de la borne de stabilitéforte
:Augmentation de la premi`ere colonne
v- Stabilitéforte de la chaàýne de Markov
X
Pour prouver la v- Stabilitéforte de la
chaàýne de Markov X pour une fonction test v(k) =
âk pour â > 1, il est suffisant de trouver une mesure
ó, et une fonction mesurable h sur N tels que :
a) ðh > 0, ó1I = 1, óh > 0,
b) Tij = Pij - óihi, est non négatif,
Calcul de la borne de stabilit'e forte pour le cas de troncature
de la capacit'e d'attente de la file M/M/1 Page 52
c) ?ñ < 1 tel que Tõ(k) = ñõ(k),
pour k ? {0,1, ..., N},
d) 1P1õ < 8.
Pour notre cas, on choisit :
· õ(k) = âk , â > 1 avec k
? N.
· h(i) = Pi0 :
~ 1, si i = 0;
h(i) = 1Ii=0= 0, sinon.
· ój = P0j :
|
ój = P0j =
|
? ?
?
|
á, si j = 0; á, si j = 1; 0, sinon.
|
|
V'erifions maintenant les conditions a), b), c) et d) :
Condition a) ðh = ð0 > 0,
ðh = ð0 = (1 - 0)/(1 - QN+1) > 0. (4.3)
· ó1I = á + á + 0 = 1, o`u 1I est le
vecteur unit'e,
· óh = á + (0 × á) + 0 = á
> 0.
Condition b) V'erifions que le noyau T est non n'egatif, on a
:
T = P - h ? ó, ie T = P - {1ereligne}
~ P0j - ój = P0j - P0j = 0, si i = 0; Tij = Pij -
h(i)ój = Pij - 0 × ój = Pij, sinon,
Donc, T est un noyau non-n'egatif, ?i, j = 0 : Tij = 0.
Condition c) Montrons l'existence d'une certaine constante
ñ < 1 telle que : Tõ(k) = ñõ(k), pour k = 0.
Par d'efinition,
Calcul de la borne de stabilit'e forte pour le cas de troncature
de la capacit'e d'attente de la file M/M/1 Page 53
En effet, on a :
Pour k=0 :
(Tv)(0) =
Pour 1 = k = N - 1 :
|
XN j=0
|
v(j)T0j =
|
XN j=0
|
âj × 0 = 0.
|
(Tv)(k) =
|
XN j=0
|
v(j)Pkj = á v(k - 1) + á v(k + 1)
|
= á âk-1 + á
âk+1 âk{á + áâ}
= ñ1(â) v(k),
Posons
ñ1 (â) á = â+
áâ. (4.4)
(Tv)(N) =
|
XN j=0
|
âjPNj = v(0)PN,0 + v(N)PN,N-1
|
= áâ0 +
âáâN = á +
âN{â}
N{ á + á â}
âN â
= ñ2(â)v(k),
Posons
ñ2(â) = á âN +
âá. (4.5)
On a,
á á á
ñ1(â) - ñ2(â) = â+
áâ -
âN -
á
â
= áâ - > 0
âN
Donc, 0 < ñ2(â) < ñ1(â).
Calcul de la borne de stabilit'e forte pour le cas de troncature
de la capacit'e d'attente de la file M/M/1 Page 54
Alors, il suffit de prendre ñ(â) =
ñ1(â) = max{ñ1(â), ñ2(â)} verifiant :
(Tv)(k) = ñ1(â) × v(k).
Il nous reste a` demontrer que,
ñ1(â) = á â + áâ <
1,
Pour tout â > 1,
2
ñ1(â) u ëâ 1 + 0
(ë + u)â (ë + u) (1 + e)â, (4.6)
Si on suppose que pâ < 1 ? (ë/u)â < 1.
Alors :
ñ(â) < 1,
En effet, on a :
1 + Qâ2
ñ(â) = (1 + Q)â.
Pour que ñ(â) < 1 , il faut que,
(1 + 0â2) < ((1 + p)â) 1 +
%â2 -- â -- âp < 1
(1 -- â) + (âp(â -- 1)) < 0
(âp(â -- 1)) < (â -- 1)
âp < 1.
D'o`u, ñ(â) < 1.
Condition d) Verifions que 11P11v < cc .
T = P -- h ? ó P = T + h ? ó
11P11v = 11T + h ? ó11v
= 11T 11v +
11h11v11ó11v.
Par definition, on a,
11T11v = sup
0<i<N
|
1
|
XN j=0
|
õ(j) | Tij |
|
õ(i)
|
= sup
0<i<N
|
1 õ(i)ñõ(i)
|
= ñ(â) < 1.
Calcul de la borne de stabilit'e forte pour le cas de troncature
de la capacit'e d'attente de la file M/M/1 Page 55
et
Ihlv = sup õ(i)|hi| = 1,
0<i<N
1ó1v =
|
XN j=0
|
õ(j)|ój| =
|
XN j=0
|
âjP0j
|
= õ(0)ó0 + õ(1)ó1 + 0 = á +
áâ
= á + áâ0 < 8,
avec : â0 = sup{â : ñ(â) < 1}
Donc, 1P1v < 8.
Ainsi, toutes les conditions sont vérifiées.
In'egalit'es de stabilit'e forte
Estimation de la d'eviation du noyau de transition
Pour pouvoir estimer numériquement l'écart entre
les distributions stationnaires des états des chaines de Markov
(fXn), (Xn), estimons au préalable la
norme de déviation du noyau de transition P de la chaine de Markov de
système M/M/1/8 par rapport au noyau de transition P associéa` la
chaine de Markov du système M/M/1/N (modèle tronqué).
L'estimation de 1 Pe - P1v est
énoncée par le lemme suivant
Lemme 4.1 : Si p < 1 , pâ < 1 et 1 < â <
â0. Alors,
1 Pe - P1v ? Ä(â) =
(1â+ N e) . (4.7)
Preuve
Par définition, on a :
e
MP - PMv = sup
0<k<N
|
1
|
XN j=0
|
v(j)|
|
Pkj- - Pkj|.
|
v(k)
|
Pour 0 = k < N - 1 :
Ä0(â) = sup
0<k<N-1
|
1
|
XN j=0
|
v(j)|
|
Pkj- - Pkj| = 0.
|
v(k)
|
Calcul de la borne de stabilit'e forte pour le cas de troncature
de la capacit'e d'attente de la file M/M/1 Page 56
Pour k = N :
1
Ä1(â) = v(N)
|
XN j=0
|
v(j)|
|
PNj - PNj|
|
âN {v(0)| 13N0 - PN0| - 1)| 13NN-1 -
PNN-1|}
1
= âN {á + 0}
á
=
âN .
On a : Ä1(â) > Ä0(â),
1 Pe - P1v =
max{Ä0(â),Ä1(â)},
Donc ;
IIP - PMv = Ä1(â) = á âN = (1
âN A + = (â). (4.8)
D'etermination de l'erreur due a` la troncature
L'estimation de la déviation des distributions
stationnaires est donn'ee par le théoreme suivant
Th'eor`eme 4.3 Soient -ð et ð les
distributions stationnaires des chaines de Markov décrivant
respectivement les états des systemes d'attente M/M/1 et M/M/1/N.
Supposons que les hypotheses du Lemme 4.1 soient vérifiées.
Alors, pour tout Q < 1, et sous la condition :
Ä(â) < 1 - ñ(â)
c(â) ,
nous avons l'estimation de la borne de la stabilitédans ce
cas est donn'ee par :
c0(â)c(â)Ä(â)
|if - ð||v = = Be1.
1 - ñ(â) - Ä(â)c(â)
o`u Ä(â) est défini en (4.8) et
ñ(â) en (4.7) et
â(1 - 0)(1 + â0
(4.9)
c0(â) = (â - 1)(1 - QN+1)(1
-
â(1 - 0(1 + â0
c(â) = 1 + (â - 1)(1 - %N+1)(1
- â%). (4.10)
1
Calcul de la borne de stabilit'e forte pour le cas de troncature
de la capacit'e d'attente de la file M/M/1 Page 57
Preuve
Afin de d'emontrer ce r'esultat, il suffit d'estimer
||ð||v, et ||1I||v , o`u 1I est la fonction
identiquement 'egale a` l'unit'e.
Supposons que âp < 1 , alors la norme de la distribution
stationnaire peut àetre estim'ee par la formule qu est donn'ee par :
(óõ)(ðh)(óõ)(ð0)
|v = (4.11)
1 - ñ(â) 1 - ñ(â).
o`u ð0 est celle obtenue pour la file d'attente M/M/1/N
tronqu'ee qui est donn'ee par :
(1 - p)
ð0 = (4.12)
(1 - QN+1).
Donc, on obtient :
|
á + áâ
||ð||v = 1 - (1+â2%
(1+%) )
|
(1 - p)
(1 - QN+1) (4.13)
|
=
|
â(1 - %)(1 + â%)
|
= c0(â). (4.14)
|
(â - 1)(1 - eN+1)(1 - â%)
|
Par d'efinition, on a :
||1||v = sup
0<k<N
âk = 1.
Donc, nous avons
c(â) = 1 + â(1 - e)(1 + âp)
(â - 1)(1 - eN+1)(1 -
â%).
Ainsi, pour tout Ä(â) <
1V), nous obtenons :
c
||if - ð||v =
0(â)c(â)Ä(â)
=
1 - ñ(â) ? Ä(â)c(â) Be1.
4.4 L'augmentation uniforme
Dans ce cas, on choisit la matrice stochastiques A de telle sorte
que tous ses 'el'ements sont 'egaux a` 1/N. Ainsi, la matrice P sera obtenue
sous la forme :
Calcul de la borne de stabilitéforte pour le cas de
troncature de la capacité
d'attente de la file M/M/1
|
|
|
|
|
|
|
Page 58
|
a
? a
0
P= 0
??????????
á N
|
a 0 a 0
á N
|
0 a 0 a
0
á N
|
0 0 a 0 ...
0
á N
|
0 0 a ...
a
á N
|
0
... .
0 a + á
N
|
.. a
á N
|
? ??????????
|
Explicitement P s''ecrire :
? ?
?
Pij =
ePij, si 0 = i = N - 1; 0 = j = N;
N ,
á si i = N; 0 = j = N;
a+ 1 N , sii=N; j=N-1.
4.4.1 Calcul de la borne de stabilitéforte :
Augmentation uniforme
õ-Stabilitéforte de la chaàýne de
Markov X
De même, en suivant la même d'emarches, que celle
du cas pr'ec'edent (augmentation de la premi`ere colonne), et pour le
même choix de la fonction test õ, et de la fonction h et de la
mesure ó, on constate que la v'erification des conditions a), b) et d)
est la même. Donc, a` ce niveau on mentionnera que les 'etapes
diff'erentes du cas pr'ec'edent. Ainsi :
· Montrons l'existence d'une certaine constante ñ
< 1 telle que :
Tõ(k) = ñõ(k), pour k = 0?
Par d'efinition,
Tõ(k) = XN õ(j)Tkj.
j=0
Pour k = 0 :
(Tv)(0) = XN v(j)T0j = XN âj × 0
= 0.
j=0 j=0
Calcul de la borne de stabilit'e forte pour le cas de troncature
de la capacit'e d'attente de la file M/M/1 Page 59
Pour 1 = k = N - 1 :
(Tv)(k) =
|
XN j=0
|
v(j)Pkj = á v(k - 1) + á v(k + 1)
|
= á âk-1 + á
âk+1 âk{á + áâ}
= ñ1(â) v(k),
Posons alors,
á
ñ1(â) = â+ áâ.
(4.15)
Pour k = N :
= v(0)PN,0 + v(1)PN,1 + v(2)PN,2 + v(3)PN,3 + ... + v(N -
1)PN,N-1 + v(N)PN,0, = â0 áN+
â1áN +
â2áN + ... +âN-1(á +
á N ) +âNáN,
âN á [1 1 1 á
N âN + âN-1 +...+â +1 +
â,
âNá
=
N
" â,;,'+11
â
= ñ2(â)v(N), De même, posons :
1 - (1)N+1
ñ2(â) = N 1 - 1+ âN+1.
{â
á
á â
1 á
ñ2(â) = 1 âá
[N(â - 1) (1 - âN+1 ) + âN+1.
(4.16)
Dans ce cas, nous constatons que : 0 < ñ2(â) <
ñ1(â).
Donc, il existe une constante ñ(â) =
ñ1(â) = max{ñ1(â),ñ2(â)} v'erifiant
(Tv)(k) = ñ1(â) × v(k).
Calcul de la borne de stabilit'e forte pour le cas de troncature
de la capacit'e d'attente de la file M/M/1 Page 60
Nous avons dejàdemontreque si, pâ < 1 et pour
tout â > 1, On a
ñ(â) = á â + áâ < 1.
(4.17)
In'egalit'es de stabilit'e forte
Estimation de la d'eviation de noyau de transition
Lemme 4.2 Si p < 1 et 0â < 1 et 1 < â <
â0, alors
11/3- = A(â) = NâN-1(â (1 - a +
-- 1) \ fiN 1). (4.18)
Preuve
Par definition, on a :
II
|
Pe - P1v = sup
0=k=N
|
1
v(k) Lv(j)| 13kj -
j=0
|
Pour 0 = k < N - 1 :
A0(â) = sup
0=k=N-1
Pour k = N :
|
1
|
XN j=0
|
v(j)|
|
-Pkj - Pkj| = 0.
|
v(k)
|
1
A1(â) = v(N)
|
XN j=0
|
1 -
v (j)|-13NjPNj|= âN (0)|PN0 - PN0| + v(N) +
|ePN1 - PN1|
|
+ v(N) + ... + |
|
ePNN-1 - PNN-1| + v(N) + |
|
ePNN - PNN|}
|
1{ á á á
= âNN N ... + N
1 - (1â)N+1
1 - 1
â
=
+
á
âN+1
~ ~
á 1 - 1
= .
NâN-1(â - 1) âN+1
On a : Ä1(â) > Ä0(â), donc;
k Pe - P kv = max{Ä0(â),
Ä1(â)}
( )
á
k Pe - P Mv ? Ä1(â) = 1 ? 1 =
Ä(â). (4.19)
NâN-1(â - 1) âN+1
.
Détermination de l'erreur due a` la troncature
L'estimation de la déviation des distributions
stationnaires est donnée par le théoreme suivant
Théorème 4.4 Supposons que les hypotheses de Lemme
4.2 soient vérifiées. Alors, pour tout < 1, et sous la
condition:
1 - ñ(â)
Ä(â) < c(â) ,
nous avons l'estimation de la borne de la
stabilitédonnée par:
||eð - ð||v =
c0(â)c(â)Ä(â)
1 - ñ(â) ? Ä(â)c(â) = Be2.
o`u Ä(â) est défini en (4.19) et
ñ(â) en (4.15) et
â(1 - %)(1 + â%)
c0(â) = (â - 1)(1 - %N+1)(1 -
â%), (4.20)
c(â) = 1 + â(1 - %)(1 + â%)
(â - 1)(1 - QN+1)(1 - âQ).
(4.21)
Preuve
Dans ce cas, la seule différence de la nouvelle borne
due a` la même perturbation réside dans la constante qui estime la
déviation entre les deux matrices de probabilités de
transition.
4.4.2 Calcul de la borne reelle
La définition suivante nous permet de déterminer
l'écart entre les distributions stationnaires des états des
chaàýnes de Markov.
Supposons que < 1. Alors
k eðk - ðkMõ = ÓN k=0âk| eðk -
ðk|,
O`u
eðk =
1 - %
1 - %N+1 ñk. (4.22)
avec = ë/u.
4.4.3 Bornes de deviation du nombre moyen de clients
La déviation du nombre moyen de clients pour les
différentes perturbations est donnée comme suit : Si on choisit
la fonction caractéristique f(s) = s (fonction identique), alors
l'estimation de l'erreur due a` la troncature de la capacitéd'attente du
système M/M/1 est définie par:
|ðf - eðf| = |eði -
ði|õ.kfkõ, (4.23)
o`u
kfkõ = ln(â) × â-[ 1
1 ln(6) ]. (4.24)
4.5 Conclusion
Dans ce chapitre, on a calculéla borne de la
méthode de stabilitéforte dans le cas de la troncature de
l'espace des états de la chaàýne de Markov
décrivant la file d'attente M/M/1. Cette borne de perturbation est
calculée de deux manières différentes : augmentation de la
première colonne et augmentation uniforme. Ainsi, en considérant
ces deux techniques, on peut comparer les deux bornes obtenues.
Dans le chapitre prochain, on considérera quelques
exemples numériques afin de comparer ces bornes de perturbation.
5
Comparaison des techniques de troncature
Dans le chapitre pr'ec'edent, nous nous sommes int'eress'es a`
l''etude th'eorique de la stabilit'e forte dans un système de files
d'attente M/M/1 o`u on a consid'er'e deux techniques de troncature. Nous avons
pu exhiber les conditions suffisantes de la stabilit'e forte li'ees au
système. Dans ce chapitre, nous nous int'eresserons a` l'aspect pratique
du problème. Pour ce faire, nous avons 'elabor'e un algorithme qui
permet d'estimer les deux bornes de perturbation obtenues dans le chapitre
pr'ec'edent, et de v'erifier les conditions ainsi que la d'etermination de
leurs domaine de stabilit'e optimal. Enfin, une comparaison entre les deux
bornes obtenues et la borne r'eelle sera effectu'ee.
5.1 Applications numériques
Dans cette section, nous pr'esentons quelques r'esultats
num'eriques qu'on obtient par application de l'algorithme de stabilit'e forte,
sous l'environnement Matlab et ce tout en consid'erant les deux techniques de
troncature de l'espace des 'etats de la chaàýne de Markov
d'ecrivant la file d'attente M/M/1.
5.1.1 Environnement MATLAB
Notre choix s'est port'e sur l'utilisation de l'environnement
MATLAB qui nous permet, gràace a` la richesse de sa bibliothèque
math'ematique, d'optimiser les instructions dans les programmes r'ealis'es dans
le cadre de ce travail. En effet, MATLAB est un système interactif et
convivial de calcul num'erique et de visualisation graphique destin'e aux
ing'enieurs et
scientifiques qui possède un langage de programmation a`
la fois puissant et simple. De plus, il intègre des fonctions d'analyse
numérique, de calcul matriciel, etc.
5.1.2 Approche algorithmique
Nous avons élaboréun algorithme qui permet
d'estimer les deux bornes de perturbation présentées
précédemment, et de vérifier les conditions, ainsi que la
détermination de leur domaine de stabilitéoptimal.
5.1.3 Algorithme de StabilitéForte
'ETAPE 1
- Introduire le nombre de troncature N;
- Introduire le taux d'arrivées A;
- Introduire le taux de service u ;
- Introduire le pas h.
'ETAPE 2
- Déterminer 30, en construisant un intervalle I1 = [1 +
h, 30], o`u 30 est le réel 3 > 1 vérifiant la condition p(3)
< 1.
- Déterminer un sous intervalle I2 = [3min, 3max] ? I1,
pour lequel Ä < 1-ñ(â)
c(â) soit vérifiée
'ETAPE 3
- Déterminer une valeur optimale de 3 noté3opt ? I2
qui minimise la valeur de l'erreur.
'ETAPE 4 - Fin.
5.1.4 Organigramme de stabilitéforte
Les différentes étapes de notre algorithme peuvent
être présentées dans un organigramme suivant :
FIGURE 5.1 - Organigramme de l'algorithme
Comparaison des résultats et discussion
* Afin de comparer les résultats obtenus des deux
bornes de stabilitéforte par les deux techniques de troncature, nous
implémentons l'algorithme pour les différentes valeurs du niveau
de la troncature pour laquelle une valeur optimale âopt sera
calculée.
* La même valeur de âopt sera
considérée afin de comparer ces deux techniques de troncature et
d'évaluer la borne réelle.
* Nous avons implémenténotre algorithme pour une
valeur de la charge de système = 0.25 et l'exécution de cet
algorithme avec un pas h = 0.01 nous permet d'obtenir les résultats
représentés dans des tableaux suivants :
5.1.5 Variation de l'erreur en fonction de %
D'après les résultats obtenus, nous pouvons
constater le domaine de stabilitéliéau différentes valeurs
de , la borne âmax atteint son maximum ensuite elle diminue
progressivement lorsque le paramètre prend de petites valeurs comme le
montre le tableau suivant (par exemple pour N = 15).
Q
|
âmin
|
âmax
|
âopt
|
SSBP
|
SSBU
|
0.1
|
1.0100
|
9.9900
|
8.3273
|
1.4477e - 012
|
1.0968e - 013
|
0.25
|
1.0100
|
3.9900
|
3.3602
|
4.6188e - 006
|
4.3839e - 007
|
0.4
|
1.0100
|
2.4900
|
2.1268
|
0.0130
|
0.0016
|
0.5
|
1.0100
|
1.9800
|
1.7242
|
0.6987
|
0.1070
|
0.6
|
-
|
-
|
-
|
-
|
-
|
TABLE 5.1 - Tableau des variations de l'erreur en fonction de
Q
C'est pour cela que notre choix se portera sur la valeur Q =
0.25 et N > 4 pour la suite de l'application, et le graphe suivant illustre
qu'àl'augmentation de Q, l'erreur augmente et elle tend vers l'infinie
a` partir de Q > 0.6.
FIGURE 5.2 - Graphe des erreurs Be1 et Be2 : en fonction de
Q
5.1.6 Variation de l'erreur en fonction de N
Approximation de la d'eviation des distributions stationnaires et
l'approximation du nombre moyen de clients dans le système
1er Cas : Augmentation de la premi`ere colonne :
L'implémentation de l'algorithme dans ce cas permet
d'obtenir les résultats pour la technique d'augmentation de la premi`ere
colonne représentés dans le tableau suivant :
% = 0.25
|
\
|
||eð -ð||v
|
|eðf - ðf|
|
N
|
âopt
|
SSBP
|
Re'el
|
SSBP
|
Re'el
|
5
|
2.7134
|
0.3974
|
0.2711
|
0.1465
|
0.0999
|
6
|
2.8189
|
0.1381
|
0.1994
|
0.0490
|
0.0708
|
7
|
2.9144
|
0.0475
|
0.1669
|
0.0163
|
0.0574
|
8
|
2.9983
|
0.0160
|
0.1472
|
0.0054
|
0.0493
|
9
|
3.0716
|
0.0053
|
0.1335
|
0.0017
|
0.0438
|
10
|
3.1356
|
0.0017
|
0.1209
|
0.0005
|
0.0389
|
11
|
3.1918
|
5.3593e-004
|
0.1112
|
0.0002
|
0.0352
|
12
|
3.2415
|
1.6658e-004
|
0.0988
|
0.0001
|
0.0309
|
13
|
3.2855
|
5.1037e-005
|
0.0901
|
0.0000
|
0.0279
|
14
|
3.3249
|
1.5440e-005
|
0.0755
|
0.0000
|
0.0231
|
15
|
3.3602
|
4.6188e-006
|
0.0672
|
0.0000
|
0.0204
|
16
|
3.3921
|
1.3680e-006
|
0.0510
|
0.0000
|
0.0154
|
17
|
3.4210
|
4.0155e-007
|
0.0437
|
0.0000
|
0.0131
|
18
|
3.4473
|
1.1692e-007
|
0.0284
|
0.0000
|
0.0084
|
19
|
3.4714
|
3.3796e-008
|
0.0233
|
0.0000
|
0.0069
|
20
|
3.4935
|
9.7044e-009
|
0.0120
|
0.0000
|
0.0035
|
21
|
3.5138
|
2.7697e-009
|
0.0094
|
0.0000
|
0.0028
|
22
|
3.5326
|
7.8610e-010
|
0.0034
|
0.0000
|
0.0010
|
23
|
3.5500
|
2.2197e-010
|
0.0025
|
0.0000
|
0.0007
|
24
|
3.5661
|
6.2384e-011
|
4.7730e-004
|
0.0000
|
0.0001
|
25
|
3.5812
|
1.7456e-011
|
3.3040e-004
|
0.0000
|
0.0001
|
26
|
3.5952
|
4.8648e-012
|
0
|
0.0000
|
0
|
27
|
3.6084
|
1.3506e-012
|
0
|
0.0000
|
0
|
28
|
3.6207
|
3.7366e-013
|
0
|
0.0000
|
0
|
29
|
3.6323
|
1.0303e-013
|
0
|
0.0000
|
0
|
30
|
3.6431
|
2.8324e-014
|
0
|
0.0000
|
0
|
TABLE 5.2 - Tableau des erreurs Be1 : l'augmentation de la
premi`ere colonne
Même remarque que celle de la variation de , mais dans
ce cas c'est le contraire. Le fait que l'augmentation de la valeur du N induit
une diminution de l'erreur commise comme le montre le tableau ci-dessus.
Ceci est illustr'e par le graphe suivant :
FIGURE 5.3 - Graphe des erreurs Be1 : avec l'augmentation de la
premi`ere colonne
Pour l'approximation du nombre moyen de clients dans le
système
On peut s'int'eresser a` des caract'eristiques pr'ecises, dans
le but d'avoir une id'ee sur la pr'ecision des r'esultats. Dans cette partie,
nous nous int'eressons au nombre moyen de clients dans le syst`eme. Les
r'esultats obtenus sont ainsi repr'esent'es dans le tableau pr'ec`edent. Et
ceci peut être illustr'e par le graphe suivant :
FIGURE 5.4 - Graphe de variation du nombre moyen de clients en
fonction de N
On voit que le nombre moyen de clients dans le système
original (tronqué) est inférieur a` celui du système
étudiéM/M/1/N (idéal) pour N < 9. De plus,
l'augmentation du N induit une diminution de l'erreur sur le nombre moyen de
clients a` partir de N > 12 et pour âopt ? [3.2855, 3.6431] le nombre
de clients dans le système est nul.
2er Cas Augmentation uniforme :
Même comportement que le premier cas, mais il y a une
amélioration de la valeur de l'erreur obtenue par la technique
d'augmentation uniforme et les résultats sont donnés dans le
tableau suivant :
% = 0.25
|
\
|
||eð -ð||v
|
|eðf - ðf|
|
N
|
âopt
|
SSBU
|
Re'el
|
SSBU
|
Re'el
|
5
|
2.7134
|
0.1203
|
0.2711
|
0.0443
|
0.0999
|
6
|
2.8189
|
0.0351
|
0.1994
|
0.0125
|
0.0708
|
7
|
2.9144
|
0.0103
|
0.1669
|
0.0035
|
0.0574
|
8
|
2.9983
|
0.0030
|
0.1472
|
0.0010
|
0.0493
|
9
|
3.0716
|
8.6730e-004
|
0.0003
|
0.0003
|
0.0438
|
10
|
3.1356
|
2.4898e-004
|
0.1209
|
0.0001
|
0.0389
|
11
|
3.1918
|
7.0947e-005
|
0.1112
|
0.0000
|
0.0352
|
12
|
3.2415
|
2.0075e-005
|
0.0988
|
0.0000
|
0.0309
|
13
|
3.2855
|
5.6437e-006
|
0.0901
|
0.0000
|
0.0279
|
14
|
3.3249
|
1.5772e-006
|
0.0755
|
0.0000
|
0.0231
|
15
|
3.3602
|
4.3839e-007
|
0.0672
|
0.0000
|
0.0204
|
16
|
3.3921
|
1.2124e-007
|
0.0510
|
0.0000
|
0.0154
|
17
|
3.4210
|
3.3377e-008
|
0.0437
|
0.0000
|
0.0131
|
18
|
3.4473
|
9.1497e-009
|
0.0284
|
0.0000
|
0.0084
|
19
|
3.4714
|
2.4985e-009
|
0.0233
|
0.0000
|
0.0069
|
20
|
3.4935
|
6.7981e-010
|
0.0120
|
0.0000
|
0.0035
|
21
|
3.5138
|
1.8436e-010
|
0.0094
|
0.0000
|
0.0028
|
22
|
3.5326
|
4.9840e-011
|
0.0034
|
0.0000
|
0.0010
|
23
|
3.5500
|
1.3436e-011
|
0.0025
|
0.0000
|
0.0007
|
24
|
3.5661
|
3.6123e-012
|
4.7730e-004
|
0.0000
|
0.0001
|
25
|
3.5812
|
9.6876e-013
|
4.7730e-004
|
0.0000
|
0.0001
|
26
|
3.5952
|
2.5920e-013
|
0
|
0.0000
|
0
|
27
|
3.6084
|
6.9201e-014
|
0
|
0.0000
|
0
|
28
|
3.6207
|
1.8437e-014
|
0
|
0.0000
|
0
|
29
|
3.6323
|
4.9026e-015
|
0
|
0.0000
|
0
|
30
|
3.6431
|
1.3013e-015
|
0
|
0.0000
|
0
|
TABLE 5.3 - Tableau des erreurs Be2 : Augmentation uniforme
Ceci est illustrepar le graphe suivant :
FIGURE 5.5 - Graphe des erreurs Be2 : l'augmentation
uniforme
Pour l'approximation de l'erreur sur le nombre moyen de clients
dans le système
On voit bien que l'erreur sur le nombre moyen de client dans
le système ideal est inferieur a` celui du nombre moyen de clients dans
le système reel pour N < 10, et a` partir de N > 10, le nombre est
nul.
FIGURE 5.6 - Graphe de variation de l'erreur sur le nombre moyen
de clients en fonction de N
Interprétation des résultats
L'application numérique de la technique de troncature
sur la capacitéde la file d'attente, nous a permis d'observer le
comportement de l'erreur relative aux deux bornes obtenues par les deux
techniques de troncature. Il est alors aiséde constater d'apres ces deux
approches que la borne obtenue par l'augmentation uniforme est meilleure par
rapport a` celle obtenue par l'augmentation de la premiere colonne.
FIGURE 5.7 - Graphe comparatif des erreurs Be1 et Be2
D'après ce graphe, nous pouvons constater que l'erreur
obtenue par l'augmentation uniforme est plus petite que celle de l'augmentation
de la première colonne, et celle de l'erreur réelle, et a` partir
de N = 26 toutes les erreurs sont nulles, ce qui signifie que les deux
modèles (originale et tronqué) coincident.
Pour l'approximation de l'erreur sur le nombre moyen de clients
dans le système
FIGURE 5.8 - Graphe comparatif de variation de l'erreur sur le
nombre moyen de clients en fonction de N
3
|
SSBP
|
SSBU
|
2
|
0.9344
|
0.3268
|
2.3
|
0.5205
|
0.1712
|
2.7
|
0.3975
|
0.1206
|
2.7134
|
0.3974
|
0.1203
|
2.769
|
0.3994
|
0.1197
|
2.9
|
0.4209
|
0.1232
|
TABLE 5.4 - Tableau des variations de l'erreur en fonction de
3
5.1.7 Variation de l'erreur en fonction 3
Pour N = 5 et = 0.25, on a
L'erreur sur la distribution stationnaire par augmentation
uniforme SSBU qui est obtenue pour 3opt = 2.7690 est SSBU = 0.1197, et l'erreur
obtenue pour 3opt = 2.7134 par augmentation de la première colonne est
SSBP = 0.3974.
Donc, d'après ce tableau, on peut bien comparer les
résultats obtenus par les deux techniques par la variation de 3. Ainsi,
l'erreur obtenue par la technique d'augmentation uniforme est plus petite que
celle obtenue par l'augmentation de la première colonne. Alors ,la
croissance de 3 entraàýne une diminution de l'erreur.
5.2 Conclusion
Après l'étude théorique de
l'applicabilitéde la méthode de stabilitéforte dans le
système M/M/1/N, dans ce chapitre, nous avons pu réaliser une
application numérique dans le cas de la troncature de la
capacitéde la file d'attente de ce système, tout en exploitant
les résultats présentés dans le quatrième
chapitre.
Le but de cette troncature est d'analyser la qualitédes
bornes de stabilitéforte via les deux techniques, et cela ce
réalise quand la charge de système < 1. On remarque dans tous
les cas que la perturbation effectuée sur les paramètres
introduits, les erreurs obtenues par la technique d'augmentation uniforme est
meilleure que celle d'augmentation de la première colonne et ces erreurs
obtenues par les deux techniques tendent vers zero quand N tend vers
l'infini.
On remarque ainsi, dans le cas o`u la charge de système
est proche de 1, que la condition d'optimalitén'est pas
vérifiée et on conclut que le système devient instable
d'o`u l'inutilitéde l'application de la méthode
stabilitéforte a` ce niveau.
Conclusion générale
L
'objectif de ce travail est de montrer l'utilitédes
techniques de la troncature dans la théorie des files d'attente et
d'élargir le champs d'applicabilitéde ces techniques au cas de
certains systèmes de files d'attente.
L'étude des phénomènes réels est
de plus en plus complexe. Plusieurs chercheurs ont développédes
méthodes d'approximation pour l'analyse des systèmes complexes.
Parmi les principales approches, on rencontre celle de la méthode de
stabilitéforte, que nous avons appliquédans notre cas au
problème d'estimation de l'erreur de la troncature de l'espace
d'états de la chaàýne de Markov décrivant
l'état de la file d'attente M/M/1.
Dans ce travail, nous nous sommes intéressés a`
la comparaison des techniques de troncature, tout en utilisant la
méthode de stabilitéforte. Nous nous sommes servis d'une approche
algorithmique et numérique afin de comparer ces techniques de troncature
sur la cas de la file d'attente M/M/1. Dans un premier temps, nous avons
synthétiséles différents résultats obtenus sur les
chaàýnes de Markov tronqués. Puis, nous nous somme tardes
sur la présentation de quelques techniques de troncature, les plus
utilisées en littérature, ainsi que quelques concepts de base de
la méthode de stabilitéforte. En deuxième temps, nous nous
sommes intéressés a` l'applicabilitéde la méthode
de stabilitéforte dans le cas o`u nous avons considéréles
deux techniques de la troncature : augmentation de la premiere colonne et
augmentation uniforme. Enfin, nous avons implémentéun algorithme
afin d'évaluer numériquement les estimations des erreurs induites
par ces deux techniques de tronature, que nous avons comparéa` l'erreur
réelle.
Ce travail ouvre plusieurs perspectives de recherche importantes,
entre autres :
A Elargir le cas d'applicabilitéde ces techniques de
troncature a` d'autres cas de modèles stochastiques, tels que les
réseaux de files d'attente;
A Considération d'autres bornes de perturbation pour le
cas des problèmes de la troncature, telle que la méthode de
développement en séries de Taylor;
A Envisager des études comparatives appropriées
a` ces bornes de perturturbation, tout en considérant d'autres
techniques de la troncature telles que : la renormalisation, augmentation de le
dernière colonne, . . .
A Comparaison des deux approches, stabilitéforte et celle
de Van Dijk, sur le cas des réseaux de files d'attente.
Bibliographie
[1] Abbas, K., Heidergott. B., and A·ýssani, D.
Series expansion and strong stabilite : a comparative analysis. Technical
Report, Lamos Ed., 2009.
[2] Abbas, K., A·ýssani,D. and Aproximation in an
M/G/1 queueing system with breakdowns and repairs. British, EWIC Review
Ed.,Computer Society, 139-147, 2007.
[3] A·ýssani, D., Kartashov. N. Ergodicity and
stability of Markov chain with respect to opertor topology in the space of
transition kernels, 1983.
[4] Benaim, M. and El Karoui, N. Promenade Aléatoire
Chaàýnes de Markov et Simulations; Martingales et
Stratégies. Ecole Polytechnique.Ed, Palaiseau, 2007.
[5] Borovkov, A. Asymptotic Methode in Queuing theory, Springer
Verlag, New York, 1976.
[6] Bouallouche, L. and A·ýssani, D. Estimation
of the storing stability in an M/M/1 queueing systems. Proceedings of The XX
International Seminar on Stability Problems for Stochastics Models,
Dublin(Poland), 1999.
[7] Bouallouche, L. and A·ýssani, D. Measurment
and performance of the storing stability method. Theory of Prob and Math.stat.,
17, 1-9, 2005.
[8] Boxma, O., and Konheim, A. Approximate analysis of
exponential queueing systems with blocking. Acta Inform, 15, 19-66, 1981.
bibitemcoa Cao, X. The maclaurin series for performance
functions of Markov chains. Advanced in Applied Probability, 30, 676-692,
1998.
[9] Chabriac, H. 'Eléments de Théorie des Files
D'attente. Supaero, Ed., Janvier 2008.
[10] Franccois, J.and Benjamin, D. Modèles
Aléatoires Mathématiques et Applications, Springer,Ed., France
2006.
[11] Gibson, D.and Seneta, E. Augmented truncations of infinite
stochastic matrices. Journal of Applied Probability , 24, 600-608, 1987.
[12] Glynn, P. and Meyn, S. Lyapounov,A. Bound for Solutions of
Poisson's equation, Ann.probab.
[13] Gross, D.and Harris, C. Fundamentals of Queueng Theory.
Wiley, New york 1985.
[14] Hamoudi, Z. Developpement en série et
stabilitéforte du système M/M/1/N. Mémoire de Magister,
UniversitéA.Mira, Bejaia, 2008.
[15] Hêche, J. Résumésur les les d'attente
et les réseaux. Recherche Opérationnelle 2004.
[16] Hàeche, J.F., Liebling,T.M. and de Werra,D.,
Recherche Opérationnelle Pour Ingénieurs Il, Presses
Polytechniques Et Universitaires Romandes, 2003.
[17] Heidergott,B., Hordjik, A., and Leder, N. Taylor series
expansions for stationary Markov chains. Advances in Applied Probability, 29,
1046-1070, 2003.
[18] Heidergott,B., Hordijk,A. and Leder,N.. Series expansions
for continuous-time Markov chains. Operations Research.
[19] Heidergott,B., Hordjik,A., and Uitert,M.V. serties
expansions for finite-state markov chaàýnes. Vrije Universiteit
Departement of Econometrics. Amsterdam 2006.
[20] Heyman, D. Approximating the stationary distribution of an
infinite stochastic matrix. J. Appl. Probab., 28, 96-103, 1991.
[21] Heyman, D., and Whit, W. Limits of queues as the waiting
room grows Questa 5, 381-392, 1989.
[22] Hillier, F., and Boling, R. Finite queues in series with
exponential or Erlang service times a numerical approach. 15, 286-303, Oper.Res
1967.
[23] Hordijk, A., and Spieksma, F. M. A New Formula for the
Deviation Matrix ,Chapter 36 in Probability, Statistics and Optimization.
Wiley, 1994.
[24] Hordjk, A., and Van Dijk, N. Networks of Queues With
Blocking In Peformance. North-Holland, Amsterdam, 1981.
[25] Ispen, C. and Meyer. Uniform Stability of Markov chains.
SIAM J.Matrix anal. Appl 3, 15, 1061-1074, 1994.
[26] Jacod, J. Chaàýnes de Markov, Processus de
Poisson et Applications. DEA de probabilités et applications,
2003-2004.
[27] Kalashnikov, V., and Rachev, S. Mathematical Methods For
Construction of Queueing Models. Wadsworth and Brooks Cole, 1990.
[28] Kalashnikov, V. and Tsitsiashvili, G. On the stability
of queueing systeme with respect to disturbances of their distribution
functions. Queuing Theory and Reliability 211- 217, 1971.
[29] Kartashov, N. V. Criteria of uniform ergodicity and storing
stability of markov chain with a common phase spase. Theor.Prob. and Math.
Statist, 30 , 71-89, 1984 .
[30] Kartashov, N. V. Strongly stable Markov chains. VSP,
Utrecht; Tbimc Scientificn Publisher 1986.
[31] Kartashov, N. V. Strongly stable Markov Chains.
Stability problems for stochastic models. VNISS, Vsesayouzni Seminar on
Stability Problems for Stochastic Models, Journal of Soviet Mat, 1986.
[32] Latouche,G. and Neuts,M.F. Effici·ent algorithmic
solutions to exponential tandem queues with blocking, SIAM J. Alg. Disc. Meth,
1, 93105, 1980.
[33] Meyn, S., and Tweedie, R. Markov Chains and Stochastic
Stability. Springer, Berlin, 1993.
[34] Nummelin, E. General Irreducible Markov Chains and
Non-negative Operators. Univ. Press, Cambridge, Cambridge, 1983.
[35] Pardoux,'E., Processus de Markov et applications
algorithmes, Réseaux, Génome et Finance, 2006.
[36] Rachev, S. The problem of stability queuing theory. Queuing
Systems, 4, 287-318, 1989.
[37] Ruegg, A. Processus Stochastique. Presse Polytechnique
Rromandes, Suisse, 1988.
[38] Saneta, E. Finite approximations to infinite non-negative
matrices. Proc.Cambridge, 15, 983-992, 1967.
[39] Seneta, E. Nonnegative Matrices and Markov Chains.
Springer,Ed., 1881.
[40] Seneta, E. The principle of truncations in applied
probability. Commentationes Mathematicae Universitatis Carolinae 1968.
[41] Seneta, E. Computing the stationary distributon for
infinite Markov chains. Linear Algebra Appl, 34 , 259-267, 1980.
[42] Simonot, F. Sur l'approximation de la distribution
stationnaire d'une chaàýne de Markov stochastiquement monotone.
Universit'e Henri Poincar'e 1993.
[43] Stoyan, D. Ein stetigkeitssatz für einlinige
wartemodelle der bedienungstheorie. Maths. Operation Forsch. Statist, 3,
103-111 , 1977.
[44] Tijms, H. Stochastic Modelling and Analysis A Computational
Approach. Wiley, New York, 1986.
[45] Trân, M. Insensibilitédans les
Réseaux de Files d'Attente et Applications au Partage de Ressources
Informatiques. Doctorat, Ecole Nationale Sup'erieure des T'el'ecommunications,
rued'Ulm , 29 Octobre 2007.
[46] Tweedie, R. Truncation approximations of invariant measures
for Markov chains. Colorado State University.
[47] Valois, F. Modélisation et evaluation de
performances de réseaux chapitre 5 : réseaux de files d'attente
(la forme produit).
[48] Van Dijk, N. Truncation of Markov chains with applications
to queueing. Operation Research, 39, 1018-1026, 1991.
[49] Willig, A. A Short Introduction to Queueing Theory. Berlin,
1999.
[50] Wolf, D. Approximation of the invariant probability
distribution of an infinite stochastic matrix. Adv.Appl.Probab, 12, 710-726,
1980.
[51] Zhao,Y.Q. and Liu,D. The censored Markov chain and the dest
augmentation. Journal of Applied Probability,33, 623-629, 1996.
[52] Zolotarev, V. On the continuity of stochastic sequence
generated by reccurent processes. Theory of Probability and its Applications ,
20 , 819-832, 1975.
|