2.6 Classe de modèles ARMA (p, q)
On a vu que tout processus, de second ordre purement
déterminable, stationnaire peut être représenté,
d'après le fameux théorème de Wold, par l'une de deux
formes équivalentes à savoir, la forme d'un modèle
autorégressif d'ordre éventuellement infini et la forme d'un
modèle moyenne mobile d'ordre éventuellement infini,
données respectivement, par:
Et = Xt + P1 Xt_1 + P2 Xt_2 + P3 Xt_3 + ..., t E Z, Modèle
autorégresif d'ordre infini
et
Xt = Et + 01 Et_1 + 02 Et_2 + 03 Et_3 + ..., t E Z,
Modèle moyenne mobile d'ordre infini
Chacune de ces deux représentations nécessite
éventuellement l'utilisation d'un nombre infini de paramètres qui
sont, en pratique, inconnus et qu'on a à estimer, sur la base d'une
série de taille finie; ce qui n'est pas possible en pratique. Par
ailleurs, ces deux représentations s'expriment à travers des
séries convergentes dont les termes sont necessairement convergent vers
zéro. Il est donc possible qu'à partir d'un certain rang
suffisamment grand,on puisse tronquer ces séries infinies en
négligeant les restes. Ainsi deux représentations
particulières et intéressantes de ces deux formes peuvent
être évoquées, la première représentation
particulière correspond au P p =6 0 et P = 0, Vi ~ p + 1,
dans la première représentation, ce qui
donne le modèle suivant dit modèle
autorégressif d'ordre p, noté AR (p) :
et la deuxième représentation
particulière correspond à 0q =6 0 et 0i = 0, Vj > q
+ 1, dans la seconde représentation, ce qui donne le modèle
suivant dit modèle moyenne mobile d'ordre q, noté MA (q) :
Xt = Et + 01 Et-1 + 02 Et-2 + 03 Et-3 + .. . + 0 q Et-q, t E Z,
(2.6.2)
Il est clair que si on exprime un processus stochastique
satisfaisant le modèle (2.6.1) sous la forme de Wold, on obtient une
représentation moyenne mobile d'ordre infini. De même si on
exprime un processus stochastique satisfaisant le modèle (2.6.2) sous la
forme de convolution, on obtient une représentation
autorégressive d'ordre infini.
Dans le cas où le modèle autorégressif
(réciproquement modèle moyenne mobile) est d'ordre infini, on
peut, pour satisfaire au principe de parcimonie (ce principe consiste à
trouver le modèle d'ordre le plus petit possible), utiliser un
modèle de série chronologique qui contient en même temps la
partie autorégressif d'ordre p et la partie moyenne mobile d'ordre q, ce
qui donne le modèle dit autorégressif moyenne mobile d'ordre (p,
q) donné par :
Xt -- (1 Xt-1 -- '2 Xt-2 -- ... -- çp Xt-p = Et
-- 01 Et-1 -- 02 Et-2 -- ... -- 0q Et-q, (2.6.3)
Le reste de ce chapitre est consacré à
l'étude des propriétés et les caractéristiques
essentielles des modèles autorégressifs purs d'ordre p (AR (p)),
des modèles moyenne mobile purs d'ordre q (MA (q)) et les modèles
autorégressifs moyenne mobile d'ordre (p, q) (ARMA (p, q)).
2.6.1 Processus autoregréssif
La définition d'un processus autoregréssif d'ordre
p, noté AR (p) est la suivante : Définition 2.6.1 :
Un processus du second ordre {Xt, t E Z} est dit admettre une
représentation AR d'ordre p, s'il est solution de l'équation aux
différences stochastique suivante : Xt -- ~1Xt-1 -- 02Xt-2 -- ·
· · -- OpXt-p = Et (2.6.4)
où Et est un processus bruit blanc de moyenne nulle et de
variance u2
En introduisant l'opérateur de retard B dans
l'équation (2.6.4) peut se réécrire comme suit : (1) (B)
Xt = Et,
où (1)(B) est le polynôme de retard, de degré
p, donné par :
CHAPITRE 2. PROCESSUS STOCHASTIQUES ET SÉRIES
CHRONOLOGIQUES 40 ~ (B) = 1 ~ Pp çbjBj avec
çbj 2 , et çb p =6 0,
j=1
Notion de causalité
Définition 2.6.2
Un modèle de série chronologique (linéaire
ou non linéaire) de la forme : Xt = g (Xt_1, Xt_2, ... Xt_p; t, et_1,
et_2, ... Et_q) ,
où Et est un bruit blanc, est dit causal si, et
seulement si, on peut exprimer le processus stochastique Xt sous forme d'une
combinaison linéaire (finie ou infinie) convergente, en moyenne
quadratique, du présent et du passé du bruit blanc €t.
Remarques
? 1. La causalité n'est pas une
propriété du processus {Xt} à lui seul mais plutôt
de la relation avec {€t}. Ainsi si le modèle est causal, le
processus {Xt}, puisque s'exprimant en fonction de bruit blanc stationnaire,
est stationnaire.
? 2. On remarque, d'après la définition du concept
de causalité, qu'un modèle moyenne mobile d'ordre fini est
toujours causal.
Condition nécessaire et suffisante de causalité
d'un AR (p)
Le théorème suivant établi une condition
nécessaire et suffisante pour q'un modèle autorégressif
d'ordre p, soit causal.
Théorème 2.6.1
Une condition nécessaire et suffisante pour que le
modèle autorégressif Xt - ~1Xt_1 - ~2Xt_2 -
~ ~ ~ - ÇbpXt_p = "t,
soient causal est que les racines de l'équation
caractéristique
zp - Çb1z p_1 - Çb2z p_2 - ~
·. - çb p = 0,
soient en valeurs absolues strictement supérieurs à
1, i. e., z > 1.
Fonction d'autocorrélation d'un AR
Soit {Xt} un processus stochastique autoregressif d'ordre p
vérifiant l'équation aux différences stochastiques
Xt = q1Xt_1 + q2Xt_2 + ... + çbpXt_ p + Et, Vt 2 Z,
(2.6.5)
où {€t} est bruit blanc de moyenne nule et de
variance finie cr2 (non corréléXt_j, j ~ 1) :
Equations de Yule-Walker
Les équations de Yule-Walker sont des relations
(équations) qui lient les paramètres d'un modèle AR aux
autocovariances du processus {Xt} figurant dans le modèle. Elles peuvent
être exploitées, par exemple, pour l'estimation des
paramètres lorsque des estimations des autocovariances sont disponibles
et vice-versa.
Multiplions l'équation (2.6.5) par Xt-h et
prenons l'espérance des deux côtés, on obtient :
E(XtXt-h) = 01E(Xt-1Xt-h) + 02E(Xt-2Xt-h) + ... + 0pE(Xt-pXt-h) +
E(EtXt-h),
a) Pour h = 0, on trouve :
-0 = 01-Y1 + 02~2 +
03~3 + ... + 0p~p + a2
b) pour h > 0, on obtient le système
d'équations :
-Yh = 01-h-1 + 02'h-2 + 03'h-3 + . .. + 0p~h-p, 1 <
h < p
en divisant les deux cotés de l'égalité
précédente par -y0 on obtient :
Ph = 01Ph-1+ 02Ph-2+ 03Ph-3+ ... + 0pPh-p, 1 < h < p.
(2.6.6)
Si nous réitérons l'équation (2.6.6) pour h
= 1, p, nous obtenons le système d'équations suivant dit
système de Yule-Walker :
{
|
P1 = 01+ 02P1+ ... + 0pPp-1,
P2 = 01P1+ 02 + ... + 0pPp-2,
. . .
Pp = 01P1 + 02P2 + ... + 0p,
|
(2.6.7)
|
Ce système peut s'écrire sous la forme matricielle
suivante :
[
11
|
01
02 03 ...
0p
|
]
|
=
|
[
|
P1
P2 P3 ...
Pp
|
]
|
1 P1 P2 · · · Pp-1
P1 1 P1 · · · Pp-2
P1 P2 1 · · · Pp-3
... ... ...
. .
. .
. .
Pp-1 Pp-2 Pp-3 · · · 1
1 P1 P2 · · · Pp-1
P1 1 P1 · · · Pp-2
P2 P1 1 · · · Pp-3
. . .
. . .
Pp-1 Pp-2 Pp-3 · · · 1
1 -1 0
C B
C B
C B
C B
C B
A @
... ... ...
0 B B B B B @
=
0 B B B B B @
01
02
03
1 AC C C C C
...
0p
P1
P2
P3
...
1 AC C C C C
Pp
pourvu que la matrice du système soit inversible.
Estimation de Yule-Walker
Dans la pratique les autocorrélations, P1, P2, ,
Pp, du processus générateur de la série
chro- nologique sous-jacente, sont inconnues. Néanmoins, sur la base
d'une série x1, ..., xT, en les remplaçant, dans le
système d'équations de Yule-walker par leurs estimations
empiriques bP1,
bP2, -,
|
bPp, et en résolvant les équations
obtenues, on obtient les estimations,
|
b01,
|
b02, :::,
|
b0p,
|
dites estimations de Yule-Walker des paramètres inconnus,
01, 02,:::, 0p
0 B B B B B B @
=
0 B B B B B @
01
02
03
1 AC C C C C C
...
b0p
1 bP1bP2 · · · Pp-1'./Ô1 1
bP1 · · · Pp-2
P2 bP1 1 · · · Pp-3
...
...
Pp-1 Pp-2
...
. . .
. . .
bPp-3 · · · 1
1 -1 0
bP1
P2
.
P3
1 AC C C C C
... Pp
C B
C B
C B
C B
C B
A @
pourvu que la matrice du système précédent
soit inversible.
La résolution des équations de Yule-walker peut
être accomplie récursivement, de façon
élégante et rapide, en appliquant l'algorithme récursif de
Durbin-Levinson qui est présenté dans la section suivante.
Fonction d'autocorrélation partielle
Soit {Xt; t E Z} un processus stochastique, du second ordre,
faiblement stationnaire, donné par l'équation aux
différences stochastique suivante :
Xt =(k,1Xt-1 + ::: + (Pk,kXt-k + E?), t E
Z
où nee)o est un processus bruit blanc, de
variance constante c2k et cp k,i, i = 1, 2, ..., k, est
le
i--ième paramètre du modèle
autorégressif d'ordre k. En considérant une suite de
modèles autoregressifs {AR (k) , k = 1, 2, 3, _:}, d'ordre k,
donnés par l'équation aux différences
précédente, on peut établir la suite de système de
Yule-Walker lui correspondant donnée par :
Pj = (Pk1Pj-1 +(Pk2Pj-2 + ... +(Pkk, j= 1, k
où çbkj est le j ième coefficient
du processus autoregréssif d'ordre k. Ce système
d'équations, en (Pk1, (Pk2, ..., (Pkk, peut s'écrire
sous la forme matricielle suivante :
0 B B B B B @
1 AC C C C C
0 B B B B B @
=
(Pk,1 (Pk,2
(Pk,3 ...
(Pk,k
...
...
...
1 P1 P2 · · · Pk-1
P1 1 P1 · · · Pk-2
P2 P1 1 · · · Pk-3
. . .
. . .
Pk-1 Pk-2 Pk-3 · · · 1
1 -1 0
C B
C B
C B
C B
C B
A @
P1
P2
P3
...
1 AC C C C C
Pk
1 P1 · · · Pk-2 P1
P1 1 · · · Pk-3 P2
P2 P1 · · · Pk-4 P3
. .
. .
. .
Pk-1 Pk-2 · · · P1 Pk
~~~~~~~~~~~~~~~~
~~~~~~~~~~~~~~~~
... ... ...
,avec
|
~~~~~~~~~~~
|
~~~~~~~~~~~
|
=6 0.
|
Il est important, dans l'étape de l'identification de
la méthodologie de Box et Jenkins, comme on le verra
ultérieurement, de connaître le dernier coefficient,
(Pkk, k = 1, 2, 3, ..., K, où K est un entier positif suffisamment
grand, de chaque modèle autorégressif de la suite
considérée. Il est connu que ce coefficient est donné par
:
(Pkk =
~~~~~~~~~~~~~~~~
~~~~~~~~~~~~~~~~
1 P1 P2 · · · Pk-1
P1 1 P1 · · · Pk-2
P2 P1 1 · · · Pk-3
... ... ...
. .
. .
. .
Pk-1 Pk-2 Pk-3 · · · 1
1 P1 P2 · · · Pk-1
P1 1 P1 · · · Pk-2
P2 P1 1 · · · Pk-3
... ... ...
. .
. .
. .
Pk-1 Pk-2 Pk-3 · · · 1
k= 1, 2,3, ...,K
8
<>>>>>>>>>>>>> >
>>>>>>>>>>>>>>:
(Pk,k =
...
...
...
~~~~~~~~~~~~~
,
...
...
...
1 P1 P2 · · · Pk-1
P1 1 P1 · · · Pk-2
. .
. .
. .
Pk-1 Pk-2 Pk-3 · · · 1
1, k = 1,
~~~~~~~~~~~~~
(
k => 2, (2.6.8)
~~ Pk
~~~
=
Pk
1 P1 · · · Pk-2
P1
P1 1 · · · Pk-3 P2
. .
. .
. .
Pk-1 Pk-2 · · · P1 Pk
~~~~~~~~~~~~~
~~~~~~~~~~~~~
Définition 2.6.3
Le dernier coefficient, d'un modèle
autorégressif d'ordre k, k = 1, 2, 3, ..., K, noté (Pkk, comme
étant une fonction, en k, est par définition la fonction
d'autocorrélation partielle de retard k. Il est donné par :
~~
où ~ k et ~
~ est le déterminant de la matrice k est
donnée par :
k
1 P1 ~ ~ ~ Pk_2 P1
P1 1 ~ ~ ~ Pk_3 P2
...
. ..
Pk_1 Pk_2 ~ ~ ~ P1 Pk
... ... ...
0 BBB@
~ k =
, k= 2, 3, ..., K;
1 ACCC
~ k est ainsi la matrice k dans laquelle on a
remplacé la dernière colonne par le vecteur
[P1....Pk1', k= 2, 3, ..., K.
On remarque que la fonction d'autocorrélation partielle
mesure la corrélation linéaire entre Xt et Xt_k,
après avoir retirer l'effet deXt_1, Xt_2, ..., Xt_(k_1).
Remarques
On constate facilement de la définition de la fonction
de corrélation partielle qu'un modèle autoregressif pur d'ordre
p, AR (p), est caractérisé par un "cut-off" dans sa fonction de
corrélation partielle, après son vrai ordre p. Autrement dit, la
fonction de corrélation partielle, 'kk, d'un modèle
autoregréssif pur d'ordre p vérifie :
'kk=0, Vk~p+1
Algorithme récursif de Durbin
La fonction d'autocorrélation partielle joue, comme la
fonction d'autocorrélation simple, un rôle prédominant dans
l'étude du problème de l'identification des ordres des
modèles de séries chronologiques linéaires. Le calcul de
la fonction d'autocorrélation partielle, 'k;k, à
partir de (2.6.8), est très lourd, car il
nécessite, pour chaque ordre, le calcul de deux déterminants de
dimension k x k. Cependant, cette fonction peut être calculée,
facilement, en utilisant la méthode de calcul récursif
établie par Levinson (1947) et Durbin (1960). Théorème
2.6.2. Algorithme de Durbin (1960)
Les paramètres 'k,1, 'k,2, ..., 'k,k, solutions des
équations de Yule-Walker, du modèle autorégressif (1.6.4),
sont donnés par les formules récursives suivantes :
CHAPITRE 2. PROCESSUS STOCHASTIQUES ET SÉRIES
CHRONOLOGIQUES 45 Pk,j = 'k-1;j -- Pk,k Vk-1,k-j, j = 1, ..., k; k =
2, ..., K,
p(k) --
(Pk,k =
|
|
k-1
Ei1 p(k
|
, k = 2, ..., K, avec (,01,1 = p(1).
|
|
k-1
Ei1 p(i)
|
1 --
|
|
0-jc = Cfjc (1 --
CIOLk) ; a0 = '70
Bien entendu, dans la pratique les autocorrélations,
p1, p2, ..., pp, sont remplacées par leurs estimations,
791,-P2, ..., op, alors en appliquant l'algorithme
récursif de Durbin-Levison on obtient les estimations, ça 1,
ça2, ..., çap, de Yule-Walker des paramètres
autorégressifs inconnus, 401,(1)2, ..., Vp ·
Ça'k,j = b'k-1;j --
b'k;k b'k-1;k-j,j = 1, ..., k; k =
2, ..., p,
Ça.k,k =
b'k-1;iî)k-i
, k = 2, ..., p, avec i;c31,1 = 79(1).
k-1
E
i=1
î)k --
b02k = b~2k (1 k) ;0=
'70
|
|