Chapitre 5
Modélisation multivariée
Nous avons vu plus haut que l'analyse des séries
chronologiques consiste principalement à détecter la structure de
corrélation (dépendance) entre les composantes du processus
générateur {Xt, t E Z} de la série sous étude X1,
..., XT. Cette structure sera exploitée entres autres, sous
l'hypothèse fondamentale que les valeurs futures de la série
restent une réalisation du processus, pour faire des prédictions
dans le futur. Dans ce cas, l'approche permettant de révéler la
structure de dépendance est qualifiée d'univariée dans le
sens où l'on suppose que les variables du processus
générateur {Xt, t E Z} ne sont corrélées qu'entre
elles seulement et qu'il n'existe pas (ou du moins on néglige) de
corrélation avec d'autres processus générateurs de
d'autres séries. Cependant, plusieurs chroniques rencontrées dans
la pratique, et spécialement en économie, peuvent être
considérées comme composantes d'une série chronologique
multivariée X1, ..., XT issue d'un processus multvarié {Xt, t E
Z} dont la spécification inclu non seulement la structure de
"dépendance" de chaque composante{Xti, t E Z}, mais aussi
l'interdépendance entre différentes composantes{Xti, t E Z}
et{Xtj, t E Z}. Par exemple, on a vu que la série des prix spot du gaz
naturel au Texas (T) peut être considérée comme
réalisation d'un processus ARIMA(8, 1, 20). Ainsi on peut dire
grossièrement que ce prix à une période donnée
dépend du prix aux huit périodes précédentes et du
passé, à l'ordre 20, d'un processus bruit blanc. Cependant, la
théorie économique nous montre que le prix du gaz est fortement
lié au prix du pétrole et que le comportement des consommateurs
vis-à-vis du gaz est conditionné par celui du pétrole. La
prise en compte de l'effet du pétrole sur le gaz décrit mieux la
série des prix du gaz et peut donc améliorer leurs
prévisions.
D'un point de vue du second ordre, un processus multivarié
stationnaire {Xt, t E Z} est déterminé par sa moyenne vectorielle
p = E (Xt) et sa fonction d'autocovariance matricielle
Ph = E [(Xt+h -- E (Xt+h)) (Xt -- E
(Xt))'~ = E (XtX't) -- pp'. La plus
part des résultats relatifs aux processus univariés sationnaires
du second ordre peuvent être généralisés au cas de
processus multivariés. Cependant de nouveaux problèmes
surgissent. Dans ce qui suit nous allons présenter brièvement les
principaux résultats concernant les processus multivariés
faiblement stationnaires et les modèles VAR qui les representent.
5.1 Processus multivariés stationnaires du
second ordre
Dans la suite on considère un processus m-varié
{Xti, t E Z}, i = 1, ..,m, du second ordre, i.e., E (Xt) < oo et E
(XtX't) < oo Vt E Z. La stationnarité d'un
processus est liée à l'invariance d'une de ses
propriétés par translation dans le temps. Cette
propriété représente la distribution de probabilité
dans le cas de stationnarité forte et la moyenne et la covariance dans
le cas de stationnarité faible (ou du second ordre).
Définition 5.1.1
Un processus stochastique m-varié {Xt, t E Z} est dit
strictement stationnaire si pour tout n E N*, et pour tout n-uplet
(t1,t2,...,tn) E Zn, la distribution de
probabilité conjointe du vecteur (Xt1+h, , Xtn+h)
est la même que celle de (Xt1, , Xtn) Vh E Z.
Autrement dit, si on a :
P(Xt1< x1, :::,Xtn < xn) =
P (Xt1+h < x1, :::, Xtn+h < xn) ,
n E N*, V (t1, t2,..., tn) E
Zn, Vx1,x2;:::, xn E Rm, Vh E Z.
Définition 5.1.2
Le processus stochastique {Xt, t E Z} est dit faiblement
stationnaire si on a :
1) E (Xt) = E (Xt+h) = p (de moyenne le vecteur constant), Vt E
Z,
2) Cov (Xt, Xt+h) = E [(Xt -- pt) (Xt+h -- pt+h)'] =
Vt, h E Z.
La fonction matricielle Ph = (yii(h))i je{1,..,m} est dite
fonction d'autocovariance du
Remarques
? 1. Les mêmes propriétés de la fonction
d'autocovariance étudiée dans le chapitre 2 restent valables dans
le cas multivarié. Cependant la fonction d'autocovariance dans le cas
multivarié n'est pas symétrique et on a
F_h = F0 h
De plus, F est définie non négative
? 2. Comme pour le cas univarié, il est clair que la
stationnarité stricte implique la stationnarité faible (la
réciproque n'est pas vraie, sauf pour les processus Gaussiens), pourvu
que le processus sous étude soit du second ordre.
Processus bruit blanc multivarié (Multivariate White
noise)
Le processus de second ordre, multivarié, faiblement
stationnaire de base (à partir duquel on peut générer
d'autres processus multivariés stationnaires par combinaison
linéaire infinie, convergente en moyenne quadratique), est le processus
bruit blanc multivarié dont la définition est la suivante.
Définition 5.1.3
Un processus bruit blanc {"t, t E Z}, est un processus
stochastique non corrélé de moyenne nulle et de matrice de
covariance finie . Autrement dit :
{
E ("t) = 0,
Vt E Z,
E ("t"0 t) = :
et par la fonction d'autocovariance particulière suivante
:
{
, h = 0,
Fh = E ("t "t+h) = Vt E Z
0, h=60.
pour des raisons théoriques on suppose que est non
singulière.
Estimateur empirique
Dans la pratique la fonction d'autocavariance n'est pas connue,
néanmoins, elle est estimée par la statistique suivante dite
estimateur empirique :
bh = 1
T - h
|
T P-h t=1
|
(Xt - ) ,
Xt ) (Xt+h - Xt+h
|
avec Xt-h =
|
1 T - h
|
T P- h t=1
|
Xt h ~ 0
|
Bien entendu, pour une série temporelle multivariée
x1, x2, ..., xn, on a l'estimation empirique b['h:
b['h= 1
T - h
|
T P-h t=1
|
(xt - xt) (xt+h - xt+h),
|
avec xt-h =
|
1 T - h
|
T P- h t=1
|
xt h ~ 0
|
5.1.1 Fonction d'autocorrélation
La fonction d'autocorrélation de retard h, h E Z, d'un
processus multivarié, du second ordre, faiblement stationnaire de
moyenne E (Xt) = p. et de matrice de covariance ['h, notée Rh =
(pij(h)) est définie par
pij(h) = 'yij (h)
\/Yii (0) jj (0)
ou encore sous forme matricielle
Rh = D-1['hD-1, Vh E Z.
où D-1 = diag
|
)
1
\/_Yii (0)
|
. Il est facile de vérifier que la fonction
d'autocorrélation satisfait
|
les deux propriétés suivantes, qui découlent
directement des propriétés précédentes de la
fonction d'autocovariance
Propriétés 4.1.4
1) R-h=R'h VhEZ,
Donc on peut dans la pratique se restreindre aux
autocorrélations pour h ~ 0.
Estimateur empirique
L'estimateur empirique bRh de la fonction
d'autocorrélation, Rh, est obtenu en remplaçant,
dans l'expression de Rh, D et ['h par leurs estimateurs
empiriquesDb et En effet, on
|
|
['h, respectivement.
|
bRh= D-1 b['h D-1, VhEZ
Remarques
? 1. La représentation graphique de p j (h)
est appelée"corrélogramme" pour chaque i,j=1,. .. ,m.
? 2. Si p j (h) décroît rapidement quand
le nombre de retard augmente, cela signifie que la série est
stationnaire, sinon elle est sans doute non stationnaire ou de mémoire
longue.
|