Chapitre 6
MODELES VAR
6.1 Introduction
Dans le chapitre précédent ont été
intéressé par líétude de líévolution
des séries chronolo- giques des trois types de consommation du gaz
naturel a savoir la consommation publique, la consommation des centrales
électriques et la consommation industrielle. Les modéles de
sé- ries chronologiques univariés leurs associés ont
été identifés, estimés et validés. Ces
modéles ont été exploité par la suite pour
líobtention des prévisions a court terme.
Les mécanismes engendrant les séries
observées individuellement ne peuvent pas fournir
des informations et de renseignement sur plusieurs questions
intéressantes pour une variété díobjectifs comme a
titre díexemple la relation de líévolution de la
consommation industrielle avec celle des centrales électriques. La
théorie économique nous informe que ces facteurs sont
liés dans le cadre du développement díun
pays.
Dans le chapitre présent nous développons les
modéles de séries chronologiques multiva- riés I ARM A,
en particulier les modéles I AR,qui peuvent répondre a plusieurs
préoccupa- tions liées aux comportement simultanés des
trois séries sous-jacentes.
91
6.2 Processus multivaries
DeÖnition
un processus3 Xt, t E Z4 multivarié est une
famille de variables aléatoires vectorielles défnies sur
RF.
Comme dans le cas univarié, la stationnarité joue
un rôle important dans la théorie des processus, cíest
ainsi quíon síétalera a étudier les processus
multivariés sationnnaires dans
ses di§érents champs.
6.2.1 Fonction díautocovariance díun processus
multivarie
Considérons un processus multivarié 3 Xt, t E Z4
de moyenne % , la covariance entre Xt
et Xs est donnée par
7 (t, s ) 6 0 ov (Xt, Xs) 6 E ! (Xt % ) (Xs % )
" , V t, s E Z.
6.2.2 Processus multivarie fortement stationnaire
Soit un processus multivarié3 Xt, t E Z4 , le processus
est dit fortement (ou stricte- ment) stationnaire si : V n E N , V (t1, t2
,..., tF) et V h E Z, le vecteur (Xt1 + h, ..., Xt" + h) a
la même loi de probabilité que la suite
(Xt1 , ..., Xt" ), autrement dit :
P (Xt1 < x 1, ..., Xt" < x F) 6 P (Xt1 + h < x
1, ..., Xt" + h < x F) ,
V (t1, t2 ,..., tF) E ZF, V (X1, X2 ,..., XF) E
RF, V h E Z.
Ainsi tous les moments díordre, díun processus
multivarié strictement stationnaire sont in- variants pour toute
translation dans le temps, or cette défnition est rarement
vérifée en pratique, cíest ainsi que nous nous
intéressons a un second type de stationnarité des proces-
sus multivariés, dit du second ordre.
6.2.3 Processus multivarie faiblement stationnaire
Le processus multivarié 3 Xt, t E Z4 est dit faiblement
stationnaire (du second ordre) si
sa moyenne est fnie indépendante du temps et de plus le
processus est stationnaire en sa
covariance, ie :
ó 1. E (Xt) 6 E (Xt+ h) 6 % (constante) , V t E Z,
ó 2. 0 o v (Xt, Xt+ h) 6 E ! (Xt % t)(Xt+ h
% t+ h)1 " 6 F (h) , V t, h E Z,
oü F (h) est la fonction díautocovariance matricielle
du processus{ Xt, t E Z} .
Proposition
Si { Xt, t E Z} stationnaire alors V i E { 1, .., n } (Xi t,)
stationnaire. La reciproque est fausse.
Remarque
Dans ce qui suit le terme stationnaire, sauf mention contraire
signifera la stationnarite du second ordre.
6.2.4 Processus bruit blanc multvarie
Un vecteur bruit blanc multivarie { t t, t E Z} est une suite
de variables aleatoires non correlees de moyenne nulle et de matrice de
covariance " , ie :
* E (t t) 6 0 ,
E(t tt t) 6 " . V
t E Z
Et en consequence sa fonction díautocovariance est donnee
par :
* " , h 6 0 ,
F (h) 6 E (t t t t+ h) 6
0 , h 6 0 .
Remarque
On suppose que " est non singuliére.
Proprietes
F ( h) 6 F (h) , V h E Z, (la fonction
díautocovariance níest pas symetrique)
Estimateur
En pratique la fonction díautocovariance est estimee a
líaide de líestimateur suivant :
1
T h
z ( (
FX (h) 6
T h tl 1
Xt X t
1
Xt+ h X t+ h ,
T h
z
avec X t h 6
Xt
T
T h tl 1
et X t 6
1 z X
t
T tl 1
6.2.5 Fonction díautocorrelation
La fonction díautocorrélation díun processus
stationnaire multivarié faiblement station- naire de moyenne % et de
matrice de covariance F (h) , notée Ah 6 (p i j (h)) est
défnie par
7 i j (h)
Ah 6
A ,
7 ii (0 )7 j j (0 )
6.2.6 Decomposition de Wold -Cramer
Le théoréme de Wold, est également valable
dans le cas multivarié.
Theorème de Wold :
Tout processus stationnaire { Xt, t E Z} peut se
decomposer en la somme díune composante regulière previsible
(deterministe) et díune expression lineaire sto- chastique tel que :
z$
Xt 6 H t )
j l 0
Oj 6 t j
oü Oj est une suite de matrices carrees de taille n x n
avec O0 6 1F et { 6 t} E RF
avec 6 t bruit blanc de matrice de covariance z .
z$
Etant donné que la série
j l 0
Oj 6 t j doit être
convergente, cíest a dire que les termes Oj 6 t j
6 0
lorsque j -- + , donc la décomposition de Wold peut
être approximée par une représentation
vectorielle moyenne mobile I M A(+ ), et comme le passage
díune représentation moyenne mobile vers une
représentation autoregressive est possible, on peut approximer la
décompo- sition de Wold par une représentation vectorielle
autoregressive I AR(+ ).
6.2.7 Modèle autoregressif moyenne mobile Multivarie I ARM
A(p, q )
Le processus stationnaire satisfait une representation & / ,
& multivarie, note
2 & / , & díordre (: , ; ), síil est
solution de líequation aux di§erences stochastique suivante :
p
Xt z
j l 1
b j Xt j 6 6 t
q
z
j l 1
& j 6 t j
Le modéle I ARM A(p, q ), síécrit sous la
forme suivante
Xt 6 b 0 ) b 1Xt 1 ) .... ) b p Xt p ) 6 t ) &
16 t 1 ) .... ) & q 6 t q
Soit encore :
# (L)Xt 6 ! (L)6 t ) b 0
oü # (L) 6 I
p
z
i l 1
# i Li et ! (L) 6 I
q
z
i l 1
# j Lj
Ou encore # est un polynôme matriciel díordre p et
! un polynôme matriciel díordre q .
Dans la suite, on síintéresse a un type particulier
de modéles I ARM A(p, q ), a savoir les modéles I AR(p)
6.2.8 Modèle Autoregressif Multivarie I AR(p)
Les modéle I AR(p) (vector autoregressif) constituent une
généralisation des modéle AR
au cas multivarié
DeÖnition
Le processus du second ordre n -varie admet une
representation I AR (au- toregressif vector) díordre p note (I
AR(p)) síil est solution de líequation aux di§erences
stochastique suivante :
Xt 6 b 0 ) b 1Xt 1 ) .... ) b p Xt p ) 6 t.
oü {6 t}est un bruit blanc vectoriel.
En introduisant líopérateur de retard L, on peut
réécrire líéquation précédente sous
la forme symbolique suivante :
# (L)Xt 6 b 0 ) 6 t
oü # (L) 6 I
p
z
i l 1
# i Li
avec Lj Xt 6 Xt j
Remarque 1
Tout modéle I AR (p) peut síécrire sous la
forme díun I AR (1), mais de dimension supérieur
(n p au lieu de n ).
Soit le modéle I AR(p) :
# (L)Xt 6 q 0 ) 6 t
Posons :
On peut écrire alors :
0
I
5 t 6 I
I
6
Xt 1
.
Xtt1 I I I
7
Xttp p t1)
avec :
5 t 6 q 5 tt1 )
qA 0 ) 6 t
A
0
q 1 q 2 .. q p 1
0
I
I
qA 0 6 I
q 0 1
I
0 I
. I
0 6 t 1
I
I 0 I
t
I
.
6 6 I
A I
I In 0 .. I
I
I
I 0 In 0 I
q
I I
6 . 7
0
6 . 7
0
I . . . I
.
6 7
0
oü In désigne la matrice
identité de dimension n x n . En e§et :
0 Xt 1
0 q 1 q 2 .. q p 1 0
I In 0 .. I
Xtt1 1
6
0 q 0 1 0 t 1
I
5 t 6 I
I
Xtt1
.
I I 0 In 0
6
I I
I I
I I Xttt2 I I
I I I I
.
)
I I I I
0 I I 0 I
I
I
I
. I ) I . I
I
.
6 . 7 .
Xttp p t1) 6 0
. . .
I 6 . 7
7 Xttp
6 . 7
0
6 . 7
0
est alors un I AR (1) de dimension n p.
6.2.9 Caracteristiques des modèles I AR
Etudions les principales caractéristiques des
modéles I AR. Concidérons un modéle I AR (1)
Xt 6 q 0 ) q
1Xtt1 ) 6 t
Oü 6 t & BB(0 , " )
Esperance
On a
E[ Xt] 6 E[ q 0 ) q
1Xtt1 ) 6 t]
Le processus étant stationnaire, on a : E[ Xt] 6 E[
Xtt1] . On peut donc écrire (sachant que
E[ 6 t] 6 0 ) :
Díou
E[ Xt] 6 q 0 ) q 1E[
Xt]
E[ Xt] 6 (I q 1)t1q 0
Fonction díautocovariance
Considérons le processus centré : 5 t 6 Xt E[ Xt]
, soit :
5 t 6 q 15 tt1 ) 6 t
La fonction díautocovariance F est donnée par :
F (0 ) 6 E[ 5 t5 t ] 6 E[ q 15 tt15 t ) 6 t5 t ] (" )
Or
E[ 6 t5 t ] 6 E[ 6 t(5 tt1q 1 ) 6 t)] 6 q 1E[ 6 t5 tt1] )
E[ 6 t6 t]
Comme 6 t est BB alors
E[ 6 t5 tt1] 6 0
On a donc
E[ 6 t5 t ] 6 E[ 6 t6 t] 6 "
On remplaÁant dans (" ) on aura
F (0 ) 6 q 1E[ 5 tt15 t ] ) "
On remarque que E[ 5 t5 tt1] 6 F (1), on en déduit :
F (0 ) 6 q 1F (1) ) "
On calcule la matrice díautocovariance díordre 1
:
F (1) 6 E[ 5 t5 tt1] 6 E[ (q 15 tt1 ) 6 t)5 tt1] 6 q 1E[ 5
tt15 tt1] 6 q 1F (0 )
On en déduit la formule de récurrence suivante pour
la matrice díautocovarinace díordre h
díun modéle I AR (1) :
F (h) 6 q 1F (h 1) V h > 1
Representation canonique
Considérons un modéle I AR centré,
cíest a dire avec q 0 6 0
on peut écrire :
# (L)Xt 6 6 t
DeÖnition
# (L)
1 A
Xt 6 # t (L)6 t 6
; < D # (L)
6 t.
Si toutes les racines du déterminant de # (L) sont du
module supérieur a 1, alors líéquation
# (L)Xt 6 6 t défnit un unique modéle I AR(p)
stationnaire. On dit que Xt est en représen- tation canonique et 6 t
est appelé résidu du processus.
Remarque 1
Si les racines de Q R t # (L) sont de module inférieur
a 1, on peut changer les racines en leurs inverses et modifer le bruit blanc
associé afn de se ramener a la représentation canonique. Remarque
2
Si au moins une des racines de Q R t # (L) est égale a 1,
le processus níest plus stationnaire et
on ne peut pas se ramener a une représentation
canonique.
Remarque 3
En représentation canonique, la prévision
síécrit :
E[ Xt+ 1 5
t ] 6
p
z
i l 1
# i Xt+ 1ti
oü Xt désigne le passé de X
jusquía la date t incluse.
6.2.10 Estimation des paramètres díun I AR (p)
Les paramétres díun modéle I AR ne peuvent
être estimés que sur les séries temporelles
stationnaires (sans saisonnalité et sans tendance) par la
méthode M O O . Pour les modéle
I AR non contraints-ou plus généralement par la
technique du maximum de vraisemblance.
Estimation par la methode des moindres carres ordinaires des
modèle 2 & /
non contraints
Considérons le modéle I AR (p) :
# (L)Xt 6 6 t
Oü 6 t & BB(0 , " ).
Déterminons tout díabord le nombre de
paramétres a estimer.
n (n ) 1)
paramétres a estimer dans "
2
n 2 p paramétres a estimer dans # .
Au totale, on a donc n 2 p ) n (n ) 1)
paramétres a estimer pour un I AR (p)
2
Décomposons líécriture du I AR (p). La j
i e E e équation síécrit :
I
0 X0 X1 p 1
0
I I
j
6 I I
Xj 1 1
I
I
X
.
Xj 2 I 1
.
I
6
I
I I
t
X2 tp
I I I
I
I W j ) 6 j ; avec j 6 1, 2, .., p
.
I
I
. I
I
I
6 . 7
I Xtt1 Xttp I
.
I
I
Soit encore
Xj T
6
XT t1
7
XT tp
X j 6
Oü
W j ) 6 j
0
I
I
.
6 j 6 I
I
I
6
6 j 1 1
.
.
6 j 2 I I I I I
7
6 j T
La variable X j contient T
observations. La matrice X est de format (T , n p).
Soit une ligne Xt de cette matrice :
Xt 6 (X1tt1X2 tt1
Xntt1X1tt2 Xntt2 X1ttp
Xnttp )
Le modéle est un modéle I AR (p) a n composantes
indicées par le temps t. W j est de di- mension (n p, 1). On a
0
I I I
q
I
W j 6 I
I
I
I
I
6
1
q
1
1j
q
2
1j I
.
. I
I
I
n I
I
1j
I
n
q
I
2 j
. I
. 7
q
n p j
0
I
I
6 j 6 I
I
I
6
6 j 1 1
.
.
6 j 2 I I I I I
7
.
6 j T
La matrice X ne dépend pas de j :
X j 6
W j ) 6 j
.
On empile les n équations pour retrouver le I AR :
0 X 1 1
I X 2 I
0 X11 1
I X12 I
I . I
0
0 0 0 1
I
W 1 1
W 2 I
0 6 11 1
I 6 22 I
I . I
I
I I I
.
6
I I I
.
I
I I I
.
I I I
6 7 I
6
X n I
. I
6
I
X1T I
6
I
X2 T I
I
.
I
7
XnT
0 X 0 I I
I
I
I
.
. . I I
I
7 I
X 6
I
I I
.
)
I I
I
I
. I I
I
. 7 I
W n 6
. I
I
6 1T I
.
I
6 2 T I
I
I
7
.
6 nT
On cherche a estimer (W 1W 2 . . . W
n ) .
La matrice de variance-covariance des erreurs devient un peu plus
compliquée et síécrit :
0 0 a 11 0 . . . 0
I I 0 . .
1 0 a 12 0 . . . 0 1 1
I I . . I I
I 6 .
7 6 0 . 7 I
I
I 0 a 11
0
I
I a 2 1 0 . . . 0 1 0
I I
I 0 . . I I
0 a 12 I
I
I
a 12 0 . . . 0 1 I
I
. . I I
I 6 .
7 6 0 . 7 I
I
I 0 a 2 1
I
I
I
I
I
I
I
6
0 a 12
. . .
I
I
I
I
I
I
0 a nn 0 . . . 0 1 I
0
I
I . . . I I
6 7 7
0 a nn
Líobservation de cette matrice indique la présence
díhétéroscédasticité (il y a en e§et,
aucune
raison pour que a 11 6 a 22 6 6 a nn) et
díautocorrélation.
Il se pose en conséquence un probléme pour
líapplication de la méthode M O O . Rappelons en e§et que
les estimateurs sont sans biais, mais ne sont plus de variance minimale. Il
convient
dés lors díutiliser la technique des moindres
carrés généralisés (M O G ) qui fournit un esti-
mateur BLH E (Best Linear Unbiaised Estimator).
On peut réécrire la matrice de variance-covarince
comme suit :
I [ 6 ] 6 " # I 6 2
oü " 6 (a i j ) et # désigne le produit de
Kronecker. Rappelons que :
0
A # B 6 I
. 1
a B I
6 i j 7
.
Nous venons de voir que la matrice de variance-covariance des
résidus est telle que
líon devait théoriquement appliquer la
méthode M O G . Cependant, puisque la matrice des variables
explicatives est bloc diagonale, on peut appliquer les M O O bloc par bloc.
Le théo- réme de Zellner nous montre ainsi
quíestimer chacune des n équations par les M O O est
équivalent a estimer le modéle par la méthode M O
G . Afn de le prouver, considérons le modéle suivant :
Oü 6 est un bruit blanc.
5 6 X a ) 6
Rappelons que líestimateur de la méthode M O O
est donné par :
X
a3 . 5
6 (X X )t1X 5
et que líestimateur de la méthode M O G
síécrit :
X
a3 . 0
6 (X 2 t1X )t1X 2
t15
oü 2 désigne la matrice de variance-covariance de 6
.
Dans notre cas, on a :
0
I
I
X 6 I
6
X 0 0 1
0 X 0 I
I
. . . I
7
X
6 I # X
oü I est la matrice identité.
Remarque
Avant díappliquer la méthode des M O G , rappelons
que líon a les égalités suivantes concer- nant le produit
de Kronecker :
(A # B)(O # D) 6 AO # BD
(A # B) 6 A # B
1
(A # B)
6 At1 # Bt1
Afn de calculer l1 estimateur des M O G ,
commenÁons par étudier la matrice X 2 t1X :
X 2 t1X 6 (I # X )(" t1 # I
)(I # X )
6 " t1 # X X
avec 2 t1 6 " t1 # I .
On en déduit :
(X 2 t1X )t1 6 " t1 # ( X
X )t1
pour le vecteur X 2 t15 , il vient :
X 2 t15 6 (I # X )(" t1 # I
)5
6 (" t1 # X )5
on a donc :
X
a3 . 0
6 " # (X X )t1("
t1 # X )5
díou
6 (I # (
X )t1 X )5
0 1
0
X
7
a3 . 0 6 I
6
( X X )t1X 0 . . .
0 . . .
1
I
I I I
( X X )t1 X 6
5 1
I
5 2 I
I
.
. 7
5 n
0 ( X X )t1
.
t1
5 1 1
I
6
I (X X )
I
I
6
X 5 2
I
I
7
( X
)t1X 5 n
On retrouve líestimateur des M O O équation par
équation.
Cependant, cette technique díestimation des I AR
níest plus valable des lors quíil existe
des contraintes sur les paramétres. Il convient alors
díutiliser la technique du maximum de vraisemblance.
Estimation par la methode du maximum de vraisemblance
Considérons un modéle I AR (p)
Xt 6 q 1Xtt1 ) .... ) q p Xttp ) 6 t
Oü 6 t est un bruit blanc de matrice de variance covariance
" .
On écrit la vraisemblance conditionnellement a toute
valeurs passées du processus :
L(q 1, q 2 , . . . , q p , _ 5 Xtt1) 6
T
;
tl 1
L(XtXtt1)
oü Xtt1 désigne tout le passé de Xt
jusquía la date (t 1) incluse la vraisemblance síécrit
alors :
L(q 1, q 2 , . . . , q p , _ 5 Xtt1) 6
T
;
tl 1
(7 2'
1
n 7
; < D _
T
2
x < E C [ 1 z
tl 1
(Xt q 1Xtt
<
1 .... q p Xttp )
(Xt
q 1Xtt1
.... q p Xttp )]
On en déduit líexpression de la log-vraisemblance
:
? B= L(X1 . . . Xt) 6
T
T ? B= 2' T ? B= ;
< D _ 1 z
L t_ t1L t.
2 2 2
tl 1
On maximise ensuite cette expression afn díobtenir les
estimations q 1, . . . q p et de _ .
6.2.11 Validation : tests de speciÖcation
Test du rapport de maximum de vraisemblance
On peut e§ectuer des tests sur líordre p du I AR
.Considérons le test suivant :
H0 : # p + 1 6 0 : Modéle I AR (p)
H1 : # p + 1 6 0 : Modéle I AR(p ) 1)
La matrice díinformation de Fisher est dicents cile a
calculer, ce qui explique que líon uti-
lise un test du rapport du maximum de vraisemblance. La technique
consiste a estimer un modéle contraint I AR (p) et un modéle non
contraint I AR (p ) 1) et a e§ectuer le rapport
des log-vraisemblances. Rappelons que la log-vraisemblance
díun modéle I AR síécrit :
T
? B= L(X1 . . . Xt) 6 n T ? B= 2'
T ? B= ; < D _ 1 z
L t_ t1L t.
2 2 2
tl 1
T
z
tl 1
L t_ t1L t.est un scalaire, on a donc, on notant T _
la trace :
T
z
tl 1
T
L t_ t1L t 6 T _(z
tl 1
T
L t_ t1L t) 6 T _(_ t1 z
tl 1
L tL t)
T
T
6 T _(T _ t1 1 z
L tL t)
tl 1
6 T _(T _ t1_ ) 6 T _(T In) 6 n T
Soient l og Lc la log vraisemblance estimée
du modéle contraint :
l og Lc 6 nT l og 2' T
l og ; < D _X c 1 n T
2 2 2
Soient l og Lnc la log vraisemblance estimée
du modéle non contraint :
l og Lnc 6 nT l og 2' T
l og ; < D _X nc 1 n T
2 2 2
oü _X c (respectivement _X nc )
désigne líestimateur de la matrice de variance-covariance
des résidus du modéle contraint (respectivement non
contraint).
On calcule la statistique de test & 6 T x RM I . Oü
RM I désigne le rapport du maxi- mum de vraisemblance :
& 6 T l og
, ; < D _X c -
; < D _X nc
Sous líhypothése nulle, cette statistique suit une
loi de khi-deux a _ degrés de liberté
oü _ désigne le nombre de contraintes.
Si líon accepte líhypothése nulle, on peut
e§ectuer un deuxiéme test :
HO : # p 6 0 : Modéles I AR(p 1)
H1 : # p 6 0 : Modéles I AR (p)
Ce test síe§ectue de la même faÁon que
précédemment. On a ainsi une séquence de tests
emboÓtés dont le but est de déterminer líordre p du
modéle I AR
Remarque
Dans le cas díun modéle AR, en plus des
tests sur les paramétres, on e§ectue des tests
sur les résidus afn de valider le modéle. Dans
le cas des modéles I AR, ces tests ne sont pas trés puissants
et líon préfére réaliser un graphe des
résidus. Notons cependant quíil convient díexaminer
attentivement les résidus surtout lors díutilisation des
modéles I AR
pour líanalyse de réponse impulsionnelle oü
líabsence de corrélation des résidus est cruciale
pour líinterprétation.
Critères díinformation
Afn de déterminer líordre p du I AR, on peut
également utiliser des Critéres díinformation. Ainsi, on
estime un certain nombre de modéles I AR pour un ordre p allant de 0 a
h, oü
h est le retard maximum. On retient le retard p qui
minimise les Critéres AI O , SI O et
Hannan-Quinn (H Q ).défnis comme :
AI O 6 l og Q R t _X )
2n 2 p
T
SI O 6 l og Q R t _X
) n 2 p
l og T
T
H Q 6 l og Q R t _X
) n 2 p
2 l og (l o g T )
T
oü n est le nombre de variables du systéme,
T est le nombre díobservations et _X
estimateur de la matrice de variance covariance des
résidus.
Remarque
est un
Les Critéres SI O et H Q conduisent a des
estimateurs convergents de p, le critére AI O
donnant des estimateurs ecents caces de p.
6.2.12 Prevision des modèles VAR
Considérons un modéle I AR (p)
Xt 6
qX 1Xtt1 ) .... )
qX p Xttp ) L t
On suppose que p a été choisi, que les qX
i ont été estimés et que la matrice de
variance-
covariance associée a L t a été
estimée.
Afn de réaliser des prévisions, il est
nécessaire de vérifer que le modéle est bien
en représentation canonique. Pour cela, on calcule le
déterminant du polynôme # (L) et on regarde si les racines sont
bien a líextérieur du disque unité. Si tel est le cas,
alors la prévision
en (T ) 1) du processus est :
E[ XT + 1 5 XT ]
6
qX 1XT ) .... )
qX p XT tp + 1
oü T désigne le passé de X
jusquía la date T incluse.
|