N
CONCLUSION :
ous choisissons de faire une synthèse à ce
chapitre, on parle des tests de racine unitaire car ils sont les bases qui nous
permettons de savoir c'est le processus est « TS » ou
« DS » afin de recourir à une meilleur
méthode de stationnarisation pour suivre enfin l'algorithme de
Box-Jenkins qui ne se réalise que si la série
étudiée est issue d'un processus stationnaire.
CHAPITRE3 :
Méthode de prévision des séries
temporelles :
Lissage exponentiel-Méthodologie de Box
Jenkins
INTRODUCTION:
O
n cherche le plus souvent à prévoir une valeur
future mais aussi parfois à reconstituer une valeur manquante et
toujours à comprendre et expliquer les variations observées.
Les techniques mathématiques d'étude des
séries temporelles vont le plus simples comme le lissage exponentiel(qui
est une classe de méthode de lissage des séries chronologiques
dont l'objectif est la «prévision» qui consiste que chaque
observation à l'instant «t» dépend des observations
précédentes et d'une variation accidentelle et celle
dépendance est plus ou moins stable dans le temps)aux plus
élaborée comme l'algorithme de «Box&Jenkins»(qui
ont popularisé l'utilisation des modèles «ARMA» en
insistant sur les étapes nécessaires à la
modélisation d'une série temporelle qui est représenter
par quatre étapes qui sont d'abord, l'identification des modèles
ensuite, l'estimation des paramètres puis, l'étape de validation
des modèles et enfin, l'objectif visé c'est «la
prévision».
La prévision d'une série temporelle permet
à priori la planification et à posteriori, elle permet d'estimer
l'impact d'une perturbation sur la variable expliquée afin de trouver
des scénarios pour le future peuvent être réalisés.
SECTION1:
Le lissage exponentiel
Commercerons par représenter le lissage exponentiel qui
est un outil pour faire de la prévision des séries sans chercher
préalablement un modèle car il permet de faire varier le poids
relatif au passé récent et de passé le plus ancien. Il
existe trois méthodes de lissage exponentiel qui permet de prolonger une
série temporelle en vue de prévision à court terme. Nous
présenterons alors le lissage exponentiel simple(LES) quand
utilise lorsqu'on n'observe pas de tendance. Mais en générale,
les séries étudies contiennent des tendances ce qui nous
permettrons de recourir au lissage exponentiel double(LED) qui fait un
ajustement par droite et nous attaquerons par la suite le lissage qui donne un
poids plus grand pour les observations dans le voisinage de temps qui est le
lissage exponentiel généralisé(LEG) mais la mise en
oeuvre rigoureuse de ce dernier reste complexe sur le plan pratique, ce qui
nous permettrons enfin d'étudier l'approche de Hold & Winters
qui ont proposé des modèles voisin beaucoup plus
accessibles.
1-Le lissage exponentiel
simple(LES):
1-1-DÉFINITION :
Soit une série temporelle et nous somme à la
période T alors vous volons prédire «
» ou « h » est l'horizon de prévision,
pour ce faire, on fera intervenir à une méthode qu'on appelle le
lissage exponentiel simple. Cette méthode se base sur le fait que plus
les observations sont éloignées de la période
« T », plus leur influence sur la prévision est
faible. On considère que cette influence décroit de façon
exponentiel. La formule va comme suit :
= (1-
Selon cette formule, ne dépend pas de l'horizon de
prévision (et donc ). Cette formule tient donc seulement pour les
périodes de 1 à T. Elle nous indique également
que « » est une moyenne des observations
passées ou le poids de cette observation décroit de façon
exponentiel avec la distance. Le coefficient (0< <1) se nomme la
constante de lissage. L'inclusion de la constante (1- ) fait en sorte que la
somme du poids est inférieure par les observations
éloignées dans le temps. D'ailleurs, on dit que la
prévision est plus rigide à mesure que tend vers 1 dans la
mesure où la prévision n'est pas sensible aux fluctuations
à cour terme. Plus tend vers 0, plus la prévision est
influencée par les observations récentes.
1-2-Choix de la constante de
lissage :
- Pour choisir la constante de lissage, il s'agit de minimiser
le critère suivant qui correspond à la somme au carré de
l'erreur de prévision :
1.3- Limitation de la
méthode :
Parmi les limitations de cette méthode, on peut
citer :
- Qu'elle ne peut être appliquée à des
variations en forme rampe (tendance ou trend), ni à des variations en
échelon.
- Qu'il n'ya pas de règle idéale pour
déterminer la pondération appropriée, il s'agit de choisir
une valeur de la constante de lissage (). La plupart du temps, on
procède expérimentalement, en essayant deux ou trois valeur
différentes pour voir qu'elle est la plus appropriée.
2-Le lissage exponentiel
double (LED):
2-1-Définition:
- Le lissage exponentiel double (Broun1959) est une
méthode plus générale que le lissage exponentiel simple,
sauf que l'on fait un ajustement au voisinage de « T » non
plus par une constante, mais par une droite (a t+ b) ; on a donc :
Ceci suggère une prévision de la forme :
(h)=(T) +(T) h ; Pour choisir (T) et
(T), il faut minimiser cette fonction :
Q =
2.2- Propriété de la
méthode :
- Parmi les avantages de lissage exponentiel double c'est de
traité des séries présentant une tendance.
- La méthode de choix de la constante de lissage est
même que pour le lissage exponentiel simple.
3- Le lissage exponentiel
généralisé:
- Puisque les méthodes de lissage exponentiel simple et
double ajuste une constante ou une droite alors le lissage exponentiel
généralisé donne un poids plus grand aux observations dans
le voisinage de « T » on a :
Avec
Dont la prévision est donnée par :
=
Nous avons présenté que par un jeu des
coefficients, le lissage exponentiel permet de faire varier le poids relatif du
passé récent et de passé plus ancien mais il existe des
méthodes de prévision plus évaluées sont disponible
avec des progiciels de prévision. Il permet d'utiliser des
modèles plus complexes dont certains reposent sur une analyse
strictement statistique qui cherche le meilleur ajustement sans apporter
d'explication.
4- Le modèle de Holt&Winters
(1960) :
La méthode de Holt et Winters permet en effet
d'effectuer des prévisions sur des séries chronologiques assez
irrégulières et soumises ou non à des variations
saisonnières qui sont des variations dues à un effet
momentané se reproduisent régulièrement dans le temps
suivant non seulement un modèle additif qui est le plus simple
dans lequel la variation saisonnière s'ajoute simplement à la
tendance dans ce cas la chronique s'écrite :
Pour tout t=1,..., T
avec est une série chronologique qui se
décompose en une tendance notée ,des variations
saisonnières de période « p »(égale
,...., )et d'une composante accidentelle .
Mais aussi avec un modèle multiplicatif qui
introduit la composante saisonnière de manière multiplicative
dont la série s'écrit comme suit :
Pour tout t=1,..., T = (1+) + avec
=1+ ; coefficient saisonniers de modèle multiplicatif
L'approche de Holt et Winters consiste en trois lissages
exponentiels simultanés. On définit donc trois paramètre
notés. A chaque instant, elle donne une estimation :
· De la tendance
· Du coefficient saisonnier correspondant
· De la valeur observée
On peut choisir les coefficients arbitrairement : faible
si l'on considère que la valeur à l'instant
« t » dépend d'un grand nombre d'observations
antérieures, élever dans le cas contraire. On peut aussi calculer
les valeurs optimales en minimisant la somme des carrés des
différences entre les valeurs observées et estimées. On
procède ensuite aux prévisions, en considérant que la
tendance suit un modèle linéaire additif ou multiplicatif
à très court terme.
SECTION2 :
La méthodologie de "Box &
Jenkins"
Box et Jenkins(1976) ont promu une méthodologie
consistant à modéliser la série temporelle
univariées au moyen de processus « ARMA ». Ces
processus sont parcimonieux et constituent une bonne approximation de processus
plus généraux pourvu que l'on restreigne au cadre
linéaire.
Les modèles "ARMA" donne souvent de bon
résultats en prévision et ont bénéficié de
la vague de scepticisme quand l'intérêt des gros modèles
économétriques. La méthodologie de Box-Jenkins peut se
décomposer en quatre étapes :
Nous présenterons tout d'abord, l'étape de
l'identification ; ensuite nous jetterons la lumière à la
phase de l'estimation ; puis nous représenterons des tests de
diagnostic dans l'étape de validation ; enfin la dernière
étape consiste à utiliser le modèle
« ARMA » validé à des fins de
prévision.
1-L'identification:
Après avoir transformé la série
étudiée de manière à la stationnariser, ce qui est
déjà vu dans le deuxième chapitre ; on arrive
à l'étape de l'identification qui est une étape
délicate qui conditionne la prévision de la chronique, elle
consiste à déterminer les paramètres
« p » et « q » du modèle "ARMA"
à l'aide de la fonction d'autocorrélation simple et la fonction
d'autocorrélation partiel.
2- L'estimation:
L'estimation des paramètres d'un modèle ARMA (p,
q) lorsque les ordres «p» et «q» sont supposes connus par
la méthode de maximum de vraisemblance qui est réalisée
à l'aide d'algorithme d'optimisation non linéaire
(Newton-Raphson, méthode de Simplex).
3-Validation:
A l'étape de l'identification, les incertitudes
liées aux méthodes employées fond que plusieurs
modèles, en générale, sont estimés est c'est
l'ensemble de ces modèles qui subissent alors l'épreuve des
testes. Il en existe de très nombreux permettant d'une part de valider
le modèle retenu, d'autre part, de comparer les performances entre les
modèles.
3-1-Test de redondance :
Le but de ce test est de vérifier si les composantes
« AR » et « MA » de "ARMA" n'ont pas
des racines communes au moyen, par exemple, des algorithmes de Newton-Raphson.
Lorsque c'est le cas, on dit qu'il ya redondance et les coefficients
estimés du modèle sont instables et peuvent conduire à des
prévisions erronées. Il faut alors éliminer dans le
modèle "ARMA" la ou les variables responsables de cette redondance.
3-2-Test de significativité :
Ce test, nous permet d'effectuer le test de Student sur chacun
des paramètres de processus « ARMA » en divisant le
paramètre par son écart type. Il peut arriver qu'un ou plusieurs
paramètres ne soit pas significativement déférents
de « 0 » : le modèle est alors
rejeté et on retourne à l'étape d'estimation en
éliminant la variable dont le coefficient n'est pas significatif.
3-3-Test de recherche
d'autocorrélation :
· Test de Box-Pierce(1970)
On note « »
l'autocorrélation d'ordre « k » du processus,
pour un ordre « k », le test de Box et Pierce est :
Pour un processus ARMA (p, q) la statistique de test
est :
; SousQ(K-(p+q))
L'hypothèse est rejetée au seuil 5% si est
superieur à la quantité 0.95 de la loi ÷²de
correspondant.
· Test de Ljung-Box
Ce test est appliqué de préférence au
test de Box-Pierce lorsque « T » est faible:
Sous
3.4- Statistique de test :
Ø Test d'homoscidasticité :
· Test ARCH d'Engle(1982)
Ce test est très fréquemment utilisé de
série temporelle
= + +
· Test ou méthode de
Méland(1992)
Il s'intéresse à la représentation
graphiquement de la fonction d'autocorrelation de la série de
carré de résidu . Si ce terme est significativement 0 ; il
une héteroscédasticité.
Ø Test de normalité :
Le test le plus classique de Jarque et Berra est fondé
sur la notion de Skewness (asymétrie) et du Kurtosis (aplatissement)
· Les tests du Skewness et Kurtosis
Soit le moment empirique d'ordre K du processus
Le coefficient de Skewness :
Le coefficient de Kurtosis :
Alors les statistiques sont :
Avec (0, 3) sont les distributions normal de Skewness
et Kurtosis
· Test de Jarque et Berra
Le test de Jarque et Berra regroupe ces deux tests en un seul
test qui est :
S=
Si S; on rejette de normalité des résidus au
seuil de.
Ø Les critères de comparaison des
modèles :
Au-delà des critère standard (MSE,
MAE,...) ;on étudie les critères propre aux modèles
autorégressifs qui sont par exemple :
-Critère Akaîke(AIC)
-Critère Schwarz(SIC)
4-La Prévision:
Ø La transformation de la serie
Lorsqu'on identifier le processus étudier à un
processus «ARMA»; on a appliqué les déférentes
transformations, il est nécessaire lors de la phase de prévision
de prendre en compte la transformation retenue et de « recolorer la
prévision » ; plusieurs cas sont possible :
§ Si le processus contient une tendance
déterministe, on extrait cette dernière par régression
afin d'obtenir une série stationnaire lors de la phase de l'estimation.
Ensuite, lors de phase de prévision, on adjoint aux prévisions
réalisées sur la composante ARMA stationnaire, la projection de
la tendance.
§ Si la transformation résulte de l'application
d'un filtre linéaire (de type par exemple différance
première), on réalise la prévision sur la série
filtré stationnaire et l'on reconstruit ensuite par inversion de filtre
la prévision sur la série initiale.
Ø Prévision pour un processus
« ARMA » :
On considère un processus ARMA (p, q) telque :
Avec (et
Appliquons le théorème de Wold au processus et
considérons la forme MA () correspondante :
L'intérêt de l'utilisation de la forme MA () est
qu'il est possible de calculer facilement l'erreur de prévision comme
suit :
Avec
et
Donc l'intervalle de prévision se représente
comme suit :
Avec ?? (0, 1) au niveau
Ø Evaluation des
prévisions :
Pour évaluer les prévisions ; on peut
calculer (REQM, EAM, ERM et coefficient de Theil)
On dit que la prévision est bonne si ces mesures sont
proches de « 0 ».
· Racine de Erreur Quadratique
Moyenne(REQM)=
· Erreur Absolue Moyenne(EAM)=
· Erreur Relative Moyenne(ERM)=
· Coefficient de Theil(U)=
|