ANNEXES
Annexe I : Méthodologie de Box et Jenkins23
Nous présentons ici son algorithme.
Figure : Etape de la méthodologie de Box et
Jenkins
Analyse du graphique et
du corrélogramme
Analyse de la saisonnalité
Test de Dickey Fuller
Régression sur le temps si TS (trend
stationary)
Passage aux différences si DS (difference
stationary)
Séries stationnaires yt
Analyse des corrélogrammes simple et
partiel
Détermination des ordres p et
q du processus ARMA
Estimation des paramètres.
Test de Student. Les coefficients non significatifs
sont supprimés.
Tests sur les résidus: sont ils des bruits
blancs?
Non Ajout d'un ordre p ou
q.
Oui
Prévision par ARMA
Recoloration de la série (exponentiel,
saisonnalité )
Source : Régis Bourbonnais, Econométrie,
page 250
23 Pour plus de détails, cf. Régis
Bourbonnais, Econométrie, 5ième édition et cf.
M. Djimefo Kapen [2006], Initiation de modèle mathématiques
dans la prévision des produits et charge d'une banque,
mémoire présenté en vue de l'obtenion du Master de
Statistique Appliquée, université de Yaoundé I.
I.1 Analyse de la saisonnalité ou
désaisonnalisation
Les méthodes de désaisonnalisation peuvent
être classées en deux grandes catégories: Les
méthodes non paramétriques et
les méthodes paramétriques.
Méthodes non paramétriques,
dites « empiriques », permettent de décomposer la série
en composantes inobservables par une procédure, souvent
itérative, basée sur des lissages successifs. On peut
résumer l'ensemble des lisseurs utilisés dans ces méthodes
sous le nom de « régressions locales ». Les régressions
locales consistent à ajuster des polynômes, en
général par les moindres carrés, pondérés ou
non, sur des intervalles glissants (se décalant d'un point à
chaque fois). Au centre de l'intervalle, la donnée lissée est la
valeur, à cette date, du polynôme ajusté (la donnée
lissée à la date suivante est obtenue par ajustement d'un
polynôme sur l'intervalle suivant). On peut montrer que les
régressions locales reviennent à appliquer des moyennes mobiles
particulières lorsque les observations sont régulièrement
espacées. Ces méthodes se distinguent par leur degré de
robustesse: dans un premier groupe, on trouve STL
(Cleveland et al. 1990), méthode fondée sur le « lowess
», une technique de lissage robuste par régressions locales
(Cleveland, 1979); dans un second groupe, figure la célèbre
méthode de désaisonnalisation
Xl1.
Méthodes paramétriques : elles
peuvent aussi se diviser en deux grands ensembles: les méthodes par
régression (inspirées de Buys-Ballot) qui posent, pour chaque
composante, excepté l'irrégulière, une fonction
déterministe du temps; les méthodes fondées sur des
modèles stochastiques (non déterministe): il s'agit
principalement de modèles ARIMA utilisés pour modéliser
les composantes inobservables. Parmi celles-ci, on distingue encore deux
groupes: celles qui estiment les modèles des composantes à partir
du modèle ARIMA de la série initiale (Burman 1980, Hillmer et
Tiao 1982), SEATS (Gomez, MaravalI1997), et celles
qui les modélisent et les estiment directement ( Kitagawa et Gersch
1984) comme par exemple la méthode STAMP
(Harvey et al. 1995).
Les ouvrages des différents auteurs mentionnés dans
ces méthodes, sont cités dans
« COMPRENDRE LA METHODE XII » de Dominique LADIRAY et
Benoît QUENNEVILLE.
Nous allons schématiser ces méthodes de
désaisonnalisation Figure : Méthodes de
désaisonnalisation
METHODES NON PARAMETRIQUES (méthodes de
régression locale)
METHODES PARAMETRIQUES
MOYENNES MOBILES Slutsky (1927) - Macauley
(1930)
REGRESSIONS GLOBALES Buys-Ballot (1847)
MEDIANES MOBILES
MODELE XII-CENSUS Bureau du Census
(1965)
MODELE ARIMA Box et Jenkins (1970)
S.A.B.L (1982) LOWESS (1979) S.T.L
(1990)
MODELE Xll-ARIMA (1994)
S.E.A.T.S. (1980) S.T.A.M.P. (1987)
MODELES XI2-ARIMA (1994)
Source : « Cours de séries temporelles », DESS
Mathématique de la Décision & DESS Actuariat d' Arthur
CHARPENTIER
Parmi donc les méthodes non paramétriques, nous
nous sommes intéressés à la
désaisonnalisation par moyenne mobile
centrée. Si on s'intéresse à la
moyenne mobile centrée d'ordre m, elle est définie comme
suit:
m impair (m =2p + 1) :
Mm
( X + Xt - p+ 1 + ... + X
t + ... + X t + p - 1 + Xt
+p ) ( X t ) = t - p
t= p + 1, ..., n - p ; m pair (m = 2 p) :
( 0.5 X t - p + Xt - p + 1 +
... + X t - 1 + X + X t + 1 + ... + X t +
p - 1 + 0.5X+p ) ,
p
Mm ( X t) =
2
t = p+1,..., n- p ;
La procédure de désaisonnalisation d'une
série est fonction du type de schéma.
· Schéma additive
Soit X, notre série. Comme il s'agit d'une
série mensuelle, dont la période est 12, nous allons
considérer la moyenne mobile centrée d'ordre 12. Soit MM(12),
la série obtenue après avoir appliqué à X
cette moyenne mobile. Les différences saisonnières sont
obtenues en retirant de la série initiale la moyenne mobile i.e. X
- MM (12). Comme X et MM(12) n'ont pas la
même longueur, alors la soustraction se fait comme suit: pour une
année donnée, nous faisons la différence aux mois
identiques. Cette différence ne se fait qu'entre les périodes
où nous observons les réalisations simultanées de X
et de MM (12). Les coefficients saisonniers ne sont autres que
les moyennes des différences saisonnières pour chacun des mois.
Comme la somme des coefficients saisonniers doit être nulle, alors les
coefficients saisonniers corrigés sont obtenus en retirant des
coefficients corrigés leur moyenne arithmétique. Nous pouvons
donc désaisonnaliser la série en retranchant de chacune des
valeurs initiales le coefficient saisonnier correspondant.
· Schéma Multiplicatif
On calcule d'abord les rapports saisonniers qui sont le
rapport de la série initiale par la moyenne mobile correspondante. Les 2
séries n'étant pas de même longueur, le rapport s'effectue
comme suit: Pour une année donnée, nous faisons le rapport aux
mois identiques. Ce rapport ne se fait qu'entre les périodes où
nous observons les réalisations simultanées de X et de
MM(12).
Les coefficients saisonniers s'obtiennent en faisant la
moyenne des rapports saisonniers pour chacun des mois. La moyenne de tous ces
coefficients devant être égale à 1, les coefficients
saisonniers corrigés s'obtiennent en procédant à la
division de chacun de ces coefficients par leur moyenne arithmétique. On
peut donc désaisonnaliser la série en divisant chacune des
valeurs initiales par le coefficient saisonnier correspondant. Une fois la
série désaisonnalisée, on peut passer au test de
stationnarité.
I-2. Stationnarisation.
1-2-1. Objectif et définition de la
stationnarité.
Nous ne pouvons identifier les caractéristiques
stochastiques d'une série chronologique que si elle est
stationnaire. La stationnarité est la clef de l'analyse des
séries temporelles. Une série chronologique est dite stationnaire
si elle ne comporte ni tendance ni saisonnalité. On dira aussi qu'une
série { yt } est strictement stationnaire si la distribution
conjointe de ( Yt1 ,..., Ytk) est
identique à celle de ( Yt1 + t ,...,
Ytk+ t ), quelque soit k
est un entier ( où
t1 , · · ·
,tk a )
positif arbitraire et (t1, t2,,..., tk, t) une liste de
k + l entiers positifs arbitraires.
Autrement dit, la stationnarité stricte dit que la
distribution conjointe de ( Yt1 ,..., Ytk ) est
invariante quand on fait
glisser dans le temps. Cette condition est difficile à
vérifier et on utilise, en général, une version plus
faible de la stationnarité. On dit qu'une série temporelle
{Yt} est faiblement stationnaire si la moyenne de Yt
et la covariance entre Yt et Yt-l sont invariantes par
translation du temps. Précisément, {Yt} est faiblement
stationnaire si :
(a). E (Yt ) = ì où ì est
une constante indépendante de t,
(b). cov ( Y t , Y t - l )
ne dépend que de l, entier.
La stationnarité faible (ou de second ordre) implique
que le graphe de la série en fonction du temps montre des fluctuations
autour d'un niveau moyen, fluctuations qui se ressemblent, quel que soit la
date autour de laquelle on examine la série.
|