Nous passons à la partie
économétrie du mémoire. En effet, nous allons enfin
modéliser le phénomène étudier depuis le
début, celui de la production de déchet. Nous débuterons
par une justification économique et économétrique des
variables retenues, puis nous passerons à la partie modélisation
dans laquelle nous effectuerons les tests nécessaires pour valider notre
modèle, puis quand on aura le bon modèle nous finirons par
l'interprétation des résultats.
tous les résultats des tests que nous allons
effectuer vont être présenté dans l'ordre de la page 55
à 57
1) Modélisation :
a. Justification économique des
variables :
Avant de modéliser, il faut avoir une idée des
facteurs économiques qui influence le phénomène
étudié et justifier leur présence.
Nous analysons l'évolution de la production de
déchets ménagers parisiens, pour faciliter
l'interprétation nous avons choisis de prendre les logarithmes de nos
variables afin de faire ressortir une élasticité entre elles.
L'élasticité de la consommation par rapport a la production
de déchets peut s'interpréter comme suit, si la consommation
augmente de 1%, la production de déchets ménagers va augmenter
(respectivement diminuer) de x %, selon le coefficient obtenu.
En plus du logarithme des dépenses moyennes de
consommation, nous avons dû rajouter une autre variable
explicative : « le retard du logarithme des déchets
ménagers parisien (lrd)», autrement dit, on suppose que la
production de déchets d'hier influence la production de déchets
ménagers d'aujourd'hui.
Cette variable se justifie très bien d'un point de vue
économétrique. En effet, sans cette dernière nous avons
notamment des problèmes de significativité des variables,
d'hétéroscédasticité et d'autocorrélation
des résidus, ce qui voudrait dire que notre modèle n'est pas bien
spécifié donc que les résultats obtenus ne sont pas
significatifs et utilisables.
Nous avons effectué un test de racine unitaire, dont
les résultats sont présenté en annexe, ce dernier conclut
qu'il existe une relation plus que proportionnelle entre la production de
déchet à la date « t » et celle à la
date « t-1 ».
On peut aussi justifier la variable retardée d'un point
de vue économique, elle traduirait un changement de comportement de la
population parisienne. Je produisais beaucoup de déchets hier, si rien
n'est mis en place pour modifier mon comportement, rien ne m'empêche de
produire autant si ce n'est plus demain.
Dans le modèle nous avons également
rajouté une constante, elle n'a pas de signification
économique.
Au final, nous allons faire une régression
linéaire par la méthode des MCO sur le modèle
suivant :
LDt = â (1)*C + â (2)*LCt + â
(3)*LRDt + Ut
b. Estimation du modèle par les
MCO :
En théorie, les estimateurs des MCO sont BLUE,
c'est-à-dire que les estimateurs obtenus sont les meilleurs estimateurs
linéaires sans biais, mais aussi convergents et efficaces.
Autrement dit, les estimations obtenues par MCO sont les plus
proches possibles des vraies valeurs.
Pour obtenir de tels estimateurs, il faut
vérifier certaines hypothèses qui sont les
suivantes :
Ø Relation linéaire entre la variable
expliquée et les variables explicatives.
Ø Pas de corrélation entre les résidus et
les variables explicatives (exogènéité des variables
explicatives).
Ø Homoscédasticité et non
autocorrélation des résidus.
Sachant le peu d'observations que l'on a, il nous sera
impossible de tester les hypothèses techniques et asymptotiques, on va
donc supposer les hypothèses suivantes
vérifiées :
Ø L'estimateur obtenu par la méthode des MCO
converge en probabilité vers sa vraie valeur.
Ø Les résidus sont indépendants et de
même loi, ils suivent tous une loi normale.
Sous ces hypothèses nous pouvons appliquer la
méthode des MCO, voici les résultats obtenus :
Dependent Variable: LD
|
Method: Least Squares
|
Date: 05/26/06 Time: 14:57
|
Sample(adjusted): 1950 1989
|
Included observations: 40 after adjusting endpoints
|
Variable
|
Coefficient
|
Std. Error
|
t-Statistic
|
Prob.
|
C
|
1.375430
|
0.563005
|
2.443014
|
0.0195
|
LC
|
0.062288
|
0.023851
|
2.611587
|
0.0129
|
LRD
|
0.692553
|
0.124475
|
5.563805
|
0.0000
|
R-squared
|
0.983898
|
Mean dependent var
|
5.927354
|
Adjusted R-squared
|
0.983027
|
S.D. dependent var
|
0.225276
|
S.E. of regression
|
0.029349
|
Akaike info criterion
|
-4.147096
|
Sum squared resid
|
0.031870
|
Schwarz criterion
|
-4.020430
|
Log likelihood
|
85.94193
|
F-statistic
|
1130.411
|
Durbin-Watson stat
|
2.277632
|
Prob(F-statistic)
|
0.000000
|
A première vue on pourrait dire que nos coefficients
sont significatifs à 95% car les p-values sont toutes
inférieures à 5%. Ils sont tous positifs ce qui valide le
modèle théorique.
De plus, on remarque que la statistique de Durbin-Watson est
proche de 2 ce qui nous laisse croire en l'absence d'autocorrélation des
résidus. Tout ceci est bien évidemment conditionné
à la validité des hypothèses classiques
énumérées ci-dessus. Pour utiliser ces résultats
nous devons donc vérifier que nous n'avons pas de relation fallacieuse
et que les hypothèses supposées vérifiées, le
soient réellement.
C. Test de co-intégration selon
l'approche de Engle et Granger :
Nous avons estimé sur la période 1949-1989 le
modèle suivant :
Ä LDt = â (1)*C + â (2)*LCt + â
(3)*LRDt + Ut
Avec la méthode des MCO nous obtenons :
Ä LD = 1.375429591 + 0.06228832*LC +
0.6925526611*LRD
Nous avons récupéré les résidus de
cette régression, puis nous avons effectué un test ADF sur ces
deniers.
ADF Test Statistic
|
-4.817566
|
1% Critical Value*
|
-4.123
|
|
|
5% Critical Value*
|
-3.461
|
|
|
10% Critical Value*
|
-3.130
|
*MacKinnon critical values
Notre statistique de test étant inférieure à
la valeur critique au seuil de 5%, on peut donc dire que l'on rejette avec 95%
de certitude l'hypothèse nulle. Nos résidus sont stationnaires ce
qui veut dire qu'il existe une relation stable de long terme entre nos variable
malgré qu'elles ne soient pas stationnaires.
On peut affirmer qu'il n'y a pas relation fallacieuse, autrement
dit si notre modèle vérifie les hypothèses classiques des
MCO, on aura estimé le bon modèle.
Ces résultats sont validés par l'approche de
Johannsen, nous ne présenterons pas les résultats de ce test car
l'interprétation nous dépasse.
2. Validation des
hypothèses :
Le risque de relation fallacieuse étant
écarté, nous pouvons nous attarder sur les tests
d'hypothèses nécessaires à la validation du modèle
estimé par les MCO.
Nous traiterons dans un premier temps,
l'Homoscédasticité puis l'autocorrélation.
a. Etude du corrélogramme des
résidus :
A la vue du corrélogramme des résidus, il
apparaît clairement que nos résidus sont des « Bruits
Blancs », ils suivent donc une loi normale (de moyenne nulle et de
variance ²) et sont stationnaires.
Cela prouve que nos variables explicatives sont
exogènes, et qu'il ne manque pas de variable explicative.
b. Test
d'Homoscédasticité :
L'Homoscédasticité correspond au fait que la
variance des résidus est constante, indépendante du temps.
Autrement dit les résidus fluctuent autour de
0 dans un intervalle égale à
2*, correspond à la moyenne des résidus
estimé qui est censée être nulle,
représente l'écart type des résidus, il est
égale à la racine carrée de la variance des
résidus.
Pour tester cette hypothèse nous allons utiliser
l'approche de White, dont nous allons expliciter le principe.
Une fois la régression par MCO du
modèle faite, on récupère les résidus
estimés.
Puis on fait la régression
suivante :
Û² = 0*C + 1*lc + 2* lrd + 3*lc² + 4*
lrd² (+ 5* lc*lrd) + , stationnaire.
Le terme entre parenthèse est à rajouté
dans la version du test de « White » avec les termes
croisés. Une fois cette régression faite par MCO, nous aurons
alors les estimations des coefficients .
L'étape suivante consiste à tester les
hypothèses suivantes :
- H0 : 1 = 2 = 3 = 4 = (5) = 0,
équivaut que les résidus sont égales à une
constante plus un bruit blanc. Il y'a donc Homoscédasticité.
Contre :
- H1 : Il existe un i différent de 0, avec
i= 1, 2, 3, 4, (5), on conclut à
l'hétéroscédasticité des résidus, du fait
que la variance de nos résidus est proportionnelle à au moins une
variables explicative du modèle.
Nous avons fait le test avec les termes croisés et non
croisé. Nous ne présenterons que le test avec les termes
croisé. Mais les listings des deux tests sont proposés en
annexe.
White Heteroskedasticity Test :
|
F-statistic
|
1.753949
|
Probability
|
0.149005
|
Obs*R-squared
|
8.201822
|
Probability
|
0.145458
|
La p-value de la statistique de test est supérieure
à 5%. Le risque de se tromper en rejetant l'hypothèse H0 est trop
grand, nous acceptons donc celle-ci.
Avec l'approche de White, on est sur à 95 % d'avoir
l'Homoscédasticité de nos résidus.
Le test sans les termes croisés conclut au même
résultat.
Pour confirmer cela, il aurait été mieux de
faire le test de Breusch-Pagan, ou tout autre test permettant de confirmer la
présence ou non d'hétéroscédasticité. Le
logiciel que nous utilisons, EViews dans la version 3.1, ne
propose pas d'autres tests. Aussi nous devrons nous contenter de ces tests.
Le problème de l'Homoscédasticité
étant résolus, nous allons passer au problème de
l'autocorrélation des résidus.
c. Test d'auto
corrélation :
L'autocorrélation des résidus, signifie que les
chocs qui ont eu dans le passé (t-h) h différent de 0) influence
le choc à l'instant t.
Autrement dit la covariance entre U (t-h) et U (t), avec h
différent de 0, n'est pas nulle. Cela voudrait dire qu'il existe une
relation entre les deux résidus.
Nous allons tester cela grâce au test de
Breusch-Godfrey, le principe de ce test est le suivant, on estime notre
modèle par les MCO, puis on récupère les résidus et
on régresse ce modèle :
Ût = 1* Ût-1 + 2* Ût-2+ 3*
Ût-3 + 4* Ût-4+.....+ n* Ût-n + *Xt+ t, t
stationnaire.
Xt représente le vecteur des variables explicatives, on
l'insert afin de gagner en précision, car on régresse Ût
plutôt que Ut qui est non observé.
Ceci étant fait on test les hypothèses
suivantes :
- H0 : U (t) non
autocorrélé, équivaut que les n sont tous
égales à 0
Contre :
- H1 : U (t) autocorrélé,
signifie qu'au moins un est différent de 0, statistiquement parlant
cela voudrait dire que notre résidus suit un processus
auto-régréssif d'ordre n (dit AR (n)).
Ä Cas particulier : n = 1, on test
donc la corrélation entre Ut et Ut-1.
Cela revient à faire le test de Durbin-Watson.
On test donc :
- H0 : = 0, il n'y a pas
d'autocorrélation.
Contre :
- H1 : différent de 0, on a de
l'autocorrélation
La statistique de Durbin-Watson (DW) est égale
à : 2*(1-°), où ° est le de la régression
par MCO du modèle Ût = * Ût-1+t, t stationnaire.
On sait que = 0, si la statistique de Durbin-Watson est
proche de 2, plus précisément si elle est compris pour notre
modèle entre 1.60 et (4-1.60) soit 2.4.
Ce test est réalisé pour un seuil de 5%, notre
statistique de DW vaut 2.277632, elle est donc comprise dans
l'intervalle. A 95%, on est sur que nous n'avons pas d'autocorrélation
entre Ut et Ut-1.
Faisons le test de Breusch-Godfrey pour savoir si notre
résidu suit un processus AR (n) avec n différent de 1, car l'AR
(1) a déjà été testé par le test de
Durbin-Watson.
Nous allons présenté les résultats de ce
test pour un AR (2), mais les conclusions sont les mêmes pour n = 3, 4,
5, etc.
Breusch-Godfrey Serial Correlation LM Test:
|
F-statistic
|
2.140991
|
Probability
|
0.132680
|
Obs*R-squared
|
4.360250
|
Probability
|
0.113027
|
La p-value de la statistique de Breusch-Godfrey étant
supérieur à 5%, on accepte avec 95% de certitude
l'hypothèse H0. Ainsi nous avons montré que nos résidus
n'étaient pas autocorrélés.
Toutes les hypothèses nécessaires à la
validation des résultats obtenus par les MCO pouvant être
testé grâce à notre logiciel, on été
validé. Dans ce cas, les MCO sont BLUE ce qui veut dire sont des
estimateurs sans biais, convergent et efficace. Si les hypothèses
n'avaient pas été validées, nous aurions dû utiliser
d'autres méthodes d'estimation que les MCO comme les Moindres
Carrés Généralisés (MCG/MCQG) s'il y a des
problèmes d'autocorrélation ou
d'hétéroscédasticité des résidus.
On suppose que les hypothèses non testées sont
vérifiées, il nous reste à voir, avant
d'interpréter les résultats, si notre modèle est robuste.
3. Robustesse du
modèle :
Les hypothèses classiques des MCO étant
vérifiées, il nous reste a tester la robustesse de notre
modèle afin d'affirmer que ce dernier modélise le mieux la
production de déchets ménagers parisiens.
Ce test consiste à insérer de nouvelles
variables dans notre modèle. Si cette insertion ne modifie pas
sérieusement nos anciennes variables explicatives, tout en concluant
à la non significativité des variables nouvellement
insérées, alors notre modèle est robuste et les variables
insérées sont superflues.
Pour ce faire, nous avons choisis de rentrer dans le
modèle deux variables qualitatives. La première symbolise
l'arrivée en France, en 1955, de l'emballage de type
« Tetrapak » (très utilisé pour conditionner
le lait etc.).
|