1.1.2 Estimation
Lorsque nous disposons de n observations (yi,
xi1,...,xip), i = 1,...,n (ici i =1,...,7) , qui sont des
réalisations des variables aléatoires (Yi, Xi1,...
,Xip) , l'équation de régression s'écrit
:
yi=ao+a1xi1+...+apxip+åi i = 1,...,n
La problématique reste la même que pour la
régression simple :
· estimer les paramètres (ai) iå{o,...,p}
exploitant les observations ;
· évaluer la précision de ces estimateurs
;
· mesurer le pouvoir explicatif du modèle ;
· évaluer l'influence des variables dans le
modèle : - globalement (les p variables en bloc) et,
- individuellement (chaque variable) ;
· évaluer la qualité du modèle lors de
la prédiction (intervalle de prédiction) ;
· détecter les observations qui peuvent
influencer exagérément les résultats (points
atypiques).
1.1.3 Notation matricielle
Nous pouvons adopter une écriture condensée qui
rend la lecture et la manipulation de l'ensemble plus facile. Les
équations suivantes :
y1 = ao+a1x1,1+...+apx1,p+å1
y2 = ao+a1x2,1+...+apx1,p+ån
...
yn = ao+a1xn,1+...+apxn,p+ån
60
Peuvent être résumées avec la notation
matricielle
Mémoire de Master II soutenu par : NGASSEU NOUPIE
Elie
|
|
|
|
|
|
|
|
|
ao ao
.
.
.
ap
|
|
|
1
...
1
|
|
|
|
|
|
|
|
=
|
|
. . .
. . .
. . .
|
x1,p
. . . Xn,p
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Soit de manière compacte : y = Xa+å Avec
· y est de dimension (n,1)
· X est de dimension (n,p+1)
· a est de dimension (p+1,1)
· e est de dimension (n,1)
· la première colonne sert à indiquer que
nous procédons à une régression avec constante.
1.1.4 Hypothèses
Comme en régression simple, les hypothèses
permettent de déterminer : les propriétés des estimateurs
(biais, convergence) ; et leurs lois de distributions (pour les estimations par
intervalle et les tests d'hypothèses).
Il existe principalement deux catégories
d'hypothèses :
Hypothèses stochastiques
· H1 : Les Xj sont déterminées sans
erreurs, j=1,..., p ;
· H2 : E(åi) = 0 Le modèle est bien
spécifié en moyenne
H3 : V(ei) = ó2 å i
Homoscédasticité des erreurs (variance constante)
H4 : cov (ei,ej) = 0 åi ? j Pas
d'autocorrélation des erreurs
H5 : cov (Xi, åj) = 0 å i ? j Les
erreurs sont linéairement indépendantes des variables
exogènes.
H6 : å : ~ N n (0,
ó2In) Les erreurs suivent une
loi normale multidimensionnelle (H6 implique les hypothèses H2, H3 et H4
la réciproque étant fausse car les 3 hypothèses
réunies n'impliquent pas que å soit un vecteur gaussien). Ce qui
est globalement le cas dans notre étude sur l'incidence de la PGF des
facteurs sur la pauvreté.
Hypothèses structurelles
· H7 : absence de colinéarité entre les
variables explicatives, i.e. X'X est régulière, det (X'X) ? 0 et
(X'X)-1 existe (remarque : c'est équivalent à rang (X)
= rang (X'X) = p+1) ;
61
Mémoire de Master II soutenu par : NGASSEU NOUPIE Elie
·
· H8 : tend vers une matrice finie non singulière Q
lorsque n + 8 ;
H9 : n >p+1 Le nombre d'observations est
supérieur au nombre de variables + 1 (la constante). S'il y avait
égalité, le nombre d'équations serait égal au
nombre d'inconnues aj, la droite de régression passerait par
tous les points, nous serions face à un problème d'interpolation
linéaire (voir Interpolation numérique). Ce qui est globalement
le cas dans cet étude.
Ecriture matricielle de l'hypothèse
H6
H2 : E(å) = E
0
.
.
.
0
å1
... ån
=
Sous l'hypothèse d'homoscedasticité et d'absence
d'autocorrélation, la matrice de variance-covariance du vecteur des
erreurs peut s'écrire :
1 0 . . . 0
|
0 .
1 .
. . .
|
. . 0
. . 0
. .. . . .
1
|
=
|
62
0 . . .
0
|
0 .
62 .
.
. . . .
|
. . 0
. . 0
. . .
..
. . 62
|
· H3 et H4 : cov (å) =
ó2In = ó2
. . .
Régresseurs stochastiques
Dans certains cas, l'hypothèse (H1) est intenable : les
régresseurs X sont supposés
aléatoires. Mais dans ce cas, on suppose que X est
aléatoire mais est indépendant de l'aléa å.
On remplace alors l'hypothèse (H2) par une
hypothèse sur l'espérance conditionnelle :
H2 : E(åi | X) = 0
De même, il faudrait changer en conséquence les
hypothèses (H3), (H4) et aussi (H5).
|