Chapitre 5
Regression multiple a noyaux
associes mixtes
Nous rappelons que si nous avons un couple de
variables aléatoires réelles telles que Y soit
intégrable (E(Y ) < oo) alors la fonction
r(x) = E(Y |X = x)
est appelée fonction de régression de
Y sur X on nous n'avons aucune spécification sur r(x), avec x E R.
Supposons que nous disposons de n-échantillon (X1,Y1) , . . .
, (Xn,Yn) de variables aléatoires de même
loi que (X,Y ), de densité (fonction de masse) de
probabilité inconne. Nous nous proposons ainsi de construire un
estimateur brn de la fonction densité (de masse) inconnue. En
effet dans létude de la régression
non-paramétrique,
nousdistinguonsdeuxmodelesprincipauxlarégressionnon-paramétrique
effetsaléatoires et la régression
non-paramétrique a effets fixes. Dans le premier cas, les
observations Xi sont aléatoires, alors que dans le cas
deffets fixes les Xi sont i.i.d., fixé dans R (Xi = i/n) et
déterministes.
Soit ainsi le modele général
Yi = r(Xi) + ei pour i = 1, . . . ,n, (5.1)
on les ei sont i.i.d., non corrélés avec Xi, de
moyenne nulle et de variance ó2.
5.1 Estimateur de Nadaraya-Watson
Ilexisteplusieurstypesd'estimateursanoyaupourlarégressiondontleplusfameux
est celui de Nadaraya-Watson. Dans le cas univarié
lestimateur de Nadaray-Watson de la fonction
régression r est défini par
Eni=1 YiKx,h (Xi)
(5.2)
brn(x) = Eni=1 Kx,h (Xi) ,
CHAPITRE 5. REGRESSION MULTIPLE A NOYAUX ASSOCIRS 88 MIXTES
contrario,l'estimateur
br(x)estnul.NouspouvonsrepresenterlestimateurdeNadarayaWatson comme
une somme ponderee des Yi:
brn(x) =
|
Xn i=1
|
wx,h(Xi)Yi pour x E fit, (5.3)
|
oU
Kx,h (Xi) (5.4)
wx,h (Xi) = En i=1
Kx,h (Xi)
est la fonction poid telle que Eni=1 wx,h (Xi) = 1,
par convention 0/0=0. La fonction Kx,h
estlafonctionnoyauassociepresenteedansleschapitresprecedents,definisur
Rx,h. Nous pouvons melanger plusieurs types de
noyau associe savoir lesles noyaux associes continus
symetriques ou asymetriques avec
les noyaux discrets standards. La fenêtre h = h(n,K) determine
le niveau de lissage de l'estimation
En se referant au quatrième chapitre de la
thèse (en preparation) de Senga Kiesse (2008), il est
convenable de donner l'estimateur de Nadaraya-Watson sous une forme
plus souple. Pour cela, soit
Nn(x; h)
rnx Dn(x; h) (5.5)
avec
|
1
Nn(x; h) = n
|
Xn i=1
|
YiKx,h (Xi) ,
|
et
|
1
Dn(x; h) = n
|
Xn i=1
|
Kx,h (Xi) = bfn(x).
|
Nous generalisons la definition (5.2) de cet
estimateur au cas multidimensionnel En effet, en utilisant (3.18) et (4.27),
l'estimateur de Ndaraya-Watson devient
brn(x) =
En Y {11p Kj
Y j=1 xi ,hi (Xij) }
(5.6)
En (Trp Kj i=1 11j=1 xi,hi on x
=t (x1i,. . . ,xpi) E ,Kjxi,hi
estlejèmenoyauassocieet Xij
estlaièmeobservation
de la jème composante.
??
|