aplicacion de la suavizacion no parametrica del tipo « k -puntos proximos» a modelos de...

15
TRABAJOS DE ESTAQISTICA Vol. 5. n6m. 1, 1990. pp. 53 a 67 APLICACION DE LA SUAVIZACION NO PARAMETRICA DEL TIPO <<K-PUNTOS PROXIMOS)) A MODELOS DE REGRESION LINEAL WENCESLAO GONZALEZ MANTEIGA Dpto. de Estadistica e I.O. Facultad de Matem~ticas Universidad de Santiago de Compostela RESUMEN En el modelo de regresi6n lineal y = E(Y/X = x) = Ox, donde (X, Y) es un vector aleatorio bidimensional, del que se dispone de una muestra {(XI, YI),...,(X.,Y~)}, se han introducido recientemente una clase general de estimadores para 0 definida como aqueUos valores que minimizan el funcional: ~/(0) = f (~n(g) -- OX) 2 d~n(X ) donde ~, es un estimador no param6trico del tipo nfcleo o histograma para (x) = E(Y/X = x) y ~, una funci6n de ponderaci6n. En este trabajo se extiende tal estudio cuando inicialmente se usa como estimador piloto para a uno del tipo de los k puntos pr6ximos. Se proporcio- nan datos de simulaci6n que avalan los estimadores propuestos. Palabras claves: Suavizaci6n no param6trica, regresi6n lineal. Clasificaci6n A.M.S. 1980: 962J05, 62G05. ABSTRACT In the linear regression model y = E(Y/X = x) = Ox = ~(x) where (X, Y) is a two-dimensional random vector, with an initial sample {(XI, Y1) ..... (Xn, Y~)}, Recibido diciembre 1988. Revisado julio 1989. 53

Upload: wenceslao-gonzalez-manteiga

Post on 23-Aug-2016

216 views

Category:

Documents


1 download

TRANSCRIPT

Page 1: Aplicacion de la suavizacion no parametrica del tipo «  K  -puntos proximos» a modelos de regresion lineal

TRABAJOS DE ESTAQISTICA Vol. 5. n6m. 1, 1990. pp. 53 a 67

A P L I C A C I O N D E LA S U A V I Z A C I O N N O P A R A M E T R I C A

D E L T I P O <<K-PUNTOS P R O X I M O S ) ) A M O D E L O S

D E R E G R E S I O N L I N E A L

WENCESLAO GONZALEZ MANTEIGA Dpto. de Estadistica e I.O. Facultad de Matem~ticas Universidad de Santiago de Compostela

RESUMEN

En el modelo de regresi6n lineal y = E(Y /X = x) = Ox, donde (X, Y) es un vector a leator io bidimensional , del que se dispone de una muestra {(XI, YI),...,(X.,Y~)}, se han introducido recientemente una clase general de estimadores para 0 definida como aqueUos valores que minimizan el funcional:

~/(0) = f (~n(g) -- OX) 2 d~n(X )

donde ~, es un estimador no param6trico del tipo nfcleo o histograma para �9 (x) = E(Y /X = x) y ~ , una funci6n de ponderaci6n.

En este trabajo se extiende tal estudio cuando inicialmente se usa como estimador piloto para a uno del tipo de los k puntos pr6ximos. Se proporcio- nan datos de simulaci6n que avalan los estimadores propuestos.

Palabras claves: Suavizaci6n no param6trica, regresi6n lineal.

Clasificaci6n A.M.S. 1980: 962J05, 62G05.

ABSTRACT

In the linear regression model y = E(Y/X = x) = Ox = ~(x) where (X, Y) is a two-dimensional random vector, with an initial sample {(XI , Y1) ..... (Xn, Y~)},

Recibido diciembre 1988. Revisado julio 1989.

53

Page 2: Aplicacion de la suavizacion no parametrica del tipo «  K  -puntos proximos» a modelos de regresion lineal

TRABAJOS DE ESTADISTICA. Vol. 5. Nztm. 1, 1990

a new class of estimators for 0 has been recently introduced as those minimi- zing:

~1(0) = ; (~n(X) -- OX) 2 df~.(x)

where ~. is a nonparametric pilot estimator for ~ of kernel or histogram type and f~. a weighthing function.

In this paper such study is generalized to the k-nearest neighbor type estimators for ~. Simulations showing the good behaviour of the new estima- tors are also developed.

Key words: Nonparametric smoothing, linear regression. classification A.M.S. 1980: 62J05, 62G05.

1. I N T R O D U C C I O N

Dado el modelo Y = OX + e, en el que (X, Y) es un vector aleatorio bidimensional y e una variable aleatoria independiente de X (variable error) de media cero y varianza a 2, se pretende estimar el par~tmetro 0 asociado al modelo.

Dada una muestra inicial de dicho modelo {(X 1, YI), ..., (X., I:.)} es posible definir una clase general de estimadores 0. para 0 como aquellos que minimizan el funcional:

q/(O) = f (a.(x) - Ox) 2 df~.(x) (1)

donde ~. es un estimador no param6trico para ~ y f~. una funci6n de ponderaci6n.

E1 funcional (1) es realmente general y contiene como caso particular a los estimadores minimos cuadr~ticos (tradicionalmente utilizados a 1o largo de este siglo) sin m~is que tomar como elecciones iniciales pra las ~. y ~ . las empiricas:

~.(x) = ~ Y~l{x,}(x) y f~, (x)= _1 ~ l{x,~<x} = F.(x) i = 1 /'/ i = 1

Sin embargo una elecci6n suave de ~. y f~. para esta metodologia funcional produce una clase general de estimadores q u e e n numerosos

54

Page 3: Aplicacion de la suavizacion no parametrica del tipo «  K  -puntos proximos» a modelos de regresion lineal

WENCESLAO GONZALEZ MANTEIGA. APLICACION DE LA SUAVIZACION NO PARAMETRICA...

casos contiene estimadores mils eficientes que los clhsicos minimos cuadr~tticos.

De entre las posibles elecciones desarrolladas hasta el momento (ver Faraldo Roca-Gonzfilez Manteiga (1987), Crist6bal Crist6bal-Faraldo Roca-Gonz~dez Manteiga (1987), Gonzfilez Manteiga-Vilar Fernfindez (1987), Gonz~lez Manteiga (1988)) destaca aquella que toma como estimadores piloto,

~6,.(x, x+) an(X) = i= 1

am(X, x , ) r = l

Y

~_ ~" f_ 6"(~ X+)dt n.(x) = L(t) dt = (2) oo i = 1 m

donde {6,. :R • R -4 R}.,=,.<.)+~o es una sucesi6n de funciones medibles siendo f . un est imador no param&rico de la densidad de X que suponemos existente.

Las hip6tesis mils manejables sobre {6=} en diehos articulos haeen que sean las eleceiones mils utilizadas el m&odo nfe leo o el m6todo histograma. Ahora bien, tanto uno r otro presentan una varianza asint6tiea, como estimadores no param&ricos de la funei6n de regre- si6n, dependiente de la densidad y de la varianza condit ional en el punto x en que se estima (ver Collomb (1976), para m/is detalles), es deeir, que si h. es el parfimetro ventana, por ejemplo, para el m~todo nfieleo,

1 / x - u\ =

\ n . ]

donde K" l~--+ R es una funci6n, se verifica que

1 v(x) fKZ(u )du Var(an(X)) '-, nh~. (x~-

J

donde v(x) = Var (Y/X = x) es la varianza condicional. Por lo tanto, a la vista de la estructura del funcional (1), aquellos

puntos de baja probabilidad para la variable X, irfin acompafiados de

55

Page 4: Aplicacion de la suavizacion no parametrica del tipo «  K  -puntos proximos» a modelos de regresion lineal

TRABAJOS DE ESTADISTICA. Vol. 5. Ntim. 1, 1990

una gran varianza por ~. en detrimento de la eficiencia que pueden heredar los estimadores de 0.

Un est imador no param6trico ~. que no posee este defecto en los puntos de baja probabil idad para X es el introducido por Yang (1981) y ampliamente estudiado por Stute (1984) definido por:

1 ~ YiK(F.(x)-_F.(X,!'~ dr.(x) = nh. i= , h. .] (3)

dondeKesunafunci6nndcleo(K>~O, fK(u)du=l).Aesteestima- dor se le atr ibuye el nombre de <<k puntos pr6ximos , por ser como una extensi6n natural del caso

1 K(u) = ~ 1[-1, u(u)

con k = k. = nh., en el que realmente lo que se hace para un punto x es promediar sobre los Y~ cuyos X i estgm entre los k m~is pr6ximos a x. Para este est imador (3) se verifica

i f Var (~.(x)) ~ ~ v(x) K=(u) du

que no depende de la densidad de X. Dado que F,(x) es la distribuci6n empirica de la muestra {X 1, ..., X.}

y por tanto un estimador para la distribuci6n F(x) = f(t) dt consi-

deremos en lo que sigue dos posibles situaciones:

i) F es conocida y ii) F es desconocida.

Para la situaci6n i), ~ . ( x ) = F(x) en el funcional (1) y ~. es el

estimador corregido de (3)

1 ~ yiK(F(x)-F(X,)~ ~.(x) = ~ ,=, h. ,] (4)

56

Page 5: Aplicacion de la suavizacion no parametrica del tipo «  K  -puntos proximos» a modelos de regresion lineal

WENCESLAO GONZALEZ MANTEIGA. APLICACION DE LA SUAVIZACION NO PARAMETRICA...

obteni~ndose como clase general de estimadores para 0 a partir de la optimizaci6n funcional, la definida por:

(1/nh,,) ~ Y~ fxK(F(X) h[(X'))dF(x ) 0 , = ,=1 (5)

f x dF(x)

Mientras que para la si tuaci6n ii), f~.(x) = F,,(x) y ~n es el es t imador (3) dando lugar a la clase general de est imadores

(l/n) ~ X,a.(Xl) 0. = ,= 1 (6)

n

( l /n) E X2 i = 1

2. P R O P I E D A D E S DE C O N S I S T E N C I A Y E F I C I E N C I A

A S I N T O T I C A DE LOS N U E V O S E S T I M A D O R E S

En los dos teoremas que siguen se establece la consistencia y la eficiencia asint6tica de los est imadores (5) y (6), bajo hip6tesis razona- blemente amplias.

2.1. Teorema

Sea 0. una sucesi6n de est imadores del t ipo (5). Supongamos que se verifica:

a) K es una funci6n de densidad acotada y de soporte compacto.

b) X es una variable aleatoria cuya densidad f conocida tiene soporte compacto, posee derivadas de primer orden, estfi acota- da superiormente y verifica f(x) > a, para algfin a > 0, u x ~ so- porte (f).

c) E(Y4) < oo.

Entonces:

i) O~ ~ 0 casi seguro si h. -~ O.

57

Page 6: Aplicacion de la suavizacion no parametrica del tipo «  K  -puntos proximos» a modelos de regresion lineal

TRABAJOS DE ESTADISTICA. Vol. 5. Ndm. 1, 1990

" ['^ t r2E(X2)+02 Var(X2!) ~/-nh.~O. ii) x /~( (~ . -0)&/v~o, ~ si, ademfis

2.2. Teorema

Bajo las hip6tesis del teorema 2.1 y con el supuesto de que f sea deseonoeida se verifiea:

i) 0. ~ 0 casi seguro si nh. ~ ~ , lnh~ -1 = o(nh.) y

In h~- ' - - ---+ O 0 .

In In n

ii) x/'n(0. -- 0) & N 0, E- ~ , si adem~s x/~h. ~ 0.

donde 0" viene definido a trav6s de (6).

Demostrac i6n del Teorema 2.1. La demostraci6n de i) es an~loga a la desarrollada por Crist6bal-Faraldo-Gonz~lez Manteiga (1987) cuan- do se toman estimadores piloto del tipo (2).

Por otro lado para la demostraci6n de la normalidad asint6tica, es decir de ii), basta con ver que si

X i Y'Jn ~ n _ _ i = 1

E(x

es el estimador minimo cuadr/Rico modificado para este contexto (ya que el real seria

n

Z x,v, 0* = ),

i = 1

considerando la diferencia x//-n(O~ - 0") se verifica que x/~(O~ - 0") & O. En efecto, teniendo en cuenta que

58

Page 7: Aplicacion de la suavizacion no parametrica del tipo «  K  -puntos proximos» a modelos de regresion lineal

WENCESLAO GONZALEZ MANTEIGA. APLICACION DE LA SUAVIZACION NO PARAMETRICA...

F(x) -- F ( x i ) con el cambio de variable z =

h. Tay lor de pr imer o rden se obt iene

y con un desarrol lo de

~ r ' 1 - - - - X i + o(h.)}

y c o m o /I n

I x/~ i = i + E( Y n

se verifica apl icando el t eo rema central del limite que

~1 ( Y' - E(Y,)) / ~ ' . = Or(1 )

n

y, por consiguiente usando las hip6tesis sobre h. y f : Ix/~(O. - 0")1 =

= Or(1 ), es decir, x/~(O. - 0*)--* 0 en probabil idad, P o r tan to la dis- t r ibuci6n limite de 0. es la m i s m a que la de 0* verificfindose el enuncia- do ii) del teorema. #

Demostraei6n dei teorema 2.2. E1 es t imador (6) admi te el fo rmato equivalente

(l/n) ~. Y [ r ] f F : l ( ~k + ) o. = ,=1 r K(o )

n

(l /n) 2 Xi 2 i = 1

dco

(7)

d o n d e Y[r] , r = 1, .... n, es el Y~ cor respondien te al X(,) den t ro de la m u e s t r a o r d e n a d a X(1 ) ~< ... ~< X(.); k. = nh,, y F~ 1 es la l l a m a d a funci6n cuanti l inversa:

F~-~(u) = inf {t/F.(t) >>. u}.

59

Page 8: Aplicacion de la suavizacion no parametrica del tipo «  K  -puntos proximos» a modelos de regresion lineal

TBABAJOS DE ESTADISTICA, Vol, 5. Ntim. 1. 1990

Una expresibn que nos ser~t mhs ~til para el estimador (7) es la dada por

(I/n) ~ Yi f F~ 1(o9h. + F~(Xi))k(og) do9 O. = '=' (8)

Si nos preocupamos 6nicamente del numerador de la expresi6n (8), se tiene

Y~ f F~- l(coh. + F.(X,))k(a 0 dto i = 1

i = 1

F- 1(o9h,, + F(Xi))k(og) dco

Yi f F; l ((oh. + F.(Xi))k(og) do9 i = 1

/l

Yi f F~ 1(o9h. + F(X,))k(og) do,) i = 1

rt

+

+ Y~ I F~ 1(oh,, + F.(X,))k(aO do9

i = l

n

Yi F- l(coh. + F(Xi))k(o~) do,) i = 1

Yl = Al + A2.

Obs6rvese que II

60

Page 9: Aplicacion de la suavizacion no parametrica del tipo «  K  -puntos proximos» a modelos de regresion lineal

WENCESLAO GONZALEZ MANTEIGA. APLICACION DE L4 SUAVIZACION NO PARAMETRICA..,

siendo

A3 = sup IF~ 1(o9h,, + F.(Xi)) - F~ l(coh,, + F(gi))l = l <~i<<.n

= 0( sup IFn(S,) - F(X,)I) l <<.i<~n

con p robab i l idad uno (Gaenssler-Stute (1987) (3.11)). P o r tanto, utili- zando la acotaci6n de Dvoretzy, Kiefer y Wolfowitz (1956) se sigue

Aa = 0 con probabi l idad uno y Ax ~ 0 c.s.

Por lo que respecta a A 2

siendo

IA21

I1

A 4 = sup l <~i<~n

= s u p l <<.i<~n

]F~ ~(ogh~ + F(X,)) - F-1(o9h. + F(X,))[ =

IF-~(-PZ 1(o9h. + F(XI))) - F-1(o9h. + F(Xi))I

con probabi l idad uno, donde F . es la dis tr ibuci6n empirica de {F(XI ) , . . . ,F (X . ) } , es decir de u n a mues t r a uniforme, apl ic~ndose la

ident idad conocida F~- l(u) = F - 1(/7~- l(u))" Cons ide rando el desarrol lo de Tay lor de orden uno de F - 1 en cada

p u n t o ogh. + F(xl), i = 1,..., n; y las p rop iedades impues tas a F se

verifica

A 4 = O( sup ]F~ 1(o9h. + F(Xi)) - (oh . + F(Xi))] ) = l <~i<~n

= 0(sup I/r~ - 1(0 - tl) con probabi l idad uno.

Apl icando ahora que sup tF~- 1(0 - t[ = sup IF.(t) - tl (ver, por ejem- plo, P. Gaenssler-W. Stute (1987), para m~is detalles) se deduce que

= - - con probabi l idad uno, como consecuencia de la

acotaci6n de Dvore tzky-Kiefer y Wolfowitz (1956). Po r consiguiente,

tambi6n se tiene A 2 ~ 0 c.s.

61

Page 10: Aplicacion de la suavizacion no parametrica del tipo «  K  -puntos proximos» a modelos de regresion lineal

TRABAJO$ DE ESTABI$TICA. Vol. 5. Ndm, 1, 199(]

Como, por otro lado,

Yi f F-l(COhn i = 1

+ F(X3)K(o9 ) drn c . s . , OE(X2),

teniendo en cuenta lo probado: A~ + A 2 ~ 0 c.s. , resulta obvio que O. --~ 0 C.S.

Para la demostraci6n relativa a la normalidad asint6tica (aparta- do ii)) consideraremos la diferencia

A =

n f n Y~ F~- x(cnh. + F.(Xi))K(tn) do~ ~ YiX i

i = l i = l

rl 71

verificfindose

n

Y~ f (F~- 1(o9h. + F.(X,) - F~ X(F.(X,))K(o9) do9

t" Z Yi l (F; t(ogh. + F.(Xi)) - F - l (wh . + F.(Xi)) +

n i = 1 J + F-l(ogh. + F.(X3) - F - l ( F . ( X i ) ) + F-I (F. (X3) --

-- F ; I(F.(Xi)))K(m) dfo.

Por tanto llamando ft,(t) = x /~ (F; l(t) - F - 1(0 ) al proeeso empirico cuantil, se tiene

x/~ A =_ _1 ~ Yi f (fl.(ogh. + F.(X,)) -- fl,(F.(Xi)))K(rn) drn + ?Z i = 1 J

+ ~ ~ Y~ f ( V - 1(o9h. + V.(Xi)) - F - I(F.(XI)))K(o9 ) dw = A x + A 2 . 1"/ i = 1 J

Aplieando los resultados relativos al m6dulo de oseilaei6n de ft, (Teorema 1, III de Mason (1984)) se verifica que A1 ---} 0 e.s.

Por otro lado, aplicando la eontinuidad uniforme de F -x, la hi-

p6tesis x/~ h.--* 0 y la ley fuerte de los grandes nfimeros, se eoneluye A 2 ~ 0 c.s.

62

Page 11: Aplicacion de la suavizacion no parametrica del tipo «  K  -puntos proximos» a modelos de regresion lineal

WENCESLAO GONZALEZ MANTEIGA. APLICACION DE LA SUAVIZACION NO PARAMETRICA...

Como consecuencia de todo ello x//-n A ~ 0, teniendo por tanto 0, la

misma distribuci6n asint6tica que

YiX 0 , __ i = 1

X /n i = l

1o cual concluye la prueba de ii).

3. E S T U D I O DE S I M U L A C I O N C O M P A R A T I V O

En el apar tado anterior comprobamos que las nuevas estimaciones definidas para el parfimetro 0 con la metodologia funcional definida en (1), est imaciones 0 n dadas en (5) y (6) (F conocida y desconocida, respectivamente) tenian un buen funcionamiento asint6tico con una varianza asint6tica id6ntica a la de los estimadores minimos cuadr~tti- COS.

Una pregunta que obviamente cabe plantearse es: Lcufil de ambos estimadores posee un mejor funcionamiento en muestras pequefias?

Una medida comparat iva t radicionalmente utilizada es el error cuadrfitico medio (M.S.E.: Mean Square Error) definido para una estimaci6n cualquiera como M.S.E.(0) = (sesgo 0) 2 + Var (0).

Para el modelo Y = OX + e aqui t ra tado el es t imador minimo cuadrfitico 0", por ser un estimador insesgado, posee a partir de una muestra de tamafio n u n M.S.E. dado por

Var (0") - M.S.E. (0") = tr2E(X2) + 0.2 Var (X 2) 2

cuando F es conocida y

Var (0.*) = M.S.E. (0.*) --, - -

cuando F es desconocida. Para F conocida

YiX i/n On, ~ i = 1

E(X 2)

~7 2

n (X 2)

63

Page 12: Aplicacion de la suavizacion no parametrica del tipo «  K  -puntos proximos» a modelos de regresion lineal

TRABAJOS DE ESTADISTICA. Vol. 5. Ndm. 1, 1990

y la varianza es exacta y para F desconocida

n*__ i = l

i=1

y la varianza es aproximada. La nueva estimaci6n 0, dada por (5) caso de F conocida posee un

M.S.E. del t ipo

1 ( ( ,~))2 M.S.E. (0~) = n(E(X2)) 2 {0 2 Var (X 2) + tr2E(X 2) q- nh 2 E

-- h . ( (EO2E(Xa f ' (X ) / f a ( x ) ) + 2(Var(Y) +

+ 0 2 ( E ( X ) ) 2 ) E ( X f ' ( X ) / f a ( X ) ) ) } (9)

el cual es obtenido aplicando hip6tesis de diferenciabilidad y t6cnicas es t indar relativas a los desarrollos de Taylor.

Por otro lado, cuando F es desconocida la expresi6n para el M.S.E. (0.) con 0, definida por (6) es enormemente mils complicada de obtener, po r lo que, en lo que sigue desarrollaremos su estudio compa- rativo asi c o m o el de On dado en (5) con respecto al min imo cuadr i t ico 0* mediante algunos estudios de simulaci6n.

Las comparaciones simuladas que desarrollamos son las siguientes:

i) 0. con 0* para f que se supone conocida y uniforme en [0, 1], siendo Y = X + e distr ibuida segOn una N(0, 1).

ii) 0. con 0* para f que se supone conocida y creciente en [0, 1], siendo Y = X + e el mode lo anterior y

iii)

iv)

f ( x ) = 1[0,1](x).(x + ~).

0. con 0* para f que se supone desconocida pero siendo 6sta en el mode lo simulado una uniforme como en i).

0~ con 0* para f que se supone desconocida pero siendo 6sta en el mode lo s imulado la densidad creciente de ii).

Para todas las situaciones t o m a m o s como funci6n K la definida por

64

Page 13: Aplicacion de la suavizacion no parametrica del tipo «  K  -puntos proximos» a modelos de regresion lineal

WENCESLAO GQNZALEZ MANTEIGA. APLICACION DE LA SUAVIZACION NO PARAMETRICA...

1 K(u) = ~ 1[_ 1,1](u) (tambi6n l lamado nficleo uniforme) y los estimadores

que se obtienen son los siguientes:

Estimador minimo

cuadr/ttico (0") Estimador nuevo 0.

i) 0". ~ Y~X,/n ~ Y~X,/n - E ( X ~ ) G.*- E(X2 )

ii) 0* = ~ Y~X,/n E(x ~)

0~ (dado por la expresi6n 10 abajo).

iii) 0* = ~ Y~X, O. = ~-' X,~.(X,) Zx? Ex?

con ~. dado por (3)

Y,X, Z x:.(x,) iv) 0 " - ~ 0 " - Z X2

, , 1 ;4 }} O. = 5nh. i=x - 2-- + 2-4 ~ + B~)3 + 2 x/1 + A~)3 (10)

siendo A, = max {0, F(X,) - h.} y B, = min {1, F(X,) + h.} i = 1 .... ,n

X 2 X

con F(x) = --~ + -~.

Con 1o cual en la situaci6n i) 0* = 0~ no habiendo lugar a posibles comparaciones mientras q u e e n las otras situaciones si se poseen estimaciones distintas.

De esta forma para los mo~elos ii), iii) y iv) realizamos simulaciones de tamafio n: {(X l, I:1) .... , (X., Y~)} que se van replicando hasta N veces:

Y,),...,(X,,y2)}, {(X~, N N {(X~, Y~),...,(X~, y X)}, {(X 2, 2 2 .-., Y,) ..... (X., Y~)},

dando lugar a las estimaciones: {0 *~ ..... 0 *N} para minimos cuadrados y {0.1, ..., 0, N} para los nuevos estimadores.

65

Page 14: Aplicacion de la suavizacion no parametrica del tipo «  K  -puntos proximos» a modelos de regresion lineal

TRABAJOS OE ESTADISTICA. Vol. 5. Nbm. 1, 1990

Un consiguiente c~tlculo del error cuadr~ttico medio en el muestreo simulado:

M.S.E. (0") = 1 + i= 1 N

M

para m.c.,

para los 0,,

nos permiten comparar ambos. Para la generaci6n de los nfimeros pseudo aleatorios se utiliz6 el

comando randomize en conjuncibn con la hora marcada en el reloj programado internamente de un ordenador compatible-IBM.

Algunos resultados obtenidos con N = 100 y n = 50 vienen refleja- dos en la tabla siguiente:

M.C[N.E M.CIN.E M.CIN.E Ventana (Sesgo) z Varianza M.S.E.

ii) hn=0,1 2 ,6x10-s13 ,2x10 -3 4,6 x 1 0 - 214,01x10 -2 4,6 x 1 0 - 214,3 x10 -2

iii) hn=0,16 6 ,6x10-s12,15x10 -3 5,3 x 1 0 - 214,86 x10 -2 5 ,3x10-215• -2

iv) hn=0,16 7 x 10-615 x 10 -3 4,8 x 10-214,1 • 10 -2 4,8 • 10-214,6 x 10 -2

en la cual se puede observar la mejora de las nuevas estimaciones respecto de los minimos cuadrhticos con el criterio del M.S.E.

En el estudio de simulaci6n aqui desarrol lado hemos utilizado ventanas elegidas de una forma subjetiva. Un problema que permanece abierto ante pr6ximos trabajos es la consideraci6n de posibilidad de utilizar ventanas automhticas construidas a partir de la muestra y que 6stas hagan a l a s nuevas estimaciones m~ts eficientes que las minimo cuadr~tticas.

A G R A D E C I M I E N T O S

Mi agradecimiento a la lectura critica de los referees. Sus comenta- rios permit ieron una notable mejoria sobre la presentaci6n de una versi6n inicial de este articulo.

66

Page 15: Aplicacion de la suavizacion no parametrica del tipo «  K  -puntos proximos» a modelos de regresion lineal

WENCESLAO GONZALEZ MANTEIGA. APLICACION DE LA SUAVIZACION NO PARAMETRICA..,

BIBLIOGRAFIA

1. COLLOMB, G. (1976): <<Estimation non parametrique de la regresion para la methode du noyau>>. Tesis doctoral. Universidad de Toulouse.

2. CRISTOBAL CRISTOBAL, J. A.-FARALDO ROCA, P.-GONZALEZ MANTEIGA, W. (1987): t<A class of linear regression parameter estima- tors constructed by nonparametric estimation>>, Annals of Statistics, 15, 2, 603-610.

3. DVORETZKY, A.-KIEFER, J.-WOLFOWlTZ, J. (1956): <<Asymptotic minimax character of the sample distribution function and of the classical multinomial estimator>>, Ann. Math. Statist., 27, 642-669.

4. FARALDO ROCA, P.-GONZALEZ MANTEIGA, W. (1987): <<Efficiency of a new class of linear regression estimates obtained by preliminary nonparametric estimation>>, New Perspectives in Theoretical and Applied Statistics, Wiley.

5. GAENSSLER, P.-STUTE, W. (1987): <<Seminar on Empirical Processes>>, Birkh/iuser.

6. GONZALEZ MANTEIGA, W. (1988): <~Una perspectiva general con nuevos resultados de la aplicacirn de la estimaci6n no paramrtrica a la paramrtrica en teoria de la regresi6n~, articulo invitado en Estadlstica Espa~ola, vol. 30, 118, pp. 141-201.

7. GONZALEZ MANTEIGA, W.-VILAR FERNANDEZ, J. M. (1987): ~<A class of nonparametrically construced parameter estimators for a statio- nary autoregresive model>>, Sixth Pannonian Symposium, Reidel Holland.

8. MASON, D. M. (1984). ~<A strong limit theorem for the oscillation modulus of the uniform empirical quantile process>>, Stochastic Processes and their Applications, 17, 127-136.

9. STUTE, W. (1982). <<The oscillation behavior of empirical processes~, Annals of Probability, 10, 1, 86-107.

10. STUTE, W. (1984): <<Normality of nearest neighbor regression function estimates>>, Ann. Stat., 12, 917-926.

11. YANG, S. (1981): <<Linear Functions of concomitants of order statistics with application to nonparametric estimation of a regression function>>, JASA, 76, 658-662.

67