1 propiedades de los estimadores de mÍnimos cuadrados ordinarios profesora: donita rodríguez....

Post on 09-Mar-2015

12 Views

Category:

Documents

0 Downloads

Preview:

Click to see full reader

TRANSCRIPT

1

PROPIEDADES DE LOS ESTIMADORES DE MÍNIMOS CUADRADOS ORDINARIOS

Profesora: Donita Rodríguez.

Agosto 2011

BANCO CENTRAL DE RESERVA DEL PERÚBANCO CENTRAL DE RESERVA DEL PERÚCURSO DE ACTUALIZACIÓN PARA PROFESORESCURSO DE ACTUALIZACIÓN PARA PROFESORES

ECONOMETRÍAECONOMETRÍA

2

ESQUEMA

1. Los Estimadores MCO del MRLCK.

2. Propiedades en Muestras Pequeñas de

3. Propiedades en Muestras Pequeñas de

4. Propiedades en Muestras Grandes de

5. Propiedades en Muestras Grandes de

6. Criterios de selección y los estimadores MCO.

2ˆ MCO

2ˆ MCO

3

• Vector de estimadores de MCO del MRLCK:

• Estimador MCO de la varianza del término de perturbación:

• Error estándar de la estimación o error estándar de la regresión,

s, es la desviación estándar de los valores de Y alrededor del plano

de regresión.

1. ESTIMADORES MCO DEL MRLCK

2 2 'ˆu

e es

n k

4

• presenta las siguientes propiedades:

– Linealidad :

– Insesgadez :

– Eficiencia : Considerando estimadores lineales e

insesgados

2. PROPIEDADES PARA MUESTRAS PEQUEÑAS DE

1( ' ) 'b X X X y

5

EL TEOREMA GAUSS-MARKOV

• Para un modelo de regresión lineal clásico, considérense todos los

estimadores lineales e insesgados para los parámetros del vector

“β ”, dentro de los cuales figuran los estimadores de MCO.

• De todos estos, los estimadores de MCO son los que tienen menor

varianza, es decir, son los más eficientes. Por ello, los estimadores de

MCO son los Mejores Estimadores Lineales e Insesgados o MELI

(Best Linear and Unbiased Estimators or BLUE).

2. PROPIEDADES PARA MUESTRAS PEQUEÑAS DE

Demostración del teorema de Gauss-Markov:

• Asuma un estimador alternativo lineal:

• Que es insesgado:

• Entonces:

6

2. PROPIEDADES PARA MUESTRAS PEQUEÑAS DE

AX=I

Matriz positivo definida

MX es una matriz idempotente.

7

• Si se asume que las perturbaciones se distribuyen normal,

entonces:

y se demuestra que no existe otro estimador insesgado (lineal o no

lineal) con menor varianza.

• Entonces, si se cumplen lo supuestos clásicos y las

perturbaciones son normales en muestras pequeñas, los

estimadores MCO son los mejores estimadores insesgados.

2. PROPIEDADES PARA MUESTRAS PEQUEÑAS DE

8

MCO

ESTIMADORES

INSESGADOS

Insesgados

MCO

Lineales

ESTIMADORES

Teorema Gauss-Markov Teorema Gauss-Markov

y Supuesto de Normalidad

2. PROPIEDADES PARA MUESTRAS PEQUEÑAS DE

9

• Las propiedades del estimador MCO del parámetro de la

varianza del término de perturbación son:

– Cuadrático :

– Insesgado :

• Bajo el supuesto de normalidad de las perturbaciones, se

demuestra que no existe otro estimador insesgado con

menor varianza que :

2 2 2'ˆ( ) ( )MCO u

e eE s E E

n k

42 ' 2

( )e e

Var s Varn k n k

2ˆ MCO

3. PROPIEDADES PARA MUESTRAS PEQUEÑAS DE

2 2 'ˆMCO

e es

n k

10

• Consistencia: Por la Ley de los Grandes Números, el estimador

MCO converge “en probabilidad” al vector poblacional.

• Normalidad Asintótica: Por el Teorema de Límite Central de

Lindverg-Feller (observaciones independientes):

4. PROPIEDADES PARA MUESTRAS GRANDES DE

( )Plim b

2 1( ) (0, )D

S b N Q

2 1~ ( , / )a

b N Q n

11

Además, bajo el supuesto de que las perturbaciones se

distribuyen Normal en muestras pequeñas:

• Eficiencia Asintótica:

– Alcanza la cota de Cramer y Rao: menor varianza que puede

alcanzar un estimador insesgado.

• Máxima verosimilitud: bajo el supuesto de normalidad de las

perturbaciones.

2 1~ (, / )a

b N Q n 2 1 /Cota CR Q n

4. PROPIEDADES PARA MUESTRAS GRANDES DE

12

5. PROPIEDADES PARA MUESTRAS GRANDES DE

• Consistencia :

• Normalidad Asintótica:

Bajo el supuesto de normalidad de las perturbaciones

– Eficiencia Asintótica: Alcanza la cota de Cramer y Rao.

– Máxima verosimilitud

2ˆ MCO

22 )ˆ( MCOPlim

2 2 44ˆ( ) (0,[ ])

D

MCOn N

2 2 4ˆ ~ [ , (2 / )]a

MCO N n

13

• En muestras pequeñas, los criterios convencionales son

1. Costo Computacional

2. Mínimos Cuadrados

3. Maximizar el R2

4. Insesgadez

5. Eficiencia (del grupo de lineales e insesgados): T. Gauss-

Markov.

6. Menor Error Cuadrático Medio.

• En muestras pequeñas, la metodología de MCO cumple con

todos los criterios, excepto el (6).

6. CRITERIOS DE SELECCIÓN Y ESTIMADORES MCO

14

• En muestras grandes, los criterios convencionales son:

1. Consistencia.

2. Normalidad Asintótica.

3. Eficiencia Asintótica.

4. Máxima Verosimiltud.

• En muestras grandes, los estimadores MCO satisfacen:

– Consistencia (por la Ley de los Grandes Números) y

Normalidad Asintótica (por el Teorema del Límite Central).

– Bajo el supuesto de normalidad, Eficiencia Asintótica y MV.

6. CRITERIOS DE SELECCIÓN Y ESTIMADORES MCO

15

PROPIEDADES DE LOS ESTIMADORES DE MÍNIMOS CUADRADOS ORDINARIOS

Profesora: Donita Rodríguez.

Agosto 2011

BANCO CENTRAL DE RESERVA DEL PERÚBANCO CENTRAL DE RESERVA DEL PERÚCURSO DE ACTUALIZACIÓN PARA PROFESORESCURSO DE ACTUALIZACIÓN PARA PROFESORES

ECONOMETRÍAECONOMETRÍA

top related