cap3. violacion modelo-regresión multiple-2011

88
CAPITULO 3: Violación de los supuestos del Modelo Clásico Prof.: Juan Carlos Miranda C. Instituto de Estadístico Facultad de Ciencias Económicas y Administrativas Diciembre 2011 CURSO: ESTADÍSTICA EMPRESARIAL II (ESTD-241)

Upload: noemi-zapata

Post on 24-May-2015

3.137 views

Category:

Documents


4 download

TRANSCRIPT

Page 1: Cap3. violacion modelo-regresión multiple-2011

CAPITULO 3:

Violación de los supuestos del Modelo Clásico

Prof.: Juan Carlos Miranda C.Instituto de Estadístico

Facultad de Ciencias Económicas y Administrativas

Diciembre 2011

CURSO: ESTADÍSTICA EMPRESARIAL II

(ESTD-241)

Page 2: Cap3. violacion modelo-regresión multiple-2011

CONTENIDO DEL CAPITULO

1. Multicolinealidad (o colinealidad) Efectos de la multicolinealidad: Casos en que suele presentarse un problema de multicolinealidad. Criterios para decidir cuándo la colinealidad de grado constituye un

problema. Soluciones al problema a través de un ejemplo

2. Error de especificación

3. Heteroscedasticidad

4. Autocorrelación

Page 3: Cap3. violacion modelo-regresión multiple-2011

Algunos problemas de la Regresión Múltiples

Hipótesis del modelo Problema1- Las variables X, toman valores distintos en la muestra

2- E(Y) = β`X La distribución normal para los residuales e.

3- V(e) = σ2 (ctes)

4- Los errores e son independientes entre sí.

Multicolinealidad: las variables X, toman valores muy semejante en la muestra

Errores de especificación. Es decir, E(Y) ≠ β`X, falta de normalidad en los residuales.

Heterocedasticidad V(e) ≠ σ2 (distintas)

Autocorrelación: Los errores e son dependientes entre sí.

Page 4: Cap3. violacion modelo-regresión multiple-2011

I. ¿Qué es la Multicolinealidad?:Las variables explicativas son linealmente independientes

(no existe multicolinealidad)

Existe Multicolinealidad cuando en un modelo de regresión múltiple las variables explicativas están correlacionadas entre sí.

Esta correlación se debe a que las variables económicas reales raramente son independientes.

El caso extremo, la Multicolinealidad perfecta ocurre cuando un regresor es una combinación lineal exacta de otro u otros

Page 5: Cap3. violacion modelo-regresión multiple-2011

Multicolinealidad (0 colinealidad)El término multicolinealidad (o colinealidad) en Econometría se refiere a una situación en la que dos o más variables explicativas están fuertemente interrelacionadas y, por tanto, resulta difícil medir sus efectos individuales sobre la variable endógena. Cabe distinguir dos casos:

. Multicolinealidad exacta, cuando . En este caso existen infinitas soluciones para el sistema

• Multicolinealidad de grado (aproximada), en este caso y, por tanto, existe una solución formalmente óptima al problema de mínima suma de cuadrados. Sin embargo, esta solución está mal condicionada, ya que la función objetivo es muy plana en el entorno del óptimo y, por tanto, existen infinitas soluciones casi tan buenas como la óptima.

0XX T

YXXX TTMCO

T

0XX T

Para presentar este tema, seguiremos el siguiente esquema:• Efectos de la multicolinealidad.• Casos en que suele presentarse un problema de multicolinealidad.• Criterios para decidir cuándo la colinealidad de grado constituye un problema.• Soluciones al problema.

Page 6: Cap3. violacion modelo-regresión multiple-2011

Efectos de la Colinealidad: consecuencias

Las varianzas de las estimaciones aumentan de forma drástica con el grado de correlación.

Esto hará que los estadísticos t sean muy bajos cuando hay multicolinealidad.

Las covarianzas de las estimaciones aumentan de manera drástica también

Page 7: Cap3. violacion modelo-regresión multiple-2011

Efectos de la Colinealidad: consecuencias

H0 : k =0 a nivel individual se aceptará con frecuencia.

Pero se rechaza la hipótesis de no significatividad conjunta.

Hay una pérdida de precisión en la estimación.

Los coeficientes estimados serán muy sensibles a pequeños cambios en los datos.

Page 8: Cap3. violacion modelo-regresión multiple-2011

Efectos de la colinealidadEl efecto fundamental de la colinealidad exacta es que no existe una solución única del sistema de ecuaciones normales.

Cuando la colinealidad es de grado:• Las estimaciones individuales de los parámetros están mal identificadas• Se produce una inflación de la varianza de las estimaciones.• Las estimaciones resultan muy sensibles a la muestra.

Mala identificación de las estimaciones. Por ejemplo, sea el modelo:

)1..(..........22110 tttt exxy en donde: 2............112 ttt uxx

Sustituyendo (2) en (1) se obtiene:

tttttttt uxuxxy 211210112110 )()(

y, si la varianza de ut es “pequeña”, el parámetro de xt2 estará mal identificado, ya que esta variable aporta poca información que no esté ya contenida en xt1. En el límite, si la varianza de ut fuera nula, tendríamos un problema de colinealidad exacta.

Page 9: Cap3. violacion modelo-regresión multiple-2011

Efectos de la colinealidad

Inflación de la varianza de las estimaciones. Como:

TT

TeT

eMCO XXadjXX

XXCOV )(1

)()ˆ( 212

si entonces las varianzas de los parámetros tenderán a ser mayores que en una situación bien condicionada. Por tanto, los contrastes de hipótesis serán menos precisos y, concretamente, puede ocurrir que se consideren no significativos parámetros que lo serían si la colinealidad fuera menor.

0XX T

Estimaciones sensibles a la muestra. Puesto que la función objetivo (suma de cuadrados de residuos) es muy plana en el entorno del óptimo, pequeños cambios en los valores de y o de X pueden dar lugar a cambios importantes en las estimaciones.

Page 10: Cap3. violacion modelo-regresión multiple-2011

Casos en que suele haber problemas de colinealidad

Resulta frecuente que surja un problema de colinealidad en los siguientes casos:

• En modelos de series temporales, cuando se emplean variables explicativas con tendencia.• En modelos de series temporales, cuando se incluyen como variables explicativas retardos sucesivos de la variable endógena o de alguna de las variables explicativas. Esto provoca colinealidad porque los valores de una variable económica en distintos instantes de tiempo suelen estar correlados entre sí.• Cuando se consideran muchas variables explicativas. Lógicamente, a medida que aumenta el número de variables explicativas, es más fácil que aparezca una relación entre ellas, que de lugar a un problema de colinealidad.

• En modelos con variables cualitativas. surge un problema de colinealidad exacta. Por ejemplo, en el modelo:

tttt exxy 22110

121

1 1;,0

,...,2,1,1ttt xx

tol

ntx

Page 11: Cap3. violacion modelo-regresión multiple-2011

Criterio de diagnóstico Para decidir si la colinealidad de grado constituye un problema debemos tener en cuenta los objetivos de nuestro análisis concreto. Por ejemplo, la colinealidad no nos preocupa demasiado si nuestro objetivo es predecir, pero es un problema muy grave si el análisis se centra en interpretar las estimaciones de los parámetros.

Para diagnosticar este problema estudiaremos dos métodos: a) los basados en la correlación entre variables explicativas, y b) los basados en el tamaño de XX T

Métodos basados en la correlación entre variables explicativas. Si calculamos los coeficientes de correlación muestral entre cada par de variables, podemos decidir que existe un problema de colinealidad si algún coeficiente de correlación es mayor (en valor absoluto) que una tolerancia. Los problemas de este método son: a) sólo puede detectar correlación entre pares de variables explicativas y b) la tolerancia es arbitraria.

Page 12: Cap3. violacion modelo-regresión multiple-2011

Criterio de diagnóstico

Métodos basados en el tamaño de XX TComo sabemos:

k

ii

T XX1

Siendo el i-ésimo autovalor de la matriz. Por tanto, podemos reducir el diagnóstico a comprobar si la matriz tiene algún autovalor próximo a cero. Para evitar el problema de unidades de medida, este análisis suele hacerse utilizando el número de condición de XTX que se puede definirse de varias maneras:

i

30

10

min

max NCIC

)..;;.........( 1 k

Fuerte multicolinealidad

Colinealidad baja

Autovalores de la matriz XTX

Page 13: Cap3. violacion modelo-regresión multiple-2011

SolucionesEl problema de colinealidad consiste, esencialmente, en que la muestra no contiene suficiente información para estimar todos los parámetros que se desean. Por ello, resolver el problema requiere añadir nueva información (muestral o extramuestral) o cambiar la especificación. Algunas posibles soluciones en esta línea son:

Añadir nuevas observaciones. Aumentar el tamaño muestral puede reducir un problema de colinealidad de grado.

Restringir parámetros. Evidentemente, si la Teoría Económica o la experiencia empírica sugieren algunas restricciones sobre los parámetros del modelo más afectados por la colinealidad, imponerlas permitirá reducir el problema. El riesgo que se corre es, obviamente, imponer restricciones que no son ciertas.Suprimir variables. Si se suprimen variables que están correladas con otras, la pérdida de capacidad explicativa será pequeña y la colinealidad se reducirá. Existe, sin embargo, el riesgo de eliminar variables que debieran mantenerse en el modelo ya que, como hemos visto, cuando hay colinealidad las varianzas de los parámetros están infladas y los parámetros pueden ser formalmente no significativos.

Page 14: Cap3. violacion modelo-regresión multiple-2011

Soluciones: en resumenTransformar las variables del modelo. Si la colinealidad se debe a que se están relacionando series temporales con tendencia, puede ser conveniente transformar las variables para eliminar esta tendencia.

Utilizar información extra-muestral Sustituir un valor de un coeficiente de una de las variables

colineales por una estimación proveniente de otro estudio. Imponer restricciones sobre los coeficientes.

Riesgos Si la estimación extramuestral es sesgada, el sesgo se

transmite al resto de estimaciones. Obtener resultados que simplemente reflejen las

restricciones.

Page 15: Cap3. violacion modelo-regresión multiple-2011

Ejemplo de Multicolinealidad perfecta

Supongamos que hay datos sobreY: producción agrícola de 50 municipios

chilenos en el año 1990 (corte transversal).X: litros de lluvia por m2 caída en cada

municipio.Z: Agua disponible para regadíos en el año

90 en Chile (No hay variación, ver matriz de datos).

Page 16: Cap3. violacion modelo-regresión multiple-2011
Page 17: Cap3. violacion modelo-regresión multiple-2011
Page 18: Cap3. violacion modelo-regresión multiple-2011

Ejemplo de Multicolinealidad perfecta

No podemos estimar el modelo yi=1+2 x i +3 zi + ui contiene dos

términos constantes Hemos de utilizar yi=(1 +3 zi)+2 x i + ui

Sólo identificamos 1 ‘=( 1 +3 zi)

2

Page 19: Cap3. violacion modelo-regresión multiple-2011
Page 20: Cap3. violacion modelo-regresión multiple-2011

Ejemplo de Multicolinealidad fuerte

De igual forma hay datos sobre Y: producción agrícola total de Chile en el periodo

1974:1-1995:3 (serie temporal) X: litros de lluvia por m2 caída en Chile en el

periodo 1974:1-1995:3 Z: Agua disponible para regadíos en Chile cada

trimestre durante el periodo 1974:1-1995:3

yt=1+2 x t +3 zt + ut

Page 21: Cap3. violacion modelo-regresión multiple-2011
Page 22: Cap3. violacion modelo-regresión multiple-2011

Resultados de la estimación MCO

Coeficientes no significativamente distintos de cero a nivel individual.

Pero se rechaza la hipótesis nula de no significación conjunta.

Las covarianzas de las estimaciones son grandes.

Indicios de Multicolinealidad.

Page 23: Cap3. violacion modelo-regresión multiple-2011

Confirmamos la existencia de Multicolinealidad

Gráficos de x, z Matriz de correlación de los regresores

Page 24: Cap3. violacion modelo-regresión multiple-2011
Page 25: Cap3. violacion modelo-regresión multiple-2011

Remedios

Ya tenemos información acerca del efecto de las lluvias sobre la producción agrícola a partir de la estimación del modelo con datos transversales

Podríamos utilizar esa estimación en el modelo

tttt

ttt

uzyx

uzx

312t

321t

'ˆy

ˆy

Page 26: Cap3. violacion modelo-regresión multiple-2011
Page 27: Cap3. violacion modelo-regresión multiple-2011

II. Errores de Especificación:Especificación correcta (ni falta ni sobran variables)

Tipos de Error de Especificación:

- Omitir variables relevantes (OVR)

- Incluir variables irrelevantes (IVI)

- Errores de medidas en la variable endógena

- Errores de medidas en las variables explicativas

- Especificar una relación estática cuando es dinámica

- Especificar una relación lineal cuando la relación no es lineal

Page 28: Cap3. violacion modelo-regresión multiple-2011

Errores de Especificación

La mayoría de ellos se pueden entender OVR

Page 29: Cap3. violacion modelo-regresión multiple-2011

Errores de Especificación

Omisión de variables relevantes

- supongamos que el modelo correctamente especificado (MC), es el siguiente:

tttt uxxyMC 33221......... - Especificamos incorrectamente el siguiente (MI), en el que no incorporamos a xt3

ttt vxyMI 221......... ttt uxv 33MI es el modelo restringido de MC imponiendo la hipótesis nula que es falsa. Esto implica:

- El estimador de MCO del MI es insesgado.

- El estimador de MCO del MI tiene una varianza inferior al estimador MCO del MC (este

estimador es insesgado y eficiente).

03

Page 30: Cap3. violacion modelo-regresión multiple-2011

Contrastes de Especificación

1) Contraste RESET de Ramsey (1969)

- Permita comprobar si existen errores en la especificación del modelo debido a que:

- se han omitido variables relevantes

- La verdadera relación entre las variables es no lineal

- La hipótesis a contrastar es:

´1

´0

)()/(...

)/(...

tttt

ttt

xxfxyEH

xxyEH

- Donde f(.) es una forma funcional distinta de que puede ser desconocida.

´tx

Page 31: Cap3. violacion modelo-regresión multiple-2011

Pasos para detectar el Error de Especificación

- Para llevarlo a cabo se dan los siguientes pasos:- Especificación de la relación lineal entre las variables del modelo:

- Estimación por MCO del modelo restringido bajo H0 de linealidad - Nos quedamos con la variable explicada y la suma residual

SRR

ttt uxy ´

ttt uxy ´ˆ

- Estimación por MCO de la regresión auxiliar (modelo sin restringir):

- - Nos quedamos con la suma residual SR

tqtqtttt uyyyxy ˆ......ˆˆ 3

22

- Construimos un estadístico F de sumas residuales

);;(

0

kTq

BajoH

Fq

kT

SR

SRSRRF

Page 32: Cap3. violacion modelo-regresión multiple-2011

2) Contraste de Normalidad

- Es un supuestos fundamental en la inferencia

- Se debe contrastar siempre. Para ello:

- Histograma de los residuos

- Test de Jarque-Bera (J_B) y la asimetría (s).- Tiene en cuenta la curtosis (K) y la asimetría (s).

Otros: No Normalidad

NuH t :0

22

22 0))3(4

1(

6

bajoHkS

kTBJ

NuH t :1

Page 33: Cap3. violacion modelo-regresión multiple-2011

Otros: No Normalidad

Page 34: Cap3. violacion modelo-regresión multiple-2011

Otros: Selección de Modelos

2) Criterios de selección de modelos

- R2

- R2 restringido

- Medidas del error de previsión

- Akaike info criterio (AIC)

- Schwarz criterio (SC)

Donde es el valor de la función de verosimilitud evaluada en el estimador MCO

T

k

TAIC 22

T

Tk

TSC

)log(2

Page 35: Cap3. violacion modelo-regresión multiple-2011

III HeteroscedasticidadVarianza no constante

Consideremos Y=X+u E(u)=0 E(uu’)=; 2 I

2

22

21

00

00

00

)'(

n

uuE

Page 36: Cap3. violacion modelo-regresión multiple-2011

El modelo tiene “demasiados” parámetros

Modelo homoscedásticoParámetros=Nº de regresores +1= k+1

Modelo heteroscedásticoParámetros=Nº de regresores +n = k+n

Disponemos de n observaciones para estimar k+n parámetros !! Imposible

Heteroscedasticidad

Page 37: Cap3. violacion modelo-regresión multiple-2011

Heteroscedasticidad

Es necesario imponer algún tipo de estructura sobre la varianza para reducir el número de parámetros

Modelizamos la varianza En general, intentaremos descubrir

la relación entre la varianza de los errores y los valores de las variables explicativas

Page 38: Cap3. violacion modelo-regresión multiple-2011

Heteroscedasticidad

Podemos tratar de captar el comportamiento de la varianza mediante la siguiente estructura

i2=f(xi1,..., xik)

¿Cómo podemos encontrar i

2=f(xi1,..., xik)?

Page 39: Cap3. violacion modelo-regresión multiple-2011

Como detectar la Heterocedasticidad

1. La propia naturaleza de los datos o el tipo de problema.

2. Análisis Gráfico: 1. Representar los errores (absolutos o

cuadráticos) en el eje de ordenadas y la variable endógena en el de abcisas.

2. Representar los errores (absolutos o cuadráticos) en el eje de ordenadas y la variable exógena “sospechosa” en el eje de abcisas

Page 40: Cap3. violacion modelo-regresión multiple-2011

Como detectar la Heterocedasticidad

ti xUVar )( 2)( ti xUVar

Page 41: Cap3. violacion modelo-regresión multiple-2011

Contrastes de Heterocedasticidad

Contrastes:1. Contraste F de Goldfeld-QuandtSupone distribución normal en los errores.Relación monótona creciente entre la varianza y uno de los regesores.Si la muestra no está dividida:

I. Ordenar todas las observaciones por valores crecientes de la variable exógena

“sospechosa”.II. Eliminar p observaciones centrales.

Recomendado p=n/3

Page 42: Cap3. violacion modelo-regresión multiple-2011

Contrastes de Heterocedasticidad

a) Estimar el modelo original para las dos submuestras (n1 y n2)b) Realizar el siguiente contraste

);;(

1

11

2

22

12 knknt

t

F

knee

knee

F

);;( 12 knknFSiF - Rechazamos H0

Page 43: Cap3. violacion modelo-regresión multiple-2011

Heteroscedasticidad:Ejemplo

En el modelo siguiente:yi=1+ 2xi+ui ; i=1..50 ciudades Y es número de vehículos

matriculadosX es la renta per cápita de la ciudadGráfico de puntosLa dispersión de y parece crecer con

la renta per cápita

Page 44: Cap3. violacion modelo-regresión multiple-2011

Heteroscedasticidad

Page 45: Cap3. violacion modelo-regresión multiple-2011

Heteroscedasticidad: Análisis de los residuos

Estimamos el modelo por MCO y examinamos los residuos

¿Hay residuos con valores extremadamente altos o bajos?

¿Hay relación entre el valor absoluto de los residuos y las variables explicativas?

¿Hay relación entre el cuadrado de los residuos y las variables explicativas?

Page 46: Cap3. violacion modelo-regresión multiple-2011

Heteroscedasticidad

Page 47: Cap3. violacion modelo-regresión multiple-2011

Heteroscedasticidad

Page 48: Cap3. violacion modelo-regresión multiple-2011

Heteroscedasticidad

Page 49: Cap3. violacion modelo-regresión multiple-2011

Heteroscedasticidad

Page 50: Cap3. violacion modelo-regresión multiple-2011

Heteroscedasticidad

Page 51: Cap3. violacion modelo-regresión multiple-2011

Análisis de los residuos

Los gráficos anteriores sugieren que la varianza de los errores crece con el nivel de renta per cápita Recordemos el argumento de la

heterogeneidad de preferencias ¿Cómo podemos contrastar formalmente la

presencia de heteroscedasticidad?H0: 2

i= 2 i

H1: 2i 2 i

Page 52: Cap3. violacion modelo-regresión multiple-2011

El contraste de Goldfeld y Quandt

Adecuado cuando sospechamos que la varianza de los errores depende de una variable explicativa x

ProcedimientoOrdenar la muestra según xEliminar p (pN/3) observaciones

centralesEstimar por MCO el modelo original con

cada una de las submuestras resultantes para obtener SCR1 y SCR2

Si hay heteroscedasticidad, SCR1 y SCR2 han de diferir notablemente

Page 53: Cap3. violacion modelo-regresión multiple-2011

Podemos construir un estadístico a partir de las SCR de las dos submuestras que, bajo la hipótesis nula de homoscedasticidad, sigue una distribución conocida

KNKNFKNSCRKNSCR

Q 122

1

22

11

22 ,~ˆˆ

//

El contraste de Goldfeld y Quandt

Page 54: Cap3. violacion modelo-regresión multiple-2011

El contraste de Goldfeld y Quandt

Page 55: Cap3. violacion modelo-regresión multiple-2011

Con los datos del ejemplo, eliminando 16 observaciones centrales, el valor del ratio Q para el contraste de Goldfeld y Quandt es Q=3,6806

El valor crítico al 5% para una F15,15 es 2,40

Rechazamos la hipótesis nula de homoscedasticidad

El contraste de Goldfeld y Quandt

Page 56: Cap3. violacion modelo-regresión multiple-2011

Contrastes con regresiones auxiliares

Si sospechamos que la varianza de los errores se puede representar como una combinación lineal de los regresores i

2=f(xi1,..., xik)= 0+ 1 xi1 + ... + k xik

Podemos usar el hecho de que E(ui

2)= i2 ui

2 = i2 + i donde E(i)=0

Por tanto, especificamos ui

2 = i2 + i=0+ 1 xi1 + ... + k xik + i

H0: 2i= 2 i equivale a H0: 1 =0, ...., k=0

Utilizamos el equivalente muestral de los errores, los residuos, para computar la regresión auxiliar y el contraste

Page 57: Cap3. violacion modelo-regresión multiple-2011

Contraste de Breusch y Pagan

Si sospechamos que la varianza es una función de una combinación lineal de regresores, pero desconocemos tal funcióni

2=h(0+ 1 xi1 + ... + p xip)

H0: 2i= 2 i equivale a H0: 1 =0, ...., p=0

Breusch y Pagan proponen utilizar un estadístico con distribucion conocida bajo la hipótesis de homoscedasticidad

Page 58: Cap3. violacion modelo-regresión multiple-2011

Contraste de Breusch y Pagan

A partir de los residuos MCO del modelo, construir

NSCRe

g ii /

2

Calcular la suma de cuadrados explicada, SCE, para el modelo

iippii xxg ...110

Page 59: Cap3. violacion modelo-regresión multiple-2011

Contraste de Breusch y Pagan

Page 60: Cap3. violacion modelo-regresión multiple-2011

1~2

2 pSCR g

A partir de los datos anteriores podemos computar SCEg

0

95,01

2

2

Re

44,335,132

tan

69,261

*

Hchazo

SCR

toPor

RSCRR

SCE

g

g

Bajo la hipótesis nula

Contraste de Breusch y Pagan

Page 61: Cap3. violacion modelo-regresión multiple-2011

Contraste de White

Cuando sólo sabemos que la varianza es una función de los regresoresi

2=f(xi1, xi2 , ... , xik ) White propone el siguiente procedimiento

Computar la regresión del cuadrado de los residuos sobre los cuadrados y los productos cruzados de todos los regresores

Page 62: Cap3. violacion modelo-regresión multiple-2011

Bajo la hipótesis nula de homoscedasticidad, nR2

w~2(z) Donde

R2w es el R2 de la anterior regresión

z es el número de regresores de la anterior regresión excluyendo el término constante

Incorporado en E-views

Contraste de White

Page 63: Cap3. violacion modelo-regresión multiple-2011

Contraste de White

Page 64: Cap3. violacion modelo-regresión multiple-2011

Método de Glesjer

Otro contraste, que puede a la vez darnos información sobre cuál es la forma funcional de la heteroscedasticidad

Glesjer propone computar la regresión del valor absoluto de los residuos sobre distintas formas funcionales de la variable “sospechosa”

..

log1

2/1

etc

xe

xe

xe

iii

iii

iii

Page 65: Cap3. violacion modelo-regresión multiple-2011

Método de Glesjer

H0: 2i= 2 i equivale a H0: =0 en cada

una de las anteriores regresiones

Si se rechaza H0, la forma funcional más indicada corresponde a la regresión con mayor poder explicativo

Page 66: Cap3. violacion modelo-regresión multiple-2011

Método de Glesjer

Page 67: Cap3. violacion modelo-regresión multiple-2011

En todos los casos se rechaza la hipótesis nula de homoscedasticidad

El modelo de heteroscedasticidad que tiene un mayor poder explicativo es la correspondiente a la primera regresión

Por tanto, podemos aproximar la heteroscedasticidad mediante

| ei|=-14,44+2,148*renta1/2

Método de Glesjer

Page 68: Cap3. violacion modelo-regresión multiple-2011

MCG factible

Cuando se conoce la estructura de la heteroscedasticidad, podemos transformar los datos y aplicar MCO

En general, si i2=f(xi1,..., xik), dividir

los datos por [f(xi1,..., xik)]1/2 genera un modelo con perturbaciones esféricas

Page 69: Cap3. violacion modelo-regresión multiple-2011

Transformación a modelo homoscedástico

ifff

uEff

uE

fu

Var

Donde

fu

fx

fx

ffuxx

fy

fxxfuE

uxxy

ii

ii

iii

i

i

i

i

i

i

ikk

i

i

ii

iikki

i

i

iikiii

iikkii

1111

......

),...,(

...

22

2

2/12/1

2/12/12/122

2/11

2/1221

2/1

222

221

Page 70: Cap3. violacion modelo-regresión multiple-2011

MCG factible

Con el ejemplo anterior, sabemos que

1/2iii renta*2,148-14,44|e |ˆ

Podemos dividir el modelo por esta estimación del error estándar de ui y después aplicar MCO

Page 71: Cap3. violacion modelo-regresión multiple-2011

Heteroscedasticidad

Page 72: Cap3. violacion modelo-regresión multiple-2011

Corrección de White

El método de Glesjer nos daba una aproximación con sólo un 23% de poder explicativo

Si sabemos que hay heteroscedasticidad pero desconocemos su estructura, podemos aplicar la corrección de White mediante la opción incorporada en E-views

Page 73: Cap3. violacion modelo-regresión multiple-2011
Page 74: Cap3. violacion modelo-regresión multiple-2011

IV Autocorrelación

En este tema se cuestionar, para los modelos que trabajan con datos de series de tiempo, una de las hipótesis que definen el Modelo de Regresión Lineal Normal Clásico. En concreto se analiza la hipótesis que establece que el vector de perturbaciones sigue una distribución según un vector normal esférico.

0)( tuE0

22 )( tuE 0)( sttuuE 0s

Page 75: Cap3. violacion modelo-regresión multiple-2011

Autocorrelación

La hipótesis de covarianzas nulas es muy interesante desde el punto de vista de las propiedades deseables para los estimadores mínimo cuadráticos ordinarios, pero con frecuencia esta hipótesis es difícil de aceptar en la práctica, en especial cuando las observaciones se suceden en el tiempo.

En los casos de incumplimiento de la hipótesis de no autocorrelación es necesario formular el modelo de regresión de un modo más general prescindiendo de esta hipótesis; este modelo recibe el nombre de modelo de regresión lineal generalizado y su estimación se realizará aplicando métodos distintos al de mínimos cuadrados ordinarios.

Page 76: Cap3. violacion modelo-regresión multiple-2011

Autocorrelación

Matemáticamente este supuesto de autocorrelación se expresa a partir de la hipótesis que hace referencia a la covarianza de la perturbación que, como se ha señalado es no nula.

0)( sttuuE .,.........2,1,0 s

se está considerando que el término de perturbación de una observación está relacionado con el término de perturbación de otras observaciones y por lo tanto la covarianza entre ellos es distinta de cero y se define como,

Page 77: Cap3. violacion modelo-regresión multiple-2011

Detección de la AutocorrelaciónPara detectar la presencia de autocorrelación se pueden utilizar métodos gráficos y contrastes de hipótesis. A través de los contrastes gráficos se intuirá si existe autocorrelación cuando existan comportamientos sistemáticos para los residuos.

Los contrastes de hipótesis, por su parte, permiten, a través de una regla de decisión, considerar si con los datos de la muestra y con un nivel de significación () concreto se debe o no rechazar la hipótesis nula.

Todos los contrastes numéricos de autocorrelación se plantean con idénticas hipótesis; así, podemos señalar que la forma general del contraste es:

Page 78: Cap3. violacion modelo-regresión multiple-2011

Autocorrelación

H0: No existe autocorrelaciónH1: Existe autocorrelación

Esto es, en la hipótesis nula se considera que el término de perturbación correspondiente a una observación es independiente del correspondiente a cualquier otra observación. En la hipótesis alternativa se señala que el término de error de un modelo econométrico está autocorrelacionado a través del tiempo.

Page 79: Cap3. violacion modelo-regresión multiple-2011

Contraste d de Durbin-Watson (1951)

El contraste desarrollado por Durbin y Watson es la prueba más frecuentemente empleada para detectar la presencia de autocorrelación en los modelos de regresión. Este contraste permite verificar la hipótesis de no autocorrelación frente a la alternativa de autocorrelación de primer orden bajo un esquema autorregresivo

ttt uuAR 1:)1(

Formulación de las hipótesis:

0:0 H

10:1 H

No existe autocorrelación AR(1)

Existe autocorrelación AR(1)

Page 80: Cap3. violacion modelo-regresión multiple-2011

Contraste d de Durbin-Watson

La forma concreta de la hipótesis alternativa establece unas cotas para el coeficiente de correlación; éstas son necesarias para garantizar algunas características del modelo, en concreto que la varianza es finita y se trata por tanto de un proceso no explosivo.

Estadístico de prueba:

n

tt

n

ttt

en

eed

1

2

2

21)(

A partir de este estadístico se puede interpretar que,· Si hay autocorrelación positiva las diferencias entre residuos que distan un periodo es muy pequeña por lo que el valor del estadístico d será próximo a cero.· Si hay autocorrelación negativa los residuos serán prácticamente iguales pero de signo contrario, su diferencia será por tanto grande y el estadístico será más próximo al límite superior que, como se verá, se establece en cuatro.· Si no hay autocorrelación, la relación entre los residuos será intermedia y por tanto, el valor del estadístico experimental también alcanzará un valor intermedio.

Page 81: Cap3. violacion modelo-regresión multiple-2011

Contraste d de Durbin-Watson

Para establecer los límites de variación del estadístico d la fórmula anterior se puede desarrollar obteniéndose una expresión en función del coeficiente de autocorrelación muestral de primer orden para los residuos

n

tt

n

t

n

t

n

ttttt

n

tt

n

ttt

e

eeee

en

eed

1

2

2 2 21

21

2

1

2

2

21 2)(

dado que, cuando el tamaño de la muestra es grande, se puede considerar que

n

tt

n

tt

n

tt eee

1

2

2

21

2

2

Page 82: Cap3. violacion modelo-regresión multiple-2011

Contraste d de Durbin-Watson

Entonces el estadístico d se puede expresar como,

n

tt

n

t

n

tttt

e

eeed

1

2

2 21

2 22

y dado que el coeficiente de correlación empírico de primer orden se calcula

n

tt

n

ttt

e

ee

1

2

21

Entonces el estadístico experimental se puede expresar

)ˆ1(2 d

Page 83: Cap3. violacion modelo-regresión multiple-2011

Contraste d de Durbin-Watson

Teniendo en cuenta los límites de variación del coeficiente de correlación empírico, - 1≤ ≥ 1, se puede deducir el rango de variación del estadístico de Durbin-Watson y el signo de la autocorrelación.

41ˆ d20ˆ d

01ˆ d

se considera que existe autocorrelación negativa

indica ausencia de autocorrelación

se puede admitir que existe autocorrelación positiva

Gráficamente se pueden señalar las regiones del contraste en el siguiente segmento:

Page 84: Cap3. violacion modelo-regresión multiple-2011

Contraste d de Durbin-Watson

El tratamiento empírico de este contraste requiere de las siguientes fases:

1) Estimación por mínimos cuadrados ordinarios (MCO) del modelo de regresión2) Cálculo de los residuos MCO3) Obtención del estadístico d (experimental) de Durbin-Watson4) Búsqueda de los niveles críticos del contraste y,5) Aplicación de la regla de decisión

Page 85: Cap3. violacion modelo-regresión multiple-2011

Contraste de Breusch-Godfrey (1978)

el contraste de Breusch-Godfrey se especifica con la finalidad de analizar si existe o no autocorrelación de orden superior a uno; para ello, en la hipótesis alternativa se incluyen especificaciones más generales que la del modelo autorregresivo de primer orden y que se pueden generalizar a cualquier especificación ARMA(p,q).

Page 86: Cap3. violacion modelo-regresión multiple-2011

Autocorrelación

Page 87: Cap3. violacion modelo-regresión multiple-2011

Autocorrelación

Page 88: Cap3. violacion modelo-regresión multiple-2011

Autocorrelación