autocorrelación

15
AUTOCORRELACIÓN 1. Aspectos Teóricos 1.1 Definición La autocorrelación o correlación serial se da cuando los términos de perturbación tienden a estar altamente correlacionados, es decir cuando el término de perturbación está correlacionado con sus rezagos a través del tiempo. Debe tenerse en cuenta que, este problema se hace particularmente presente sobre todo en datos de series de tiempo, pero si la correlación se debe a variables omitidas, también puede ocurrir en datos de corte transversal. Esto causa que la matriz de varianza-covarianzas de las perturbaciones no sea la que se asume en MRLC, y tiene la siguiente forma: V uu E u Var n n n n 0 2 1 2 0 1 1 1 0 ' ) ( ) ( Esta matriz es simétrica, su estimación implica la existencia de 1 2 / 1 n n k parámetros a estimar, lo cual no es posible con n observaciones. Si la perturbación siguiera un proceso estacionario autorregresivo de primer orden 1 o AR(1): t t t u u 1 , la matriz de varianzas y covarianzas de los términos de perturbación sería igual a: 2 2 1 2 1 1 1 2 2 1 2 1 1 1 0 1 1 1 1 1 1 ) ( u n n n n u n n n n V u Var 1.2 Causas de Autocorrelación Autocorrelación espacial: En datos de corte transversal. Por ejemplo por similitudes en el clima de regiones adyacentes. Influencia prolongada de choques: en datos de series de tiempo. Por ejemplo, terremotos, sequías, Fenómeno del Niño, etc. Inercia: Inercia en el comportamiento. Por ejemplo, la inercia que caracteriza a la inflación (inercia inflacionaria). Manipulación de datos: Por la interpolación o suavizamiento de datos. Mala especificación: la cual puede surgir por varias razones:

Upload: yin-yan

Post on 24-Jul-2015

51 views

Category:

Documents


1 download

DESCRIPTION

ECONOMETRIC

TRANSCRIPT

Page 1: Autocorrelación

AUTOCORRELACIÓN

1. Aspectos Teóricos 1.1 Definición La autocorrelación o correlación serial se da cuando los términos de perturbación tienden a estar altamente correlacionados, es decir cuando el término de perturbación está correlacionado con sus rezagos a través del tiempo. Debe tenerse en cuenta que, este problema se hace particularmente presente sobre todo en datos de series de tiempo, pero si la correlación se debe a variables omitidas, también puede ocurrir en datos de corte transversal. Esto causa que la matriz de varianza-covarianzas de las perturbaciones no sea la que se asume en MRLC, y tiene la siguiente forma:

VuuEuVar

nn

n

n

021

201

110

' )()(

Esta matriz es simétrica, su estimación implica la existencia de

12/1nnk parámetros a estimar, lo cual no es posible con n

observaciones. Si la perturbación siguiera un proceso estacionario autorregresivo de primer

orden 1 o AR(1): ttt uu 1 , la matriz de varianzas y covarianzas de los

términos de perturbación sería igual a:

2

21

21

11

2

21

21

11

0

1

1

1

1

1

1

)( u

nn

n

n

u

nn

n

n

VuVar

1.2 Causas de Autocorrelación

Autocorrelación espacial: En datos de corte transversal. Por ejemplo por similitudes en el clima de regiones adyacentes.

Influencia prolongada de choques: en datos de series de tiempo. Por ejemplo, terremotos, sequías, Fenómeno del Niño, etc.

Inercia: Inercia en el comportamiento. Por ejemplo, la inercia que caracteriza a la inflación (inercia inflacionaria).

Manipulación de datos: Por la interpolación o suavizamiento de datos. Mala especificación: la cual puede surgir por varias razones:

Page 2: Autocorrelación

2

Si ut está autocorrelacionada, puede ser que se esté omitiendo una

variable relevante. Si se estima el modelo ttt uYC 21 cuando

el “verdadero” modelo es tttt urYC 321 , donde ttt rr 1 .

Mala especificación funcional.

Mala especificación dinámica. Ocurre si se asume ttt uYC 21

cuando la relación correcta es tttt uCYC 1321

1.3 Consecuencias sobre los estimadores MCO

Eficiencia: los estimadores MCO siguen siendo insesgados y consistentes, sin embargo, ya no son eficientes. Ahora, los estimadores de Mínimos Cuadrados Generalizados son MELI.

Inferencia: la fórmula convencional de )ˆ( MCOVar no es correcta cuando

existe autocorrelación. Por tanto, la inferencia basada en esta fórmula se distorsiona y el sentido de la distorsión no es siempre el mismo.

El vector de estimadores MCO no es de máxima verosimilitud y, por tanto, no es asintóticamente eficiente.

2. Detección

A continuación se estima una ecuación de la demanda por dinero (circulante real) que depende de una constante, el PBIR Real y una tendencia determinística para medir (aproximadamente) la innovación financiera. El objetivo en esta sección es mostrar la forma de detectar la posible presencia de autocorrelación en las perturbaciones. 2.2 Inspección visual de los residuos

Una forma simple de detectar la existencia de autocorrelación es mediante un análisis gráfico de los residuos de la ecuación estimada. En particular, el gráfico de los residuos permite identificar la presencia de autocorrelación generada porque las perturbaciones siguen un proceso autorregresivo de primer orden o AR(1). Por un lado, cuando la serie del residuo presenta autocorrelación de primer orden y positiva, en el gráfico de la serie puede observar que existen grupos de valores positivos y negativos sucesivos a lo largo de la muestra de estimación. Por otro lado, cuando los residuos toman valores positivos y negativos de manera alternada ello se puede interpretar como presencia de autocorrelación de primer orden y negativa. Para mostrar los valores de los residuos de la ecuación estimada, se sigue la siguiente ruta desde la ventana de la ecuación: View/Actual-Fitted Residuals/Actual-Fitted Residuals Table… :

Page 3: Autocorrelación

3

con lo cual se obtiene:

Alternativamente, es posible generar los residuos como un objeto serie del Eviews y mostrar su gráfico. Para ello, en la línea de comandos o a través de un programa, se escribe lo siguiente:

mco.makeresids residmco

graph residuos.line residmco

residuos.axis(left) grid zeroline

y se obtiene como resultado:

Page 4: Autocorrelación

4

-.06

-.04

-.02

.00

.02

.04

.06

.08

1995 1996 1997 1998 1999 2000 2001

RESIDMCO

En este caso, el gráfico de los residuos muestra evidencia de autocorrelación de primer

orden y positiva, pues los errores no se alternan aleatoriamente alrededor del cero, si no

que mantienen valores de un mismo signo durante varios períodos.

Adicionalmente, para evaluar la hipótesis de que las perturbaciones siguen un proceso

autorregresivo de orden 1 o AR(1), se puede construir el gráfico de dispersión entre el

residuo y su primer rezago:

-.06

-.04

-.02

.00

.02

.04

.06

.08

-.06 -.04 -.02 .00 .02 .04 .06 .08

E_REZ1

E

E vs. E_REZ1

En este gráfico de dispersión se puede observar que existe una clara relación positiva

entre los errores contemporáneos y los errores rezagados, lo cual confirma la hipótesis

de que las perturbaciones siguen un proceso AR(1). Para ello, en la línea de comandos o

a través de un programa, se escribe lo siguiente:

series e= residmco

series e_rez1=e(-1)

group variables e_rez1 e

graph dispersion.linefit variables

show dispersion

Page 5: Autocorrelación

5

2.2. El contraste de Durbin –Watson (DW) El prueba de autocorrelación de Durbin-Watson es una de los más conocidas y utilizadas para detectar la presencia de autocorrelación de primer orden en los residuos. La ventana de la ecuación estimada muestra el estadístico DW automáticamente:

Dependent Variable: M1

Method: Least Squares

Sample: 1995M01 2001M12

Included observations: 84

Variable Coefficient Std. Error t-Statistic Prob.

C 4.972378 0.968258 5.135386 0.0000

LPBIR 0.349609 0.107140 3.263099 0.0016

TIPMN -0.003856 0.001902 -2.027051 0.0460

@TREND 0.001762 0.000221 7.978040 0.0000

R-squared 0.858185 Mean dependent var 8.255810

Adjusted R-squared 0.852867 S.D. dependent var 0.064787

S.E. of regression 0.024851 Akaike info criterion -4.505408

Sum squared resid 0.049405 Schwarz criterion -4.389654

Log likelihood 193.2271 F-statistic 161.3716

Durbin-Watson stat 1.160906 Prob(F-statistic) 0.000000

En este caso, el valor reportado para el estadístico DW es 1.160906. Cabe recordar que los valores cercanos a cero indican autocorrelación positiva de primer orden, los valores cercanos a cuatro indican autocorrelación negativa de primer orden y un valor alrededor de 2 indica que no existe autocorrelación. Esta prueba es válida bajo dos condiciones: (a) que la regresión presente un término constante, y (b) ningún regresores puede ser un valor pasado de la endógena. Cuando se incumple la segunda condición, es posible utilizar una extensión de la prueba DW denominada Durbin-H. Formalmente, el estadístico Durbin-Watson esta dado por:

2

2 21

2 1

2 2

1 1

( )

2(1 )

T

t t

t T

T T

t t

t t

e ee e

d r

e e

donde r es el coeficiente de correlación muestral entre dos residuos adyacentes. Asintóticamente, el etadístico d es aproximadamente igual a

2(1 )d r . En el ejemplo analizado, se tiene que DW= 1.160906. Para

interpretar adecuadamente este valor (si es cercano o no a 0), es necesario determinar las “zonas de incertidumbre” en la distribución del DW. Así, dado

Page 6: Autocorrelación

6

que T=84 y k=3, las tablas del estadístico DW proporcionan los límites inferior y superior que definen la zona de incertidumbre: dL=1.39 y dU=1.51.Gráficamente, se tiene:

0 dL dU 4 - dU 4 - dL 4

desde 0 hasta dL Autocorrelación

positiva 0 a 1.575

desde dL hasta dU Zona de indeterminación

1.575 a 1.721

desde dU hasta 4 – dU No autocorrelación 1.721

a 2.279

desde 4 – dU hasta 4 - dL Zona de indeterminación

2.279 a 2.425

desde 4 – dL hasta 4 Autocorrelación negativa

2.425 a 4

De esta forma, se concluye que existe autocorrelación positiva de primer orden pues el

estadístico DW toma un valor que pertenece a la zona de autocorrelación positiva. Para

obtener el valor del estadístico de Durbin–Watson como un objeto número (scalar), se

utiliza el siguiente comando:

scalar dw=mco.@dw

2.3 Inspección del correlograma de los residuos

Muchas veces la autocorrelación se genera a consecuencia de que las perturbaciones siguen un proceso AR(p), MA(q) o ARMA(p,q). En estos casos, la identificación del posible proceso se realiza a través de la inspección del correlograma (gráfico de los coeficientes de correlación) y el gráfico de los coeficientes de autocorrelación parcial. Para visualizar estos dos gráficos, se sigue la siguiente ruta desde la ventana de los residuos View/Correlogram… y se obtiene la siguiente ventana de diálogo:

Page 7: Autocorrelación

7

En esta ventana se tiene que elegir dos cosas. Primero, indicar si se desea visualizar el correlograma de la serie seleccionada (los residuos) en niveles, en primeras diferencias o en segundas diferencias. Segundo, elegir el número de coeficientes de autocorrelación (y correlación parcial) que se desea visualizar. Las opciones por defecto son “correlograma de las series en niveles” y “36 coeficientes”. Otra forma para obtener el correlograma de los residuos es siguiendo desde ventana del resultado de la estimación la ruta: View/ Residual Test/ Correlogram Q-statistic … con lo que se obtiene:

donde lo único a elegir es el número de coeficientes de autocorrelación (y correlación parcial) que se desea visualizar. Finalmente, se obtiene la siguiente imagen:

El análisis del correlograma sugiere que la serie de los residuos siguen un proceso autorregresivo estacionario de primer orden. Se dice que el proceso es

Page 8: Autocorrelación

8

autorregresivo estacionario porque los coeficientes de autocorrelación simple decrecen rápidamente, y es de primer orden porque sólo el primer coeficiente de autocorrelación parcial es significativo. Los valores de la columna de autocorrelación simple corresponden a la sucesión de valores

,,,,, 321 S l , donde es el coeficiente de la regresión:

titt ee

Los coeficientes de autocorrelación parcial se refieren a los diferentes valores

i obtenidos de la regresión:

titittt ueeee ...2211

El estadístico Q y la probabilidad asociada corresponden a la prueba de autocorrelación donde la hipótesis nula es la ausencia de autocorrelación de orden igual o menor al que se está evaluando. Este estadístico es el propuesto por Ljung-Box y se denomina “estadístico Q”. El estadístico Q con k rezagos toma la siguiente forma:

donde j es el coeficiente de correlación entre te y jte , y T es el número de

observaciones. En el ejemplo, el estadístico Q indica que existe autocorrelación pues las probabilidades son menores a los niveles de significancia 1, 5 y 10 por ciento. De forma alternativa, se puede obtener el correlograma de los residuos de la regresión a través del comando:

mco.correl(36)

2.4 Test de Breusch-Godfrey Una prueba más general que la de Durbin-Watson es la prueba de Breusch-Godfrey, la cual permite identificar la presencia de autocorrelación generada por un proceso AR(p) para 2p . Esta prueba se basa en un estadístico LM

(multiplicador de Lagrange) que se distribuye asintóticamente como una chi-cuadrado:

22 ~a

nRML

Page 9: Autocorrelación

9

Para acceder a dicha prueba a través de las ventanas desplegables, dentro del menú de la ventana del objeto ecuación se sigue la ruta: View/Residual Test/Serial Correlation LM Test:

Es necesario especificar el número de rezagos para los cuales se va a realizar la prueba.

con lo que se obtiene la siguiente tabla:

Breusch-Godfrey Serial Correlation LM Test:

F-statistic 14.12214 Prob. F(1,79) 0.000327

Obs*R-squared 12.73875 Prob. Chi-Square(1) 0.000358

Test Equation:

Dependent Variable: RESID

Method: Least Squares

Sample: 1995M01 2001M12

Included observations: 84

Presample missing value lagged residuals set to zero.

Variable Coefficient Std. Error t-Statistic Prob.

C 0.555237 0.909530 0.610466 0.5433

LPBIR -0.060991 0.100622 -0.606139 0.5462

TIPMN -0.000293 0.001765 -0.166253 0.8684

@TREND 0.000112 0.000207 0.539418 0.5911

Page 10: Autocorrelación

10

RESID(-1) 0.400763 0.106644 3.757943 0.0003

R-squared 0.151652 Mean dependent var 6.48E-17

Adjusted R-squared 0.108697 S.D. dependent var 0.024398

S.E. of regression 0.023033 Akaike info criterion -4.646062

Sum squared resid 0.041913 Schwarz criterion -4.501371

Log likelihood 200.1346 F-statistic 3.530535

Durbin-Watson stat 1.929193 Prob(F-statistic) 0.010548

En las primeras 2 líneas aparecen los valores de los estadísticos calculados para la prueba Breusch-Godfrey de correlación serial, tanto ara muestras pequeñas (estadístico F) como para muestras grandes (estadístico LM) construido bajo la hipótesis nula de que no existe autocorrelación hasta el orden especificado. Las probabilidades o p-values asocidados indican que se rechaza la hipótesis nula al 1, 5 y 10 por ciento de significancia. Esto se evidencia a partir de la regresión auxiliar que se muestra en la parte inferior de la ventana, donde la inclusión del primer rezago del residuo es significativo en el modelo estimado para el residuo (al 1, 5 y 10 por ciento). Por lo tanto, hay indicios de que el modelo presenta autocorrelación de orden 1. Alternativamente, se puede realizar la prueba de Breusch-Godfrey utilizando el siguiente comando:

mco.auto(1)

3. Posibles Soluciones

En la práctica, existen 3 posibles soluciones para estimar los parámetros de un modelo de regresión cuando las perturbaciones están autocorrelacionadas: (1) Reespecificar el modelo. (2) Estimar con las fórmulas correctas de MCO y para la inferencia utilizar el

estimador de Newey-West. (3) Estimar por MCG o MCGF. A continuación, se muestra la forma de implementar estas tres propuestas, considerando que se sabe que las perturbaciones siguen un proceso AR(1). 3.1. Reespecificación del modelo La autocorrelación en las perturbaciones puede ser consecuencia de la omisión de términos rezagados tanto de la endógena como de las exógenas, de regresores omitidos que presentan autocorrelación y en general de una mala especificación funcional. Por lo tanto, la presencia de perturbaciones autocorrelacionadas pueden ser consideradas como una señal de que el modelo necesita ser re-especificado.

Page 11: Autocorrelación

11

Teóricamente, si el modelo es de la forma:

ttt utrym 1110

y además las perturbaciones siguen un proceso AR(1):

ttt uu 1

entonces, un modelo equivalente con perturbaciones ruido blanco es:

ttttttt urytrymm 151432110

Siguiendo este resultado, la presencia de autocorrelación se considerará como indicio de que el modelo necesita términos dinámicos. Así, en el modelo de demanda por dinero se incluye el primer rezago de la variable endógena y de los regresores:

Dependent Variable: M1

Method: Least Squares

Sample: 1995M01 2001M12

Included observations: 84

Variable Coefficient Std. Error t-Statistic Prob.

C 0.839538 0.900314 0.932494 0.3540

LPBIR 0.007698 0.093654 0.082195 0.9347

TIPMN -0.015142 0.005995 -2.526031 0.0136

TT 0.000465 0.000232 2.002506 0.0488

M1(-1) 0.473690 0.081310 5.825736 0.0000

LPBIR(-1) 0.375394 0.094872 3.956858 0.0002

TIPMN(-1) 0.011516 0.006130 1.878724 0.0641

R-squared 0.923138 Mean dependent var 8.255810

Adjusted R-squared 0.917149 S.D. dependent var 0.064787

S.E. of regression 0.018648 Akaike info criterion -5.046495

Sum squared resid 0.026777 Schwarz criterion -4.843927

Log likelihood 218.9528 F-statistic 154.1331

Durbin-Watson stat 1.990755 Prob(F-statistic) 0.000000

Dado que LPBIR es no significativo, se elimina de la ecuación:

Dependent Variable: M1

Method: Least Squares

Sample: 1995M01 2001M12

Included observations: 84

Page 12: Autocorrelación

12

Variable Coefficient Std. Error t-Statistic Prob.

C 0.869264 0.819217 1.061092 0.2919

TIPMN -0.015157 0.005954 -2.545842 0.0129

TT 0.000470 0.000224 2.092660 0.0396

M1(-1) 0.474886 0.079487 5.974399 0.0000

LPBIR(-1) 0.378735 0.085176 4.446501 0.0000

TIPMN(-1) 0.011539 0.006084 1.896526 0.0616

R-squared 0.923132 Mean dependent var 8.255810

Adjusted R-squared 0.918204 S.D. dependent var 0.064787

S.E. of regression 0.018529 Akaike info criterion -5.070217

Sum squared resid 0.026779 Schwarz criterion -4.896587

Log likelihood 218.9491 F-statistic 187.3440

Durbin-Watson stat 1.993156 Prob(F-statistic) 0.000000

Los resultados muestran que la inclusión de las variables rezagadas es significativa en la explicación del comportamiento de la demanda por dinero. Así, el coeficiente de M1(-1) sugiere que un mayor nivel de demanda por dinero en el periodo anterior genera a su vez una mayor demanda por dinero en el periodo actual. Esta variable resulta significativa al 1%, 5% y 10%. Alternativamente, estas estimaciones pueden realizarse mediante el siguiente comando:

equation respec.ls m1 lpbir tipmn @trend m1(-1) lpbir(-1) tipmn(-1)

equation respec.ls m1 tipmn @trend m1(-1) lpbir(-1) tipmn(-1)

3.2. MCO y matriz de Newey-West

Si se desconoce el origen de la autocorrelación, entonces los parámetros pueden ser estimados con las fórmulas correctas de MCO. Sin embargo, la fórmula de la varianza del vector de estimadores:

112 )'(')'()ˆ( XXXXXXVar A

MCO

no puede calcularse pues depende del patrón poblacional de autocorrelación. Para estos casos se utiliza el estimador propuesto por Newey-West para

)ˆ( A

MCOVar , el cual es un estimador consistente bajo la presencia de autocorrelación (e

inclusive de heteroscedasticidad). Una ventaja es que no es necesario conocer la

forma poblacional de la matriz de varianzas y covarianzas 2

. Este procedimiento proporciona estimados insesgados y consistentes e inferencias más precisas; sin embargo, el estimador MCO sigue siendo ineficiente en muestras pequeñas y asintóticamente (no es de máxima verosimilitud).

Page 13: Autocorrelación

13

La idea es seguir utilizando el vector de estimadores MCO

ˆ , pero para estimar la

varianza correcta del vector de estimadores, 112 )'(')'()ˆ( XXXXXXVar A

MCO,

se utiliza la matriz de Newey-West. Esta matriz permite obtener un estimador

consistente de )ˆ( A

MCOVar bajo la presencia de autocorrelación (e inclusive de

heteroscedasticidad). Una ventaja es que no es necesario conocer la forma

poblacional de la matriz de varianzas y covarianzas 2

.

Eviews 5.1 posee la opción para estimar 112 )'(')'()ˆ( XXXXXXVar A

MCO

con la matriz Newey-West.

El estimador de 112 )'(')'()ˆ( XXXXXXVar A

MCO que proporciona Newey-

West es:

1 1( ´ ) ( ´ )NW

TX X X X

T k

donde:

2

1 1 1

´ 1 ( ´ )́ 1

qT T

t t t t t t v t v t v t v t

t v t v

T vu x x x u u x x u x

T k q

En esta matriz, q es el parámetro de truncamiento. Eviews 5.1 fija el valor de este

parámetro utilizando ])100/(4[ 9/2Tenteromenorq y tu son los residuos estimados

por MCO. Para realizar la estimación por MCO y utilizar la matriz de Newey- West para hacer inferencia, dentro de la ventana de estimación se hace click en Estimate y se selecciona la pestaña de Options. Se elige la opción Heterokedasticity consistent coefficient covariance/ Newey-West

Page 14: Autocorrelación

14

Los resultados que se obtienen se muestran a continuación:

Dependent Variable: M1

Method: Least Squares

Sample: 1995M01 2001M12

Included observations: 84

Newey-West HAC Standard Errors & Covariance (lag truncation=3)

Variable Coefficient Std. Error t-Statistic Prob.

C 4.972378 1.195654 4.158711 0.0001

LPBIR 0.349609 0.132125 2.646048 0.0098

TIPMN -0.003856 0.001985 -1.942050 0.0557

@TREND 0.001762 0.000256 6.880562 0.0000

R-squared 0.858185 Mean dependent var 8.255810

Adjusted R-squared 0.852867 S.D. dependent var 0.064787

S.E. of regression 0.024851 Akaike info criterion -4.505408

Sum squared resid 0.049405 Schwarz criterion -4.389654

Log likelihood 193.2271 F-statistic 161.3716

Durbin-Watson stat 1.160906 Prob(F-statistic) 0.000000

Alternativamente, en la línea de comandos se puede digitar:

equation nw.ls(n) m1 c lpbir tipmn @trend

Si se compara esta estimación con la estimación convencional MCO, se puede observar que los coeficientes estimados son similares, pues no se ha cambiado el estimador de los parámetros. La diferencia radica en los desvíos estándar (y por lo tanto en los estadísticos t y las probabilidades asociadas), pues en esta última regresión estos se han estimado con la matriz de Newey-West. Ahora, la tasa de interés es significativa sólo al 10 por ciento. 3.3 Mínimos Cuadrados Generalizados (MCG) y Factibles (MCGF)

Si se conoce la forma poblacional de la autocorrelación, se utilizan los estimadores MCG pues estos son MELI. Sin embargo, inclusive si se tiene información acerca de la forma poblacional de la autocorrelación, en general se desconocen los parámetros que describen el patrón poblacional de autocorrelación. Por ejemplo si se sabe que la perturbación sigue un proceso AR(1) con coeficiente , es decir:

ttt uu 1

entonces la matriz de varianza y covarianzas es:

Page 15: Autocorrelación

15

Ω2

21

2

1

2

2

1

1

1

1

1)(

nn

n

n

uVar

donde:

1000000

100000

010000

0000100

000010

000001

0000001

2

2

2

2

2

1

Ω

Así, si bien el estimador MELI para el modelo con autocorrelación es

yXXXMCG

111 ')'(ˆ y, además, se necesita 112 )'()ˆ( XXVar MCG para

hacer inferencia, aún es aún es necesario estimar para estimar . Cuando se realiza

este proceso, se obtienen los estimadores MCG Factibles o MCGF:

yXXXMCGF

111 ˆ')ˆ'(ˆ

112 )ˆ'()ˆ( XXVar MCGF