ananlisis de series temporales

Upload: yuri-soncco

Post on 15-Oct-2015

20 views

Category:

Documents


0 download

TRANSCRIPT

  • Prof. Adrin Fernndez Anlisis de Series de Tiempo Cap. 1 - Pg. 1

    ANLISIS DE SERIES DE TIEMPO

    1. INTRODUCCIONSurge en 1970, con la obra pionera de Box y Jenkins: Time Series Analysis: Forecasting and Control.

    La modelizacin de series de tiempo es, por su puesto, una disciplina de pleno derecho. El anlisis de cointegracincreci desde esta rama. El anlisis de series de tiempo es actualmente ampliamente visto como un ladrillo bsico dela econometra. K. Cuthbertson et al.

    Es una herramienta imprescindible en el anlisis econmico aplicado.

    1.1. BIBLIOGRAFIA

    Los presentes apuntes estn basados en varios textos. En particular:

    Ezequiel URIEL - ANALISIS DE SERIES TEMPORALES - MODELOS ARIMA -Coleccin Abaco - Ed.Paraninfo - 1985.

    Como bibliografa ampliatoria.

    Antoni ESPASA y Jos Ramn CANCELO (Eds.) - METODOS CUANTITATIVOS PARA EL ANALISISDE LA COYUNTURA ECONOMICA - Alianza Economa - 1993.

    En particular, la presente introduccin y el Captulo 2 se ha basado en dicho texto.

    Otra referencia:

    Andrew C. HARVEY - THE ECONOMETRIC ANALYSIS OF TIME SERIES - LSE HANDBOOKS INECONOMICS - 1990.

  • Prof. Adrin Fernndez Anlisis de Series de Tiempo Cap. 1 - Pg. 2

    1.2. IDEA CENTRAL

    Si el objetivo es explicar el valor que toma, en un momento determinado del tiempo, un fenmeno econmico quemuestra dependencia temporal, un procedimiento factible consiste en recoger informacin sobre su evolucin a lolargo del tiempo, y explotar el patrn de regularidad que muestran los datos.

    Para construir un modelo de series de tiempo, lo nico que se necesita es la informacin muestral de la variable aanalizar.

    Si se desea explicar el comportamiento de una variable temporal Yt, un modelo de series temporales puedeplantearse como:

    1.3. VENTAJAS Y DESVENTAJAS

    (comparacin con el mtodo de regresin)

    Ventajas de los modelos de series temporales:

    i) a menudo no se dispone de los datos de las variables exgenas (por ejemplo, expectativas, gap deproducto);

    ii) dificultades en el marco del mtodo de regresin para la estimacin con variables retardadas(especialmente con la variable endgena retardada);

    iii) prediccin: cmo predecir los valores de las variables exgenas?

    iv) son ms sencillos de estimar;

    v) con niveles de desagregacin temporal elevados (datos mensuales, semanales, diarios) es mucho ms fcilconstruir un modelo de series temporales;

    Limitaciones:

    vi) un modelo economtrico, estimado adecuadamente, ser ms eficiente, y por lo tanto ms til que unmodelo de series temporales;

    vii) los modelos economtricos permiten conocer la forma en que la variable de inters se relaciona con lasvariables exgenas; ste puede ser el objetivo principal del anlisis (por ejemplo, estimacin de unaelasticidad).

    FINALMENTE, ABORDAJES COMPLEMENTARIOS Y NO OPUESTOS

    ) ... ,Y ,Y f( = Y 2-t1-tt

  • Prof. Adrin Fernndez Anlisis de Series de Tiempo Cap. 1 - Pg. 3

    1.4. MODELOS DE SERIES TEMPORALES

    Variables temporales: variables que se observan a lo largo del tiempo. Yt indica la variable Y en el momento t.

    Serie temporal: Conjunto de T observaciones, una observacin por cada una de las variables: Y1, Y2, ..., YT.Sinnimo: serie cronolgica.

    A las observaciones de una variable temporal se denominan realizaciones. Son los resultados de un procesoestocstico, como se plantea ms adelante.

    En gran parte de las variables temporales propias del anlisis econmico se detecta un patrn de comportamientoen el tiempo. Las series presentan movimientos sistemticos (repetitivos). En la evolucin en el tiempo se observauna regularidad.

    Esta regularidad de las series temporales es, en general, estocstica y no determinstica. Es decir, esa regularidadno admite una formulacin funcional determinista, sino que es funcin de variables aleatorias.

    Estimando tal regularidad, el analista construye un mecanismo explicativo que recibe el nombre de modelo.

    Con la construccin de un modelo, Yt se descompone en dos partes: parte sistemtica (PS) e innovacin (a).

    La innovacin es un componente aleatorio en el que sus valores no tienen ninguna relacin o dependenciaentre s. La innovacin y la parte sistemtica son independientes. No es posible ningn tipo de descomposicinde la innovacin con fines predictivos: es impredecible. Por eso tambin se la llama sorpresa o ruido. Unainnovacin slo ser autnticamente tal si es impredecible para cualquier conjunto de informacin existente.

    a + PS = Y ttt

  • Prof. Adrin Fernndez Anlisis de Series de Tiempo Cap. 2 - Pg. 1

    2. PROCESOS ESTOCSTICOS ESTACIONARIOSSe denomina proceso estocstico a la sucesin infinita de variables aleatorias ordenadas

    ..., Y1, Y2, ..., YT, ...

    Si se dispone de un conjunto finito de estas variables, Y1, Y2, ..., YT, se dice que esta sucesin de observaciones(realizaciones) forma una serie temporal.

    2.1. RUIDOS BLANCOS

    Un tipo especial de proceso estocstico es el denominado ruido blanco.

    Una variable at se denomina "ruido blanco" si cumple las siguientes condiciones:

    Esto es, la variable xt presenta una esperanza constante en el tiempo, e igual a 0; varianza constante e incorrelacintemporal (autocorrelacin nula). Si se agrega la condicin de que la variable xt se distribuye normal, la condicin(iii) de incorrelacin implica independencia.

    Supondremos, salvo que se exprese lo contrario, que la distribucin de probabilidad asociada a un ruido blanco esnormal. Ello significa que las 3 condiciones anteriores pueden sintetizarse en la siguiente expresin:

    Niid: normales independientes e idnticamente distribuidas

    El trmino ruido ha sido tomado de la teora de la comunicacin. En esta disciplina, un ruido corresponde aperturbaciones aleatorias que vienen en funcin de la seal enviada, que es diferente de la seal recibida. Sedenomina ruido blanco a una perturbacin aleatoria con las caractersticas antes planteadas, por analoga con ladistribucin de energa continua en luz blanca de un cuerpo incandescente.

    A continuacin se presenta el grfico de una serie temporal artificial de 100 observaciones, que es una realizacindel proceso estocstico:

    Es decir, Yt es, en s mismo, un ruido blanco normal, con varianza igual a 1.

    [ ][ ]

    [ ]2.1.3 0).(),(COV )2.1.2 )()(V )

    2.1.1 0)( )22

    staaEaaiiitaEaii

    taEi

    stst

    tt

    t

    ====

    =

    t ), 0( ~ 2 Niidat

    ) 1 ,0 ( Niid a ; a = Y ttt ~

  • Prof. Adrin Fernndez Anlisis de Series de Tiempo Cap. 2 - Pg. 2

    Grfico 2.1.1. Proceso de ruido blancoat Niid (0 ; 1)

    2.2. PROCESOS ESTACIONARIOS EN SENTIDO AMPLIO

    Se dice que una serie temporal Yt ha sido generada por un proceso estocstico estacionario en sentido amplio si secumplen simultneamente las tres condiciones siguientes:

    i) cada observacin tiende a oscilar alrededor de una media que es constante a lo largo del tiempo. Es decir,todas las variables del proceso tienen la misma esperanza matemtica:

    ii) la dispersin alrededor de esa media constante a lo largo del tiempo tambin es constante. Es decir, todaslas variables del proceso tienen la misma varianza:

    iii) la covarianza entre dos variables que disten k perodos de tiempo (autocovarianza de orden k) es lamisma que existe entre cualesquiera otras dos variables que disten tambin k perodos entre s,independientemente del momento del tiempo al que estn referidas:

    Debe tenerse mucho cuidado en no confundir un proceso ESTACIONARIO con un proceso que presentaESTACIONALIDAD (fluctuaciones regulares dentro del ao).

    -3

    -2

    -1

    0

    1

    2

    3

    50 100 150 200 250 300

    [ ]2.2.3 ),(),(COV tYYCOVYY kkjtjtktt == ++++

    [ ]1.2.2 t = ) Yt ( E

    [ ]2.2.2 2 t = ) Y ( V Yt

  • Prof. Adrin Fernndez Anlisis de Series de Tiempo Cap. 2 - Pg. 3

    2.3. EJEMPLOS

    A. Claramente un proceso de ruido blanco corresponde a un fenmeno estacionario en sentido amplio (y ensentido estricto, como se ver ms adelante).

    Su media es invariante en el tiempo, al igual que su varianza. Las autocovarianzas, al ser nulas, tambin cumplencon la condicin (iii).

    B. Considrese la serie Yt generada por el proceso siguiente:

    En adelante, la variable at se entender como un ruido blanco normal.

    Obsrvese que Yt es una serie generada por un proceso estacionario, ya que:

    C. Considrese la serie Yt generada por el proceso siguiente:

    La variable t representa al tiempo. Yt no corresponde a un proceso estacionario, ya que:

    Es decir, su media (esperanza) no es invariante en el tiempo.

    Obsrvese que la variable Yt presenta tendencia, por lo que no puede ser generada por un proceso estacionario.

    Tngase en cuenta que las series con tendencia no necesariamente deben ser generadas por procesos del tipo[ 2.3.1]. Como se ver ms adelante, este proceso corresponde a un tipo muy particular, de tendenciadeterminstica.

    ), 0( ~a ; 2t NiidaY tt +=

    k 0 = ) Y ,Y ( COV = ) Y ( V

    = ) Y ( E

    k+tt

    2t

    t

    [ ]1.3.2 a + t . + = Y tt

    t . + = ) Y ( E t

  • Prof. Adrin Fernndez Anlisis de Series de Tiempo Cap. 2 - Pg. 4

    D. La serie del Indice de Volumen Fsico (IVF) de la Industria Manufacturera, calculado por el Instituto Nacionalde Estadsticas, en el perodo 1982-1992.

    Corresponde a una serie con tendencia. Por lo tanto, es un proceso no estacionario.

    Grfico 2.3.1. IVF Industria ManufactureraIndices Mensuales Ao 1982 = 100

    Podramos decir que afortunadamente la serie del IVF industrial no corresponde a un proceso estacionario (aunquequizs estemos planteando un juicio de valor respecto a la estructura productiva deseable). Analice en la mismaforma el Producto Bruto Interno.

    E. Las series de precios, monetarias, fiscales, de produccin, a precios corrientes, presentan claramente unatendencia creciente, especialmente en pases con alta inflacin como en Uruguay. Evidentemente estas series nopueden considerarse generadas por procesos estacionarios. Obsrvese que si bien la inflacin en los pasesdesarrollados (y en EE.UU. en particular) es muy inferior a los registros uruguayos, de todas maneras se observanuna tendencia creciente de los precios, especialmente luego de la Segunda Guerra Mundial. Ello indica que anvariables medidas en dlares corrientes (como las relativas al comercio exterior), posiblemente presenten uncomportamiento no estacionario.

    F. Varios investigadores han encontrado que la varianza de los ndices de retornos (ganancias) de las accionescambia a lo largo del tiempo. Por ejemplo, los retornos diarios del portafolio compuesto del Standard & Poor'sfueron estudiados. Se encontr que la desviacin estndar en el perodo 1929-1933 fue alrededor de 4 veces msgrande que en 1953-1970 1.

    Sin disponer de ms datos sobre la serie, qu podra afirmar sobre la estacionariedad del proceso generador?

    1

    SCHWERT, G. William y SEGUIN, Paul J. - "Heteroskedasticity en Stock Returns" - The Journal of Finance,Vol. XLV, No. 4 - Setiembre 1990.

    70

    80

    90

    100

    110

    120

    130

    140

    82 83 84 85 86 87 88 89 90 91 92

  • Prof. Adrin Fernndez Anlisis de Series de Tiempo Cap. 2 - Pg. 5

    2.4. FUNCION DE AUTOCORRELACION

    Por analoga con [ 2.2.3], que se presenta a continuacin:

    usualmente se nota la varianza como:

    que, por [ 2.2.2] es constante (invariante) en el tiempo.

    De esta forma, la condicin (iii) de estacionariedad (en sentido amplio) puede escribirse alternativamente como:

    Es decir, la correlacin entre dos momentos de la variable que disten k perodos de tiempo (autocorrelacin deorden k) es la misma que existe entre cualesquiera otras dos momentos que disten tambin k perodos entre s,independientemente del perodo del tiempo al que estn referidas.

    El coeficiente de correlacin de orden k se define alternativamente como:

    Por las propiedades de la covarianza y la definicin del coeficiente de correlacin, se tiene:

    El conjunto (infinito) de los valores de los coeficientes de autocorrelacin se denomina funcin de autocorrelacin(FAC), que es una funcin en k, cuyos valores son las autocorrelaciones definidas.

    [ ]1.4.2 = ) Y ( V ot

    [ ]2.4.2) k j, ,t =)Y ,Ycorr( Y ,Ycorr( kk+j+tj+tk+tt =

    [ ]3.4.2 k = o

    kk

    [ ][ ]5.4.2

    4.4.2

    1 =

    k =

    o

    oo

    k -k

    [ ]2.2.3 ),(),(COV tYYCOVYY kkjtjtktt == ++++

  • Prof. Adrin Fernndez Anlisis de Series de Tiempo Cap. 2 - Pg. 6

    2.5. ESTIMACION DE LOS MOMENTOS

    Como puede apreciarse, las definiciones anteriores han sido referidas a los momentos poblacionales, queobviamente son no observables.

    A partir de una muestra de T observaciones, se definen las estimaciones de estos momentos poblacionales a partirde la muestra como:

    T

    Y = Y

    t

    T

    1=t

    T

    ) Y - Y ( = = C = ) Y V(

    2t

    T

    1=too

    T

    ) Y - Y ( . ) Y - Y ( = = C

    k+tt

    k-T

    1=tkk

    ) Y - Y (

    ) Y - Y ( . ) Y - Y ( =

    = ) Y V(

    ) Y ,Y COV( = CC = = r

    2t

    T

    1=t

    k+tt

    k-T

    1=t

    k+tt

    o

    kkk

  • Prof. Adrin Fernndez Anlisis de Series de Tiempo Cap. 2 - Pg. 7

    A partir de los datos de una serie temporal, se puede estimar un nmero finito (K) de las autocorrelacionesmuestrales.

    Como se observa en [ 2.4.4], slo es necesario estimar los coeficientes de autocorrelacin para k=1, 2, ..., K. Elgrfico de las autocorrelaciones muestrales recibe el nombre de correlograma.

    A continuacin se incluyen el histrograma y el correlograma para el ruido blanco presentado en el grfico 2.1.1

    En las salidas incluidas, la funcin de autocorrelacin se denomina "ac". Tambin se incluye la funcin deautocorrelacin parcial ("pac"). Esta ltima mide la autocorrelacin de orden k cuando se elimina el efecto de lasvariables retrasadas en 1, 2, ..., k-1 perodos. Ms adelante se vuelve sobre estos aspectos as como sobre otrasestadsticas incluidas en la salida.

    SMPL range: 1 - 200 Number of observations: 200 ========================================================================

    Variable Mean S.D. Maximum Minimum ========================================================================

    EPSI -0.0394907 0.9194777 2.6638090 -2.3261690 ========================================================================

    INTERVAL COUNT HISTOGRAM ========================================================================

    -2.4 >= EPSI = EPSI = EPSI = EPSI = EPSI = EPSI = EPSI = EPSI < 0.0 36 |************************************* 0.0 >= EPSI < 0.3 19 |******************** 0.3 >= EPSI < 0.6 27 |**************************** 0.6 >= EPSI < 0.9 14 |*************** 0.9 >= EPSI < 1.2 12 |************* 1.2 >= EPSI < 1.5 9 |********** 1.5 >= EPSI < 1.8 5 |****** 1.8 >= EPSI < 2.1 2 |** 2.1 >= EPSI < 2.4 2 |** 2.4 >= EPSI < 2.7 1 |* ========================================================================

    Skewness 0.088156 Kurtosis 2.884407 Jarque-Bera normality test stat. 0.370399 Probability 0.830939 ========================================================================

  • Prof. Adrin Fernndez Anlisis de Series de Tiempo Cap. 2 - Pg. 8

    IDENT EPSI SMPL range: 1 - 200 Number of observations: 200 ==========================================================================

    Autocorrelations Partial Autocorrelations ac pac ==========================================================================

    | .*| . | .*| . | 1 -0.072 -0.072 | . |*. | . |*. | 2 0.046 0.041 | . | . | . | . | 3 0.001 0.007 | . | . | . | . | 4 0.011 0.009 | ***| . | ***| . | 5 -0.195 -0.196 | . |*. | . |*. | 6 0.077 0.052 | .*| . | .*| . | 7 -0.114 -0.094 | .*| . | **| . | 8 -0.107 -0.128 | . | . | . | . | 9 -0.021 -0.030 | .*| . | .*| . | 10 -0.063 -0.102 | . | . | . | . | 11 -0.033 -0.021 | . | . | .*| . | 12 -0.012 -0.062 | . |*. | . | . | 13 0.048 0.010 | .*| . | .*| . | 14 -0.059 -0.068 | . |*. | . | . | 15 0.060 -0.006 ==========================================================================

    Box-Pierce Q-Stat 18.19 Prob 0.2527 SE of Correlations 0.071 Ljung-Box Q-Stat 19.02 Prob 0.2130 ==========================================================================

  • Prof. Adrin Fernndez Anlisis de Series de Tiempo Cap. 2 - Pg. 9

    2.6. ESTACIONARIEDAD EN SENTIDO ESTRICTO

    Un proceso estacionario en sentido estricto cumple una condicin ms restrictiva que las 3 caractersticasplanteadas en 2.2. La funcin de distribucin de probabilidad de cualquier conjunto de k (nmero finito) variablesdel proceso debe mantenerse estable (inalterable) al desplazar las variables j perodos de tiempo.

    Es decir, si p( Yt+1, Yt+2, ..., Yt+k ) es la funcin de distribucin acumulada de probabilidad, entonces:

    Los procesos estacionarios en sentido estricto tambin lo son en sentido amplio. Es decir, cumplen las condiciones[ 2.2.5 ] a [ 2.2.7]. No es cierta la afirmacin inversa.

    Obsrvese el caso de una variable ruido blanco. Si Yt sigue una distribucin conjunta Niid(0, ), entonces:

    En realidad, la deduccin anterior slo requiere que la serie en cuestin sea generado por un proceso asociado auna distribucin de variables independientes e idnticamente distribuidas.

    sk, t, )Y ..., ,Y ,Y( p = = ) Y ..., ,Y ,Y ( p

    s+k+ts+2+ts+1+t

    k+t2+t1+t

    s ,t ,k ) Y ... ,Y ,Y ( p = = ] ) Y ( p [ = ] ) Y p( [ =

    = ) Y ( p =

    = ) Y ..., ,Y ,Y ( p

    k+s+t2+s+t1+s+t

    ks+t

    kt

    i+t

    k

    1=i

    k+t2+t1+t

  • Prof. Adrin Fernndez Anlisis de Series de Tiempo Cap. 2 - Pg. 10

    2.7. IMPORTANCIA DE LA ESTACIONARIEDAD

    La identificacin y estimacin de modelos de series temporales han sido desarrolladas para procesos estacionarios.A partir del captulo siguiente se analizan estos modelos, que pueden clasificase en autoregresivos (AR), de mediasmviles (MA) o procesos mixtos (ARMA).

    En la realidad, y especialmente para las variables econmicas, se encuentran muy raramente series generadas apartir de procesos estacionarios. Como se explic, las series a precios corrientes, las series de Cuentas Nacionales,generalmente presentan tendencia y, por lo tanto, no corresponden a procesos estacionarios.

    El hecho de que una gran cantidad de fenmenos econmicos correspondan a procesos no estacionarios, no debellevar a pensar de que no reviste inters el estudio de los procesos estacionarios.

    Como se ver ms adelante, una gran cantidad de procesos no estacionarios pueden ser fcilmente transformadosen procesos estacionarios y, a partir de esta transformacin, les son aplicables los mtodos de identificacin yestimacin que se vern ms adelante.

    2.8. OPERADOR DE RETARDO Y DIFERENCIACIN DE UNA SERIE.

    Introduciremos a continuacin el operador polinomial de retardos, L. El operador L determina que:

    Es decir, el resultado de aplicar el operador L corresponde a la observacin en el perodo anterior de lavariable (serie).

    Aplicada dos veces sobre la variable Yt

    y, en general:

    La diferencia de una serie es:

    En general:

    1tt Y = LY

    22)(

    = ttt Y = YLLYL

    kttk Y = YL

    tttt YL = YYY )1(1 =

    tk

    tk

    tk YL = YY )1()( 1 =

  • Prof. Adrin Fernndez Anlisis de Series de Tiempo Cap. 3 - Pg. 1

    3. PROCESOS AUTORREGRESIVOS

    3.1. MODELO AR(p)

    Si el valor corriente de la variable Yt depende de sus valores pasados y de la innovacin corriente, puedeplantearse:

    La expresin anterior corresponde a la forma general del modelo autoregresivo de orden p, que se nota comoAR(p).

    A partir del uso del operador de retardo L, la expresin [ 3.1.1 ] puede plantearse como:

    Realizando algunas transformaciones, tenemos:

    Por analoga, podemos definir la expresin entre parntesis como un polinomio en el operador de retardos L:

    Y de esta forma, la expresin [ 3.1 ] puede plantearse sintticamente como:

    Comenzaremos por analizar el modelo ms sencillo, el correspondiente al modelo autoregresivo de 1er. orden,AR(1).

    [ ] Niid a + Y + ... + Y + Y + C = Y tp-tp2-t21-t1t

    3.1.1 ), 0( ~a donde 2t

    a + YL + ... + Y L + LY + C = Y ttppt2t1t 2

    a + C =YL ... L L ttp

    p21 )1(2

    pp21 L ... L L L 21)(

    ttPt aCYLYL +== )( )(

  • Prof. Adrin Fernndez Anlisis de Series de Tiempo Cap. 3 - Pg. 2

    3.2. MODELO AR(1)

    El caso ms sencillo corresponde a un modelo autoregresivo de 1er. orden, donde el parmetro C se suponeigual a cero:

    El supuesto respecto al parmetro , como veremos despus, est relacionado a la estacionariedad del proceso.Partiendo de la base que [ 3.2.1] corresponde a un proceso estacionario, podemos derivar las expresiones de laesperanza, la varianza y las auto-covarianzas de Yt.

    Excepto en el caso =0, que es trivial y que no dara lugar a un AR(1), se deduce:

    La varianza del proceso:

    [ ]1 < | | donde

    a + Y = Y t1-tt

    1.2.3

    yy

    t1-t

    t1-tt

    = ) a ( E + ) Y ( E =

    = ) a + Y ( E = ) Y ( E

    0 = = ) Y ( E yt

    = ] ) a + Y ( [ E= ) Y ( E = ) Y ( V

    2t1-t

    2tYt

    =2

    ) a Y ( E 2 + ) a ( E + ) Y ( E = t-1t2t2-1t2

  • Prof. Adrin Fernndez Anlisis de Series de Tiempo Cap. 3 - Pg. 3

    El tercer trmino del segundo miembro de la expresin anterior es igual a 0. La fundamentacin rigurosaquedar clara ms adelante cuando se analicen los procesos de medias mviles. Sin embargo, es posiblerazonarlo en los siguientes trminos.

    E(Yt-1.at) corresponde a la correlacin (poblacional) entre Yt-1 y el ruido blanco at. Yt-1 depende de losvalores pasados del ruido blanco (es decir, de at-1, at-2, ) pero no del valor futuro, ya que, justamente, ates una sorpresa. De ah que la correlacin es nula.

    Por el hecho de ser estacionaria la serie, V(Yt) = V(Yt-1) = . De donde:

    La condicin de en valor absoluto menor que 1 es necesaria para la existencia de la varianza de Yt.

    Las autocovarianzas pueden deducirse de una manera anloga. La autocovarianza de orden 1 es:

    La autocovarianza de orden k es:

    Como resulta inmediato de las ecuaciones anteriores, el coeficiente de autocorrelacin de orden k es:

    ) - 1 ( = = = ) Y ( V

    + = = ) Y ( V

    2

    2

    o2yt

    22y

    22yt

    o1

    1-tt1-t

    1-tt1-t

    1-tt1-tt

    = ) Y . a ( E + ) Y ( V = =] Y . ) a + Y ( [ E =

    = ) Y . Y ( E = ) Y ,Y ( COV

    kkk = =

    0

    0

    okk =

  • Prof. Adrin Fernndez Anlisis de Series de Tiempo Cap. 3 - Pg. 4

    A continuacin se presenta el correlograma para un proceso AR(1) de coeficiente positivo y negativo.

    CORRELOGRAMAPROCESO AR(1) - COEF. +0,8

    0,0

    0,1

    0,2

    0,3

    0,4

    0,5

    0,6

    0,7

    0,8

    0,9

    1,0

    0 1 2 3 4 5 6 7 8 9 10 11 12

    CORRELOGRAMAPROCESO AR(1) - COEF. -0,8

    -1,0

    -0,8

    -0,6

    -0,4

    -0,2

    0,0

    0,2

    0,4

    0,6

    0,8

    1,0

    0 1 2 3 4 5 6 7 8 9 10 11 12

  • Prof. Adrin Fernndez Anlisis de Series de Tiempo Cap. 3 - Pg. 5

    A continuacin se presenta el correlograma de una variable artificial generada a partir de:

    Yt = 0.8 Yt-1 + atCorrelogram of Y1==============================================================

    Sample: 1 300Included observations: 300==============================================================

    Autocorrelation Partial Correlation AC PAC Q-Stat Prob==============================================================

    .|****** | .|****** | 1 0.780 0.780 184.35 0.000 .|***** | .|. | 2 0.602-0.016 294.53 0.000 .|**** | .|. | 3 0.463-0.003 359.96 0.000 .|*** | .|. | 4 0.351-0.013 397.69 0.000 .|** | .|* | 5 0.296 0.078 424.63 0.000 .|** | .|. | 6 0.263 0.036 446.01 0.000 .|** | .|. | 7 0.231 0.001 462.52 0.000 .|** | .|. | 8 0.200-0.002 474.92 0.000 .|* | .|. | 9 0.167-0.005 483.61 0.000 .|* | .|. | 10 0.145 0.020 490.20 0.000 .|* | .|. | 11 0.148 0.058 497.09 0.000 .|* | *|. | 12 0.097-0.123 500.04 0.000 .|* | .|. | 13 0.068 0.019 501.50 0.000 .|. | .|. | 14 0.029-0.048 501.78 0.000 .|. | .|. | 15 0.014 0.036 501.84 0.000 .|. | .|. | 16 0.008-0.008 501.86 0.000 .|. | .|. | 17-0.013-0.049 501.91 0.000 .|. | .|. | 18-0.029-0.012 502.18 0.000 .|. | .|. | 19-0.037 0.005 502.62 0.000 *|. | .|. | 20-0.058-0.037 503.72 0.000 *|. | .|. | 21-0.068-0.005 505.23 0.000 .|. | .|. | 22-0.043 0.061 505.82 0.000 .|. | *|. | 23-0.055-0.060 506.80 0.000 .|. | .|. | 24-0.050 0.017 507.63 0.000 *|. | .|. | 25-0.063-0.034 508.94 0.000 *|. | *|. | 26-0.114-0.117 513.22 0.000 *|. | .|. | 27-0.127 0.033 518.53 0.000 *|. | .|. | 28-0.142-0.033 525.28 0.000 *|. | .|. | 29-0.122 0.060 530.28 0.000 *|. | .|. | 30-0.110-0.038 534.35 0.000 *|. | .|. | 31-0.112-0.026 538.60 0.000 *|. | .|. | 32-0.127-0.044 544.02 0.000 *|. | .|* | 33-0.074 0.150 545.89 0.000 .|. | .|. | 34-0.052-0.026 546.83 0.000 .|. | *|. | 35-0.052-0.065 547.76 0.000 .|. | .|* | 36-0.027 0.073 548.01 0.000==============================================================

  • Prof. Adrin Fernndez Anlisis de Series de Tiempo Cap. 3 - Pg. 6

    A continuacin se presenta el correlograma de una variable artificial generada a partir de:

    Yt = -0.8 Yt-1 + atCorrelogram of Y2==============================================================

    Sample: 1 300Included observations: 300==============================================================

    Autocorrelation Partial Correlation AC PAC Q-Stat Prob==============================================================

    ******|. | ******|. | 1-0.776-0.776 182.57 0.000 .|***** | .|. | 2 0.594-0.021 289.97 0.000 ***|. | .|. | 3-0.447 0.020 350.92 0.000 .|** | .|. | 4 0.319-0.042 382.06 0.000 **|. | *|. | 5-0.252-0.067 401.60 0.000 .|* | .|. | 6 0.186-0.036 412.26 0.000 *|. | .|. | 7-0.114 0.059 416.24 0.000 .|. | .|. | 8 0.062-0.007 417.44 0.000 .|. | .|. | 9 0.001 0.065 417.44 0.000 *|. | *|. | 10-0.064-0.065 418.70 0.000 .|* | .|. | 11 0.113 0.043 422.71 0.000 *|. | .|* | 12-0.110 0.076 426.51 0.000 .|* | .|. | 13 0.097-0.005 429.49 0.000 *|. | .|. | 14-0.076 0.013 431.34 0.000 .|. | .|. | 15 0.038-0.055 431.79 0.000 .|. | .|. | 16-0.020-0.008 431.92 0.000 .|. | .|. | 17 0.013 0.019 431.98 0.000 .|. | .|. | 18-0.016-0.028 432.06 0.000 .|. | .|. | 19 0.004-0.039 432.06 0.000 .|. | .|. | 20 0.021 0.026 432.20 0.000==============================================================

    Obsrvese que los coeficientes de autocorrelacin decrecen en forma geomtrica. En un modelo AR(1), si elcoeficiente es negativo, los coeficientes de autocorrelacin alternan de signo.

    Media no nula

    Si el proceso presenta constante, esto es:

    resulta directo demostrar que:

    1

  • Prof. Adrin Fernndez Anlisis de Series de Tiempo Cap. 3 - Pg. 7

    3.3. MODELOS AR(2)

    Sin demostracin, se presentan a continuacin los momentos poblacionales para un modelo AR(2):

    2

    21

    22

    2

    11

    - 1 + =

    - 1 =

    a + Y + Y = Y t2-t21-t1t

    0 = = ) Y ( E yt

    2

    221

    2

    o2yt - - 1

    = = = ) Y ( V

    o

    2

    11 . - 1

    =

    o

    2

    21

    22 . ) - 1 + ( =

  • Prof. Adrin Fernndez Anlisis de Series de Tiempo Cap. 3 - Pg. 8

    3.4. CONDICIONES DE ESTACIONARIEDAD

    Volviendo a escribir el modelo AR de orden p (donde omitimos la constante por simplicidad en la exposicin):

    Utilizando el operador de retardos L:

    y, en forma sinttica,:

    La estacionariedad de la serie Yt requiere, entre otras condiciones, una media invariante. Es decir, la noobservacin de una tendencia. La serie no puede presentar un crecimiento (o decrecimiento) sostenido en eltiempo.

    La expresin [ 3.4.1] puede interpretarse como una ecuacin en diferencias finitas en la variable Yt. Como lavariable at es un ruido blanco y, por consiguiente, no influye sobre la existencia de una tendencia en la variableYt, la trayectoria en el tiempo de Yt estar determinada por el polinomio autoregresivo (miembro izquierdo dela ecuacin). En otras palabras, lo que interesa analizar es la ecuacin homognea:

    a + Y + ... + Y + Y = Y tp-tp2-t21-t1t

    aL ... L L

    aL ... L L Y

    a + L + ... + L + L = Y

    tp

    p21

    tp

    p21t

    tp

    p21t

    =

    =

    t2

    tt2

    t

    tt2

    t

    Y ) 1(

    )Y Y Y (

    Y Y Y

    [ ]1.4.3 a = Y ) L ( = Y ) L ( ttpt

    0 Y ) L ( tp =

  • Prof. Adrin Fernndez Anlisis de Series de Tiempo Cap. 3 - Pg. 9

    Para ejemplificar, consideremos un modelo AR(2):

    La ecuacin homognea en Yt es:

    Con la sustitucin habitual de Yt por rt se obtiene la ecuacin caracterstica:

    El polinomio autorregresivo (en el operador de retardos L) es:

    Obsrvese que las races de la ecuacin caracterstica [ 3.4.2] corresponden a las inversas de las races delpolinomio autorregresivo [ 3.4.3].

    Para el caso general, la ecuacin caracterstica queda planteada como:

    El polinomio Autoregresivo:

    y admite p races, en general complejas, en la forma ri. La solucin general de la ecuacin homognea (que esla que determina la trayectoria en el tiempo de Yt) puede plantearse como:

    a = Y ) L - L -1 ( a + Y + Y = Y

    tt2

    21

    t2-t21-t1t

    0 Y - Y - Y 2-t21-t1t =

    [ ]2.4.3 0 = - r - r 212

    [ ]3.4.3 L - L -1 ) L ( 221

    [ ]3.4.4 0 = - ... - r - r - r p2-p21-p1p

    tPp

    t2

    t11t r A + ... + r A + r A = Y 2

    [ ]5.4.3 ...2 LL - L -1 ) L ( pp21

  • Prof. Adrin Fernndez Anlisis de Series de Tiempo Cap. 3 - Pg. 10

    Cuando la trayectoria en el tiempo para Yt va a estar determinada por la raz de mayormdulo.

    Supongamos que las p races son reales. Si existe ri tal que entonces Yt no tiene lmite ( o notiene lmite finito).

    Si dentro de las races de la ecuacin caracterstica hay soluciones complejas, lo mismo vale para el mdulo delas races.

    En resumen, las races de la ecuacin caracterstica [3.4.4] deben ser, en mdulo, inferiores a 1. Como lasraces del polinomio autoregresivo son las inversas de las correspondientes a la ecuacin caracterstica,llegamos a la regla general de estacionariedad de un proceso AR(p).

    L

    t

    1>ir

    Las races del polinomio autoregresivo deben ser, en mdulo, superiores ala unidad.

    Las races del polinomio autoregresivo deben caer fuera del crculounidad.a ltima expresin hace referencia al crculo unidad en el plano complejo.

  • Prof. Adrin Fernndez Anlisis de Series de Tiempo Cap. 3 - Pg. 11

    3.5. ECUACION DE YULE-WALKER

    Para el modelo general AR(p), donde omitimos la constante por simplicidad en la exposicin:

    Suponiendo que el modelo es estacionario, se multiplica ambos miembros por Yt-k y se toman esperanzas:

    ya que

    Dividiendo a su vez por se tiene:

    Para k=1, 2, , p se obtiene un sistema de p ecuaciones:

    De la propiedad de surge tambin

    El sistema [3.5.2] recibe el nombre de ecuaciones de Yule-Walker, por los aportes de ambos autores(entorno a 1930) a la teora de series de tiempo.

    a + Y + ... + Y + Y = Y tp-tp2-t21-t1t

    kttktptpktt2ktt1ktt Ya + YY + ... + YY + YY = YY ..... 21

    pkp2-k2k1k + ... + + = 1

    ijjiitjtjtit YY COV= YYCOV ==)()(

    0

    [ ] 3.5.1 21 pkpk2k1k + ... + + =

    [ ]

    pppp2p1p

    pppp21

    pppp21

    + ... + + =

    + ... + + = + ... + + =

    ++

    ++

    ++

    113321

    2311312

    1212311

    ...3.5.2

    kk = kk =

  • Prof. Adrin Fernndez Anlisis de Series de Tiempo Cap. 3 - Pg. 12

    El sistema [3.5.2] puede ser considerado tanto en trminos de los coeficientes de autocorrelacin

    conocidos (con lo cual pueden deducirse los coeficientes ) como a la inversa.

    En particular, si en lugar de los coeficientes de autocorrelacin poblacionales se dispone de sus

    estimaciones puede plantearse el siguiente sistema para la estimacin de los coeficientes

    i

    i

    i

    i i

    =

    pppp

    p

    p

    p

    ...

    ..................

    ...1...1

    ...

    2

    11

    1321

    211

    121

    2

    1

  • Prof. Adrin Fernndez Anlisis de Series de Tiempo Cp. 4 - Pg. 1

    4. PROCESOS DE MEDIAS MOVILES

    4.1. DEFINICIN GENERAL

    Los procesos de orden q de medias mviles, o abreviadamente MA(q), se definen de la siguiente forma:

    donde at es un ruido blanco con las propiedades ya definidas.

    Obsrvese que el proceso de medias mviles corresponde a una combinacin lineal de variables ruido blanco(para la expresin [4.1.1], de q+1 variables), siendo los coeficientes theta los ponderadores de lacombinacin lineal. Esto es, se asemeja a la definicin de un promedio de las variables ruido blanco (aunquelos coeficientes no sumen en general la unidad, una propiedad que deben cumplir los promedios).

    Como las variables que forman parte de este promedio varan a lo largo del tiempo, se definen como mviles(moving average en ingls).

    Otros aspectos de la definicin [4.1.1]:

    Los coeficientes van precedidos por el signo negativo, cuestin meramente de conveniencia en lanotacin. Algunos paquetes economtricos asumen, para la estimacin del modelo, que no se hamodificado el signo del coeficiente.

    La representacin [4.1.] corresponde al caso general para procesos de medias mviles finitos. Como sever ms adelante, en distintas aplicaciones se consideran modelos de infinitos trminos (que se notancomo MA( )).

    Utilizando el operador de retardos L, el modelo [4.1.1] puede escribirse como:

    El polinomio recibe el nombre de polinomio de medias mviles.

    [ ]4.1.1 ...2211 qtqtttt aaaaY +=

    tqt

    tq

    qt

    tq

    qtttt

    aLY

    aLLLY

    aLaLLaaY

    )(

    )...1(

    ...2

    21

    221

    +=+=

    +=

    )(Lq

  • Prof. Adrin Fernndez Anlisis de Series de Tiempo Cp. 4 - Pg. 2

    4.2. PROPIEDADES DEL MODELO MA(q)

    Calculando los momentos del proceso, a partir de [4.1.1], se tiene:

    ya que la esperanza de la suma es la suma de las esperanzas.

    En los procesos de medias mviles, la media (o esperanza) del proceso coincide con el trmino independiente.

    Sin prdida de generalidad, podemos redefinir el caso general [4.1.1] sin trmino independiente. Bastaratransformar el modelo para una variable:

    X= Y Es decir, volvemos a plantear [4.1.1] como:

    Respecto de la varianza, con la formulacin [4.1.2] se tiene:

    La expresin entre parntesis curvos, una vez que se desarrolla el cuadrado, dar lugar a trminos en loscuadrados de at, at-1, ..., at-q (Parte A de la expresin siguiente) y en productos cruzados de variables at endistintos perodos de tiempo (Parte B). Es decir:

    Al aplicar el operador esperanza, los trminos que contienen productos cruzados se anulan (recurdese que,por definicin, el ruido blanco at est incorrelacionado temporalmente).

    )()())(()(

    )...()( 221

    tqtq

    tq

    qtttt

    aELaLEE

    aLaLLaaEYE

    +=+==+=

    =+= 0 )()( LYE qt

    [ ]4.1.2 ...2211 qtqtttt aaaaY =

    [ ]222112 )...()()( qtqttttt aaaaEYEYV ==

    []

    B Parte...)...(

    A Parte

    )...()(

    21212211

    2221

    21

    2

    ++++

    ++++=

    tttttt

    qtqttt

    aaaaaa

    aaaEYV

  • Prof. Adrin Fernndez Anlisis de Series de Tiempo Cp. 4 - Pg. 3

    De esta forma:

    Para la deduccin de las autocovarianzas se sigue un procedimiento similar:

    Cuando se toma esperanza a la PARTE B de la expresin de la derecha, los distintos trminos son nulos, yaque corresponden a covarianzas entre distintos perodos de tiempo de los ruidos blancos.

    La covarianza resulta de aplicar el operador esperanza a la PARTE A.

    Ms adelante se presenta la deduccin de las covarianzas para procesos MA(1) y MA(2).

    2221 )...1()( aqtYV +++=

    +++=

    =+++=

    )(...)()(

    )...()(22

    12

    12

    2221

    21

    2

    qqtqtt

    qtqttt

    aEaEaE

    aaaEYV

    []

    B Partecruzados productos de trminos

    A Partecuadradoscon trminos

    )...(x

    x)...(),(

    2211

    2211

    +

    +=

    =

    ==

    kqtqktktkt

    qtqtttkttk

    aaaaaaaaEYYCOV

  • Prof. Adrin Fernndez Anlisis de Series de Tiempo Cp. 4 - Pg. 4

    4.3. EJEMPLO

    Supngase que se est modelizando el precio de un cierto producto agrcola en un contexto no inflacionario.Para ello se dispone de una serie de tiempo donde la periodicidad se corresponde con el ciclo de cultivo delproducto (es decir, semestral, anual, segn corresponda). Un ejemplo de un modelo que podra describir esteproceso es un MA(1):

    donde at es Niid (0 , 2^2)

    Es decir, el ruido blanco o innovacin es normal, independiente e idnticamente distribuido con desvoestndar de 2.

    Supongamos que en el momento T se produce un hecho extraordinario (una sequa, por ejemplo) que repercuteen un valor extraordinario de la innovacin (usualmente llamado outlier). En el ejemplo presentado,supongamos que en el momento T toma el valor de 7 (3,5 desvos estndar).

    Para simplificar la exposicin, supongamos que en los perodos previos a T (T-1, T-2) el valor de at fue 0, yque luego de T (T+1, T+2, ...) tambin toma valores 0 (esta es una simplificacin, para la presentacin delejemplo bastara que no ocurrieran nuevos outliers).

    De esta forma tenemos:

    aT-2 = 0 YT-2 = 10,0aT-1 = 0 YT-1 = 10,0aT = 7 YT = 17,0aT+1 = 0 YT+1 = 15,6aT+2 = 0 YT+2 = 10,0aT+3 = 0 YT+3 = 10,0

    Es decir, se observ un valor extraordinario en la serie (en T) que repercuti en el perodo siguiente (T+1) peroque deja de producir efectos a partir de T+2.

    En el ejemplo, la sequa impuls un incremento del precio en el perodo contemporneo, que es parcialmenteabsorbido en el siguiente (por ejemplo, porque los demandantes deben recomponer el stock o porque el reasembrada en T+1 fue inferior a la de T-1) y se recompone el equilibrio en t+2, superado el efecto del outlier.

    Si en lugar de especificar un modelo MA(1) se hubiera especificado el siguiente modelo AR(1):

    donde at es Niid (0 , 2^2)

    18,010 ++= ttt aaY

    ttt aXX ++= 18,02

  • Prof. Adrin Fernndez Anlisis de Series de Tiempo Cp. 4 - Pg. 5

    Obsrvese que el modelo AR(1) se defini de manera que la esperanza de ambos modelos fuera la misma.

    Para comparar con el ejemplo anterior, suponemos el mismo comportamiento del ruido (y el valor de Y en T-1y T-2):

    XT-2 = 10,0aT-1 = 0 XT-1 = 10,0aT = 7 XT = 17,0aT+1 = 0 XT+1 = 15,6aT+2 = 0 XT+2 = 14,5aT+3 = 0 XT+3 = 13,6...aT+10 = 0 XT+10 = 10,8...aT+20 = 0 XT+20 = 10,1...aT+30 = 0 XT+30 = 10,0

    Como puede apreciarse en el ejemplo, el valor de equilibrio (la esperanza del proceso) es, al igual que en elcaso del MA(1), Y=10.

    En los dos procesos, una vez ocurrido un hecho que lo aparta del equilibrio, la serie tiende a retornar a ste(obsrvese que esta es una caracterstica de las series estacionarias: la media es invariante). La diferenciaradica en la trayectoria hacia el equilibrio. En la ausencia de nuevos choques, el proceso de MA retorna a suequilibrio en nmero finito de perodos (de acuerdo al orden q del proceso), usualmente un nmero pequeode perodos.

    Por otro lado, el proceso AR retorna al equilibrio con movimientos decrecientes, requirindose infinitosperodos para alcanzarlo. (Como ejercicio, calcular, por ejemplo en una planilla Excel, los valores de Xt conuna precisin mayor que la presentada antes y verificar que XT+30 = 10,0086656 ). De todos modos, Xt estarlo suficientemente prxima del valor de equilibrio en un nmero finito de perodos, con lo que a los efectosprcticos el punto anterior no es sustantivo.

    An con esta precisin, como puede observarse en el ejemplo, se requiere de un nmero mayor de perodospara obtener un valor cercano al equilibrio. La precisin es vlida en general, aunque en los casos concretosdepender del orden de los modelos AR y MA y de los valores de los coeficientes.

    108,01

    2)( =

    =tXE

  • Prof. Adrin Fernndez Anlisis de Series de Tiempo Cp. 4 - Pg. 6

    En el grfico siguiente se presentan las dos series. Los valores de T-2 a T+1 coinciden para ambas series.

    Figura 4.3.1 - Comparacin de la trayectoria de una AR(1) y un MA(1).

    8

    9

    10

    11

    12

    13

    14

    15

    16

    17

    18

    T-2 T-1 T T+1

    T+2

    T+3

    T+4

    T+5

    T+6

    T+7

    T+8

    T+9

    T+10

    T+11

    T+12

    T+13

    T+14

    T+15

    T+16

    T+17

    T+18

    T+19

    T+20

    MA(1)AR(1)

  • Prof. Adrin Fernndez Anlisis de Series de Tiempo Cp. 4 - Pg. 7

    4.4. PROCESOS MA(1) Y MA(2)

    Un modelo MA(1) viene definido por:

    donde at es un ruido blanco con las propiedades ya definidas.

    Ejercicios.

    a) Demuestre que:

    b) Grafique el correlograma de los siguientes procesos MA(1):

    [ ]4.4.1 11 += ttt aaY

    =)( tYE

    2210 )1()( +==tYV

    211 =

    1k 0 >=k

    >

    =

    +

    =

    1 k 0

    1k 1 21

    1

    k

    1

    1

    8,08,0

    +=

    =

    ttt

    ttt

    aaYaaY

  • Prof. Adrin Fernndez Anlisis de Series de Tiempo Cp. 4 - Pg. 8

    c) En el caso de un modelo MA(2):

    Probar que la funcin de autocorrelacin es:

    [ ]4.4.2 2211 += tttt aaaY

    >

    =

    ++

    =

    ++

    +

    =

    2k 0

    2k 1

    1k 1

    22

    21

    2

    22

    21

    211

    k

  • Prof. Adrin Fernndez Anlisis de Series de Tiempo Cp. 4 - Pg. 9

    4.5. ESTACIONARIEDAD E INVERTIBILIDAD DE LOS PROCESOS MA

    Los modelos de medias mviles finitos son siempre estacionarios. Como puede apreciarse de las deduccionesanteriores, los momentos de los procesos (esperanza, varianza y autocovarianzas) son invariantes en el tiempo.A diferencia de los procesos AR, para la deduccin de los momentos no es necesario suponer laestacionariedad de la serie. Si las races del polinomio de medias mviles caen fuera del crculo unidad, elproceso ser tambin invertible.

    Veamos el caso de un proceso MA(1). Volviendo a escribir el proceso [4.4.1] (omitiendo la constante parasimplificar la exposicin) se tiene:

    Sustituyendo la segunda expresin en la primera:

    y continuando con la sustitucin recursiva:

    Alternativamente:

    Es decir, en principio es posible expresar el modelo MA(1) como un

    211

    1

    +=

    +=

    ttt

    ttt

    aYaaYa

    22

    1 ++= tttt aYYa

    ti

    iti

    t

    iti

    tttt

    iti

    tttt

    aYY

    YYYaYYYYYa

    +=

    ++++=

    +++++=

    +

    =

    1

    22

    1

    22

    1

    ...)...(......

    )(AR

    ttii

    iti

    tttt

    aYLLLYYYYa

    =+++++

    +++++=

    ...)...1(......

    22

    22

    1

  • Prof. Adrin Fernndez Anlisis de Series de Tiempo Cp. 4 - Pg. 10

    Para que efectivamente ambos modelos sean equivalentes se requiere que el modelo AR sea estacionario, lo

    que impone la condicin de que

    De esta forma, cuando el polinomio de medias mviles tiene sus races fuera del crculo unidad,

    el proceso de medias mviles puede transformarse en un proceso AR estacionario.

    Otra forma de mostrar la invertibilidad para procesos MA(1).

    La expresin que pre-multiplica a Yt puede considerarse como la suma de una progresin geomtrica de razntheta solamente si theta es, en valor absoluto, inferior a 1.

    1

  • Prof. Adrin Fernndez Anlisis de Series de Tiempo Cp. 4 - Pg. 11

    4.6. TEOREMA DE WOLD

    Cualquier proceso estacionario Yt puede representarse unvocamente como la suma de dos procesos mutuamenteincorrelacionados.

    donde Dt es linealmente determinista y Xt es un proceso MA infinito. En contraposicin al proceso determinista, ala parte de medias mviles se le denomina puramente no determinista.

    La parte Dt puede ser una funcin exacta del tiempo (por ejemplo, una funcin sinusoidal). En el caso ms simple,Dt es simplemente una constante.

    Ejemplos.

    1) Modelo AR(1) estacionario:

    El modelo puede reescribirse como:

    La expresin anterior puede transformarse en:

    que da lugar a un proceso MA infinito, aunque estacionario, que se descompone en los dos trminos de Wold.

    ttt XDY +=

    1 111

  • Prof. Adrin Fernndez Anlisis de Series de Tiempo Cp. 4 - Pg. 12

    2) Modelo ARMA(1,1) estacionario (los modelos ARMA se presentan ms adelante) :

    La condicin de que asegura la estacionariedad del proceso.

    El modelo puede transformarse como:

    y, finalmente, como un MA infinito (estacionario):

    3) Deduzca la forma general del proceso MA correspondiente al siguiente modelo:

    1 - 11111

  • Prof. Adrin Fernndez Anlisis de Series de Tiempo Cp. 5 - Pg. 1

    5. PROCESOS ARMA

    5.1. PRESENTACIN GENERAL

    La combinacin de procesos AR y MA da lugar a los procesos mixtos ARMA.

    La formulacin general de un proceso ARMA , ARMA(p,q), es:

    Los momentos del proceso se derivan de la misma forma que se vio para los procesos AR y MA.

    En particular, es importante analizar el correlograma de la serie. Lo haremos para el proceso ARMA(1,1).

    5.2. ARMA(1,1)

    Un proceso ARMA(1,1) (se excluye la constante por simplicidad) :

    Multiplicando ambos miembros de [5.2.1] por Yt-k y tomando esperanzas, tenemos:

    Teniendo en cuenta que:

    la expresin [5.2.2] se reduce a las siguientes expresiones:

    [ ]qtqttt

    ptpttt

    aaaa

    YYYCY

    +

    +++++=

    ...5.1.1

    ...

    2211

    2211

    [ ]5.2.1 1111 += tttt aaYY

    [ ] [ ] [ ] [ ]5.2.2 1111 kttkttkkttk YaEYaEYYE +==

    [ ] [ ]2

    11

    111111

    )(

    )(

    =

    =+= tttttt aaYaEYaE

    [ ] 2=ttYaE

  • Prof. Adrin Fernndez Anlisis de Series de Tiempo Cp. 5 - Pg. 2

    Para k=0

    Para k=1

    Sustituyendo este valor en la expresin de la varianza (0 ) se tiene:

    que vuelve a sustituirse en la expresin de la covarianza de primer orden (1 ).

    Para k > 1

    De esta forma, los coeficientes de autocorrelacin quedan como:

    Es decir, los coeficientes de autocorrelacin de un ARMA(1,q) se comportan como un AR(1) puro para k > 1.Recurdese que los procesos MA tienen memoria finita.

    2111

    2110 )( +=

    11 = kk

    21011 =

    22

    1

    2111

    0

    2111

    2210110

    121

    )()(

    +=

    =+=

    >

    =

    +

    =

    1 k

    1k 21

    ))(1(

    11

    2111

    1111

    k

    k

  • Prof. Adrin Fernndez Anlisis de Series de Tiempo Cp. 5 - Pg. 3

    A continuacin se presentan los correlogramas de distintos procesos ARMA.

    Grfico 5.2.1 Grfico 5.2.2

    Grfico 5.2.3 Grfico 5.2.4

    CORRELOGRAMAPROCESO ARMA(1,1) - FI +0,5 THETA -0,5

    0,0

    0,1

    0,2

    0,3

    0,4

    0,5

    0,6

    0,7

    0,8

    0,9

    1,0

    1 2 3 4 5 6 7 8 9 10 11 12

    CORRELOGRAMAPROCESO ARMA(1,1) - FI -0,8 THETA +0,8

    -1,0

    -0,8

    -0,6

    -0,4

    -0,2

    0,0

    0,2

    0,4

    0,6

    0,8

    1,0

    1 2 3 4 5 6 7 8 9 10 11 12

    CORRELOGRAMAPROCESO ARMA(1,1) - FI +0,2 THETA +0,9

    -0,6

    -0,4

    -0,2

    0,0

    0,2

    0,4

    0,6

    0,8

    1,0

    1 2 3 4 5 6 7 8 9 10 11 12

    CORRELOGRAMAPROCESO ARMA(1,1) - FI +0,9 THETA +0,2

    0,0

    0,1

    0,2

    0,3

    0,4

    0,5

    0,6

    0,7

    0,8

    0,9

    1,0

    1 2 3 4 5 6 7 8 9 10 11 12

  • Prof. Adrin Fernndez Anlisis de Series de Tiempo Cp. 5 - Pg. 4

    En los grficos siguientes se presentan simultneamente el correlograma de un proceso ARMA(1,1) y de un AR(1)de igual coeficiente en el trmino AR.

    Grfico 5.2.5 Grfico 5.2.6

    Si se estuviera analizando exclusivamente el correlograma del ARMA(1,1) la evolucin decreciente de tipoexponencial podra llevar a pensar de que se trata de un AR(1). Sin embargo, tiene que tenerse en cuenta que elprimer coeficiente de autocorrelacin no se condice con el coeficiente de reduccin.

    As, por ejemplo, en el caso del Grfico 5.2.5, el primer coeficiente es 0,75. Si se tratara de un AR(1), el segundocoeficiente debera ser de 0,5625 y el valor resulta inferior a 0,4.

    0,75

    0

    0,1

    0,2

    0,3

    0,4

    0,5

    0,6

    0,7

    0,8

    0,9

    1

    1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16

    AR(1)ARMA(1,1)

    AR(1): PHI = + 0,5ARMA(1,1) PHI = + 0,5 THETA = - 0,9

    0,57

    0

    0,1

    0,2

    0,3

    0,4

    0,5

    0,6

    0,7

    0,8

    1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16

    AR(1)ARMA(1,1)

    AR(1): PHI = + 0,7ARMA(1,1) PHI = + 0,7 THETA = +

    0 2

  • Prof. Adrin Fernndez Anlisis de Series de Tiempo Cp. 6 - Pg. 1

    6. PROCESOS ARIMA NO ESTACIONARIOS

    La mayor parte de las series econmicas corresponden a procesos no estacionarios. As, si se desea obtener untratamiento de las series basado en el anlisis de series de tiempo (modelos ARMA), es necesario discutirmecanismos de transformacin de las series a procesos estacionarios.

    En principio pueden presentarse distintas (infinitas) formas por las que se introduce la no estacionariedad en unproceso estocstico. Sin embargo, interesa considerar solo algunas formas de la no estacionariedad que seanadecuados para describir el comportamiento de series econmicas y, al mismo tiempo, pasibles de sertransformados en procesos estacionarios.

    En primer lugar, analizaremos el proceso de caminata al azar.

    6.1. CAMINATA AL AZAR

    El proceso de caminata al azar (o random walk en ingls) se define como:

    donde at es un ruido blanco con las propiedades ya definidas.

    Una variante de la expresin anterior es:

    El modelo [6.1.1] se denomina caminata al azar sin deriva (random walk without drift) y el [6.1.2] es conderiva (with drift).

    A diferencia de los procesos estacionarios (por ejemplo, de los procesos autoregresivos estacionarios) la presenciade constante determina un cambio sustancial en el comportamiento de la serie, como se ver ms adelante. Detodas formas, para las consideraciones siguientes la existencia de constante no es relevante, por lo quedesarrollaremos los conceptos a partir de [6.1.1.].

    Momentos no condicionales

    Supongamos que la serie comienza en el perodo 0, y el valor de Yt viene dado para dicho perodo: Y0 . Esdecir, Y0 es no estocstica. Tomando esperanzas en ambos miembros de [6.1.1] se tiene:

    [ ]6.1.1 1 ttt aYY +=

    [ ]6.1.2 1 ttt aYCY ++=

    0021

    11

    )(...)()()()()()()(

    YYEYEYEYEYEaEYEYE

    ttt

    tttt

    =====

    =+=

  • Prof. Adrin Fernndez Anlisis de Series de Tiempo Cp. 6 - Pg. 2

    Lo que implica que, bajo los supuestos antes planteados, la esperanza no condicional de Yt existe y es invarianteen el tiempo. Es decir, se cumple la primera condicin de la estacionariedad en sentido amplio. Sin embargo, comose ver enseguida, no se cumplen las condiciones de varianzas y autocovarianzas invariantes, por lo que el procesode caminata al azar no es estacionario.

    Las consideraciones anteriores no son vlidas para el modelo [6.1.2]. Ello se ver ms adelante.

    Cambiando el supuesto respecto de Y0, y suponiendo que el proceso se inicia en un pasado remoto, a partir de laexpresin [6.1.1] tambin puede observarse que:

    A partir de la expresin anterior, se observa directamente que la varianza del proceso es infinita (estrictamente, noexiste) y el proceso es no estacionario.

    Si se hubiera mantenido el supuesto de Y0 no aleatorio (y a0 de la misma forma), se obtiene el siguienteresultado:

    L

    D

    A los procesos que cumplen con la condicin de esperanza invariante (aunque no con lasrestantes) se les denomina procesos estacionarios en media. No debe perderse de vistaque estos procesos son no estacionarios. A los procesos estacionarios (es decir, quecumplen con las tres condiciones) tambin se les denomina estacionarios en covarianzas.

    +=

    =

    +++=

    =++=++=+=

    0

    231

    21121

    )()(

    jjtt

    tttt

    ttttttttt

    aY

    aYaaYaaaaYaYY22

    1

    00

    )()(

    t

    jjtt

    ttYVYV

    aYY

    =+=

    += =

    a varianza de Yt existe, pero es variable en el tiempo (con lo que proceso es no estacionario).

    e manera anloga se obtiene la autocovarianza de orden k.

    0 aat

    2)(),( aktt ktYYCOV =

  • Prof. Adrin Fernndez Anlisis de Series de Tiempo Cp. 6 - Pg. 3

    El coeficiente de autocorrelacin de orden k para el momento t (ya que es variable en el tiempo), es:

    Por lo que, para t suficientemente grande, los coeficientes de autocorrelacin resultan prximos a 1 y desciendenmuy lentamente a cero (a medida que aumenta k). Esta es, justamente, una de las caractersticas que distinguen alos procesos no estacionarios cuando se observa su correlograma.

    En el caso del proceso [6.1.2], la serie presenta tendencia (creciente o decreciente, segn del signo de C).Realizando sustituciones recursivas en [6.1.2], se tiene:

    De otra forma:

    Yt crece aproximadamente a una tasa C en cada perodo. Aproximadamente porque la presencia del ruido atpuede provocar apartamientos (transitorios). La esperanza de la diferencia es de Yt es constante (e igual a C) perola esperanza de Yt ser variable en el tiempo. De hecho, la serie Yt registra tendencia.

    tk

    tkt

    ktt

    ktYVYVYYCOV

    taa

    a

    ktt

    kttk

    =

    =

    =

    ==

    1)(

    )(

    )()()(

    ),()(

    22

    2

    =

    +=

    +++=

    =++++=++=

    t

    jjtt

    ttt

    tttttt

    aCtY

    YaaCaaYCCaYCY

    0

    21

    121

    *

    2)(

    tt

    ttt

    aCYaYCY

    +=++=

    1

  • Prof. Adrin Fernndez Anlisis de Series de Tiempo Cp. 6 - Pg. 4

    Momentos condicionales

    Se deriv la esperanza matemtica (no condicionada) de la serie Yt. Sin embargo, resulta relevante calcular laesperanza condicional de la variable, dados los valores pasados.

    Llamaremos Yt-1 al conjunto de los valores pasados de Yt. De esta forma, para el proceso [6.1.1]:

    Es decir, una vez que se observa el valor de Yt en t-1, Yt-1, el valor esperado condicional a dicho valor es,justamente, Yt-1.

    Resulta directo demostrar, tambin, que:

    Es decir, si la ltima observacin corresponde al perodo T, la proyeccin puntual de Yt en T+p ser el ltimovalor observado, YT .

    Para el proceso [6.1.2]:

    Transformacin estacionaria

    En el caso de una caminata al azar, tanto en el modelo [6.1.1] como [6.1.2], la transformacin estacionaria resultadirecta:

    Es decir, la primera diferencia de la serie es un ruido blanco (eventualmente, con media no nula, para el modelo[6.1.2]).

    11 )()/()/( =+= tttt YaEYEYE 1t1t YY

    11 )()/()/( +=++= tttt YCaEYECYE 1t1t YY

    [ ]6.1.3 )/( TpTTpT YYYE == ++ Y

    [ ]6.1.4 *)/( TpTTpT YCpYYE +== ++ Y

    [ ][ ]6.1.1 para

    o 6.1.2 para 1ttt

    ttttt

    aYzaCYYYz

    ==+===

  • Prof. Adrin Fernndez Anlisis de Series de Tiempo Cp. 6 - Pg. 5

    En mltiples ocasiones la transformacin estacionaria corresponde a la primera diferencia luego de tomarlogaritmos, lo que comnmente es denominado deltalog.

    Ms adelante se presenta la transformacin de Box-Cox, de aplicacin ms general.

    La transformacin deltalog es especialmente aplicable cuando la serie en cuestin tiene una tasa de crecimientorelativamente estable en el tiempo (estrictamente, estacionaria). Es el caso, en general, de los ndices de precios,an para pases con baja inflacin.

    Al resultado de aplicar deltalog a la serie original se le denomina tasa de variacin natural, siendo unaaproximacin a la tasa de variacin relativa.

    Diferenciacin estacionaria

    Supongamos el siguiente proceso:

    donde ut es un proceso estacionario, aunque no necesariamente ruido blanco.

    La expresin anterior no puede considerarse estrictamente una caminata al azar, aunque el tratamiento es muysimilar. Supongamos que ut puede expresarse como un proceso autoregresivo en las primeras diferencias de Yt.Por ejemplo:

    De esta forma, puede transformarse el proceso original y se obtiene un AR(1) en la primera diferencia de Yt. Apesar de que estrictamente no correspondera denominarlas de esta manera, los procesos como [6.1.5] a menudoson definidos como caminatas al azar.

    Utilizando el operador de retardos, la expresin [6.1.6] puede reescribirse como:

    1logloglog == tttt YYYz

    [ ]6.1.5 1 ttt uYY +=

    [ ]6.1.6 1con

    1

    111

    ttt

    tttttt

    aYYaYYuYY

    +=

  • Prof. Adrin Fernndez Anlisis de Series de Tiempo Cp. 6 - Pg. 6

    Como puede observarse, en los valores originales de Yt el proceso puede definirse como AR(2), pero noestacionario, ya que el polinomio autoregresivo incluye una raz unitaria. En la primera diferencia de Ytcorresponde a un proceso AR(1) estacionario (ya que el coeficiente phi es inferior a 1 en valor absoluto).

    6.2. CASO GENERAL

    Dada una serie Yt, que eventualmente corresponde a los logaritmos de los valores originales, si su diferencia deorden d puede ser representada por un proceso ARMA(p,q) estacionario, se dice que la serie Yt sigue unproceso ARIMA(p,d,q).

    La letra I en ARIMA corresponde a Integracin, la operacin inversa a la diferenciacin.

    Si y zt sigue un proceso ARMA(p,q) estacionario:

    entonces Yt sigue un proceso ARIMA(p,d,q).

    Tambin se escribe en la variable original Yt como:

    Generalmente no son necesarias diferencias regulares de orden superior a 2, excepto en el caso de variables quepresentan estacionalidad, como se ver ms adelante.

    td

    t Yz =

    tqtp

    tq

    qtpp

    aLzL

    aLLLzLLL

    )()(

    )...1()...1( 2212

    21

    ==

    tqtd

    p aLYLL )()1)(( =

  • Prof. Adrin Fernndez Anlisis de Series de Tiempo Cp. 6 - Pg. 7

    6.3. TRANSFORMACIN DE BOX-COX

    Box y Cox (1964) definieron una transformacin instantnea en el sentido de que no estn involucradossimultneamente varios perodos de tiempo- de carcter ms general que la transformacin logartmica. Estatransformacin se define por:

    La transformacin Box-Cox requiere definir el parmetro de la transformacin.

    Cuando el parmetro es =1, la transformacin de Box-Cox consiste prcticamente en tomar logaritmos.

    Cuando el parmetro es =0, se define por la segunda igualdad (transformacin logartmica).La primera igualdad vale tambin, en el lmite, el logartmico de la serie original.

    =

    =

    0 ln0 /)1()(

    t

    tt Y

    YY

  • Prof. Adrin Fernndez Anlisis de Series de Tiempo Cp. 6 - Pg. 8

    6.4. HETEROCEDASTICIDAD

    Una fuente importante de no estacionariedad corresponde a la presencia de heterocedasticidad en una serie dada.En ciertos casos ello puede corregirse con la aplicacin de logaritmos (si la serie presenta tendencia creciente, esmuy probable que la varianza de los valores originales tambin sea creciente en el tiempo).

    En otros casos, como sucede a menudo para series financieras, no es posible transformar la serie para volverlahomocedstica. Estos casos son abordados a travs de la familia de modelos ARCH (AutoRegresive ConditionalHeterocedasticity). A continuacin se presentan los delta log de datos diarios (desde agosto de 1990 a abril de2001) de la cotizacin de la libra esterlina en el mercado de Nueva York.

    Ilustracin 6.4.1

    Como puede apreciarse en la ilustracin, en la primera mitad del perodo se aprecia una varianza ms elevada queen la segunda (relacionada con el sistema cambiario adoptado). A pesar de que la serie transformada (delta log)parecera estacionaria en media, claramente no lo es en varianzas, por lo que es no estacionaria.

    LIBRA ESTERLINA (cierre en NY)Datos diarios - Delta Log - Libra / U$S

    -0,05

    -0,04

    -0,03

    -0,02

    -0,01

    0,00

    0,01

    0,02

    0,03

    0,04

    0,05

    2/08

    /90

    2/11

    /90

    2/02

    /91

    2/05

    /91

    2/08

    /91

    2/11

    /91

    2/02

    /92

    2/05

    /92

    2/08

    /92

    2/11

    /92

    2/02

    /93

    2/05

    /93

    2/08

    /93

    2/11

    /93

    2/02

    /94

    2/05

    /94

    2/08

    /94

    2/11

    /94

    2/02

    /95

    2/05

    /95

    2/08

    /95

    2/11

    /95

    2/02

    /96

    2/05

    /96

    2/08

    /96

    2/11

    /96

    2/02

    /97

    2/05

    /97

    2/08

    /97

    2/11

    /97

    2/02

    /98

    2/05

    /98

    2/08

    /98

    2/11

    /98

    2/02

    /99

    2/05

    /99

    2/08

    /99

    2/11

    /99

    2/02

    /00

    2/05

    /00

    2/08

    /00

    2/11

    /00

    2/02

    /01

  • Prof. Adrin Fernndez Anlisis de Series de Tiempo Cp. 6 - Pg. 9

    6.5. EJEMPLOS

    Cotizacin del Marco Alemn

    Se presenta a continuacin la ilustracin de la cotizacin del Marco Alemn respecto del dlar de EE.UU. (valoresde cierre diarios en NY) desde agosto de 1990 a abril de 2001 (encadenando con la cotizacin del euro).

    Ilustracin 6.5.1.

    MARCO ALEMANDatos diarios (cierres en NY) Log - DM / U$S

    0,30

    0,40

    0,50

    0,60

    0,70

    0,80

    0,90

    2/08/1990

    2/12/1990

    2/04/1991

    2/08/1991

    2/12/1991

    2/04/1992

    2/08/1992

    2/12/1992

    2/04/1993

    2/08/1993

    2/12/1993

    2/04/1994

    2/08/1994

    2/12/1994

    2/04/1995

    2/08/1995

    2/12/1995

    2/04/1996

    2/08/1996

    2/12/1996

    2/04/1997

    2/08/1997

    2/12/1997

    2/04/1998

    2/08/1998

    2/12/1998

    2/04/1999

    2/08/1999

    2/12/1999

    2/04/2000

    2/08/2000

    2/12/2000

    2/04/2001

  • Prof. Adrin Fernndez Anlisis de Series de Tiempo Cp. 6 - Pg. 10

    A continuacin se presenta el histograma y distintos momentos de la serie original (en logaritmos) y de la primeradiferencia (deltalog), para el ltimo ao de la serie (308 observaciones - das hbiles -), realizados con el programaEViews.

    Ilustracin 6.5.2.

    Ilustracin 6.5.3.

    0

    10

    20

    30

    40

    50

    -0.02 -0.01 0.00 0.01 0.02

    Series: DLOG(MARCO)Sample 2395 2702Observations 308

    Mean 0.000368Median 0.000250Maximum 0.023183Minimum -0.026836Std. Dev. 0.008077Skewness -0.147702Kurtosis 3.568211

    Jarque-Bera 5.263285Probability 0.071960

    0

    10

    20

    30

    40

    0.65 0.70 0.75 0.80 0.85

    Series: LOG(MARCO)Sample 2395 2702Observations 308

    Mean 0.752312Median 0.749764Maximum 0.859890Minimum 0.639641Std. Dev. 0.050269Skewness -0.039185Kurtosis 2.427624

    Jarque-Bera 4.283198Probability 0.117467

  • Prof. Adrin Fernndez Anlisis de Series de Tiempo Cp. 6 - Pg. 11

    Como puede apreciarse, para la serie deltalog no puede rechazarse que sea un ruido blanco (sera necesario realizarotras pruebas adicionales, como el Box-Ljung, que se presenta ms adelante, pero efectivamente no se rechaza lahiptesis de ruido blanco).

    De esta forma, si la transformacin deltalog da lugar a un ruido blanco y la serie no presenta tendencia (comopuede observarse en el primer grfico del marco), se est ante una caminata al azar pura, modelo [6.1.1].

    Indice Dow Jones

    Se presenta a continuacin el ndice de acciones principales de la Bolsa de Nueva York, denominado Dow JonesIndustriales, en la ilustracin a la izquierda, y el logaritmo natural del anterior, en la ilustracin a la derecha. Losdatos corresponden a promedios mensuales de valores de cierre diarios desde Diciembre de 1950 a Marzo de 2002.

    Ilustracin 6.5.4 Ilustracin 6.5.5

    Como puede apreciarse, ms all de algunos episodios en que el ndice present un descenso (particularmentedesde diciembre de 1999) la tendencia general del ndice es creciente. Analice las razones por las cuales el ndicedebe necesariamente tener tendencia creciente.

    Tomando logaritmos el comportamiento del ndice se asemeja ms a una recta en el tiempo. Se aprecian tambinepisodios de descenso (o de crecimiento) relevantes del ndice que antes pasaban desapercibidos, como el deNoviembre de 1987.

    DJI - CierreIndice - Prom. Mensual

    0

    2.000

    4.000

    6.000

    8.000

    10.000

    12.000

    14.000

    dic-

    50

    dic-

    52

    dic-

    54

    dic-

    56

    dic-

    58

    dic-

    60

    dic-

    62

    dic-

    64

    dic-

    66

    dic-

    68

    dic-

    70

    dic-

    72

    dic-

    74

    dic-

    76

    dic-

    78

    dic-

    80

    dic-

    82

    dic-

    84

    dic-

    86

    dic-

    88

    dic-

    90

    dic-

    92

    dic-

    94

    dic-

    96

    dic-

    98

    dic-

    00

    DJI - CierreLogaritmo Indice - Prom. Mensual

    Nov-87

    5

    6

    6

    7

    7

    8

    8

    9

    9

    10

    10

    dic-

    50

    dic-

    52

    dic-

    54

    dic-

    56

    dic-

    58

    dic-

    60

    dic-

    62

    dic-

    64

    dic-

    66

    dic-

    68

    dic-

    70

    dic-

    72

    dic-

    74

    dic-

    76

    dic-

    78

    dic-

    80

    dic-

    82

    dic-

    84

    dic-

    86

    dic-

    88

    dic-

    90

    dic-

    92

    dic-

    94

    dic-

    96

    dic-

    98

    dic-

    00

  • Prof. Adrin Fernndez Anlisis de Series de Tiempo Cp. 6 - Pg. 12

    Finalmente, se presenta a continuacin la primera diferencia del logaritmo del ndice (transformacin deltalog).

    Ilustracin 6.5.6

    DJI - CierreDelta Logaritmo Indice - Prom. Mensual

    Nov-73

    Oct-87

    -0,30

    -0,25

    -0,20

    -0,15

    -0,10

    -0,05

    0,00

    0,05

    0,10

    0,15

    0,20

    dic-50

    dic-52

    dic-54

    dic-56

    dic-58

    dic-60

    dic-62

    dic-64

    dic-66

    dic-68

    dic-70

    dic-72

    dic-74

    dic-76

    dic-78

    dic-80

    dic-82

    dic-84

    dic-86

    dic-88

    dic-90

    dic-92

    dic-94

    dic-96

    dic-98

    dic-00

  • Prof. Adrin Fernndez Anlisis de Series de Tiempo Cap. 7 - 1

    ) 1( 44 L

    1

  • Prof. Adrin Fernndez Anlisis de Series de Tiempo Cap. 7 - 2

    A continuacin se presenta el correlograma de:

    modelo AR(1): Yt = 0,8*Yt-1 + atmodelo SAR(1)4: Yt = 0,8*Yt-4 + at

    Figura 7.1.1. Correlograma AR(1) Figura 7.1.2. Correlograma SAR(1)4

    La Funcin de Auto Correlacin (FAC) del proceso estacional puro SAR(1)4 considerado en [7.2.1] es:

    con s=4

    Otros modelos estacionales puros

    Modelo SAR(2)s:

    De la misma forma que se definen los procesos estacionales puros autoregresivos, puede hacerse lo mismo conprocesos de medias mviles:

    que corresponde al modelo SMA(1)4 y SMA(1)12, para datos trimestrales o mensuales, respectivamente.

    0,80

    0,64

    0,51

    0,41

    0,33

    0,26

    0,21

    0,17

    0,13

    0,11

    0,09

    0,07

    0,05

    0,04

    0,04

    0,03

    1

    2

    3

    4

    5

    6

    7

    8

    9

    10

    11

    12

    13

    14

    15

    16

    0,80

    0,64

    0,51

    0,41

    1

    2

    3

    4

    5

    6

    7

    8

    9

    10

    11

    12

    13

    14

    15

    16

    ==

    =

    caso otro en 0 ... 3s, 2s, s,kpara / sksk

    k

    12

    4

    +=

    +=

    ttt

    ttt

    aaCYaaCY

    tststt aYYCY +++= 221

  • Prof. Adrin Fernndez Anlisis de Series de Tiempo Cap. 7 - 3

    7.3. Modelos estacionales estacionarios multiplicativos

    Supngase que se est modelizando el consumo de refrescos con datos de frecuencia trimestral. En el proceso deidentificacin del modelo se observa que los choques en el trimestre t repercuten tambin en el perodo otrimestre siguiente, y en el mismo trimestre del ao siguiente. Es decir, provoca cambios en el componenteestacional de la serie.

    El modelo siguiente podra reflejar este comportamiento:

    Es decir, el ruido en t influye en t+1 y en t+4. El modelo planteado tiene la importante limitacin que norecoge la influencia que tendr el efecto en t+4 sobre el valor de la variable en t+5. Es decir, el efecto untrimestre despus se modeliza solamente en t+1.

    Una manera de salvar este problema es con la formulacin de modelos estacionarios multiplicativos estacionales.

    Obsrvese que este modelo puede reescribirse como:

    Es decir, el modelo justamente captura la interaccin de los dos efectos sobre el perodo t+5. Una formaalternativa de escribir [7.3.2] es como un MA(5):

    El modelo [7.3.3] es la versin no restringida. Contiene un parmetro ms que el modelo [7.3.2] ya quejustamente no impone la interaccin entre los dos efectos. Si los modelos tuvieran un poder explicativo similar,siempre es preferible el primero porque es ms parsimonioso.

    La prctica ha llevado a adoptar los modelos multiplicativos como la representacin general de efectos ordinarios yestacionales en procesos estacionarios. En todo caso, siempre es posible estimar ambos modelos y realizar pruebasde hiptesis para decidir por uno u otro.

    4411 += tttt aaaCY

    [ ]7.3.2 5414411 ++= ttttt aaaaCY

    [ ]7.3.1 )1)(1( 441 tt aLLCY +=

    [ ]7.3.3 554411 += ttttt aaaaCY

  • Prof. Adrin Fernndez Anlisis de Series de Tiempo Cap. 7 - 4

    De la misma forma pueden plantearse modelos AR multiplicativos o modelos ARMA multiplicativos. Se presentana continuacin dos ejemplos para la frecuencia mensual:

    Como en los modelos ARMA ordinarios, la estacionariedad del proceso est asociada a las races del polinomioautoregresivo.

    7.4. FAC para modelos estacionales estacionarios multiplicativos

    Considrese el modelo [7.3.1] para la frecuencia mensual. Por simplicidad, se plantea sin constante.

    El modelo se describe como MA(1) x SMA(1)12

    Las covarianzas del proceso son:

    Y, de la misma forma, se deduce que: 3, 4, ..., 10 = 0

    [ ][ ]7.3.5 )1)(1()1)(1(7.3.4 )1)(1(

    12121

    12121

    12121

    tt

    tt

    aLLCYLL

    aCYLL

    +=

    +=

    [ ][ ]7.4.2

    7.4.1 )1)(1(

    13121121211

    12121

    +=

    =

    ttttt

    tt

    aaaaYaLLY

    []

    [ ] )1)(()(x

    )x(),(

    212

    21

    213

    2121

    211

    141211312211

    1312112121111

    +==

    =+

    +==

    att

    tttt

    tttttt

    aaE

    aaaaaaaaEYYCOV

    [] 0)(x

    )x(),(

    151211412312

    1312112121122

    =+

    +==

    tttt

    tttttt

    aaaaaaaaEYYCOV

  • Prof. Adrin Fernndez Anlisis de Series de Tiempo Cap. 7 - 5

    Las autocovarianzas en torno al retardo 12 son:

    k = 0 para k>13De esta forma, el correlograma tendr valores no nulos para k=1, 11, 12 y 13.

    Suponiendo modelos MA de orden bajo, tanto para la parte ordinaria como para la parte estacional, elcorrelograma tendr coeficientes no nulos para los primeros retardos (hasta el orden de la parte ordinaria) y entorno a la frecuencia estacional: en torno a 12 si es SMA(1)12, en torno a 12 y 24 si es SMA(2)12, etc.

    Los coeficientes de autocorrelacin no nulos para k=11 y 13 se denominan satlites porque surgen de lainteraccin de la parte ordinaria y estacional.

    La FAC para modelos AR o ARMA estacionales es ms compleja, pero en general, para modelos de orden bajo, seobserva una situacin similar a la planteada anteriormente. Los coeficientes de autocorrelacin de orden bajo secomportan como un modelo no estacional, mientras que se observan coef. de autocorr. no nulos en torno a lasfrecuencias estacionales.

    2121

    2121211111 )(),( attt aEYYCOV ===

    2121

    21312113 )( ataE ==

    )1()( 212

    122

    13122

    12

    121212 +== att aaE

  • Prof. Adrin Fernndez Anlisis de Series de Tiempo Cap. 7 - 6

    A continuacin se presentan distintos correlogramas de modelos multiplicativos estacionales para seriesartificiales.

    Figura 7.4.1. Correlograma de SARMA (0,1)(0,1)12:Yt = (1-0.3*L) (1-0.5*L12) at==============================================================

    Included observations: 1000==============================================================

    Autocorrelation Partial Correlation AC PAC Q-Stat Prob==============================================================

    **| | **| | 1-0.261-0.261 68.388 0.000 *| | *| | 2-0.061-0.139 72.171 0.000 .| | *| | 3-0.004-0.064 72.183 0.000 .| | .| | 4 0.047 0.022 74.420 0.000 .| | .| | 5-0.014 0.002 74.613 0.000 .| | .| | 6 0.020 0.028 75.034 0.000 .| | .| | 7-0.042-0.030 76.804 0.000 .| | .| | 8-0.017-0.039 77.111 0.000 .| | .| | 9 0.005-0.021 77.132 0.000 .| | .| | 10 0.035 0.025 78.389 0.000 .|* | .|* | 11 0.092 0.123 87.001 0.000 ***| | ***| | 12-0.395-0.363 245.35 0.000 .|* | *| | 13 0.113-0.090 258.41 0.000 .| | *| | 14 0.013-0.064 258.60 0.000 .| | .| | 15 0.034 0.014 259.80 0.000 .| | .| | 16-0.027 0.021 260.53 0.000 .| | .| | 17-0.018-0.030 260.87 0.000 .| | .| | 18-0.008-0.004 260.94 0.000 .|* | .| | 19 0.092 0.065 269.59 0.000 .| | .| | 20-0.036-0.011 270.95 0.000 .| | .| | 21 0.006 0.008 270.98 0.000 .| | .| | 22-0.031-0.017 271.97 0.000 .| | .| | 23 0.004 0.034 271.98 0.000 .| | *| | 24 0.018-0.157 272.30 0.000 .| | .| | 25-0.006-0.043 272.34 0.000 .| | .| | 26-0.021-0.050 272.80 0.000 .| | .| | 27-0.014-0.006 273.00 0.000 .| | .| | 28 0.044 0.051 274.98 0.000 .| | .| | 29-0.014-0.024 275.18 0.000 .| | .| | 30 0.006 0.006 275.22 0.000 *| | .| | 31-0.064-0.012 279.49 0.000 .|* | .| | 32 0.071 0.043 284.77 0.000 .| | .| | 33-0.019 0.014 285.15 0.000 .| | .| | 34 0.017-0.003 285.47 0.000 .| | .| | 35-0.031-0.013 286.48 0.000 .| | *| | 36 0.002-0.085 286.49 0.000==============================================================

  • Prof. Adrin Fernndez Anlisis de Series de Tiempo Cap. 7 - 7

    Figura 7.4.2. Correlograma de SARMA (1,0(1,0)12:(1-0.5*L) (1-0.7*L12) Yt = at==============================================================

    Included observations: 1000==============================================================

    Autocorrelation Partial Correlation AC PAC Q-Stat Prob==============================================================

    .|*** | .|*** | 1 0.459 0.459 210.89 0.000 .|* | *| | 2 0.150-0.077 233.43 0.000 .|* | .| | 3 0.070 0.039 238.29 0.000 .|* | .|* | 4 0.102 0.081 248.75 0.000 .| | .| | 5 0.061-0.026 252.51 0.000 .|* | .|* | 6 0.099 0.098 262.42 0.000 .|* | .| | 7 0.070-0.018 267.31 0.000 .|* | .| | 8 0.078 0.052 273.42 0.000 .| | .| | 9 0.018-0.048 273.76 0.000 .|* | .|* | 10 0.072 0.089 279.06 0.000 .|** | .|** | 11 0.294 0.296 366.80 0.000 .|***** | .|***** | 12 0.690 0.599 850.04 0.000 .|*** | **| | 13 0.335-0.297 963.69 0.000 .|* | .| | 14 0.112 0.020 976.52 0.000 .| | .| | 15 0.048-0.038 978.82 0.000 .|* | .| | 16 0.074-0.011 984.47 0.000 .| | .| | 17 0.042 0.019 986.25 0.000 .|* | .| | 18 0.098 0.024 996.01 0.000 .|* | .| | 19 0.100 0.055 1006.2 0.000 .|* | .| | 20 0.080-0.022 1012.7 0.000 .| | .| | 21-0.012-0.032 1012.9 0.000 .| | .| | 22 0.021-0.001 1013.3 0.000 .|* | .| | 23 0.177-0.019 1045.4 0.000 .|**** | .| | 24 0.466 0.000 1268.1 0.000 .|** | .| | 25 0.239 0.005 1326.6 0.000 .|* | .| | 26 0.076-0.017 1332.6 0.000 .| | .| | 27 0.010-0.033 1332.7 0.000 .| | .| | 28 0.043 0.024 1334.5 0.000 .| | .| | 29 0.024 0.000 1335.1 0.000 .|* | .| | 30 0.073-0.029 1340.6 0.000 .|* | .| | 31 0.083-0.025 1347.7 0.000 .|* | .| | 32 0.069 0.021 1352.6 0.000 .| | .| | 33-0.033-0.022 1353.7 0.000 .| | .| | 34 0.000 0.040 1353.7 0.000 .|* | .| | 35 0.101-0.026 1364.4 0.000 .|** | .| | 36 0.305-0.010 1461.3 0.000==============================================================

  • Prof. Adrin Fernndez Anlisis de Series de Tiempo Cap. 7 - 8

    Figura 7.4.3. Correlograma de SARMA (2,0(1,0)12:(1-0.2*L-0.4*L2) (1-0.7*L12) Yt = at=============================================================

    Included observations: 1000==============================================================

    Autocorrelation Partial Correlation AC PAC Q-Stat Prob==============================================================

    .|** | .|** | 1 0.311 0.311 97.092 0.000 .|*** | .|*** | 2 0.428 0.366 280.79 0.000 .|** | .| | 3 0.198-0.001 320.03 0.000 .|** | .|* | 4 0.320 0.159 422.97 0.000 .|* | .| | 5 0.154-0.007 446.99 0.000 .|** | .|* | 6 0.273 0.109 521.97 0.000 .|* | .| | 7 0.148 0.014 544.06 0.000 .|** | .|* | 8 0.263 0.099 613.95 0.000 .|* | .| | 9 0.133-0.007 631.79 0.000 .|** | .|* | 10 0.300 0.151 723.14 0.000 .|** | .|* | 11 0.210 0.084 767.73 0.000 .|***** | .|***** | 12 0.699 0.628 1263.9 0.000 .|** | *| | 13 0.231-0.165 1318.1 0.000 .|** | **| | 14 0.308-0.243 1414.4 0.000 .|* | .| | 15 0.139-0.026 1434.1 0.000 .|** | .| | 16 0.238-0.035 1491.9 0.000 .|* | .| | 17 0.107 0.022 1503.6 0.000 .|** | .| | 18 0.213 0.013 1549.9 0.000 .|* | .| | 19 0.131 0.043 1567.4 0.000 .|** | .| | 20 0.203-0.001 1609.7 0.000 .|* | *| | 21 0.071-0.058 1614.9 0.000 .|** | .| | 22 0.199-0.012 1655.3 0.000 .|* | .| | 23 0.124-0.011 1671.1 0.000 .|**** | .| | 24 0.474-0.008 1901.2 0.000 .|* | .| | 25 0.156 0.002 1926.2 0.000 .|** | .| | 26 0.211 0.003 1972.2 0.000 .|* | .| | 27 0.070-0.040 1977.2 0.000 .|* | .| | 28 0.164 0.009 2004.9 0.000 .| | .| | 29 0.059 0.013 2008.5 0.000 .|* | .| | 30 0.152-0.009 2032.3 0.000 .|* | .| | 31 0.082-0.044 2039.4 0.000 .|* | .| | 32 0.156 0.031 2064.6 0.000 .| | .| | 33 0.015-0.015 2064.9 0.000 .|* | .| | 34 0.135 0.024 2083.9 0.000 .| | .| | 35 0.063 0.006 2088.0 0.000 .|** | .| | 36 0.311-0.035 2188.5 0.000==============================================================

  • Prof. Adrin Fernndez Anlisis de Series de Tiempo Cap. 7 - 9

    Figura 7.4.4. Correlograma de SARMA (1,1)(1,0)12:(1-0.7*L) Yt = (1-0.3*L) (1-0.5*L12) at=============================================================

    Included observations: 1000==============================================================

    Autocorrelation Partial Correlation AC PAC Q-Stat Prob==============================================================

    .|*** | .|*** | 1 0.441 0.441 195.23 0.000 .|** | .|* | 2 0.264 0.087 265.40 0.000 .|** | .|* | 3 0.199 0.067 305.02 0.000 .|* | .| | 4 0.161 0.047 331.19 0.000 .|* | .| | 5 0.086-0.028 338.58 0.000 .| | .| | 6 0.037-0.024 339.96 0.000 .| | *| | 7-0.034-0.073 341.12 0.000 .| | .| | 8-0.057-0.034 344.44 0.000 *| | .| | 9-0.067-0.024 348.96 0.000 *| | .| | 10-0.088-0.040 356.88 0.000 *| | *| | 11-0.165-0.113 384.46 0.000 ***| | ***| | 12-0.379-0.321 530.41 0.000 *| | .|* | 13-0.150 0.190 553.24 0.000 *| | .| | 14-0.082 0.038 560.12 0.000 .| | .| | 15-0.042 0.055 561.91 0.000 .| | .| | 16-0.049-0.005 564.39 0.000 .| | .| | 17-0.030-0.023 565.32 0.000 .| | .| | 18 0.008 0.030 565.38 0.000 .| | .| | 19 0.058 0.017 568.83 0.000 .| | *| | 20 0.001-0.073 568.83 0.000 .| | .| | 21-0.010-0.022 568.92 0.000 .| | .| | 22-0.029-0.052 569.79 0.000 .| | .| | 23-0.014-0.041 569.98 0.000 .| | *| | 24-0.005-0.129 570.00 0.000 .| | .|* | 25-0.019 0.075 570.38 0.000 .| | .| | 26-0.028 0.012 571.17 0.000 .| | .| | 27-0.014 0.045 571.38 0.000 .| | .| | 28 0.016 0.025 571.63 0.000 .| | .| | 29-0.006-0.042 571.67 0.000 .| | .| | 30-0.011 0.025 571.79 0.000 .| | .| | 31-0.026-0.001 572.51 0.000 .| | .| | 32 0.035 0.021 573.75 0.000 .| | .| | 33 0.010-0.043 573.85 0.000 .| | .| | 34 0.011-0.036 573.99 0.000 .| | .| | 35-0.008-0.033 574.05 0.000 .| | .| | 36 0.012-0.032 574.20 0.000==============================================================

  • Prof. Adrin Fernndez Anlisis de Series de Tiempo Cap. 7 - 10

    7.5. Modelos estacionales no estacionarios

    PIB Uruguayo

    El siguiente grfico corresponde al logaritmo del PIB trimestral (estrictamente, el Indice de Volumen Fsico delProducto Interno Bruto).

    Figura 7.5.1Log PIBt

    Como puede observarse, la serie es claramente no estacionaria: presenta tendencia pero, como se comprobar acontinuacin, existen otros elementos que determinan la no estacionariedad de la serie.

    El grfico de la primera diferencia de la serie ( log PIBt) es:

    Figura 7.5.2 log PIBt

    Si bien la serie no parece presentar tendencia, se observa un pico regular en el cuarto trimestre de cada ao,mientras que se produce un valle en el primer trimestre. Es decir, la media de la serie no es constante, sinosistemticamente ms alta en el cuarto trimest