capitulo 6 notas de clase

Upload: nikolas

Post on 14-Jan-2016

11 views

Category:

Documents


0 download

DESCRIPTION

series de tiempo

TRANSCRIPT

  • CAPITULO 6

    Modelos ARMA para la Componente Aleatoria

    6.1. Introduccion

    En los modelos de descomposicion Yt = Tt + St + t, t = 1, 2, . . . se estima t y se

    determina si es o no ruido blanco mediante las pruebas Ljung-Box y Durbin-Watson. En

    caso de encontrar que t no es ruido blanco, el siguiente paso es modelar esta componente

    mediante tres posibles modelos

    1. Medias Moviles de orden q,MA(q).

    2. Autoregresivos de orden q, AR(p).

    3. Medias Moviles Autoregresivos,ARMA(p, q).

    Los tres modelos varan en su capacidad de capturar distintos tipos de

    comportamiento de autoregresion. Comenzaremos dando las caractersticas

    de las funciones de autocorrelacion y cantidadades relacionadads con cada

    modelos, estas no tiene nada que ver con datos ni estimacion pero son fun-

    damentales para desarrollar una comprension basica de las propiedades de

    los modelos necesarios para llevar a cabo pronosticos inteligentes. Diebold

    [1999, pag. 129]

    89

  • 90

    6.2. Procesos de Medias Moviles de orden q

    Definicion 6.2.1 (El Operador de Rezago). Se denota por L (lag, en ingles) y es tal que

    L(Yt) = Yt1. Es decir, L opera sobre una serie rezagandola un perodo hacia atras. De

    igual manera L(Yt1) = Yt2, luego L(L(Yt)) = L2(Yt) = Yt2 y en general L

    p(Yt) =

    Ytp. Se define tambien L0 = I , el operador identidad.

    Un polinomio de grado p en el operador L se define como el operador formado por una

    combinacion lineal de potencias de L

    BP (L) = 0 + 1L+ 2L2 + + pLp, (6.1)

    tal que

    BP (L)(Yt) = (0 + 1L+ 2L2 + + pLp)Yt,

    =

    pj=0

    jLjYt,

    =

    pj=0

    jYtj ,

    = 0Yt + 1Yt1 + 2Yt2 + + pYtp.

    Definicion 6.2.2 (Proceso MA(q)). Se dice que una serie Yt sigue un procesoMA(q), q =

    1, 2, . . . de media movil de orden q, si se cumple que

    Yt = t + 1t1 + + qtq , t Z, (6.2)

    donde t RB(0, 2). La expresion con el operador L es, si se define el polinomio

    q(L) = 1 + 1L+ + qLq, (6.3)

    entonces la ecuacion (6.2) se expresa

    Yt = q(L)(t). (6.4)

    6.2.1. Propiedades

    1. E(Yt) = 0

    2. V ar(Yt) = (1 + 21 + + 2q)2

  • 91

    luego V ar(Yt) > V ar(t), en general.

    3. Cov(Yt, Yt+k) = R(k), donde

    R(K) =

    2

    qkj=0

    jj+k , k < q + 1

    0, k q + 1(6.5)

    con 0 = 1.

    4. UnMA(q) siempre es un proceso estacionario con fac, (k) = R(k)R(0)

    .

    Interpretacion de 3. Un MA(q) es un proceso debilmente correlacionado. Se puede ver

    como una alternativa a un Ruido Blanco completamente incorrelacionado.

    Ejemplo 6.2.1. Sea Yt MA(2) dado por

    yt = t 1t1 + 2t2, t i.i.d. N (0, 9), t Z,

    con

    1 = 0.4, 2 = 0.4, 2 = 9,

    entonces

    R(0) =(1 + 0.42 + 0.42

    )9 = 11.88

    R(1) = 9

    21j=0

    jj+1 = 9(01 + 12)

    = 9( 0.4 + (0.4)(0.4))= 5.04

    R(2) = 9

    22j=0

    jj+2 = 9(02) = 9(0.4) = 3.6.

    Entonces la FAC es

    (0) = 1, (1) = 5.0411.88

    = 0.42, (2) = 3.611.88

    (3) = (4) = = 0

  • 92

    0 1 2 3 4

    0.4

    0.2

    0.00.2

    0.40.6

    0.81.0

    True ACF

    Lag

    True A

    CF

    Figura 6.1: Funcion de Autocorrelacion.

    Ejercicio 6.2.1. Encuentre la FAC de

    1. Yt = t 0.5t1 0.5t2.

    2. Yt = t + 0.6t1 0.3t2 0.1t3.

    Conclusion De acuerdo con (6.5), si la fac muestral de una serie Yt termina abruptamente

    puede tratarse de unMA(q). Por ejemplo, en la siguiente grafica 6.2 sera factible unmodelo

    MA(3).

    0 5 10 15

    0.0

    0.4

    0.8

    Lag

    ACF

    Series MA.3

    Figura 6.2: FAC muestral de unMA(3).

    Definicion 6.2.3 (Funcion de Autocorrelacion Parcial (facp)). Suponga que (Yt, t Z)es estacionaria. La facp es una funcion de k, (k), k = 1, 2, . . . definida por

    1. (1) = (1)

    2. (k) = Corr(1, k) donde

    1 = Y1 E(Y1|Y2, . . . , Yk1)k = Yk E(Yk|Y2, . . . , Yk1), k = 2, . . .

  • 93

    Y la facp muestral se define por (k)

    1. (1) = (1)

    2. (2) : se regresa Yt sobre Yt1 y Yt2 tal que Yt = 21Yt1 + 22Yt2 + t entonces

    (2) = 22

    3. (k) : se regresa Yt sobre Yt1, . . . , Ytk tal que Yt = k1Yt1 + +kkYtk + tentonces (k) = kk

    La facp de un proceso Yt MA(q) se puede encontrar si se asume la condicion deinvertibilidad para unMA(q)

    6.2.2. Condicion de Invertibilidad del Proceso MA(q)

    Definicion 6.2.4. Dado un procesoMA(q), Yt = q(L)(t) donde q(L) = 1+1L+2L2+

    + qLq, entonces considerando el polinomio en z C, q(z) = 1 + 1z + + qzq ysus q races (z1, z2, . . . , zq) C, es decir, valores z C tales que q(z) = 0, se dice que elproceso Yt es invertible si se cumple

    |zj| > 1, j = 1, . . . , q, (6.6)

    o tambien, si q(z) 6= 0, z, |z| 1. Note que (6.6) es equivalente a1

    |zj| < 1, j = 1, . . . , q

    es decir, los inversos de las races deben caer dentro del crculo unitario complejo.

    Ejemplo 6.2.2. Sea Yt MA(a) tal que

    Yt = t 0.4t1 + 0.4t2, (6.7)

    veamos si Yt es invertible. Hallamos las races del polinomio q(z)

    2(z) = 1 0.4z + 0.4z2 = 0,

    z =0.4

    0.42 4(0.4)(1)2(0.4)

    =1

    2 1

    2

    10

    4

    4

    10

    4

    10 4 = 1

    2 1

    2

    10

    2

    3610

    =1

    2 1

    2

    10

    2

    36

    10i =

    1

    2 3

    2i

  • 94

    por tanto

    |z| =(

    1

    2

    )2+

    (32

    )2=

    1

    4+ 9 > 1,

    luego Yt es invertible.

    6.2.3. Funcion facp de un Proceso MA(q) invertible

    Suponga un proceso Yt MA(q) invertible,

    Yt = q(L)(t). (6.8)

    Considere q(z) = 1+ 1z+ + qzq entonces q(z) 6= 0, |z| 1, luego la funcion 1q(z)tiene desarrollo es serie de Taylor alrededor de z = 0, dado por

    1

    q(z)= 1 + 1z + 2z

    2 + . . . =

    j=0

    jzj, 0 = 1, (6.9)

    con

    j=0 2

  • 95

    0 5 10 15 20

    0.0

    0.4

    0.8

    True ACF

    Lag

    True

    AC

    F

    (a) FAC

    5 10 15 20

    0.

    20.

    20.

    61.

    0

    True PACF

    Lag

    True

    PA

    CF

    (b) FACP

    Figura 6.3: FAC y FACP de unMA(3).

    6.2.4. Implementacion en R

    En R para identificar se usan las funciones acf y pacf y para estimar una de las funciones

    usadas es arma de la librera tseries.

    Ejemplo 6.2.3. library(forecast,tseries)

    n = 300

    theta = c(-1,-0.4,-0.4)

    (Mod(polyroot(theta)))

    y = arima.sim(list(order=c(0,0,2), ma=theta[2:3]), n=n, sd=sqrt(2.3))

    layout(1:3)

    ts.plot(y)

    acf(y,30)

    pacf(y,30)

    # Estimacion: Funcion arma librera tseries

    modelo.y = arma(x=y, order=c(0,2))

    summary(modelo.y)

  • 96

    0 5 10 15 20 25 30

    0.0

    0.6

    Lag

    AC

    F

    Series y

    (a) FAC

    5 10 15 20

    0.1

    0.2

    0.4

    Lag

    Pa

    rtia

    l A

    CF

    Series y

    (b) FACP

    Figura 6.4: FAC y FACP del Ejemplo.

    pred.y = predict(modelo.y, n.ahead=2)

    plot(seq(1,9,1), c(tail(y), pred.y$pred), type=b)

    points(seq(7,9,1), pred.y$pred, type=b, col=red)

    6.3. Procesos Autoregresivos de Orden p, AR(p)

    Definicion 6.3.1 (Proceso AR(p)). Se dice que Yn, n Z sigue un proceso AR(p) si

    Yn = 1Yn1 + 2Yn2 + + pYnp + n, (6.12)

    donde n RB(0, 2). Usando el operador de rezago L se puede escribir (6.12) como

    p(L)(Yn) = n, (6.13)

    con p(z) = 1 1z + 2z2 + + pzp, z C, el polinomio autorregresivo.

    Condicion Suficiente para que un AR(p) sea Estacionario

    La condicion suficiente para que Yt AR(p) sea estacionario en covarianza es que las praces del la ecuacion p(z) = 0, z1, z2, . . . , zp cumplan

    |zi| > 1 (6.14)

    donde p(z) es el polinomio caracterstico del AR(p) definido por

  • 97

    p(z) = 1 1z 2z2 pzp, z C, (6.15)

    Notese que si zj = aj ibj entonces |zj| =a2j + b

    2j . La condicion (6.14) no es, sin

    embargo, necesaria. En palabras, la condicion (6.14) se describe como para que un proceso

    autoregresivo de orden p sea estacionario en covarianza, es suficiente que las races del

    polinomio autorregresivo esten por fuera del crculo unitario. El crculo unitario aparece en

    la Figura 6.5. En esta figura se observa la posicion de la raz zj y su conjugado zj .

    Figura 6.5: Crculo Unitario

    6.3.1. Algunas Propiedades de los Procesos AR(p) Estacionarios

    Proposicion 6.3.1. Para un proceso Yt AR(p), definido en (6.12), se tieneE(Yt) = 0.

    Demostracion. Si Yt es estacionario en covarianza entonces E(Yt) = . Ademas,

    E(Yt) = 1E(Yt1) + 2E(Yt2) + + pE(Ytp) + 0,

    pero todas las esperanzas son luego

    = 1+ 2+ + p.

    Si 6= 0 entonces

    1 = 1 + + p

    por tanto

    p(1) = 0

  • 98

    lo cual es una contradiccion (), ya que z C, |z| 1 entonces

    p(z) 6= 0.

    luego debe tenerse que = 0, es decir, el proceso definido en (6.12) es de media cero.

    Un proceso Yt AR(p) con E(Yt) = 6= 0 se define como

    p(L)(Yt) = 0 + t, (6.16)

    donde

    0 = p(L)()

    = (1 1 2 p).

    Notese que tambien se puede escribirYt = (11 p)+1Yt1+ +pYtp+t,de donde Yt = 1(Yt1 ) + + p(Ytp ) + t. Es decir, el proceso (Yt )es AR(p) de media cero.

    La Funcion de Autocovarianza de los Procesos AR(p)

    La funcion de autocovarianza de un proceso Yt AR(p) estacionario en covarianza, R(k)se puede calcular resolviendo una ecuacion recursiva lineal denominada, en plural, las

    ecuaciones de YuleWalker.

    Proposicion 6.3.2. Suponga un proceso AR(p), Yn =p

    j=1 jYnj + t, que satisface la

    condicion de estacionario en covarianza ((6.14)). Su funcion fac R(k) satisface la ecuacion

    recursiva

    R(k) =

    pj=1

    jR(k j), k = 1, 2, . . . . (6.17)

    denominada, en plural, Ecuaciones de YuleWalker.

    Demostracion. Colocando = E(Yn), como Yn =p

    j=1 jYnj + n, al tomar esperanza

    en ambos miembros se obtiene =p

    j=1 j+ 0. Restando las expresiones anteriores se

    obtieneYn =p

    j=1 j(Ynj )+n. Multiplicando ambos miembros de la identidadanterior por Ynk , con k n, y tomando valor esperado E(.) se obtiene

    R(k) = E((Yn )(Ynk ))

  • 99

    =

    pj=1

    E((Ynj )(Ynk )) + E(n(Ynk ))

    =

    pj=1

    jR(k j).

    En el resultado anterior se tiene E(n(Ynk )) = 0 porque, a partir de la definicion delprocesoYn en (6.12),Ynk depende de s con s nk, que son variables incorrelacionadascon n.

    La Varianza de los Procesos AR(p)

    Si Yt AR(p) de media cero, estacionario en covarianza entonces p(L)(Yn) = n, paran RB(0, 2). Ademas, se cumple que z, |z| 1 p(z) 6= 0 entonces el cociente 1p(z)se puede desarrollar en serie de potencias de z, y colocar

    1

    p(z)=

    j=0

    jzj,

    para ciertos coeficientes (j, j = 0, 1, . . .), con 0 = 1. Por tanto, se puede colocar

    Yn =1

    p(L)(n) = n + 1n1 + 2n2 + . . . . (6.18)

    Tomando varianza a ambos miembros de (6.18), se obtiene V ar(Yn) = 2

    j=0 j .

    Estimacion de la FAC de un AR(p)

    (k) = Corr(Yt, Yt+k), k = 1, 2, . . . , p, p+ 1, . . . (6.19)

    cumple que:

    1. Se tiene un sistema lineal p p que cumple

    A =

    1 (1) (p 1)

    (1) (2) (p 2)(2) (3) (p 3)...

    ......

    (p 1) (p 2) 1

    , =1

    2...

    p

    , =(1)

    (2)...

    (p)

    ,

  • 100

    entonces

    A = . (6.20)

    Luego dada (1), . . . , (p) se puede resolver (6.20) tomando = A1, los esti-

    madores de Yule-Walker de

    2.

    (k) = 1(k 1) + 2(k 2) + + p(k p), k = p, p+ 1, . . . (6.21)

    Entoces (6.21) forma una ecuacion en diferencias finitas con condiciones iniciales

    (1), . . . , (p), para (k), k p+ 1, con solucion

    (k) = s1gk1 + s2g

    22 + + spgp2, (6.22)

    donde gi = 1/zi y zi es la i-esima raz de la ecuacion caracterstica

    1 1z 2z2 pzp = 0 (6.23)

    con |zi| > 1 |gi| < 1, luego se debe cumplir que (k) 0, k Nota 6.3.1. Si gi 1, por ejemplo gi = 1 se tendra sigki = si(1 )k y por tanto(k) decae a cero mas lento que si gi = .

    0 5 10 15 20

    0.0

    0.4

    0.8

    True ACF

    Lag

    True

    AC

    F

    (a) = 0.35

    0 5 10 15 20

    0.0

    0.4

    0.8

    True ACF

    Lag

    True

    AC

    F

    (b) = 0.88

    Figura 6.6: FAC de Yt = Yt1 + t.

    FACP de los Procesos AR(p)

    La FACP de un procesos AR(p) es (k) tal que (k) es el coeficiente k,k en la regresion

    Yt = 0 + k,1Yt1 + + k,kYtk + at, k = 2 (6.24)

  • 101

    pero como k,k = 0 si k p+ 1 entoces (k) = 0 si k p+ 1

    20000927 20010220 20010716

    4555

    65

    Figura 6.7: FACP Muestral de AR(p).

    Ejemplo 6.3.1. Sea Yt AR(2) con

    Yt = 1Yt1 + 2Yt2 + t, ti.i.d. N (0, 2)

    Yt = 1.5Yt1 0.9Yt2 + t,2(z) = 1 1.5z + 0.9z2 = 0 ecuacion caracterstica

    z = 0.83 0, 64i, |z| = 1.054 > 1

    luego Yt es estacionario en covarianza, ademas

    (k) = 1 1.5(k 1) + 0.9(k 2), k 2(0) = 1, (1) =

    11 2 =

    1.5

    1.9= 0.789.

    6.3.2. Proceso AR(1)

    El proceso AR(1) se ha utilizado anteriormente por ejemplo, en la prueba Durbin-Watson.

    A continuacion se desarrollan algunas de sus propiedades.

    Si Yt es un AR(1) de media , entonces esta definido por

    Yt = 0 + 1Yt1 + t, 0 = (1 1), (6.25)donde el proceso Yt es estacionario si todas la races z de la ecuacion 1(z) = 0 caen

    fuera del circulo unitario |z| > 1. Luego el AR(1) es estacionario en covarianza si y solo si|1| < 1.Definicion 6.3.2 (Marcha Aleatoria). Se dice que Yt es una marcha aleatoria (Random

    Walk) si cumple

    Yt = + Yt1 + t, (6.26)

  • 102

    notese que es un AR(1) con 1 = 1.

    Propiedades del AR(1)

    1. E(Yt) = =0

    1 1

    2. Cov(Yt, Yt+k) =2k11 k1

    , k = 0, 1, . . .

    3. (k) = k1, 1 < 1 < 1.Nota 6.3.2. Diebold [1999, pag. 138], Si Yt AR(1) de media cero estacionario encovarianza entonces

    Yt = 1Yt1 + t, t R.B.(0, 2)

    es decir

    (1 1L)Yt = ty se puede escribir como

    Yt =1

    1 1Lt,si se cumple que

    f(z) =1

    1 1z =j=0

    j1zj = 1 + 1z +

    21z

    2 + . . .

    por que |1 z| < 1 ya que |1| < 1 y |z| < 1. Entonces

    Yt = t + 1t1 + 21t2 + . . . ,

    y como los t son incorrelacionados

    V ar(Yt) = 2 + 1

    2 + 212 + . . .

    = 2(1 + 1 + 21 + . . . ) =

    2

    (1

    1 1

    )Varianza Incondicional

    Nota 6.3.3. Si Yt AR(1) de media cero estacionario en covarianza entoncesE(Yt|Yt1) = E(1Yt1 + y|Yt1) = 1Yt1,

    y si se asume que t son independientes de yt1, Yt2, . . .

    V ar(Yt|Yt1) = V ar(1Yt1 + t|Yt1)= 21V ar(Yt1|Yt1) + V ar(t) =

    2 Varianza Condicional

  • 103

    6.4. Procesos Autoregresivos y de Medias Moviles ARMA(p,q)

    Si en un proceso Yt AR(p)

    Yt 1Yt1 2Yt2 pYtp = t, t R.B.(0, 2), (6.27)

    se cambia t por un modeloMA(q), Zt = t+ 1t1+ + qtq entonces (6.27) queda

    Yt 1Yt1 pYtp = t + 1t1 + + qtq , (6.28)

    donde t RB(0, 2). El efecto de este cambio es que los errores no se toman incorrela-cionados sino con autocorrelacion debil. Se define entonces un proceso ARMA(p,q) como

    un modelo que combina las propiedades de memoria larga de los AR(p) con las propiedades

    de ruido debilmente autocorrelacionado en los MA(q), y que tiene suficiente flexibilidad y

    parsimonia. Usando la notacion del operador de rezago (6.28) se puede definir el proceso

    ARMA(p, q) por

    Definicion 6.4.1. Un proceso Yt ARMA(p, q) se define mediante la ecuacion (6.28), otambien por

    p(L)(Yt) = q(L)(t), t Z, (6.29)

    donde t RB(0, 2), y p(z) = 1 p

    j=1 jzj , q(z) = 1 +

    qj=1 jz

    j son los

    polinomios autoregresivo y de media movil respectivamente.

    Las condiciones de estacionariedad de la parte AR(p) y de invertibilidad de la parte MA(q)

    se asumen en el modelo ARMA(p,q), (6.29). Por lo tanto, se asume que las races de las

    ecuaciones p(z) = 0 y q(z) = 0 estan fuera del crculo unitario. Ademas se asume que

    estos polinomios no tienen races en comun. Si se cumplen estas condiciones el proceso

    Yt ARMA(p, q) es estacionario e identificable.

    Ejemplo 6.4.1. Sea Yt ARMA(1, 1) dado por

    1(L)(Yt) = 1(L)(t) (6.30)

    donde 1(L) = 1L y 1(L) = 1 + L. Es decir Yt = Yt1 + t + t1. Si || < 1 y|| < 1 es estacionario e invertible. Por ejemplo

    Yt = 0.9Yt1 + t 0.4t1,

    con t RB(0, 2)

  • 104

    Ejemplo 6.4.2. Consideremos un modelo de descomposicion con tendencia lineal y esta-

    cionalidad de perodo 12, modelada por variables indicadoras donde el residuo estructural

    es un proceso ARMA(1, 1). Entonces el modelo se escribe como el sistema de dos ecua-

    ciones siguiente.

    Yt = 0 + 1t+

    11j=1

    jIj(t) + t,

    t = t1 + at + at1,

    con at RB(0, 2), el residuo del proceso arma. Notese que el numero de parametros deeste modelo es 16, incluyendo la varianza 2.

    Ejemplo 6.4.3. Considere el proceso Yt ARMA(2, 1) dado por

    Yt = 2 +1 0.4L

    1 1.5L+ 0.9L2 t, t R.B.(0, 2)

    osea

    Yt = 2(1 1.5 + 0.9)+ 1.5Yt1 0.9Yt3 + t 0.4t1

    con ecuacion caracterstica

    1 1.5z + 0.9z2 = 0

    y sus races dadas por

    z =1.5

    1.52 4(0.9)2(0.9)

    = 0.83 0.645i

    por tanto

    |z| = 1.05 > 1

    es un proceso estacionario en covarianza e invertible.

    6.4.1. Propiedades de los Modelos ARMA

    1. Suponga Yt ARMA(p, q) entonces E(Yt) = 0. Si el proceso es estacionarioentonces se puede expresar q(z)/p(z) =

    j=0 jz

    j con0 = 1 y

    j=0 |j|

  • 105

    por tanto

    E(Yt) = E(t + 1t1 + 2t2 + . . . ) = 0.

    2. En caso de ser E(Yt) = 6= 0 se coloca

    Yt = +q(L)

    p(L)t (6.31)

    de donde p(L)Yt = p(1) + q(L)t. Por ejemplo, sea Yt ARMA(1, 1) conE(Yt) = entonces

    Yt = +1 + L

    1 Lt

    luego

    (1 L)Yt = (1 L)+ (1 L)t

    pero (1 L) = = (1 ), luego

    Yt = (1 )+ Yt1 + t + t1.

    3. La funcion de autocovarianza de un proceso Yt ARMA(p,q) estacionario de mediacero. Si se indica por R(k) = Cov(Yt, Yt+k) su funcion de autocovarianza, para

    k = 0, 1, . . . un metodo para calcular esta funcion se basa en la representacion

    p(L)Yt = q(L)t, con q(z)/p(z) =

    j=0 jzj .Multiplicandoambosmiembros

    por Ytk y tomando esperanza E(.) se obtienen las ecuaciones recursivas siguientes,

    similares a las ecuaciones Yule-Walker para AR(p), (6.17). Defina n = max(p, q+1),

    R(k)1R(k1). . .pR(kp) =2

    qj=k jjk, si k = 0, 1, . . . , n 1

    0, si k = n, n+ 1, . . . .

    (6.32)

    Ejemplo 6.4.4. (tomado de Brockwell and Davis [2002], pag. 93). Considere el

    procesoARMA(2,1) dado por (1L+ 14L2)Yt = (1+L)t. Entoncesn = max(p, q+1) = 2, por tanto, para k = 0, 1 se tiene el sistema lineal

    R(0) R(1) + 14R(2) = 2(00 + 11) =

    2(1 + 1),

    R(1) R(0) + 14R(1) = 2(10) =

    20 = 2. (6.33)

  • 106

    Para calcular los coeficientes (j, j = 0, 1, . . .) se puede utilizar la funcion de

    R, ARMAtoMA(a,b,m), la cual calcula los coeficientes j, j = 1, 2, . . . , m,

    dados los vectores a = (1, . . . , p) y b = (1, . . . , q). Entonces, escribiendo

    ARMAtoMA(c(1.0, -0.25), 1.0, 10), se obtiene el vector

    [1] 2.00000000 1.75000000 1.25000000 0.81250000 0.50000000

    [6] 0.29687500 0.17187500 0.09765625 0.05468750 0.03027344

    de donde 1 = 2. Usando la segunda ecuacion de (6.32), se obtiene R(2) = R(1)14R(0), luego, reemplazando en el sistema (6.33), y resolviendo, se obtienen R(0) =

    322/3, R(1) = 282/3. Utilizando la segunda ecuacion de (6.32),

    R(k) = R(k 1) 14R(k 2), k = 2, 3, . . .

    se puede calcular la autocovarianza recursivamente.

    4. La varianza de un proceso Yt ARMA(p,q) estacionario de media cero. Es evidenteque a partir de la primera ecuacion en (6.32) se puede definir un sistema lineal una de

    cuyas incognitas es R(0), la cual se resuelve en funcion de 2.

    6.4.2. Libreras para identificacion, estimacion y pronosticos de modelos AR-

    MA

    El plan de analisis con procesos ARMA consiste en

    1. Identificar el modelo ARMA(p,q).

    2. Estimar el modelo.

    3. Chequeo del ajuste del modelo a los datos.

    4. Pronosticos con el modelo. O simulacion del modelo.

    Algunas de las libreras y funciones a utilizar para este analisis son

    1. stat, con la funcion arima(), estima primero por mnimos cuadrados condicionales y

    luego por maxima verosimilitud.

    2. tseries, con la funcion arma(), estima mediante mnimos cuadrados condicionales.

    3. forecast, con la funcion auto.arima(), para identificacion de modelos ARIMA.

  • 107

    4. FitAR, FitARMA, para estimacion de AR(p) y ARMA(p,q).

    5. timsac, con la funcion autoarmafit(), para identificacion del modelo ARMA(p,q) con

    menor AIC. El programa asume que el modelo ARMA(p,q) se define con q(z) =

    1 qj=1 jzj , es decir, los coeficientes j se cambian de signo en esta librera.Tambien tiene la funcion armafit() para ajuste de modelos ARMA.

    6.4.3. Identificacion de modelos ARMA

    No es facil identificar los modelos ARMA(p, q) mediante la FAC y FACP. Si (q p 1)entonces para (k q + 1) se cumple (6.21) y para 1 k p 1, (k) no tiene un patrongeneral, luego la FAC muestral presenta un patron definido solamente para k q + 1.

    Figura 6.8: Fac Muestral de ARMA(p, q).

    Una alternativa consiste en buscar una pareja de ordenes (p, q) dentro de un rango inicial,

    por ejemplo p, q = 0, 1, . . . , 10, que minimice alguna funcion de 2, como por ejemplo el

    AIC o el BIC.

    6.4.4. Estimacion de modelos ARMA

    La estimacion de procesos Yt ARMA(p,q) se basa en un supuesto: que el vector Y =(Y1, . . . , Yn)

    se distribuye Normal multivariado con media , y matriz de covarianzas

    = [Cov(Yi, Yj)]nn. Como el proceso se asume estacionario, se cumple Cov(Yi, Yj) =

    R(j i), donde R(k) es la funcion de autocovarianza de Yt. La forma de es la de una

  • 108

    matriz tipo Toeplitz: las diagonales descendentes son constantes:

    =

    R(0) R(1) R(n 1)R(1) R(0) R(n 2)R(2) R(1) R(n 3)...

    ......

    R(n 1) R(n 2) R(0)

    . (6.34)

    Por ejemplo, para Yt unAR(p),R(k) se calculamediante las ecuaciones Yule-Walker, (6.17),

    R(k) = +p

    j=1 jR(k j). Por tanto, colocando = (, 2, 1, . . . , p, 1, . . . , q),la matriz depende del vector , y se escribe (). Este supuesto permite implementar la

    estimacion por maxima verosimilitud. Se escribe la densidad Normal Multivariada como

    f(y, ) =1

    (2pi)n/2det(())

    exp

    (12(y )()1(y )

    )(6.35)

    donde = (, . . . , ) Rn. La funcion de log-verosimilitud se define a partir del logaritmode la densidad (6.35), log(f(y, )), y esta dada por

    L() :=

    nj=1

    log f(yj, )

    = n2log(2pi) 1

    2log det(()) 1

    2(y )()1(y ). (6.36)

    El estimador ML de maxima verosimilitud de se define como

    = argmin

    (L()). (6.37)

    La identificacion con base en el AIC se basa en comparar varios modelosARMA(p, q) para

    valores de, por ejemplo, p = 0, 1, . . . , 20 y p = 0, 1, . . . , 20 con base en el criterio AIC el

    cual esta definido por

    AIC = 2L() + 2k, k = p+ q (6.38)

    Entonces identifica un posible modelo parsimonioso escogiendo el modelo con el mnimo

    AIC.

    Ejemplo 6.4.5. Suponga que se requiere simular un ARMA(3, 2) tal que se escogen las

    races de 3(z) y 2(z), con inversos dentro del crculo unitario.

  • 109

    z1 = complex(3)

    z1[1] = -0.8 - 1.3i

    z1[2] = conj(z1[1])

    z1[3] = 1.2

    Entonces 3(z) = 1 1z 2z2 3z3

    (z-z1[1])(z-z1[2])(z-z1[3])

    = 2.796 + 0.41z + 0.4z2 + z3 polinomio monico

    -z1[1]z1[2]z1[3] = -2.2796

    a = poly.calc(z1)

    a = a/a[1]

    z2 = complex(2)

    z2[1] = -1.2 -0.5i

    z2[2] = conj(z2[1])

    b = poly.calc(z2)

    b = b/b[1]

    n = 300

    y = arima.sim(list(order=c(3,0,2), ar=-a[2:4], ma=b[2:3]), n=n,

    sd=sqrt(0.3))

    require(forecast)

    auto.arima(y)

    y1 = arima.sim(list(order=c(3,0,2), ar=-a[2:4], ma=b[2:3]), n=n,

    sd=sqrt(0.3), randgeb = function(n,...))

    auto.arima(y1)

    stats::arima(y1)

    mod1 = stats::arima(y1, c(3,0,2))

    py1 = predict(mod1, n.ahead=20)

    plot(1:70, c(y[(3200-49):3200],py1$pred),

  • 110

    ylim=c(min(py1$pred-1.64*py1$se),max()), type=b, col=2)

    points(51:70,py1$pred, type=b, col=blue)

    points(51:70, py1$pred+1.64*py1$se, type=l, col=blue)

    points(51:70, py1$pred-1.64*py1$se, type=l, col=blue)

    6.4.5. Pronosticos con modelos ARMA