introducción 7 de junio.pdf · series de tiempo cnsf - iimas unam introducción una primera de...

21
{x t1 ,x t2 ,...,x tn } = {x ti : i T } = {x ti } iT x ti x t i T T = N T = Z T = R T T = R t i+1 ,t i T t i+1 - t i = k {x t1 ,x t2 ,...,x tn } = {x 1 ,x 2 ,...,x n } = {x i } n i=1 .

Upload: phungkien

Post on 19-Oct-2018

217 views

Category:

Documents


0 download

TRANSCRIPT

Page 1: Introducción 7 de junio.pdf · Series de tiempo CNSF - IIMAS UNAM Introducción Una primera de nición de serie de tiempo es: un conjunto de observaciones de cierto fenómeno registradas

Series de tiempo CNSF - IIMAS UNAM

Introducción

Una primera denición de serie de tiempo es: un conjunto de observaciones de cierto fenómeno registradassecuencialmente en el tiempo. Estas observaciones serán denotadas por xt1 , xt2 , . . . , xtn = xti : i ∈ T =xtii∈T donde la notación, xti , es el valor de la variable x en el instante ti . Y T es un conjunto de índices quepuede ser un intervalo o T = N, T = Z ó T = R.

Si el conjunto de índices T es numerable, diremos que la serie es a tiempo discreto, mientras que si el conjuntode índices es un conjunto no numerable (por ejemplo T = R), dirémos que la serie de tiempo es continua. A lolargo del curso trabajarémos con procesos a tiempo discreto.

Cuando tomamos cualquier par de índices consecutivos del conjunto, ti+1, ti ∈ T y su diferencia es una constante,ti+1 − ti = k, se dice que la serie es equiespaciada. En adelante trabajarémos con el supuesto de que tenemosseries de tiempo discreta, equiespaciadas en cuyo caso asumiremos sin perdida de generalidad que:

xt1 , xt2 , . . . , xtn = x1, x2, . . . , xn= xini=1 .

Objetivo de este curso en primer lugar será

Descripción Con la información que nos da una serie de tiempo observada usaremos métodos descriptivos ygrácos para saber como está conformada la serie y ver si existen datos atípicos.

Explicación En este paso buscaremos un modelo del cual podamos decir que nuestra serie observada es unarealización de ese modelo.

Predicción Una vez que podamos asumir que nuestra serie observada es una realización de un modelo buscare-mos hacer predicción de valores futuros a partir de los datos del presente y el pasado.

Ejemplos de Series de tiempo

• Series económicas: Precios de divisas, tasas, índice de precios

• Series Físicas: Meteorológica, temperatura, energia solar

• Series de telecomunicacion: Análisis y procesamiento de señales

El primer paso en el análisis de series de tiempo, consiste en gracar la serie. A continuación gracaremos lassiguientes series

1

Page 2: Introducción 7 de junio.pdf · Series de tiempo CNSF - IIMAS UNAM Introducción Una primera de nición de serie de tiempo es: un conjunto de observaciones de cierto fenómeno registradas

Series de tiempo CNSF - IIMAS UNAM

Time

uspo

p

1800 1850 1900 1950

050

100

150

200

Time

US

Acc

Dea

ths

1973 1975 1977 1979

7000

9000

1100

0

Time

suns

pot.y

ear

1700 1800 1900

050

100

150

Time

John

sonJ

ohns

on

1960 1965 1970 1975 1980

05

1015

1. uspop Esta serie de tiempo muestra los censos de la población de los E.U. realizados cada 10 años, de 1790a 1970. Esta serie parece tener un tener un tendencia al menos cuadrática. No parece tener una parteestacional (cíclica).

2. USAccDeaths Representa el total de muertes accidentales mensuales entre los años 1973 a 1978. Esta serieparece tener un comportamiento estacional cada año (un periodo de 12)

3. sunspot.year Muestra el número anual de manchas solares de 1700 a 1988. Esta serie muestra un compor-tamiento estacional, pero aquí no claro el periodo en el cual se repide el cíclo como en la serie anterior.

4. JohnsonJohnson son las ganancias trimestrales de la compañía Johnson & Johnson de 1960-80. Esta serietiene tanto una parte cíclica (con periodo 3) y como una tendencia no lineal.

5. AirPassengers captura el total mensual de los pasajeros de líneas aéreas internacionales de 1949 a 1960.Como en la serie anterior podemos ver que esta serie tiene tendencia no lineal y una parte cíclica de periodo12.

2

Page 3: Introducción 7 de junio.pdf · Series de tiempo CNSF - IIMAS UNAM Introducción Una primera de nición de serie de tiempo es: un conjunto de observaciones de cierto fenómeno registradas

Series de tiempo CNSF - IIMAS UNAM

Time

AirP

asse

nger

s

1950 1952 1954 1956 1958 1960

100

200

300

400

500

600

La inspeción gráca puede sugerir la posibilidad de representar los datos como una realización de un procesoque puede tener todas o alguna de las siguientes componentes:

Xt = f (mt, st, Yt) =

mt + st + Yt modelo aditivo

mt · st · Yt modelo multiplicativo,

donde

• mt es la componente de tendencia,

• st es el componente estacional de periodo d, donde st = st+d = st+2d = . . .

• Yt es el componente aleatorio.

Es claro que un modelo multiplicativo Xt = mt · st · Yt lo podemos llevar a un modelo multiplicativo, siempreque Xt > 0, al tomar logaritmo, X ′t = log (Xt) = log (mt · st · Yt) = log (mt) + log (st) + log (Yt) = m′t + s′t + Y ′t .Este tipo de trasnformaciones son utiles para linealizar los datos y reducir la varianza de la serie de tiempo. Unejemplo de esto son las series, JohnsonJohnson y AirPassengers.

Análisis descriptivo

A continuación veremos algunos métodos que se han propuesto para identicar y describir las componentes detendencia mt y la parte estacional o cíclica st de la serie de tiempo.

Primero estudiaremos tres métodos para estimar la tendencia de una serie de tiempo de la forma

Xt = mt + Yt, o Xt = mt + st + Yt

3

Page 4: Introducción 7 de junio.pdf · Series de tiempo CNSF - IIMAS UNAM Introducción Una primera de nición de serie de tiempo es: un conjunto de observaciones de cierto fenómeno registradas

Series de tiempo CNSF - IIMAS UNAM

Método 1

Si tenemos una serie que tiene solo una parte de tendencia Xt = mt + Yt, como por ejemplo la serie uspop. Unamanera de estimar de mt sería vía mínimos cuadrádos. Es decir, procederemos a estimar la tendencia de entreuna familia de funciones de la forma

mt = a0 + a1t+ a2t2,

y escogeremos los a0, a1 y a2 que minimizen∑t (Xt −mt)

2.

Y así obtener

mt = a0 + a1t+ a2t2.

Una vez estima da la tendencia podemos estimar la parte aleatoria de la siguiente manera

Yt = Xt − mt, t ∈ 1, . . . , n .

Método 2

Suavizamineto de la media vía un promedios moviles.

Sea q un entero no negativo y considederemos el promedio movil de dos lados como

mt =

q∑j=−q

ajXt+j , para t ∈ q + 1, q + 2, . . . , n− q ,

donde

q∑j=−q

aj = 1.

Un caso particular de este tipo de ajuste de la tendencia es si suponemos que aj = 12q+1 , es decir

mt =1

2q + 1

q∑−qXt+j , t ∈ q + 1, q + 2, . . . , n− q .

Notemos que hay 2q + 1 sumandos, por lo tanto,∑q−q

12q+1 = 1.

Antes de describir el último método introduzcamos los operadores retraso y diferencia.

El operador retraso, denotado por B, actua sobre el tiempo de la siguiente manera

BXt = Xt−1

B2Xt = B (BXt) = BXt−1 = Xt−2

...

BjXt = Xt−j .

Denamos a B0Xt = Xt.

4

Page 5: Introducción 7 de junio.pdf · Series de tiempo CNSF - IIMAS UNAM Introducción Una primera de nición de serie de tiempo es: un conjunto de observaciones de cierto fenómeno registradas

Series de tiempo CNSF - IIMAS UNAM

A partir del operador retraso denimos el operador diferencia como

∇Xt = (1−B)Xt = Xt −Xt−1.

Entonces el operador diferencia lo podemos manipular como si fuera un polinomio común y corriente es decir

∇2Xt = (1−B) (1−B)Xt =(1− 2B +B2

)Xt = Xt − 2Xt−1 +Xt−2.

Y por lo tanto si deseamos diferenciar Xt la serie j veces tenemos que

∇jXt = (1−B)jXt

=

j∑k=0

(j

k

)(−1)

kBkXt

=

n∑k=0

(j

k

)(−1)

kXt−k.

Método 3

Cuando la serie de tiempo Xt tiene una tendencia lineal, mt = at+b, entonces al aplicar un el operador diferencia∇ obtenemos ∇mt = a.

De la misma forma, si nosotros tenemos una serie de tiempo Xt = mt + Yt donde la tendenca es polinomial de

grado k, mt =

k∑j=0

ajtj , entonces al aplicar el operador diferencia a la tendencia tenemos que ∇kmt = k!ak y

por lo tanto tenemos que

∇kXt = k!ak +∇kYt.

Lo que pretendemos ahora es quitar la tendencia y la parte estacional en un modelo general

Xt = mt + st + Yt

donde E [Yt] = 0, st = st+d y∑dj=1 sj = 0

Metodo S1

Para ilustrar este método usemos la serie de muertes accidentales USAccDeaths, y cambiemos la notaciónde la serie de tiempo x1, x2, . . . , xn por los sub índices xj,k, donde j ∈ 1, 2, . . . , 6 representa los años yk = 1, . . . , 12 representa los meses y claramente el periodo es d = 12

Para este método calculemos la tendencia anual que cambia suavemente como

mj =1

12

12∑k=1

xj,k.

5

Page 6: Introducción 7 de junio.pdf · Series de tiempo CNSF - IIMAS UNAM Introducción Una primera de nición de serie de tiempo es: un conjunto de observaciones de cierto fenómeno registradas

Series de tiempo CNSF - IIMAS UNAM

Mientras que la parte estacional la calcularemos como

sk =1

6

6∑j=1

(xj,k − mj) .

Por último, calculamos la parte aleatoria como

Yj,k = xj,k − mj − sk,

para j ∈ 1, 2, . . . , 6 y k = 1, . . . , 12

Lo que pretendemos ahora es quitar la tendenciay la parte estacional

Xt = mt + st + Yt

donde E [Yt] = 0, st = st+d y∑dj=1 sj = 0

Método S2

Supongamos que tenemos una serie x1, . . . , xn, la tendencia es estimada vía un promedio movil. Como en estecaso el periodo de la parte estacional es par, es decir que d = 2q entonce la tendencia la calculamos como

mt =0.5xt−q + xt−q+1 + . . .+ xt+q−1 + 0.5xt+q

d, q + 1 < t ≤ n− q.

Después creamos una serie auxiliar

zt = xt − mt, q + 1 < t ≤ n− q.

Con la serie auxiliar vamos a crear un ciclo de la parte estacional, wk con k ∈ 1, . . . , d, igual que como lohicimos en el método S1, y lo ajustamos de la siguiente forma

sk = wk −

d∑i=1

wi

d, k ∈ 1, . . . , d ,

Esta parte estacional la repetimos el número de periodos y por último desestacionalizamos la serie original.

dt = xt − sk.

6

Page 7: Introducción 7 de junio.pdf · Series de tiempo CNSF - IIMAS UNAM Introducción Una primera de nición de serie de tiempo es: un conjunto de observaciones de cierto fenómeno registradas

Series de tiempo CNSF - IIMAS UNAM

7000

8000

9000

1100

0

obse

rved

8400

8800

9200

9600

tren

d−

1500

−50

00

500

1500

seas

onal

−40

00

200

400

600

1973 1974 1975 1976 1977 1978 1979

rand

om

Time

Decomposition of additive time series

Método S3

El método de diferenciación puede ser adaptado cuando existe una parte ciclica de periodo d. Introduzcamos lasiguiente notación

∇dXt =(1−Bd

)Xt = Xt −Xt−d

Ahora aplicando ∇d a Xt = mt + st + Yt tenemos que

7

Page 8: Introducción 7 de junio.pdf · Series de tiempo CNSF - IIMAS UNAM Introducción Una primera de nición de serie de tiempo es: un conjunto de observaciones de cierto fenómeno registradas

Series de tiempo CNSF - IIMAS UNAM

∇dXt =(1−Bd

)Xt

= (mt + st + Yt)− (mt−d + st−d + Yt−d)

= (mt −mt−d) + (Yt − Yt−d) .

para ∇dXt notamos que (mt −mt−d) es el componente de tendencia y (Yt−d − Yt−d) es el componente aleatorio.Entonces podemos eliminar la tendencia usando algúna podencia del operador diferencia simple ∇.

Modelo probabílistico de las series de tiempo

Procesos Estocásticos

Un procesos estocásticos es una sucesión de variables aleatorias que evolucionan en función de otra variable,generalmente el tiempo. Cada una de las variables aleatorias del proceso tiene su propia función de distribuciónde probabilidad y entre las variables aleatorias, pueden estar correlacionadas o no. Una serie de tiempo de n datosla pensaremos como una muestra extraída (una realización) de un vector de n variables aleatorias (Xt1 , . . . , Xtn)que forman parte de un proceso estocástico.

Denición

Un proceso estocástico es una colección de variables aleatorias Xtt∈T indexadas a un conjunto de índices Tdenida sobre el mismo espacio de probabilidad (Ω,A, P ) y toma valores en (R,B (R)).

Donde T es el conjunto de indices y en nuestro caso será N ∪ 0 o Z.

Un proceso estocástico lo podemos pensar como una aplicación de dos argumentos

X : T × Ω → R(t, ω) → X (t, ω) = Xt (ω) .

• Si dejamos jo a t y dejamos variar ω ∈ Ω entonces tenemos una variable aleatoria denida en (Ω,A, P )y toma valores en (R,B (R)).

• Si dejamos jo a ω y dejamos variar t ∈ T entonces tenemos una trayectoria o realización del procesoasociada a ω.

Llamaremos función de medias del proceso Xtt∈T a la aplicación

t ∈ T → µt = E [Xt] .

Llamaremos función de varianzas del proceso Xtt∈T a la aplicación

t ∈ T → σ2t = V ar [Xt] = E

[(Xt − µt)2

].

8

Page 9: Introducción 7 de junio.pdf · Series de tiempo CNSF - IIMAS UNAM Introducción Una primera de nición de serie de tiempo es: un conjunto de observaciones de cierto fenómeno registradas

Series de tiempo CNSF - IIMAS UNAM

La estructura de dependencia lineal entre las variables aleatorias del proceso se representa mediante las funcionesde covarianza y correlación, siempre y cuando los momentos de orden uno y dos existan.

Llamaremos función de autocovarianzas del proceso Xtt∈T a la aplicación

(t1, t2) ∈ T × T → γt1,t2 = Cov (Xt1 , Xt2) = E [(Xt1 − µt1) (Xt2 − µt2)] .

Llamaremos función de autocorrelación del proceso Xtt∈T a la aplicación

(t1, t2) ∈ T × T → ρt1,t2 = Cor (Xt1 , Xt2) =γt1,t2√σ2t1σ

2t2

.

Procesos Estacionarios

Denición

Diremos que Xtt∈T es un proceso estrictamente estacionario si para cualquier τ > 0, n ≥ 1 y ti, ti+τ ∈ T ,i ∈ 1, . . . , n, entonces (Xt1 , . . . , Xtn) y (Xt1+τ , . . . , Xtn+τ ) tiene la misma distribución conjunta, es decir

Ft1,t2,...,tn(a1, a2 . . . , an) = P(Xt1 ≤ a1, Xt2 ≤ a2, . . . , Xtn ≤ an)

= P(Xt1+τ ≤ a1, Xt2+τ ≤ a2, . . . , Xtn+τ ≤ an)

= Ft1+τ,t2+τ,...,tn+τ (a1, a2, . . . , an).

Un ejemplo de un proceso estrictamente estacionario es una muestra aleatoria.

Denición

Diremos que Xtt∈T es un proceso estacionario de primer orden o en media si la función de medias esconstante, es decir, µt no depende de t, es decir

E (Xt1) = µt = k, una constante ∀ t ∈ T.

Denición

Diremos que Xt es un proceso débilmente estacionario o estacionario de segundo orden si ∀n ≥ 1, ∀t1, t2, . . . tn ∈ T y ∀τ ∈ T tal que ∀t1 + τ, t2 + τ, . . . tn + τ ∈ T , los momentos de orden 1 y2 del vector (Xt1 , Xt2 , . . . Xtn) son iguales a los correspondientes momentos de orden 1 y 2 del vector(Xt1+τ , Xt2+τ , . . . Xtn+τ ), es decir

E(Xr1t1 ·X

r2t2 · . . . ·X

rntn

)= E

(Xr1t1+τ ·X

r2t2+τ · . . . ·X

rntn+τ

),

con ri ∈ 0, 1, 2 y∑ni=1 ri ≤ 2.

Observación

Un proceso estrictamente estacionario + momentos de segundo orden nitos implica tener un proceso estacinariode segundo orden.

Otra manera de decir lo anterior es la siguiente

9

Page 10: Introducción 7 de junio.pdf · Series de tiempo CNSF - IIMAS UNAM Introducción Una primera de nición de serie de tiempo es: un conjunto de observaciones de cierto fenómeno registradas

Series de tiempo CNSF - IIMAS UNAM

Denición

Diremos que Xtt∈T es un proceso estacionario de segundo orden o débilmente estacionario si

1. La función de medias es constante (estacionario en media),

2. La función de autocovarianzas tiene la propiedad de que γt,t+h es independiente de t para cada h, es decirque γs,t = γs+h,t+h para todo s, t, s+ h, t+ h ∈ T .

La condición 2, quiere decir que Cov (Xs, Xt), sólo depende de la distancia en el tiempo entre estas, |s− t|.

Por lo tanto la funciones de autocovarianza y de autocorrelación de un proceso estacionario son denotadas porγh = γt,t+h y ρh = γh

γ0respectivamente.

Propiedades de las funciones de autocovarianzas y autocorrelación

• γ0 ≥ 0

• Las funciones de autocovarianza y autocorrelación son simétricas con respecto al cero, es decir Cov (Xt, Xt+h) =Cov (Xt, Xt−h), y ρh = ρ−h.

• ρ0 = 1

• |ρh| ≤ 1

Estimación de las funciones de momentos de procesos estacionarios

La estimación de la media de X1, . . . , Xn es

Xn =1

n

n∑t=1

Xt,

y es un estimador insesgado.

La función de autocovarianza muestral o estimada es

γh =1

n

n−h∑t=1

(Xt+h − Xn

) (Xt − Xn

), 0 ≤ h ≤ n− 1.

La función de autocorrelación muestral o estimada es

ρh =γhγ0, 0 ≤ h ≤ n− 1.

Denición

Un proceso de ruido blanco denotoado por εtt∈T , es un proceso estocástico formado por variables aleatoriasno correlacionadas de media cero y varianza constante σ2

ε

Por lo tanto

γ0 = σ2ε ,

γh = 0 h 6= 0.

y ρh = γhγ0

= 0 para h 6= 0.

10

Page 11: Introducción 7 de junio.pdf · Series de tiempo CNSF - IIMAS UNAM Introducción Una primera de nición de serie de tiempo es: un conjunto de observaciones de cierto fenómeno registradas

Series de tiempo CNSF - IIMAS UNAM

TeoremaSea εtt∈T un proceso de ruido blanco formado por variables independientes y ρ

h= (ρ1, ρ2, . . . , ρh)

′. Entonces

para toda h ≥ 1,

√nρ

h

d→Nh (0, Ih×h) ,

cuando n→∞.

En otras palabras, n grande las ρ1, ρ2, . . . , ρh, h ≥ 1 son aproximadamente v.a.i.i.d. Norm(0, 1

n

).

Usando el resultado anterior podemos contrastar si la serie de tiempo X1, . . . , Xn se a generado a partir de unproceso de ruido blanco. Si la serie fue generada a partir de un proceso de ruido blanco entonces el 95% de lasautocorrelaciones muestrales deberían caer en el intervalo [−1.96/

√n, 1.96/

√n].

Procesos estocásticos lineales.

DeniciónUn proceso estocástico Xtt∈T es un proceso lineal si para todo t ∈ Z se puede representar como

Xt =

∞∑j=−∞

ψjεt−j , (1)

donde εtt∈T es un proceso de ruido blanco y ψj∞j=−∞ es una sucesión de constantes reales absolutamente

sumables∑∞j=−∞ |ψj | <∞.

Una forma de escribir (1) a partir de operadores de retraso es la siguiente;

Xt = ψ (B) εt, donde ψ (B) =

∞∑j=−∞

ψjBj .

Observaciones

• En la denición de proceso estocástico lineal se pide que∑∞j=−∞ |ψj | <∞, esto es con el n de garantizar

que Xt tenga primero y segundo momento nito con probabilidad 1.

Para ver que E [Xt] existe∑∞j=−∞ |ψj | < ∞, primero notemos que usando la desigualdad de Jensen para la

función ϕ(x) =√x, tenemos que

E [|εt|] = E[√|εt|2

]≤√E [|εt|2] =

√E [ε2t ] = σε.

Entonces

E [|Xt|] = E

| ∞∑j=−∞

ψjεt−j |

≤ E

∞∑j=−∞

|ψj ||εt−j |

=

∞∑j=−∞

|ψj |E [|εt−j |] ≤ σε∞∑

j=−∞|ψj | <∞.

11

Page 12: Introducción 7 de junio.pdf · Series de tiempo CNSF - IIMAS UNAM Introducción Una primera de nición de serie de tiempo es: un conjunto de observaciones de cierto fenómeno registradas

Series de tiempo CNSF - IIMAS UNAM

• El operador ψ (B) puede ser interpretado como un ltro lineal. En otras palabras el proceso lineal Xtt∈Tes la salida o resultado de aplicarle el lto ψ (B) a la serie de ruido blanco εtt∈T .

• Podemos ser un poco más generales si suponemos un proceso lineal Xtt∈T que tiene media µ se puedeexpresar de la forma Xt − µ =

∑∞j=−∞ ψjεt−j .

Veamos un ejemplo de un proceso estocástico lineal. Sea Xtt∈T un proceso estocástico

Xt =φXt−1 + εt, con |φ| < 1.

De manera recursiva podemos escribir la ecuacion anterior como

Xt = φ (φXt−2 + εt−1) + εt = φ2Xt−2 + φεt−1 + εt

= φ2 (φXt−3 + εt−2) + φεt−1 + εt = φ3Xt−3 + φ2εt−2 + φεt−1 + εt...

= φnXt−n + φn−1εt−(n−1) + . . .+ φ2εt−2 + φεt−1 + εt

= limn→∞

φnXt−n +

∞∑j=0

φjεt−j =

∞∑j=0

φjεt−j .

TeoremaSea Ytt∈T un proceso estacionario con media cero, varianza γY (0) = σ2 y función de autocovarianzas γY (h)

para h ≥ 1. Si ψj∞j=−∞ es una serie de reales tales que

∞∑j=−∞

|ψj | <∞ entonces el proceso Xt =

∞∑j=−∞

ψjYt−j

es estacionario con media cero y función de autocovarianzas

γX(h) =

∞∑j=−∞

∞∑k=−∞

ψjψkγY (h− k + j), h ≥ 0.

Demostración. Sea h ≥ 0

γX(h) = Cov (Xt, Xt+h) = E (XtXt+h)− 0 = E

∞∑j=−∞

ψjYt−j

∞∑k=−∞

ψkYt+h−k

= E

∞∑j=−∞

∞∑k=−∞

ψjψkYt−jYt+h−k

=

∞∑j=−∞

∞∑k=−∞

ψjψkE (Yt−jYt+h−k)

=

∞∑j=−∞

∞∑k=−∞

ψjψkγY (h− k + j)

Lo que dice el teorema anterior es que la serie que resulta de aplicarle un ltro lineal a una serie estacionaria estambién una serie estacionaria.

12

Page 13: Introducción 7 de junio.pdf · Series de tiempo CNSF - IIMAS UNAM Introducción Una primera de nición de serie de tiempo es: un conjunto de observaciones de cierto fenómeno registradas

Series de tiempo CNSF - IIMAS UNAM

CorolarioCon las hipótesis del teorema anterior y ahora suponiendo que Ytt∈T es ruido blanco, la función de autoco-varianzas del proceso estocástico lineal Xt está dado por

γX(h) = σ2∞∑

j=−∞ψjψj+h, h ≥ 0.

Demostración Si Ytt∈T es ruido blanco entonces γY (h) = 0 si h 6= 0, y γY (0) = σ2, entonces de la ecuación

γX(h) =

∞∑j=−∞

∞∑k=−∞

ψjψkγY (h− k + j),

tenemos que γY (h − k + j) = σ2 si sólo si h − k + j = 0 o equivalentemente k = h + j, y sustituyendo k en laecuación anterior

γX(h) =

∞∑j=−∞

ψjψh+jγY (0) = σ2∞∑

j=−∞ψjψh+j

Teorema

Si Xtt∈T es un proceso lineal con media µ, Xt − µ =∑∞j=−∞ ψjεt−j , con

∞∑j=−∞

ψj 6= 0 donde εtt∈T es ruido

blanco entonces

√nXn − µ√

ν

d→ Norm (0, 1) ,

donde ν =

∞∑j=−∞

γh, y γh es el valor de la función de autocovarianza del proceso Xtt∈T en el retraso h.

Es decir que para n sucientemente grande Xn sigue aproximadamente una distribución Norm(µ, νn

), y esto nos

sirve para hacer intervalos de conanza aproximados para µ con muestras sucientemente grandes.

Si además Xtt∈T es Gaussiano si puede probar que

√n(Xn − µ

)∼ Norm

(0,

n∑h=−n

(1− |h|

n

)γh

).

13

Page 14: Introducción 7 de junio.pdf · Series de tiempo CNSF - IIMAS UNAM Introducción Una primera de nición de serie de tiempo es: un conjunto de observaciones de cierto fenómeno registradas

Series de tiempo CNSF - IIMAS UNAM

Promedios moviles

DeniciónDiremos que Xtt∈T es un proceso de media movil de orden q, y lo denotaremos como MA(q), si para q ≥ 1entero y θ1, . . . , θq, µ son constantes reales tales que para todo t ∈ T tenemos

Xt =µ+ εt + θ1εt−1 + . . .+ θqεt−q

=µ+ (1 + θ1B1 + . . .+ θqB

q)εt

=µ+ θq(B)εt

donde εt es un proceso de ruido blanco. (A θq(B) le llamaremos el polinomio de media movil.)

Veamos si este proceso es estacionario (estacionario de segundo orden)

Primero calculemos la esperanza y la varianza de un proceso MA(q)

E [Xt] =E [µ+ εt + θ1εt−1 + . . .+ θqεt−q]

=E [µ] + E [εt] + θ1E [εt−1] + ...+ θqE [εt−q]

=µ.

V ar [Xt] =V ar [µ+ εt + θ1εt−1 + . . .+ θqεt−q]

=V [εt] + θ21V [εt−1] + ...+ θ2qV [εt−q]

=σ2ε

q∑i=0

θ2i , donde θ0 = 1.

Ahora para calcular la función de autocovarianza recordemos que para un proceso estocástico lineal

Xt − µ =

∞∑j=−∞

ψjεt−j ,

sabemos que podemos encontrar la función de autocovarianza como

γX(h) = σ2∞∑

j=−∞ψjψj+h, h ≥ 0.

En nuestro caso tenemos que el proceso estocástico es

Xt − µ =εt + θ1εt−1 + . . .+ θqεt−q

entonces ψ0 = 1, ψ1 = θ1, ψ2 = θ2, . . . , ψq = θq y ψk = 0 en cualquier otro caso.

Entonces se puede probar que la autocorrelación para h ≥ 0 de un MA(q) es:

14

Page 15: Introducción 7 de junio.pdf · Series de tiempo CNSF - IIMAS UNAM Introducción Una primera de nición de serie de tiempo es: un conjunto de observaciones de cierto fenómeno registradas

Series de tiempo CNSF - IIMAS UNAM

γ(h) = Cov (Xt, Xt+h) =

σ2ε

q−h∑i=0

θiθh+i si 0 ≤ h ≤ q

0 h > q.

Notemos que esto último no depende de t, el tiempo donde se está parado, sino de cuanto están separadas lasobservaciones. por lo tanto es un proceso estacionario de segundo orden.

La función de autocorrelación para h ≥ 0 de un MA(q) está dado por

ρ(h) = ρ(Xt, Xt+h) =γhγ0

=

q−h∑i=0

θiθh+i

q∑i=0

θ2i

si 0 ≤ h ≤ q

0 h > q.

Observaciones

• Para unaMA(q), denido por Xt = µ+θq(B)εt, si es un proceso de ruido blanco εt es gaussiano, entocesXt también es gaussiano.

• En un proceso MA(q) la función de autocorrelacion presenta un rasgo identicativo, puesto que es cero apartir de los lag′s mayores a el orden del proceso.

• Notemos que aunque no se requieren restricciones sobre los coecientes, θ1, . . . , θq para que un procesoMA (q) sea estacionario, sí hay un inconveniente que explicaremos a continuación.

La función de autocorrelación ρ(h) es una herramienta que usaremos más para tratar de identicar que procesogeneró nuestra serie de tiempo. Por lo tanto cabe la pregunta ¾Para cada modelo MA existe una única funciónde autocorrelación? Por desgracia la respuesta es no.

Supongamos que tenemos los siguientes procesos MA (1)

Xt = εt + θεt−1 y Yt = εt +1

θεt−1,

donde θ ∈ R\ 0 y εtt∈T y εtt∈T son dos procesos de ruido blanco. Para estos dos procesos tenemos que lafunción de autocorrelación es

ρ(h) =

1 si h = 0θ

1 + θ2si h = 1

0 si h > 1.

Más aun si V ar (εt) = σ2 y V ar (εt) = σ2

θ2 entonces los proceso tienen la misma función de autocovarianza. Loque nosotros observamos son Xt y Yt y no los procesos de ruido entonces ambos procesos son indistingibles parael observador.

15

Page 16: Introducción 7 de junio.pdf · Series de tiempo CNSF - IIMAS UNAM Introducción Una primera de nición de serie de tiempo es: un conjunto de observaciones de cierto fenómeno registradas

Series de tiempo CNSF - IIMAS UNAM

Veamos una forma para elegir entre uno de estos modelos. Del modeloXt = εt+θεt−1 tenemos que εt = Xt−θεt−1

Xt = εt + θεt−1 = εt + θ (Xt−1 − θεt−2)

= εt + θXt−1 − θ2εt−2 = εt + θXt−1 − θ2 (Xt−2 − θεt−3)

= εt + θXt−1 − θ2Xt−2 + θ3εt−3 = εt + θXt−1 − θ2Xt−2 + θ3 (Xt−3 − θεt−4)

= εt + θXt−1 − θ2Xt−2 + θ3Xt−3 − θ4εt−4...

= εt +

∞∑j=1

(−1)j+1

θjXt−j

Por lo tanto si |θ| < 1, el efecto del pasado cada vez es menor. Por lo tanto si |θ| < 1 tenemos que

εt = Xt −∞∑j=1

(−1)j+1

θjXt−j = Xt +

∞∑j=1

(−1)jθjXt−j

=

∞∑j=0

(−1)jθjXt−j .

Ahora vamos a introducir el concepto de invetibilidad en los procesos MA que nos garantiza que para cadaproceso MA se puede relacionar de manera única con una función de autocorrelación.

Invertibilidad

DeniciónUn procesoMA(q), Xtt∈T denido por θp (B) = 1+θ1B+ . . .+θqB

q se llama invertible si se puede expresar

como un AR(∞), es decir εt =

∞∑j=0

πjXt−j =

∞∑j=0

πjBjXt = ψ (B) εt para toda t ∈ T , donde

∞∑j=0

|πj | < ∞ y

π0 = 1.

El siguietne resultado nos da condiciones necesarias para saber si un proceso MA es invertible o no.

TeoremaUn proceso MA(q), denido por θp (B) εt = Xt, donde θq (B) = 1 + θ1B + . . .+ θqB

q es invertible si solo si lasraíces de la ecuación

θq (B) = 1 + θ1B + . . .+ θqBq = 0,

son en módulo mayores que la unidad

Ejemplo

Para un MA(2), Xt = εt + θ1εt−1 + θ2εt−2 =(1 + θ1B + θ2B

2)εt será invertible si las raíces del polinomio

θ2(B)=1 + θ1B + θ2B2 son en módulo mayores a la unidad, es decir

z1 =

∣∣∣∣∣−θ1 +√θ21 − 4θ2

2θ2

∣∣∣∣∣ > 1 y z2 =

∣∣∣∣∣−θ1 −√θ21 − 4θ2

2θ2

∣∣∣∣∣ > 1.

Entonces

16

Page 17: Introducción 7 de junio.pdf · Series de tiempo CNSF - IIMAS UNAM Introducción Una primera de nición de serie de tiempo es: un conjunto de observaciones de cierto fenómeno registradas

Series de tiempo CNSF - IIMAS UNAM

1 + θ1B + θ2B2 = θ2(B)=

(1− B

z1

)(1− B

z2

)= 1−B

(1

z1+

1

z2

)+

B2

z1z2

Por lo tanto θ2 = 1z1z2

, y θ1 = −(

1z1

+ 1z2

), con estas condiciones tenemos que la región en R2 donde el proceso

MA(2) es invertible es

−1 < θ2 < 1,θ1 + θ2 < 1, θ2 − θ1 < 1.

Para un MA(2) el conjunto de puntos que hace que sea invertible son

−2 −1 0 1 2

−1.

0−

0.5

0.0

0.5

1.0

theta_1

thet

a_2

Autorregresivo

Diremos que un proceso Xtt∈T es un autorregresivo de orden p, y lo denotaremos como AR(p), si para p ≥ 1un entero y φ1, . . . , φp constantes reales tenemos que

Xt =φ1Xt−1 + . . .+ φpXt−p + εt

donde εt es un proceso de ruido blanco.

En terminos de operadores de retraso tenemos

Xt − φ1Xt−1 − . . .− φpXt−p =εt

(1− φ1B − . . .− φpBp)Xt =εt

φp (B)Xt =εt,

17

Page 18: Introducción 7 de junio.pdf · Series de tiempo CNSF - IIMAS UNAM Introducción Una primera de nición de serie de tiempo es: un conjunto de observaciones de cierto fenómeno registradas

Series de tiempo CNSF - IIMAS UNAM

a φp (B) se le conoce como el polinomio autorregresivo.

Un proceso AR(p) puede ser estacionario o no estacionario, eso dependerá de los valor es de φ1, . . . , φp, porejemplo

• Para un AR(1) Xt = φXt−1 + εt con |φ| < 1, ya habíamos calculado que

E (Xt) = 0, γ(h) =σ2φh

1− φ2y ρ(h) =

γ(h)

γ(0)= φh.

Notemos de lo anterior que lo anterior concluimos que la función de autocorrelación decrece de formaexponencial y ademas que irá alternado el signo si φ < 0.

Ahora introduciremos el concepto de causalidad para los proceso AR(p). Este concepto es casi identico a ladenición de un proceso estocástico lineal, y recordemos que para ese tipo de proceso sabemos que condicionespedir para que sean estacionarios de segundo orden. En otras palabras, si tenemos un proceso AR(p) causalentonces este será estacionario.

DeniciónUn proceso AR(p), Xt denido por φp (B) = 1− φ1B − . . .− φpBp se llama causal o función causal de εt

si se puede expresar como un MA(∞), es decir Xt =

∞∑j=0

ψjεt−j =

∞∑j=0

ψjBjεt = ψ (B) εt para toda t ∈ T , donde

∞∑j=0

|ψj | <∞ y ψ0 = 1.

El siguiete teorema nos da condiciones necesarias para saber si un proceso AR(p) es causal o no.

TeoremaUn proceso AR(p), denido por φp (B)Xt = ε, donde φp (B) = 1 − φ1B − . . . − φpBp es causal si solo si lassoluciones de la ecuación

φp (B) = 1− φ1B − . . .− φpBp = 0,

son en módulo mayores que la unidad.

Para un AR(2) la región de causalidad es la que se muestra a continuación

Veamos una forma de calcular analíticamente las función de autocovarianza y autocorrelación de un AR(2)suponinedo que es causal y además si perdida de generalidad E (Xt) = 0

18

Page 19: Introducción 7 de junio.pdf · Series de tiempo CNSF - IIMAS UNAM Introducción Una primera de nición de serie de tiempo es: un conjunto de observaciones de cierto fenómeno registradas

Series de tiempo CNSF - IIMAS UNAM

Xt =φ1Xt−1 + φ2Xt−2 + εt

donde εt es ruido blando con varianza σ2ε . Si multiplicamos esta última ecuación por Xt−k tenemos y tomamos

esperanza de ambos lados tenemos que

E [XtXt−k] =φ1E [Xt−1Xt−k] + φ2E [Xt−2Xt−k] + E [εtXt−k] .

Que es equivalente a

γk =φ1γk−1 + φ2γk−2 + E [εtXt−k] .

Como el proceso es causal notemos que E [εtXt−k] = 0 para k > 0. Entonces

γk =φ1γk−1 + φ2γk−2, k ≥ 1

γ0 =φ1γ1 + φ2γ2 + σ2ε .

Dividiendo estas expresiones por γ0 tenemos que

ρk =φ1ρk−1 + φ2ρk−2, k ≥ 1 (2)

1 =φ1ρ1 + φ2ρ2 +σ2ε

γ0. (3)

Evaluando (2) en k = 1 y 2 tenemos que

k = 1, ρ1 =φ1 + φ2ρ1,⇒ ρ1 =φ1

1− φ2

k = 2, ρ2 =φ1ρ1 + φ2,⇒ ρ2 =φ21

1− φ2+ φ2.

Ahora si evaluamos (2) con k = 3 y usando los resultados anteriores obtenemos ρ3, y de manera recursiva usandola ecuación (2) podemos obtener ρu para u ≥ 4.

En general para un proceso AR(p) con p ≥ 3 decrece a cero en formas sinusoidales, pero no se anulan a partirde algún lag como pasaba en los procesos MA(q).

Función de autocorrelación parcial

La función de autocorrelación parcial (PACF) es una herramienta que nos ayudará a identicar de forma sencillael orden p de un proceso AR, puesto que en general no es fácil detectar el orden p, usando sólo la función deautocorrelación (muestral).

Primero notemos que para un AR(1), donde el efecto de Xt−2 sobre Xt no es directo si no a través de Xt−1, enotras palabras, si conocemos Xt−1, el valor que tome Xt−2 es irrelevante para Xt.

19

Page 20: Introducción 7 de junio.pdf · Series de tiempo CNSF - IIMAS UNAM Introducción Una primera de nición de serie de tiempo es: un conjunto de observaciones de cierto fenómeno registradas

Series de tiempo CNSF - IIMAS UNAM

A continuación vamos a denir el cociente de correlación parcial de orden k, que denotaremos φk k, como unamedida de relación lineal entre observaciones separas k periodos, eliminando el efecto de las variables intermedias.

Consideremos un proceso estacionario Xtt∈T y sin perdida de generalidad pensemos que E [Xt] = 0.

1. Para eliminar de Xt+k el efecto de las variables Xt+1, Xt+2, . . . , Xt+k−1 consideremos el predictor lineal

óptimo vía mínimos cuadrados y llamemoslo Xt+k es decir que

Xt+k =η1Xt+1+η2Xt+2 + . . .+ ηk−1Xt+k−1,

donde η1, η2, . . . , ηt+k−1 son números que se obtienen minimizando

E[(Xt+k − Xt+k

)2]=E

[(Xt+k − η1Xt+1 − η2Xt+2 − . . .− ηk−1Xt+k−1)

2].

2. Para eliminar de Xt el efecto de las variables Xt+1, Xt+2, . . . , Xt+k−1 consideremos el predictor lineal

óptimo vía mínimos cuadrados y llamemoslo Xt es decir que

Xt =β1Xt+1+β2Xt+2 + . . .+ βk−1Xt+k−1,

donde β1, β2, . . . , βt+k−1 son números que se obtienen minimizando

E[(Xt − Xt

)2]=E

[(Xt+k − β1Xt+1 − β2Xt+2 − . . .− βk−1Xt+k−1)

2].

La función de autocorrelación parcial para k ∈ N de un proceso estacionario Xtt∈T es

αk =

0 si k = 0

ρ1 si k = 1Cov(Xt−Xt,Xt+k−Xt+k)√

Var(Xt−Xt)√Var(Xt+k−Xt+k)

si k 6= 1

.

En general se puede demostrar que para un proceso AR(p) causal, αk = 0 para k ≥ p + 1. Por lo tanto la

PACF es un buen indidador para saber que orden de retraso debe tener el proceso si suponemos que es una

autorregresivo.

Proceso mixtos ARMA

Una vez denidos los procesos AR y MA y que conocemos algunas de sus características ahora vamos a combi-narlos para obtener una generalización de los procesos anteriores, a estos procesos se les conoce como modelosautorregresivos de promedios móviles. La idea de hacer esta combinación es que en la práctica tendrémos seriesde tiempo que tienen características tanto de AR como de MA.

Diremos que Xtt∈T es un proceso autorregresivo de medias moviles de orden (p, q), y lo denotamosARMA(p, q)donde p, q ≥ 0 son enteros y φ1, . . . , φp, θ1, . . . , θq. son reales tales que

Xt = φ1Xt−1 + . . .+ φpXt−p +εt + θ1εt−1 + . . .+ θqεt−q

Xt − φ1Xt−1 − . . .− φpXt−p = εt + θ1εt−1 + . . .+ θqεt−q

φp(B)Xt = θq(B)εt.

donde εtt es ruido blanco y los polinomios de retraso φp(·) y θq(·) no tienen ceros en común.

20

Page 21: Introducción 7 de junio.pdf · Series de tiempo CNSF - IIMAS UNAM Introducción Una primera de nición de serie de tiempo es: un conjunto de observaciones de cierto fenómeno registradas

Series de tiempo CNSF - IIMAS UNAM

Además para que el proceso ARMA (p, q), φp(B)Xt = θq(B)εt, sea causal e invertible necesitamos que las raícesde los polinomios φp(z) y θq(B) sean en módulo mayores a la unidad.

Hasta aquí hemos presentado modelos de series de tiempo estacionarias, pero en la práctica tenemos series queno son estacionarias ya sea porque:

• tienen un compente de tendencia (no tienen una media constante) y/o porque la serie de tiempo presentaun componente estacional con un periodo que puede ser determinístico o no.

• la varianza de la serie de tiempo no sea constante.

Modelos no estacionarios

Procesos ARIMA(p,d,q) causales e invertibleSea d ∈ 1, 2, 3, . . .. Diremos que Xtt∈T es un proceso ARIMA(p, d, q) causal e invertible si al diferenciarlo

d veces, es decir, Yt = ∇dXt = (1−B)dXt tenemos un proceso ARMA(p, q) causal e invertible.Dicho de otro modo, si Xt es un proceso ARIMA(p, d, q) se escribe de la siguiente forma

φ∗(B)Xt = φp(B)(1−B)dXt = θq(B)εt,

(1− φ1B − φ2B2 − . . .− φpBp

)(1−B)dXt =

(1 + θ1B + θ2B

2 + . . .+ θqBq)εt,

φp(B)Yt = θq(B)εt,

donde εt es ruido blanco, φp(B) y θq(B) son los polinomios de retraso de grado p y q respectivamente.

Observaciones

1. El polinomio φ∗(z) = φp(z)(1− z)d tiene una raíz de orden d en z = 1, o tiene una raíz unitaria.

2. El proceso es estacionario si solo si d = 0 y ARIMA(p, 0, q) = ARMA(p, q).

3. Aunque los modelos ARIMA(p, d, q) son muy usados para modelar series con tendencia, también puedenser usados para modelar series sin tendencia.

4. La estimación de los parámetros φ = (φ1, φ2, . . . , φp) , θ = (θ1, θ2, . . . , θq) y σ2ε se harán con base en el

proceso

(1−B)dXt

que es el proceso estacionario de segundo orden.

Ejemplo

Si Xt es un proceso ARIMA(1, 1, 1) causal e invertible donde φ ∈ (−1, 1) y θ ∈ (−1, 1)

(1− φB)(1−B)Xt = (1 + θB)εt,

(1− φB)Yt = (1 + θB)εt,

donde Yt = (1−B)Xt es un proceso ARMA(1, 1) causal e invertible.

21