forecast de ventas - usceio.usc.es/pub/mte/descargas/proyectosfinmaster/proyecto_1680.pdf · series...

101

Upload: others

Post on 09-May-2020

1 views

Category:

Documents


0 download

TRANSCRIPT

Page 1: Forecast de ventas - USCeio.usc.es/pub/mte/descargas/ProyectosFinMaster/Proyecto_1680.pdf · series de tiempo reales debemos seguir los siguientes pasos en la medida de lo posible:

Trabajo Fin de Máster

Forecast de ventas

Damián Pallas Carrillo

Máster en Técnicas Estadísticas

Curso 2018-2019

Page 2: Forecast de ventas - USCeio.usc.es/pub/mte/descargas/ProyectosFinMaster/Proyecto_1680.pdf · series de tiempo reales debemos seguir los siguientes pasos en la medida de lo posible:
Page 3: Forecast de ventas - USCeio.usc.es/pub/mte/descargas/ProyectosFinMaster/Proyecto_1680.pdf · series de tiempo reales debemos seguir los siguientes pasos en la medida de lo posible:

iii

Propuesta de Trabajo Fin de Máster

Título en galego: Predición de vendas

Título en castellano: Predicción de ventas

English title: Sales forecast

Modalidad: Modalidad B

Autor/a: Damián Pallas Carrillo, Universidade de Santiago de Compostela

Director/a: César Andrés Sánchez Sellero, Universidade de Santiago de

Compostela

Tutor/a: Jorge López Muñiz, Estrella Galicia

Breve resumen del trabajo:

Se hará un estudio de las Series Temporales con la �nalidad de aportar pre-

dicciones sobre las ventas de Estrella Galicia mediante la utilización de su

base de datos. Hablaremos de los modelos Arima y ETS y, luego, de modelos

más avanzados como la Regresión Dinámica o las Series Jerárquicas.

Recomendaciones:

Otras observaciones:

Page 4: Forecast de ventas - USCeio.usc.es/pub/mte/descargas/ProyectosFinMaster/Proyecto_1680.pdf · series de tiempo reales debemos seguir los siguientes pasos en la medida de lo posible:
Page 5: Forecast de ventas - USCeio.usc.es/pub/mte/descargas/ProyectosFinMaster/Proyecto_1680.pdf · series de tiempo reales debemos seguir los siguientes pasos en la medida de lo posible:

v

Don César Andrés Sánchez Sellero, titular de universidad de la Universidade de San-

tiago de Compostela y don Jorge López Muñiz, director del departamento tLab &

Advanced Analytics de Estrella Galicia, informan que el Trabajo Fin de Máster titu-

lado

Forecast de ventas

fue realizado bajo su dirección por don Damián Pallas Carrillo para el Máster en

Técnicas Estadísticas. Estimando que el trabajo está terminado, dan su conformidad

para su presentación y defensa ante un tribunal.

En Santiago de Compostela, a 04 de julio de 2019.

El director:

Don César Andrés Sánchez Sellero

El tutor:

Don Jorge López Muñiz

El autor:

Don Damián Pallas Carrillo

Page 6: Forecast de ventas - USCeio.usc.es/pub/mte/descargas/ProyectosFinMaster/Proyecto_1680.pdf · series de tiempo reales debemos seguir los siguientes pasos en la medida de lo posible:
Page 7: Forecast de ventas - USCeio.usc.es/pub/mte/descargas/ProyectosFinMaster/Proyecto_1680.pdf · series de tiempo reales debemos seguir los siguientes pasos en la medida de lo posible:

Índice general

Resumen ix

1. Introducción a las Series de Tiempo 1

1.1. Conceptos básicos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1

1.2. Transformaciones para estabilizar la varianza: Box-Cox. . . . . . . . . 4

1.3. Criterios de información y selección de modelos . . . . . . . . . . . . . 5

2. Familia de Modelos Autorregresivos y de Medias móviles 9

2.1. Modelos estacionarios: AR, MA y ARMA . . . . . . . . . . . . . . . . 12

2.2. Modelos no estacionarios: ARIMA . . . . . . . . . . . . . . . . . . . . 15

2.3. Modelos estacionales: ARIMA estacionales . . . . . . . . . . . . . . . . 17

2.4. Estimación de los parámetros de un modelo ARMA . . . . . . . . . . 21

2.5. Predicciones con modelos ARIMA . . . . . . . . . . . . . . . . . . . . 23

2.6. Aplicación de los ARIMA a los datos de Estrella Galicia . . . . . . . . 26

3. Suavizado Exponencial 33

3.1. Descomposición de series temporales . . . . . . . . . . . . . . . . . . . 33

3.2. Clasi�cación de los métodos de Suavizado Exponencial . . . . . . . . . 34

3.3. Ecuaciones explícitas de los métodos de Suavizado Exponencial . . . . 37

3.4. Modelos State Space . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40

3.5. Inicialización y estimación de los parámetros de un modelo ETS . . . 43

3.6. Precisión de pronóstico . . . . . . . . . . . . . . . . . . . . . . . . . . . 45

3.7. Aplicación del Suavizado Exponencial a los datos de Estrella Galicia . 46

4. Modelos avanzados 55

4.1. Motivación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55

4.2. Regresión Dinámica . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57

4.2.1. Relación lineal entre series de tiempo . . . . . . . . . . . . . . . 58

4.2.2. Estimación de parámetros . . . . . . . . . . . . . . . . . . . . . 59

4.2.3. Aplicación de la Regresión Dinámica a Estrella Galicia . . . . . 59

4.3. Series jerarquizadas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75

vii

Page 8: Forecast de ventas - USCeio.usc.es/pub/mte/descargas/ProyectosFinMaster/Proyecto_1680.pdf · series de tiempo reales debemos seguir los siguientes pasos en la medida de lo posible:

viii ÍNDICE GENERAL

4.3.1. Enfoque �Bottom-up� . . . . . . . . . . . . . . . . . . . . . . . 76

4.3.2. Enfoque �Top-down� . . . . . . . . . . . . . . . . . . . . . . . . 77

4.3.3. Enfoque �Middle-out� . . . . . . . . . . . . . . . . . . . . . . . 79

4.3.4. Aplicación de las series jerárquicas a Estrella Galicia . . . . . . 79

5. Implementación y conclusiones 83

A. Tablas recopilatorias de los modelos ETS 87

Bibliografía 91

Page 9: Forecast de ventas - USCeio.usc.es/pub/mte/descargas/ProyectosFinMaster/Proyecto_1680.pdf · series de tiempo reales debemos seguir los siguientes pasos en la medida de lo posible:

Resumen

Resumen en castellano

Hijos de Rivera es la empresa cervecera más importante de Galicia y una de las

más importantes de España. Actualmente, está viviendo un gran crecimiento como

entidad ligado con una fuerte expansión de mercado y, por ello, la previsión de ventas

se ha convertido en una necesidad para su departamento de Business Intelligence en

la gestión de toma de decisiones.

En este proyecto hemos trabajado con las bases de datos de la empresa con la

�nalidad de analizar las series de tiempo de sus ventas y poder darle así predicciones

futuras sobre ellas. Comenzaremos con una breve introducción sobre series temporales

para aquellos lectores menos familiarizados con el campo de estudio. Luego, en los

dos capítulos siguientes, presentaremos los dos modelos clásicos más importantes para

el análisis de series de tiempo: los modelos ARIMA y los modelos ETS; todo ello

ejempli�cado con datos reales de nuestra empresa. Debido a ciertas características

de los datos, veremos como estos modelos por sí solos no son su�cientes y, por ello,

necesitaremos estudiar modelos más avanzados como la Regresión Dinámica o, lo que

�nalmente será el modelo escogido para las predicciones de nuestra cervecera, los mo-

delos de Series Jerárquicas. Por último, comentaremos brevemente la implementación

que hemos dejado en la empresa y daremos una serie de conclusiones.

English abstract

Hijos de Rivera is the most important brewery in Galicia and one of the most

important in Spain. Currently, it is experiencing a huge growth as an entity linked

with a strong market expansion and, therefore, the sales forecast has turned into

a necessity for its Business Intelligence department in the management of decision

making.

In this project we have worked with data bases of the company with the aim to

analyse the Time Series of its sales and be able to obtain future predictions about

them. We will begin with a short introduction on time series for those readers who are

ix

Page 10: Forecast de ventas - USCeio.usc.es/pub/mte/descargas/ProyectosFinMaster/Proyecto_1680.pdf · series de tiempo reales debemos seguir los siguientes pasos en la medida de lo posible:

x RESUMEN

less familiar with the �eld of study. Then, in the next two chapters, we will present

the two classic most important models for the analysis of time series: ARIMA models

and ETS models; all of this will be exempli�ed with real data of our company. Due to

certain characteristics of the data, we will see how these models are not su�cient by

themselves and, because of that, we will need to study more advanced models such

as Dynamic Regression or, the one which will �nally be chosen for the predictions

of our brewery, the Hierarchical Series models. Finally, we will brie�y discuss the

implementation that we have done for the company and we will give some conclusions.

Page 11: Forecast de ventas - USCeio.usc.es/pub/mte/descargas/ProyectosFinMaster/Proyecto_1680.pdf · series de tiempo reales debemos seguir los siguientes pasos en la medida de lo posible:

Capítulo 1

Introducción a las Series de

Tiempo

En este capítulo se hará una introducción al campo de las series de tiempo y

se presentarán aplicaciones del mismo a los datos de ventas de Estrella Galicia. En

la primera sección, presentaremos los conceptos más básicos de series temporales,

empezando por la propia de�nición de serie de tiempo y comentando los puntos más

relevantes que hay que llevar a cabo a la hora de trabajar con ellas. Luego, en los

capítulos posteriores, presentaremos los distintos métodos y modelos más utilizados

para cada uno dichos puntos, siguiendo muy de cerca la estructura presentada en

Aneiros (2018). Todo ello lo iremos ilustrando, en la medida de lo posible, con ejemplos

grá�cos.

1.1. Conceptos básicos

De�nición 1.1. Consideremos el proceso estocástico {Xt}t∈Z, donde el subíndice t

de cada variable aleatoria representa el instante de tiempo en el que es observada.

Una observación de dicho proceso se conoce como una realización o trayectoria del

mismo y se denota por {xt}t∈Z. Si consideramos un tramo �nito de dicha trayectoria,

x1, x2, . . . , xT ,

diremos que estamos ante una serie de tiempo. Así, de�nimos las series temporales

como una realización o trayectoria parcial de un proceso estocástico en tiempo discreto.

Ejemplos de series de tiempo pueden ser encontrados en todo tipo de materias. En

meteorología: las temperaturas diarias registradas a lo largo de un año; en economía:

el PIB mensual de un Estado; o, como es el caso de nuestro trabajo, en una compañía

cervecera: las ventas registradas en un período concreto.

1

Page 12: Forecast de ventas - USCeio.usc.es/pub/mte/descargas/ProyectosFinMaster/Proyecto_1680.pdf · series de tiempo reales debemos seguir los siguientes pasos en la medida de lo posible:

2 CAPÍTULO 1. INTRODUCCIÓN A LAS SERIES DE TIEMPO

Como bien se explica en Velasco and del Puerto García (2009), lo primero que se

debe hacer para estudiar una serie temporal es representar su grá�co secuencial, es

decir, representar cada observación xt frente al instante t en el que fue observada.

Gracias a esta representación seremos capaces de intuir cómo evoluciona la serie

a lo largo del tiempo y detectar la presencia de las principales características de una

serie temporal:

Tendencia: comportamiento a largo plazo de la serie. Será relevante cuando

exista una variación en el valor medio de la serie conforme vamos añadiendo

datos a la misma. En nuestra empresa, debido a su crecimiento y expansión de

mercado, sus ventas suelen presentar una ligera tendencia creciente.

Estacionalidad: comportamiento periódico de la serie provocado generalmente

por factores repetitivos en el tiempo (mensualmente, semanalmente, etc.). En

nuestro caso, el efecto estacional es muy signi�cativo en las ventas de cerveza,

presentando �cimas� en verano y �valles� en invierno.

Heterocedasticidad: presencia de variabilidad no constante. Si bien es cierto

que en los últimos meses podemos empezar a intuir un aumento de varianza,

por lo general no nos encontramos con una heterocedasticidad importante.

Con los siguientes grá�cos recogidos en la Figura 1.1, ilustraremos los conceptos

anteriores.

Cuando una serie de tiempo carece de las características anteriormente mencio-

nadas y, por lo tanto, �uctúa en torno a un valor constante sin un patrón periódico

de�nido, se le denomina serie de tiempo estacionaria. Más rigurosamente, pode-

mos de�nirlas como sigue:

De�nición 1.2. Diremos que {Xt}t∈T es un proceso estrictamente estacionario

si cualesquiera que sean h > 0, n ≥ 1 y ti con ti+h ∈ {. . . ,−2,−1, 0, 1, 2, . . .} para i ∈{1, . . . , n}, se veri�ca que los vectores aleatorios (Xt1 , . . . , Xtn) y (Xt1+h, . . . , Xtn+h)

tienen la misma distribución conjunta.

Como se puede comprobar en la bibliografía sobre series temporales, la mayor

parte de ésta se centra en el estudio de series estacionarias. Es por ello que, como

explica Hyndman and Athanasopoulos (2018), a la hora de afrontarnos a nuestras

series de tiempo reales debemos seguir los siguientes pasos en la medida de lo posible:

1. Representar grá�camente la serie e identi�car la presencia de tendencia, com-

ponente estacional o cualquier otro tipo de variación puntual sobre ella.

2. Eliminar heterocedasticidad en caso de que se presente claramente. Uno de los

métodos más extendidos para ello son las Transformaciones de Box-Cox que

presentaremos en la sección siguiente.

Page 13: Forecast de ventas - USCeio.usc.es/pub/mte/descargas/ProyectosFinMaster/Proyecto_1680.pdf · series de tiempo reales debemos seguir los siguientes pasos en la medida de lo posible:

1.1. CONCEPTOS BÁSICOS 3

Figura 1.1: Distintos ejemplos de series temporales. En el primer grá�co (arriba a la izquierda)

se nos presenta una serie estacionaria, en la que no se observa ni tendencia ni ningún patrón de

repretición. En el segundo (arriba a la derecha) podemos observar una serie con tendencia

creciente, en la que su valor medio va aumentando con el paso del tiempo. En el tercero

(abajo a la izquierda) vemos una serie con tendencia y estacionalidad, pues su valor medio

va aumentando con el paso del tiempo y además sigue un patrón de cimas y valles repetitivo.

Finalmente, la última serie (abajo a la derecha) no presenta tendencia ni estacionalidad, pero

sí heterocedasticidad, porque su varianza va aumentando con el paso del tiempo.

3. Eliminar tendencia y estacionalidad (si existen) para obtener residuos estacio-

narios. Para ello usaremos el método de la diferenciación que explicaremos más

adelante.

4. Elegir un modelo que ajuste la serie de residuos estacionaria resultante de los

pasos anteriores. Aquí entramos en una gran variedad de posibilidades que pro-

fundizaremos en los siguientes capítulos.

5. Comprobar que una vez ajustado nuestro modelo, se pasan los tests de checkeo

de residuos.

6. Por último, predecir. Para ello se predecirán los próximos residuos y se in-

Page 14: Forecast de ventas - USCeio.usc.es/pub/mte/descargas/ProyectosFinMaster/Proyecto_1680.pdf · series de tiempo reales debemos seguir los siguientes pasos en la medida de lo posible:

4 CAPÍTULO 1. INTRODUCCIÓN A LAS SERIES DE TIEMPO

vertirán las transformaciones de los pasos anteriores para conseguir �nalmente

predicciones de la serie original.

Comentado todo esto, pasaremos ahora a presentar en las siguientes secciones y

capítulos cada uno de lo métodos más utilizados para cada una de las �nalidades de

los puntos anteriores.

1.2. Transformaciones para estabilizar la varianza:

Box-Cox.

Muchas veces, la no estacionaridad de una serie viene dada por la presencia de

heterocedasticidad en los valores observados. En la Figura 1.2(a) representamos una

serie temporal en la que se puede observar claramente una varianza no constante a lo

largo del tiempo.

Para estabilizar dicha varianza, las transformaciones de Box-Cox (Box and Cox

(1964)) son una herramienta muy e�caz y de sencilla de�nición, que busca darle una

forma normal a los datos a los que se le aplica.

De�nición 1.3. De�nimos las transformaciones de Box-Cox de un proceso

{Xt}t∈T como aquellas que transforman, para cada t = {1, . . . , T}, la observación

xt en

zt =

xλt −1λ , si λ 6= 0

log(xt), si λ = 0

,

donde el parámetro λ se escoge minimizando la desviación estándar de los datos trans-

formados, zt.

Cabe destacar que la serie debe ser estrictamente positiva. En caso de que no lo

fuese, bastaría con trasladarla al área positiva con la suma de una constante, xt +M ,

para todo t.

La �losofía para obtener una estimación, λ, del óptimo λ es como sigue. Suponiendo

que la desviación típica es una función potencial de la media,

σt = kµ1−λt ,

aplicando la función logaritmo se obtiene que

log(σt) = a+ b log(µt), (1.1)

donde a = log(k) y b = 1−λ. Por tanto, si disponemos de estimaciones para σt y µt y

ajustamos una regresión lineal al par (log(σt), log(µt)) (como en (1.1)), obtendremos

una estimación para b y, por lo tanto, también para λ:

λ = 1− b.

Page 15: Forecast de ventas - USCeio.usc.es/pub/mte/descargas/ProyectosFinMaster/Proyecto_1680.pdf · series de tiempo reales debemos seguir los siguientes pasos en la medida de lo posible:

1.3. CRITERIOS DE INFORMACIÓN Y SELECCIÓN DE MODELOS 5

Ejemplo 1.4. Supongamos la serie de tiempo simulada en R representada en la Fi-

gura 1.2(a). Como podemos observar, es claramente heterocedástica. Tras aplicar la

transformación de Box-Cox, hemos obtenido un valor estimado óptimo λ =, siendo la

serie resultante la recogida en la Figura 1.2(b). Efectivamente, ahora es homocedás-

tica, como queríamos conseguir.

(a) Serie original. (b) Serie transformada.

Figura 1.2: Ejemplo de una transformación Box-Cox con λ = −0,2947.

1.3. Criterios de información y selección de modelos

Como veremos en los siguientes capítulos, existen varios modelos para ajustar

nuestras series temporales y, cada uno de ellos, constará de una cantidad de paráme-

tros que debemos estimar. Se nos presentará entonces la duda de qué modelo será el

más apropiado para nuestra serie y, para poder escoger entre ellos con argumentos

estadísticos, utilizaremos distintos criterios de información que presentamos a conti-

nuación:

R2 ajustado

El valor R2, conocido ya por todos, puede ser utilizado como un primer dato

informativo sobre nuestro ajuste. Sin embargo, no es una buena medida de la bondad

de ajuste y capacidad predictiva de un modelo. Imaginemos que un modelo devuelve

siempre como predicción el 10% de los valores reales de la serie. En ese caso, el valor

R2 sería 1 (correlación perfecta), pero los pronósticos no son en absoluto acertados.

Además, cuantos más parámetros añadamos a nuestro modelo (por ejemplo, cuanto

mayor sea p y q en los modelos ARIMA que veremos en el capítulo siguiente), mayor

Page 16: Forecast de ventas - USCeio.usc.es/pub/mte/descargas/ProyectosFinMaster/Proyecto_1680.pdf · series de tiempo reales debemos seguir los siguientes pasos en la medida de lo posible:

6 CAPÍTULO 1. INTRODUCCIÓN A LAS SERIES DE TIEMPO

será el valor R2, incluso si dichos parámetros no son relevantes. Es por ello que decimos

que R2 tiende al sobreajuste.

Una idea equivalente es utilizar la suma de errores cuadráticos,

SSE =

T∑t=1

ε2t .

Sin embargo, minimizar el SSE equivale a maximizar el R2, por lo que tenderá también

a escoger el modelo con mayor número de variables, sin ser eso ninguna garantía para

nosotros.

Criterio de información de Akaike (AIC)

Es uno de los criterios más utilizados. El criterio de información de Akaike se

de�ne como sigue:

AIC = T · log(SSE

T) + 2(k + 2),

siendo T el tamaño de la serie y k el número de parámetros del modelo. Su interpre-

tación es muy sencilla: el primer sumando intenta medir (mediante el SSE) tanto la

calidad de ajuste como la credibilidad que le da a la serie temporal, pero penalizando

con el segundo sumando el número de parámetros a estimar. Nos interesa, por tanto,

escoger el modelo con el menor AIC.

Criterio de información de Akaike corregido (AICc)

Para valores pequeños de T (no será el caso en nuestros casos prácticos con la

empresa), el criterio AIC tiende a escoger modelos con demasiados predictores. Para

arreglar esto se utiliza una versión para corregir el sesgo, el llamado AIC corregido:

AICc = AIC +2(k + 2)(k + 3)

T − k − 3.

Al igual que en el caso anterior, el AICc debe ser minimizado.

Criterio de información Bayesiano (BIC)

El último criterio que presentaremos antes de abordar los modelos propiamente

dichos en los próximos capítulos es el Criterio de Información Bayesiano (BIC), tam-

bién abreviado en la literatura como SBIC o SC. Es una medida muy relacionada con

las anteriores y se de�ne como sigue:

BIC = T · log(SSE

T) + (k + 2) · log(T ).

Nuavemente, la �nalidad será escoger el modelo que minimice este valor. Como po-

demos esperar, muchas veces el BIC devuelve el mismo modelo que el AIC, aunque si

Page 17: Forecast de ventas - USCeio.usc.es/pub/mte/descargas/ProyectosFinMaster/Proyecto_1680.pdf · series de tiempo reales debemos seguir los siguientes pasos en la medida de lo posible:

1.3. CRITERIOS DE INFORMACIÓN Y SELECCIÓN DE MODELOS 7

di�eren, el criterio BIC suele devolver modelos con menos parámetros. Esto se debe a

que el segundo sumando de su de�nición penaliza más el número de parámetros que

el del criterio AIC.

Page 18: Forecast de ventas - USCeio.usc.es/pub/mte/descargas/ProyectosFinMaster/Proyecto_1680.pdf · series de tiempo reales debemos seguir los siguientes pasos en la medida de lo posible:
Page 19: Forecast de ventas - USCeio.usc.es/pub/mte/descargas/ProyectosFinMaster/Proyecto_1680.pdf · series de tiempo reales debemos seguir los siguientes pasos en la medida de lo posible:

Capítulo 2

Familia de Modelos

Autorregresivos y de Medias

móviles

En este capítulo, tras habernos ya familiarizado con las series de tiempo en el

capítulo anterior, introduciremos los modelos de series temporales univariantes más

extendidos y usados en la práctica. Daremos sus de�niciones y explicaremos su cons-

trucción, al mismo tiempo que daremos pautas para identi�car, dada una serie tem-

poral, un modelo de esta familia que verosimilmente la hubiese podido generar. Para

ello usaremos la metodología de Box Jenkins que, como se explica en Velasco and del

Puerto García (2009), se resume en el esquema que recogemos en la Figura 2.1.

Pero antes de todo, necesitaremos una serie de de�niciones previas con las que

luego poder presentar los distintos modelos.

De�nición 2.1. Se llama función de medias del proceso {Xt}t∈T a la aplicación

µt = E[Xt], con t ∈ T .

La función de medias es una medida de posición de caracter central de Xt.

De�nición 2.2. De forma análoga, llamamos función de varianzas del proceso

{Xt}t∈T a la aplicación σ2 = Var[Xt], con t ∈ T .

La función de varianzas nos informa sobre el grado de variabilidad de Xt.

De�nición 2.3. Llamaremos función de autocovarianzas del proceso {Xt}t∈T a

la aplicación

γt1,t2 = Cov(Xt1 , Xt2) = E[(Xt1 − µt1)(Xt2 − µt2)].

9

Page 20: Forecast de ventas - USCeio.usc.es/pub/mte/descargas/ProyectosFinMaster/Proyecto_1680.pdf · series de tiempo reales debemos seguir los siguientes pasos en la medida de lo posible:

10 CAPÍTULO 2. FAMILIA DE MODELOS ARIMA

Representación de la se-

rie temporal observada

Identi�cación de un

modelo para la serie

Estimación de los parametros

Diagnosis o validación del modelo

¾Es el modelo

adecuado?

Predicción

No

Si

Figura 2.1: Diagrama de la metodología de Box Jenkins.

Su utilidad reside en proporcionar una medida de dependencia lineal existente

entre Xt1 y Xt2 .

De�nición 2.4. La función de autocorrelación (fas) consiste en una estanda-

rización de la función de autocovarianzas y se de�ne como

ρt1,t2 =γt1,t2√σ2t1σ

2t2

.

Es una medida del grado de dependencia lineal existente entre Xt1 y Xt2 . Toma

valores entre [−1, 1].

De�nición 2.5. La función de autocorrelaciones parciales (fap) se de�ne

como

αt1,t2 =Cov(Xt1 − X

(t1,t2)t1 , Xt2 − X

(t1,t2)t2 )√

V ar(Xt1 − X(t1,t2)t1 , Xt2 − X

(t1,t2)t2 )

,

donde X(t1,t2)t1 y X

(t1,t2)t2 denotan al mejor predictor lineal de Xt1 y Xt2 , respectiva-

mente, construidos a partir de las variables medidas en los instantes comprendidos

Page 21: Forecast de ventas - USCeio.usc.es/pub/mte/descargas/ProyectosFinMaster/Proyecto_1680.pdf · series de tiempo reales debemos seguir los siguientes pasos en la medida de lo posible:

11

entre t1 y t2.

Esta función es una medida del grado de dependencia lineal entre Xt1 y Xt2 , una

vez se les ha sustraído el efecto lineal que sobre cada una de ellas ejercen las variables

medidas en los instantes comprendidos entre t1 y t2. Al igual que la fas, toma valores

entre [−1, 1].

Todas las funciones que acabamos de de�nir nos aportan información sobre el

proceso estocástico {Xt}t∈Z que ha generado nuestra serie de tiempo. Sin embargo, nos

encontramos con dos limitaciones críticas: por un lado, para calcular dichas funciones

debemos conocer de antemano el proceso estocástico (cuando es justamente eso lo

que realmente queremos averiguar) por lo que debemos estimarlas y, por otro lado,

únicamente conocemos una observación xt de cada variables Xt, con t = 1, . . . , T , lo

que di�culta considerablemente esta estimación.

Por todo ello, debemos hacer una serie de suposiciones que nos permitan caracteri-

zar el proceso a partir de nuestra serie de tiempo. Dicha suposición será que estamos

ante un proceso estacionario (por eso en el capítulo anterior comentábamos que la

gran mayoría de publicaciones en esta materia están basadas en series estacionarias)

y, por lo tanto,

la función de medias será constante: µt = µ, para todo t ∈ T ,

la función de varianzas también lo será: σ2t = σ2, para todo t ∈ T , y

la función de autocovarianzas solo dependerá del retardo k: γt,t+k = γk, para

todo t, k.

Dicha estacionaridad dota al proceso estocástico de propiedades de estabilidad en

la media, varianza y autocovarianzas que nos harán más sencillo estimar las caracte-

rísticas del proceso a partir simplemente de la serie de tiempo observada, {xt}Tt=1.

Observación 2.6. Bajo estas premisas, las versiones muestrales de las funciones

de�nidas anteriormente son

Media muestral: x = 1T

∑Tt=1 xt,

Función de autocovarianzas muestrales: γk = 1T

∑T−kt=1 (xt − x)(xt+k − x), con

γ−k = γk para todo k = 0, 1, . . . , T − 1,

Función de autocorrelaciones simples muestrales: ρk = γkγ0,

Función de autocorrelaciones parciales muestrales: αk = αkk, donde αkk es el

estimador mínimo cuadrático de αkk en la regresión xt = αk0 +αk1xt−1 + . . .+

αkkxt−k + ε.

Page 22: Forecast de ventas - USCeio.usc.es/pub/mte/descargas/ProyectosFinMaster/Proyecto_1680.pdf · series de tiempo reales debemos seguir los siguientes pasos en la medida de lo posible:

12 CAPÍTULO 2. FAMILIA DE MODELOS ARIMA

Ejemplo 2.7. Pondremos un ejemplo de proceso estacionario muy concreto, que

incluso tiene nombre propio y que será de suma importancia en el estudio de las

demás secciones: el ruido blanco. Llamamos ruido blanco a un proceso estocástico

{at}t cuyas variables aleatorias at son incorreladas, con media cero y varianza �nita

σ2a.

Así, podemos de�nir el ruido blanco como un proceso estacionario en el que

µ = 0,

σ2 = σ2a, y

γk =

σ2a si k = 0

0 en otro caso

También cabe comentar que si el tamaño de la serie, T , es grande, se veri�ca

que ρk ≈ N (0, 1√T

) y que αk ≈ N (0, 1√T

), y por lo tanto debería cumplirse que

ρk, αk ∈ (− 1,96√T, 1,96√

T), para k = 1, 2, . . . , T .

Una vez llegados a este punto, ya estamos en condiciones de presentar la serie de

modelos estocásticos paramétricos que buscamos.

2.1. Modelos estacionarios: AR, MA y ARMA

De�nición 2.8. Un proceso estacionario {Xt}t∈T que permite la representación

Xt = c+ φ1Xt−1 + . . .+ φpXt−p + at,

donde c, φ1, . . . , φp son constantes y {at}t ruido blanco, se conoce como un proceso

autorregresivo de orden p y se denota por AR(p).

Se veri�ca que para este modelo, la función de autocorrelaciones parciales se �anu-

la� para todo retardo mayor que p. Concretamente, se tiene que σk ∈ (− 1,96√T, 1,96√

T).

En la Figura 2.2 se representa el grá�co secuencial de un proceso AR(1) junto con sus

funciones fas y fap. Como podemos observar, la última σk en salirse del intervalo

(− 1,96√T, 1,96√

T) es σ1.

De�nición 2.9. Un proceso estacionario {Xt}t∈T que permite la representación

Xt = c+ at + θ1at−1 + . . .+ θqat−q,

Page 23: Forecast de ventas - USCeio.usc.es/pub/mte/descargas/ProyectosFinMaster/Proyecto_1680.pdf · series de tiempo reales debemos seguir los siguientes pasos en la medida de lo posible:

2.1. MODELOS ESTACIONARIOS: AR, MA Y ARMA 13

(a) Grá�co secuencial.

(b) Funciones fas y fap.

Figura 2.2: Simulación de un proceso AR(1) con φ = 0,9.

donde c, θ1, . . . , θq son constantes y {at}t∈T ruido blanco, se conoce como proceso de

medias móviles de orden q y se denota por MA(q).

Esta vez, se veri�ca para los procesos MA(q) que la fas se �anula� para todo

retardo mayor que q. En la Figura 2.3 se representa el grá�co secuencial de un proceso

MA(1) junto con sus funciones fas y fap. Podemos comprobar como la última ρk en

salirse del intervalo (− 1,96√T, 1,96√

T) es ρ1.

De�nición 2.10. La fusión en un mismo proceso de una estructura autorregresiva,

AR(p), y de medias móviles,MA(q), se conoce como un proceso mixto autorregresivo-

media móvil de orden (p, q) y se denota por ARMA(p, q). Así, un proceso es-

Page 24: Forecast de ventas - USCeio.usc.es/pub/mte/descargas/ProyectosFinMaster/Proyecto_1680.pdf · series de tiempo reales debemos seguir los siguientes pasos en la medida de lo posible:

14 CAPÍTULO 2. FAMILIA DE MODELOS ARIMA

(a) Grá�co secuencial.

(b) Funciones fas y fap.

Figura 2.3: Simulación de un proceso MA(1) con θ = 1.

tocástico estacionario {Xt}t∈T será ARMA(p, q) si permite la representación

Xt = c+ φ1Xt−1 + . . .+ φpXt−p+

at + θ1at−1 + . . .+ θqat−q,

(2.1)

donde c, φ1, . . . , φp, θ1, . . . , θq son constantes y {at}t∈T ruido blanco.

Se veri�ca, como podemos comprobar fácilmente, que

[ARMA(p, 0)⇔ AR(p)] y que [ARMA(0, q)⇔MA(q)].

Además, es una clase muy �exible. Si {Yt}t∈T es un proceso estacionario tal que

γY,h −−−−→h→∞

0, entonces, dado un k > 0, existe un proceso ARMA(p, q) {Xt}t∈T talque γX,h = γY,h para todo h = 0, 1, . . . , k.

Page 25: Forecast de ventas - USCeio.usc.es/pub/mte/descargas/ProyectosFinMaster/Proyecto_1680.pdf · series de tiempo reales debemos seguir los siguientes pasos en la medida de lo posible:

2.2. MODELOS NO ESTACIONARIOS: ARIMA 15

Notación 2.11. La ecuación (2.1) que de�ne un proceso ARMA(p, q) también es

muy frecuente encontrarla en la bibliografía de forma compacta escrita como sigue

φ(B)Xt = c+ θ(B)at, (2.2)

donde φ(B) = 1− φ1B − φ2B2 − . . .− φpBp, θ(B) = 1 + θ1B + θ2B2 + . . .+ θqB

q, y

B denota el operador retardo de�nido por BXt = Xt−1, B2Xt = Xt−2, etc.

A diferencia de los dos anteriores modelos, la identi�cación conjunta de los pa-

rámetros (p, q) de un modelo ARMA(p, q) es una tarea ardua de hacer a partir de

las funciones de autocorrelaciones simples y parciales, ya que en estos casos tienen

estructuras bastante complejas con in�nitos elementos distintos de cero. Para estos

procesos, la mejor táctica a seguir es la simulación numérica, en la que se modela

distintos pares (p, q) y se escoge el modelo que mejor ajuste nuestros datos.

2.2. Modelos no estacionarios: ARIMA

Como comentábamos antes, estos modelos solo pueden ser aplicados a procesos

estacionarios. Sin embargo, en la realidad suelen presentarse procesos con tendencia

e incluso estacionalidad. Es por ello que es necesario ampliar la clase de modelos

ARMA para poder estudiar y ajustar todos estos procesos tan frecuentes en el día a

día. Comenzaremos por cubrir la no estacionariedad debida a la tendencia, dejando

la estacionalidad para el siguiente apartado.

El método más extendido para eliminar tendencia es la diferenciación. Dado un

proceso estocástico {Xt}t∈T , aplicar el operador diferencia de orden 1, ∇, es crear unnuevo proceso {Yt}t∈T de�nido como

Yt = ∇Xt = Xt −Xt−1.

Como podemos comprobar, el operador diferencia es equivalente a (1−B), siendo B

como hemos de�nido anteriormente en la ecuación (2.2).

En general, de�nimos el operador diferencial de orden d como ∇d = (1 −B)d := ∇(∇d−1) = (1−B)(1−B)d−1.

Cabe destacar que para hacer la transformación inversa, es decir, integrar el pro-

ceso {Yt}t∈T , se procede de la siguiente forma:

Xt = Yt +Xt−1 = Yt + Yt−1 +Xt−2 = . . . = Yt + Yt−1 + Yt−2 + Yt−3 + . . .

Una vez aplicada la diferenciación a nuestro proceso no estacionario para conver-

tirlo en estacionario, ya estamos en condiciones de intentar modelarlo mediante un

ARMA(p, q). Así se deduce la de�nición de los modelos ARIMA(p, d, q) que presen-

tamos a continuación.

Page 26: Forecast de ventas - USCeio.usc.es/pub/mte/descargas/ProyectosFinMaster/Proyecto_1680.pdf · series de tiempo reales debemos seguir los siguientes pasos en la medida de lo posible:

16 CAPÍTULO 2. FAMILIA DE MODELOS ARIMA

De�nición 2.12. Un proceso ARIMA(p, d, q) es aquel que, después de aplicar d

diferenciaciones regulares, se convierte en un proceso ARMA(p, q). Equivalentemente,

es un proceso que admite una representación del tipo

φ(B)(1−B)dXt = c+ θ(B)at.

Es decir, se tiene que

{Xt}t∈T es ARIMA(p, d, q)⇔ (1−B)dXt es ARMA(p, q).

En la práctica, propondremos un modelo ARIMA como generador de nuestro proceso

cuando la no estacionariedad de este esté provocada únicamente por la presencia de

tendencia. Esto lo podremos detectar en un primero momento con el grá�co secuencial

de la serie y luego con la fas, que toma valores positivos cercanos a 1 en los primeros

retardos y que luego decrecen lentamente. Ver Figura 2.4.

Figura 2.4: En la primera columna se representa una serie temporal generada a partir de un

ARIMA(1, 1, 0) con φ = −0,2. Presenta fuerte tendencia y la fas tarda mucho en anularse.

En la segunda, la misma serie, pero diferenciada. Ya no presenta tendencia y las fas y fap

permiten una identi�cación sencilla de un modelo ARMA(1, 0).

Page 27: Forecast de ventas - USCeio.usc.es/pub/mte/descargas/ProyectosFinMaster/Proyecto_1680.pdf · series de tiempo reales debemos seguir los siguientes pasos en la medida de lo posible:

2.3. MODELOS ESTACIONALES: ARIMA ESTACIONALES 17

2.3. Modelos estacionales: ARIMA estacionales

En este apartado presentaremos la última de las modi�caciones de los modelos

ARIMA que nos servirá para tener en cuenta patrones estacionales de nuestros pro-

cesos.

Si recordamos, los procesos ARMA modelizan la dependencia regular entre ob-

servaciones consecutivas en el pasado inmediato (AR(1) : Xt = c + φ1Xt−1 + at;

MA(2) : Xt = c + θ1at−1 + θ2Xt−2 + at; etc.). Sin embargo ahora, los ARMA

estacionales modelizan la dependencia estacional, es decir, la dependencia entre ob-

servaciones ocurridas en instantes múltiplos del período estacional s, también llamado

frecuencia.

De�nición 2.13. Un proceso estacionario {Xt}t∈T será un ARMA estacional

puro, ARMA(P,Q)s, si admite la representación

Xt = c+ Φ1Xt−s + Φ2Xt−2s + . . .+ ΦPXt−Ps+

at + Θ1at−s + Θ2at−2s + . . .+ ΘQat−Qs,

(2.3)

donde c,Φ1, . . . ,ΦP ,Θ1, . . . ,ΘQ son constantes y {at}t∈T ruido blanco.

Nuevamente, esta ecuación (2.3) puede ser escrita de forma compacta como

Φ(Bs)Xt = c+ Θ(Bs)at,

donde Φ(Bs) = (1−Φ1Bs−Φ2B

2s−. . .−ΦpBPs), Θ(Bs) = (1+Θ1B

s+Θ2B2s+. . .+

ΘQBQs), y Bs denota el operador retardo estacional de�nido como BsXt = Xt−s.

Ejemplo 2.14. Veamos un ejemplo de proceso AR(1)3. La Figura 2.5 recoge el grá�co

secuencial de un proceso AR(1)3 junto con su fas y fap. Para detectar el orden

estacional del modelo, debemos �jarnos únicamente en los retardos múltiplos de s.

En este caso, vemos que la fas continúa grande en estos retardos para múltiplos

continuados, mientras que la fap solo es grande para el primer múltiplo, es por ello

que proponemos el ajuste AR(1) para la parte estacional.

¾Qué pasa si queremos buscar un modelo que nos ajuste un proceso que presenta

tanto dependencia lineal como estacionalidad? Para ello, se presentan los ARMA esta-

cionales multiplicativos. Combinando ambos modelos ARMA y ARMA estacionales,

podremos modelizar conjuntamente dependencia regular y estacional.

De�nición 2.15. Un proceso {Xt}t∈T será ARMA estacional multiplicativo,

ARMA(p, q) × (P,Q)s, si se puede modelizar a través de la representación

φ(B)Φ(Bs)Xt = c+ θ(B)Θ(Bs)at. (2.4)

Page 28: Forecast de ventas - USCeio.usc.es/pub/mte/descargas/ProyectosFinMaster/Proyecto_1680.pdf · series de tiempo reales debemos seguir los siguientes pasos en la medida de lo posible:

18 CAPÍTULO 2. FAMILIA DE MODELOS ARIMA

Figura 2.5: Simulación de un proceso AR(1)3 con Φ = 0,8.

Para entender un poco mejor la ecuación (2.4) desarrollémosla para un caso par-

ticular. Por ejemplo, para un AR(1)×MA(1)12 se tendría:

(1− φ1B)Xt = c+ (1 + Θ1B12)at ⇔

Xt = c+ φ1Xt−1 + at + Θ1at−12.

O para un MA(1)×AR(1)12, sería:

(1− Φ1B12)Xt = c+ (1 + θ1B)at ⇔

Xt = c+ Φ1Xt−12 + at + θ1at−1.

Page 29: Forecast de ventas - USCeio.usc.es/pub/mte/descargas/ProyectosFinMaster/Proyecto_1680.pdf · series de tiempo reales debemos seguir los siguientes pasos en la medida de lo posible:

2.3. MODELOS ESTACIONALES: ARIMA ESTACIONALES 19

Observación 2.16. Para identi�car los valores de p, q, P y Q de estos modelos,

debemos �jarnos en las fas y fap atendiendo a que en los retardos bajos (1, 2, . . . , s2 ),

las fas y fap ofrecerán información sobre la parte regular del modelo, mientras que

en los retardos múltiplos de la frecuencia (s, 2s, . . .) ofrecerán información sobre la

parte estacional.

Ejemplo 2.17. Veamos lo expuesto arriba en un ejemplo simulado. La Figura 2.6

ilustra una serie de tiempo generada a partir de un ARMA(0, 1) × (1, 0)12. Como

podemos observar, para los primeros retardos, la fap tarda más en anularse que la

fas, por lo que propondremos un MA, y además el último retardo en la que no se

anula es el primero, por lo que proponemos para la parte regular un MA(1). Por otra

parte, en los retardos múltiplos de la frecuencia, 12, vemos que es la fap la primera en

anularse, teniendo solo un retardo no nulo. Es por ello que proponemos un AR(1)12para la parte estacional. Resulta así un MA(1)×AR(1)12.

Figura 2.6: Proceso MA(1) ×AR(1)12.

Pasamos ahora a hablar de la última clase de modelos de esta familia: los ARIMA

estacionales multiplicativos. Del mismo modo que los procesos ARMA juegan un pa-

Page 30: Forecast de ventas - USCeio.usc.es/pub/mte/descargas/ProyectosFinMaster/Proyecto_1680.pdf · series de tiempo reales debemos seguir los siguientes pasos en la medida de lo posible:

20 CAPÍTULO 2. FAMILIA DE MODELOS ARIMA

pel fundamental en la construcción de los procesosARIMA (recordemos que {Xt}t∈T esARIMA(p, d, q) si, y sólo si, (1 − B)dXt es ARMA(p, q)), los ARMA estacionales

serán decisivos para la construcción de los ARIMA estacionales.

Supongamos {Xt}t∈T no estacionario debido a una componente estacional St, es

decir,

Xt = St + Vt,

con {Vt}t∈T estacionario. Dicha componente estacional St puede ser determinista

(St = St−s) o estocástica (St = St−s + at). De cualquier modo, se ve que al aplicar

una diferenciación estacional (Bs) a nuestro proceso, este pasa a ser estacionario, ya

que

Xt −Xt−s = Vt − Vt−s ó Xt −Xt−s = at + Vt − Vt−s,

ambos casos estacionarios como suma de procesos estacionarios. Este hecho nos lleva

a la de�nción los ARIMA estacionales multiplicativos.

De�nición 2.18. Un proceso ARIMA estacional multiplicativo, denotado por

ARIMA(p, d, q) × (P,D,Q)s, es aquel que, después de aplicarle d diferenciacio-

nes regulares y D diferenciaciones estacionales de periodo s, se transforma en un

proceso ARMA(p, q) × (P,Q)s. Análogamente a las de�niciones anteriores, un pro-

ceso ARIMA(p, d, q)× (P,D,Q)s es aquel que admite una representación del tipo

φ(B)Φ(Bs)(1−B)d(1−Bs)DXt = c+ θ(B)Θ(Bs)at,

donde el polinomio φ(z)Φ(z) no tiene raices de módulo 1.

Para entender mejor esta expresión, desarrollémosla con un caso particular. Por

ejemplo, para un ARIMA(1, 1, 1)× (1, 1, 1)12, la expresión se reduce a:

(1− φ1B)(1− Φ1B12)(1−B)(1−B12)Xt = c+ (1 + θ1B)(1 + Θ1B

12)at,

que equivale a

Xt = c+ (1 + φ1)xt−1 − φ1Xt−2 + (1 + Φ1)Xt−12 − (1 + φ1 + Φ1 + φ1Φ1)

Xt−13 + (φ1 + φ1Φ1)Xt−14 − Φ1Xt−24 + (Φ1 + φ1Φ1)Xt−25 − φ1Φ1

Xt−26 + at + θ1at−1 + Θ1at−12 + θ1Θ1at−13.

Como podemos observar, los ARIMA estacionales multiplicativos generalizan to-

Page 31: Forecast de ventas - USCeio.usc.es/pub/mte/descargas/ProyectosFinMaster/Proyecto_1680.pdf · series de tiempo reales debemos seguir los siguientes pasos en la medida de lo posible:

2.4. ESTIMACIÓN DE LOS PARÁMETROS DE UN MODELO ARMA 21

dos los procesos que hemos estudiado en este capítulo:

ARIMA(p, 0, 0)× (0, 0, 0)1 = AR(p)

ARIMA(0, 0, q)× (0, 0, 0)1 = MA(q)

ARIMA(p, 0, q)× (0, 0, 0)1 = ARMA(p, q)

ARIMA(p, d, q)× (0, 0, 0)1 = ARIMA(p, d, q)

ARIMA(0, 0, 0)× (P, 0, 0)s = AR(P )s

ARIMA(0, 0, 0)× (0, 0, Q)s = MA(Q)s

ARIMA(0, 0, 0)× (P, 0, Q)s = ARMA(P,Q)s

ARIMA(0, 0, 0)× (P,D,Q)s = ARIMA(P,D,Q)s

ARIMA(p, 0, q)× (P, 0, Q)s = ARMA(p, q)× (P,Q)s

Estos modelos son capaces de capturar no estacionalidades provocadas por la

presencia de tendencia y componente estacional y modelar la dependencia regular y

estacional. Dichos modelos son, posiblemente, los más utilizados en la modelización

de series de tiempo univariantes.

2.4. Estimación de los parámetros de un modelo AR-

MA

Una vez identi�cado el modelo ARMA(p, q) que puede haber generado nuestra

serie de tiempo {Xt}t∈T , debemos estimar los parámetros desconocidos de dicho mo-

delo: c, φ1, . . . , φp, θ1, . . . , θq y σ2a. Esta estimación se puede llevar acabo de forma

consistente por el método de Mínimos Cuadrados o por el método de Máxima Vero-

similitud.

El método de Mínimos Cuadrados busca minimizar la suma de las innovaciones

cuadradas. Dado un vector de parámetros (c, φ1, . . . , φp, θ1, . . . , θq), se obtienen los

residuos

at = Xt − c− φ1Xt−1 − . . .− φpXt−p − θ1at−1 − . . .− θqat−q.

Page 32: Forecast de ventas - USCeio.usc.es/pub/mte/descargas/ProyectosFinMaster/Proyecto_1680.pdf · series de tiempo reales debemos seguir los siguientes pasos en la medida de lo posible:

22 CAPÍTULO 2. FAMILIA DE MODELOS ARIMA

Así, para minimizar la suma de cuadrados

S(c, φ1, . . . , φp, θ1, . . . , θq) =

T∑t=1

a2t ,

será necesario tener un valor inicial para X0, X1, . . . , Xp−1 y a0, a1, . . . , aq−1. Como

estos datos no se poseen en un inicio, impondremos las condiciones de que las p

primeras observaciones de {Xt}t∈T son los valores de nuestra serie observada y que

a0 = a1 = . . . = aq−1 = 0. Con estas condiciones, ya seremos capaces de minimizar la

suma de cuadrados, obteniendo así la estimación por Mínimos Cuadrados Condicio-

nados.

Si preferimos utilizar el método de Máxima Verosimilitud, debemos seguir un ra-

zonamiento distinto. Lo que debemos hacer es escribir la función de densidad conjunta

y luego maximizarla respecto a los parámetros. Para escribir la densidad conjunta de

las T observaciones de {Xt}t∈T , que denotaremos con el vector x = (x1, . . . , xT ),

utilizaremos la propiedad de que la distribución conjunta de dos variables cualesquie-

ra x, y puede escribirse como el producto de la distribución marginal de la primera

variable y la distribución de la segunda condicionada a los valores de la primera, es

decir,

f(x, y) = f(x)f(y|x).

Esto sigue siendo cierto si las hacemos condicionales a otra variable z, i.e.,

f(x, y|z) = f(x|z)f(y|x, z).

Por lo tanto, si tomamos x = x1 y y = x2, . . . , xT , podemos escribir

f(x) = f(x1)f(x2, . . . , xT |x1)

y descomponiendo el segundo término tomado ahora z = x1, x = x2 e y = x3, . . . , xT ,

obtenemos que

f(x) = f(x1)f(x2|x1)f(x3, . . . , xT |x1, x2).

Repitiendo este procedimiento iterativamente obtendremos al �nal que

f(x) = f(x1)f(x2|x1)f(x3|x2, x1) . . . f(xT |xT−1, . . . , x1).

Esta descomposición permite escribir la verosimilitud de un modelo ARMA si su-

ponemos normalidad, ya que las distribuciones condicionales serán normales con

parámetros E(xt|xt−1, . . . , x1) = xt|t−1 y Var(xt|xt−1, . . . , x1) = σ2avt|t−1, siendo

σ2a = Var(at) y vt|t−1 las varianzas condicionadas. Con esta notación, la función

de densidad conjunta de la muestra puede escribirse como

f(x) = f(x1)

T∏t=2

σ−1v−1/2t|t−1(2π)−1/2 exp

{− 1

2σ2

T∑t=1

(xt − xt|t−1)2

vt|t−1

},

Page 33: Forecast de ventas - USCeio.usc.es/pub/mte/descargas/ProyectosFinMaster/Proyecto_1680.pdf · series de tiempo reales debemos seguir los siguientes pasos en la medida de lo posible:

2.5. PREDICCIONES CON MODELOS ARIMA 23

donde hemos separado la densidad de la primera observación por que x1|0 y v1|0dependen de las condiciones iniciales.

Vamos a llamar at a la diferencia entre los valores observados y sus esperanzas

condicionadas, at = xt − xt−1. La función de verosimilitud exacta de un proceso

ARMA es

L(c, φ1, . . . , φp, θ1, . . . , θq, σ2a) = −T

2log σ2

a −1

2

T∑t=1

log vt|t−1 −1

2σ2a

T∑t=1

a2tvt|t−1

,

donde tanto las varianzas condicionales vt|t−1 como los errores at dependen de los

parámetros.

Por tanto, la estimación de los parámetros c, φ1, . . . , φp, θ1, . . . , θq y σ2a por medio

del método de Máxima Verosimilitud se obtiene a través de los valores (c, φ1, . . . , φp,

θ1, . . . , θq, σ2a) que maximizan la función de verosimilitud L anterior.

2.5. Predicciones con modelos ARIMA

Al igual que la construcción de los procesos ARIMA viene dada por los ARMA,

sus predicciones también. Es por ello que en esta sección nos centraremos en las

predicciones de estos modelos, siendo análogas para todos los demás.

Supongamos que ya hemos ajustado un modelo ARMA(p, q) adecuado para la

serie observada x1, . . . , xT . Lo que queremos hacer ahora es, dada una ventana h,

predecir los siguientes h valores de nuestra serie, es decir, predecir los valores de

xT+1, . . . , xT+h. Formalmente, a esta predicción se le denomina predicción con ori-

gen T y horizonte h y se denotará por xT (h).

Para hacer esta lectura más intuitiva, comenzaremos explicando las predicciones

en casos sencillos como el AR(1) y elMA(1), para luego generalizarlos para cualquier

ARMA(p.q).

Empecemos con un AR(1). Como ya sabemos, la ecuación que rige este proceso

es Xt = c+ φ1Xt−1 + at, siendo c y φ1 constantes conocidas y {at}t∈T ruido blanco.

Por lo tanto, si quisiésemos predecir el valor de nuestra serie con origen T y horizonte

1, bastaría con obtener una predicción de la variable aleatoria

XT+1 = c+ φ1XT + aT+1.

Para ello, nos hace falta el valor de XT que sí conocemos, xT es un valor observado de

nuestra serie, y una estimación del valor futuro aT+1 que, al pertenecer a un proceso

de ruido blanco y no recoger la serie ninguna información sobre ella, podemos estimar

como E(aT+1) = 0. Así, la predicción xT (1) será

xT (1) = c+ φ1xT ,

donde todos los términos son conocidos.

Page 34: Forecast de ventas - USCeio.usc.es/pub/mte/descargas/ProyectosFinMaster/Proyecto_1680.pdf · series de tiempo reales debemos seguir los siguientes pasos en la medida de lo posible:

24 CAPÍTULO 2. FAMILIA DE MODELOS ARIMA

Si quisiésemos estimar ahora una predicción con origen T y horizonte 2, deberíamos

estimar la variable aleatoria

XT+2 = c+ φ1XT+1 + aT+2.

Procediendo como antes, esta estimación, xT (2), la podremos dar una vez conozcamos

los valores de XT+1 y de aT+2. Para el primer valor usaremos la estimación obtenida

en el párrafo anterior, xT (1) = c+ φ1xT , y nuevamente E(aT+2) = 0. Así,

xT (2) = c+ φ1(c+ φ1xT ) = c+ cφ1 + φ21xT .

Generalizando, podemos concluir que la predicción con origen T y horizonte h de

un proceso AR(1) será xT (h) = c+ cφ1 + cφ21 + . . .+ cφh−11 + φh1xT .

Procediendo de igual modo, esta estimación puede generalizarse para cualquier

orden �nito del autorregresivo, p > 0. Además, se puede probar que las predicciones a

largo plazo de futuros valores de un proceso AR(p) es la media del proceso, es decir,

xT (h) −−−−→h→∞

µ.

Analicemos ahora unMA(1). En este caso, la ecuación que representa este proceso

sabemos que es Xt = c + at + θ1at−1, donde c y θ1 son constantes conocidas y

{at}t∈T ruido blanco. Por lo tanto, si queremos predecir el valor de nuestra serie con

origen T y horizonte 1, tendríamos que predecir la variable aleatoria

XT+1 = c+ aT+1 + θ1aT .

Ahora, los valores que necesitamos para nuestra estimación son aT+1 y aT . El

valor futuro aT+1 no lo tenemos ni podemos obtener información de él a partir de la

serie, por lo tanto volvemos a estimarlo como E(aT+1) = 0. En cuanto al valor de aT ,

si bien es cierto que no lo tenemos, nuestra serie sí que contiene cierta información

sobre él. Podemos ajustarlo y obtener aT = aT (0) siguiendo distintas metodologías:

1. Fijar un valor inicial para a1 (por lo general, su media 0). Si consideramos la

ecuación del proceso Xt = c + at + θ1at−1 y despejamos at, obtenemos que

at = Xt − c − θ1at−1. Así. para obtener aT a partir de la expresión anterior,

bastaría con tener los valores ai con i = 1, . . . , T−1. Por lo que si �jamos el valor

a1 podremos recursivamente predecir todos los demás valores. Es importante

señalar que, cuando T es grande, la condición inicial (a1 = 0) tiene poco impacto

sobre los resultados �nales.

2. Predecir aT a través de �la mejor� combinación lineal de x1, . . . , xT . Los coe�-

cientes de la combinación lineal de x1, . . . , xT que mejor predice aT se pueden

obtener a partir de la media y de las autocovarianzas de X1, . . . , XT y de sus

covarianzas entre ellas y aT .

Page 35: Forecast de ventas - USCeio.usc.es/pub/mte/descargas/ProyectosFinMaster/Proyecto_1680.pdf · series de tiempo reales debemos seguir los siguientes pasos en la medida de lo posible:

2.5. PREDICCIONES CON MODELOS ARIMA 25

Una vez obtenida la predicción de ese aT (recordemos que lo que queríamos era obtener

predicciones de XT+1 = c+aT+1+θ1aT ), basta con sustituir las estimaciones en dicha

ecuación. Así, nos quedaría que

xT (1) = c+ θ1aT (0).

Si quisiésemos estimar ahora una predicción con origen T y horizonte 2, deberíamos

estimar la variable aleatoria XT+2 = c+aT+2+θ1aT+1. Procediendo como antes, esta

estimación la podremos conseguir una vez tengamos valores para aT+2 y aT+1. Sin

embargo, ahora ya sí que no tenemos información en la serie para estimar ninguno de

estos valores. Por lo tanto, tomamos E(aT+2) = E(aT+1) = 0. Así,

xT (2) = c.

Nuevamente, el procedimiento anterior puede generalizarse fácilmente para cual-

quier horizonte h > 0 y cualquier orden �nito del proceso q > 0. Además, puede

demostrarse que la predicción en un MA(q) a horizontes mayores que q es la media

del proceso, es decir, xT (h) = µ ∀k > q.

Los procedimientos explicados arriba para predecir valores futuros de procesos

AR(p) y MA(q) pueden ser combinados para predecir valores futuros de procesos

ARMA(p, q). No vamos a escribir las expresiones explícitas para estos métodos porque

en función de sus órdenes cada uno tiene una expresión particular y el texto se volvería

demasiado denso de forma innecesaria. Sin embargo, es importante comentar que,

como en los casos particulares anteriores, la predicción a largo plazo de futuros valores

de un proceso ARMA(p, q) es la media del proceso, es decir, xT (h) −−−−→h→∞

µ.

Como comentábamos antes, las predicciones de los ARMA serán imprescindibles

para las de los ARIMA. Para predecir un proceso ARIMA, se debe diferenciar la

serie como ya hemos visto, hasta obtener un proceso estacionario ARMA. Luego,

predecir los valores de dicho ARMA y, �nalmente, deshacer la diferenciación en estas

predicciones para obtener predicciones del proceso original.

Por último, comentar que, como es habitual en estadística, a la hora de predecir

o estimar un valor, incluso más importante que el valor en sí, puede ser la aportación

de un intervalo de con�anza que, en nuestro caso, llamaremos intervalo de predicción.

Para su construcción, usaremos la distribución muestral del error de predicción eT :

eT (h) = XT+h − XT (h).

Se veri�ca que, cuando T es su�cientemente grande y {at}t∈T gaussiano, entoncesdicha distribución se aproxima a una Normal de media 0 y varianza σ2

a(1 +ω21 + . . .+

ω2h−1), siendo ωi los coe�cientes de la representaciónXt = c+at+ω1at−1+ω2at−2+. . ..

Así, el intervalo de prediccón con nivel de signi�cación α será(XT (h)− z1−α

√σ2a(1 + ω2

1 + . . .+ ω2h−1), XT (h) + z1−α

√σ2a(1 + ω2

1 + . . .+ ω2h−1)

).

Page 36: Forecast de ventas - USCeio.usc.es/pub/mte/descargas/ProyectosFinMaster/Proyecto_1680.pdf · series de tiempo reales debemos seguir los siguientes pasos en la medida de lo posible:

26 CAPÍTULO 2. FAMILIA DE MODELOS ARIMA

2.6. Aplicación de los ARIMA a los datos de Estrella

Galicia

En esta sección analizaremos la serie de tiempo de los últimos diez años procedente

de las ventas mensuales de cerveza en la Zona B1. Estudiaremos sus características,

tales como la tendencia y la componente estacional, procederemos a ajustar un modelo

ARIMA adecuado para ella y realizaremos sus predicciones para los meses venideros.

Para ello, seguiremos los pasos que se indican a continuación:

1. Presentación y transformación de las unidades de la serie.

2. Propuesta y ajuste del modelo ARIMA.

3. Comprobación de parámetros ajustados no signi�cativamente distintos de cero

e interpretación.

4. Validación del modelo ajustado

5. Conclusiones

Lo primero que haremos será leer los datos, crear el objeto serie y representar

su grá�co secuencial (ver Figura 2.7). En él vemos claramente la presencia de esta-

cionalidad e incluso una leve tendencia, pero, antes de eso, debemos �jarnos en que

también apreciamos cierta heterocedasticidad en los últimos años. Es por ello que

primero intentaremos transformar sus unidades para conseguir homocedasticidad.

Tras aplicar la función logarítmica, vemos cómo mejora nuestro problema. Sin

embargo, sospechamos que igual podríamos usar una función transformadora mejor.

Para ello, utilizamos el criterio de Box-Cox obteniendo una lambda óptima λ = 0,064.

Como podemos ver en la Figura 2.8 apenas hay diferencia entre ambas transforma-

ciones. Por lo tanto, nos decantamos por trabajar con la serie logarítmica porque nos

resultará más fácil interpretar los resultados más adelante.

Pasemos ahora a proponer y ajustar el modelo ARIMA. Tanto en su grá�co se-

cuencial como en el grá�co de autocorrelaciones que se muestra en la Figura 2.9,

podemos ver cómo claramente nuestra serie no es estacionaria debido, en primer lu-

gar, a la tendencia que presenta. Recordemos que la tendencia se identi�caba en el

hecho de que la fas tardaba muchos retardos en anularse.

Necesitamos una diferenciación regular. Tras aplicarla, obtenemos los grá�cos que

mostramos en la Figura 2.10. La tendencia claramente ha desaparecido, pero ahora

1Tanto la zona geográ�ca como los datos con los que trabajaremos son reales, pero hemos decidido

no mencionarla por motivos de con�dencialidad. Por este mismo motivo, todas las grá�cas que puedan

arrojar información sobre el volumen real de ventas de la compañía han sido �silenciadas� borrando

su eje y.

Page 37: Forecast de ventas - USCeio.usc.es/pub/mte/descargas/ProyectosFinMaster/Proyecto_1680.pdf · series de tiempo reales debemos seguir los siguientes pasos en la medida de lo posible:

2.6. APLICACIÓN ARIMA 27

Figura 2.7: Grá�co secuencial de la serie original.

Figura 2.8: Serie transformada por logaritmo y por BoxCox, respectivamente.

podemos apreciar la componente estacional con periodo s = 12: los valores de la

función de autocorrelaciones simples siguen un patrón repetitivo que se sale de las

bandas. Necesitamos, por tanto, una diferenciación estacional.

Aplicando la nueva diferenciación estacional resultan los grá�cos recogidos en la

Figura 2.11. Si bien es cierto que la fas no tiende a cero excesivamente rápido,

podemos a�rmar que sí cae dentro de las bandas, cosa que consideramos su�ciente.

Page 38: Forecast de ventas - USCeio.usc.es/pub/mte/descargas/ProyectosFinMaster/Proyecto_1680.pdf · series de tiempo reales debemos seguir los siguientes pasos en la medida de lo posible:

28 CAPÍTULO 2. FAMILIA DE MODELOS ARIMA

Figura 2.9: Funcion de autocorrelaciones simples.

Figura 2.10: Grá�co secuencial y fas de la serie diferenciada.

Concluimos por tanto que nuestra serie diferenciada ya es estacionaria.

Ya tenemos entonces la base de nuestro modelo: ARIMA(p, 1, q)× (P, 1, Q)12. Lo

que debemos preguntarnos ahora es ¾cuáles son dichas p, q, P , Q? Para ello, represen-

taremos las fas y fap de nuestra serie diferenciada (ver Figura 2.12) e intentaremos

proponer un modelo adecuado.

Para proponer p y q, debemos �jarnos en los 12/2 = 6 primeros retardos de las

fas y fap:

Page 39: Forecast de ventas - USCeio.usc.es/pub/mte/descargas/ProyectosFinMaster/Proyecto_1680.pdf · series de tiempo reales debemos seguir los siguientes pasos en la medida de lo posible:

2.6. APLICACIÓN ARIMA 29

Figura 2.11: Grá�co secuencial y fas de la serie diferenciada.

Figura 2.12: fas y fap de nuestra serie diferenciada.

• FAS: Vemos que la última en salirse es la correspondiente al segundo re-

tardo. Esto lo relacionamos por tanto con un MA(2).

• FAP: En este caso, la última en salir es la cuarta, si bien es cierto que tanto

esta como la correspondiente al tercer retardo lo hacen por poco. De todos

Page 40: Forecast de ventas - USCeio.usc.es/pub/mte/descargas/ProyectosFinMaster/Proyecto_1680.pdf · series de tiempo reales debemos seguir los siguientes pasos en la medida de lo posible:

30 CAPÍTULO 2. FAMILIA DE MODELOS ARIMA

modos, esto nos induciría a pensar en un AR(4).

Como siempre pretendemos estimar con un modelo lo más sencillo posible se nos

ocurre, por lo tanto, modelar la parte regular del proceso diferenciado mediante

un MA(2) o, lo que es lo mismo, mediante un ARIMA(0, 1, 2) para la serie

original.

Para proponer P yQ, debemos �jarnos en las fas y fap en los retardos múltiplos

de s = 12. Aúnque en el grá�co no se aprecia muy bien, la fas está muy próxima

a anularse ya en el segundo múltiplo (saliéndose de bandas solo en el primer

retardo r = 12), mientras que las fap, aún estando entre bandas, vemos que se

mantienen más altas a lo largo del tiempo. Proponemos, por tanto, un modelo

ARIMA(0, 1, 1)12 para la componente estacional.

Así, el modelo que ajustaríamos para la serie logarítmica sería el modelo: ARIMA

(0, 1, 2)× (0, 1, 1)12. Usando la función auto.arima del paquete forecast, se nos su-

giere que utilicemos un ARIMA(0, 1, 2)×(0, 1, 1)12. Como es el que nosotros habíamos

razonado, ajustaremos de�ntivamente dicho modelo, resultando las siguientes estima-

ciones de los parámetros: c = 0,001, θ1 = −1,0848, θ2 = 0,2483 y Θ1 = −0,4966.

Como podemos ver en la salida de R (ver Figura 2.13), todos son signi�cativamente

distintos de cero a excepción de la constante c (era de esperar al tratarse de la serie

diferenciada):

Figura 2.13: Valores estimados de los coe�cientes del modelo ARIMA y valores de sus criterios

de información.

Así:

Yt = Yt−1 +Yt−12−Yt−13 + at + θ1at−1 + θ2at−2 + Θ1at−12 + θ1Θ1at−13 + θ2Θ1at−14,

que se reduce a

Yt = Yt−1 + Yt−12 − Yt−13 + at − 1,0848at−1 + 0,2483at−2 − 0,4966at−12+

0,5387at−13 − 0,1233at−14.

Page 41: Forecast de ventas - USCeio.usc.es/pub/mte/descargas/ProyectosFinMaster/Proyecto_1680.pdf · series de tiempo reales debemos seguir los siguientes pasos en la medida de lo posible:

2.6. APLICACIÓN ARIMA 31

Ahora, es imprescindible checkear que los residuos {at}t∈T de este ajuste pasan la

diagnosis. Lo más importante es comprobar si nuestras innovaciones pueden ser ruido

blanco y luego, en segunda medida, ver si son gaussianas. Cabe destacar que estos

contrastes deberían efectuarse sobre las innovaciones, pero como estas no son visibles

(o conocidas), se los aplicamos a los residuos (que son sus estimaciones).

Aplicando la función tsdiag podemos aceptar la independencia y, por tanto, tam-

bién la incorrelación. Al mismo tiempo, a la vista del QQ-plot y gracias al test de

Shapiro-Wilk, no rechazamos la hipótesis de normalidad. Podemos aceptar, por tanto,

que tenemos ruido blanco (ver Figuras 2.14(a) y 2.14(b)).

(a) Grá�co QQ-plot. (b) Diagnosis tsdiag.

Figura 2.14: Diagnosis de residuos.

Por último, una vez poseemos un ajuste válido, debemos hacer las predicciones.

Para ello, lo que se hará será calcular una predicción de los residuos futuros (teniendo

en cuenta el ARIMA que siguen) y, luego, deshacer las distintas transformaciones que

hemos aplicado a nuestra serie; es decir, la diferenciación estacional, luego la regular

y, por último, la transformación logarítmica.

Utilizando la función forecast del paquete homónimo obtenemos las prediccio-

nes recogidas en el Cuadro 2.1, representadas grá�camente en la Figura 2.15, donde

también se recogen los intervalos de con�anza con nivel de con�anza del 80% y 95%.

Page 42: Forecast de ventas - USCeio.usc.es/pub/mte/descargas/ProyectosFinMaster/Proyecto_1680.pdf · series de tiempo reales debemos seguir los siguientes pasos en la medida de lo posible:

Predicción Inf 80 Sup 80 Inf 95 Sup 95

Abr 2019 341033.56 290923.87 395625.89 267218.40 444820.12

May 2019 364999.60 306957.67 423818.22 282872.23 474877.83

Jun 2019 407928.39 346974.78 472539.65 318947.77 528971.09

Jul 2019 477593.77 404620.22 554397.19 373575.35 620225.03

Ago 2019 557611.48 470799.58 648738.81 433148.35 728945.58

Sep 2019 317869.03 266770.47 372000.41 247458.38 411478.05

Oct 2019 339009.36 286282.40 395195.62 261960.49 438161.20

Nov 2019 285484.07 239407.67 334812.43 218981.42 370067.07

Dic 2019 304517.90 256179.31 355803.72 233705.04 396838.87

Ene 2020 283693.74 239887.53 333659.16 218106.22 367975.73

Feb 2020 244930.91 204738.38 290143.81 185618.76 320719.76

Mar 2020 308655.07 258962.82 362841.56 235651.27 403939.32

Cuadro 2.1: Predicciones de litros de cerveza que se venderán en la Zona B. Estos valores

han sido transformados por un parámetro α para respetar la con�dencialidad de los datos

reales.

Figura 2.15: Grá�co secuencial de la serie �litros de cerveza vendidos en la Zona B� junto

con sus predicciones para los 12 meses seguientes.

Page 43: Forecast de ventas - USCeio.usc.es/pub/mte/descargas/ProyectosFinMaster/Proyecto_1680.pdf · series de tiempo reales debemos seguir los siguientes pasos en la medida de lo posible:

Capítulo 3

Suavizado Exponencial

En este nuevo capítulo abordaremos el otro gran enfoque clásico en el estudio de

las series temporales: el Suavizado Exponencial. Como veremos, dicho enfoque se basa

en la idea de descomposición de las series de tiempo en sus 3 componentes principales:

tendencia (T ), estacionalidad (S) y errores (E). En función de cómo estas se de�nan

y combinen, podremos dar una clasi�cación de los distintos métodos resultantes y

estudiar las propiedades de cada uno de ellos para obtener las predicciones pertinentes.

En este capítulo, seguiremos muy de cerca la referencia Hyndman et al. (2008).

Antes de empezar, es importante distinguir entre método de predicción y modelo

estadístico. Por una banda, un método es un algoritmo que nos proporciona una

predicción puntual, es decir, un valor concreto que predice la evolución futura de

nuestra serie. Sin embargo, un modelo estadístico nos de�ne un proceso estocástico

que podremos utilizar para de�nir toda una distribución de probabilidad para valores

futuros de nuestra serie. La ventaja de los métodos es que nos permiten obtener una

predicción de forma más rápida y sencilla que los modelos, mientras que los segundos,

aunque son más costosos, también nos proveerán de intervalos de con�anza para

un nivel de signi�cación dado. De todos modos, como veremos más adelante, en el

Suavizado Exponencial ambos conceptos están íntimamente ligados.

En resumen, el Suavizado Exponencial, en su idea más primitiva, es un método

de predicción. Se caracteriza por calcular las nuevas predicciones como combinacio-

nes ponderadas de las observaciones pasadas, donde las observaciones más recientes

reciben más peso que las antiguas. Esta disminución de peso muchas veces se realiza

de forma exponencial, de ahí el nombre del método.

3.1. Descomposición de series temporales

Como ya sabremos en este punto del trabajo, es muy común pensar en las series

temporales como una combinación de una tendencia (T ), una estacionalidad (S) y un

33

Page 44: Forecast de ventas - USCeio.usc.es/pub/mte/descargas/ProyectosFinMaster/Proyecto_1680.pdf · series de tiempo reales debemos seguir los siguientes pasos en la medida de lo posible:

34 CAPÍTULO 3. SUAVIZADO EXPONENCIAL

error �aleatorio� (E), suponiendo que otras características como la heterocedasticidad

ya no están presentes (bastaría con arreglar previamente la serie como hemos discutido

en la sección 1.2).

Estas tres componentes principales se pueden combinar de diferentes formas para

ajustar nuestra serie x: puramente aditiva como

x = T + S + E,

puramente multiplicativa como

x = T × S × E,

o cualquier otra combinación más compleja entre estas dos, como por ejemplo

x = (T + S)× E.

Así, podemos de�nir, por ejemplo, la serie ajustada estacionalmente, y, como

la resultante de extraer la componente estacional a la serie original, dejando única-

mente las componentes tendencia y error. Para modelos aditivos, bastará con calcular

y = x− S, mientras que para los multiplicativos será y = x/S.

3.2. Clasi�cación de los métodos de Suavizado Ex-

ponencial

La clasi�cación de nuestros modelos se basará en cómo de�namos cada compo-

nente de la descomposición. Comenzaremos por la tendencia y luego abordaremos la

estacionalidad.

La tendencia, T , será una combinación de lo que llamamos nivel (l) y crecimiento

o pendiente (b), parámetros que luego deberemos estimar. Su signi�cado es justo lo

que todos intuimos por su nombre, pero se aclara en la Figura 3.1. En función de

como combinemos ambos parámetros, podremos obtener cinco tipos de pendientes

futuras. Sea Th la pendiente predicha para h tiempos futuros, y φ el parámetro de

suavización, con 0 < φ < 1. Así, podemos de�nir los siguientes tipos de tendencia:

Nula (N): Th = l. No hay tendencia futura esperada. La evolución de la serie se

espera que sea una oscilación en torno al nivel horizontal l.

Aditiva (A): Th = l + bh. Ahora sí hay un crecimiento esperado, con pendiente

b, de forma lineal.

Aditiva suavizada (Ad): Th = l + (φ+ φ2 + . . .+ φh)b. Es una versión ajustada

de la anterior. En este caso, como 0 < φ < 1, nos indica que la pendiente de la

tendencia cada vez será más pequeña, tendiendo �nalmente a una horizontal.

Page 45: Forecast de ventas - USCeio.usc.es/pub/mte/descargas/ProyectosFinMaster/Proyecto_1680.pdf · series de tiempo reales debemos seguir los siguientes pasos en la medida de lo posible:

3.2. CLASIFICACIÓN DE LOS MÉTODOS DE SUAVIZADO EXPONENCIAL 35

Multiplicativa (M): Th = lbh.

Multiplicativa suavizada (Md): Th = lb(φ+φ2+...+φh).

(a) Serie sin tendencia con nivel constante l =

0. Todos los valores de esta serie �uctúan en-

torno al valor cero.

(b) Serie con tendencia aditiva T = l+bh, don-

de podemos observar que en la última observa-

ción tenemos un nivel l = 50 y una pendiente

constante b = 1.

(c) Serie periódica con frecuencia m = 4 en la que podemos observar

perfectamente la componente estacional para cada �estación�: s0 = 0,

s1 = 1, s2 = 0, s3 = −1.

Figura 3.1: Grá�cos ilustrativos sobre los elementos no observables de una serie.

Una vez escogido el tipo de tendencia (T ) de nuestro método, debemos añadirle

ahora la componente estacional (S) de forma aditiva (T +S) o multiplicativa (T ×S),

Page 46: Forecast de ventas - USCeio.usc.es/pub/mte/descargas/ProyectosFinMaster/Proyecto_1680.pdf · series de tiempo reales debemos seguir los siguientes pasos en la medida de lo posible:

36 CAPÍTULO 3. SUAVIZADO EXPONENCIAL

como hemos explicado en la sección anterior. Dicha estacionalidad estará completa-

mente de�nida, a diferencia de la tendencia, por un único parámetro: el elemento

estacional s.

Finalmente, deberíamos hacer lo mismo con los errores, aunque la forma de aña-

dirlos (aditiva o multiplicativamente) no crea ninguna diferencia en las predicciones

puntuales obtenidas, por lo que habitualmente son ignorados en la de�nición de los mé-

todos (pero no en la de�nición de los modelos estadísticos que veremos luego). De este

modo, se de�ne el Cuadro 3.1, donde se recogen las quince combinaciones/métodos

posibles.

Tendencia \ Estacionalidad N (ninguna) A (aditiva) M (multiplic.)

N (ninguna) N,N N,A N,M

A (aditiva) A,N A,A A,M

Ad (aditiva suavizada) Ad,N Ad,A Ad,M

M (multiplicativa) M,N M,A M,M

Md (Multiplicativa suavizada) Md,N Md,A Md,M

Cuadro 3.1: Clasi�cación de los métodos de suavizado exponencial en referencia al tipo de

tendencia y estacionalidad.

Algunas de estas combinaciones son conocidas con nombre propio. Por ejemplo, el

método (N,N) es el llamado método de suavizado exponencial simple, SES. El método

(A,N) se conoce como método lineal de Holt, mientras que las combinaciones (A,A) y

(A,M) son los famosos métodos de Holt-Winter adictivo y Holt-Winter multiplicativo,

respectivamente.

Para cada uno de estos quince métodos, existen dos modelos state space posibles

que resultan al añadir la componente de los errores (E) de forma aditiva o multipli-

cativa. Como comentábamos hace un momento, si se utilizan las mismas estimaciones

de los parámetros, ambos modelos devolverán la misma predicción puntual, pero dis-

tintos intervalos de predicción. De aquí nace la gran importancia de distinguir entre

ellos.

Page 47: Forecast de ventas - USCeio.usc.es/pub/mte/descargas/ProyectosFinMaster/Proyecto_1680.pdf · series de tiempo reales debemos seguir los siguientes pasos en la medida de lo posible:

3.3. ECUACIONES EXPLÍCITAS DE LOSMÉTODOS DE SUAVIZADO EXPONENCIAL37

3.3. Ecuaciones explícitas de los métodos de Suavi-

zado Exponencial

Ahora que ya conocemos la estructura de los distintos métodos, debemos estudiar

las ecuaciones explícitas en cada uno de ellos para que, en primer lugar, nos de�nan sus

elementos no observables y, en segundo lugar, nos proporcionen una ecuación �global�

que nos sirva para calcular nuevas predicciones. Llamamos vector de elementos

no observables en el instante t, vt, al vector formado por los elementos: nivel (l),

pendiente (b) y estacionalidad (s) en el instante t, i.e., vt = (lt, bt, st). Así, cada

método tendrá una ecuación que de�na cada elemento no observable que intervenga

en él y una última que las englobe siguiendo el esquema del método en cuestión. Por

ejemplo, para el método (A,A), una vez dadas las ecuaciones que nos de�nan l, b y s,

tendremos una cuarta del estilo (l + bh) + s ; o, por ejemplo, para el método (A,M)

será del estilo (l + bh)s.

Como podremos ver más adelante, las ecuaciones siguen el mismo patrón en todos

los métodos, por lo que empezaremos desarrollándolas y explicándolas para alguno de

los métodos más famosos y así luego será inmediato entenderlas para todos los demás.

Suavizado Exponencial Simple (N,N)

Comencemos con el método más simple de todos, el (N,N) o Suavizado Exponen-

cial Simple. Como ya sabemos, las siglas de este método nos indican que tiene una

tendencia tipo �nula� y que carece de componente estacional (x = T , siendo T de tipo

�nula�).

Si recordamos, la tendencia tipo �nula� era aquella en la que no había un cambio

de nivel esperado a lo largo del tiempo, y se expresaba como T = l. Por lo tanto, en

este caso solo interviene el elemento no observable nivel (l). Como además no existe

componente estacional, nuestro método se de�nirá con tan solo dos ecuaciones: una

que nos de�nirá el nivel y otra que nos de�nirá las predicciones (la que denominábamos

antes como �global�).

El nivel de nuestra serie en el instante t, lt, lo calcularemos como una combinación

convexa entre el nivel del instante anterior, lt−1, y la observación real que se acabó

dando en el instante t, para todo t = 1, . . . , T :

lt = αxt + (1− α)lt−1,

siendo α un parámetro entre 0 y 1 que luego habrá que estimar. Por decirlo de algún

modo, lo que hacemos es tomar el nivel que tenía la serie hasta el instante t− 1 y lo

corregimos levemente con la nueva observación añadida.

Ahora, como ya tenemos de�nida la tendencia (T ) y no existe componente esta-

cional, es lógica la de�nición de las predicciones futuras, dada por

xT (h) = lT .

Page 48: Forecast de ventas - USCeio.usc.es/pub/mte/descargas/ProyectosFinMaster/Proyecto_1680.pdf · series de tiempo reales debemos seguir los siguientes pasos en la medida de lo posible:

38 CAPÍTULO 3. SUAVIZADO EXPONENCIAL

Cabe destacar que para el cálculo de lT debemos proceder iterativamente del

siguiente modo:

xT (h) = lT = αxT + (1− α)lT−1

= αxT + (1− α)[αxT−1 + (1− α)lT−2]

= αxT + α(1− α)xT−1 + (1− α)2lT−2

= . . .

= αxT + α(1− α)xT−1 + α(1− α)2xT−2 + . . .+

+α(1− α)T−1x1 + (1− α)T l0.

Este desarrollo nos mani�esta dos puntos: el primero es que la predicción de valores

futuros es calculado como una media ponderada de todas las observaciones pasadas

con sus pesos decreciendo exponencialmente (de ahí el nombre de Suavizado Exponen-

cial) y, el segundo punto, es que para poder llevar a cabo estos cálculos necesitamos

un valor inicial l0, así como una estimación del parámetro α. Este problema que afecta

a todos los métodos se conoce como problema de inicialización y lo discutiremos en

la Sección 3.5.

Método lineal de Holt (A,N)

Pasemos ahora a explicar un método en el que tengamos un elemento no observable

más. Por ejemplo, la pendiente o crecimiento b. Para ello, analizaremos el método

(A,N) o Método lineal de Holt. Como sus siglas explican, este método tiene una

tendencia de tipo �aditivo� y carece de estacionalidad.

Como recordaremos, la tendencia tipo �aditiva� era aquella que aumentaba lineal-

mente con pendiente b, siguiendo la expresión Th = l+ hb. Por lo tanto, en este caso,

a diferencia del anterior, intervienen dos elementos no observables: el nivel (l) y la

pendiente (b). Como no disponemos de componente estacional, el Método lineal de

Holt quedará de�nido por 3 ecuaciones: una que nos de�nirá el nivel, otra que nos

de�nirá la pendiente y una última que las englobe para obtener nuevas predicciones.

Nuevamente, el nivel de nuestra serie en el instante t, lt, lo calcularemos como una

combinación convexa entre la observación en el instante t (xt) y el nivel que teníamos

en el instante anterior (lt−1), pero ahora añadiendo el efecto de la pendiente bt−1,

resultando

lt = αxt + (1− α)(lt−1 + bt−1),

Page 49: Forecast de ventas - USCeio.usc.es/pub/mte/descargas/ProyectosFinMaster/Proyecto_1680.pdf · series de tiempo reales debemos seguir los siguientes pasos en la medida de lo posible:

3.3. ECUACIONES EXPLÍCITAS 39

para todo t = 1, . . . , T y con α ∈ [0, 1]. Esto lo podemos interpretar como que, para

el instante t, el nivel que vamos a tomar es el dado por la etapa anterior (lt−1 + 1 ·bt−1), pero levemente corregido por la observación real que se acabó registrando en el

instante t.

En cuanto a la pendiente de la tendencia en el instante t, bt, se calculará como

una combinación convexa entre la pendiente en el instante anterior y la diferencia de

niveles que �nalmente se produjo entre dichos instantes, es decir,

bt = β(lt − lt−1) + (1 + β)bt−1,

siendo β un parámetro entre 0 y 1.

Así, teniendo ya de�nidos nuestros elementos no observables, concluimos con la

última ecuación para el cálculo de nuevas predicciones:

xT (h) = lT + hbT .

Método de Holt-Winter aditivo (A,A)

Por último, consideremos un método en el que intervengan todos los elementos

no observables posibles: el nivel (l), la pendiente (b) y la estacionalidad (s). Para

ello, consideremos el método (A,A) o Método de Holt-Winter aditivo, en el que la

tendencia es de tipo �aditivo�, al igual que la estacionalidad.

En este método, el nivel de la serie en el instante t se calcula como en el caso

anterior, pero ahora, como existe estacionalidad, las observaciones serán ajustadas

estacionalmente. Recordemos que, como en este caso la estacionalidad es añadida de

modo aditivo, la serie ajustada estacionalmente es el resultado de la transformación

x−S. La importancia de esta transformación se puede ver claramente con el ejemplo

anterior de la Figura 3.1(c), ya que en ese caso, si no ajustásemos el valor de las ob-

servaciones, el nivel de la serie estaría variando continuamente al son del seno/coseno,

cuando en realidad entendemos que esa �uctuación es debida a la estacionalidad y

que el nivel de la serie es constante a cero. Por ello, en el caso de métodos con estacio-

nalidad, todas las ecuaciones presentan las observaciones ajustadas estacionalmente

(ya sea sustrayendo el elemento no observable, s, para estacionalidades aditivas o

dividiéndolo para estacionalidades multiplicativas). Así,

lt = α(xt − st−m) + (1− α)(lt−1 + bt−1),

siendo m la frecuencia de observación de la serie y α un parámetro entre 0 y 1.

En cuanto a la pendiente de la tendencia, como seguimos con tendencia �aditiva�, la

expresión que la de�ne sigue siendo la misma que en el caso anterior y su interpretación

también es igual:

bt = β(lt − lt−1) + (1 + β)bt−1,

siendo β un parámetro entre 0 y 1.

Page 50: Forecast de ventas - USCeio.usc.es/pub/mte/descargas/ProyectosFinMaster/Proyecto_1680.pdf · series de tiempo reales debemos seguir los siguientes pasos en la medida de lo posible:

40 CAPÍTULO 3. SUAVIZADO EXPONENCIAL

Nos falta, por tanto, la ecuación referente a la componente no observable de la

estacionalidad, s. El cálculo de la componente estacional en el instante t se calculará

como una combinación convexa entre la componente estacional de ese instante en el

�año� anterior, st−m, y la diferencia �nalmente observada entre el valor de la serie

y el valor esperado dado por la tendencia (que recordemos no tiene en cuenta la

estacionalidad), xt − lt−1 − bt−1. Es decir,

st = γ(xt − lt−1 − bt−1) + (1− γ)st−m,

siendo γ un parámetro entre 0 y 1.

Finalmente, una vez de�nidos todos los elementos no observables que intervienen

en el método, la ecuación �global� quedaría como sigue:

xT (h) = lT + hbT + st−m+h+m,

siendo h+m = [(h− 1) mod m] + 1, que podemos interpretar como el número de �años�

enteros que han pasado durante el tiempo h.

Descripción de todos los métodos del Suavizado Exponencial

Ahora que ya hemos vistos estos casos, seremos capaces de interpretar las ecuacio-

nes de los demás métodos. Solo hay que tener en cuenta qué tipo de tendencia utiliza

nuestro método y, en caso de existir componente estacional, recordar que debemos

ajustar nuestra serie estacionalmente. En el Cuadro A.1 del Apéndice A se recogen

las ecuaciones explícitas de todos los métodos de Suavizado Exponencial.

3.4. Modelos State Space

Como comentábamos al principio del capítulo, de cada método que hemos visto

en la sección anterior podemos crear dos modelos distintos: uno añadiendo errores de

forma aditiva y otro de forma multiplicativa. En la notación estándar, para distinguir

entre estos dos modelos, se añadirá una nueva inicial a las siglas, de modo que los

modelos con errores aditivos incluirán la inicial A, mientras que los multiplicativos

tendrán la inicialM . Así, los State Space Models se de�nirán como un triplete (E,T,S)

correspondiendo con la naturaleza de cada una de las tres componentes de la serie.

Por ejemplo, el modelo ETS(A,M,N) será el modelo con errores aditivos, tendencia

multiplicativa y sin estacionalidad; o el modelo ETS(M,Ad,M) será el modelo con

errores multiplicativos, tendencia aditiva suavizada y estacionalidad multiplicativa.

Una vez tengamos de�nido un modelo, podremos estudiar la distribución de pro-

babilidad para valores futuros de nuestra serie y calcular, por ejemplo, la media con-

dicionada de valores futuros dados los últimos elementos no observables de los que

disponemos, vt. Esta media la denotaremos como µt(h) = E(xt+h|vt), donde vt es

Page 51: Forecast de ventas - USCeio.usc.es/pub/mte/descargas/ProyectosFinMaster/Proyecto_1680.pdf · series de tiempo reales debemos seguir los siguientes pasos en la medida de lo posible:

3.4. MODELOS STATE SPACE 41

el vector de elementos no observables lt, bt y st. Para muchos modelos, esta media

condicional coincidirá con la predicción puntual que proporcionaba el método del que

subyacen, es decir, µt(h) = xt(h). Sin embargo, para los modelos con tendencia o

estacionalidad multiplicativa, la media condicional y la predicción puntual diferirán

levemente para h ≥ 2. Por ello, en esta sección, estudiaremos las ecuaciones que de-

�nen todos estos modelos y repasaremos sus propiedades, procediendo como en la

sección anterior: comenzaremos con unos casos sencillos para luego presentar todos

los demás.

State Space Models para el Método lineal de Holt (A,N)

Empecemos con el Método lineal de Holt o (A,N). Como ya sabemos, de él surgen

dos modelos distintos: uno con errores aditivos y otro con errores multiplicativos.

Modelo con errores aditivos: ETS(A,A,N) Sea µt = xt = lt−1 + bt−1 la pre-

dicción a un paso de xt, suponiendo que conocemos los valores de todos los

parámetros que necesitamos. Sea también εt = xt − µt el error de predicción a

un paso en el instante t. Si recordamos de la sección anterior, las ecuaciones del

Método lineal de Holt son:

lt = αxt + (1− α)(lt−1 + bt−1),

bt = β(lt − lt−1) + (1 + β)bt−1,

xT (h) = lT + hbT .

Por lo tanto, siguiendo la tercera ecuación se tiene que

xt = lt−1 + bt−1 + εt,

y usando las dos primeras podemos escribir

lt = lt−1 + bt−1 + αεt, y

bt = bt−1 + β(lt − lt−1 − bt−1) = bt−1 + αβεt.

De aquí en adelante escribiremos β = αβ. Las tres ecuaciones anteriores cons-

truyen uno de los State Space Models subyacientes del Método lineal de Holt.

Page 52: Forecast de ventas - USCeio.usc.es/pub/mte/descargas/ProyectosFinMaster/Proyecto_1680.pdf · series de tiempo reales debemos seguir los siguientes pasos en la medida de lo posible:

42 CAPÍTULO 3. SUAVIZADO EXPONENCIAL

Matricialmente, podemos reescribirlas considerando vt = (lt, bt)′ como sigue:

xt =

(1 1

)vt−1 + εt,

vt =

1 1

0 1

vt−1 +

α

β

εt.

El modelo quedará completamente especi�cado cuando demos una distribución

para los errores, εt. Normalmente, se asume que son independientes e idéntica-

mente distribuidos, siguiendo una distribución Normal de media cero y varianza

σ2.

Modelo con errores multiplicativos: ETS(M,A,N) El modelo con errores mul-

tiplicativos sigue la misma �losofía. Solo hay que tener en cuenta en este caso

que εt es un error relativo de�nido por εt = (xt−µt)/µt. Así, siguiendo el mismo

procedimiento que antes, obtenemos las siguientes ecuaciones:

xt = (lt−1 + bt−1)(1 + εt),

lt = (lt−1 + bt−1)(1 + αεt),

bt = bt−1 + β(lt−1 + bt−1)εt.

Equivalentemente,

xt =

(1 1

)vt−1(1 + εt),

vt =

1 1

0 1

vt−1 +

(1 1

)vt−1

α

β

εt,

asumiendo nuevamente que εt ∼ N (0, σ2).

State Space Models para todos los métodos

Siguiendo el mismo procedimiento que el explicado para los modelos subyacientes

del Método lineal de Holt, podemos acabar obteniendo las ecuaciones de cada uno de

los 30 modelos totales que podemos crear. Las ecuaciones se recogen en los Cuadros

A.2 y A.3 del Apéndice A.

Page 53: Forecast de ventas - USCeio.usc.es/pub/mte/descargas/ProyectosFinMaster/Proyecto_1680.pdf · series de tiempo reales debemos seguir los siguientes pasos en la medida de lo posible:

3.5. INICIALIZACIÓN Y ESTIMACIÓN DE LOS PARÁMETROS DE UNMODELO ETS43

De forma general, podemos presentar la formulación siguiente:

xt = µt + r(vt−1)εt,

vt = f(vt−1) + g(vt−1)εt,

donde vt = (lt, bt, st, st−1, . . . , st−m+1)′, r, f y g son funciones sobre los elementos de

vt, y {εt} es ruido blanco gaussiano.

Cabe comentar que los modelos con errores multiplicativos son muy efectivos cuan-

do la serie está compuesta por datos estrictamente positivos, pero no son numérica-

mente estables cuanto aparece algún dato nulo o negativo. Es por ello que cuando

nuestra serie contiene algún dato así solo podremos aplicar los modelos con errores

aditivos.

Las predicciones puntuales que nos proporcionan estos modelos se obtienen fácil-

mente iterando sus ecuaciones explícitas para t = T + 1, . . . , T + h y �jando εT+i = 0

para todo i = 1, . . . , h. Como comentábamos antes, en la mayoría de casos estas

predicciones coincidirán con la media condicional µt(h), a excepción de aquellos con

tendencia o estacionalidad multiplicativa.

Los modelos también nos permiten obtener intervalos de predicción. Para los mo-

delos lineales, la distribución de las predicciones es claramente gaussiana, no siendo así

para aquellos no lineales. Sin embargo, como se explica en diversos textos (ver Taylor

(2003) y Hyndman et al. (2005)), para los no lineales también acaba siendo una buena

aproximación. Así, podemos calcular la varianza condicional vart(h) = Var(xt+h|vt)y obtener intervalos de predicción acorde a ella.

Un procedimiento más directo y que sí funciona con todos los modelos consiste en

simular multitud de desarrollos futuros de nuestra serie condicionados a los últimos

elementos no observables estimados, vT . Así, los intervalos de predicción se obtendrán

simplemente como los percentiles de esa simulación. De igual modo, la predicción

puntual puede ser calculada como la media de todos los valores simulados para cada

instante de tiempo futuro.

3.5. Inicialización y estimación de los parámetros de

un modelo ETS

Una vez estudiados los distintos modelos y tras seleccionar el adecuado para nues-

tro caso, para poder aplicarlos debemos estimar los parámetros que intervienen en

él (α, β, γ y φ) y también los valores iniciales necesarios para la construcción de los

métodos (v0). Empezaremos por la inicialización y luego abordaremos la estimación.

Page 54: Forecast de ventas - USCeio.usc.es/pub/mte/descargas/ProyectosFinMaster/Proyecto_1680.pdf · series de tiempo reales debemos seguir los siguientes pasos en la medida de lo posible:

44 CAPÍTULO 3. SUAVIZADO EXPONENCIAL

Inicialización

La selección de valores iniciales (v0), como ya hemos comentado anteriormente,

aunque es indispensable por la estructura del modelo, normalmente no suele ser crítica.

Existen múltiples enfoques, generalmente basados en una selección �ad hoc�, pero

también hay heurísticas elaboradas con esta �nalidad. Una de ellas es la que se recoge

en Hyndman et al. (2002), que es una de las más usadas por sus buenos resultados:

Inicialización de s0: Supongamos que tenemos una serie estacional con frecuencia

m. Lo primero que haremos será calcular un 2m-MA1 para los primeros datos

de la serie. Denotemos estos valores como ft, con t = m/2 + 1,m/2 + 2, . . . Si

la estacionalidad es aditiva, ajustaremos la serie con la transformación xt − ft,mientras que si es multiplicativa, la transformaremos mediante xt/ft. Una vez

hecho esto, calcularemos los valores iniciales s−m+1, . . . , s0 promediando los

datos transformados para cada �estación�.

Inicialización de l0: Para inicializar el nivel, realizaremos una regresión lineal de

los primeros diez valores frente a la variable temporal t = 1, . . . , 10. Para las

series estacionales, se realizará tomando la serie ajustada estacionalmente como

explicábamos arriba y, para series no estacionales, los datos originales. El valor

l0 será el intercepto de dicha regresión.

Inicialización de b0: Aprovechando la regresión anterior, si la tendencia es aditiva,

�jaremos b0 como la pendiente de dicha regresión; mientras que si la tendencia es

multiplicativa, �jaremos b0 = 1+β0/β1, siendo β0 el intercepto y β1 la pendiente

de la regresión.

Esta heurística nos permite calcular fácilmente una inicialización de las componen-

tes no observables de un modo muy intuitivo. De todos modos, estos valores iniciales

serán luego re�nados junto con la estimación de los demás parámetros del modelo,

como veremos a continuación.

Estimación

La estimación de los parámetros de nuestros modelos se hará mediante el criterio

de máxima verosimilitud. Utilizando la formulación general de las ecuaciones vistas

en la sección 3.4 se puede llegar a la expresión de la función de verosimilitud siguiente:

L∗(θ, v0) = n log(

T∑t=1

ε2t ) + 2

T∑t=1

log |r(vt−1)|.

1De�nimos la media móvil simple de orden m (m-MA) como la expresión

1

m

k∑j=−k

xt+j ,

donde m = 2k + 1.

Page 55: Forecast de ventas - USCeio.usc.es/pub/mte/descargas/ProyectosFinMaster/Proyecto_1680.pdf · series de tiempo reales debemos seguir los siguientes pasos en la medida de lo posible:

3.6. PRECISIÓN DE PRONÓSTICO 45

Así, los parámetros del modelo (recogidos en el vector θ) y los valores iniciales v0pueden ser estimados minimizando la función L∗.

Cabe destacar que otro método de estimación podría ser minimizando el error

cuadrático medio (MSE) o minimizando la varianza de los errores σ2, aunque no son

los procedimientos más habituales.

3.6. Precisión de pronóstico

Tras estimar los parámetros de nuestros modelos y seleccionar aquel que nos resulte

más adecuado bajo distintos criterios (como el AIC o el BIC), es muy interesante poder

cuanti�car la precisión de las predicciones. Este concepto ha sido muy estudiado y a

continuación presentaremos un breve resumen, pero puede ampliarse en Diebold and

Mariano (2002).

Errores absolutos

De�nimos el error absoluto de la predicción en un paso a et+1 = xt+1 − xt(1). De

forma análoga, de�nimos el error de predicción con horizonte h a et+h = xt+h− xt(h).

Cabe destacar que estos errores están en la misma escala que los datos, por lo que

la medida de ajuste que hagamos con ellos también serán dependientes de ella. Las 2

medidas más conocidas de este tipo son:

Error absoluto medio (MAE) = media(|et|), y

Error cuadrático medio (MSE) =media(e2t ).

Errores relativos

Ahora, el error relativo vendrá dado por pt = et/xt. Estos errores tienen la ventaja

de ser independientes a la escala de la serie y puede ser, por lo tanto, usado para

comparar distintas series. El método más utilizado es

Error relativo absoluto medio (MAPE) = media(|pt|).

La desventaja de este método es que no se de�ne para datos nulos de la serie y que,

además, tiene una distribución muy asimétrica para datos próximos a cero.

Errores escalados

Este método se llama Error escalado absoluto medio (MASE) y fue presentado en

Hyndman and Koehler (2006). Se de�ne como

MASE = media(|qt|),

Page 56: Forecast de ventas - USCeio.usc.es/pub/mte/descargas/ProyectosFinMaster/Proyecto_1680.pdf · series de tiempo reales debemos seguir los siguientes pasos en la medida de lo posible:

46 CAPÍTULO 3. SUAVIZADO EXPONENCIAL

donde

qt =et

1n−1

∑ni=2 |xi − xi−1|

.

Es independiente de la escala. Puede ser utilizado para comparar métodos de pre-

dicción sobre la misma serie o para comparar la precisión del pronóstico sobre series

distintas.

3.7. Aplicación del Suavizado Exponencial a los da-

tos de Estrella Galicia

En esta sección haremos una aplicación ilustrativa de los modelos ETS a los datos

de Estrella Galicia. Para hacerlo más cómodo para el lector, usaremos la misma serie

que en el caso de los modelos ARIMA: la venta mensual de cerveza en la Zona B.

Si recordamos, hemos empezado este capítulo hablando de la descomposición de

una serie. Presentamos nuestra serie de estudio en la Figura 3.2 junto con su descompo-

sición en sus componentes principales E, T y S, en su versión aditiva y multiplicativa.

Como podemos observar, la serie presenta una tendencia no lineal y una clara com-

ponente estacional, por lo que tendremos que escoger un modelo con estacionalidad

aditiva o multiplicativa.

(a) Descomposición aditiva: x = T + S + E. (b) Descomposición multiplicativa: x = T×S×E.

Figura 3.2: Descomposición de la serie de ventas mensuales de cerveza en la Zona B.

El siguiente paso es escoger un modelo adecuado. Por lo que hemos visto en la

descomposición, podemos ahorrarnos los modelos sin estacionalidad. Tras ajustarlos

uno a uno en R y recoger su AIC, los resultados que obtenemos son los mostrados en el

Page 57: Forecast de ventas - USCeio.usc.es/pub/mte/descargas/ProyectosFinMaster/Proyecto_1680.pdf · series de tiempo reales debemos seguir los siguientes pasos en la medida de lo posible:

3.7. APLICACIÓN ETS 47

Método AIC Método AIC

A,N,A 3576.221 A,A_d,M 3558.035

M,N,A 3570.915 M,A_d,M 3549.692

A,N,M 3553.889 A,M,A 3579.248

M,N,M 3545.335 M,M,A 3570.878

A,A,A 3579.001 A,M,M 3556.188

M,A,a 3563.242 M,M,M 3548.442

A,M,M 3556.188 A,M_d,A 3579.804

M,A,M 3549.373 M,M_d,A 3571.038

A,A_d,A 3579.828 A,M_d,M 3557.841

M,A_d,A 3571.461 M,M_d,M 3549.298

Cuadro 3.2: Criterio AIC de los distintos modelos ajustados sobre nuestra serie de estudio.

Cuadro 3.2. Como podemos ver en el mismo, el menor AIC se obtiene para el modelo

ETS(M,N,M), es decir, para el modelo sin tendencia, estacionalidad multiplicativa y

errores también multiplicativos:

x = T × S × E, con T de tipo �nula� .

Además, viendo la salida propia de ese ajuste, podemos ver que las estimacio-

nes de los parámetros son: α = 0,1244 y γ = 0,4946. En cuanto a los valores ini-

ciales del vector de elementos no observables, v0, se tiene que l0 = 328554 y que

(s−m+1, . . . , s0) = (1,44, 0,82, 0,92, 0,95, 1,26, 1,4, 1,12, 0,98, 0,92, 0,92, 0,75, 0,53). Fi-

nalmente, se tiene que la varianza de los errores es σ2 = 0,1279 y los criterios de

información son AIC=3545.335, AICc=3549.368 y BIC=3588.914. Una representa-

ción grá�ca de los valores que va tomando el vector vt a lo largo del tiempo se puede

ver en la Figura 3.3.

Por lo tanto, las ecuaciones explícitas de nuestro modelo que nos permitirán obte-

ner tanto las predicciones puntuales como los intervalos de predicción son las siguien-

tes:

lt = lt−1(1 + 0,1244εt),

st = st−12(1 + 0,4946εt),

µt = lt−1st−12.

Page 58: Forecast de ventas - USCeio.usc.es/pub/mte/descargas/ProyectosFinMaster/Proyecto_1680.pdf · series de tiempo reales debemos seguir los siguientes pasos en la medida de lo posible:

48 CAPÍTULO 3. SUAVIZADO EXPONENCIAL

Figura 3.3: Representación grá�ca de los valores de vt a lo largo de la serie.

Ya estamos, al �n, en condiciones de calcular las predicciones puntuales y sus

intervalos de con�anza. Si recordamos lo explicado en la sección 3.4, eso se puede

llevar a cabo asumiendo gaussianidad en los residuos o mediante un procedimiento de

simulación. El primer enfoque nos devuelve las predicciones recogidas en el Cuadro 3.3

y representadas en la Figura 3.4 . En cambio, siguiendo el segundo enfoque, obtenemos

las predicciones del Cuadro 3.4 y la Figura 3.5.

Con estos resultados hemos acabado la predicción de nuestra serie temporal. Sin

embargo, sospechamos que podríamos a�narlas un poco más. En la representación

grá�ca de la descomposición de nuestra serie de la Figura anterior 3.2, vemos que esta

tiene una tendencia cambiante a lo largo del tiempo de estudio. En 2008 empieza un

decrecimiento en la tendencia general de las ventas, muy probablemente debido a la

crisis económica en la que se vio envuelta la zona de estudio. No es hasta 2013 cuando

se empieza a apreciar una recuperación al alza en las ventas, empezando en este año

una tendencia creciente continua hasta el último año. Por todo esto, sospechamos

que si consideramos la serie temporal iniciada en 2013, la componente tendencia T

debería ser mucho más clara para nuestros ajustes pudiendo �nalmente mejorar las

predicciones futuras.

Si consideramos por tanto esta �nueva� serie, obtenemos la descomposición mos-

trada en la Figura 3.6.

Como vemos, podemos incluso considerar que en este caso la tendencia es li-

Page 59: Forecast de ventas - USCeio.usc.es/pub/mte/descargas/ProyectosFinMaster/Proyecto_1680.pdf · series de tiempo reales debemos seguir los siguientes pasos en la medida de lo posible:

3.7. APLICACIÓN ETS 49

Predic. puntual Inf 80 Sup 80 Inf 95 Sup 95

Abr 2019 337109.61 281870.63 392348.60 252628.88 421590.35

May 2019 360665.79 301103.85 420227.73 269573.66 451757.91

Jun 2019 402612.52 335610.30 469614.74 300141.46 505083.58

Jul 2019 471338.92 392303.16 550374.67 350464.17 592213.67

Ago 2019 546848.23 454464.14 639232.33 405558.95 688137.51

Sep 2019 308879.27 256312.36 361446.18 228485.12 389273.42

Oct 2019 328492.29 272180.85 384803.73 242371.37 414613.21

Nov 2019 273904.84 226614.25 321195.43 201580.12 346229.56

Dic 2019 294457.38 243258.78 345655.98 216155.87 372758.89

Ene 2020 276873.16 228396.20 325350.12 202734.05 351012.27

Feb 2020 237627.56 195735.71 279519.41 173559.51 301695.61

Mar 2020 299227.38 246117.83 352336.94 218003.32 380451.44

Cuadro 3.3: Predicciones del modelo ETS(M,N,M) siguiendo un enfoque paramétrico (gaus-

siano). La segunda columna recoge las predicciones puntuales, mientras que la tercera y

cuarta su intervalo de con�anza a un nivel del 80%, y la quinta y sexta el intervalo de con-

�anza con un nivel del 95%. Estos valores han sido transformados por un parámetro α para

respetar la con�dencialidad de los datos reales.

Figura 3.4: Representación grá�ca de las predicciones bajo un enfoque paramétrico.

Page 60: Forecast de ventas - USCeio.usc.es/pub/mte/descargas/ProyectosFinMaster/Proyecto_1680.pdf · series de tiempo reales debemos seguir los siguientes pasos en la medida de lo posible:

50 CAPÍTULO 3. SUAVIZADO EXPONENCIAL

Predic. puntual Inf 80 Sup 80 Inf 95 Sup 95

Abr 2019 337109.61 282260.25 385007.97 263826.39 435440.63

May 2019 360665.79 304345.51 414105.26 281103.15 462101.56

Jun 2019 402612.52 338173.81 461734.35 313274.10 514672.69

Jul 2019 471338.92 395680.95 539594.90 361390.13 604195.17

Ago 2019 546848.23 460073.30 629328.85 420245.46 698077.57

Sep 2019 308879.27 260089.19 357369.33 237094.23 395181.03

Oct 2019 328492.29 275727.03 379916.31 250762.87 420518.23

Nov 2019 273904.84 231309.51 316383.14 210506.47 346355.18

Dic 2019 294457.38 247587.40 342890.40 225106.79 375273.34

Ene 2020 276873.16 231648.26 320034.52 211671.93 352564.10

Feb 2020 237627.56 198727.29 276053.94 180690.45 301794.01

Mar 2020 299227.38 250215.99 349170.57 228507.92 385460.38

Cuadro 3.4: Predicciones del modelo ETS(M,N,M) siguiendo el enfoque de simulación y

bootstrap. La segunda columna recoge las predicciones puntuales, mientras que la tercera

y cuarta su intervalo de con�anza a un nivel del 80%, y la quinta y sexta el intervalo de

con�anza con nivel 95%. Estos valores han sido transformados por un parámetro α para

respetar la con�dencialidad de los datos reales.

Figura 3.5: Representación grá�ca de las predicciones bajo un enfoque de simulación y boots-

trap.

Page 61: Forecast de ventas - USCeio.usc.es/pub/mte/descargas/ProyectosFinMaster/Proyecto_1680.pdf · series de tiempo reales debemos seguir los siguientes pasos en la medida de lo posible:

3.7. APLICACIÓN ETS 51

(a) Descomposición aditiva: x = T + S + E. (b) Descomposición multiplicativa: x = T×S×E.

Figura 3.6: Descomposición de la serie de ventas mensuales de cerveza en la Zona B a partir

del año 2013.

neal. Aplicando una selección automática en R, obtenemos que el modelo más ade-

cuado para esta serie es el modelo ETS(M,M,M), es decir, x = T × S × E, con

Th = lbh. Los parámetros ajustados son α = 0,2109 y β = γ = 10−4. En cuan-

to a los valores iniciales de v0 se tiene que l0 = 288373,3674, b0 = 1,0053 y que

(s−m+1, . . . , s0)=(0,90, 0,79, 0,90, 0,93, 1,52, 1,41, 1,19, 1,02, 1,02, 0,87, 0,67, 0,78). Final-

mente, se tiene que la varianza de los errores es σ2 = 0,1016 (cuando antes era

σ2 = 0,1279) y sus criterios de información son AIC=1906.299, AICc=1917.036 y

BIC=1945.696. Una representación grá�ca de los valores que va tomando el vector vta lo largo del tiempo se puede ver en la Figura 3.7.

Por lo tanto, las ecuaciones explícitas de nuestro modelo que nos permitirán obte-

ner tanto las predicciones puntuales como los intervalos de predicción son las siguien-

tes:

lt = lt−1bt−1(1 + 0,2109εt),

bt = bt−1(1 + 10−4εt),

st = st−12(1 + 10−4εt),

µt = lt−1bt−1st−12.

Para este nuevo caso, las predicciones (con el enfoque simulación) son las mos-

Page 62: Forecast de ventas - USCeio.usc.es/pub/mte/descargas/ProyectosFinMaster/Proyecto_1680.pdf · series de tiempo reales debemos seguir los siguientes pasos en la medida de lo posible:

52 CAPÍTULO 3. SUAVIZADO EXPONENCIAL

Figura 3.7: Representación grá�ca de los valores de vt a lo largo de la serie acortada.

tradas en el Cuadro 3.5 y representadas en la Figura 3.8. Como podemos ver, las

predicciones parecen a simple vista más realistas (los picos parecen seguir mejor el

patrón al alza de los último años) y, sobretodo, los intervalos resultan ser más estre-

chos, lo que es de mucha más utilidad para la empresa.

Page 63: Forecast de ventas - USCeio.usc.es/pub/mte/descargas/ProyectosFinMaster/Proyecto_1680.pdf · series de tiempo reales debemos seguir los siguientes pasos en la medida de lo posible:

Predic. puntual Inf 80 Sup 80 Inf 95 Sup 95

Abr 2019 361456.25 317115.06 397791.71 284688.43 420234.98

May 2019 362724.10 318476.90 400224.42 289619.03 421675.31

Jun 2019 429334.19 375041.50 475203.88 341408.52 500241.46

Jul 2019 509063.05 444490.34 564019.07 403711.60 596130.41

Ago 2019 549901.16 479491.06 614031.66 436500.70 651303.20

Sep 2019 337562.10 293490.83 378356.41 267792.69 402474.13

Oct 2019 330127.84 286870.39 369892.61 260585.28 394927.22

Nov 2019 294253.47 253902.11 331527.37 231783.12 351761.71

Dic 2019 335322.46 288754.99 377230.07 264154.71 403551.74

Ene 2020 290128.39 250308.09 328026.03 227864.02 349425.70

Feb 2020 251881.22 217013.30 285182.68 197056.67 304944.06

Mar 2020 326818.91 279784.22 371741.57 251041.75 399434.08

Cuadro 3.5: Predicciones del modelo ETS(M,M,M) siguiendo el enfoque de simulación y

bootstrap. Se recoge las predicciones puntuales junto con su intervalo de con�anza a un nivel

del 80% y 95%. Estos valores han sido transformados por un parámetro α para respetar la

con�dencialidad de los datos reales.

Figura 3.8: Representación grá�ca de las predicciones bajo un enfoque de simulación y boots-

trap.

Page 64: Forecast de ventas - USCeio.usc.es/pub/mte/descargas/ProyectosFinMaster/Proyecto_1680.pdf · series de tiempo reales debemos seguir los siguientes pasos en la medida de lo posible:
Page 65: Forecast de ventas - USCeio.usc.es/pub/mte/descargas/ProyectosFinMaster/Proyecto_1680.pdf · series de tiempo reales debemos seguir los siguientes pasos en la medida de lo posible:

Capítulo 4

Modelos avanzados

4.1. Motivación

Si bien es cierto que los modelos que hemos estudiado en los capítulos anteriores

son la base de trabajo con series temporales, hemos observado que en el día a día de

nuestra cervecera pueden no ser del todo útiles. Esto se debe a dos grandes motivos.

El primero es que, por motivos de logística, la empresa está especialmente intere-

sada en la predicción a corto plazo: le sería más útil poder predecir las ventas a nivel

semanal y no tanto a nivel mensual. El problema lo encontramos en que, por la na-

turaleza de los datos, las series de ventas semanales presentan una alta volatilidad y,

aunque las predicciones puntuales pueden ser aceptables, los intervalos de con�anza

que se obtienen son demasiado amplios como para ayudar en la toma de decisiones

de la empresa. Un ejemplo de serie semanal junto con los intervalos de predicción

obtenidos para ella se ilustra en la Figura 4.1.

Para solucionar esta problemática, hemos pensado en la incorporación de cova-

riables externas como la temperatura o la presencia de días festivos, para ayudar a

explicar al menos parte de esta volatilidad. Así, sabiendo en qué condiciones se pre-

senta la semana futura, podremos ser un poco más precisos en su predicción. Para

ello, estudiaremos en la siguiente sección la regresión dinámica.

El segundo motivo por lo que debemos aportar algún modelo más avanzado que

los estudiados en los primeros capítulos es que, como podemos imaginar, Hijos de

Rivera tiene una amplia gama de productos a la venta y, cada uno de esos productos,

en formatos y dimensiones distintas. Por ejemplo, nuestra empresa vende cerveza

Estrella Galicia en botellas de vidrio de 33 cl, pero también en barriles de 5 litros; o

por ejemplo, agua Cabreiroá en botellas de plástico de 1.5 litros y en botellas de vidrio

de 50 cl. Esto hace que no sea del todo útil predecir simplemente los litros totales de un

producto que se venderán en un tiempo t, ya que la fábrica podría embotellarlos en un

55

Page 66: Forecast de ventas - USCeio.usc.es/pub/mte/descargas/ProyectosFinMaster/Proyecto_1680.pdf · series de tiempo reales debemos seguir los siguientes pasos en la medida de lo posible:

56 CAPÍTULO 4. MODELOS AVANZADOS

Figura 4.1: Serie con datos semanales de los litros totales de cerveza vendidos en formato

lata y sus predicciones para las próximas 10 semanas. Se puede observar que las predicciones

puntuales son �creibles� y aceptables, pero los intervalos de con�anza más anchos de lo que

nos gustaría. En rojo resaltamos las ventas de la primera semana de 2016 y la primera de

2018.

formato que igual no es el más demandado �nalmente (produciendo así sobrantes).

Lo ideal para la empresa sería poder desagregar los datos de ventas en función de

materiales y formatos y predecir conjuntamente dichas series.

Toda este abanico de productos hace que nuestros datos acaben presentándosenos

en estructuras de series temporales jerarquizadas o agregadas. En un primer momen-

to podemos pensar en desagregar todo lo posible los datos, considerar esas series

temporales, hacer predicciones sobre ellas y �nalmente agregar las predicciones. Sin

embargo, como cabría esperar, este enfoque acaba produciendo unas previsiones en las

series más agregadas muy elevadas, claramente irreales. Es por ello que necesitamos

un modelo que sepa trabajar con estas estructuras y dar predicciones en su conjunto.

Para ello, estudiaremos en la última sección de este capítulo las series jerarquizadas

o agregadas.

Page 67: Forecast de ventas - USCeio.usc.es/pub/mte/descargas/ProyectosFinMaster/Proyecto_1680.pdf · series de tiempo reales debemos seguir los siguientes pasos en la medida de lo posible:

4.2. REGRESIÓN DINÁMICA 57

4.2. Regresión Dinámica

Como comentábamos hace un momento, los modelos que hemos estudiado ante-

riormente nos permiten explicar los valores futuros de la serie a partir exclusivamente

de los observad0s en el pasado, pero no dan lugar a integrar información externa que

pueda ser relevante. La �nalidad de esta sección será extender los modelos ARIMA

para permitir que tengan en cuanta otras covariables.

La idea de la regresión dinámica es muy sencilla: simplemente consiste en per-

mitirles a los errores de una regresión que estén autocorrelados y ajustar dicha au-

tocorrelación mediante un modelo ARIMA. Así, si considerábamos en una regresión

clásica que la variable y venía determinada por las variables explicativas x1, . . . , xkmediante la expresión

y = β0 + β1x1 + . . .+ βkxk + ε,

ahora consideraremos que

yt = β0 + β1x1,t + . . .+ βkxk,t + ηt,

ηt v ARIMA(p, d, q)× (P,D,Q)s.

Por ejemplo, si tras hacer la regresión pertinente estudiamos sus errores y observamos

que pueden ser explicados mediante un ARMA(1, 1), el modelo que resultaría sería

yt = β0 + β1x1,t + . . .+ βkxk,t + ηt,

(1− φ1B)ηt = c+ (1 + θ1B)εt,

con β0, β1, . . . , βk, φ1 y θ1 los parámetros a estimar.

Notación 4.1. Cabe resaltar que ahora denotaremos por ηt los errores de la regresión

para resaltar la idea de que dichos errores se consideran autocorrelados, mientras que

los errores del ARIMA (que sí denotaremos con εt) son los únicos que asumimos como

ruido blanco.

Además, como se da el hecho de que la variable explicativa también viene expresada

como una serie de tiempo, puede darse el caso de que el efecto de esta se mani�este

en la variable dependiente con cierto retardo, r. Supongamos que solo tenemos una

variable explicativa, en ese caso, también podríamos considerar la regresión

yt = β0 + γ0xt + γ1xt−1 + . . .+ γrxt−r + ηt,

ηt v ARIMA(p, d, q)× (P,D,Q)s.

Page 68: Forecast de ventas - USCeio.usc.es/pub/mte/descargas/ProyectosFinMaster/Proyecto_1680.pdf · series de tiempo reales debemos seguir los siguientes pasos en la medida de lo posible:

58 CAPÍTULO 4. MODELOS AVANZADOS

Se nos presentan, por lo tanto, tres puntos clave ausentes en la regresión clásica: la

posibilidad de que los errores de la regresión ηt estén correlados, el desconocimiento

del retardo r para las variables explicativas y, por último, la posibilidad de que los

procesos (tanto la series explicativas como la serie respuesta) no sean estacionarios.

En las siguientes subsecciones estudiaremos estos puntos.

4.2.1. Relación lineal entre series de tiempo

Para estudiar el grado de existencia, o inexistencia, entre dos series de tiempo,

así como el valor del posible retardo entre ellas, empezaremos considerando unas

de�niciones previas.

De�nición 4.2. Llamamos función de covarianzas cruzadas entre las series X

e Y a la aplicación

γs,t(X,Y ) = Cov(Xs, Yt).

De�nición 4.3. Llamamos función de correlaciones cruzadas entre las series

X e Y a la aplicación

ρs,t(X,Y ) =γs,t(X,Y )

σXsσYt.

Cuando las correlaciones cruzadas solo dependen del retardo entre las variables y no

del instante inicial considerado, es decir,

ρt,t−k(X,Y ) = ρs,s−k(X,Y ), ∀t, s, k

denotaremos esta función como ρk(X,Y ) = ρt,t−k(X,Y ).

Ambas funciones miden el grado de dependencia lineal entreXs e Yt. Cabe destacar

que la función de correlaciones cruzadas carece de unidades y toma valores entre -1 y

1.

Supongamos ahora dos procesos {Xt} y {et}, ambos ruido blanco e independientesentre si, y consideremos el proceso {Yt} = β0 + β1Xt−r + et. En este caso, se tendría

que el único valor no nulo de ρk(X,Y ) se alcanzaría en k = −r. Por lo tanto, podemos

concluir que lo valores ρk(X,Y ) nos asesoran acerca de valor del retardo r.

Como ocurría con las funciones fas y fap, la función de correlaciones cruzadas

también es desconocida y debemos trabajar con su versión muestral:

ρk(X,Y ) =

∑Tt=1(xt − x)(yt−k − y)√∑T

t=1(xt − x)2√∑t

t=1(yt − y)2.

Si {Xt} e {Yt} son ruido blanco (salvo constantes) e independientes entre si, se tiene

que

ρk(X,Y ) ≈ N(

0,1√T

).

Page 69: Forecast de ventas - USCeio.usc.es/pub/mte/descargas/ProyectosFinMaster/Proyecto_1680.pdf · series de tiempo reales debemos seguir los siguientes pasos en la medida de lo posible:

4.2. REGRESIÓN DINÁMICA 59

Por lo tanto, diremos que son signi�cativamente distintas de cero si se salen de las

bandas (−1,96√

T,

1,96√T

).

Cabe destacar que si las series consideradas no son ruido blanco (o al menos una

de ellas y la otra estacionaria), se pueden deducir relaciones lineales de forma erronea.

Esto se debe a que, en tal caso, la variabilidad de los estimadores de las correlacio-

nes cruzadas puede ser muy superior a 1√T. Es por ello que debemos transformar

el proceso no estacionario en ruido blanco. A dicha transformación la llamaremos

preblanqueado.

En resumen, el proceso habitual en el estudio de la relación lineal entre series

temporales es el siguiente:

1. Transformar el proceso {Xt} en un proceso de ruido blanco {Xt} = π(B)Xt.

2. Aplicar la misma transformación al proceso {Yt} para obtener {Yt} = π(B)Yt.

3. Proponer un valor de retardo r, si para algún k se veri�ca que |ρk(X, Y )| ≥1,96/

√T . En ese caso, propondríamos la regresión

Yt = β0 + β1Xt−r + ηt.

4.2.2. Estimación de parámetros

El enfoque habitual que seguíamos en una regresión para estimar sus coe�cientes

era el de mínimos cuadrados, que consistía en minimizar la suma de los errores al

cuadrado. Ahora, si minimizamos los errores ηt ignorando sus autocorrelaciones, nos

surgirán varios problemas. El primero es que las estimaciones β0, . . . , βk dejarán de ser

verdaderamente las mejores estimaciones por haber ignorado cierta información a la

hora de su cálculo y, además, los p-valores asociados a estos coe�cientes casi siempre

serán muy pequeños, lo que les dará una importancia que probablemente no tengan

realmente (es lo conocido como regresión espuria). Otro problema que encontraremos

es que cualquier contraste estadístico que realicemos sobre el modelo será incorrecto

y, además, los valores AIC o BIC dejarán de ser una guía �able. Para evitar todo

esto, lo que se deberá hacer es minimizar la suma de cuadrados de los errores εt del

ARIMA, o bien utilizar el enfoque de máxima verosimilitud que, en la mayoría de

los casos, devolverá estimaciones parecidas.

4.2.3. Aplicación de la Regresión Dinámica a Estrella Galicia

Como comentábamos al principio del capítulo, el objetivo de este modelo era

intentar ayudar en las predicciones de ventas semanales de nuestra compañía. Tras

barajar varias posibilidades, hemos concluido que las variables exógenas que más

Page 70: Forecast de ventas - USCeio.usc.es/pub/mte/descargas/ProyectosFinMaster/Proyecto_1680.pdf · series de tiempo reales debemos seguir los siguientes pasos en la medida de lo posible:

60 CAPÍTULO 4. MODELOS AVANZADOS

sentido tiene que estudiemos son las temperaturas y la existencia de festivos en cada

semana.

Regresión Dinámica con los días festivos

Consideremos ahora el número de días laborables que tiene la semana como va-

riable factorial de nuestra regresión. Este planteamiento surgió al comprobar que las

semanas con grandes festividades como Semana Santa o el puente de la Constitución

suponían picos llamativos en las series de ventas. Sin embargo, debido a la propia

naturaleza de algunas de estas festividades que hace variar su localización en el ca-

lendario de año en año, nos resulta muy complicado recoger dichos sucesos mediante

la estacionalidad de la serie. Además, el hecho de que la propia enumeración de las

semanas varíe levemente, hace que en algunos años las ventas de la primera o última

semana sean prácticamente nulas y en otros no. Por ejemplo, el día 1 de enero de 2016

fue viernes y festivo, por lo que la primera semana de 2016 no tuvo ningún día labo-

rable y, por lo tanto, como se puede comprobar en la Figura 4.1 que presentábamos

al principio de este capítulo, las ventas de esa semana fueron nulas. Por el contrario,

el 1 de enero de 2018 fue lunes, por lo que la primera semana de 2018 tuvo 4 días

laborables y el registro de sus ventas, aunque se sitúe en un valle, está lejos del cero

(ver Figura 4.1).

Esta problemática es propia de las series con frecuencia semanal y diaria y, por

ello, se nos ha ocurrido utilizar como variable exógena el número de días laborables

que tiene cada semana. Para ilustrar este modelo, usaremos nuevamente la serie de

ventas semanales de litros de cerveza embotellados en lata.

Lo primero que haremos será comprobar que realmente hay motivos para sospe-

char de la relación entre las ventas semanales y el número de días laborables. Para

ello, recogemos el box-plot de la Figura 4.2, en el que podemos ver claramente la

diferencia en el volumen de ventas dependiendo de la cantidad de días trabajados.

Además, también podemos ajustar una regresión lineal de las ventas frente al factor

días laborables, resultando la siguiente salida:

Call:

lm(formula = ventas ~ ndias)

Residuals:

Min 1Q Median 3Q Max

-328150 -136386 -30079 129539 498839

Coefficients:

Estimate Std. Error t value Pr(>|t|)

(Intercept) 2658 128203 0.021 0.98348

Page 71: Forecast de ventas - USCeio.usc.es/pub/mte/descargas/ProyectosFinMaster/Proyecto_1680.pdf · series de tiempo reales debemos seguir los siguientes pasos en la medida de lo posible:

4.2. REGRESIÓN DINÁMICA 61

ndias1 23507 222055 0.106 0.91582

ndias3 466968 145369 3.212 0.00157 **

ndias4 590703 132149 4.470 1.42e-05 ***

ndias5 653324 129157 5.058 1.08e-06 ***

---

Signif. codes: 0 ?***? 0.001 ?**? 0.01 ?*? 0.05 ?.? 0.1 ? ? 1

Residual standard error: 181300 on 171 degrees of freedom

Multiple R-squared: 0.2065,Adjusted R-squared: 0.1879

F-statistic: 11.12 on 4 and 171 DF, p-value: 4.822e-08

Figura 4.2: Box-Plot de las ventas frente al número de días laborables de esa semana.

Hay que tener en cuenta que las observaciones utilizadas para la anterior regresión

no son independientes, por lo que el nivel de signi�cación de los coe�cientes debe

tomarse con cierta precaución. De todos modos, parece evidente que el número de

días laborables en esa semana sí afecta en las ventas totales.

Por ello, considerando los datos como series temporales, podemos calcular las co-

rrelaciones cruzadas teniendo en cuenta los posibles retardos. Como hemos comentado

Page 72: Forecast de ventas - USCeio.usc.es/pub/mte/descargas/ProyectosFinMaster/Proyecto_1680.pdf · series de tiempo reales debemos seguir los siguientes pasos en la medida de lo posible:

62 CAPÍTULO 4. MODELOS AVANZADOS

en la sección anterior, debemos cerciorarnos de que las series, en primer lugar, son

estacionarias y luego preblanquearlas. En nuestro caso, se tiene que la serie de días

laborables sí es estacionaria, pero sin embargo la de ventas no (ver Figura 4.3). Es

por ello que debemos diferenciarla y, para mantener la coherencia entre ambas series,

debemos hacer las mismas transformaciones en ambas, resultando las funciones fas

y fap que se recogen el la Figura 4.4.

Figura 4.3: Función fas de la serie de ventas y la serie de días laborables. En la primera,

tarda mucho en anularse, por lo que no la podemos considerar estacionaria.

Ahora ya sí estamos en condiciones de aplicar el preblanqueado, obteniendo la

función de correlaciones cruzadas que se muestra en la Figura 4.5. Como podemos

observar, al salirse una de ellas de las bandas, podemos concluir que sí existe co-

rrelación lineal entre las series y que además se produce instantáneamente, es de-

cir, con retardo r = 0. Por lo tanto, el modelo de regresión que proponemos es

∇(yt) = β0 + β1 · ∇(xt) + ηt, siendo yt las ventas en el instante t, xt el número de

días laborables de la semana t y ηt el error procedente de un modelo ARIMA que

debemos ajustar.

Ahora tenemos que estimar los parámetros necesarios. Para ello, calcularemos

primero la regresión lineal entre la serie diferenciada de las ventas frente a la serie

Page 73: Forecast de ventas - USCeio.usc.es/pub/mte/descargas/ProyectosFinMaster/Proyecto_1680.pdf · series de tiempo reales debemos seguir los siguientes pasos en la medida de lo posible:

4.2. REGRESIÓN DINÁMICA 63

Figura 4.4: Funciones fas y fap de la serie diferenciada de ventas y la serie diferenciada de

días laborables. En ellas se aprecia que ambas series son estacionarias..

Figura 4.5: Función de correlaciones cruzadas para las series preblanqueadas. Vemos que

para el retardo r = 0 la correlación es signi�cativamente distinta de cero.

Page 74: Forecast de ventas - USCeio.usc.es/pub/mte/descargas/ProyectosFinMaster/Proyecto_1680.pdf · series de tiempo reales debemos seguir los siguientes pasos en la medida de lo posible:

64 CAPÍTULO 4. MODELOS AVANZADOS

diferenciada de los días laborables. Luego tomaremos sus residuos y, si estos son

estacionarios y tras ajustar un modelo ARIMA para ellos el ajuste de la regresión

�nal supera el análisis de residuos, habremos terminado.

Figura 4.6: Representación grá�ca de los residuos de la regresión lineal ventas frente días

laborables.

Tras ajustar la regresión lineal entre ambas series, recogemos en la Figura 4.6

sus residuos, donde podemos intuir que, efectivamente, son estacionarios. De todos

modos, en la Figura 4.7 representamos sus funciones fas y fap y concluimos que sí

son estacionarios. Además, a la vista de esas funciones, podemos proponer un modelo

MA(1) para modelizar su proceso estocástico.

Así, ahora que ya sabemos el retardo (r = 0) y un modelo generador de nuestros

residuos (MA(1)), ya estamos en condiciones de ajustar los coe�cientes de nuestra

regresión en conjunto. Para ello, hemos utilizado la función arima() del paquete

forecast obteniendo la salida siguiente:

Coefficients:

ma1 intercept xreg

-0.4011 1262.908 102637.31

s.e. 0.0820 5166.414 10769.95

sigma^2 estimated as 1.29e+10: log likelihood=-2285.43, aic=4576.86

Page 75: Forecast de ventas - USCeio.usc.es/pub/mte/descargas/ProyectosFinMaster/Proyecto_1680.pdf · series de tiempo reales debemos seguir los siguientes pasos en la medida de lo posible:

4.2. REGRESIÓN DINÁMICA 65

Figura 4.7: Funciones fas y fap de los residuos de la regresión lineal ventas frente días

laborables.

Así, el modelo �nal que habíamos obtenido

yt − yt−1 = β0 + β1(xt − xt−1) + ηt,

ηt vMA(1).

se traduce en

yt − yt−1 = 1262,908 + 102637,31(xt − xt−1) + (1− 0,4011)εt.

Por último, no hay que olvidar checkear los test de residuos (ver Figura 4.8). En

este caso, el t-test no rechaza que la media sea nula (con un p-valor = 0.987), el test

de Jarque-Bera no rechaza asimetría (con un p-valor = 0.1575) y el test de Shapiro

no rechaza normalidad (p-valor = 0.1197). Concluimos que los test fueron superados

y que por lo tanto el modelo es válido.

Estamos ya en condiciones de calcular las predicciones futuras. Para ello, nosotros

daremos los nuevos valores para la variable explicativa y, por otro lado, los nuevos

Page 76: Forecast de ventas - USCeio.usc.es/pub/mte/descargas/ProyectosFinMaster/Proyecto_1680.pdf · series de tiempo reales debemos seguir los siguientes pasos en la medida de lo posible:

66 CAPÍTULO 4. MODELOS AVANZADOS

Figura 4.8: Representaciones grá�cas de los tests sobre los residuos del ajuste �nal.

residuos se calcularán siguiendo el modelo MA(1) que los de�ne siguiendo el procedi-

miento que hemos estudiado en el Capítulo 2. Tras calcular las predicciones en R con

un horizonte h = 5 y suponiendo que las próximas 5 semanas tienen 5 días laborables,

hemos obtenido los valores recogidos en el Cuadro 4.1 y Figura 4.9.

Figura 4.9: Representación grá�ca de las predicciones con Regresión Dinámica de las ventas

frente al número de días laborables.

Page 77: Forecast de ventas - USCeio.usc.es/pub/mte/descargas/ProyectosFinMaster/Proyecto_1680.pdf · series de tiempo reales debemos seguir los siguientes pasos en la medida de lo posible:

4.2. REGRESIÓN DINÁMICA 67

Predic. puntual Inf 80 Sup 80 Inf 95 Sup 95

29 Abr - 5 May 748117.96 616738.26 879497.67 547190.04 949045.88

6 May - 12 May 804146.41 668129.37 940163.44 596126.30 1012166.51

13 May - 19 May 642116.12 506099.08 778133.15 434096.01 850136.22

20 May - 26 May 940915.56 804898.52 1076932.59 732895.46 1148935.66

27 May - 2 Jun 753224.51 617207.48 889241.55 545204.41 961244.61

Cuadro 4.1: Predicciones para la serie de ventas con Regresión Dinámica frente a los días

laborables. Estos valores han sido transformados por un parámetro α para respetar la con-

�dencialidad de los datos reales.

Regresión Dinámica con las Temperaturas

No hace falta explicar por qué hemos considerado la temperatura como un factor

relevante en la venta de cerveza. Para estudiar su relación estadísticamente, consi-

deraremos la venta (en litros) de cerveza Estrella Galicia Especial en la delegación

de Pontevedra. Por otra parte, hemos obtenido un registro diario de la temperatura

máxima en la ciudad de Pontevedra desde la Base de Datos pública de la AEMET

y luego las hemos promediado para obtener la temperatura media semanal entre los

años 2016 y 2018. Así, obtenemos la serie de ventas y la serie de temperaturas que

mostramos en la Figura 4.10.

En los grá�cos secuenciales podemos comprobar que, a simple vista, existe cierto

paralelismo entre las temperaturas y las ventas. Además, si hacemos una regresión

simple enfrentando ambos conjuntos de datos, obtenemos la representación grá�ca de

la Figura 4.11 y la siguiente salida:

Call:

lm(formula = ventas ~ temps)

Coefficients:

Estimate Std. Error t value Pr(>|t|)

(Intercept) -8601 8088 -1.063 0.289

temps 5231 403 12.982 <2e-16 ***

---

Residual standard error: 28200 on 154 degrees of freedom

Multiple R-squared: 0.5225,Adjusted R-squared: 0.5194

F-statistic: 168.5 on 1 and 154 DF, p-value: < 2.2e-16

Page 78: Forecast de ventas - USCeio.usc.es/pub/mte/descargas/ProyectosFinMaster/Proyecto_1680.pdf · series de tiempo reales debemos seguir los siguientes pasos en la medida de lo posible:

68 CAPÍTULO 4. MODELOS AVANZADOS

Figura 4.10: Grá�cos secuenciales de las series de ventas y de temperaturas en Pontevedra.

Figura 4.11: Nube de puntos y recta de regresión lineal obtenida al enfrentar las ventas

semanales y sus temperaturas medias.

Hay que destacar que las observaciones utilizadas para esta regresión no son inde-

pendientes, por lo que el nivel de signi�cación �nal de los distintos coe�cientes debe

ser tomado con cierta prudencia. De todos modos, parece evidente que la temperatura

Page 79: Forecast de ventas - USCeio.usc.es/pub/mte/descargas/ProyectosFinMaster/Proyecto_1680.pdf · series de tiempo reales debemos seguir los siguientes pasos en la medida de lo posible:

4.2. REGRESIÓN DINÁMICA 69

en esa semana sí afecta en las ventas totales.

Pasemos, por lo tanto, a estudiar la posible existencia de correlación entre las

series. Como hemos comentado en la sección anterior, debemos trabajar con series

estacionarias y además, luego, preblanquearlas. Como podemos intuir en los grá�-

cos secuenciales de la Figura 4.10, nuestras series no son estacionarias. Además, sus

funciones fas recogidas en la Figura 4.12 nos lo con�rman. Es por ello que debe-

mos diferenciarlas, teniendo siempre en cuenta hacer las mismas transformaciones en

ambas para no perder la interpretabilidad de los resultados. Tras hacer una diferen-

ciación regular, obtenemos las fas y fap de la Figura 4.13, concluyendo así que ya

son estacionarias.

Figura 4.12: Función fas para las series de ventas y de temperaturas. Ambas tardan mucho

en anularse, por lo que concluimos que ninguna de las series es estacionaria.

Estamos en condiciones ya de efectuar el preblanqueo y calcular las correlacio-

nes cruzadas. Obtenemos el resultado mostrado en la Figura 4.14. Como podemos

observar, consideramos signi�cante la correlación con retardo r = −1. Por lo tanto,

el modelo de regresión que obtenemos es ∇(yt) = β0 + β1 · ∇(xt−1) + ηt, siendo ytlas ventas en la semana t, xt la temperartura media de esa semana y ηt el error de

la regresión explicado mediante un modelo ARIMA que tendremos que ajustar a

continuación.

Lo que debemos hacer ahora es encontrar el modelo ARIMA que se ajusta a

Page 80: Forecast de ventas - USCeio.usc.es/pub/mte/descargas/ProyectosFinMaster/Proyecto_1680.pdf · series de tiempo reales debemos seguir los siguientes pasos en la medida de lo posible:

70 CAPÍTULO 4. MODELOS AVANZADOS

Figura 4.13: Funciones fas y fap para las series diferenciadas de ventas y temperaturas.

Ambas son estacionarias.

Figura 4.14: Función de correlación para las series diferenciadas de ventas y temperaturas.

Existe corrlación lineal con retardo r = −1.

Page 81: Forecast de ventas - USCeio.usc.es/pub/mte/descargas/ProyectosFinMaster/Proyecto_1680.pdf · series de tiempo reales debemos seguir los siguientes pasos en la medida de lo posible:

4.2. REGRESIÓN DINÁMICA 71

nuestra serie de residuos {ηt}. Como podemos intuir en la Figura 4.15, dichos residuos

son estacionarios. De todos modos, la Figura 4.16 recoge sus funciones fas y fap con

las que con�rmamos que efectivamente son estacionarios y que, además, nos sirven

para proponer el modelo AR(1).

Figura 4.15: Representación grá�ca de los residuosηt de la regresión ventas frente tempera-

turas.

Figura 4.16: Funciones fas y fap de los residuosηt de la regresión ventas frente temperaturas.

Vemos que son estacionarios y que podemos proponer el modelo AR(1) como generador de

ese proceso.

Page 82: Forecast de ventas - USCeio.usc.es/pub/mte/descargas/ProyectosFinMaster/Proyecto_1680.pdf · series de tiempo reales debemos seguir los siguientes pasos en la medida de lo posible:

72 CAPÍTULO 4. MODELOS AVANZADOS

Así, una vez conocido el retardo (r = −1) y propuesto un modelo AR(1) para los

residuos, debemos ajustar en conjunto los coe�cientes de nuestra regresión. Para ello,

utilizamos la función arima() del paquete forecast, obteniendo la salida siguiente:

Call:

arima(x = diff(serie_ventas), order = c(1, 0, 0), xreg = diff(serie_temps))

Coefficients:

ar1 intercept xreg

-0.4381 -266.891 1422.4466

s.e. 0.0786 1369.128 669.8395

sigma^2 estimated as 598210896: log likelihood = -1786.27, aic = 3578.55

Así, el modelo �nal que habíamos propuesto

∇(yt) = β0 + β1 · ∇(xt−1) + ηt,

ηt v AR(1).

se traduce en

yt − yt−1 = −266,891 + 1422,4466(xt−1 − xt−2) + ηt,

(1− φ1B)ηt = εt.

Por último, no hay que olvidar de checkear que los residuos �nales {εt} efectiva-mente son ruido blanco (ver Figura 4.17). El t-test no rechaza que la media sea nula

(con un p-valor = 0.9136), el test de Jarque-Bera no rechaza asimetría (con un p-valor

= 0.1575) y el test de Shapiro no rechaza normalidad (p-valor =0.365). Concluimos

que los tests fueron superados y que por lo tanto el modelo es válido.

Pasamos ya, por lo tanto, a calcular las predicciones. Para ello� como ya hemos

explicado en el caso del número de días laborables, nosotros daremos los nuevos valores

para la variable explicativa y, por otro lado, los nuevos residuos se calcularán siguiendo

el modelo AR(1) que los de�ne siguiendo el procedimiento que hemos estudiado en el

Capítulo 2. Tras calcular las predicciones en R con un horizonte h = 5 y suponiendo

que las temperaturas de las siguientes semanas han sido (14,3, 14,3, 12,3, 12,9, 11,9),

hemos obtenido los valores recogidos en el Cuadro 4.2 y Figura 4.18.

Page 83: Forecast de ventas - USCeio.usc.es/pub/mte/descargas/ProyectosFinMaster/Proyecto_1680.pdf · series de tiempo reales debemos seguir los siguientes pasos en la medida de lo posible:

4.2. REGRESIÓN DINÁMICA 73

Figura 4.17: Representación grá�ca de los test sobre los residuos del ajuste �nal.

Figura 4.18: Representación grá�ca de las predicciones con Regresión Dinámica de las ventas

frente a las temperaturas.

Page 84: Forecast de ventas - USCeio.usc.es/pub/mte/descargas/ProyectosFinMaster/Proyecto_1680.pdf · series de tiempo reales debemos seguir los siguientes pasos en la medida de lo posible:

74 CAPÍTULO 4. MODELOS AVANZADOS

Point Forecast Lo 80 Hi 80 Lo 95 Hi 95

29 Abr - 5 May 111672.12 94737.06 128607.18 85772.18 137572.05

6 May - 12 May 59090.65 40999.87 77181.43 31423.19 86758.11

13 May - 19 May 42100.72 23852.71 60348.73 14192.80 70008.64

20 May - 26 May 42873.42 24603.33 61143.51 14931.73 70815.12

27 May - 2 Jun 45676.88 27403.67 63950.09 17730.42 73623.34

Cuadro 4.2: Predicciones con Regresión Dinámica de las ventas frente a las temperaturas.

Estos valores han sido transformados por un parámetro α para respetar la con�dencialidad

de los datos reales.

Page 85: Forecast de ventas - USCeio.usc.es/pub/mte/descargas/ProyectosFinMaster/Proyecto_1680.pdf · series de tiempo reales debemos seguir los siguientes pasos en la medida de lo posible:

4.3. SERIES JERARQUIZADAS 75

4.3. Series jerarquizadas

Como hemos explicado al inicio de este capítulo, por la estructura de mercado de

nuestra empresa, las series de tiempo a menudo se pueden desagregar por distintos

atributos, como la familia (cerveza, agua, vino, etc.), la marca (Estrella Galicia, 1906,

etc.), el formato (lata, barril,vidrio, etc.) , el envase (0.3l, 0.5l, 5l, etc) o incluso la

zona geográ�ca. Esto hace que nuestras series sigan una estructura de agregación

jerárquica.

En esta sección estudiaremos, siguiendo de cerca Hyndman and Athanasopoulos

(2018), la predicción de grandes colecciones de series de tiempo que deben agregarse

de algún modo. El objetivo de los métodos que veremos a continuación es que sus

predicciones sean coherentes con la estructura jerárquica, es decir, que las predicciones

resultantes tras la agregación sean realistas y �ables en cada nivel de la estructura

jerárquica.

Empecemos modelando matemáticamente una estructura jerárquica, para luego

poder de�nir claramente nuestro método de predicción. Lo haremos todo basado en

el ejemplo de la Figura 4.19, donde se presenta una estructura jerárquica con dos

niveles, k = 2. En la parte superior de la jerarquía, que llamaremos nivel 0, está el

�total� y se corresponde con el nivel más agregado de los datos. Denotaremos por xta la observación de la serie total en el instante t. Luego, siguiendo con el ejemplo

ilustrado, la serie total se desagrega en el nivel 1 en dos series distintas (A y B) que,

a su vez, se desagregan en el nivel 2 en tres y dos series, respectivamente. Por debajo

de nivel superior (nivel 0) denotaremos por xj,t la observación de la serie del nodo j

en el instante t. Por último, denotaremos con la letra n el número total de series de

nuestra estructura (en el ejemplo, n = 8) y con la letra m el número de series en el

nivel más bajo de la estructura (en este caso, m = 5).

Total

A

AA AB AC

B

BA BB

Figura 4.19: Diagrama de ejemplo de una jerarquía de series temporales.

Así, para todo instante t, se tiene la relación:

xt = xAA,t + xAB,t + xAC,t + xBA,t + xBB,t,

Page 86: Forecast de ventas - USCeio.usc.es/pub/mte/descargas/ProyectosFinMaster/Proyecto_1680.pdf · series de tiempo reales debemos seguir los siguientes pasos en la medida de lo posible:

76 CAPÍTULO 4. MODELOS AVANZADOS

y

xA,t = xAA,t + xAB,t + xAC,t y xB,t = +xBA,t + xBB,t.

Equivalentemente, aunque más cómodo para representaciones generales futuras,

la relaciones anteriores se pueden expresar matricialmente como sigue

xt

xA,t

xB.t

xAA,t

xAB,t

xAC,t

xBA,t

xBB,t

=

1 1 1 1 1

1 1 1 0 0

0 0 0 1 1

1 0 0 0 0

0 1 0 0 0

0 0 1 0 0

0 0 0 1 0

0 0 0 0 1

xAA,t

xAB,t

xAC.t

xBA,t

xBB,t

o, abreviadamente,

xt = Sbt,

siendo xt el vector n-dimensional de todas las observaciones jerárquicas en el instante

t y S la matriz n×m que de�ne la relación entre las distintas series.

Una vez de�nida la estructura de nuestras series, pasamos a la predicción de las

mismas. Esto lo podemos llevar a cabo siguiendo varios enfoques que presentamos a

continuación.

4.3.1. Enfoque �Bottom-up�

Este enfoque, como su nombre indica, consiste en generar en un primer momento

las predicciones en cada una de las series del nivel más bajo y luego ir sumándolas

para obtener las predicciones de todas las series de los demás niveles. En nuestro

ejemplo guía, consistiría en predecir las observaciones con origen T y horizonte h:

xAA,T (h), xAB,T (h), xAC,T (h), xBA,T (h) y xBB,T (h). Así, para los niveles superiores

Page 87: Forecast de ventas - USCeio.usc.es/pub/mte/descargas/ProyectosFinMaster/Proyecto_1680.pdf · series de tiempo reales debemos seguir los siguientes pasos en la medida de lo posible:

4.3. SERIES JERARQUIZADAS 77

tendríamos:

xA,T (h) = xAA,T (h) + xAB,T (h) + xAC,T (h),

xB,T (h) = xBA,T (h) + xBB,T (h), y

xT (h) = xA,T (h) + xB,T (h).

Equivalentemente, en forma matricial, se tendría

xT (h)

xA,T (h)

xB.T (h)

xAA,T (h)

xAB,T (h)

xAC,T (h)

xBA,T (h)

xBB,T (h)

=

1 1 1 1 1

1 1 1 0 0

0 0 0 1 1

1 0 0 0 0

0 1 0 0 0

0 0 1 0 0

0 0 0 1 0

0 0 0 0 1

xAA,T (h)

xAB,T (h)

xAC.T (h)

xBA,T (h)

xBB,T (h)

,

también escrito

xT (h) = SbT (h).

Notación 4.4. Nótese que ahora distinguimos la notación entre las predicciones

�base� (las que han sido calculadas en un primer momento) mediante el símbolo x , y

las predicciones �coherentes� obtenidas a partir de las anteriores mediante la notación

x.

Una ventaja de este enfoque es que predice a partir del nivel más bajo de la estruc-

tura jerárquica, lo que permite que no se pierda información al hacer la agregación.

Sin embargo, y como veremos más adelante con un ejemplo práctico con datos reales,

los niveles más bajos son bastante ruidosos, por lo que su estimación se di�culta y la

estimación �nal global acaba disparándose.

4.3.2. Enfoque �Top-down�

A diferencia del anterior enfoque, como se deduce por su nombre, ahora las pri-

meras predicciones se harán sobre la serie �total� del nivel 0 y, en función de una serie

Page 88: Forecast de ventas - USCeio.usc.es/pub/mte/descargas/ProyectosFinMaster/Proyecto_1680.pdf · series de tiempo reales debemos seguir los siguientes pasos en la medida de lo posible:

78 CAPÍTULO 4. MODELOS AVANZADOS

de pesos, se repartirá la predicción puntual de cada instante t entre las series de los

niveles inferiores. Sea p = (p1, . . . , pm)′ el vector de pesos que tiene cada una de las

series desagregadas en la serie total. En nuestro ejemplo de la Figura 4.19, se tendría

que

xAA,T (h) = p1xT (h),

xAB,T (h) = p2xT (h),

xAC,T (h) = p3xT (h),

xBA,T (h) = p4xT (h),

xBB,T (h) = p5xT (h).

Matricialmente, seguiríamos la expresión

xT (h) = SpxT (h).

Lo importante en este enfoque es calcular los pesos que recibirá cada una de las

series. Para ello, existen tres métodos distintos.

Proporciones históricas medias

Es el cálculo más intuitivo de los tres. Consiste en calcular qué proporción del

total ha supuesto cada una de las series en cada instante t. Así,

pi =1

T

T∑t=1

xi,txt

,

con i = 1, . . . ,m y t = 1, . . . , T .

Proporciones de las medias históricas

En el caso anterior promediábamos la proporción que ha supuesto una serie des-

agregada en la serie total a lo largo de los tiempos t. Ahora, lo que haremos será

calcular la media histórica de cada serie y ver qué proporción supone sobre la media

histórica de la serie total. Así,

pi =

∑Tt=1

xi,tT∑T

t=1xtT

,

con i = 1, . . . ,m.

Page 89: Forecast de ventas - USCeio.usc.es/pub/mte/descargas/ProyectosFinMaster/Proyecto_1680.pdf · series de tiempo reales debemos seguir los siguientes pasos en la medida de lo posible:

4.3. SERIES JERARQUIZADAS 79

Proporciones estimadas

Los dos anteriores métodos utilizan el histórico para obtener una proporción, pero

sin tener en cuenta cómo estas van evolucionando a lo largo del tiempo. Esto hace que

el enfoque �top-down� realice predicciones menos precisas en los niveles más bajos que

el enfoque �bottom-up�. Para solucionar esto, se pueden utilizar proporciones basadas

en pronósticos en lugar de datos históricos. El siguiente método fue propuesto en

Athanasopoulos et al. (2009).

Consideremos el primer nivel de la jerarquía. En primer lugar calcularemos las pre-

dicciones con horizonte h para todas las series de este nivel, pero no las sumaremos

ya que su agregación no será coherente. A estas predicciones las llamaremos �predic-

ciones iniciales�. Lo que haremos con ellas será calcular la proporción que suponen

sobre el total agregado de las predicciones iniciales de ese nivel. A esto lo llamaremos

�proporciones estimadas� y las usaremos para desagregar las estimaciones iniciales en

sus subniveles y obtener predicciones en la totalidad de la jerarquía. Así, podemos

de�nir la proporción estimada de la serie j-ésima del nivel K como

pj =

K−1∏l=0

x(l)j,h

S(l+1)j,h

,

donde j = 1, . . . ,m, x(l)j,h es la predicción inicial con horizonte h de la serie que está l

niveles por encima de j y S(l+1)j,h es la suma de las predicciones iniciales con horizonte

h de todas las series que están por debajo y directamente conectadas a la serie que

está l niveles por encima de j.

4.3.3. Enfoque �Middle-out�

Este último enfoque combina técnicas del enfoque ascendente y descendente an-

terior. Empieza escogiendo un �nivel medio� para el que se calculan las predicciones

iniciales de sus series y, luego, para las series de niveles superiores, se generan pre-

dicciones coherentes utilizando el enfoque �bottom-up� y para las series de los nive-

les inferiores se generan con el enfoque �top-down�. La implementación de R con el

paquete forecast realiza la desagregación para niveles inferiores con el método de

proporciones estimadas.

4.3.4. Aplicación de las series jerárquicas a Estrella Galicia

Para ilustrar este modelo, hemos considerado las ventas totales en litros de cer-

veza que vende nuestra compañía. Nuevamente, por con�dencialidad, hemos decidido

no mencionar los nombres reales de los componentes en los que se desagregará la

jerarquía. Como podemos ver en la Figura 4.20, los litros totales vendidos los distin-

guiremos, en primer lugar, en función de la marca de la cerveza (distinguiremos entre

Page 90: Forecast de ventas - USCeio.usc.es/pub/mte/descargas/ProyectosFinMaster/Proyecto_1680.pdf · series de tiempo reales debemos seguir los siguientes pasos en la medida de lo posible:

80 CAPÍTULO 4. MODELOS AVANZADOS

la Marca 1, Marca 2 y Marca 3) y, para cada una de ellas, los formatos en los que

fueron vendidas (recordemos que siguiendo la nomenclatura de las Bases de Datos de

la empresa, el formato denota si fue vendido en �Barril�, �Lata�, �Vidrio retornable�,

etc.). Consideraremos, por tanto, hasta cinco tipos distintos de formatos en nuestra

jerarquía: Formato A, Formato B, Formato C, Formato D y Formato E.

Cerveza

Marca 1

1A 1B 1C 1D 1E

Marca 2

2A 2B 2C 2D

Marca 3

3A 3B 3C

Figura 4.20: Árbol jerárquico que representa la estructura de agregación de nuestras series.

Por lo tanto, una vez clara la estructura, bastará con de�nir las series del nivel

más bajo para luego, aplicando la función hts del paquete homónimo de R, obtener

predicciones coherentes para toda la jerarquía.

Cabe destacar que, al igual que hay que seleccionar una metodología de agregación

y desagregación de las predicciones (lo que hemos comentado en las subsecciones

anteriores), también deberemos escoger un modelo para calcular las predicciones base

iniciales. Para ello tenemos dos opciones, las presentadas en los anteriores capítulos de

este trabajo: los modelos ARIMA y los modelos ETS.Tras hacer distintas pruebas,

como estamos trabajando con un ejemplo muy simpli�cado de la estructura real de la

empresa, no hemos apreciado diferencia relevante entre la utilización de un método u

otro para la agregación y desagregación de nuestra jerarquía, pero sí en la utilización

de modelos ARIMA o ETS para el cálculo de las predicciones base.

En la Figura 4.21, se muestran los resultados obtenidos tras la predicción realizada

con el enfoque �top-down� y modelos ETS. En la Figura 4.22, se representan las

calculadas con el enfoque �top-down� y modelos ARIMA. Como podemos observar,

los modelos ARIMA devuelven predicciones más realistas. Las predicciones obtenidas

para las series más desagregadas son las mostradas en el Cuadro 4.3 y para tener las de

las series más agregadas bastaría con sumar como corresponde, pues sus predicciones

ya han sido calculadas de forma que las agregaciones sean coherentes.

Page 91: Forecast de ventas - USCeio.usc.es/pub/mte/descargas/ProyectosFinMaster/Proyecto_1680.pdf · series de tiempo reales debemos seguir los siguientes pasos en la medida de lo posible:

4.3. SERIES JERARQUIZADAS 81

Figura 4.21: Predicciones jerárquicas mediante el método �top-down� y los modelos ETS.

Figura 4.22: Predicciones jerárquicas mediante el método �top-down� y los modelos ARIMA.

Page 92: Forecast de ventas - USCeio.usc.es/pub/mte/descargas/ProyectosFinMaster/Proyecto_1680.pdf · series de tiempo reales debemos seguir los siguientes pasos en la medida de lo posible:

82 CAPÍTULO 4. MODELOS AVANZADOS

1A 1B 1C 1D 1E

2019-15 22724.62 58538.73 115923.11 135403.96 100368.12

2019-16 22025.32 58927.59 119686.25 138134.07 95683.68

2019-17 23749.12 61407.78 141647.41 144325.00 117533.49

2019-18 23703.87 61595.73 126146.64 130312.07 114834.02

2019-19 23844.96 64933.93 134675.59 142896.85 97670.95

2019-20 22695.76 60590.61 127780.59 134090.33 103622.64

2019-21 23164.08 68817.77 131208.08 144472.47 105952.88

2019-22 22302.05 62774.74 133460.55 133101.37 107710.89

2A 2B 2C 2D 3A 3B 3C

2019-15 3977.28 15099.12 13023.18 26680.75 3785.44 12173.95 8149.48

2019-16 4857.65 15798.72 14488.07 26088.60 4132.29 12594.40 7511.74

2019-17 5769.67 17154.15 15149.60 27939.66 3986.80 15389.34 8401.33

2019-18 3982.95 15336.94 13509.06 27449.87 4136.95 14248.26 8707.53

2019-19 4561.90 16518.09 15236.53 24190.74 4108.44 15239.48 7981.89

2019-20 5375.96 15199.00 14131.54 26619.52 3913.62 13868.67 8501.70

2019-21 4643.56 16034.43 15025.11 25918.35 4502.11 13764.84 8739.77

2019-22 4685.67 15528.33 13971.78 26385.01 3901.20 13963.65 8938.00

ç

Cuadro 4.3: Predicciones puntuales coherentes para las series del nivel más desagregado de

la jerarquía. Estos valores han sido transformados por un parámetro α para respetar la

con�dencialidad de los datos reales.

Page 93: Forecast de ventas - USCeio.usc.es/pub/mte/descargas/ProyectosFinMaster/Proyecto_1680.pdf · series de tiempo reales debemos seguir los siguientes pasos en la medida de lo posible:

Capítulo 5

Implementación y conclusiones

Tras todo lo estudiado en los capítulos anteriores, hemos llegado al punto �nal en

el que debemos escoger el mejor enfoque de predicción para implementar en Estrella

Galicia. Como hemos comentado anteriormente, está especialmente interesada en la

predicción a corto plazo (diaria o semanalmente), por lo que la idea de limitarnos a

los métodos clásicos como los modelos ARIMA o los modelos ETS no es su�ciente

para nuestra cervecera debido a varios motivos.

Por una parte, las series semanales y diarias han empezado a presentar una vola-

tilidad muy considerable en los últimos años, lo que hace difícil a estos modelos,

por sí solos, aportar intervalos de con�anza lo su�cientemente ajustados como

para ser útiles en la toma de decisión de la empresa. Esto, sumado al concep-

to de estructura jerárquica que tiene nuestra empresa, hace que si calculamos

las predicciones �nales como una simple agregación de las predicciones base,

las últimas acaben siendo mucho más elevadas de lo que cabría esperar, debido

justamente a la suma de error acumulado en cada predicción base.

Por otra parte, como es común en el estudio de series temporales semanales y

diarias, es muy complicado que la estacionalidad sea capaz de recoger ciertos

factores clave decisivo en las ventas. Como hemos comentado en el capítulo

anterior, el cambio de fecha continuo de algunas festividades como Semana Santa

o la posición en el día de la semana de otras como Fin de año, hace que las ventas

de esas semanas varíen considerablemente y que no se repita un patrón continuo

año tras año.

Es por ello que hemos considerado modelos más complejos como las Series Jerár-

quicas o la Regresión Dinámica. El problema que nos hemos encontrado a la hora de

implementar la Regresión Dinámica, es que tendríamos que disponer de una base de

datos lo su�cientemente extensa, tanto en histórico como en localizaciones geográ�-

83

Page 94: Forecast de ventas - USCeio.usc.es/pub/mte/descargas/ProyectosFinMaster/Proyecto_1680.pdf · series de tiempo reales debemos seguir los siguientes pasos en la medida de lo posible:

84 CAPÍTULO 5. IMPLEMENTACIÓN Y CONCLUSIONES

cas, como para poder realizar una regresión sobre nuestro registro de ventas y, luego,

que se actualizase casi a diario para poder hacer unas predicciones a corto plazo.

Pero disponer de una base de datos sobre las temperaturas no es el único punto

crítico de este enfoque. Algo muy importante a tener en cuenta sobre los datos dis-

ponibles en Estrella Galicia es que las ventas no son a nivel consumidor, sino a nivel

de fábrica. El nivel más bajo que queda registrado es el del proveedor local (o cadena

de supermercados) al que se ha efectuado la venta, proveedor o cadena que luego se

encargará de distribuir la mercancía a los bares o supermercados que se lo soliciten. Es

por ello que si queremos considerar un modelo con temperaturas, lo más preciso sería

considerar las temperaturas por localidad, pero a este nivel las series acaban siendo

picos seguidos de muchos ceros: el proveedor se aprovisiona con la mercancía (regis-

tramos una venta y se produce un pico en la serie) y luego lo va distribuyendo entre

sus clientes en los días o semanas siguientes (distribución de la que no disponemos de

información y, por lo tanto, para nosotros suponen ceros en la serie de ventas). Esto

hace inviable la utilización, a nivel local, de un modelo como la Regresión Dinámica

que enfrente ventas con temperaturas. Por lo tanto, tendríamos que considerar, por

ejemplo, las ventas a nivel de Delegación, con la pérdida de información en que eso

supone, pues empezaríamos a tener que considerar la temperatura media entre zonas

con registros que pueden ser bastante distintos.

Por todo esto, hemos considerado que la mejor opción es la implementación de una

estructura jerárquica que nos permita calcular unas predicciones puntuales �ables y,

además, a todos los niveles en los que la empresa está interesada.

La estructura que �nalmente hemos implementado es la siguiente:

Nivel k = 0: En el nivel más alto y agregado, tendremos los litros totales de cerveza

en general.

Nivel k = 1: En el primer nivel de la jerarquía tendremos las distintas marcas de

cerveza que gestiona la cervecera: Estrella Galicia, 1906, Estrella Galicia Light,

Estrella Galicia Pilsen, Estrella Galicia 0,0 y Shandy Estrella Galicia.

Nivel k = 2: En el segundo nivel distinguiremos, dentro de cada marca, los formatos

en los que fueron vendidos los litros de cerveza. En la globalidad de este nivel

encontraremos los nodos: Barril, Barril no retornable, Box, Lata, Tanque, Vidrio

no retornable y Vidrio retornable.

Nivel k = 3: Finalmente, en el nivel más bajo de la jerarquía, posicionaremos el

material en el que fue embotellada la cerveza. En total, en este nivel tendremos

más de 150 nodos. Algunos ejemplos pueden ser: �EG BARRIL 50 L�, �1906 NR

24 LATA PACK 33CL�, �SHANDY 24B 4X6 PACK 25CL�, etc.

Por motivos de con�dencialidad, no enseñaremos el código, ya que es difícil no

mostrar cierta información interna, pero sí explicaremos brevemente el esqueleto de

la implementación:

Page 95: Forecast de ventas - USCeio.usc.es/pub/mte/descargas/ProyectosFinMaster/Proyecto_1680.pdf · series de tiempo reales debemos seguir los siguientes pasos en la medida de lo posible:

85

1. La información de entrada consistirá en un archivo .csv, generado con SQL en

conexión con las Bases de Datos de Estrella Galicia, que recogerá el registro en

bruto de todas las ventas de cerveza en litros.

2. Dicho archivo de entrada será tratado mediante el script de python etl.py.

En él, se recogerá la información de entrada y se transformará para adaptarla

al modelo que luego queremos aplicar. Por ejemplo, para que nuestro modelo

jerárquico sea consistente, es necesario que todas las series tengan la misma

longitud y estén de�nidas en el mismo período temporal. Sin embargo, en el

histórico de ventas podemos apreciar como no todas las semanas se venden

todos los materiales, esto genera que las series no tengan la misma longitud y

que tengamos que �rellenarlas�.

3. Una vez tratados nuestros datos y almacenados de forma cómoda para su ex-

plotación, elaboramos el script de R, llamado modelo.R, que recogerá nuestras

series y calculará las predicciones de forma coherente siguiendo los parámetros

que el usuario haya escogido. Por defecto, hemos decidido que el �método jerár-

quico� sea el Middle-out, que el �método individual� sean los modelos ARIMA

y que el horizonte de predicción sea h = 8. Una vez haya acabado de predecir,

los resultados se escribirán en el �chero predicciones_borrador.txt.

4. Finalmente, la tabla con las predicciones puntuales que nos devuelve R tendre-

mos que transformarla para adaptarla nuevamente a la estructura de las Bases

de Datos de la empresa. En concreto, lo que haremos con el script de python

escritura_final.py será recuperar los códigos originales de marca, formato y

material de cada producto y escribir cada combinación al lado de sus prediccio-

nes correspondientes, quedando así listo el archivo predicciones_ok.txt para

el uso de la empresa.

Page 96: Forecast de ventas - USCeio.usc.es/pub/mte/descargas/ProyectosFinMaster/Proyecto_1680.pdf · series de tiempo reales debemos seguir los siguientes pasos en la medida de lo posible:
Page 97: Forecast de ventas - USCeio.usc.es/pub/mte/descargas/ProyectosFinMaster/Proyecto_1680.pdf · series de tiempo reales debemos seguir los siguientes pasos en la medida de lo posible:

Apéndice A

Tablas recopilatorias de los

modelos ETS

87

Page 98: Forecast de ventas - USCeio.usc.es/pub/mte/descargas/ProyectosFinMaster/Proyecto_1680.pdf · series de tiempo reales debemos seguir los siguientes pasos en la medida de lo posible:

88 APÉNDICE A. TABLAS RECOPILATORIAS DE LOS MODELOS ETS

Trend

Seasonal

NA

M

N

` t=αxt

+(1−α

)`t−

1` t

(xt−s t−m

)+

(1−α

)`t−

1` t

=α( x t s t−

m

) +(1−α

)`t−

1

s t=γ

(xt−` t−1)

+(1−γ

)st−m

s t=γ( x t ` t−

1

) +(1−γ

)st−m

xt+h|t

=` t

xt+h|t

=` t

+s t−m

+h+ m

xt+h|t

=` ts t−m

+h+ m

A

` t=αxt

+(1−α

)(` t−1

+b t−1)

` t=α

(xt−s t−m

)+

(1−α

)(` t−1

+b t−1)

` t=α( x t s t−

m

) +(1−α

)(` t−1

+b t−1)

b t=β

(`t−` t−1)

+(1−β

)bt−

1b t

(`t−` t−1)

+(1−β

)bt−

1b t

(`t−` t−1)

+(1−β

)bt−

1

s t=γ

(xt−` t−1−b t−1)

+(1−γ

)st−m

s t=γ(

xt

` t−

1+bt−

1

) +(1−γ

)st−m

xt+h|t

=` t

+hb t

xt+h|t

=` t

+hb t

+s t−m

+h+ m

xt+h|t

=(`t

+hb t

)st−m

+h+ m

Ad

` t=αxt

+(1−α

)(` t−1

+φb t−1)

` t=α

(xt−s t−m

)+

(1−α

)(` t−1

+φb t−1)

` t=α( x t s t−

m

) +(1−α

)(` t−1

+φb t−1)

b t=β

(`t−` t−1)

+(1−β

)φb t−1

b t=β

(`t−` t−1)

+(1−β

)φb t−1

b t=β

(`t−` t−1)

+(1−β

)φb t−1

s t=γ

(xt−` t−1−φb t−1)

+(1−γ

)st−m

s t=γ(

xt

` t−

1+φbt−

1

) +(1−γ

)st−m

xt+h|t

=` t

+φhb t

xt+h|t

=` t

+φhb t

+s t−m

+h+ m

xt+h|t

=(`t

+φhb t

)st−m

+h+ m

M

` t=αxt

+(1−α

)(` t−1b t−1)

` t=α

(xt−s t−m

)+

(1−α

)(` t−1b t−1)

` t=α( x t s t−

m

) +(1−α

)(` t−1b t−1)

b t=β

(` t` t

−1)

+(1−β

)bt−

1b t

(` t` t

−1)

+(1−β

)bt−

1b t

(` t` t

−1)

+(1−β

)bt−

1

s t=γ

(xt−` t−1b t−1)

+(1−γ

)st−m

s t=γ(

xt

` t−

1bt−

1

) +(1−γ

)st−m

xt+h|t

=` tbh t

xt+h|t

=` tbh t

+s t−m

+h+ m

xt+h|t

=` tbh ts t−m

+h+ m

Md

` t=αxt

+(1−α

)(` t−1bφ t−1)

` t=α

(xt−s t−m

)+

(1−α

)(` t−1bφ t−1)

` t=α( x t s t−

m

) +(1−α

)(` t−1bφ t−1)

b t=β

(` t` t

−1)

+(1−β

)bφ t−

1b t

(` t` t

−1)

+(1−β

)bφ t−

1b t

(` t` t

−1)

+(1−β

)bφ t−

1

s t=γ

(xt−` t−1bφ t−1)

+(1−γ

)st−m

s t=γ

(xt

` t−

1bφ t−

1

) +(1−γ

)st−m

xt+h|t

=` tbφht

xt+h|t

=` tbφht

+s t−m

+h+ m

xt+h|t

=` tbφhts t−m

+h+ m

Cuadro A.1: Fórmulas para el cálculo recursivo de las predicciones puntuales de todos los

métodos.

Page 99: Forecast de ventas - USCeio.usc.es/pub/mte/descargas/ProyectosFinMaster/Proyecto_1680.pdf · series de tiempo reales debemos seguir los siguientes pasos en la medida de lo posible:

89

Trend

Seasonal

NA

M

N

µt

=` t−1

µt

=` t−1

+s t−m

µt

=` t−1s t−m

` t=` t−1

+αε t

` t=` t−1

+αε t

` t=` t−1

εt

st−m

s t=s t−m

+γε t

s t=s t−m

εt

` t−

1

A

µt

=` t−1

+b t−1

µt

=` t−1

+b t−1

+s t−m

µt

=(`t−

1+b t−1)st−m

` t=` t−1

+b t−1

+αε t

` t=` t−1

+b t−1

+αε t

` t=` t−1

+b t−1

εt

st−m

b t=b t−1

+βε t

b t=b t−1

+βε t

b t=b t−1

εt

st−m

s t=s t−m

+γε t

s t=s t−m

εt

` t−

1+bt−

1

Ad

µt

=` t−1

+φb t−1

µt

=` t−1

+φb t−1

+s t−m

µt

=(`t−

1+φb t−1)st−m

` t=` t−1

+φb t−1

+αε t

` t=` t−1

+φb t−1

+αε t

` t=` t−1

+φb t−1

εt

st−m

b t=φb t−1

+βε t

b t=φb t−1

+βε t

b t=φb t−1

εt

st−m

s t=s t−m

+γε t

s t=s t−m

εt

` t−

1+φbt−

1

M

µt

=` t−1b t−1

µt

=` t−1b t−1

+s t−m

µt

=` t−1b t−1s t−m

` t=` t−1b t−1

+αε t

` t=` t−1b t−1

+αε t

` t=` t−1b t−1

εt

st−m

b t=b t−1

εt

` t−

1b t

=b t−1

εt

` t−

1b t

=b t−1

εt

st−m` t

−1

s t=s t−m

+γε t

s t=s t−m

εt

` t−

1bt−

1

Md

µt

=` t−1bφ t−1

µt

=` t−1bφ t−1

+s t−m

µt

=` t−1bφ t−1s t−m

` t=` t−1bφ t−1

+αε t

` t=` t−1bφ t−1

+αε t

` t=` t−1bφ t−1

εt

st−m

b t=bφ t−1

εt

` t−

1b t

=bφ t−1

εt

` t−

1b t

=bφ t−1

εt

st−m` t

−1

s t=s t−m

+γε t

s t=s t−m

εt

` t−

1bφ t−

1

Cuadro A.2: Fórmulas para todos los modelos ETS con errores aditivos.

Page 100: Forecast de ventas - USCeio.usc.es/pub/mte/descargas/ProyectosFinMaster/Proyecto_1680.pdf · series de tiempo reales debemos seguir los siguientes pasos en la medida de lo posible:

90 APÉNDICE A. TABLAS RECOPILATORIAS DE LOS MODELOS ETS

Trend

Seasonal

NA

M

N

µt

=` t−1

µt

=` t−1

+s t−m

µt

=` t−1s t−m

` t=` t−1(1

+αε t

)` t

=` t−1

(`t−

1+s t−m

)εt

` t=` t−1(1

+αε t

)

s t=s t−m

(`t−

1+s t−m

)εt

s t=s t−m

(1+γε t

)

A

µt

=` t−1

+b t−1

µt

=` t−1

+b t−1

+s t−m

µt

=(`t−

1+b t−1)st−m

` t=

(`t−

1+b t−1)(

1+αε t

)` t

=` t−1

+b t−1

(`t−

1+b t−1

+s t−m

)εt

` t=

(`t−

1+b t−1)(

1+αε t

)

b t=b t−1

(`t−

1+b t−1)εt

b t=b t−1

(`t−

1+b t−1

+s t−m

)εt

b t=b t−1

(`t−

1+b t−1)εt

s t=s t−m

(`t−

1+b t−1

+s t−m

)εt

s t=s t−m

(1+γε t

)

Ad

µt

=` t−1

+φb t−1

µt

=` t−1

+φb t−1

+s t−m

µt

=(`t−

1+φb t−1)st−m

` t=

(`t−

1+φb t−1)(

1+αε t

)` t

=` t−1

+φb t−1

(`t−

1+φb t−1

+s t−m

)εt

` t=

(`t−

1+φb t−1)(

1+αε t

)

b t=φb t−1

(`t−

1+φb t−1)εt

b t=φb t−1

(`t−

1+φb t−1

+s t−m

)εt

b t=φb t−1

(`t−

1+φb t−1)εt

s t=s t−m

(`t−

1+φb t−1

+s t−m

)εt

s t=s t−m

(1+γε t

)

M

µt

=` t−1b t−1

µt

=` t−1b t−1

+s t−m

µt

=` t−1b t−1s t−m

` t=` t−1b t−1

+(1

+αε t

)` t

=` t−1b t−1

(`t−

1b t−1

+s t−m

)εt

` t=` t−1b t−1

+(1

+αε t

)

b t=b t−1

+(1

+βε t

)b t

=b t−1

(`t−

1bt−

1+st−m)εt

` t−

1b t

=b t−1

+(1

+βε t

)

s t=s t−m

(`t−

1b t−1

+s t−m

)εt

s t=s t−m

(1+γε t

)

Md

µt

=` t−1bφ t−1

µt

=` t−1bφ t−1

+s t−m

µt

=` t−1bφ t−1s t−m

` t=` t−1bφ t−1

+(1

+αε t

)` t

=` t−1bφ t−1

(`t−

1bφ t−1

+s t−m

)εt

` t=` t−1bφ t−1

+(1

+αε t

)

b t=bφ t−1

+(1

+βε t

)b t

=bφ t−1

(`t−

1bφ t−

1+st−m)εt

` t−

1b t

=bφ t−1

+(1

+βε t

)

s t=s t−m

(`t−

1bφ t−1

+s t−m

)εt

s t=s t−m

(1+γε t

)

Cuadro A.3: Fórmulas para todos los modelos ETS con errores multiplicativos.

Page 101: Forecast de ventas - USCeio.usc.es/pub/mte/descargas/ProyectosFinMaster/Proyecto_1680.pdf · series de tiempo reales debemos seguir los siguientes pasos en la medida de lo posible:

Bibliografía

Aneiros, G. (2017/2018). Series de tiempo. Apuntes de la materia.

Athanasopoulos, G., Ahmed, R. A., and Hyndman, R. J. (2009). Hierarchical forecasts

for australian domestic tourism. International Journal of Forecasting, 25(1):146�

166.

Box, G. E. and Cox, D. R. (1964). An analysis of transformations. Journal of the

Royal Statistical Society: Series B (Methodological), 26(2):211�243.

Diebold, F. X. and Mariano, R. S. (2002). Comparing predictive accuracy. Journal

of Business & economic statistics, 20(1):134�144.

Hyndman, R., Koehler, A. B., Ord, J. K., and Snyder, R. D. (2008). Forecasting

with exponential smoothing: the state space approach. Springer Science & Business

Media.

Hyndman, R. J. and Athanasopoulos, G. (2018). Forecasting: principles and practice.

OTexts.

Hyndman, R. J. and Koehler, A. B. (2006). Another look at measures of forecast

accuracy. International journal of forecasting, 22(4):679�688.

Hyndman, R. J., Koehler, A. B., Ord, J. K., and Snyder, R. D. (2005). Prediction

intervals for exponential smoothing using two new classes of state space models.

Journal of Forecasting, 24(1):17�37.

Hyndman, R. J., Koehler, A. B., Snyder, R. D., and Grose, S. (2002). A state space

framework for automatic forecasting using exponential smoothing methods. Inter-

national Journal of forecasting, 18(3):439�454.

Taylor, J. W. (2003). Exponential smoothing with a damped multiplicative trend.

International journal of Forecasting, 19(4):715�725.

Velasco, M. G. and del Puerto García, I. M. (2009). Series temporales. Universidad

de Extremadura, Servicio de Publicaciones.

91