Download - Riesgos en Toma de Decisiones
Gestión Integral de
Riesgos en Toma de
Decisiones
Fernando Jáuregui Puertas
Instructor CRM
OBJETIVO
“Si oigo algo lo olvido.
Si lo veo lo entiendo.
Si lo hago lo aprendo”. Confucio (551-478 A.C)
CONSIDERA TODOS LOS RIESGOS DE SUS PROYECTOS Y DECISIONES? … O
SOLO SE ENCUENTRA ENFOCADO EN RESULTADOS?...
Muchas Veces Resulta Difícil Entender Lo Que Es El Riesgo Y Mucho Más, Cuantificarlo
Conceptos Básicos
• Curva de campana (Cantidades que ocurren normalmente)
• 3 condiciones:
– El valor más esperado
– Simetría
– Más posiblemente cerca del promedio que lejos
• Ejemplos:
– Retorno de un portafolio
de inversiones
– Comportamiento de
un proceso
Distribución Normal
• Alargada positivamente
• 3 condiciones:
– No puede ir debajo de cero, pero puede llegar hasta +
infinito
– El log natural da una curva normal
– Alargada positivamente
Ejemplos:
– Precio de acciones
– Tiempo de reparación
Distribución Lognormal
• Extremadamente flexible, pero menos precisa que la distribución
normal
• 3 condiciones:
– Fijar el mínimo
– Fijar el máximo
– Fijar el valor
más probable
• Es la mejor en
ausencia de datos
Distribución Triangular
Distribución PERT
• Los valores situados entre el más probable y los extremos tienen
más probabilidades de producirse que en la distribución triangular;
es decir, los extremos no tienen tanto peso.
• 3 condiciones:
- Fijar el mínimo
- Fijar el máximo
-Fijar el valor más probable
• Ejemplo: Variables en el proceso
de evaluación de un proyecto
de Inversión
• Es mejor cuando faltan datos
• 3 condiciones:
– Fijar el valor mínimo
– Fijar el valor máximo
– Igual nivel entre
ambos valores
• Ejemplos:
– Fugas en una tubería
– Corte de Fibras
Distribución Uniforme
Criterios de Evaluación de proyectos
Son utilizados para saber si se debe realizar un proyecto de Inversión. Estos criterios son: - Valor Actual Neto - Tasa interna de retorno - Relación Costo beneficio - Periodo de recuperación de la inversión - Costo Anual Equivalente
Valor Actual Neto (VAN)
Considera de manera explícita el valor del dinero en el tiempo, descontando los flujos de efectivo a una tasa de descuento. El VAN representa la riqueza adicional que se consigue con el proyecto sobre la mejor alternativa.
El criterio de decisión:
Si VAN es mayor que cero, aceptar el proyecto
Si VAN es menor que cero, rechazar el proyecto
Si VAN es igual a cero, es indiferente
Valor Actual Neto (VAN)
0
( )
1
nt
tt
E FCVAN
r
El valor futuro corresponde a los flujos de caja futuros del negocio o Proyecto, pero los flujos de caja son inciertos, luego debemos descontar los flujos de caja esperados.
Como el flujo de caja ocurre en períodos de tiempo futuros, debemos localizarlos en el mismo instante de tiempo.
Tiempo
Como los flujos de caja son inciertos, los inversionistas demandan mayores retornos a una tasa de descuento.
Riesgo
OB
JE
TIV
O
1 0 1 2 3 4 5 n
INVERSION FLUJO DE EFECTIVO
FLUJO DE CAJA
2
Valor Actual Neto (VAN)
-
01 1
nt
tt
VAN FCI
COK
Io
Io
VPN>0
VPN<0
Valor Actual Neto (VAN)
Tasa interna de Retorno Modificada (TIRM)
Mientras que la tasa interna de retorno (TIR) asume los flujos de efectivo de un proyecto se
reinvierten a la TIR, la TIR modificada (TIRM) asume que los flujos de caja positivos se
reinvierten en el coste del capital de la empresa, y los desembolsos iniciales son
financiados por el coste de financiación de la empresa. Por lo tanto, TIRM refleja con mayor
precisión el coste y la rentabilidad de un proyecto.
La fórmula para TIRM es:
( )1
( )n
VF flujos de caja positivosTIRM
VP Inversiones
Tasa interna de Retorno Modificada (TIRM)
Veamos un ejemplo para el siguiente proyecto que tiene los siguientes flujos de caja:
Donde: COK=10%
Obtenemos:
0 1 2 3
-1200 1000 500 100
COK 10.00%
TIR 22.79%
Tasa interna de Retorno Modificada (TIRM)
3
18601200 15.73%
1TIRM
TIRM
Entonces, la manera de calcular la TIRM es:
Se puede ver aquí que la TIRM 15.73% es significativamente más baja que la TIR del
22.79%. En este caso, la TIR da una imagen demasiado optimista de las posibilidades del
proyecto, mientras que la TIRM da una evaluación más realista del mismo.
Índice de Rentabilidad (IR)
Un índice que trata de identificar la relación entre los costos y beneficios de un proyecto
propuesto por el uso de una proporción calculada como:
Una proporción de 1 es lógicamente la medida más baja aceptable en el índice. Cualquier
valor inferior a 1,0 indicaría que el valor presente de los flujos de caja futuros del proyecto
es inferior a la inversión inicial.
Un aumento en los valores del índice de rentabilidad, también aumenta el atractivo
financiero del proyecto propuesto.
1
0
1
nt
tt
IR
FC
COK
I
Inclusión de riesgos en la evaluación de Decisiones
Cuáles son sus similitudes y diferencias?
No existe el riesgo si no hay incertidumbre!
Riesgo e Incertidumbre
Riesgo e Incertidumbre
Al considerar el riesgo se suelen distinguir dos casos: El riesgo propiamente dicho: Se refiere a situaciones en las que se conoce la probabilidad de ocurrencia de un evento particular. Por ejemplo, la probabilidad de que en una determinada zona caiga granizo. La incertidumbre: Se refiere a situaciones en las que no se conoce la probabilidad de ocurrencia. Por ejemplo, es difícil conocer la probabilidad de que aparezca una nueva tecnología para producir cierto bien.
Riesgo e Incertidumbre
INCERTIDUMBRE
(?)
EXPOSICIÓN
($)
RIESGO
Obj.: Medir la Incertidumbre Obj.: Medir la Exposición
- Aplicación del Cálculo Estocástico - Determinar las relaciones entre las variables de riesgo.
- Análisis de Sensibilidad.
La condición en que existe la posibilidad de que un evento ocurra e impacte negativamente
sobre los objetivos de la empresa. Lo opuesto se llama suerte.
Para que un evento incierto sea considerado riesgoso debe tener :
• Probabilidad de Ocurrencia
• Severidad de Pérdida
¿Qué es el Riesgo?
Gestión Financiera y Gestión de Riesgos
¿Cómo medir el Riesgo? Algunos aspectos a considerar …
• Definiciones operativas:
– Dispersión de los posibles resultados
– Probabilidad de no alcanzar el resultado deseado
– Probabilidad de tener pérdidas
– Desbalance en los resultados esperados
• Medidas numéricas de riesgo:
– Desviación estándar (cuadrática) respecto a la media
– Desviación absoluta (lineal) respecto a la media
– Cuantiles estimados
– Momentos superiores: asimetría, curtosis
• Objetivo: cifras que tengan valor intuitivo
Cuantiles Estimados
• Fortalezas
– Medida de probabilidad empírica: altamente intuitiva
– Uso de un criterio asimétrico de comparación de rendimientos
• Debilidades
– Cálculo manual
– Sensibilidad a errores ante probabilidades puntuales no nulas (en distribuciones
discretas)
Asimetría
W
)σ
rr(
T
1WTt
3t
La Asimetría mide la desviación de una distribución, es decir, la distribución
está orientada hacia un lado o el otro. La media es siempre desviada hacia la
cola de la distribución mientras que la mediana permanece constante.
Curtosis
W
)σ
rr(
T
1WTt
4t
La Curtosis mide las probabilidades de eventos extremos, pérdidas
catastróficas (por ejemplo, Sep 11, caída del mercado de acciones).
Riesgo Simétrico versus Riesgo Asimétrico
• Algunas medidas de riesgo simétrico:
– Desviación estándar y varianza
– Desviación absoluta respecto a la media
• Algunas medidas de riesgo asimétrico:
– Semidesviación estándar
– Probabilidades empíricas de pérdida
Riesgo Simétrico versus Riesgo Asimétrico
Distribución asimétrica hacia ganancias
Resultado esperado
Distribución asimétrica hacia pérdidas
Riesgo Simétrico versus Riesgo Asimétrico
Distribución asimétrica
hacia ganancias
Resultado esperado
Distribución asimétrica
hacia pérdidas
• Ambas tienen el mismo riesgo
simétrico
• Los indicadores asimétricos
identifican la segunda
distribución de resultados
como más riesgosa que la
primera
Análisis de riesgos usando Simulación de Montecarlo
Análisis de Riesgo por Simulación
Cuando nos enfrentamos a situaciones sobre la que no es posible obtener una
información satisfactoria o es muy costosa su investigación, es posible la
operación de diseñar un proceso y una realidad mediante la simulación.
Así, los modelos de simulación pretenden representar una realidad de una
manera simplificada, recogiendo las relaciones o leyes que se consideran
fundamentales y, por consiguiente, determinantes de la realidad a simular.
Matemáticamente, una simulación consiste en operar con un modelo numérico
que representa la estructura de un proceso dinámico a través del cual se
realizan experimentos sobre x número de hipótesis.
Método de Simulación de Monte Carlo
El MÉTODO DE MONTE CARLO (propuesto por J. Von Neumann y S. Ulam)
es una técnica de selección de números aleatorios a través de una o más
distribuciones de probabilidad, para utilizarlas en una simulación.
En un Monte Carlo, el muestreo artificial o simulado trata de crear un universo
teórico descrito completamente por una LEY DE PROBABILIDAD que se
supone conocida o adecuada. Posteriormente, de este universo se obtiene una
MUESTRA aleatoria mediante una sucesión de números aleatorios.
¿ Qué es una Simulación de Monte Carlo ?
Una simulación Monte Carlo en su forma más simple es un generador de
números aleatorios que es útil para análisis de pronóstico, estimación, y riesgo.
Una simulación de este tipo calcula numerosos contextos o escenarios de un
modelo al escoger repetidamente valores de una distribución de probabilidad
de un usuario predefinido para las variables inciertas y usando esos valores
como insumo para el modelo. Ya que todos esos contextos producen resultados
asociados en un modelo, donde cada contexto puede tener un pronóstico. Los
pronósticos son eventos (usualmente con fórmulas o funciones) que usted define
como salidas importantes del modelo.
Estás usualmente son eventos tales como totales, ganancia neta, o gasto bruto.
Principales Variables Independientes
En este contexto, Hertz (1964 y 1968) incorpora el análisis de riesgo en las decisiones de inversión de la empresa. Para ello, utiliza el Método de Monte Carlo para obtener el valor medio más probable y la dispersión de un proyecto de inversión. Es importante determinar cuáles serán nuestras variables fundamentales que nos ayudarán a definir el problema. Hertz considera nueve factores clasificados en tres categorías:
Tamaño de Mercado
Precios de Venta
Crecimiento del Mercado
Cuota del Mercado
Costos Variables
Costos Fijos
Vida Útil de la Inversión
Análisis de Mercados
Costos Fijos y Variables
Costo de la Inversión Inversión Requerida
Valor residual de la Inversión
Esquema: Simulación de Monte Carlo
Unit Sales 10
Sales Price 10.00$
Total Revenue 100.00$
Variable Cost/Unit 5.50$
Total Variable Cost 55.00$
Total Fixed Cost 20.00$
Total Cost 75.00$
Net Revenue 25.00$
PRODUCT PROFORMA
Empieza aquí: Genera un número
al azar (entre 0 y 1)
Recalcula el modelo y
registra el resultado de la
simulación para este
intento
Convierte el número
al azar en un valor
de muestra
Transforma la Distribución de
Probabilidad acumulada en
Distribución de Probabilidad
Introduce el valor de
muestra al modelo
de transformación
Genera el siguiente número
al azar (entre 0 y 1 )
Distribuciones de Probabilidad de los Flujos de Caja
En un modelo de incertidumbre, el VAN puede considerarse una variable
aleatoria. Por tanto, la suma de variables independientes, según el Teorema
Central de Límite, tiende a seguir una distribución normal cuando el número de
sumandos tiende a ∞.
En la práctica, la convergencia de este teorema es eficiente y consistente, y por
ello, podemos aventurarnos a decir que una variable aleatoria como el VAN
puede aproximarse a una normal cuando el número de sumandos es ≥10.
Pasos para efectuar una simulación
1.Desarrollo de un perfil de simulación en Excel con RS
2.Definición de suposiciones para las variables aleatorias.
3.Definición de las variables de decisión (optimización).
4.Definición de las celdas de predicción, esto es, las variables de salida de interés.
5. Correr la simulación.
6. Interpretar y analizar los resultados.
Empezando a usar el Risk Simulator
Veamos el siguiente ejemplo
Ilustraremos el manejo del Risk Simulator para el análisis de riesgos, usando el siguiente ejemplo de un proyecto privado: La empresa de confecciones Jeans S.A. Considera un proyecto de inversión para una nueva planta de confecciones en el cono norte de Lima, cuyas ventas se estiman en 30,000 unidades anuales durante los siguientes 5 años, con un precio de venta por unidad de S/.75 y un costo variable unitario de S/.25. Se estima un costo fijo de S/. 630,000. La inversión inicial fue de S/. 2´800,000. La tasa de descuento que se utiliza es de 15% anual, con un horizonte de 10 años y un valor residual de S/. 350,000. Se pide calcular los indicadores de rentabilidad del Proyecto de Inversión, así como también realizar el análisis de riesgos correspondiente.
Datos
Datos Esperado
Volumen de ventas en unidades 30,000
Precio Unitario 75
Costo Unitario 25
Costo Fijo 630,000
Valor Residual 350,000
Inversion 2,800,000
COK 15%
Los Datos a usar en el ejemplo se resumen en la siguiente tabla, donde para los tres primeros se conocen sus valores para los escenarios bajo, medio y alto.
Escenarios
Bajo Medio Alto
27,000 30,000 39,000
65 75 90
20 25 35
Nuestro Modelo
Definimos las relaciones existentes entre las variables del Modelo, en nuestro caso, se calcula el flujo de caja futuro del proyecto de Inversión, para el cálculo de los Indicadores de Rentabilidad.
Empezando un nuevo perfil de Simulación
Para empezar una nueva simulación, primero se necesitará crear un perfil de simulación.
Un perfil de simulación contiene un conjunto completo de instrucciones de cómo le
gustaría correr la simulación, es decir, todos los supuestos, pronósticos, correr
preferencias, y así sucesivamente.
Título de la Simulación
Ingresar número deseado de intentos de simulación
Seleccionar si desea que las correlaciones sean consideradas en la simulación.
Seleccionar si desea detener la simulación cuando se encuentre un error.
Seleccione e ingrese un valor de capital si quiere que la simulación siga una secuencia de número aleatorio específico (no está activado inicialmente)
Por qué usar Valores Semilla para simulación?
• Configurar el mismo valor semilla (mismo numero aleatorio de valor secuencial) en una
simulación siempre obtendrá los mismo resultados, asumiendo que el numero de
intentos es el mismo y que el modelo con los supuestos relevantes y pronósticos son
los mismos.
• Como la simulación se basa en generadores de números aleatorios, los resultados no
siempre serán exactamente iguales. Esto puede crear problemas cuando se hacen
presentaciones (las diapositivas muestran resultados diferentes a los obtenidos en la
simulación en vivo) . Por lo tanto, configurar valores semilla garantizará que hayan los
mismos resultados.
• La verdadera aleatoriedad de una simulación no esta restringida por agregar un valor
semilla. La simulación entera aún es aleatoria.
• No es necesario probar diferentes valores semilla y volver a ejecutar la simulación. Si
se desea, es una mejor aproximación realizar un bootstrap no paramétrico, donde hay
múltiples simulaciones concurrentes y las estadísticas resultantes de cada simulación
con diferentes valores semilla serán compiladas.
Definimos Supuestos de Entrada
En este caso las variables tienen una distribución triangular.
Definimos Pronósticos de Salida
El siguiente paso es definir pronósticos de salida en el modelo.
Gráfica de Pronóstico
La gráfica de pronóstico es un histograma de probabilidad que muestra los cálculos de frecuencia de valores ocurridos en el número total de intentos simulados. Las barras verticales muestran la frecuencia de un valor x particular ocurriendo en un número total de intentos, mientras la frecuencia acumulada (línea uniforme) muestra el total de probabilidades de todos los valores en y debajo de x ocurridos en el pronóstico.
Estadísticas de Pronóstico
Las estadísticas de pronóstico resumen la distribución de los valores de pronóstico en términos de los cuatro momentos de una
distribución.
Usar gráficas de pronóstico para Intervalos de Confianza
Dentro de la Evaluación
Económica de Proyectos de
Inversión, un tema importante
siempre ha sido el garantizar
que el VAN sea mayor o igual
a cero, dado que esto
garantizaría que el proyecto
es factible de ejecutarse.
En este caso, calculamos la
probabilidad de que el VAN
sea mayor a Cero, y
obtenemos una Certeza del
98% de que esto suceda. Nos Indica: VAN ≥ 0
• La simulación Bootstrap estima la confiabilidad o precisión de los pronósticos estadísticos o muestras de datos sin procesar. La simulación Bootstrap puede ser usada para responder una gran cantidad de preguntas sobre confianza y precisión en las simulaciones. Por ejemplo supongamos un modelo idéntico (con supuestos idénticos y pronósticos pero sin ninguna semilla aleatoria) que está corriendo para 100 personas diferentes, cuyos resultados serán claramente ligeramente diferentes. La pregunta es, si nosotros recolectamos todas las estadísticas de estas 100 personas, como será distribuida la media, o la mediana, o la asimetría o excesos de curtosis? Suponga que una persona tiene un valor medio de 1.50 mientras otro 1.52. Son estos dos valores estadística y significativamente diferentes uno del otro o son ellos estadísticamente similares y la pequeña diferencia es debido totalmente a una aleatoriedad fortuita? Que pasa con 1.53? Entonces, cuan lejos es suficientemente lejos para decir que los valores son estadísticamente diferentes? Adicionalmente, si en los resultados de un modelo la simetría es -0.19 es esta distribución pronosticada negativamente asimétrica o es estadísticamente suficientemente cercana a cero para concluir que esta distribución es simétrica y no asimétrica?
Simulación Bootstrap No Paramétrica
• Si nosotros sacamos este pronóstico 100 veces, i.e., correr una simulación de prueba 1,000 por 100 veces y recolectamos 100 coeficientes de asimetría, la asimetría de la distribución podría indicar que tan lejos está cero de –0.19. si el 90% de confianza en la distribución asimétrica bootstrapped contiene el valor cero, entonces podríamos concluir que con un nivel de confianza del 90%, esta distribución es simétrica y no asimétrica. Y que el valor–0.19 es estadísticamente suficientemente cercano a cero. De otro lado, si cero cae fuera de esta área de confianza del 90%, entonces esta distribución es negativamente asimétrica. El mismo análisis puede ser aplicado a los excesos de curtosis y otras estadísticas.
Simulación Bootstrap No Paramétrica
• Esencialmente la simulación bootstrap es una herramienta de prueba de hipótesis. Los métodos clásicos usados en el pasado confiaban en las fórmulas matemáticas para describir la procesión de muestras estadísticas. Estos métodos asumen que la distribución de una muestra estadística se aproxima a una distribución normal haciendo relativamente fácil el cálculo del error estándar o el intervalo de confianza. Ahora, cuando una distribución no está normalmente distribuida o fácilmente encontrada, estos métodos clásicos son difíciles de usar. En contraste, el análisis bootstrapping estudia las muestras estadísticas empíricamente. Repitiendo las muestras de los datos y creando distribuciones de los diferentes estadísticos para cada muestra. Los métodos clásicos de prueba de hipótesis están disponibles en Risk Simulator y serán explicados en la siguiente sección. Los métodos clásicos ofrecen alto poder en las pruebas pero confían en los supuestos de normalidad y pueden ser usados únicamente para probar la media y varianza de una distribución, en comparación con la simulación bootstrap que ofrece menor poder pero es no paramétrica y distribution-free, y puede ser usada para probar cualquier estadístico distribucional. .
Simulación Bootstrap No Paramétrica
Para realizar una prueba de hipotesis, ejecute una simulacion y luego haga clic sobre el icono de Bootstrap o en Simulador de Riesgo | Herramientas | Simulación No Paramétrica. Seleccione el pronóstico deseado, las estadísticas que desea probar, el numero de intentos bootstrap y ejecute el análisis.
Ejecutar una Simulación Bootstrap No Paramétrica
Los resultados bootstrap son un conjunto de diagramas de pronósticos de cada estadística que usted seleccionó. Utilizando estos diagramas, usted puede determinar los intervalos de confianza de cada estadística y realizar pruebas de hipótesis.
Interpretación de una Simulación Bootstrap No Paramétrica
Análisis Tornado y Araña
Las Tablas Tornado y Araña ayudan
a identificar los factores críticos de
éxito del resultado de una celda para
poder identificar las entradas y
simularlas.
Las variables críticas identificadas
que son inciertas son las únicas que
no deben ser simuladas. No pierda
su tiempo simulando variables que
puedan ser inciertas o tienen poco
impacto en los resultados.
Análisis Tornado
Una Tabla Tornado organiza todas
las entradas que le dan forma al
modelo, empezando con la variable
de entrada que tiene el impacto más
grande sobre los resultados. La tabla
se obtiene afectando cada dato
ingresado precedente en un rango
consistente (por ejemplo, ±10% del
caso base) una a la vez, y
comparando sus resultados con el
caso base.
Tabla Araña
Una Tabla Araña, como su nombre lo
indica, se asemeja a una araña con
un cuerpo central y varias piernas
saliendo de ella. La pendiente
positiva indica una relación positiva,
mientras que una pendiente negativa
indica una relación negativa entre las
variables relacionadas. Por lo tanto,
las tablas arañas pueden utilizarse
para visualizar relaciones lineales y
no lineales.
Análisis de Sensibilidad
Las tablas de Sensibilidad son
perturbaciones dinámicas
creadas después de una
simulación. Las tablas de
Sensibilidad son perturbaciones
dinámicas en el sentido de que
múltiples supuestos son
impactadas simultáneamente y
sus interacciones son
capturadas en las fluctuaciones
de los resultados.
Análisis de Sensibilidad
Las tablas de Correlación No
Lineal de Rango, indican los
rangos que tienen las
correlaciones entre cada
supuesto y el pronóstico
objetivo
Comparación de los perfiles Rentabilidad / Riesgo
Al presentar los perfiles de rentabilidad/riesgo en un sólo gráfico, podemos
comparar las diferentes estrategias y seleccionar la más deseable. Sin embargo,
el problema es determinar cuál es más conveniente para el decisor.
Cuando comparamos las curvas de rentabilidad/riesgo existen tres casos
posibles:
• Que exista una dominación determinística.
• Que exista una dominación estocástica.
• Que no exista ningún tipo de dominación.
Dominación Determinística
En la siguiente figura, la
estrategia B domina
determinísticamente a la
estrategia A, porque el VPN más
bajo posible en la estrategia B es
mayor que el valor más alto
posible en la A. Es claro que el
decisor siempre preferirá la
estrategia B a la A, porque no
existe un solo escenario en el
cual la estrategia A tenga un
resultado mejor que la estrategia
B.
Dominación Estocástica
Dominación Estocástica
El segundo caso lo ilustra la figura anterior, donde la estrategia D domina estocásticamente
a la estrategia C porque hay una mayor probabilidad de exceder cualquier valor del VPN
con D del que hay con C; es decir, para un valor de X, la probabilidad de que la estrategia D
produzca un VPN en exceso de X, es mayor que en la estrategia C. Como consecuencia, un
decisor que prefiera más rentabilidad elegirá la estrategia D, dado que dicha estrategia tiene
una probabilidad mayor de generar una rentabilidad más alta que C. Por ejemplo, para el
valor de $0.5 millones, la probabilidad de que la estrategia D produzca un VPN en exceso
de $0.5 millones es 0.8 (1 - 0.2), que es mayor a la de la estrategia C, que sólo es 0.1.
A pesar de que la dominación estocástica es positiva, no garantiza que la estrategia D sea
mejor que la C en cada escenario posible. Para un escenario en particular –es decir, para
una combinación específica de los valores de las variables aleatorias– es posible que la
estrategia C tenga un VPN mayor que el de la estrategia D. Sin embargo, en general, la
estrategia D es superior.
Es claro que si existe una dominación estocástica entre estrategias no habrá necesidad de
investigar las preferencias del decisor con respecto al riesgo, pues él racionalmente
eliminará las alternativas dominadas.
Ningún tipo de Dominación
Si no existe dominación estocástica, las distribuciones de probabilidades acumuladas de
las estrategias se cruzarán y será más difícil hacer una afirmación definitiva de cuál es la
mejor estrategia.
Por ejemplo, las distribuciones de las estrategias E y F, que se muestran en la figura
siguiente, representan una situación muy común: la estrategia E tiene menor riesgo
(probabilidad de obtener un VPN negativo), pero también tiene menos posibilidades de
generar valores altos.
Con la estrategia F existe una probabilidad del 25% de lograr un VPN mayor al máximo
valor que se generaría con la estrategia E. La preferencia entre estas estrategias depende
de la actitud del decisor con respecto al riesgo: ¿está el decisor dispuesto a aceptar el
mayor riesgo de F por la posibilidad de generar un VPN mayor?
Ningún tipo de Dominación
Proyección de Variables
Qué es Pronosticar ?
Hay una preocupación por conocer lo que va a
suceder en el futuro, dado que permite adaptar
las acciones presentes a posibles resultados
esperados o no deseables.
Predecir anticipadamente el futuro de los
aspectos de cada proyecto que tienen
incertidumbre, a través de la medición de
variables económicas, utilizando las
herramientas apropiadas para cada variable,
escenario o proyecto, las cuales pueden ser
cualitativas o cuantitativas
Componentes de una serie de Tiempo
Veamos un ejemplo:
La series X t muestra la cantidad de pasajeros de líneas aéreas en España de Enero de
1949 a Diciembre de 1960.
La serie muestra: Tendencia y Estacionalidad
Componentes de una serie de Tiempo
Los componentes de esta serie son:
Pronóstico de Series de Tiempo
Los ocho modelos más comunes de Series de Tiempo, segregados por estacionalidad y
tendencias se listan abajo. Por ejemplo, si la variable de datos no tiene tendencia o
estacionalidad. Entonces un modelo sencillo de promedios móviles o un modelo “single
exponential-smoothing” pueden ser suficientes.
Desde luego, si la estacionalidad existe pero no está presente una tendencia, un modelo
“Aditivo Estacional” o “Multiplicativo Estacional” podría ser mejor.
Suavizamiento
Exponencial Simple
Aditivo Estacional
Multiplicatvo
Estacional
Aditivo Holt-Winter's
Multiplicativo Holt-
Winter's
Sin
Te
nd
en
cia
Co
n T
en
de
nc
ia
No Estacionalidad Con Estacionalidad
Promedio Movil Simple
Promedio Movil Doble
Suavizamiento
Exponencial Doble
Pronóstico de Series de Tiempo
Simulador de Riesgo| Pronóstico | Análisis de Series de Tiempo.
1. Abra o escriba algunos datos históricos
2. Inicie el Análisis de Series de tiempo
3. Usted puede seleccionar cualquiera de los 8 métodos a escoger o escoger “Modelo de Selección Automática” para que el software encuentre el modelo que mas se ajuste.
5. Entre el número deseado de periodos a pronosticar
4. Si usted escoge “Modelo de Selección Automática” o cualquier modelo con un componente de estacionalidad, entre el número de estaciones por ciclo.
6. Si existe un perfil de Simulación, usted puede chequear esta opción y los resultados del pronóstico tendrán supuestos predefinidos en ellas.
Pronóstico de Series de Tiempo
Alfa 0.2429 Alfa 0.2217
Beta 1.0000 Beta 1.0000
Gamma 0.7797 Gamma 1.0000
Estacionalidad 4 Estacionalidad 4
RMSE 71.8132 RMSE 92.4240
MSE 5157.1348 MSE 8542.1969
MAD 53.4071 MAD 74.0883
MAPE 4.50% MAPE 5.38%
U de Theil 0.3054 U de Theil 0.3424
Alfa 0.7195 Alfa 0.6882
Gamma 1.0000 Gamma 1.0000
Estacionalidad 4 Estacionalidad 4
RMSE 152.3492 RMSE 182.4348
MSE 23210.2897 MSE 33282.4687
MAD 126.6442 MAD 161.1926
MAPE 9.01% MAPE 10.62%
U de Theil 0.4908 U de Theil 0.5607
Alfa 0.1160 4
Beta 1.0000 RMSE 272.7573
RMSE 223.6280 MSE 74396.5245
MSE 50009.4736 MAD 249.0010
MAD 197.9173 MAPE 14.40%
MAPE 15.09% U de Theil 0.7248
U de Theil 0.7313
Alfa 0.7948 2
RMSE 287.1776 RMSE 318.8152
MSE 82470.9621 MSE 101643.1317
MAD 249.2510 MAD 280.3222
MAPE 18.16% MAPE 19.55%
U de Theil 0.9561 U de Theil 0.9623
Séptimo Mejor Modelo: Suavizado Exponencial Simple Octavo Mejor Modelo: Promedio Móvil Simple
Metodologías
El Mejor Modelo: Multiplicativo de Holt-Winter Segundo Mejor Modelo: Aditivo de Holt-Winter
Tercero Mejor Modelo: Multiplicativo Estacional Cuarto Mejor Modelo: Aditivo Estacional
Quinto Mejor Modelo: Suavizado Exponencial Doble Sexto Mejor Modelo: Promedio Móvil Doble
Año Trimestre Periodo Ventas
2006 1 1 $684.20
2006 2 2 $584.10
2006 3 3 $765.40
2006 4 4 $892.30
2007 1 5 $885.40
2007 2 6 $677.00
2007 3 7 $1,006.60
2007 4 8 $1,122.10
2008 1 9 $1,163.40
2008 2 10 $993.20
2008 3 11 $1,312.50
2008 4 12 $1,545.30
2009 1 13 $1,596.20
2009 2 14 $1,260.40
2009 3 15 $1,735.20
2009 4 16 $2,029.70
2010 1 17 $2,107.80
2010 2 18 $1,650.30
2010 3 19 $2,304.40
2010 4 20 $2,639.40
Reporte Alfa, Beta, Gamma RMSE Alfa, Beta, Gamma RMSE
0.00, 0.00, 0.00 914.824 0.00, 0.00, 0.00 914.824
0.10, 0.10, 0.10 415.322 0.10, 0.10, 0.10 415.322
0.20, 0.20, 0.20 187.202 0.20, 0.20, 0.20 187.202
0.30, 0.30, 0.30 118.795 0.30, 0.30, 0.30 118.795
0.40, 0.40, 0.40 101.794 0.40, 0.40, 0.40 101.794
0.50, 0.50, 0.50 102.143
El análisis se llevó a cabo con alfa = 0.2429, beta = 1.0000, gamma = 0.7797, y estacionalidad = 4
Periodo Real Pronóstico Ajustado
1 684.20 RMSE 71.8132
2 584.10 MSE 5157.1348
3 765.40 MAD 53.4071
4 892.30 MAPE 4.50%
5 885.40 684.20 U de Theil 0.3054
6 677.00 667.55
7 1006.60 935.45
8 1122.10 1198.09
9 1163.40 1112.48
10 993.20 887.95
11 1312.50 1348.38
12 1545.30 1546.53
13 1596.20 1572.44
14 1260.40 1299.20
15 1735.20 1704.77
16 2029.70 1976.23
17 2107.80 2026.01
18 1650.30 1637.28
19 2304.40 2245.93
20 2639.40 2643.09
Pronóstico21 2713.69
Pronóstico22 2114.79
Pronóstico23 2900.42
Pronóstico24 3293.81
Pronóstico25 3346.55
Pronóstico26 2580.81
El Porcentaje de la Media del Error Absoluto (MAPE - Mean Absolute Percentage Error ) es una medida estadística de error relativo, como un porcentaje promedio del error de
los datos históricos y es más apropiado cuando el costo de los errores del pronóstico tiene una relación más cercana al porcentaje del error que a un valor numérico de error.
Finalmente, una medida asociada es la estadística de la U de Theil, la cual mide la credibilidad del pronóstico del modelo. Es decir, si la estadística de la U de Theil es menor
a 1.0, entonces el método utilizado para el pronóstico proporciona un estimado que es estadísticamente mejor que adivinar.
Medidas de Error
Multiplicativo de Holt-Winter
Resumen Estadístico
Resumen del Análisis de Series de Tiempo
Cuando existe estacionalidad y tendencia, los modelos más avanzados requieren descomponer los datos en sus elementos base o componentes: un nivel base (L)
ponderado por el parámetro Alfa, un componente de tendencia (b) ponderado por el parámetro Beta; y un componente de estacionalidad (S) ponderado por el parámetro
Gamma. Existen varios métodos pero los dos más comunes son el aditivo de estacionalidad de Holt-Winter y el método multiplicativo de estacionalidad de Holt-Winter. En el
modelo aditivo de Holt-Winter, el nivel base para el caso, la estacionalidad y las tendencias se añaden al mismo tiempo para obtener el pronóstico ajustado. Se utiliza cuando
La prueba que mejor se ajusta para el pronóstico del promedio móvil simple es la media de la raíz cuadrada de los errores al cuadrado (RMSE - Root Mean Squared Error). La
RMSE calcula la raíz cuadrada de la desviación al cuadrado promedio de los valores ajustados contra los datos actuales.
El Error Cuadrático Medio (MSE - Mead Squared Error) es una medida de error absoluto que ajusta los errores (la diferencia entre los datos históricos y los datos del pronóstico
ajustados pronosticados por el modelo) para prevenir que los errores positivos y negativos se cancelen entre sí. Esta medida también tiende a exagerar errores grandes
ponderándolos con mayor importancia que los errores pequeños, cuadrándolos, lo cual puede ayudar cuando se comparan diferentes modelos de series de tiempo. El Error
de la Media al Cuadrado (RMSE) es la raíz cuadrada del MSE y es la medida más popular de error, también conocida como función de perdida cuadrática. El RMSE puede
definirse como el promedio de los valores absolutos de los errores del pronóstico y es muy apropiado cuando el costo de los errores del pronóstico es proporcional al tamaño
absoluto del error del pronóstico. El RMSE se utiliza como un criterio de selección para el mejor ajuste de modelos de series de tiempo.
Modelos de Series de Tiempo (Metodología ARIMA)
Hasta el momento t-1 se tiene la siguiente información:
- Valores Pasados de la serie: X 1, X 2, … , X t-1
- Innovaciones Pasadas: a 1, a 2, … , a t-1
Según la Información disponible, hay tres tipos de modelos:
Modelos Autorregresivos de orden p: AR(p)
El modelo incorpora la información de las últimas p observaciones.
Otras formulaciones:
Polinomio en el operador de retardos L
Filtro de autorregresivo (porque está aplicado a la propia variable).
Modelos Autorregresivos de orden 1: AR(1)
Un proceso autorregresivo de primer orden, AR(1), representa una variable cuyo
valor actual está relacionado con su valor anterior mediante un modelo de regresión.
El modelo incorpora la última observación.
-.4
-.3
-.2
-.1
.0
.1
.2
.3
.4
100 200 300 400 500
AR(1) phi=.5
-.6
-.4
-.2
.0
.2
.4
.6
100 200 300 400 500
AR(1), phi=.9
La figura muestra el perfil de dos series generadas por un AR(1) sin constante, con distintos valores del parámetro :
Los procesos AR(1) se reconocen por una ACF infinita y una PACF que se anula a partir del segundo retardo.
Si los datos tienen media, es necesario especificar un término constante.
AR(1):
-.4
-.3
-.2
-.1
.0
.1
.2
.3
.4
100 200 300 400 500
AR(1) phi=.5
. ; iid N(0,.01)t t t tz z a a10 5
Un ejemplo:
Modelos Autorregresivos de orden 2: AR(2)
Un proceso autorregresivo de segundo orden, AR(2), representa una variable cuyo valor
actual está relacionado con su valores anteriores hasta 2 periodos atrás mediante un
modelo de regresión.
El modelo incorpora las dos últimas observaciones.
La figura muestra el perfil de una serie
generada por un AR(2) sin constante, con
distintos valores del parámetro φ:
Los procesos AR(2) se reconocen por una ACF infinita y una PACF que se anula a partir del tercer retardo.
Si los datos tienen media, es necesario especificar un término constante.
AR(2): Z t = 1.4 Z t-1 – 0.7 Z t-2 + a t; a t : iid N(0,1)
Un ejemplo:
Modelos de Medias Móviles de orden q: MA(q)
El modelo incorpora la información de las últimas q innovaciones.
Sus características básicas son:
- Siempre es estacionario.
- Solo q innovaciones pasadas entran en el modelo.
- La función de autocorrelación se corta tras q retardos.
- Las innovaciones persisten q períodos.
Modelos de Medias Móviles de orden 1: MA(1)
Un proceso de medias móviles de primer orden, MA(1), representa una variable cuyo valor
actual está relacionado con el valor actual y anterior de las innovaciones mediante un
modelo de regresión.
El modelo incorpora la innovación actual y la anterior
-.4
-.3
-.2
-.1
.0
.1
.2
.3
.4
100 200 300 400 500
MA(1), theta=.5
-.4
-.3
-.2
-.1
.0
.1
.2
.3
.4
100 200 300 400 500
ma(1), theta=.9
La figura muestra el perfil de dos series generadas por un proceso MA(1) sin constante, con distintos valores de :
Los procesos MA(1) se reconocen por una PACF infinita y una ACF que se anula a partir del segundo retardo.
Si los datos tienen media, es necesario especificar un término constante.
MA(1):
-.4
-.3
-.2
-.1
.0
.1
.2
.3
.4
100 200 300 400 500
MA(1), theta=.5
. ; iid N(0,.01)t t t tz a a a15
Un ejemplo:
Modelos de Medias Móviles de orden 2: MA(2)
Un proceso de medias móviles de segundo orden, MA(2), representa una variable cuyo
valor actual está relacionado con el valor actual y los valores anteriores hasta 2 periodos
atrás de las innovaciones mediante un modelo de regresión.
El modelo incorpora la innovación actual y las dos últimas observaciones de esta.
La figura muestra el perfil de una serie
generada por un MA(2) sin constante, con
distintos valores del parámetro θ:
Los procesos MA(2) se reconocen por una PACF infinita (no se muestra aquí) y una ACF que se anula a partir del tercer retardo.
Si los datos tienen media, es necesario especificar un término constante.
MA(2): Z t = a t – 0.9 a t-1 + 0.2 a t-2; a t : iid N(0,1)
Un ejemplo:
Procesos Mixtos: ARMA(p,q)
Incluyen p retardos de la propia variable y q innovaciones pasadas.
Modelos ARIMA
Reporte Auto-ARIMA
Reporte ARIMA Estadísticas de la Regresión
R-Cuadrado (Coeficiente de Determinación) 0.0050 Criterio de Información Akaike (AIC) 2.8549
R-Cuadrado Ajustado -0.0052 Criterio Schwarz (SC) 2.9478
R-Múltiple (Coeficiente de Correlación Múltiple) 0.0708 Logaritmo de Probabilidad -141.32
Error Estándar Estimado (EEy*) 1.03 Estadístico Durbin-Watson (DW) 1.9634
Número de Observaciones 99 Número de Iteraciones 0
Resultados de la Regresión
Intercepto AR(1)
Coeficientes -0.0812 -0.0714
Error Estandar 0.1041 0.1021
Estadístico t -0.7799 -0.6995
P-Value 0.4373 0.4859
Menor a 5% 0.0917 0.0982
Mayor a 95% -0.2540 -0.2410
Grados de Libertad Prueba de Hipótesis
Grados de Libertad para la Regresión 1 Estadístico t Crítico (99% confianza con diferencia de 97) 2.6275
Grados de Libertad Residual 97 Estadístico t Crítico (95% confianza con diferencia de 97) 1.9847
Grados de Libertad Totales 98 Estadístico t Crítico (90% confianza con diferencia de 97) 1.6607
Suma de
Cuadrados
Suma del
Promedio de
Cuadrados
Estadístico
FValor P
Prueba de Hipótesis
Regresión 0.52 0.52 0.49 0.4900 Estadístico F Crítico (99% confianza con diferencia de 1 y 97) 6.9036
Residual 103.68 1.07 Estadístico F Crítico (95% confianza con diferencia de 1 y 97) 3.9391
Total 104.2 Estadístico F Crítico (90% confianza con diferencia de 1 y 97) 2.7580
El cuadro de Análisis de Varianza (ANOVA) proporciona una prueba con el estadístico F, apoyado en los resúmenes generales de las estadísticas significativas de los
modelos. En lugar de buscar regresores individuales como en la prueba t, la prueba F busca en todas las propiedades estadísticas de los coeficientes. El estadístico
F se calcula como la razón de la suma ponderada de cuadrados de la suma explicada de la regresión sobre la suma ponderada de cuadrados de la suma de
residuales cuadrados. El numerador mide que tanto de la regresión se explica, mientras que el denominador mide que tanto no se explica. Por lo tanto, mientras más
grande sea el estadístico F, más significativo será el modelo. El P - Value correspondiente es calculado para comprobar la hipótesis nula (Ho) en donde todos los
coeficientes son simultáneamente iguales a cero, contra la hipótesis alternativa (Ha), en la cual todos son simultáneamente diferentes a cero, indicando un modelo
de regresión estadísticamente significativo. Si el P - Value es más pequeño que los niveles de significancia alfa, es decir, 0.01, 0.05, o 0.10, entonces la regresión es
significativa. La misma aproximación puede aplicarse comparando el estadístico F con los valores críticos de F en varios niveles de significancia.
El estadístico Durbin-Watson mide la correlación serial en los residuales. Por lo general, DW menores a 2 implican una correlación serial positiva.
Los coeficientes proporcionan el intercepto y la pendiente de la regresión estimada. Por ejemplo, los coeficientes son estimaciones de los posibles valores
poblacionales b representados en la siguiente ecuación de regresión Y = b0 + b1X1 + b2X2 + ... + bnXn. El Error Estándar mide que tan exactos son los pronósticos
de los coeficientes, y el estadístico t es la razón entre el valor correspondiente al coeficiente estimado y su respectivo Error Estándar.
El estadístico t se utiliza en la prueba de hipótesis, donde se establece la hipótesis nula (Ho) de manera que el coeficiente sea cero, y la hipótesis alternativa (Ha)
diferente de cero, de manera que el verdadero valor del coeficiente no sea igual a cero. Una prueba t se lleva a cabo cuando el estadístico t se compara con los
valores críticos de los Grados de Libertad Residual. La prueba t es muy importante ya que calcula si cada uno de los coeficientes es estadísticamente significativo en
presencia de otros regresores. Esto significa que la prueba t comprueba estadísticamente cuando un regresor o una variable independiente debe continuar en la
regresión o de lo contrario, debe descartarse.
El coeficiente es estadísticamente significativo si su estadístico t excede el estadístico crítico en los grados de libertad relevantes (df). Los tres principales niveles de
confianza utilizados para medir la significancia son 90%, 95% y 99%. Si un estadístico t del coeficiente excede el nivel crítico, se le considera estadísticamente
significativo. Alternativamente, el P - Value calcula cada probabilidad de ocurrencia del estadístico t, lo que significa que entre más pequeño sea el P - Value, más
significativo será el coeficiente. Los niveles usuales de significancia para el P - Value son 0.01, 0.05, y 0.10, que corresponden a 99%, 95%, y 90% de los niveles de
confianza respectivamente.
Los coeficientes con sus P - Value resaltados en azul indican que son estadísticamente significativos al 90% de confianza o 0.10 en nivel alfa, mientras que aquellos
resaltados en rojo indican que no son estadísticamente significativos en cualquier otro nivel alfa.
Análisis de Varianza
ARIMA (Modelos Autorregresivos Integrados de Medias Móviles)
Los Modelos Autorregresivos Integrados de Medias Móviles o ARIMA(p,d,q) son la extensión del modelo AR que utiliza los tres componentes para modelar la
correlación serial en datos de series de tiempo. El primer componente es el término autorregresivo (AR). El modelo AR(p) utiliza un número p de regazos de la serie.
Un modelo AR(p) tiene la forma: y(t)=a(1)*y(t-1)+...+a(p)*y(t-p)+e(t). El segundo componente es el termino del orden de integración (d) de la serie. Cada orden de
integración corresponde al numero de veces que la serie de tiempo debe se diferenciada para hacerse estacionaria. I(1) significa diferenciar los datos una vez. I(d)
significa diferencia los datos d veces. El tercer componente es el término (MA) media móvil. El modelo MA(q) utiliza q rezagos de los errores del pronóstico para
mejorar este proceso. Un modelo MA(q) tiene la forma: y(t)=e(t)+b(1)*e(t-1)+...+b(q)*e(t-q). Finalmente, un modelo ARMA(p,q) tiene la forma combinada: y(t)=a(1)*y(t-
1)+...+a(p)*y(t-p)+e(t)+b(1)*e(t-1)+...+b(q)*e(t-q).
El R-Cuadrado, o el Coeficiente de Determinación, indica el porcentaje de variación en la variable dependiente que puede explicarse y contarse por las variables
independientes en este análisis de regresión. Sin embargo, en una regresión múltiple, el R-Cuadrado Ajustado toma en cuenta la existencia de variables
independientes adicionales o regresores y ajusta el valor de esta R-Cuadrado para una perspectiva más exacta del poder explicativo de la regresión. Sin embargo,
bajo algunas circunstancias de modelación ARIMA (por ejemplo, modelos con no convergencia), el R-Cuadrado tiende a ser no confiable.
El Coeficiente de Correlación Múltiple (R-Múltiple) mide la correlación entre la verdadera variable dependiente (Y) y el estimado o ajuste (Y*) basado en la ecuación de
regresión. Esta correlación también es la raíz cuadrada del Coeficiente de Determinación (R-Cuadrado).
El Error Estándar Estimado (Sey*) describe la dispersión del conjunto de datos por encima y por debajo de la línea de regresión o plano. Este valor es utilizado como
parte del cálculo para obtener el intervalo de confianza de las estimaciones posteriores.
Los criterios de información AIC (Akaike) y SC (Schwarz) son utilizados generalmente en la selección del modelo de regresión. SC impone una gran penalidad por
coeficientes adicionales. Generalmente el usuario debe seleccionar un modelo con el valor más bajo de los criterios AIC y SC.
Reporte ARIMA Tiempo AC PAC Límite InferiorLímite Superior Estadístico Q Valor P
1 (0.0701) (0.0701) (0.2000) 0.2000 0.5020 0.4786
2 0.0452 0.0405 (0.2000) 0.2000 0.7123 0.7004
3 (0.0607) (0.0551) (0.2000) 0.2000 1.0956 0.7781
4 (0.1133) (0.1240) (0.2000) 0.2000 2.4467 0.6542
5 0.0032 (0.0085) (0.2000) 0.2000 2.4478 0.7843
6 0.1052 0.1141 (0.2000) 0.2000 3.6366 0.7257
7 (0.0992) (0.1018) (0.2000) 0.2000 4.7067 0.6957
8 0.1246 0.0904 (0.2000) 0.2000 6.4128 0.6011
9 (0.1335) (0.1024) (0.2000) 0.2000 8.3920 0.4952
10 (0.0503) (0.0634) (0.2000) 0.2000 8.6761 0.5631
11 0.0115 0.0061 (0.2000) 0.2000 8.6910 0.6504
12 (0.1192) (0.1215) (0.2000) 0.2000 10.3244 0.5875
13 0.0902 0.0682 (0.2000) 0.2000 11.2711 0.5881
14 (0.0308) (0.0616) (0.2000) 0.2000 11.3828 0.6557
15 (0.0604) (0.0445) (0.2000) 0.2000 11.8175 0.6928
16 0.0631 0.0281 (0.2000) 0.2000 12.2972 0.7233
17 (0.0834) (0.0630) (0.2000) 0.2000 13.1460 0.7264
18 (0.0181) (0.0206) (0.2000) 0.2000 13.1863 0.7804
19 (0.0284) (0.0923) (0.2000) 0.2000 13.2873 0.8235
20 (0.0943) (0.0618) (0.2000) 0.2000 14.4130 0.8090
Período Real (Y) Pronóstico (F) Error (E) RMSE: 1.0234
2 -0.7847 (0.1146) (0.6701)
3 0.6472 (0.0251) 0.6723
4 -0.2010 (0.1274) (0.0736)
5 -0.1425 (0.0668) (0.0757)
6 -0.5960 (0.0710) (0.5251)
7 0.1616 (0.0386) 0.2002
8 -1.1230 (0.0927) (1.0302)
9 1.0685 (0.0010) 1.0694
10 -0.6736 (0.1575) (0.5161)
11 -0.4483 (0.0331) (0.4153)
12 -0.9325 (0.0491) (0.8834)
13 -0.3389 (0.0146) (0.3244)
14 1.6845 (0.0570) 1.7414
15 0.3663 (0.2015) 0.5678
16 -2.1754 (0.1073) (2.0681)
17 -0.6381 0.0742 (0.7124)
18 -0.3391 (0.0356) (0.3035)
19 -0.9872 (0.0569) (0.9302)
20 -0.2461 (0.0107) (0.2354)
21 -0.6384 (0.0636) (0.5748)
22 1.0572 (0.0356) 1.0927
23 -0.6763 (0.1567) (0.5196)
24 -1.2208 (0.0329) (1.1879)
25 0.4092 0.0060 0.4032
26 -1.3784 (0.1104) (1.2680)
27 0.2279 0.0173 0.2106
28 1.3809 (0.0974) 1.4784
29 0.0143 (0.1798) 0.1941
30 0.7861 (0.0822) 0.8682
31 0.1225 (0.1373) 0.2599
32 -0.4418 (0.0899) (0.3518)
33 1.2610 (0.0496) 1.3107
34 -1.8734 (0.1713) (1.7021)
35 3.1207 0.0527 3.0680
36 -0.1084 (0.3041) 0.1956
37 0.6486 (0.0734) 0.7220
38 -0.4967 (0.1275) (0.3692)
39 -1.1036 (0.0457) (1.0579)
40 -1.7587 (0.0023) (1.7563)
41 1.5954 0.0445 1.5510
42 -1.6172 (0.1951) (1.4221)
43 -0.6617 0.0344 (0.6961)
44 -0.1160 (0.0339) (0.0821)
45 -1.1080 (0.0729) (1.0351)
Autocorrelación
Si la autocorrelación total AC(1) es diferente a cero, significa que la serie de tiempo esta ordenada serialmente y esta correlacionada. Si AC(k) decrece
geométricamente o exponencialmente con un incremento en los rezagos, implica que la serie sigue un proceso autorregresivo de orden bajo. De la misma manera si
AC(k) disminuye hasta cero después de un pequeño número de rezagos, implica que la serie sigue un proceso de orden bajo. La autocorrelación parcial PAC(k) mide
la correlación entre observaciones (para series de tiempo) que están separadas k periodos, manteniendo constantes las correlaciones entre los rezagos intermedios
menores que k. Si el patrón de autocorrelación total puede ser capturado por una autorregresion u orden menor que k, entonces la autocorrelación parcial PAC en el
rezago será muy cercana a cero. El estadístico Ljung-Box Q analiza utiliza los valores P - Value para identificar si los coeficientes de correlación superiores al primer
rezago son iguales a cero (la hipótesis nula) contra la hipótesis de que no todos los rezago son cero. Cuando los P-Value son muy pequeños (P < 0.001) se puede
rechazar la hipótesis nula inicial, es decir, existen valores de los coeficientes de autocorrelación que son significativamente diferentes de cero. Las líneas punteadas
en las gráficas de las autocorrelaciones son los dos errores estándar aproximados a los límites. Si la autocorrelación está dentro de estos límites, no es
significativamente diferente a cero en (aproximadamente) el 5% del nivel de significancia.
Pronóstico
Pronósticos fuera del Rango Errores del modelo (Causalidad Granger y causalidad circular) No Linealidad e interacciones Modelos mal ajustados (Bad Goodness-of-Fit) Cambios y quiebres estructurales Errores de especificación y métodos econométricos incorrectos Variables omitidas Multicolinealidad Variables redundantes Micronumerosidad y datos no estacionales Heterosedasticidad y homosedasticidad Autocorrelación y Correlación serial Estacionalidad y ciclicidad Errores no-esféricos y dependientes Caminatas aleatorias, No predecibilidad y procesos estocásticos:
Movimiento Browniano Reversión a la media Proceso de difusión de salto Procesos Mixtos
Y muchos, muchos, muchos, muchos otros asuntos técnicos…
Debida diligencia en Pronósticos: Cuidarse de la Caja Negra
El Riesgo y la Diversificación
El Riesgo y la Diversificación
La Diversificación resulta de la combinación de valores cuyo rendimiento es menor que la correlación perfecta para reducir el riesgo de la cartera. El rendimiento de la cartera (varios proyectos a invertir) es simplemente un promedio ponderado de los rendimientos de los valores individuales, no importando el número de los valores en la cartera.
La Diversificación disminuye el Riesgo Para probar esta afirmación usaremos el siguiente ejemplo: Un agricultor produce Naranjas y Mangos. Dichos cultivos desarrollan más o menos en función al comportamiento del clima. Las naranjas se desarrollan mejor en climas fríos y los mangos en los climas calurosos. Según ello los resultados de cada cultivo son los siguientes:
Clima Frío Clima Normal Clima Caluroso
Naranjas 210 90 30
Mangos 45 90 180
El Riesgo y la Diversificación
Supongamos que cada evento tiene igual probabilidad de ocurrencia, es decir: 33.3 % Sus valores esperados serán: NARANJAS: 0.33(210) + 0.33(90) + 0.33(30) = 110 MANGOS: 0.33(45) + 0.33(90) + 0.33(180) = 105 Las Varianzas serán: NARANJAS: MANGOS : Las Desviaciones Estándar serán: NARANJAS 74.83 MANGOS 59.86
2 2 20.33(210 110) 0.33(90 110) 0.33(30 110) 5,599.9
2 2 20.33(45 105) 0.33(90 105) 0.33(180 105) 3,583
El Riesgo y la Diversificación
La Distribución Normal y su relación con la Desviación Estándar: Porcentajes bajo la curva (Análisis de Densidad).
68.26%
95.46%
99.74%
-3d -2d -1d k 1d 2d 3d
El Riesgo y la Diversificación
-3d -2d -1d k 1d 2d 3d
D = 59.86 Mangos
D = 74.86 Naranjas
El Riesgo y la Diversificación
Si el agricultor decide invertir 50 % en cada cultivo en lugar de sembrar solo uno se obtendrá: El Valor Esperado será: 0.33 ( 127.5 ) + 0.33 ( 90 ) + 0.33 ( 105) = 107.50 Su Varianza será: La Desviación Estándar será: 34.11 Como se demuestra, gracias a la diversificación el riesgo diminuyó.
2 2 20.33(127.5 107.5) 0.33(90 107.5) 0.33(105 107.5) 1,163.81
El Riesgo y la Diversificación
-3d -2d -1d k 1d 2d 3d
D = 59.86 Mangos
D = 74.86 Naranjas
D = 34.11
DIVERSIFICACIÓN
El Riesgo y la Diversificación
Desviación estándar para el rend. cartera
Cantidad de Holdings
Riesgo diversificable No sistemático
Riesgo Total
Riesgo sistemático o relacionado con el mercado
Comparación entre Proyectos
Proyecto A: VANe = S/. 1500 ; VAN = S/. 500
Entre el proyecto A y los proyectos E y J ¿qué proyecto escoger? Con los antecedentes que se dispone, si el inversionista es averso al riesgo debe elegir J y si no lo es debe elegir E.
Son mejores que A:
F G H
Son peores que A
K C D
K
VAN
Desviación
1500
500
C
D
E F
A
H
G
J
Comparación entre Proyectos
No existe ninguna fórmula matemática o criterio que nos pueda indicar, con exactitud la decisión más conveniente. La elección dependerá básicamente de la actitud y preferencia hacia la toma de riesgos del inversionista, lo cual variará en función del volumen del proyecto con relación a su patrimonio. Si una persona que tenga una fuerte aversión a tomar riesgos, podría inclinarse más a tomar el proyecto A. Esto sucede, ya que si bien, este implica posiblemente una ganancia menor, la probabilidad de obtener un resultado negativo con él es muy inferior con respecto a B.
Proyecto A: VANe = $ 1500 ; VAN = $ 500
Proyecto B: VANe = $ 2800 ; VAN = $ 1540
Uso de Optimización en Proyectos de Inversión
Qué es la Optimización ?
Una aproximación usada para encontrar la combinación de entradas que permitan el mejor resultado posible satisfaciendo ciertas condiciones pre-especificadas. Por ejemplo:
• Cuáles acciones colocar en un portafolio, así como el peso de cada acción como un porcentaje del presupuesto total.
• Optimizar el equipo de trabajo para una línea de producción.
• Proyectar y seleccionar estrategias y priorización
• Optimización de Inventarios.
• Precios óptimos y tasas de regalías
• Utilización de empleados para planeamiento de la fuerza de trabajo
• Configuración de máquinas para programación de producción.
• Localización de bodegas para distribución
• Flexibilidad en el diseño de manufacturas.
• Políticas de tratamiento en administración de residuos.
Métodos Heurísticos y Algoritmos
Desde luego, necesitamos usar software de optimización para obtener la solución. Risk
Simulator usa una variedad de heurísticos y algoritmos para encontrar los mejores y
óptimos conjuntos de soluciones.
El Simulador de Riesgo usa algoritmos inteligentes para acelerar el proceso de búsqueda
e inteligentemente eliminar ciertas áreas que son subóptimas, logrando así incrementar la
eficiencia.
Tipos de Optimización
Las optimizaciones pueden ser Lineales o no Lineales, y pueden ser discreta entera o
continuas:
Una Optimización discreta entera puede tomar únicamente un valor entero específico
como 0, 1, 2, 3, y así.
Una Optimización continua puede utilizar variables de decisión continuas y puede tomar
cualquier valor.
Ambos tipos de distribución pueden ser Lineales o no Lineales. Esto es, la función
objetivo y las restricciones pueden ser todas lineales o no lineales
Pasos requeridos en una Optimización
Para correr un modelo de optimización, algunas variables deben ser primero
determinadas y creadas:
Objetivo: La variable puede ser maximizada o minimizada (e.g., valor presente neto,
pérdidas catastróficas, riesgo, tiempos de reposo, etc.)
Variables de Decisión y sus rangos permitidos: Variables sobre las cuales usted tiene
control (qué tanto producir, que tanto invertir, y así)
Restricciones: Restricciones o condiciones que deben ser satisfechas en la optimización
(e.g., presupuesto, tiempo, recursos, etc.)
supuestos de simulación: supuestos Monte Carlo cuando se corren optimizaciones
dinámicas o estocásticas.
Procedimientos de Optimización
Optimización estática
Optimización sin simulación: RAPIDA
Gran punto de arranque antes de hacer un análisis de optimización avanzado.
Optimización Dinámica
Simulación de N intentos, paradas, ajuste de las celdas de supuestos con los estadísticos simulados, y luego optimizar.
Algún tipo de proceso de Simulación-Optimización.
Cuentas para riesgo e incertidumbre
Optimización estocástica
Simulación de N intentos, paradas, ajuste de las celdas de supuestos con los estadísticos simulados, y luego optimizar, entonces el proceso es repetido nuevamente por N veces.
Una serie de optimizaciones dinámicas en la cual cada variable de decisión tiene una distribución de pronóstico.
Un rango de valores óptimos en vez de estimados de punto simple.
Uso de la Optimización en Proyectos
Proyecto VAN Costo Riesgo $ Riesgo %Relación
Retorno/Riesgo
Índice de
RentabilidadSelección
Proyecto 1 $458.00 $1,732.44 $54.96 12.00% 8.33 1.26 1.0000
Proyecto 2 $1,954.00 $859.00 $1,914.92 98.00% 1.02 3.27 1.0000
Proyecto 3 $1,599.00 $1,845.00 $1,551.03 97.00% 1.03 1.87 1.0000
Proyecto 4 $2,251.00 $1,645.00 $1,012.95 45.00% 2.22 2.37 1.0000
Proyecto 5 $849.00 $458.00 $925.41 109.00% 0.92 2.85 1.0000
Proyecto 6 $758.00 $52.00 $560.92 74.00% 1.35 15.58 1.0000
Proyecto 7 $2,845.00 $758.00 $5,633.10 198.00% 0.51 4.75 1.0000
Proyecto 8 $1,235.00 $115.00 $926.25 75.00% 1.33 11.74 1.0000
Proyecto 9 $1,945.00 $125.00 $2,100.60 108.00% 0.93 16.56 1.0000
Proyecto 10 $2,250.00 $458.00 $1,912.50 85.00% 1.18 5.91 1.0000
Proyecto 11 $549.00 $45.00 $263.52 48.00% 2.08 13.20 1.0000
Proyecto 12 $525.00 $105.00 $309.75 59.00% 1.69 6.00 1.0000
Total $17,218.00 $8,197.44 $7,007 40.70% 12.00
MAX < =$5000 <=6
Retorno/Riesgo 2.4573
Ilustraremos, el uso de optimización en Proyectos con el siguiente ejemplo:
Finalmente, un proceso de Optimización de Frontera Eficiente aplica los
conceptos de incrementos marginales y valuación de precios sombra en la
Optimización.
Uso de la Optimización en Proyectos
Proyecto VAN Costo Riesgo $ Riesgo %Relación
Retorno/Riesgo
Índice de
RentabilidadSelección
Proyecto 1 $458.00 $1,732.44 $54.96 12.00% 8.33 1.26 1.0000
Proyecto 2 $1,954.00 $859.00 $1,914.92 98.00% 1.02 3.27 0.0000
Proyecto 3 $1,599.00 $1,845.00 $1,551.03 97.00% 1.03 1.87 0.0000
Proyecto 4 $2,251.00 $1,645.00 $1,012.95 45.00% 2.22 2.37 1.0000
Proyecto 5 $849.00 $458.00 $925.41 109.00% 0.92 2.85 0.0000
Proyecto 6 $758.00 $52.00 $560.92 74.00% 1.35 15.58 1.0000
Proyecto 7 $2,845.00 $758.00 $5,633.10 198.00% 0.51 4.75 0.0000
Proyecto 8 $1,235.00 $115.00 $926.25 75.00% 1.33 11.74 1.0000
Proyecto 9 $1,945.00 $125.00 $2,100.60 108.00% 0.93 16.56 0.0000
Proyecto 10 $2,250.00 $458.00 $1,912.50 85.00% 1.18 5.91 0.0000
Proyecto 11 $549.00 $45.00 $263.52 48.00% 2.08 13.20 1.0000
Proyecto 12 $525.00 $105.00 $309.75 59.00% 1.69 6.00 1.0000
Total $5,776.00 $3,694.44 $1,539 26.64% 6.00
MAX < =$5000 <=6
Retorno/Riesgo 3.7543
Después de aplicar la optimización, el Software nos indica cual es el valor de
las decisiones (en este caso la selección de los Proyectos); así como también,
el valor de la Función Objetivo.
Uso de la Optimización en Proyectos
En nuestro ejemplo, los proyectos a elegirse deben ser:
Uso de la Optimización en Proyectos
Proyectos elegidos
Proyecto 1
Proyecto 4
Proyecto 6
Proyecto 8
Proyecto 11
Proyecto 12
Árboles de Decisión
Qué es un árbol de decisión ?
• Herramienta analítica para la estructuración y evaluación de problemas bajo
incertidumbre.
• Técnica para presentar, analizar, seleccionar y evaluar entre varias posibilidades de
acción o escenarios.
• Permiten entre otros evaluar consecuencias, implementar variables de riesgo, hacer
análisis con variables discretas y/o continuas, hacer predicciones y cálculos de
probabilidades.
Elementos de un árbol de decisión
Alternativas de decisión: Posibles cursos de acción para el decisor.
Eventos Probabilísticos asociados al proceso de decisión: Eventos que no se
controlan y presentan incertidumbre.
Información Económica Relevante: Consecuencias económicas de las posibles
decisiones.
Secuencia del proceso de Decisión: Orden y relaciones en el cual se producen las
decisiones (Nodos de Decisión y nodos de Estado).
Solución de un árbol de decisión
Etapas del proceso de decisión:
1.Definición del problemas
2.Estructuración del árbol de decisiones
3.Resolver el árbol, utilizando valores esperados y seleccionando la mejor estrategia
• Maximizar
• Minimizar
4. Análisis de sensibilidad
5. Tomar la decisión
Diagrama de Influencia
Los diagramas de influencia son una herramienta gráfica que nos permite analizar,
causas, efectos, así como variables no controlables y críticas.
Nos permiten identificar las variables y rutas claves para tomar una decisión adecuada.
Los elementos claves en los diagramas de influencia son:
• Nodos
• Flechas o arcos
Tipos de Nodos
Nodo de Decisión
Nodo de Incertidumbre
Nodo Terminal
Veamos un ejemplo
Otorgamiento Crédito
Una entidad desea decidir si otorgar un crédito o no a un cliente para la compra de un
vehículo por US$ 20.000.
Se encuentra en la siguiente situación:
• Si se otorga el crédito existe una probabilidad del 0.1 de incumplimiento
• Si el cliente realiza los pagos la entidad obtiene una utilidad del 15% sobre el valor del
vehículo
• Si el cliente incumple la entidad tiene un costo de US$ 15.000
• El no otorgamiento del crédito no genera costo para la compañía
Veamos un ejemplo
Veamos un ejemplo
Riesgo de Mercado
Conceptos de Value at Risk
Indicador Base de Riesgo de Mercado: VaR
Valor-en-Riesgo (VaR @ 5%) a 1 día =
USD 7 millones
¿Qué significa esto?
• Presupuestos – Es posible reunir información representativa sobre los posibles
resultados de una inversión en el corto plazo. • Datos históricos o supuestos expertos
• Esta información permite describir el futuro (“comportamiento estable”)
• Tres elementos distintivos de la definición – El Value-at-Risk incorpora:
Horizonte de
inversión
Significancia
estadística
Criterio
asimétrico
¿Qué es el Value at Risk (VaR) ?
• Definición
Es la máxima pérdida esperada
dentro de un horizonte de inversión de “n” días
con una probabilidad de error de “α”%
Horizonte de
inversión
Significancia
estadística
Criterio
asimétrico
Definición de Value at Risk (VaR)
Definición de Value at Risk (VaR)
• El VaR resume la pérdida máxima esperada (o peor pérdida) a lo largo de un horizonte de tiempo objetivo dentro de un intervalo de confianza dado.
El cálculo del VaR está dirigido a elaborar un reporte de la siguiente forma:
– Se tiene una certeza de X% de que no se perderá más de V dólares en los siguientes N días
– V es el VaR de N -días para un nivel de confianza de X%
• Según la propuesta del Comité de Basilea el intervalo de confianza ideal es de 99% (1% de probabilidad, -2.33 desviaciones) y
• Según la metodología de RiskMetrics es de un 95% (5% de probabilidad y -1.65 desviaciones).
Definición de Value at Risk (VaR)
Indicador Base de Riesgo de Mercado: VaR
Posibles
variaciones
del valor de la
cartera
en 1 día
0
1% 0% 2% -1% -2%
Probabilidad
de
ocurrencia
VaR
USD 7MM
5% de
probabilidad
Metodologías VaR alternativas
• Las similitudes – Los tres métodos buscan estimar un valor
crítico para las pérdidas potenciales.
• Las diferencias – Cada método realiza distintos supuestos
acerca de qué valores son representativos sobre las futuras pérdidas potenciales y cómo éstas se distribuyen estadísticamente.
Método “Analítico”
(Delta Normal)
Método “Montecarlo”
(Simulaciones)
Método “Histórico”
(Histogramas)
Metodologías VaR alternativas
Método “Analítico”
(Delta Normal)
Método “Montecarlo”
(Simulaciones)
Método “Histórico”
(Histogramas)
VaR Analítico - Delta Normal
• Supuestos
– El supuesto clave es que es posible conocer la función de distribución de rendimientos (futuros) de la inversión o paquete de inversiones que se plantea manejar.
– Se asume que la distribución es normal (y, por ello, simétrica), con media y
varianza conocidas.
– Sin embargo…
• ¿Es realmente normal?
• Problemas de estabilidad de medias y varianzas
• ¿De dónde procede la información sobre media y varianza?
• ¿Y los momentos superiores?
• A partir de los supuestos sobre la distribución, es posible calcular directamente el percentil de riesgo apropiado.
Posibles valores de la variable aleatoria
0 1% 0% 2% -1% -2%
Probabilidad de ocurrencia
VaR Analítico - Delta Normal
Posibles valores de la variable aleatoria
0
μ +1σ μ μ +2σ μ-1σ μ -2σ
Probabilidad de ocurrencia
μ -3σ μ +3σ
68.26% 95.44%
99.74%
VaR Analítico - Delta Normal
– Con una probabilidad de 95% en una cola … • =DISTR.NORM.ESTAND.INV(5%)= -1.6448
• Valor crítico: 1.6448 Desviaciones estándar
Posibles valores de la variable aleatoria
Probabilidad de ocurrencia
5% 90% 5%
VaR Analítico - Delta Normal
• Generalización
– Si llevamos esta generalidad a una distribución normal N(m,) tendríamos que normalizar para calcular qué valor de “x” se superará con una probabilidad de 5%.
%5
mxzP %565.1
mxP
m
x65.1
m 65.1x
VaR Analítico - Delta Normal
• Los dos componentes: la media y la volatilidad
– La media (μ) de los rendimientos suele calcularse como el promedio aritmético de las rentabilidades observadas en el corto plazo. Distinguir la diferencia entre media aritmética y geométrica en este caso.
– La volatilidad (σ) de los rendimientos se aproxima utilizando la desviación estándar de las rentabilidades observadas en el corto plazo.
• Conversión de plazos
– Es común (aunque no recomendable) convertir los rendimientos y volatilidades de un día en sus correspondientes anuales del siguiente modo:
252 diariaanual 252 diariaanual mm
VaR Analítico - Delta Normal
• Período de anulación de riesgo
– El periodo de Anulación de Riesgo (Defeasance Period), es el horizonte de tiempo elegido al cual se hará referencia para el cálculo de la medida de riesgo.
– Las medidas de riesgo vendrán referenciadas en función de ese horizonte temporal.
• Rendimiento:
• Volatilidad:
Trr diariaperiodo
Tdiariaperiodo
VaR Analítico - Delta Normal
• El intervalo de confianza
– Según la propuesta del Comité de Basilea[1] el intervalo de confianza ideal es de 99% (1% de probabilidad, -2.33 desviaciones estándar) a 10 días.
– Según la metodología de RiskMetrics[2] es de un 95% (5% de probabilidad y -1.65 desviaciones estándar) a 1 día.
• [1] Banco de Pagos Internacionales, “Amendment to the Capital Accord to Incorporate Markets Risk”, Comité
de Basilea, Basilea, Suiza, Enero de 1996.
• [2] Riskmetrics “Technical Document” – JP Morgan 1996
VaR Analítico - Delta Normal
Metodologías VaR alternativas
Método “Analítico”
(Delta Normal)
Método “Montecarlo”
(Simulaciones)
Método “Histórico”
(Histogramas)
VaR Montecarlo
• Supuestos
– El supuesto clave es que es posible conocer la función de distribución de
rendimientos (futuros) de la inversión o paquete de inversiones que se plantea manejar.
– Se asume que la distribución es una distribución conocida (no
necesariamente normal o simétrica).
– Para ello es posible utilizar algún procedimiento de ajuste o bootstrapping.
– Sin embargo… • ¿Es necesario que una serie de rendimientos se distribuya siguiendo un patrón
conocido?
• Problemas de estabilidad de parámetros
• Procedimiento
– A partir de los supuestos sobre las distribuciones y sus covarianzas, es posible generar numerosos rendimientos futuros hipotéticos.
– Mediante la combinación de dichos retornos, se puede estimar resultados alternativos del portafolio y formar así un histograma empírico.
– Finalmente, a partir de este histograma, se puede estimar el percentil de riesgo apropiado.
• En síntesis
– Se asume que las distribuciones son conocidas y se generan numerosos “mundos imaginarios” que siguen estas distribuciones.
– El VaR se calcula comparando dichos escenarios simulados.
VaR Montecarlo
• Riesgos del Modelo
– Suponer que la Simulación es la única alternativa.
– Simular demasiados escenarios.
– Demasiada atención a la selección de parámetros o distribuciones en detrimento de la intuición detrás del modelo.
– Mala interpretación de resultados, especialmente intervalos de confianza.
– Utilizar los mismos parámetros para distintos momentos del tiempo.
– Elegir los supuestos, distribuciones, etc. que arrojan los “mejores” resultados numéricos.
– En síntesis: Un buen modelo determinístico no necesariamente es un buen modelo de simulación.
Riesgos del Modelo VaR Montecarlo
Metodologías VaR alternativas
Método “Analítico”
(Delta Normal)
Método “Montecarlo”
(Simulaciones)
Método “Histórico”
(Histogramas)
• Supuestos – A diferencia de los dos primeros métodos, este enfoque no realiza
supuestos sobre la manera de “suavizar” la distribución de los retornos.
– Se mantiene el supuesto previo de que el comportamiento pasado es representativo del futuro cercano.
• Procedimiento – Se utiliza el propio histograma empírico de los retornos históricos para
calcular el nivel de pérdidas crítico.
– Notar que los patrones de covarianza entre variables se incorporan directamente en el procedimiento.
VaR Histórico
VaR Histórico – Síntesis del proceso
Valoración del
portafolio
Tasas de interés
Tipos de cambio
Spreads de riesgo
Índices bursátiles
Tasas de interés
Tipos de cambio
Spreads de riesgo
Índices bursátiles
Tasas de interés
Tipos de cambio
Spreads de riesgo
Índices bursátiles
Variables actuales Cambios históricos Valores posibles
+ =
Histograma
de valores
posibles
A manera de Resumen …
Problemas del VaR
Medición de Escenarios Extremos
Posibles
variaciones
del valor de la
cartera
en 1 día
0
1% 0% 2% -1% -2%
Probabilidad
de
ocurrencia
VaR
USD 7MM
5% de
probabilidad
El VaR NO captura la intensidad de pérdidas.
El VaR es el mismo
El VaR NO captura la intensidad de pérdidas.
Medición de Escenarios Extremos
¿Por qué el VaR no es suficiente?
• Los trabajos de Artzner y Delbaen (1997), demuestran que el VaR tiene características indeseables:
• Falta de subaditividad
• Falta de convexidad
• Por ello, de modo agregado se dice que el VaR no es una medida “coherente” de riesgo.
• El VaR únicamente es coherente cuando está basado en distribuciones continuas normalizadas (ya que para una distribución normal el VaR es proporcional a la desviación estándar).
Deficiencias del VaR para la toma de decisiones
Peso en el activo 1 (cartera hipotética con dos activos)
50% 100% 0%
Riesgo
0%
Indicador sub-aditivo
2
1
VaR
El VaR NO es subaditivo.
Deficiencias del VaR para la toma de decisiones
El VaR NO es convexo
Peso en el activo 1 (cartera hipotética con dos activos)
50% 100% 0%
Riesgo
0%
Indicador no convexo
2
1
Conditional Value at Risk
• Definición
– El Conditional-Value-at-Risk (CVaR) a un nivel de confianza dado es la pérdida esperada entre las pérdidas que son mayores que el VaR.
– Dicho de otra forma, es la pérdida esperada que es más grande o igual que el VaR.
[Uryasev S., y Rockafellar, R.T 2000]
• Implicancias
– Es un promedio de las pérdidas que exceden el VaR.
– Va a ser un indicador que no sólo tiene en cuenta el VaR sino también las pérdidas extremas de la distribución.
Qué es el CVaR ???
CVaR: Valor Esperado de las Pérdidas que superan al VaR
Posibles
variaciones
del valor de la
cartera
en 1 día
0
1% 0% 2% -1% -2%
Probabilidad
de
ocurrencia
VaR CVaR
Resumen de las ventajas del CVaR
• El CVAR calcula riesgos más allá del VAR lo que la hace una medida más conservadora, puesto que por definición así lo exige, por lo que el CVAR domina al VAR.
• El CVAR tiene la propiedad de ser una función siempre convexa respecto a las posiciones lo que permite la optimización en la posición de una cartera.
• El CVAR es continuo respecto al nivel de confianza.
• Es consistente con la aproximación de mínima varianza, ya que la cartera de mínima varianza es la que minimiza también el CVAR.
VaR vs. CVaR ante recomposiciones de Cartera
CVaR @ 5% VaR @ 5%
Weight in Asset 1
1.000.950.900.850.800.750.700.650.600.550.500.450.400.350.300.250.200.150.100.050.00
2.10%
2.05%
2.00%
1.95%
1.90%
1.85%
1.80%
1.75%
1.70%
1.65%
1.60%
1.55%
1.50%
1.45%
1.40%
1.35%
1.30%
1.25%
1.20%
1.15%
1.10%
El VaR para tres acciones - Sol Meliá, Telefónica y BSCH
Evolución del VaR en función a la proporciones invertidas en Sol Meliá (w1) , Telefónica (w2) y BSCH (1- w1 - w2) para un nivel de confianza del 95% y un horizonte temporal de un día.
VaR vs. CVaR ante recomposiciones de Cartera
El CVaR para tres acciones - Sol Meliá, Telefónica y BSCH
Evolución del CVaR en función a la proporciones invertidas en Sol Meliá (w1) , Telefónica (w2) y BSCH (1- w1 - w2) para un nivel de confianza del 95% y un horizonte temporal de un día.
VaR vs. CVaR ante recomposiciones de Cartera
Introducción a los Riesgos de Crédito
PERDIDAS POR INCUMPLIMIENTO
1. ¿Cuál es la probabilidad de
que la contraparte incumpla
los pagos?
2. ¿Cuánto deberá
este cliente a la institución en
caso de incumplimiento? (Exposición esperada)
3.¿Qué cantidad de la
exposición va a perder la institución?
“Probabilidad de incumplimiento”
“Equivalencia del préstamo”
(Exposición al incumplimiento)
“Gravedad”
(Pérdida en caso de incumplimiento)
PD
LGD
EaD
=
=
=
X
X
Magnitud de las pérdidas esperadas “Pérdidas esperadas“ EL =
=
¿Cómo medir el Riesgo de Crédito?
Primero hay que definir cual es la función de perdida que queremos
medir:
De manera muy simple la perdida esperada resulta de calcular:
Perdida Esperada = PD * LGD *EAD
Las perdidas esperadas
se cubren con provisiones
Calculando la pérdida no esperada
Las perdidas no
esperadas se cubren con
capital
La perdida no esperada se mide forma equivalente al VaR de mercado
calculando la diferencia entre la máxima perdida para un cierto nivel de
confianza respecto a la perdida esperada en un periodo de tiempo.
Riesgos Operacionales
RIESGO DE OPERACIÓN - INTRODUCCIÓN
• Basilea II define el riesgo operacional como el riesgo de pérdida resultante de una falta de adecuación o de un fallo de los procesos, el personal o los sistemas internos, o bien como consecuencia de acontecimientos externos. Esta definición incluye el riesgo legal, pero excluye el riesgo estratégico y el riesgo reputacional.
La Definición:
Metodología de Medición:
Metodologías
de Medición
del Riesgo
Operacional
No Avanzadas
Avanzadas
Método del Indicador Básico
Método Estándar
Modelo de Medición Interna
Modelo de Distribución de Pérdida
Cuadros de Mando
METODOLOGÍAS DE MEDICIÓN
RIESGO DE OPERACIÓN - INTRODUCCIÓN Método de Medición Avanzada (AMA)
• División de la entidad en líneas de negocio y topologías de riesgo
• Capital basado en el cálculo de las pérdidas esperadas e inesperadas (VaR del 99,9% en un horizonte temporal de un año.
• Requiere de 2 funciones distribución: Frecuencia y Severidad. • De la combinación de ambas funciones deriva la distribución de perdidas por riesgo
operacional VaR.
RIESGO DE OPERACIÓN - INTRODUCCIÓN Medición de la Frecuencia
• La frecuencia del riesgo operacional se refiere a la periodicidad en que se presente determinado fallo operacional.
• Las funciones de distribución más aplicadas a estos fenómenos: Binomial, Poisson, Binomial Negativa, Hipergeométrica Dsicretas
Medición de la Severidad
• La severidad hace referencia a la pérdida monetaria incurrida por la ocurrencia de un fallo operacional. • Se trata entonces de variables de naturaleza continua.
CRITERIOS CUANTITATIVOS Coberturas por Riesgo Operativo
DETERMINACIÓN DE LAS FUNCIONES DE PROBABILIDAD
La ausencia de información es un fenómeno recurrente en la valoración del riesgo
operacional.
Para proveer una solución inicial al problema, a la espera de recolectar la información
en la medida en la cual el proceso de implantación de la generación de datos avance,
se puede aplicar el proceso de auto valoración
Mediante las preguntas a expertos es posible lograr la asignación de una función de
distribución.
Para ello puede hacer uso del Método Delphi a través del cual la opinión de los expertos
converge a la caracterización de la variable.
DETERMINACIÓN DE LAS FUNCIONES DE PROBABILIDAD
El Método se desarrolla por etapas:
1. En la primera los expertos expresan su opinión y de esta información se produce
las estadísticas que resumen la opinión del grupo
2. En la segunda etapa, conocidos los resultados de la primera, los expertos
retroalimentan y producen un nuevo concepto.
3. El proceso se repite eliminado opiniones extremas hasta arribar a un consenso
que puede estar representado por una función de distribución triangular, o por una
distribución uniforme.
DETERMINACIÓN DE LAS FUNCIONES DE PROBABILIDAD
La aplicación de las pruebas de bondad de ajuste permite tener una idea de la mejor
distribución que describe el fenómeno, cuando se cuenta con datos.
Tal proceso se puede complementar con la observación de la gráfica de la función de
distribución acumulada y los datos observados.
Adicionalmente comparar los parámetros estadísticos de la muestra con los de la
distribución contribuye a la formación de un concepto adecuado respecto a la distribución
que mejor se ajusta.
MEDICIÓN DE LA FRECUENCIA
La frecuencia del riesgo operacional se refiere a la periodicidad en que se presente
determinado fallo operacional.
Las funciones de distribución más aplicadas a estos fenómenos:
1. Binomial
2. Poisson
3. Binomial Negativa
4. Hipergeométrica.
MEDICIÓN DE LA SEVERIDAD
Los modelos de severidad producen estimaciones del valor de la perdida por cada fallo
presentado.
Se trata entonces de variables continuas.
Tiene como característica la presencia de valores extremos poco frecuentes.
Si se cuenta con observaciones de los montos perdidos cada vez que han ocurrido
errores, puede ajustarse a una distribución paramétrica
O puede ajustarse a una función custom