instituto tecnológico y de estudios josé juan... · 2009. 10. 8. · instituto tecnológico y de...

178

Upload: others

Post on 17-Nov-2020

2 views

Category:

Documents


0 download

TRANSCRIPT

  • Instituto Tecnológico y de Estudios Superiores de Monterrey

    Campus Ciudad de México

    Uso De La Distribución Generalizada De Pareto Multivariada Para Modelar Riesgo

    Operativo

    Tesis que para recibir el título de doctorado en ciencias financieras presenta:

    José Juan Chávez Gudiño

    Director de tesis: José Antonio Núñez Mora

    México D.F., 4 Junio 2009

  • AGRADECIMIENTOS. Deseo agradecer a las siguientes personas su intervención en las diferentes etapas de esta investigación:

    Al Dr. José Antonio Núñez Mora en la dirección de este trabajo, y a los doctores Humberto Valencia Herrera y Arturo Lorenzo Valdés por su oportuna asesoría; Al Dr. René Michel por su anuencia a que yo utilizara y modificara los códigos desarrollados por él, para los propósitos de esta tesis; A Connie Armendáriz García, por lo que tomó de su tiempo para ayudarme a organizar el cúmulo de documentos que hube de revisar en esta tarea; A la señorita Araceli Chávez Consuelo por su revisión de la gramática y de los temibles e inevitables errores de edición; A la señorita Mariana Ocampo por sus valiosos comentarios al capítulo III; A Narciso Flores Gómez por sus invaluables recomendaciones en torno a la programación estructurada para las rutinas de simulación de variables aleatorias DGP-M; A Arturo Gonzaga Aguado por su asesoría en la construcción de algunas rutinas VBA en Excel; A Felipe Nieto Cañas por su asistencia en el tema de datos de pérdidas operativas y su manejo; A Osvaldo Ascencio Gascón, por la oportunidad que tuve de discutir con él aspectos teóricos que al final evolucionaron a soluciones satisfactorias; A Alfonso de Lara Haro por su apoyo y estímulo incondicional; A José del Águila Ferrer por el primer impulso dado a esta investigación; A esa gran institución llamada Scotiabank Inverlat S.A., que financió mis estudios y me ha nutrido de experiencia de gran valor.

    II

  • DEDICO ESTE TRABAJO:

    A mi señor padre Don José Chávez Sánchez, en su 80 aniversario. A la memoria de mi abuelo Don José Chávez Jaimes.

    III

  • RESUMEN: Esta investigación trata de la medición del riesgo que implican las pérdidas operativas, en particular las extremas que suceden en forma conjunta, eventos que se yerguen como una amenaza a la viabilidad y existencia de muchas instituciones, mediante un modelo inscrito en el enfoque de modelos avanzados de Basilea II (AMA). Trata del paradigma de distribuciones de pérdidas en su modalidad multivariada; la distribución abordada es la generalizada de Pareto (DGP-M), dado que la inserción de ésta en el análisis de pérdidas catastróficas se da en forma muy natural. De los modelos existentes para generar variables aleatorias con la distribución generalizada de Pareto multivariada, se encontró que el logístico anidado se presenta como una opción viable para modelar pérdidas operativas, dado que permite diferentes niveles de dependencia entre variables y funciona bien para problemas que no involucren demasiadas variables. Esta investigación se beneficia de las investigaciones recientes del Doctor Rene Michel sobre las distribuciones generalizadas de Pareto multivariadas. En este trabajo se aplica, como un paso inicial necesario, una prueba estadística para confirmar o descartar independencia en la ocurrencia de pérdidas extremas (Falk-Michel), prueba que resulta también ser útil para determinar el umbral multivariado de la DGP. Se demuestra la obtención de las ecuaciones para la densidad angular del modelo logístico anidado de la DGP-M para 3,4 y 5 variables, generalizando el procedimiento para n variables; Utilizando tal expresión se hacen las adaptaciones necesarias a los algoritmos de Michel para obtener parámetros de dependencia de variables empíricas de pérdidas operativas, y con éstos simular variables aleatorias de pérdidas que sigan la distribución indicada, y que a su vez permitan medir el riesgo operativo de una entidad cualquiera sea financiera o no. Se desarrolla el procedimiento para, con las variables simuladas, construir las medidas de riesgo, se hace notar la relevancia del uso del déficit esperado en las medidas a utilizar para evaluar en riesgo implícito en un patrón de pérdidas y se presenta un algoritmo para escalar la medida de riesgo en el tiempo, equivalente a la regla de la raíz cuadrada del tiempo en los modelos gaussianos, la aplicación se basa en la distribución agregada de pérdidas.

    IV

  • INDICE

    Contenido Pag. Introducción. 1 1.- Riesgo Operativo. 1 2.- Objetivo y alcance. 1 3.- Base de datos con pérdidas operativas. Confidencialidad 2 4.- Investigaciones Previas. 2 4.1.- Investigación reciente en modelos multivariados de valores extremos para Riesgo

    Operativo 2

    4.2.- La propuesta del uso de la descomposición espectral, o densidad angular en la Distribución Generalizada de Pareto.

    3

    4.3.- Metodologías Previas Requeridas y Existentes. 4 4.3.1.- Bivariado y Trivariado. 4.3.2.-Multivariado 4.3.3.-Severidades: Distribuciones de Valores Extremos Multivariadas. 5.- Plan de la Tesis. 10

    Capítulo I: Riesgo operativo definición y principales problemas actuales; teoría de valores extremos.

    13

    I.1.- Riesgo Operativo. 13 I.1.1.- Riesgo Operativo y Riesgo Residual; Pérdidas brutas y Pérdidas netas 14 I.1.2.- Gestión y Modelado del Riesgo Operativo. 15 I.1.3.- Modelado del Riesgo Operativo. 17 I.1.3.1.- AIGOR Problemas en el modelado del riesgo operativo e implicaciones

    prácticas.

    I.2.- Tratamiento de Frecuencias distintas. 20 I.3.- Teoría de Valores Extremos y Formas Univariadas. 21 I.4.- Variables Independientes: Descartando Correlación Serial. 23 I.5.- Determinación de parámetros de la distribución para algunas variables de RO. 26 1.5.1.- Análisis Univariado (VARIABLES: RO_1, RO_2 y RO_3). I.6.- Basilea: Estimación de parámetros y medidas de riesgo con modelos de valores extremos

    univariados (Moscadelli 2004). 31

    I.7.- Dominio de Atracción, Fréchet. 33 I.8.- Transformación de las variables empíricas en exponenciales negativas. 34 I.9.- Conclusiones. 37

    Capítulo II: Probando independencia en la cola en Distribuciones de Valores Extremos y modelos relacionados.

    39

    II.1.- Introducción. Relevancia de la realización de las pruebas 39 I.2.- Dependencia y Correlación. 40 I.3.- Necesidad Teórica de la Prueba. 41 II.4- Fundamento Teórico de la Prueba 41 II.5.- Exposición de las pruebas 42 II.5.1.- Prueba Basada en la distancia C. 42 II.5.2.- Prueba Neyman- Pearson 42 II.5.3.- Prueba Kolmogorov Smirnov (KS) 44 II.6.- Aplicación de las pruebas de independencia a casos bivariados simulados. 45 II.7.- Aplicación a Pares de Variables Empíricas de Riesgo Operativo. 49 II.8.- Exposición de las versiones multivariadas de las pruebas de independencia. 52 II.8.1.- Función DVE multivariada. 52

    V

  • II.8.2.- Neyman-Pearson Versión Multivariada: 53 II.8.3.- Prueba Kolmogorov Smirnov (KS) Versión Multivariada: 53 II.9.- Aplicación de la Prueba Multivariada a Tres conjuntos de Datos con d=3. 54 II.10.- Algunas Conclusiones de Falk y Michel sobre su investigación. 56 II.11.- Conclusiones. 57

    Capítulo III: Estimación de los parámetros de dependencia de la distribución generalizada de Pareto multivariada; relevancia en la medición de riesgo operativo

    59

    III.-1.- Introducción 59 III.-2.- Modelos DVE y DGP multivariados. 59 III.-3.- Modelo Logístico Anidado: Definición y Características 61 III.-4.- Densidad Angular por medio de Transformaciones de Pickands y de Fréchet. 62 III.4.1 Transformación de Fréchet. 63 III.4.2.- Transformación de Pickands. 64 III.-5.- Obtención de las Expresiones para obtener las densidades Pickands y angular. 65 III.5.1.- Elementos Previos 65 III.5.2.- Obtención de las expresiones de las densidades de Pickands y angular para 3

    variables aleatorias que siguen una DGP-M. 66

    III.5.2.1.- Obtención de la Expresión para la Densidad Angular 3 dimensiones. III.5.2.2.- Obtención de la Expresión para la densidad de Pickands en 3 dimensiones. III.5.2.3.- Expresión de la Densidad Angular para d = 4 III.5.2.4.- Expresión de la Densidad Angular para d = 5: III.5.2.5.- Expresión para el caso Bivariado III.6.- Aplicación de la Densidad Angular en la Obtención de Parámetros de dependencia

    del Modelo Logístico Anidado. 75

    III.7.- Relevancia de los Hallazgos en la Medición del Riesgo Operativo. 79 III.8.- Conclusiones: 81

    Capitulo IV: Simulación de variables distribuidas generalizada de Pareto multivariada con la densidad angular.

    83

    IV.1.- Introducción 83 IV.2.- Algoritmos de Michel para simular variables aleatorias DGP-M. 83 IV.2.1.- Simulación de vectores de números aleatorios en el Simplex unitario

    (Algoritmo 4.10 en Michel (4)). 83

    IV.2.2. Elección de los vectores válidos mediante el método de rechazo utilizando la Densidad de Pickands (Algoritmo 4.1 en Michel (4)).

    87

    IV.2.3. Simular un Componte Radial Aleatorio. 88 IV.3.- Algoritmos de simulación de DGP multivariada, modificados para la densidad

    angular multivariada, con distribuciones marginales Fréchet. 90

    IV.3.1.- Proceso general de simulación de las variables DGP-M. 90 IV.3.2.- Algoritmos de Michel modificados para Simulación de variables DGP-M con

    la densidad angular acotada. 92

    IV.3.3.- Aplicación del algoritmo modificado para la Densidad angular con d=5. 93 IV.4.- Verificación de los parámetros de dependencia de los vectores DGP-M generados. 106 IV.5.- Conclusiones: 108 Anexo IV-A Códigos en VBA (Excel) y Mathematica para generar variables en el Simplex

    Unitario 109

    Capítulo V: Integración; procesos aleatorios para riesgo operativo; construcción de las medidas de riesgo.

    111

    V.1.- Introducción. 111

    VI

  • V.2.- El umbral multivariado de una DGP-M. Relación entre las Distribuciones Marginales (DVE) y la Distribución Conjunta Multivariada (DGP-M).

    113

    V.3.- Transformando los Umbrales Radiales y las variables simuladas en Umbrales y Eventos de Pérdida por Tipo de Evento.

    118

    V.4.- Marco Fundamental para Modelar el Riesgo Operativo. 120 V.5.- Simulación de Frecuencia de Eventos. 122 V.6.- El Proceso de las Pérdidas Agregadas. 122 V.6.1.- Caso multivariado y notación OpVaR. 128 V.6.2- El Problema de la Ruina y el Capital Requerido. 129 V.7.- Construcción de los Procesos de Pérdidas de Riesgo Operativo y Simulación de

    Variables. 134

    V.7.1.- Parámetros de las Distribuciones Marginales y transformación a Marginales Uniformes.

    134

    V.7.2.-Transformación en Exponenciales Negativas. 134 V.7.3.-Realización de Pruebas de independencia. Obtención de algunos Parámetros

    para Simulación DGP-M. 136

    V.7.4.-Determinación de los Parámetros de Dependencia. 138 V.7.5.-Simulación de Variables de los Procesos de Pérdidas Subyacentes. 139 V.7.6.-Tratamiento de las Frecuencias. 140 V.7.7.-Promedio de las Pérdidas Debajo del Máximo. 141 V.7.8.- DGP univariadas. 141 V.7.9.-Resumen de Variables simuladas. 143 V.8.- Obtención y Análisis de las Medidas de Riesgo 145 V.8.1.- OpVaR con Subyacentes Fréchet vs. OpVaR con Subyacentes DGP-M. 145 V.8.2.- OpVaR con Procesos Subyacentes DGP univariados Comparado con el

    OpVaR con Procesos Subyacentes DGP-M. 146

    V.8.3.- El OpVaR más allá del cuantil 0.999. 148 V.8.4.- La no subaditividad del OpVaR. 149 V.8.5.- El Déficit Esperado (o Esperanza Condicional de la Cola u OpVaR de la Cola) 151 V.9.- Escalamiento del OpVaR en el tiempo. 154 V.10.- Digresión Acerca Del proceso de Difusión de las Pérdidas Operativas visto como

    un Proceso de Lévy 156

    V.11.- Conclusiones. 158 Anexo V.I Código VBA para simular la distribución Poisson inversa. 159 Anexo V.II Frecuencias Poisson y Binomial Negativa. 160 Anexo V.III Función Uniforme [0,1] Truncada 164 Anexo V.IV Transformaciones de Variables Empíricas a Exponencial Negativa. 165

    Bibliografía 167

    VII

  • INTRODUCCIÓN. 1.- Riesgo Operativo. Si en riesgo de crédito los créditos que incumplen suelen ser llamados “ángeles caídos”, denotando con esto una posición de riesgo inicialmente reputada como buena que sin embargo se ha desgraciado y terminado en pérdida; el mundo de las pérdidas operativas es igualmente dramático y poblado de entes equivalentemente trágicos. Ingresar a este mundo es parecido a ingresar a los círculos del infierno financiero: en su derredor el paisaje es de destrucción, lamentos y cantos trágicos generados por pérdidas que debilitan la salud financiera de las instituciones y más aún, las pueden conducir a la extinción. Ejemplos de lo devastador que es no cuidar este riesgo existen en abundancia en la literatura financiera, porque si bien en todas las entidades, y en los individuos también, existen pérdidas por el simple hecho de operar (existir en el caso de los individuos), los controles omitidos o laxos se transforman en pérdidas económicas mayores; operar con sistemas obsoletos e ineficientes implican paros, retrasos, transacciones equivocas o incompletas, quejas, demandas y al final de todo, pérdidas. Es decir las decisiones que dan marco a la forma en que la entidad existe y realiza el objeto de su existencia la exponen a mayores o menores pérdidas. Porque a perder se acostumbran las entidades y los individuos, es algo tan rutinario que se vuelve parte del paisaje: extraviamos objetos, nos timan en pequeña o gran monta; falla el auto; el sistema informático; la maquinaria; sufrimos hurtos o accidentes; y de todo esto solo nos queda registro en la memoria cuando las pérdidas son significativas, las pequeñas las borramos rápido del registro; Importa saber sin embargo si la ley que rige esas pérdidas nos puede dar una idea de su potencial de aniquilación. Es bastante malo que existan pérdidas, peor aún que estas sean grandes, pero que sucedan eventos malos de tamaño significativo, en forma conjunta, debiera ser una preocupación primaria. Por esta razón se deben estimular las investigaciones que permitan determinar la probabilidad de estos eventos, tanto en forma individual como conjunta. El disertante se propone investigar un modelo particular para medir el riesgo operativo de pérdidas conjuntas. 2.- Objetivo y alcance. El objetivo de este trabajo es resolver problemas metodológicos ligados a la medición del riesgo operativo mediante la teoría de valores extremos, en particular con la Distribución Generalizada de Pareto Multivariada (DGP-M de aquí en adelante). El número de problemas a abordar es amplio, ya que la exploración de estas metodologías está en su fase incipiente.

    1

  • Sin intención de resolver todos los problemas asociados a la aplicación de los modelos multivariados de la teoría de valores extremos, se abordan los siguientes ligados al modelo DGP-M:

    • El problema de la dependencia en la cola de la distribución,

    • El uso de frecuencias de ocurrencia distintas entre factores de riesgo típico del Riesgo operativo.

    • La determinación o no existencia de tal dependencia.

    • La estimación de parámetros de dependencia.

    • La simulación de variables distribuidas como Generalizadas de Pareto Multivariadas.

    • La obtención de medidas de riesgo en función a las simulaciones realizadas.

    • El escalamiento del la medida de riesgo en el tiempo.

    • Orientar cada uno de los elementos abordados al Riesgo Operativo. 3.- Base de datos con pérdidas operativas. Confidencialidad Si bien este trabajo no es el estudio de un caso, para su investigación el disertante contó con una base de datos con más de 25,000 eventos de pérdidas operativas de una entidad específica, que fue sumamente útil para resolver los problemas prácticos del trabajo con variables empíricas, por razones de confidencialidad no se revelan los datos y parámetros específicos obtenidos. 4.- Investigaciones Previas.

    4.1.- Investigación reciente en modelos multivariados de valores extremos para Riesgo Operativo

    Recientemente las investigaciones en riesgo operativo han confirmado la existencia de correlaciones de importancia, asimismo se ha empezado a avanzar en los modelos multivariados con correlación o dependencia. Los enfoques que los autores han identificado son:

    • Modelado de cuerpos lognormales (para pérdida esperada), colas GDP para colas. Incluyendo correlación -efecto diversificación-.

    • Uso de Cópulas de Teoría de Valores Extremos. Uso de la cópula t. Marginales GDP estructura de dependencia con cópulas t y empírica.

    • Escenarios multivariados con Cópula Gaussiana obteniendo distribuciones Poisson multivariadas.

    2

  • • Modelado de la estructura de dependencia de las diferentes unidades de riesgo vía el nuevo concepto de Cópula de Lévy.

    • Estimación por máxima verosimilitud de un modelo estadístico multivariado. Modela con distribuciones de valores extremos donde los datos lo sugieren, estimando por análisis de escenarios y eliminación de “outliers” de las distribuciones marginales y dependencia con cópulas.

    En fechas recientes ha florecido la investigación en el campo del riesgo operativo y los valores extremos. Varios investigadores especializados en teoría de valores extremos (Embrechts, Klüpelberg, Mikosch 2008, Falk, Chávez-Desmoulin, Embrechts, Neslehová 2006), han sido atraídos al análisis de problemas en la medición del riesgo operativo por la naturalidad con que éste encaja con la teoría, realizando contribuciones importantes; estás van desde la agregación de las pérdidas, al uso de distribuciones para modelar las frecuencias, pasando por el tratamiento de datos, enfoques multivariados distintos, hasta el abordar de lleno el cálculo del valor en riesgo y la esperanza condicional de la cola. El modelo que se trata en esta investigación, no ha sido abordado en tales enfoques.

    4.2.- La propuesta del uso de la descomposición espectral, o densidad angular en la Distribución Generalizada de Pareto.

    Por otro lado la teoría estadística ha desarrollado técnicas para generar distribuciones generalizadas de Pareto multivariadas. Recientemente fueron publicados varios artículos por René Michel (2001-2006), en donde aborda problemas teóricos y prácticos de la Distribución Generalizada de Pareto Multivariada (DGP-M). Sus investigaciones son exhaustivas, y el practicante de la administración de riesgos financieros y los investigadores en otros campos, encontrarán amplio material de aplicación. Con la intención de ahondar en aspectos prácticos, y en particular en el modelado del riesgo operativo, son relevantes particularmente los siguientes temas:

    • Aspectos teóricos de los modelos: logístico, logístico asimétrico y logístico anidado.

    • Simulación: algoritmos para los dos primeros modelos anteriores, e indicaciones sobre cómo abordar el tercero.

    • Estimación de Parámetros: para los modelos logísticos con mismo parámetro de dependencia; Para el modelo logístico anidado con parámetros de dependencia distintos entre pares, en particular el método de máxima verosimilitud.

    En su investigación Michel hace uso de la descomposición espectral, también llamada angular (Falk, Hüessler y Reiss). La descomposición angular consiste en transformar las variables de pérdida en componentes (angular y radial) equivalentes a una representación polar, y donde los

    3

  • componentes angulares son la materia prima para los diferentes modelos, estimación de parámetros y simulación de variables. En la revisión de investigaciones previas no se encontró el uso directo de esta descomposición aplicada a medir riesgo operativo tal como se propone.

    4.3.- Metodologías Previas Requeridas y Existentes. Ahora bien, para utilizar los modelos de distribuciones DVE (Distribución de Valores Extremos) y DGP (Distribución Generalizada de Pareto) en sus diferentes dimensiones: univariada, bivariada, trivariada y multivariada, se debe contar con metodologías para:

    • Estimar los parámetros de forma, localización y escala (modelos paramétricos). • Pruebas para verificar la bondad del ajuste a la distribución, dados los parámetros

    encontrados. • Formas cerradas para estimar cuantiles de la distribución encontrada o métodos de

    simulación para generar variables aleatorias bajo los parámetros determinados. Cuando se trata de dos o más dimensiones se añaden las metodologías siguientes para:

    • Estimar funciones que determinen las relaciones de dependencia entre las variables (cópulas o semi-cópulas).

    • Estimar los parámetros de las distribuciones marginales y los parámetros de dependencia entre estas.

    • Obtener formulas cerradas para generar variables aleatorias con dependencia (Casos bivariados y trivariados).

    • En su caso desarrollar métodos de simulación para generar variables aleatorias, dada la relación de dependencia obtenida.

    • Escalar las variables simuladas con los parámetros de escala, forma y localización.

    • Transformar las variables obtenidas en las variables de estudio (pérdidas operativas por ejemplo) y generar sus medidas de riesgo.

    4.3.1.- Bivariado y Trivariado. Para el caso bivariado y en algunos casos trivariado hay varios modelos desarrollados e implementados en diferentes programas, Stephenson en su programa “evd”, incluye para 9 modelos bivariados de DVE:

    • Cálculo de densidad y de la densidad angular; • Obtención de parámetros de modelos de cópulas condicionales para modelar

    dependencia. • Estimación de parámetros.

    4

  • • Obtención de simulaciones

    4.3.2.-Multivariado Para el caso multivariado, hay principalmente dos investigaciones que abordan la estimación de parámetros y simulación multivariada de los modelos de la teoría de valores extremos:

    • Stephenson en el caso de las de Valores Extremos. En el programa señalado incluye, para los modelos logístico y logístico asimétrico de las DVE; cálculo de distribución, densidad y obtención de simulaciones.

    • Michel en el caso de la Generalizada de Pareto, en sus investigaciones provee

    algoritmos para estimar parámetros y realizar simulaciones de los modelos logístico y logístico anidado. Provee además código en el programa “Mathematica” para la realización de simulaciones para los mismos modelos.

    Comparten los modelos Multivariados DVE y DGP que estudian Stephenson y Michel las siguientes características:

    • Las variables de pérdida sufren las siguientes transformaciones: o Variable empírica

    Estandarización en términos de la marginal paramétrica • Transformación a variables exponenciales negativas

    • Utilizan la descomposición angular. • Distribuciones marginales paramétricas univariadas. • Distribuciones marginales Fréchet, de relevancia en finanzas debido a las colas

    pesadas que exhiben estas variables. • Modelos Logísticos, Simétricos y asimétricos

    o Logístico: Parámetro de dependencia único (constante). o Logístico asimétrico, parámetros de dependencia diferentes y parámetros

    de asimetría. Número de parámetros elevado. • Su espacio probabilístico se encuentra en el Simplex unitario. • Existencia de Algoritmos de simulación implementados para los modelos

    logístico y logístico asimétrico. • La existencia de modelos logísticos anidados con diferentes parámetros de

    dependencia. Modelos más complejos de implementar debido a las expresiones involucradas.

    • Ambos apuntan que los algoritmos de simulación que presentan se pueden modificar para aceptar el logístico anidado.

    • Las simulaciones entregan resultados en forma de cuantiles marginales relacionados por los parámetros de dependencia de la distribución conjunta.

    5

  • • Los cuantiles se convierten en variables de pérdida con las transformadas inversas de las distribuciones marginales.

    Es conveniente señalar las características que dan la relevancia a los modelos logísticos en la posibilidad de obtener medidas de riesgo operativo,

    • Modelo logístico: de manejo sencillo para cualquier dimensión, con la desventaja de suponer un parámetro de dependencia constante. Como se comentó, tanto Stephenson como Michel proveen algoritmos específicos de simulación. El modelo es útil en riesgo operativo si se encuentra un parámetro de dependencia muy similar en el conjunto de variables a modelar.

    • Modelo logístico asimétrico: permite el manejo de diferentes parámetros de

    dependencia, pero requiere asimismo muchos parámetros de asimetría. El número de parámetros requerido lo hace inmanejable para muchas variables. Tanto Stephenson como Michel proveen algoritmos específicos de simulación.

    • Modelo logístico anidado: permite modelar las dependencias relevantes entre

    variables, utilizando d-1 parámetros de dependencia. El modelo deriva en expresiones complejas. Tanto Stephenson como Michel indican que es factible trabajar con estos modelos a pesar de su complejidad. El trabajo de Stephenson provee de una indicación muy general para los modelos de Valores Extremos; el de Michel provee soluciones tanto en la simulación de variables como en la estimación de parámetros que se pueden adaptar a las versiones multivariadas del modelo logístico. Por sus características el modelo puede ser de mucha utilidad para modelar el riesgo operativo.

    Como se puede observar, el modelo logístico anidado ofrece un campo amplio de oportunidad en la investigación de su aplicación al riesgo operativo, sin embargo las investigaciones actuales no lo abordan con toda la profundidad de los primeros. Las dificultades en la obtención de expresiones de la densidad angular y las asociadas para dimensiones elevadas limita el uso del modelo para portafolios o problemas financieros de muchas variables, pero lo hace idóneo para modelar situaciones de número limitado de variables, tal como en el caso del Riesgo Operativo, en el que las características de las variables permiten suponer independencia respecto a diferentes líneas de negocio, pero diferentes niveles de dependencia entre eventos dentro de las líneas de negocio; y además en número reducido de variables de pérdida a modelar. En la Tabla 1 se muestra lo actualmente disponible y no para generar variables aleatorias de valores extremos:

    6

  • Tabla 1. Distribuciones de Valores Extremos: Metodologías existentes para utilizar los modelos en diferentes dimensiones.

    Metodología Univariado Bivariado Multivariado Estimar los parámetros de forma, localización y escala.

    DVE y DGP: Existen.

    DVE y DVE: existen, mismos que para las distribuciones marginales.

    Pruebas para verificar la bondad del ajuste a la distribución, dados los parámetros encontrados.

    DVE y DGP: Existen.

    DVE y DGP: No hay.

    DVE: No hay DGP: Michel 2005.

    Formas cerradas para estimar cuantiles de la distribución encontrada o métodos de simulación para generar variables aleatorias bajo tales parámetros.

    DVE y DGP: Existen

    Estimar funciones que determinen las relaciones de dependencia entre las variables (cópulas). Estimar los parámetros de dependencia.

    DVE: Stephenson 2003 DGP: Michel 2005.

    Obtener formulas cerradas para generar variables aleatorias con dependencia.

    DVE y DGP:

    Existen

    DVE: NA DGP: NA

    O en su caso desarrollar métodos de simulación para generar variables aleatorias, dada la relación de dependencia obtenida.

    DVE: Existen DVE: Stephenson 2003 DGP: Existen DGP: Michel 2005

    DVE: Stephenson 2003 DGP: Michel 2005

    Escalar las variables simuladas con los parámetros de escala, forma y localización

    DVE: NA DGP: NA

    DVE y DGP: Existen

    DVE y DGP: Existen

    Nota: Se verificó la existencia de las metodologías a diciembre de 2008. Simulación:

    Respecto a la simulación de variables, necesaria para modelar riesgo operativo ya que se ha aceptado el supuesto de comportamiento multivariado y la relevancia de los parámetros de dependencia Michel (2006,2001) señala que hay relativamente pocos trabajos que tratan la simulación de distribuciones de valores extremos multivariadas:

    • Tajvidi (1996) señaló la necesidad de tales simulaciones.

    • Falk, Michael; Hüsler, Jürg; Reiss, Rolf-Dieter (2004) Simulan la DGP Marshal-Olkin bivariada.

    • Reiss, R., Thomas M., (2001) desarrollan técnicas para simular modelos DVE bivariados: Marshal-Olkin; Hüsler-Reiss. Stephenson implementa los modelos

    7

  • logístico, logístico asimétrico, Hüsler - Reiss, negativo logístico, bilogístico, negativo bilogístico, Coles-Tawn y asimétrico mixto.

    • La mayoría de los trabajos conocidos hoy en día tratan casos bivariados y trivariados.

    • Stephenson (2003), es la única fuente que aborda la simulación en distribuciones DVE para n dimensiones. Los algoritmos de Stephenson están implementados en el paquete en R (Ihaka y Gentleman, 1996) llamado “evd” (Stephenson, 2002), y está disponible en http://www.maths.lancs.ac.uk/ stephena/.

    • La investigación de Michel (2006) aborda por primera vez la simulación de DGP en dimensiones arbitrarias para los modelos logístico y logístico asimétrico, y provee de algoritmos generales adaptables a otros modelos.

    Para la estimación de funciones de dependencia.

    • Para el caso de las distribuciones DVE, hay amplia literatura para la estimación del parámetro de dependencia en el caso bivariado (Michel lista al menos 13).

    • Para dimensiones mayores en distribuciones DVE, Michel menciona los trabajos de Tawn (1998), Coles y Tawn (1991) Joe et al. (1992), Coles y Tawn (1994), Coles et al. (1999), Kotz y Naradajah (2000).

    • Para distribuciones DGP Michel aplica varios métodos previamente utilizados en la estimación de parámetros de las distribuciones DVE.

    Michel señala que la razón de que la mayoría de los trabajos tratan el tema bivariado, o a lo más trivariado, es porque en teoría de valores extremos las cosas se complican al pasar de dos a tres dimensiones:

    “Esto se debe a que la función de dependencia de Pickands, que gobierna esos modelos, es una función univariada en el caso bivariado. Por tanto el paso de la dimensión 2 a la 3 es, para la función de dependencia el paso de la dimensión 1 a la 2. Esto lleva a fórmulas más complicadas, y no toda aseveración válida en el caso bivariado, se sostiene para el caso trivariado”. Michel [Abril 2006]

    4.3.3.-Severidades: Distribuciones de Valores Extremos Multivariadas.

    Aunque esta investigación no aborda el caso de la distribución de valores extremos multivariada DVE-M, es conveniente notar lo siguiente: Si bien los algoritmos recopilados e implementados por Stephenson para la DVE multivariada están disponibles en forma libre, no se ha hecho aplicación de tales modelos a la medición del riesgo operativo. Mucho menos se ha explorado el modelo logístico

    8

  • anidado, mismo que, como se apuntó, puede ser de gran importancia en la medición del riesgo operativo. Unas notas más sobre la el trabajo de Stephenson: Su trabajo “Simulating Multivariate Extreme Value Distributions” es muy compacto y se centra efectivamente solo en los problemas de la simulación de las variables aleatorias mediante los modelos logístico y logístico asimétrico, proponiendo para cada uno dos algoritmos. Al final de ese trabajo Stephenson aborda el problema de la generalización de los modelos indicados, en particular se aborda el modelo logístico anidado, con distribuciones marginales Fréchet. De hecho concluye el artículo diciendo:

    “El modelo presentado aquí, incorpora solo un nivel de anidación. En teoría es posible construir y simular de una distribución logística de valores extremos formas que contengan cualquier número de niveles de anidación”. Stephenson, Ob. cit. Pág. 58

    Los trabajos de Stephenson en torno a su Software “evd” se refieren al uso del programa, pero también aporta elementos teóricos de los diferentes modelos allí donde es necesario.

    9

  • 10

    5.- Plan de la Tesis. El Gráfico 1 presenta el mapa conceptual que esta obra desarrolla a lo largo de 5 capítulos. Capítulo I: Presenta el problema del riesgo operativo, los retos que presenta y la forma en que este trabajo contribuye al enfoque de modelos avanzados. Capítulo II: Presenta e implementa dos pruebas de independencia en valores extremos. El objetivo es modelar dependencia conjunta en la cola solo en donde las pruebas indican que debe hacerse. Modelar riesgo con dependencia en donde las pruebas estadísticas indican que no existe, es sobreestimar la medida de riesgo. De hecho, descartar dependencia para algunos conjuntos de variables simplifica enormemente la obtención de medidas de riesgo operativo. Es importante notar que una vez que no ha sido posible descartar independencia en la cola entre un grupo de variables, existe la posibilidad de que sean modeladas con distribuciones de valores extremos multivariadas (DVE-M) o distribuciones generalizadas de Pareto multivariadas (DGP-M); este trabajo solo trata el caso de la generalizada de Pareto multivariada. (Ver gráfico 1 parte inferior izquierda). Capítulo III: Se demuestra la expresión de la densidad angular para la distribución Generalizada de Pareto Multivariada, tipo logístico anidado, para 3 variables y escala el procedimiento hasta 5. La densidad angular es útil en algoritmos de simulación de variables aleatorias con esta distribución y para estimar sus parámetros de dependencia. Se utilizan las expresiones obtenidas para estimar, por máxima verosimilitud, los parámetros de 5 variables con parámetro conocido (Con el objetivo de verificar confiabilidad en la metodología propuesta). El modelo tiene características que lo hacen adecuado como modelo avanzado de riesgo operativo. Se propone un método para determinar el orden jerárquico de las variables en la aplicación del modelo a variables empíricas. Capítulo IV: Presenta los algoritmos de simulación de Michel, mismos que utilizan la densidad de Pickands para obtener los vectores aleatorios; asimismo se proponen las modificaciones necesarias a tales algoritmos para realizar tales simulaciones utilizando la densidad Angular del modelo logístico anidado. En particular, cuando se expongan los algoritmos modificados, se utilizará el caso de 5 variables para mostrar en forma detallada el proceso para generar tales variables aleatorias. Capítulo V: Muestra como utilizar las variables simuladas del modelo DGP-M para ser transformadas en simulación de pérdidas operativas con dependencia; se presenta el marco fundamental para modelar el riesgo operativo. Este capítulo es de naturaleza integradora ya que reúne los elementos que se vierten en los capítulos previos, se articulan con elementos que se vierten en este capítulo referentes a la conformación de los procesos de pérdidas agregadas y la obtención de las medidas de riesgo operativo cuando se ha modelado mediante una DGP-M.

  • 11

    Series de la

    máxima pérdida

    Marginales:Estimación de Parámetros

    DVE ; DGPDVE ; DGP

    Dominiode

    Atracción?

    Gumbel

    Fréchet

    Piecing Together:

    Marginales + Función de

    Dependencia

    Transformación de Variables: TP y TF

    Gráfico 1.- Mapa Conceptual de la Obra

    Prueba: Prueba: ¿¿Independencia?Independencia?

    ••ParesPares••MMúúltipleltiple

    Severidad de La PSeveridad de La Péérdidardida.Modelado de la DistribuciDistribucióónn la Cola

    Modelado Univariado de la

    Distribución• Cuerpo• Cola)

    Si

    Modelado Multivariado de

    la Cola.•DVE•DGP

    No

    Máxima por

    Bloques

    Modelado con MetodologModelado con MetodologííasasEstEstáándar.ndar.

    SimulaciSimulacióón Variables n Variables

    EstimaciEstimacióón de Parn de Paráámetros. metros. ••MMááxima Verosimilitudxima Verosimilitud

    DGP Multivariada con DependenciaDGP Multivariada con Dependencia

    Riesgo OperativoMedidas de Riesgo

    Capítulo V

    Capítulo I

    Riesgo OperativoRiesgo Operativo

    γ>0

    γ

  • 12

  • CAPÍTULO I:

    RIESGO OPERATIVO DEFINICIÓN Y PRINCIPALES PROBLEMAS ACTUALES; TEORÍA DE VALORES EXTREMOS.

    I.1.- Riesgo Operativo. Ésta investigación es acerca del Riesgo Operativo y de la importancia de la Distribución Generalizada de Pareto multivariada en la obtención de sus medidas de riesgo considerando dependencia entre eventos. Riesgo operativo se define como el riesgo de pérdida debido a las deficiencias o a fallos de los procesos, el personal y los sistemas internos o bien a causa de acontecimientos externos. El tipo y frecuencia de eventos que abarca es muy diverso. Esta definición incluye el riesgo legal, pero excluye el riesgo estratégico y el de reputación. Del riesgo operativo se pueden destacar las siguientes características

    • El riesgo operativo es el más antiguo de todos y está presente en cualquier clase de negocio y casi en toda actividad.

    • Es inherente a toda actividad en que intervengan personas, procesos y plataformas tecnológicas.

    • Es complejo, como consecuencia de la gran diversidad de causas. • Las grandes pérdidas que ha ocasionado a la industria financiera muestran el

    desconocimiento que de él se tiene y la falta de herramientas para gestionarlo. Es conveniente indicar de una vez la principal diferencia relevante para el modelado del riesgo legal: En tanto que en el riesgo operativo las pérdidas ocurren durante una ventana dada, en el riesgo legal aparte de los eventos esperados que suceden con determinada frecuencia (para cuyos parámetros utilizamos información histórica), existen eventos en curso (demandas) cuya conclusión en pérdida es incierta, pero incluye una probabilidad de que suceda. Por otro lado está la severidad de la pérdida, en este caso tenemos una situación parecida al riesgo de crédito, es decir, tenemos un monto expuesto inicial (monto demandado) y una pérdida final (Resolución de la situación). La pérdida final se evalúa como pérdida económica, esto es, incluye gastos de juicio y otros gastos relacionados con la obtención de la resolución, incluidos los gastos de mantenimiento en caso de estar involucrado un bien que lo requiera. Finalmente existen montos con reclamo propio y montos con reclamo en contra, etc.

    13

  • Riesgo Operativo Significativo es un riesgo, que por su importancia tiene un impacto potencial adverso (cualitativo o cuantitativo) en:

    • Asegurar la existencia de un negocio en marcha. • Consecución de Objetivos; • Alcanzar metas de Rentabilidad; • Mejorar la Competitividad y Productividad; • Mantener y mejorar Reputación;

    Los Riesgos Operativos Significativos, pueden terminar en verdaderos desastres que amenacen la misma existencia de la entidad.

    I.1.1.- Riesgo Operativo y Riesgo Residual; Pérdidas brutas y pérdidas netas Riesgo Operativo intrínseco: Es un riesgo que se deriva de realización de las actividades propias de la entidad. Está implícito en la actividad que realizamos. Es medible, gestionable y factible de mitigare.

    Mitigación del Riesgo Operativo: es la parte del riesgo intrínseco con posibilidad de ser eliminado: mediante mejoras en procesos; modernización de sistemas y equipos; aseguramiento contra ciertos eventos (robo, fallas en sistemas, fenómenos naturales, etc.)

    El Riesgo Operativo Residual: es el remanente y es el que se manifiesta en forma de eventos de pérdidas. El objetivo de la administración de riesgos debe ser minimizar el riesgo residual.

    La mitigación es la medida más eficiente contra el riesgo operativo. No todas las acciones de mitigación tienen un beneficio asignable de forma inmediata, pero otras sí (Seguros).

    Riesgo Operativo Intrínseco - Mitigación = Riesgo Operativo Residual De lo anterior se deriva que existirán pérdidas brutas y pérdidas netas. Esto trae a discusión si se deben utilizar unas u otras apara modelar el riesgo. De hecho se pueden seguir ambos caminos:

    • Se modelan las pérdidas brutas: en tal caso se debe hacer el cálculo de la severidad de pérdida, restando pagos por cobertura (mitigación del riesgo) y sumando costos y gastos.

    • Modelar pérdidas netas: por neto se debe entender no solo por la deducción de la mitigación (pago del seguro por ejemplo, pago del daño en caso legal), sino la inclusión del costo (el pago de primas y deducibles, gastos de juicio y demás).

    En uno y otro caso el resultado es el mismo, pero cuando se trabaje con pérdidas netas se debe estar seguro que se incluyen los beneficios de la mitigación pero también sus costos.

    14

  • Por otro lado las series históricas de pérdidas se registran a valor histórico, y se requieren series largas en tiempo para capturar eventos escasos, pero el análisis debe hacerse a valor presente (pérdida económica) cercano a la fecha de análisis para dimensionar mejor las pérdidas pasadas. Además de lo anterior, se debe tener en cuenta que en el caso de riesgo legal, el concepto de pérdida económica es más relevante, debido a que:

    • La ventana del evento suele ser larga. • A lo largo del evento se suceden gastos y costos legales y de otro tipo. • Los rezagos en el cobro de seguros y demás beneficios también aconsejan el uso

    del valor presente. Esta investigación parte de las pérdidas netas de costos y beneficios de mitigación.

    I.1.2.- Gestión y Modelado del Riesgo Operativo. La administración de riesgo operativo incluye el modelado de éste y la gestión de éste en base a tales resultados, este artículo pone más énfasis en el modelado del riesgo. Solo como referencia se debe comentar que la obtención de información no es sencilla y que la gestión del mismo tiende a modificar el tamaño y la frecuencia de las pérdidas en el tiempo. Las siguientes preguntas acercan a los problemas que han de ser resueltos para construir una base de datos sólida en base a la cuál se pueda modelar el riesgo, y establecer las estrategias de seguimiento y administración de éste riesgo.

    • ¿Quién identifica los riesgos? • ¿Cuál va a ser el mapa de riesgos: Líneas de negocio y eventos de pérdida? • ¿Cuál es la definición de ventana del evento?, es decir ¿cuando se considera

    que un evento ha sucedido y concluido?, ¿Pérdidas en diferentes tiempos deben ser acumuladas en un solo evento?

    • La definición de evento, acumulación de pérdidas asociadas a un mismo evento y ventana de evento se vuelven relevantes.

    • ¿Se registran solo los eventos que efectivamente terminan en pérdida? • ¿Todas las pérdidas son registrables? • ¿Quién identifica y reporta las pérdidas? • ¿Quién construye la base de datos de pérdidas, quién la valida? • ¿Qué controles aseguran que toda pérdida es reportada y clasificada

    adecuadamente? • ¿Debe ser modificado el esquema contable para clasificar pérdidas? • ¿Quién decide qué riesgo debe ser mitigado?

    15

  • • ¿Quién establece los planes de acción? • ¿Quién da seguimiento a los planes de mitigación? • ¿Quién construye los modelos de administración del riesgo operativo? • ¿Qué cambios en la estructura de control y reporte deben ser implementados

    como resultado de las pérdidas observadas y de los parámetros de riesgo obtenidos?

    Un ejemplo de esquema global de la gestión del Riesgo Operativo es el siguiente:

    Gráfico - Gestión del Riesgo Operativo Así en esta investigación omitimos la parte relativa a la gestión de este riesgo para centrarnos en su modelación, y en particular en su modelación multivariada. Asimismo se parte de que se ha definido la estructura y contenido de la base de datos, y que ésta ya es explotable. Por tanto omitimos mayor detalle que el ya expuesto sobre su construcción, validación y preparación previa. Aunque esta investigación utiliza datos reales de una institución, estos han sido escalados para no representar los parámetros de esta, si bien siguen capturando el objeto de estudio y sus relaciones. Fuente: Elaboración propia.

    16

  • I.1.3.- Modelado del Riesgo Operativo. La regulación propuesta en el Acuerdo de Capitalización de Basilea II de Junio de 2004, para el cálculo de capital en los bancos, ha ido filtrándose a las regulaciones locales, poniendo a las instituciones financieras ante el reto real de implementar estas metodologías. Ya la implementación del proceso de sistematizar el registro y clasificación de las pérdidas de tipo operativo implica cambios sustanciales en las organizaciones; el modelado de este tipo de riesgo es aún más complejo, actualmente no hay estándares para su medición, es un campo que continuamente ofrece novedades en soluciones pero también abre problemas nuevos. La regulación existente ha tratado de ser conservadora, pero aplicar tal conservadurismo implica un costo para las instituciones, mientras más sencillo y fácil de implementar el método, más caro en costo de capital: Existen las siguientes opciones (de las simples a las complejas):

    • Indicador Básico. • Método Estándar. • Método Estándar Alternativo. • Modelos Avanzados (AMA).

    En México únicamente están regulados los dos primeros, no obstante es de esperar que conforme avance la gestión del riesgo operativo se avance también hacia los siguientes modelos. Los enfoques a que se hace referencia en esta obra se inscriben en los modelos avanzados (AMA). Dependiendo del riesgo de cada entidad, que en el caso de riesgo operativo está definido por sus estructuras de control y las plataformas tecnológicas que utiliza, cada enfoque puede implicar un menor costo de capital, pero su complejidad en el modelado aumenta mucho cuando se trata de los modelos avanzados y exige la solución de problemas nuevos.

    I.1.3.1.- AIGOR Problemas en el modelado del riesgo operativo e implicaciones prácticas.

    El enfoque de modelos avanzados tiene importantes incentivos por sus beneficios en gestión y asignación de capital, pero también es el que más retos implica. El Comité de Basilea constituyó el AIGOR (Grupo de Implementación de Riesgo Operativo para modelos avanzados) mismo que se enfoca en los retos prácticos ligados a la implementación de este tipo de riesgo, especialmente en lo tocante a los modelos avanzados. Hay varios aspectos relacionados con el modelado del riesgo operativo que el AIGOR aborda. En lo que sigue se citan los párrafos del documento de análisis que ha liberado el mencionado grupo que son relevantes para el objeto de este artículo, asimismo se

    17

  • comentan sus implicaciones. Las referencias son al documento de convergencia del Comité de Basilea de octubre de 2006, y al documento denominado “Observed range of practice in key elements of Advanced Measurement Approaches” del AIGOR: Granularidad:

    "El sistema de medición de riesgo del banco debe ser suficientemente 'granular' para capturar los principales factores clave del riesgo operativo que afectan la forma de la cola de las estimaciones de pérdida.” (Párrafo 669(c))

    Implicaciones prácticas: • El menos granular es el que modela una sola distribución para todas las

    pérdidas, su supuesto implícito es independencia entre las pérdidas; El supuesto es que son independientes e idénticamente distribuidas.

    • El enfoque más granular establece pérdidas por línea de negocio o tipo de evento de riesgo operativo, o bien ambas (tipo de evento por línea de negocio); Retos: disponibilidad de datos y diferencia en frecuencias.

    • La falta inicial de datos puede llevar inicialmente a modelos de baja granularidad (agrupación de eventos en categorías más generales).

    Dependencia (correlación),

    “Las medidas de riesgo para diferentes estimaciones de riesgo operativo deben ser sumadas con el propósito de calcular el requerimiento de capital regulatorio mínimo. Sin embargo, al banco le puede ser permitido utilizar correlaciones determinadas internamente en riesgo de pérdidas entre estimaciones individuales de riesgo operativo, siempre que pueda ser demostrado a la satisfacción del supervisor nacional que sus métodos para determinar las correlaciones son sólidos, implementados con integridad, y que toman en cuenta la incertidumbre que rodea a tales estimaciones de correlación (Particularmente en periodos críticos). El banco debe validar sus supuestos de correlación utilizando técnicas cuantitativas y cualitativas adecuadas.” (Párrafo 669(d))

    Implicaciones prácticas: • Sumar las medidas de riesgo (OpVaR) implica perfecta dependencia entre

    riesgos; esto es un incentivo para probar modelos con dependencia imperfecta.

    • La dependencia imperfecta implica incorporar el efecto de portafolio en la modelación del riesgo.

    • Es necesario distinguir correlación de dependencia, la correlación está relacionada con fenómenos modelados con el supuesto de linealidad, aquí se tiene presente el concepto de dependencia en el sentido más amplio que incluye la dependencia en la cola de la distribución. Correlación no necesariamente implica dependencia.

    18

  • • No hay un solo tipo de dependencia, al menos se deben considerar: Dependencia entre frecuencia de eventos; dependencia en tiempo de eventos; dependencia entre las severidades de pérdida.

    • La diversidad de las frecuencias y severidades, así como del tiempo entre eventos lleva a la conclusión de que podemos tener variables aleatorias no idénticamente distribuidas que se deban modelar en forma multivariada, en forma natural esto conduce al uso de cópulas.

    • El concepto de dependencia en la cola se vuelve relevante, la dependencia es más relevante en los casos de ocurrencia simultánea de pérdidas grandes.

    “Es también posible considerar estructuras de dependencia más generales, para la cuales la correlación es diferente entre la cola y el cuerpo de la distribución y varía dentro de la cola. Estructuras complejas de dependencia que suponen altas dependencias en eventos de riesgo operativo en la cola son particularmente importantes y podrían conducir a resultados de requerimiento de capital por riesgo operativo que son mayores que cuando se hace el supuesto de correlación de 100%, aun cuando estos resultados no son probables para propósito de capital regulatorio” AIGOR

    La cita alude al hecho de que las distribuciones de valores extremos y la distribución generalizada de Pareto consideran como posibles pérdidas extremas no observadas. Sin embargo también hay que apuntar que es muy difícil hallar dependencia entre diferentes tipos de eventos y además qué estos, cuando exhiben severidades mayores son más escasos, por lo que es de esperar que las pruebas estadísticas sugieran también el uso de modelos univariados para algunos tipos de pérdida.

    Técnica utilizada en el modelado (Supuesto de distribución y estimación),

    “Dada la continua evolución de los enfoques analíticos para el riesgo operativo, el Comité no especifica supuestos a ser utilizados respecto al un enfoque o distribución para generar las medidas de riesgo operativo con propósito de determinar el capital regulatorio. Sin embargo el banco debe ser capaz de demostrar que su enfoque captura eventos de pérdida en la cola potencialmente severos. Cualquiera que sea el enfoque utilizado, el banco debe demostrar que sus medidas de riesgo operativo cumplen con estándares sólidos comparables con el enfoque de medidas de riesgo de crédito basadas en calificaciones internas (por ejemplo, comparables a de un periodo anual y e intervalo de confianza equivalente al percentil 99.9 de la distribución),” (Párrafo 667)

    “…El banco debe tener un umbral mínimo interno de pérdidas brutas para la recolección de pérdidas, por ejemplo €10,000. El umbral apropiado de pérdidas puede variar entre bancos y dentro de cada banco entre líneas de negocio o tipos de evento….” (Párrafo 673, segunda viñeta)

    19

  • Implicaciones prácticas: • Percentiles de confianza muy altos son difíciles de manejar cuando los

    datos de pérdidas son escasos, se necesitan 1,000 datos para tener una sola medida al 99.9%.

    • La discriminación de pérdidas bajas lleva a trabajar con umbrales y datos truncados y por tanto a determinar el umbral óptimo.

    • Se deben determinar las distribuciones óptimas para los datos separados (sea por línea de negocio, tipo de evento o tipo de evento por línea de negocio) para determinar distribuciones marginales y decidir la mejor manera de modelarlas en forma conjunta. “El rango de distribuciones supuestas para modelar la severidad del riesgo de pérdidas operativas es diverso, con algunos de los más granulares enfoque de modelado suponiendo más de una forma de distribución alineada a las características de una línea de negocio o tipo de pérdida en particular. Las distribuciones usadas incluyen las distribuciones generalizada de Pareto de la teoría de valores extremos, distribuciones empíricas, distribuciones lognormales, distribuciones de colas pesadas y distribuciones de colas ligeras.

    Hay mucha menos diversidad en el rango de distribuciones supuestas por los bancos para estimar la frecuencia de las pérdidas de riesgo operativo. La más comúnmente utilizada es la distribución Poisson. Un número mas pequeño de bancos supone una distribución binomial negativa” AIGOR

    Es de notar que la distribución generalizada de Pareto referida es generalmente la versión univariada.

    Otros temas tocados por el AIGOR incluyen, el uso de análisis de escenarios de pérdidas en conjunción con datos externos para evaluar la exposición a eventos muy extremos y el uso de mitigantes, en el cual solo se propone reconocer una mitigación máxima de 20% del cargo total por riesgo operativo bajo los modelos avanzados. I.2.- Tratamiento de Frecuencias distintas. En la medición de riesgo operativo se sigue el enfoque tradicional de modelar por un lado las frecuencias de las perdidas y por otro las severidades de pérdida. Aunque la investigación toca solo el modelado de las severidades, es necesario comentar en aras de la integridad del tema algunos puntos sobre las frecuencias. El riesgo operativo, exhibe una gran dispersión en la frecuencia de los eventos, algunos pueden suceder a diario, cada semana o mes (o incluso meses), sin existir necesariamente regularidad

    20

  • Venegas refiere que:

    “…para un banco típico que realiza diversas operaciones y transacciones con clientes, el riesgo de un fraude interno es de baja frecuencia y de alta severidad, el riesgo por fraude externo es de media/alta frecuencia y baja/media severidad, el riesgo por no atender medidas de seguridad en el lugar de trabajo es de baja frecuencia y baja severidad, el riesgo por errores de captura, ejecución y mantenimiento de operaciones con clientes es de baja/ media frecuencia y media/alta severidad, el riesgo por daños a activos fijos es de baja frecuencia y baja severidad y, por último, el riesgo por la falta de sistemas es de baja frecuencia y baja severidad”

    Como reconoce este autor, estas asociaciones a tipos de evento/frecuencia/severidad varían según la naturaleza de la entidad o institución. Por otro lado es necesario considerar que el uso de modelos de valores extremos, que se centran en la distribución de la cola, requiere que se tome en cuenta la frecuencia de la ocurrencia de valores extremos. En particular para modelo DGP, ya que esta distribución existe a partir de un umbral dado, es necesario saber con que frecuencia las observaciones exceden tal umbral y modelar en consecuencia. Por otro lado es común el supuesto de considerar que la frecuencia de los eventos es independiente de la severidad de pérdida. I.3.- Teoría de Valores Extremos y Formas Univariadas. En general hay dos maneras de modelar valores extremos:

    • El primero se denomina Máxima por bloques, que implica recoger solo las observaciones más grandes para un periodo dado, suponiendo grandes muestras de observaciones idénticamente distribuidas. El método discrimina una gran cantidad de datos y está relacionada con las Distribuciones Generalizadas de Valores Extremos (DVE), cuya forma estándar está dada por:

    0 x xxG ≠>⋅+⋅+−= − γγγ γγ ,01),)1(exp()(

    /1

    Donde si γ = 0, es la Gumbel estándar; si γ > 0, es la Fréchet, si γ < 0, es la Weibull.

    • El segundo método (o grupo de métodos) se denomina “excesos sobre un

    umbral”. Se modelan todas las observaciones grandes que exceden un umbral dado (Generalmente alto), el método discrimina menos datos (de por sí escasos) y se considera muy útiles en aplicaciones prácticas. Están relacionados con las Distribuciones Generalizadas de Pareto (DGP), cuya forma estándar está dada por:

    21

  • γγ γ

    /1)1(1)( −⋅+−= xxW

    Donde, si x > 0 y γ = 0, es la exponencial; Si 0 < x y γ>0, es la Pareto, y si 0 < x += ),(log1)(γ

    Esta relación será muy útil durante la investigación.

    3. El teorema de Pickands-Balkema-De Hann, establece que es posible

    encontrar una función positiva y medible dados parámetros de forma, localización y escala, tal que:

    (F)u ,0|)()(| .,][ ωσγ →→− xWxF uu

    u

    Si y solo si, F pertenece al dominio de atracción del máximo. Así la distribución para la cual la máxima normalizada converge a una distribución DVE constituye un grupo de distribuciones para las cuales la distribución de los excesos converge a una DGP cuando el umbral se incrementa. Más aun “El parámetro de forma de la DGP límite para los excesos es el mismo parámetro de forma que para la distribución DVE límite para el máximo” Alexander McNeil et. al. [2005].

    Es muy posible que cuando en un fenómeno existan observaciones extremas, buscando un umbral suficientemente alto, la cola tenderá se ajustar a una DGP.

    El enfoque de utilizar distribuciones de pérdidas implica por un lado demostrar que las variables de pérdida (o sus máximos) son independientes e idénticamente distribuidas, en la sección I.4 siguiente, se presenta la técnica para probar que las variables son independientes entre sí, y en la I.5 se muestra cómo se prueba que son idénticamente distribuidas (con las pruebas de ajuste a las distribuciones de probabilidad univariadas).

    22

  • I.4.- Variables Independientes: Descartando Correlación Serial. Probar la independencia en una serie de pérdidas operativas con el enfoque de valores extremos, equivale a probar que la serie no presenta autocorrelación serial. Cuando se habla de una serie, se hace referencia a la serie que representa las pérdidas (o máximos de éstas) para un tipo de pérdida que se desea modelar (celda). Al trabajar con las series de pérdidas operativas se encuentra que la frecuencia de ocurrencia de los eventos no son siempre sincrónicas, hay periodos en que un variable exhibe eventos cuando la otra no, la propuesta de este trabajo es buscar un periodo más largo en el cual haya una o varias observaciones por tipo de variable. De cada periodo se toma la observación máxima, a este procedimiento, como se apunto antes, se le conoce como “máxima por bloques”. De esta manera tenemos ahora series de ambas variables cada una de las cuales exhibe un valor máximo por periodo. Se puede partir de la máxima frecuencia, probar si la serie bajo este supuesto tiene autocorrelación, si la tiene se amplia el periodo de extracción del máximo, de los contrario se acepta la frecuancia inicial. Por otro lado se debe encontrar un nivel de extracción del máximo que sea adecuado para el conjunto de variables para las cuales se desea probar dependencia (siguiente capítulo). Para descartar autocorrelación en las series, se parte de la hipótesis nula siguiente:

    H0: No hay autocorrelación hasta el k-ésimo rezago Para la prueba, se utilizó el estadístico Q de Ljung-Box y su p-value. Como se sabe mientras más pequeño es el p-value es mas fuerte la evidencia para rechazar la hipótesis nula. Luego entonces para considerar que las series no tienen autocorrelación, el p-value del k-ésimo rezago debe ser mayor a 0.05. Con lo cual se aplica la prueba con un error de 5%. Por supuesto existe el problema práctico de elegir el k-ésimo rezago para la prueba, un rezago muy corto omitirá correlación serial en elevados rezagos, con uno muy largo la prueban tendrá bajo poder. Recuérdese que las series corresponden a las máximas por bloques de cada serie, por ejemplo la máxima pérdida en un día, pero también puede ser la máxima semanal, quincenal o de cualquier otro periodo. Por supuesto que al ampliar el tamaño del periodo se tienen menos observaciones. Por otro lado, la toma de los máximos debe dejar suficientes observaciones multivariadas, es decir la frecuencia elegida debe proveer de observaciones en las variables para las cuales se quiere probar la independencia en las observaciones extremas de variables.

    23

  • Lo anterior es importante porque la técnica para elegir la serie de máximos que no tiene autocorrelación consiste en tomar la mayor frecuencia posible, si en esta frecuencia la prueba indica autocorrelación, se amplia el periodo para la extracción del máximo, por ejemplo pasando de una frecuencia diaria a cada cinco días. Se procede del mismo modo hasta que la ampliación de periodo de extracción del máximo ofrece una serie sin autocorrelación serial. En la Tabla I.1 se incluye el resultado de la aplicación de la prueba Ljung-Box a las variables RO-1, RO-2 y RO-3 hasta con 12 rezagos. Se puede notar que solo cuando la máxima por bloques se toma de la Frecuencia 3, las tres series se encuentran libres de correlación. En el caso de la variable RO3, desde la frecuencia diaria esto es así, en los otros casos hubo de ser ampliado el periodo (bloque) del cual se extrae el máximo.

    24

  • Tabla I.1.- Resultado de las pruebas de autocorrelación. RO1

    k-ésimoRezago Q-Stat Prob Q-Stat Prob Q-Stat Prob

    1 62.01 0.00 5.77 0.02 1.05 0.312 75.87 0.00 13.68 0.00 2.36 0.313 89.53 0.00 16.44 0.00 7.39 0.064 96.47 0.00 16.92 0.00 7.78 0.105 120.69 0.00 22.21 0.00 8.19 0.156 158.74 0.00 24.74 0.00 9.94 0.137 189.55 0.00 28.61 0.00 9.95 0.198 218.10 0.00 30.01 0.00 10.22 0.259 231.18 0.00 30.33 0.00 10.38 0.32

    10 252.65 0.00 30.33 0.00 10.65 0.3911 267.65 0.00 30.36 0.00 10.65 0.4712 282.03 0.00 30.43 0.00 10.74 0.55

    RO2k-ésimoRezago Q-Stat Prob Q-Stat Prob Q-Stat Prob

    1 1.43 0.23 2.44 0.12 0.32 0.572 7.07 0.03 3.75 0.15 2.13 0.353 7.08 0.07 4.39 0.22 2.30 0.514 7.12 0.13 4.39 0.36 3.34 0.505 7.25 0.20 9.49 0.09 3.82 0.586 32.55 0.00 9.75 0.14 4.87 0.567 32.72 0.00 10.27 0.17 5.13 0.648 35.00 0.00 10.36 0.24 5.38 0.729 35.07 0.00 11.72 0.23 5.40 0.80

    10 65.58 0.00 11.85 0.30 5.79 0.8311 67.44 0.00 12.69 0.31 5.89 0.8812 68.94 0.00 13.14 0.36 6.13 0.91

    RO3k-ésimoRezago Q-Stat Prob Q-Stat Prob Q-Stat Prob

    1 0.14 0.71 0.02 0.89 0.11 0.742 0.25 0.88 0.14 0.93 0.28 0.873 0.49 0.92 1.02 0.80 0.71 0.874 0.49 0.97 1.17 0.88 1.07 0.905 0.52 0.99 1.24 0.94 2.01 0.856 0.52 1.00 1.27 0.97 2.22 0.907 0.73 1.00 1.38 0.99 2.30 0.948 0.87 1.00 1.55 0.99 2.51 0.969 0.92 1.00 2.76 0.97 5.88 0.75

    10 3.97 0.95 2.76 0.99 6.14 0.8011 4.66 0.95 3.97 0.97 6.15 0.8612 4.67 0.97 4.73 0.97 6.46 0.89

    Diaria Frecuencia 2 Frecuencia 3

    Diaria Frecuencia 2 Frecuencia 3

    Diaria Frecuencia 2 Frecuencia 3

    En general esta metodología es la que se debe utilizar determinar las series libres de correlación serial, ya que no son útiles las transformaciones usuales típicas de la construcción de modelos econométricos: en este caso se necesitan máximos sin transformaciones logarítmicas, y sin primeras o segundas diferencias, ya que lo que se modela es precisamente la pérdida en su forma original.

    25

  • Es importante sin embargo que al aumentar la amplitud del periodo del cual se extrae el máximo, deje suficientes variables para modelar el riesgo. Para los cálculos que se presentan en este capítulo, se utilizó el máximo de cada 7 días. I.5.- Determinación de parámetros de la distribución para algunas variables de RO. En esta sección del trabajo se utilizarán las series de máxima por bloques para modelar estas en forma univariada. En particular se estiman los parámetros para cada variable que corresponden a los modelos univariados DVE y DGP. Estos parámetros serán la base para modelar en forma multivariada. A este paso se le conoce como determinación de los parámetros de las distribuciones marginales. En suma en esta sección de debe probar que las variables son idénticamente distribuidas (Ajustan bien a la distribución propuesta), y cuáles son los parámetros de las distribuciones de valores extremos a utilizar. 1.5.1.- Análisis Univariado (VARIABLES: RO_1, RO_2 y RO_3). Se llevó a cabo un análisis univariado de tres variables que incluye 135 observaciones con el máximo semanal de cada una, por tanto se utilizó el método de máxima por bloques, con bloques de 7 días para 945 días. La estimación de parámetros se realizó con “Extremes”. Variable RO-1 Máxima por bloques de 7 días.

    Gráfico I.2. Kernel de densidad de RO-1, y Distribución de valores extremos ajustada.

    26

  • Tabla I.1.- Parámetros DVE estimados para RO-1 Parametrización Gamma Parametrización Alfa

    MU 10,741 MU 0SIGMA 5,960 SIGMA 10,741 GAMMA 0.554924 ALFA 1.80205

    La estimación de gamma es γ=0.55, es positiva. Se puede modelar como una Fréchet. En efecto, si observamos la gráfica cuantil-cuantil (Q-Q), se observa que una recta ajusta bastante bien a la distribución:

    Gráfico I.3.- Variable RO-1Gráfico Cuantil-Cuantil

    Gráfico I.4. Kernel de densidad de RO-1, y DGP ajustada.

    27

  • Tabla I.2.- Parámetros DGP estimados para RO-1 Extremos 15 40

    MU 13,885 13,851 SIGMA 5,566 4,715 GAMMA 0.0348386 0.11251

    MU 145,891- -28,059SIGMA 159,776 41,910ALFA 28.7038 8.88811

    Parametrización Gamma. Parametrización Alfa. La estimación de gamma es γ=0.034. Se puede modelar como una Pareto. Variable RO-2 Máxima por bloques de 7 días.

    Gráfico I.5. Kernel de densidad de RO-2, y Distribución de valores extremos ajustada.

    Tabla I.3.- Parámetros DVE estimados para RO-2

    Parametrización Gamma Parametrización Alfa

    MU 6,551 MU 0SIGMA 6,031 SIGMA 6,551GAMMA 0.920562 ALFA 1.08629

    La gamma es γ=0.92, positiva. Se puede modelar como una Fréchet.

    28

  • Gráfico I.6. Kernel de densidad de RO-2, y DGP Ajustada con Diferentes Extremos.

    Tabla I.4.- Parámetros DGP estimados para RO-2 Extremos 17 21 23 24

    MU -36,463 -9,846 4,121 9,753SIGMA 22,657 11,314 5,474 3,296GAMMA 0.2493 0.435089 0.660084 0.829692

    MU -4,173 5,780SIGMA 8,293 3,973ALFA 1.51496 1.20527

    Parametrización Gamma. Parametrización Alfa. La gamma es positiva, γ=0.82 para el mejor ajuste con 24 extremos. Se puede modelar con una Pareto.

    29

  • Variable RO-3 Máxima por bloques de 7 días.

    Gráfico I.7. Kernel de densidad de RO-3, y Distribución de Valores Extremos ajustada.

    Tabla I.5.- Parámetros DVE estimados para RO-3 Parametrización Gamma Parametrización Alfa

    MU 2,760 MU 0SIGMA 3,390 SIGMA 2,760GAMMA 1.22817 ALFA 0.81422

    La gamma es γ=1.22, positiva. Se puede modelar como una Fréchet.

    Gráfico I.8. Kernel de densidad de RO-3, y DGP.

    30

  • Tabla I.6.- Parámetros DGP estimados para RO-3 Extremos 13 15 69

    MU 365 -15,298 276SIGMA 6,320 11,535 6,140GAMMA 0.507216 0.35618 0.4993

    MU -120,942 -47,683 -12,023SIGMA 12,459 32,385 12,299ALFA 1.9715 2.81 2.00299

    Parametrización Gamma. Parametrización Alfa. La gamma es positiva, γ=0.499 para el mejor ajuste con 69 extremos. Se puede modelar con una Pareto. I.6.- Basilea: Estimación de parámetros y medidas de riesgo con modelos de valores extremos univariados (Moscadelli 2004). La aplicación de distribuciones univariadas de valores extremos, y generalizada de Pareto a modelar la severidad de pérdida en eventos de riesgo operativo ha sido ya abordada en forma amplia en varias investigaciones. Una de las más sobresalientes es la de Marco Moscadelli “The modeling of operational risk. Experience with the analysis of the data collected by the Basel Committee”, de Julio de 2004. Este investigador tuvo el privilegio de contar con la base de datos de 89 bancos participantes, e incluyó más de 47,000 observaciones, clasificadas por tipo de evento y línea de negocio. Dado que el interés de este trabajo está en los modelos multivariados, solamente se resaltarán los siguientes elementos de esta investigación:

    1. Bajo desempeño de los modelos de severidad actuariales convencionales para describir las características de los datos sobre todo debido al sesgo y kurtosis exhibidos. “De hecho, toda distribución tradicional aplicada a todos los datos de cada línea de negocio tienden a ajustar a las observaciones centrales, y en consecuencia a no tomar en adecuada consideración las pérdidas grandes” Moscadelli, Op. cit. Pág. 12.

    2. En cambio la investigación mostró que el paradigma de la teoría de valores extremos en su versión excesos sobre un umbral-Distribución Generalizada de Pareto (POT-DGP), “… proveen un estimado preciso de la cola de las líneas de negocio a los percentiles 95 y mayores, esto es confirmado por los resultados de tres pruebas de bondad de ajuste y análisis de desempeño del VaR de la severidad” Moscadelli, Op. cit. Pág. 12.

    31

  • 3. En los resultados del VaR de la severidad Moscadelli encuentra que a diferentes niveles de confianza (95%, 97.5%, 99%, 99.95% y 99.9%) el modelo POT-DGP es el que menores excepciones exhibe en las pruebas back test, comparado contra los modelos Gumbel y lognormal.

    4. Las líneas de negocio “Finanzas corporativas” y “Banca Comercial” resultaron ser las más riesgosas para la muestra utilizada, en tanto que las de “Banca de Menudeo” y “Operaciones Bursátiles al Menudeo” son las menos riesgosas. Es notable que el menor riesgo se encuentra en las líneas de negocio menos concentradas.

    5. Los resultados denotan que las pérdidas por riesgo operativo son en efecto una fuente de riesgo importante para los bancos.

    6. El consumo de capital que encuentra Moscadelli para cada línea de negocio es en 4 casos inferior al que implica el uso de los multiplicadores del modelo estándar de Basilea II para riesgo operativo, existiendo por tanto un beneficio en el uso de los modelos avanzados. En los otros 4 casos el consumo es mayor, sin embargo es notable que los cuatro en los que el consumo es menor, se acumula el 72% del cargo de capital, de tal manera que en forma consolidada resulta un coeficiente de 13.3% contra el 15% del modelo estándar de Basilea II.

    La siguiente tabla muestra el índice de la cola para cada línea de negocio, téngase en mente los resultados para la Parametrización gamma.

    Tabla I.7.- Moscadelli, resultados riesgo operativo con DGP univariada

    Gamma Alfa Umbral# Línea de Negocio γ α F(ui)

    1 Finanzas Corporativas 1.19 0.84034 0.9012 Negociación y Ventas 1.17 0.85470 0.9003 Banca al Menudeo 1.01 0.99010 0.9654 Banca Comercial 1.39 0.71942 0.9085 Pagos y Liquidación 1.23 0.81301 0.8996 Servicios de Agencia 1.22 0.81967 0.8947 Administración de Activos 0.85 1.17647 0.9048 Productos Bursátiles (Menudeo) 0.98 1.02041 0.900

    Fuente: Moscadelli 2004

    Respecto al valor de gamma, Moscadelli apunta que: • Si γ≥.5 la DGP tiene varianza infinita, • Si γ≥.1 la DGP no tiene momentos finitos, ni siquiera esperanza,

    Citando a Moscadelli “Esta propiedad tiene una consecuencia directa para el análisis de datos: de hecho el comportamiento pesado (o no pesado) de los datos en la cola puede ser fácilmente detectado del parámetro estimado de forma”

    32

  • La última columna indica para cada línea de negocio en umbral (cuantil) a partir del cual se puede modelar con una DGP. Hay que tener en mente que la investigación citada fue realizada bajo el supuesto de distribuciones univariadas. Los conceptos de dependencia están ausentes en las estimaciones realizadas. I.7.- Dominio de Atracción, Fréchet. Como se observó en la estimación de parámetros de las variables empíricas, todas se pueden modelar como DVE marginales Fréchet, si fuera el caso de modelarlas multivariadas en forma conjunta. Cuando en formas generales de valores extremos:

    0 x xxG

    ≠>⋅+

    ⋅+−= −

    γγ

    γ γγ,01

    ),)1(exp()( /1

    -1logG(x) si xGxW

    >

    += ),(log1)(γ Encontramos que γ > 0, se dice que las distribuciones están en el máximo dominio de atracción de la distribución Fréchet. Cuando en cambio γ = 0, está en el máximo dominio de atracción de la Gumbel. Ver Michel (3), Beirlant (Chapter 5 Tail estimation for all Domains of attraction), Coles, Reiss y Thomas. Por ejemplo, la normal se encuentra en el máximo dominio de atracción de la Gumbel. En hidrología los datos de descargas máximas en ríos se miden en promedios por lapso de tiempo, los promedios extremos determinan por ejemplo un riesgo de inundación. La relevancia de lo anterior es que en el campo financiero las variables suelen resultar con γ > 0; además la distribución Fréchet es la que exhibe colas más pesadas; finalmente las series obtenidas son los máximos por bloque, por lo que la elección de marginales Fréchet para modelar las variables de riesgo operativo parece natural. Beirlant indica en el capítulo 2 de su “Statistics of Extremes” que en el dominio de atracción de la distribución Fréchet están entre otras: Pareto (α), Generalizada de Pareto (σ,γ), Burr Tipo XII (η,τ,λ), Burr tipo III(η,τ,λ), F(m,n), InvΓ(λ, α), LogΓ(λ, α), Fréchet(α). En ese mismo capítulo Beirlant presenta el caso como Fréchet-Pareto. También indica que es conocida como “índice de la cola” y también “índice de Pareto”

    33

  • I.8.- Transformación de las variables empíricas en exponenciales negativas. Las variables no se utilizan ni para las pruebas estadísticas de independencia ni para la estimación de parámetros en su forma cruda natural, requieren transformaciones previas que son bien conocidas en la teoría de valores extremos. Las variables para ser tratadas deben existir en el espacio d-dimensional negativo (-∞,0)d, por tanto si proceden de variables reales, (como pérdidas o rendimientos en el terreno financiero), deben estar precedidas por transformaciones adecuadas:

    1. Obtener las distribuciones marginales de cada variable Realizado. 2. Determinar el dominio de atracción de la variable a través del índice de la cola

    (Tail Index) Realizado. 3. Transformar las variables a la forma estándar de la distribución Fréchet F(xi),

    utilizando los parámetros obtenidos.

    ( )ixF ~~~,, ασμ

    Para la parametrización gamma se utiliza:

    ( )⎟⎟⎟

    ⎜⎜⎜

    ⎟⎟⎠

    ⎞⎜⎜⎝

    ⎛⎟⎠⎞

    ⎜⎝⎛ −+−=

    −γ

    γ σμγ

    1

    1exp xxG Y los parámetros: Sigma

    (Escala)OR-1 0.554924 10,741 5,960OR-2 0.920562 6,551 6,031OR-3 1.22817 2,760 3,390

    Gamma (Forma)

    Mu (Localización)

    Para la parametrización alfa se utiliza:

    ( ) ⎟⎟

    ⎞⎜⎜⎝

    ⎛⎟⎠⎞

    ⎜⎝⎛ −−=

    −α

    α σμxxG exp

    Y los parámetros: Sigma

    (Escala)OR-1 1.80205 0 10,741OR-2 1.08629 0 6,551OR-3 0.81422 0 2,760

    Alfa(Forma)

    Mu (Localización)

    34

  • 4. Transformación a las variables de su forma estandarizada Fréchet F(xi) a la exponencial negativa, yi en la siguiente transformación.

    ( ) iii yxFy =−≈ 1~~~,,

    ~

    ασμ Restan los pasos 3 y 4. Después de aplicar ambas transformaciones obtenemos las variables en el cuadrante negativo. Ahora las variables se pueden modelar como resultantes “de una distribución uniforme en [-1,0]. (…) El orden de los datos permanecen intactos por la transformación, de modo tal que las observaciones extremas ahora están cerca del 0.” Michel (3) capítulo 7. Los datos en esta forma se aprecian como sigue:

    Gráfico I.9.- Variables OR-1 y OR-2 en el cuadrante negativo.

    -1.00

    -0.90

    -0.80

    -0.70

    -0.60

    -0.50

    -0.40

    -0.30

    -0.20

    -0.10

    0.00-1.00 -0.90 -0.80 -0.70 -0.60 -0.50 -0.40 -0.30 -0.20 -0.10 0.00

    35

  • Gráfico I.10.-OR-2 y OR-3 en el cuadrante negativo.

    -1.00

    -0.90

    -0.80

    -0.70

    -0.60

    -0.50

    -0.40

    -0.30

    -0.20

    -0.10

    0.00-1.00 -0.90 -0.80 -0.70 -0.60 -0.50 -0.40 -0.30 -0.20 -0.10 0.00

    Gráfico I.11.-OR-1 y OR-3 en el cuadrante negativo.

    -1.00

    -0.90

    -0.80

    -0.70

    -0.60

    -0.50

    -0.40

    -0.30

    -0.20

    -0.10

    0.00-1.00 -0.90 -0.80 -0.70 -0.60 -0.50 -0.40 -0.30 -0.20 -0.10 0.00

    Aunque en el siguiente capítulo se revisan las relaciones de dependencia entre las variables, es notorio en las tres gráficas que en la vecindad del cero hay muy pocas observaciones, y que las observaciones se encuentran más bien dispersas que conjuntas. Con las variables transformadas se este tipo se puede proceder a aplicar las pruebas de independencia en la cola, tanto bivariadas como multivariadas (Capítulo II).

    36

  • Descartada la independencia se procede a modelar estas variables con dependencia (Capítulo III). Michel (3) apunta que “Este método de estimar primero las distribuciones marginales y estimar después los parámetros de dependencia de de los datos adecuadamente transformados, es referida frecuentemente como estimados ‘Piecing-together’” Ver Reiss y Thomas (2001) sección 9.3. I.9.- Conclusiones. En este capítulo se han presentado los dos elementos básicos que constituyen el objeto de esta investigación, por un lado el riesgo operativo, sus características y problemas actuales en su modelado, por otro lado la teoría de valores extremos y sus formas básicas. Se ha indicado la necesidad de probar (y cómo hacerlo) que una variable e independiente e idénticamente distribuida. Por otro lado se ha empezado a mostrar los problemas que se enfrentan cuando se trata con variables empíricas, el tratamiento de las variables se ha empezado a fundir con los modelos y nos ha entregado al final variables empíricas transformadas en marginales exponenciales negativas con lo cual se queda en condiciones de realizar el análisis de las relaciones de dependencia entre las mismas y arribar al modelado multivariado con modelos de valores extremos.

    37

  • 38

  • Capítulo II

    PROBANDO INDEPENDENCIA EN LA COLA EN DVE Y MODELOS RELACIONADOS.

    II.1.- Introducción. Relevancia de la realización de las pruebas Como se apuntó en la introducción a esta tesis, la importancia de poder demostrar independencia en la cola de las distribuciones de los eventos de riesgo operativo es enorme, es la diferencia entre trabajar con metodologías más simples o más complejas. Si se puede demostrar que un conjunto de variables no tienen dependencia en la cola, se pueden modelar en forma univariada, o bien con estructuras de dependencia más simples, que las resultantes de los modelos de valores extremos. Como también se apuntó en la introducción, en el enfoque Basilea, la forma estándar de calcular el cargo de capital regulatorio por riesgo operativo implica la suma de los peores escenarios estimados por las autoridades, traducidos en forma de betas sobre los ingresos netos de las instituciones bancarias. No obstante estas betas tienen tal dimensión que el cargo de capital puede representar no solo el peor escenario de pérdidas en un periodo, sino más que la suma de las pérdidas de varios periodos. Por otro lado no sabemos si tal cargo está cubriendo un riesgo real o no. Una institución con una buena gestión de riesgo estaría castigada en cuanto a su consumo de capital por este hecho. Independientemente de que Basilea busque regular la medición de riesgos en las instituciones bancarias, se debe reconocer su labor promotora en toda industria y el terreno de la investigación: Ha establecido estándares; ha recopilado las prácticas en la industria; ha puesto a discusión metodologías para medir el riesgo operativo; y ha dado también incentivos al uso de los modelos avanzados. Dice Mario Benedetti a propósito de la frase de Jorge Manrique: “Todo tiempo pasado fue mejor”, que para ver su alcance hay que completarla: “Todo tiempo futuro será peor”. De la misma manera parece en primera instancia que la propuesta para riesgo operativo de Basilea lleva impresa la frase popular: “Las desgracias nunca vienen solas”, que si se completa se diría “Las desgracias siempre vienen juntas”, es decir, los eventos de riesgo operativo tienen perfecta dependencia, pero también nos permitiría decir “Siempre que no puedas demostrar lo contrario”. El objetivo de este capítulo es mostrar como se puede demostrar lo contrario y poder llegar a medidas de riesgo con una dependencia más cercana a lo real.

    39

  • I.2.- Dependencia y Correlación. Como se recordará en el documento del AIGOR se indica que “El banco debe validar sus supuestos de correlación utilizando técnicas cuantitativas y cualitativas adecuadas.”, asimismo se manejan los conceptos de correlación y dependencia como equivalentes, lo cual es inexacto como se explica en este apartado. Drouet y Kotz en “Correlation and Dependence” hacen un extenso análisis del origen de los conceptos correlación y dependencia, así como de la forma en que ha evolucionado su uso. Refieren que el concepto de correlación está ampliamente difundido y utilizado, no así su fundamento, sus alcances y limitaciones. También indican que la noción de independencia “introducida por Henri Lebesgue y/o sus contemporáneos.” y que:

    “Tenemos así dos conceptos –independencia (y su negación dependencia) y correlación (y su contraparte, falta de correlación) prominentemente utilizadas en ciencias estadísticas. En sus intentos por ‘simplificar’ la metodología estadística (atendiendo a un supuesto común bajo nivel) muchos autores no han distinguido apropiadamente entre independencia y falta de correlación (frecuentemente referida como ‘correlación cero’ o ‘no correlación’. Consecuentemente los lectores casuales de tales escritos están frecuentemente bajo la impresión de establecer una dependencia práctica (o más específicamente, ausencia de relaciones significativas entre las variables) es suficiente para verificar que los coeficientes de correlación son efectivamente cero. Ha habido un daño considerable causado por esta actitud en varios conceptos –más prominentemente en aplicaciones en ciencias médicas y sociales- confundiendo estos conceptos y deduciendo conclusiones incorrectas y algunas veces dañinas. Una típica cita de un artículo de un periódico reciente lee ‘Correlaciones dirigen la atención a relaciones fuertes’” Drouet y Kotz , página. 11.

    Hay un tema interesante, la correlación es una relación lineal, hay portafolios cuya baja correlación en determinadas etapas contrasta tiempos en los que una grupo de eventos determinados suceden en forma síncrona (Un ejemplo son los incumplimientos en un portafolio de créditos masivos en etapas de crisis contra fases con bajo número de incumplimientos). Es decir hay fenómenos que no exhiben un comportamiento lineal, la correlación es por naturaleza, lineal. Por tanto “este coeficiente nunca debería usarse sin investigar primero la relación en forma completa para ver si sigue una línea recta” Drouet y Kotz, página. 12. La diferencia entre correlación e independencia permite la existencia de eventos con correlación cero, que son de hecho dependientes. El tema de la dependencia en valores extremos, en situaciones calamitosas, es sumamente relevante por la posibilidad de que la dependencia entre los eventos se de justamente en el peor momento, es decir que “las desgracias vengan juntas”. En riesgo operativo cualquier pérdida es mala, varias juntas peor; pero varias juntas y grandes en un periodo muy corto pueden significar la muerte

    40

  • financiera de una entidad, la recurrencia de este tipo de eventos, por ejemplo pérdidas, es lo que se denomina dependencia en la cola. Si se modelan las pérdidas conjuntas como valores positivos estamos ante un caso de dependencia en la cola superior. I.3.- Necesidad Teórica de la Prueba. En este capítulo hacemos uso de las transformaciones a las variables aleatorias introducidas en el capítulo anterior. Como se vio en ese capítulo, las variables se pueden modelar como marginales Fréchet, pero ¿estas variables tienen una relación de dependencia o buscamos algo que no existe? Porque si no hay tal dependencia y se introducen estas variables a las rutinas de estimación de parámetros, seguramente se obtendrán parámetros, aun cuando muestren una gran cercanía a la independencia, esto implicará sobreestimar las medidas de riesgo. Lo contrario es cierto también: Modelar independencia cuando las variables exhiban dependencia en valores extremos llevará a subestimar las medidas de riesgo. Apuntan Falk, Hüsler y Reiss que “Los efectos de especificar erróneamente, tal como modelar datos dependientes con variables aleatorias independient