universidad de guayaquil facultad de ciencias …repositorio.ug.edu.ec/bitstream/redug/21739/1/tt...
Post on 05-Oct-2020
8 Views
Preview:
TRANSCRIPT
i
UNIVERSIDAD DE GUAYAQUIL
FACULTAD DE CIENCIAS ECONÓMICAS
MAESTRIA EN FINANZAS Y PROYECTOS CORPORATIVOS
“TRABAJO DE TITULACIÓN ESPECIAL”
PARA LA OBTENCIÓN DEL GRADO DE MAGÍSTER EN FINANZAS Y
PROYECTOS CORPORATIVOS
“MODELOS DE ALERTA TEMPRANA PARA PRONOSTICAR CRISIS
BANCARIAS EN ECUADOR”
AUTOR: DAVID LUIS MEDRANO ANDRADE
TUTOR: MARCELO PABLO ABAD VARAS
GUAYAQUIL – ECUADOR
JULIO 2017
ii
REPOSITARIO NACIONAL EN CIENCIA Y TECNOLOGÍA
FICHA DE REGISTRO DE TESIS
TITULO Y SUBTITULO: MODELOS DE ALERTA TEMPRANA PARA PRONOSTICAR
CRISIS BANCARIAS EN ECUADOR
AUTOR/ES: DAVID LUIS MEDRANO
ANDRADE
TUTOR: Marcelo Pablo Abad Varas
REVISORES:
INSTITUCIÓN:
UNIVERSIDAD DE GUAYAQUIL
FACULTAD:
CIENCIAS ECONÓMICAS
CARRERA:
FECHA DE PUBLICACIÓN:
JULIO DEL 2017
N. DE PAGS:
TÍTULO OBTENIDO: MAGÍSTER EN FINANZAS Y PROYECTOS CORPORATIVOS
ÁREAS TEMÁTICAS: SUPERVISIÒN BANCARIA, FINANZAS
PALABRAS CLAVE: EWS, Árbol de decisión, SVM, PLSD, Análisis Multivariante Discriminante
RESUMEN: En el Ecuador no se han publicado trabajos de EWS para el sistema bancario, a junio
del 2017. Por lo que se propuso encontrar el mejor método de clasificación de bancos en riesgo de
quiebre en el sistema bancario ecuatoriano. Se usó el algoritmo Vecino Más Cercano “K-NN” para
los datos faltantes y para la clasificación: Mínimos Cuadrados Parciales Discriminantes “PLSD”,
Support Vector Machine “SVM” y Árbol de Clasificación (CART). El método PLSD alcanzó una
clasificación global del 94.99% y una clasificación de bancos quebrados (18 meses antes de su cierre)
del 18.89%. Los bancos que no quiebran tienen altos ratios en eficiencia financiera, margen de
intermediación, resultados de ejercicios y cobertura de 100 mayores depositantes. Mientras los bancos
que quiebran, tienen altos niveles de morosidad, vulnerabilidad del patrimonio, cartera improductiva
y gastos operacionales. El Árbol de clasificación CART arrojó un buen modelo de clasificación,
dando un 99.72% de clasificación global y 92.59% de bancos quebrados. Además, nos da información
de las variables que mejor discriminan, bajo qué condiciones y nos indica el porcentaje de la población
que se encuentra en dicho nodo. Con el SVM se obtuvo la mejor clasificación, un 99.14% de
clasificación global. Clasificando el 100% de bancos quebrados y el 99.12% de bancos no quebrados.
Esta investigación ayuda a difundir herramientas no tradicionales en el área financiera de América
Latina y que sirve de base para impulsar dichas herramientas a otras problemáticas de clasificación.
N. DE REGISTRO (en base de datos): N. DE CLASIFICACIÓN:
DIRECCIÓN URL (tesis en la web):
ADJUNTO PDF: X SI NO
CONTACTO CON AUTORES/ES: Teléfono: E-mail:
davidm2007@hotmail.es
CONTACTO EN LA INSTITUCION:
Secretaría de la Facultad de Ciencias
Económicas. Universidad de Guayaquil
Nombre: Natalia Andrade Moreira
Teléfono: 59342293052
E-mail: nandramo@hotmail.com
iii
CERTIFICACIÓN DEL TUTOR
En mi calidad de tutor del estudiante David Luis Medrano Andrade, del Programa de Maestría en
Finanzas y Proyectos Corporativos, nombrado por el Decano de la Facultad de Ciencias Económicas
CERTIFICO: que el estudio de caso del examen complexivo titulado modelos de alerta temprana para
pronosticar crisis bancarias en Ecuador, en opción al grado académico de Magíster en Finanzas y
Proyectos Corporativos, cumple con los requisitos académicos, científicos y formales que establece el
Reglamento aprobado para tal efecto.
Atentamente
Marcelo Pablo Abad Varas
TUTOR
Guayaquil, 20 de julio del 2017
iv
DECLARACIÓN EXPRESA
“La responsabilidad del contenido de este trabajo de titulación especial, me corresponden
exclusivamente; y el patrimonio intelectual de la misma a la UNIVERSIDAD DE GUAYAQUIL”
___________________________
FIRMA
David Luis Medrano Andrade
v
ABREVIATURAS
K-NN Vecino más cercano
PLSD Mínimos cuadrados parciales discriminantes
SVM Support vector machine
MAT Modelos de Alerta Temprana
EWS Early warning systems
PLS Partial least squares
SAT Sistema de Alerta Temprana
SP Período estable
UP Período inestable
CP Período de crisis
SIMBOLOS
EN PLSD
Y Variable respuesta
X Variable predictora
h # De componente
t Scores en el espacio X
u Scores en el espacio Y
w Correlaciones entre X y u(Y)
c Correlaciones entre Y y t(X)
i Número de muestras
k Las clases
B
Matriz de coeficientes de
regresión
E Matriz residual
X^+ Inversa generalizada de X
P Matriz de carga de X
Q Matriz de carga de Y
vi
Tabla de contenido Introducción ............................................................................................................................................ 1
Delimitación del problema: ................................................................................................................. 1
Formulación del problema: ................................................................................................................. 4
Justificación: ........................................................................................................................................ 4
Objeto de estudio: ............................................................................................................................... 5
Campo de acción o de investigación: .................................................................................................. 5
Objetivo general: ................................................................................................................................. 5
Objetivos específicos: .......................................................................................................................... 5
La novedad científica: .......................................................................................................................... 6
Capítulo 1: Marco teórico........................................................................................................................ 7
1.1. Teorías generales .................................................................................................................... 7
1.2. Teorías sustantivas ................................................................................................................ 10
1.3. Referentes empíricos ............................................................................................................ 13
Capítulo 2: Marco metodológico ........................................................................................................... 15
2.1. Metodología: ......................................................................................................................... 15
2.2. Métodos: teóricos y empíricos .............................................................................................. 15
2.2.1. K-NN .............................................................................................................................. 15
2.2.2. PLSD ............................................................................................................................... 16
2.2.3. SVM ............................................................................................................................... 18
2.2.4. Árbol de Clasificación .................................................................................................... 21
2.3. Premisas de la investigación.................................................................................................. 23
2.4. Universo y muestra ............................................................................................................... 23
2.5. CDIU – Operacionalización de variables ................................................................................ 24
2.6. Gestión de datos ................................................................................................................... 25
2.7. Criterios éticos de la investigación ........................................................................................ 26
Capítulo 3: Resultados ........................................................................................................................... 27
3.1. Antecedentes de la unidad de análisis o población .............................................................. 27
3.2. Diagnóstico o estudio de campo: .......................................................................................... 27
3.2.1. PLSD ............................................................................................................................... 27
3.2.2. SVM ............................................................................................................................... 31
3.2.3. ARBOL DE CLASIFICACIÓN ............................................................................................. 33
Capítulo 4: Discusión ............................................................................................................................. 37
4.1. Contrastación empírica: ........................................................................................................ 37
4.2. Limitaciones: exponer las limitaciones del estudio. .............................................................. 38
vii
4.3. Líneas de investigación: explorar la implicación de los resultados para futuras
investigaciones. ................................................................................................................................. 38
4.4. Destacar los aspectos más novedosos e importantes del estudio y las diferencias con los
referentes empíricos. ........................................................................................................................ 38
Capítulo 5: Propuesta ............................................................................................................................ 39
Conclusiones y recomendaciones: ........................................................................................................ 39
Bibliografía: ........................................................................................................................................... 41
ANEXOS ................................................................................................................................................. 44
viii
ÍNDICE DE TABLAS
Tabla 1- Bancos privados en análisis. ................................................................................................... 24
Tabla 2- Codificación de variables. ....................................................................................................... 25
Tabla 3- PLSD Matriz de confusión con atípicos. ................................................................................ 28
Tabla 4- PLSD Matriz de confusión. ..................................................................................................... 28
Tabla 5- Porcentaje de clasificación de los distintos modelos propuestos de SVM .............................. 31
Tabla 6 -SVM Matriz de confusión. ...................................................................................................... 32
Tabla 7- SVM Bancos mal clasificados. ............................................................................................... 32
Tabla 8- Árbol de Clasificación CP. ..................................................................................................... 33
Tabla 9- Árbol de Clasificación Matriz de confusión #1. ..................................................................... 35
Tabla 10- Árbol de Clasificación Matriz de confusión #2. ................................................................... 35
ix
ÍNDICE DE FIGURAS
Ilustración 1- Árbol del problema. .......................................................................................................... 1
Ilustración 2- KNN proceso de iteración ............................................................................................... 16
Ilustración 3- SVM Hiperplanos que separan correctamente un conjunto de datos. ............................. 19
Ilustración 4-PLSD gráfico de pesos. .................................................................................................... 29
Ilustración 5- PLSD observados vs predichos (variable). ..................................................................... 30
Ilustración 6 – PLSD observados vs predichos global. ......................................................................... 30
Ilustración 7-PLSD Porcentaje de error. ............................................................................................... 31
Ilustración 8- Árbol de decisión óptimo. ............................................................................................... 34
Ilustración 9- Árbol de clasificación. Gráfico k-Fold validation. .......................................................... 36
x
RESUMEN
En el Ecuador no se han publicado trabajos de EWS para el sistema bancario, a
junio del 2017. Por lo que se propuso encontrar el mejor método de clasificación de bancos en
riesgo de quiebre en el sistema bancario ecuatoriano. Se usó el algoritmo Vecino Más Cercano
“K-NN” para los datos faltantes y para la clasificación: Mínimos Cuadrados Parciales
Discriminantes “PLSD”, Support Vector Machine “SVM” y Árbol de Clasificación (CART).
El método PLSD alcanzó una clasificación global del 94.99% y una clasificación de bancos
quebrados (18 meses antes de su cierre) del 18.89%. Los bancos que no quiebran tienen altos
ratios en eficiencia financiera, margen de intermediación, resultados de ejercicios y cobertura
de 100 mayores depositantes. Mientras los bancos que quiebran, tienen altos niveles de
morosidad, vulnerabilidad del patrimonio, cartera improductiva y gastos operacionales. El
Árbol de clasificación CART arrojó un buen modelo de clasificación, dando un 99.72% de
clasificación global y 92.59% de bancos quebrados. Además, nos da información de las
variables que mejor discriminan, bajo qué condiciones y nos indica el porcentaje de la población
que se encuentra en dicho nodo. Con el SVM se obtuvo la mejor clasificación, un 99.14% de
clasificación global. Clasificando el 100% de bancos quebrados y el 99.12% de bancos no
quebrados. Esta investigación ayuda a difundir herramientas no tradicionales en el área
financiera de América Latina y que sirve de base para impulsar dichas herramientas a otras
problemáticas de clasificación.
Palabras claves: EWS, Árbol de decisión, SVM, PLSD, Análisis Multivariante Discriminante
xi
ABSTRACT
In Ecuador, no EWS work has been published for the banking system, in June
2017. Therefore, it was proposed to find the best method for classifying banks at risk of
bankruptcy in the Ecuadorian banking system. The Nearest Neighbor "K-NN" algorithm was
used for the missing data and for the classification: Discriminant Partial Least Squares "PLSD",
Support Vector Machine "SVM" and Classification Tree (CART). The PLSD method achieved
an overall rating of 94.99% and a rating of bankruptcy (18 months before closing) of 18.89%.
Banks that do not break down have high ratios in financial efficiency, intermediation margin,
exercise results and coverage of 100 major depositors. While banks that fail, have high levels
of delinquency, vulnerability of assets, unproductive portfolio and operating expenses. The
CART Classification Tree gave a good classification model, giving a 99.72% overall rating and
92.59% of broken banks. In addition, it gives us information on the variables that best
discriminate, under what conditions and indicates the percentage of the population that is in
that node. With the SVM the best classification was obtained, a 99.14% overall rating.
Classifying 100% of broken banks and 99.12% of banks not broken. This research helps to
disseminate nontraditional tools in the financial area of Latin America and serves as a basis to
promote such tools to other classification problems
Keywords: EWS, Decision Tree, SVM, PLS-DA, Discriminant Multivariate Analysis
1
Introducción
Los Modelos de Alerta Temprana “MAT”, en ingles llamado Early Warning
Systems “EWS”, han tenido una gran relevancia en la monitorización de instituciones
financieras. Más aún con técnicas que han venido evolucionando a través de los años. Por lo
cual, es de vital importancia que este tipo de estudios se los realice para el sistema financiero
ecuatoriano, para el caso particular de esta investigación se lo va a realizar para los bancos
privados.
Delimitación del problema:
Con el fin de identificar el problema, se realiza el Árbol del problema (Ilustración
1) que nos ayuda a identificar las causas y efectos del entorno que estamos analizando.
Ilustración 1- Árbol del problema.
Fuente: Elaboración propia.
Las causas de las crisis bancarias pueden dividirse en macroeconómicas y
microeconómicas, como lo describe (Huerta, Gonz, & Econ, 2000): Entre las causas
macroeconómicas están los shocks que menoscaban; los activos bancarios, el aumento
Déficit fiscal
Quiebra bancaria
Shocks económicos
Débil supervisión
Mal manejo
Gerencial
Pánico bancario
Perdida de confianza
de clientesMarco legal inapropiado
Liberalización financiera
inadecuada
Recesión económica
CAUSAS
EFECTOS
2
desmedido de los agregados monetarios, la captación de depósitos, disminución de colocación
de crédito. (Hausmann & Liliana Rojas-Suarez, 1996)
Sobre las causas microeconómicas, están la debilidad en la regulación y
supervisión bancarias, la desmedida apertura financiera, normas contables inadecuados, la
actuación estatal en la propiedad de los bancos, créditos vinculados y asimetría de información.
Las crisis bancarias interfieren el comercio, ya que estas instituciones imponen
el nivel y estructura de las tasas de interés, en el volumen y en la asignación eficiente del crédito
y en la respuesta de los agentes económicos a las condiciones monetarias.
Un sistema bancario en crisis puede distorsionar la asignación eficiente de
determinados recursos, así como el establecimiento de la política macroeconómica, incluso en
aquellos casos en que, a pesar de encontrarse con problemas, pueda continuar su
funcionamiento con un mínimo de activos y de liquidez.
La falta de sistemas bancarios eficientes y competitivos es particularmente grave
en países en desarrollo, en donde los mercados de deuda y de capital no pueden proveer
instrumentos financieros alternativos. En varios países latinoamericanos, y a pesar del creciente
volumen de intermediación de flujos financieros, la ineficiencia de los sistemas bancarios ha
contribuido a que se dé una aparente correlación negativa entre el volumen de intermediación
y las tasas de crecimiento económico (De Gregorio & Guidotti, 1995).
La demanda por dinero se altera por factores tales como la fuga de capitales y el
cambio de los activos monetarios a depósitos con rendimientos más redituables. La
incertidumbre en los sistemas de pago y en las condiciones del mercado de crédito también
altera el comportamiento habitual de la oferta y demanda por dinero.
El empleo tradicional de las operaciones de mercado abierto como instrumento
para regular las tasas de interés puede verse alterado. Esto ocurre porque la expansión del
crédito se ve reducida dada la baja elasticidad de demanda que presentan los títulos de emisores
3
de alto riesgo. Si dentro del sistema financiero existen emisores de alto y bajo riesgo, se tiene
entonces un mercado segmentado en donde coexisten diferentes tasas de interés. Las
operaciones de mercado abierto en estas situaciones pueden llevar a resultados impredecibles.
Por ejemplo, en Venezuela, el mercado de títulos comenzó a segmentarse en 1994, a medida
que los bancos estables comenzaron a reducir sus tasas de interés con el objeto de evitar
depósitos que luego no podrían cubrir (Guitián, 1996).
En Ecuador, una de las mayores crisis financieras se dio en 1999, como lo indica
(Espinosa, 2000), esta crisis estuvo precedida como en otros países del continente de un "boom"
del crédito en el año de 1994, a raíz de las reformas al sistema financiero, la liberalización
financiera y el ingreso de capitales. Debido a esta circunstancia, el crédito creció sobre el 80%
nominal (60%real) (Jaramillo, ibid). Esta tendencia se revirtió, en 1998, una vez que se
comenzaron a sentir los efectos acumulados de la situación económica del país y la caída
internacional del petróleo hasta 7, 5 dólares el barril que acentuó la crisis fiscal. En efecto, ante
la parálisis del aparato productivo y la recesión de la economía se empezaron a acumular
obligaciones vencidas en el sistema financiero, lo que determinó que la cartera vencida de los
bancos se incremente de 9.3% en noviembre de 1998, hasta el 48.5% a diciembre de 1999.
El riesgo financiero que obligó al público a retener dinero en los bolsillos no era,
en todo caso, una medida segura. Por esta razón, luego de la crisis de Filanbanco, el público
empezó a demandar en forma creciente dólares, presionando a la tasa de cambio. Esta medida,
unida al hecho de que el sector empresarial y financiero buscó aprovisionarse de dólares para
poder cumplir con sus obligaciones en el exterior, agudizó la depreciación del sucre y determinó
que la economía ecuatoriana tendiera a una dolarización acelerada. (Entre agosto y diciembre
de 1998 el tipo de cambio para la venta pasa de 5.471 a 6.765, y de enero a diciembre de 1999,
de 7.245 a 19.848 sucres por dólar; para la primera semana de enero del 2000, había llegado a
más de 26.000.)
4
Lo cual trajo consigo costos sociales y económicos como: hiperinflación,
incremento de la tasa de desempleo, caída del ingreso real, socialización de la deuda, cierre de
alrededor de 28 entidades financieras y la pérdida monetaria, por lo cual, se generó un cambio
de moneda de Sucres a Dólares Americanos. (Chulde Revelo & Larrea Terán, 2009)
Formulación del problema:
La falta de estudios sobre la detección temprana de instituciones financieras que
pudieran estar en riesgo de quiebre es un problema para los analistas financieros. Lo cual da
como resultado que el organismo de control siga manejando herramientas tradicionales que
pueden no ser tan efectivas en el control y monitorización de dichas instituciones.
Justificación:
Tal como lo describen Davis & Karim (2008), a pesar de las extensas
investigaciones acerca del uso de los sistemas de alerta temprana. El uso práctico, a nivel
mundial, de los formuladores de política supervisora es limitada. “Esta es una paradoja, ya que
la naturaleza cambiante de los riesgos bancarios a medida que más economías liberalizan y
desarrollan sus sistemas financieros, así como la innovación continua, hace que el uso de EWS
para informar políticas de prevención de crisis sea más necesario que nunca.”
Implementar un sistema de alerta de quiebre temprano bancario en el Ecuador
ayudará a:
• El ente Supervisor tendrá una herramienta más de análisis para la respectiva
monitorización y control de las instituciones que se encuentren en riesgo de quiebre.
• Los departamentos de riesgo de cada Banco monitorizaran su institución con el
fin de tomar acciones correctivas y también monitorizan el resto de instituciones de las
que mantienen créditos interbancarios.
5
• Las calificadoras de riesgo analizan las instituciones financieras tanto de manera
global, así como individualmente por lo que dicha herramienta dará un input más sobre
el nivel de riesgo que puedan mantener estos.
• Depositantes, acreedores y accionistas, a través de analistas financieros que
implementen esta herramienta, tendrán información condensada sobre el riesgo de una
institución a que sea objeto de intervención por parte del ente regulador para su cierre.
Objeto de estudio:
El objeto de estudio son las herramientas de supervisión y monitorización
bancaria. En este sector se manejan muchos métodos con el fin de identificar, medir, controlar
y monitorizar el riesgo de las instituciones financieras. Es por esto que se estudia el mejor
método de alerta temprana mediante los ratios financieros.
Campo de acción o de investigación:
El análisis de los ratios financieros del sistema bancario ecuatoriano con el fin
de modelar una herramientas que me permita clasificar las instituciones próximas a quebrar.
Objetivo general:
Revisar los distintos métodos Multivariantes discriminantes con el fin de
encontrar el mejor método de clasificación de bancos en riesgo de quiebre en el sistema
financiero ecuatoriano.
Objetivos específicos:
• Construir, recopilar, analizar y validar los indicadores financieros mensuales de cada banco
privado del Ecuador desde enero del 2005 a marzo del 2017.
6
• Analizar y completar los datos faltantes de la base de datos a través del K vecino más
cercano “K-Nearest Neighor” (K-NN).
• Modelar, validar y analizar los datos financieros mediante PLSD, SVM y árbol de
clasificación con el fin de obtener el máximo poder de clasificación al mayor tiempo
posible de identificación.
• Comparar los métodos utilizados y definir la mejor técnica de clasificación entre los bancos
con problemas versus sin problemas.
La novedad científica:
Es una investigación que ayuda a difundir herramientas no tradicionales en el
área financiera tanto a nivel latinoamericano como en el Ecuador y que sirve de base para
nuevas investigaciones en el sistema financiero ecuatoriano.
7
Capítulo 1: Marco teórico
1.1. Teorías generales
El sector financiero, a través de la historia, ha estado ligado a las crisis
económicas tanto domesticas como mundial. En el trabajo de (Daher, 2013) hace
un recuento de las principales crisis económicas a nivel mundial en el tiempo.
Desde el default ingles del siglo XIV a la última gran crisis mundial iniciada en
Estados Unidos con los sub primes. (Reinhart & Rogoff, 2011).
En dicho libro recalcan que los incrementos en la apertura internacional de
capitales causan crisis bancarias. El endeudamiento público e interno desmedido ha sido una
causa en muchos países y que estas con frecuencia derivan de los centros financieros y se
transmiten mediante shocks en las tasas de interés у colapsos en los precios de los commodities,
produciendo así, a partir de los países centrales, crisis de deuda soberana en otros. Dichos
autores remarcan la relación entre las crisis bancarias, en especial las de las últimas décadas у
las más graves, у los ciclos en los precios de las acciones y de la vivienda.
Cortés (2000) explica que:
Luego de la gran depresión (principios de los cuarenta), la predisposición general
fue el incremento del tamaño у la intervención estatal, lo que implico que las
crisis en las cuatro décadas siguientes fueran casi solo de responsabilidad de los
gobiernos, ya que estos mantenían altos gasto público, políticas monetarias
excesivamente expansivas con consecuencias inflacionarias y cambiarias.
Con los posteriores traspasos de roles al sector privado, las crisis llegaron a ser
el resultado de un endeudamiento excesivo de este sector, muchas veces
exacerbado por la afluencia de capitales externos: las crisis derivaron así en crisis
financieras -crisis de endeudamiento asociadas en parte a la exuberancia del
8
sector privado que, al contrario del gobierno, no puede imprimir dinero ni cobrar
más impuestos.
Daher (2004) menciona que:
Las recurrentes crisis han demostrado la insuficiencia del concepto e
instrumental de evaluación del riesgo país. El riesgo es cada vez más propio de regiones
supranacionales. La misma globalización, y los acuerdos de libre comercio у demás procesos
de integración regional supranacional construidos sobre una base geográfica común, acentúan
la vulnerabilidad у facilitan el contagio de las crisis al hacer más permeables las economías у
diluir las fronteras nacionales. (p. 85)
Sobre la última gran crisis económica global suscitada en Estados Unidos en el
2008, Roubini & Mihm (2010) señalan que:
Este relato no corresponde solo a fines de la década del 2000, sino al inicio de la
Gran Depresión hace más de ochenta años: Entonces, igual que ahora, las
burbujas especulativas en el ámbito inmobiliario y bursátil, la mínima regulación
financiera y la fiebre de innovación financiera conspiraron para crear una
burbuja que, al estallar, sentó las bases para que el sistema financiero de Wall
Street llegara al borde del colapso, se produjera una brutal depresión económica
entre los ciudadanos de a pie y se generara una crisis mundial. (p. 31)
De Gregorio & Guidotti (1995) examinaron la relación empírica entre el
desarrollo financiero y el crecimiento económico. Llegando a la conclusión que, en general, el
desarrollo financiero conduce a un mejor desempeño del crecimiento. Este efecto, sin embargo,
varía según los países y el tiempo. También indican que en la experiencia latinoamericana de
los años setenta y ochenta, puede haber casos en los que la liberalización financiera no regulada
y las expectativas de rescates gubernamentales los condujeron a una relación negativa entre el
grado de intermediación financiera y el crecimiento. Así, la eliminación de la represión
9
financiera requiere un marco reglamentario adecuado para evitar una costosa crisis financiera.
Sus hallazgos también sugieren fuertemente que el principal canal de transmisión del desarrollo
financiero al crecimiento es el efecto en la eficiencia de la inversión, más que en su nivel.
En el caso del Ecuador, este ha sufrido graves crisis financieras en su historia,
tal es el caso del desplome financiero en el año 1999, debido a eventos externos e internos que
desencadenaron en una profunda crisis económica y financiera. Tal como lo señala Omar
(2015):
Internamente destaca, entre otros, los conflictos bélicos de delimitación de fronteras entre
Perú y Ecuador, que terminaron con la suscripción del Acuerdo de la Paz en 1999; desastres
naturales como el fenómeno de “El Niño” (1993 y 1997) en la Costa, con daños enormes en
el sector agrícola, el deslave o derrubio de la Josefina (1993) y los estiajes en la Sierra; crisis
económica y financiera finalizando la década de los 90, entre otras razones, por el desplome
de precios del petróleo que perjudicaron a las exportaciones, y por ello, a las cuentas públicas
y al sistema financiero, quebrando varios bancos, generando una alta inflación, una
devaluación monetaria, una pérdida de la moneda ecuatoriana "El Sucre", y su sustitución
por el dólar de los Estados Unidos de América; y por último, la inestabilidad política con
cinco presidentes en siete años (2000-2007).
Entre los eventos externos de mayor incidencia se puede considerar a la crisis de
México (efecto “tequila” en 1994), sobreendeudamiento del Estado en pesos convertibles en
dólares y posterior devaluación de los primeros; a la crisis asiática (1997) por la devaluación
en cadena de varias de sus monedas; crisis rusa (1998) por la caída de precios de las materias
primas y a la volatilidad del precio de exportación del petróleo. Además, de la falta de una
verdadera institucionalidad y de un adecuado marco legal de supervisión y regulación bancaria
para ese entonces. (Santana & Pinoargote, 2015)
10
Como resultado de esto, en Ecuador quebraron 20 bancos que concentraban más
de 50% de los depósitos del sistema, el congelamiento de los depósitos, la moratoria del pago
de la deuda pública y el estancamiento económico. Y como salida a la grave crisis económica
y social y así poder controlar la hiperinflación (103% en 1999), el 9 de enero de 2000 las
autoridades ecuatorianas acogieron el dólar estadounidense como moneda de curso legal.
(Andrade, 2012)
1.2. Teorías sustantivas
Jácome Ortega (2015) expresa de manera acertada que:
El análisis bancario es una materia de amplio espectro, ya que su beneficio no es
sólo para los dueños y personas que trabajan en banca, sino para todo potencial
inversor, analista financiero, y autoridades de supervisión (López Pascual &
Sebastián González, 2008). Los objetivos principales del análisis de un banco
son establecer las fuentes, calidad y sostenibilidad de las ganancias, la liquidez
y la suficiencia de capital (Barltrop & McNaughton, 1992).
Briceño & Orlandoni (2012) señalan que en teoría no existe una metodología
estándar, única y óptima que permita diagnosticar y predecir en forma completa, oportuna y
perfecta problemas de viabilidad o de irregularidad financiera en las instituciones financieras.
Omar (2015) enumera diferentes métodos y procedimientos generalmente
aceptados para el análisis a la gestión bancaria, la medición de la solvencia bancaria y la
predicción de situaciones futuras del sistema financiero.
El método CAMEL es utilizado en el análisis de los bancos de forma individual, y para el
análisis y supervisión de holdings bancarios. Este es un sistema uniforme de calificación de
instituciones financieras. Se basa en un conjunto de indicadores representativos de la suficiencia
de capital, solvencia, calidad de activos, la administración eficiente del activo, el nivel y
11
estabilidad de la rentabilidad, así como el manejo de la liquidez. El método permite evaluar y
resumir los factores financieros, operativos y de cumplimiento de normativa.
El Sistema de Calificación Uniforme de Instituciones Financieras (Uniform
Financial Institutions Rating System-UFIRS) fue adoptado por el Consejo Federal de
Evaluación a Instituciones Financieras (FFIEC) en 1979 y revisada en 1996. El sistema de
calificación se conoce comúnmente como el sistema de calificación CAMEL. Posteriormente
en la revisión de la década de los 90´s, se agregó la variable sensibilidad al riesgo de mercado,
denotado con una S, por lo que se conoce también como CAMELS.
La Reserva Federal utiliza la metodología BOPEC (Bank, Other subsidiaries,
Parent, Earnings, Capital). El acrónimo BOPEC significa cinco áreas claves de interés de
supervisión: evaluación de las subsidiarias bancarias como filiales del banco del holding
bancario (B), otras filiales no bancarias (O), la sociedad dominante (P), los ingresos de la
empresa (E), y la adecuación de capital del holding (C). La puntuación compuesta, que varía en
una escala de 1 (mejor rendimiento) a 5 (peores resultados), refleja la evaluación global de los
supervisores sobre la seguridad y solidez de un holding societario financiero. Una calificación
de uno o dos indica que el holding bancario no se considera de interés para la supervisión. Las
calificaciones de BOPEC, así como todos los demás materiales de inspección, son altamente
confidenciales y nunca se ponen a disposición del público.
Además, existen otros métodos que se utilizan para la supervisión bancaria
como; Método pruebas de estrés o tensión, son un instrumento utilizando en la gestión
empresarial que sirve para anticipar posibles escenarios adversos en un período de tiempo
determinado, haciendo posible estar preparados ante dichas hipotéticas circunstancias, y definir
estrategias que ayuden a proteger a la entidad antes su eventual materialización (Villasante,
2011).
12
ROCA (Risk, Operational, Compliance, Asset), es una herramienta para la
gestión de la información y supervisión, que califica las condiciones de una sucursal o agencia
de organización bancaria extranjera (OBE), e identifica sistemáticamente los problemas
significativos de supervisión en la sucursal o agencia.
El método FIMS (Financial Institutions Monitoring System), En 1993, la
Reserva Federal instituyó el Sistema de Monitoreo de Instituciones Financieras (por sus siglas
en inglés, FIMS), quien lo definió como un método más exacto en la identificación de los
problemas de las instituciones financieras. Este provee dos sistemas de supervisión basado en
dos modelos econométricos: el rating FIMS y el ranking de riesgo FIMS. El rating FIMS es una
medida de la condición del banco, y el ranking de riesgo FIMS es una medida de largo plazo
de la condición esperada a futuro del banco.
Otra rama de la literatura trata de evaluar la importancia de las variables incluidas
en el modelo CAMEL como indicadores de alerta temprana en problemas bancarios sistémicos.
El modelo se ha empleado para explicar y predecir quiebras bancarias en sucesivas ocasiones,
aplicado al caso de Argentina (Dabos y Sosa Escudero, 2004), Croacia (Kraft y Galac, 2007),
EE.UU. (Weelock y Wilson, 2000; Curry, Fissel y Ramírez, 2008; Jin, Kanagaretman y Lobo
2011), Jamaica (Daley, Matthews, y Whitfield, 2008), Venezuela (Molina, 2002) o el sudeste
asiático (Arena, 2008), entre otros.
Por último, analizamos los sistemas de alerta temprana EWS, se fundamentan en
el análisis multivariante discriminante, este método tiene la ventaja de considerar un perfil
completo de características comunes a las empresas relevantes, así como la interacción de estas
propiedades. Un estudio univariado, por otro lado, sólo puede considerar las mediciones
utilizadas para las asignaciones de grupo una a la vez.
13
Otra ventaja es la reducción de la dimensionalidad espacial para el analista, es
decir, del número de diferentes variables independientes a G-1 dimensiones, donde G es igual
al número de grupos a priori originales.
Uno de los primeros investigadores en usar este tipo de métodos fue Altman
(1968), el usó el método Función Discriminante Lineal (FDL) en base al trabajo de Cochran
(1964). Altman obtuvo 96% y 79% de precisión utilizando dos muestras diferentes, sin
embargo, su capacidad predictiva fue de dos años, después de este tiempo los resultados caen
significativamente. Para lo cual recogió datos financieros “índices” de compañías y los dividió
en quebradas y no quebradas. Por último, mediante la FDL intenta derivar una combinación
lineal de estas características que "mejor" discrimina entre los grupos.
1.3. Referentes empíricos
En el trabajo de Gaytán & Johnson (2002) se muestra una revisión de los trabajos
realizados sobre EWS para la detección de bancos en crisis:
En el caso de Turquía (Canbas, Cabuk, y Kilic, 2005), mercados emergentes
(Goldstein, Kaminsky, y Reinhart 2000; Bussiere y Fratzscher, 2006), el entorno asiático
(Lestano y Kuper, 2003), la crisis del sudeste asiático en 1997-1998 (Berg y Pattillo, 1999;
Zhuang y Dowling, 2002; Edison, 2003), la crisis subprime (Davis y Karim, 2008) o trabajos
más globales como Sahajwala y Van den Bergh (2000); Barrell, Davis, Karim, y Liadze (2010).
Mientras Davis & Karim (2008) llegó a las siguientes conclusiones:
Una comparación del logit multinomial y de los procedimientos de extracción
de señal muestra que el crecimiento real del PIB y los términos de intercambio son sólidos
indicadores principales de la crisis bancaria para nuestra muestra integral. Cuando se utiliza un
procedimiento de extracción de señales, la optimización de los umbrales país por país mejora
la capacidad de predecir correctamente las crisis. La creación de indicadores compuestos puede
14
mejorar aún más la predicción de crisis. Por lo tanto, el uso del modelo logit multinomial puede
ser más adecuado para un EWS global, mientras que el enfoque de extracción de señal puede
ser más adecuado para el EWS específico del país.
También mostramos que la dinámica de las crisis bancarias es una consideración
extremadamente importante al diseñar un EWS, ya que las variables pro cíclicas pueden tener
un efecto independiente sobre la crisis bancaria y un efecto conjunto con factores
institucionales. En tales casos, la secuenciación de las reformas institucionales y los
movimientos pro cíclicos del crédito y del crecimiento del PIB real cobran importancia.
15
Capítulo 2: Marco metodológico
2.1. Metodología:
Este trabajo tiene un enfoque cuantitativo. Para aquello, vamos a aplicar los
siguientes métodos Multivariantes: El algoritmo Vecino Más Cercano “K-NN” para los datos
faltantes. Para la clasificación usé: Mínimos Cuadrados Parciales Discriminantes (Discriminant
Partial Least Squares) “PLSD”, Support Vector Machine “SVM” y Árbol de Clasificación.
2.2. Métodos: teóricos y empíricos
2.2.1. K-NN
La técnica del vecino más cercano clasifica un objeto en la clase de su vecino
más cercano en el espacio de medida, utilizando una medida de distancia determinada, como
métricas locales, métricas globales o distancia Mahalanobis o Euclidiana. El método tiene una
variedad de aplicaciones, que van desde el análisis de asentamientos y patrones en el paisaje,
clasificación de spam, o cualquier otra distribución de objetos y eventos. Uno puede determinar
si los objetos o eventos son aleatorios, agrupados o distribuidos regularmente. El K-NN es una
técnica modificada del vecino más cercano. (Demyanyk & Hasan, 2010, p. 321)
En este modelo, K es un número entero positivo, generalmente pequeño. Un
objeto se asigna a la clase más común entre sus K vecinos más cercanos con el fin de completar
el dato faltante, haciendo un promedio entre los K vecinos.
Barrientos & Ríos (2013) mencionan que KNN es uno de los algoritmos más
simples. No requiere de ningún parámetro fuera del número de vecinos a considerar. En pocas
palabras, el algoritmo puede resumirse en que reúne los K vecinos más cercanos y los hace
votar, la clase con más vecinos gana, ..., mientras más vecinos consideramos, menor la tasa de
error[22]. Dicha cercanía, generalmente se mide en base a alguna distancia, por lo que se pueden
obtener distintos resultados dependiendo de la distancia escogida, pues diferentes métricas
16
definirán diferentes regiones [26]. Su esquema general se muestra en la ilustración 2. Para este
trabajo, hacemos uso del KNN para los datos faltantes de la base de datos.
Ilustración 2- KNN proceso de iteración
Elaborado por: Barrientos & Ríos (2013, p. 83)
Silverman & Jones (1989) realiza un resumen completo de los métodos no
paramétricos y en el menciona que “Fix & Hodges (1951) son responsables de introducir la
clase ampliamente utilizada de las reglas de asignación de vecinos más cercanos para la
discriminación no paramétrica.” (p. 234). Además, realiza una revisión matemática de KNN.
2.2.2. PLSD
El PLSD es una variación de Mínimos Cuadrados Parciales “Partial Least
Squares” (PLS) el cual fue propuesto por Herman Wold en el área econométrica, este construyó
el algoritmo Non Linear Iterative Partial Least Squares (NIPALS). Algoritmo diseñado para
linealizar modelos no lineales en sus parámetros (Barker & Rayens, 2003). La diferencia entre
Regresión Lineal Multiple (RLM) y PLS radica en que el segundo no tiene problemas de
multicolinealidad, ni con tener más variables que datos en su matriz y tolera datos faltantes.
El objetivo de la regresión PLS es:
Proporcionar una estrategia de reducción de dimensión en una situación en la
que queremos relacionar un conjunto de variables de respuesta Y con un
conjunto de variables predictoras X. Buscamos componentes X ortogonales 𝑡ℎ
= X𝑤ℎ * y componentes Y 𝑢ℎ = Y𝑐ℎ maximizando la covarianza entre 𝑡ℎ y 𝑢ℎ.
17
Es un compromiso entre los análisis de componentes principales de X e Y y el
análisis de correlación canónica de X e Y. Obsérvese que el análisis de
correlación canónica o regresión multivariante no es directamente aplicable
porque hay muchos más predictores que las observaciones; Además, la alta
multicolinealidad observada con los datos de microarrays provoca un pobre
rendimiento de la regresión multivariante y del análisis canónico incluso si se
selecciona un subconjunto de los niveles de expresión. La metodología PLS, en
contraste, puede aplicarse incluso cuando hay muchas más variables predictoras
que las observaciones, como es el caso con los datos de microarrays. (Pérez-
Enciso & Tenenhaus, 2003, p.2)
Cuando PLS se utiliza para discriminar, la matriz de respuesta (Y) contiene la
información sobre las pertenencias a clases, con el elemento 𝑌𝑖𝑘 = 0 o 1 (i = 1, ..., I; k = 1, ...,
K; I y K es el número de muestras y las clases, respectivamente).
Si la i-ésima muestra pertenece a la clase k, entonces yik = 1, de lo contrario yik
= 0. Y el modelo PLS puede formularse de la siguiente manera:
Y = XB + E
Donde B es la matriz de coeficientes de regresión, E la matriz residual. La
estimación de PLS de los coeficientes de regresión (𝐵PLS) se puede calcular como:
𝐵PLS = X+ + Y = W(P𝑇 W)−1 Q𝑇
Donde X+ denota la inversa generalizada de X obtenida por PLS, el subíndice T
denota la transposición de una matriz, A-1 denota la inversa de la matriz A, W la matriz de peso
del espacio X y P y Q es la matriz de carga de X y Y, respectivamente.
La predicción de las variables de respuesta en un nuevo conjunto de muestras se
realiza mediante:
Ynew = Xnew 𝐵PLS
18
Donde Xnew es el perfil de expresión génica para el nuevo conjunto de muestras,
y Ynew es la respuesta prevista para estas muestras. La identidad de la pertenencia a clase de
cada nueva muestra (cada fila en Ynew) se asigna como el índice de columna del elemento con
el valor predicho más grande en esta fila.(Tan, Shi, Tong, Hwang, & Wang, 2004, p. 3)
PLSD se ha aplicado en numerosos campos. En medicina para determinar
diferentes estados de cáncer oral mediante datos de fluorescencia; o para identificar el tipo de
lesión en laringe mediante datos de fluorescencia en vivo; en psiquiatría para clasificar
pacientes en diferentes estados de organización de personalidad; o en medicina forense para
discriminar entre suicidios y homicidios. Además, el PLSD se ha utilizado en la selección de
variables significativas a partir de los coeficientes de regresión, siendo aplicado a la
determinación del origen de suelos analizando ADN de la fauna microbiana o los ácidos grasos
presentes en los microorganismos. (Perez, 2010, p. 29)
2.2.3. SVM
El aprendizaje de vectores de soporte se basa en ideas simples que se originaron
en la teoría del aprendizaje estadístico de Vladimir Vapnik. Los SVMs son algoritmos de
aprendizaje que se engloban dentro de los métodos de kernel, y que se basan en el clasificador
lineal, el cual busca un hiperplano óptimo que nos permita separar dos clases (vertidos y falsas
alarmas) de forma que la distancia entre un dato dado y la superficie de separación sea máxima.
Entre cada una de las clases etiquetadas como {−1, +1}, existe un único
hiperplano óptimo de separación (OSH). Se busca que la distancia entre el hiperplano óptimo
y el patrón de entrenamiento más cercano sea máxima, con la intención de forzar la
generalización de la máquina de aprendizaje, tal como se muestra en la ilustración 3.
19
Ilustración 3- SVM Hiperplanos que separan correctamente un conjunto de datos.
Fuente: (Gil González, 2013, p. 16) a) Hiperplano de separación de datos. b) OSH con un
mayor margen de separación entre clases.
Las SVMs operan en un espacio de características, es decir, en un espacio de
mayor dimensionalidad que el conjunto de entrada en el cual existe una mayor probabilidad de
que los datos sean linealmente separables. La función kernel permite transformar los datos de
entrada en ese espacio de características. (González, Torres, & Martín, 2010)
Una propiedad interesante de máquinas de soporte vectorial y otros sistemas
basados en kernel es que una vez que se ha seleccionado una función de kernel válida,
prácticamente se puede trabajar en espacios de cualquier dimensión sin ningún costo
computacional adicional significativo, ya que el mapeo de características nunca se lleva a cabo
eficazmente. De hecho, uno ni siquiera necesita saber qué características están siendo utilizadas.
Otra ventaja de los métodos SVM y kernel es que uno puede diseñar y utilizar
un kernel para un problema particular que podría aplicarse directamente a los datos sin
necesidad de un proceso de extracción de características. Esto es particularmente importante en
problemas en los que una gran parte de la estructura de los datos se pierde por el proceso de
extracción de características (por ejemplo, procesamiento de texto).
La formación de una SVM para la clasificación, regresión o detección de
novedad implica resolver un problema de optimización cuadrática. El uso de un solucionador
de problemas cuadrático estándar para el entrenamiento de un SVM implicaría resolver un gran
problema de QP incluso para un conjunto de datos de tamaño moderado, incluyendo el cálculo
20
de una matriz m × m en memoria (m número de puntos de entrenamiento). Esto limitaría
seriamente el tamaño de los problemas a los que podría aplicarse una SVM. Existen métodos
como SMO (Platt 1998), chunking (Osuna, Freund y Girosi 1997) y SVM simple
(Vishwanathan, Smola y Murty 2003) que calculan iterativamente la solución del SVM y la
escala O (Nk) donde k está entre 1 y 2,5 y tiene una complejidad lineal del espacio.
(Karatzoglou, Meyer, & Hornik, 2006, p. 1)
Las SVM usan un mapeo implícito Φ de los datos de entrada en un espacio de
características de alta dimensión definido por una función de núcleo, es decir, una función que
devuelve el producto interno [Φ (x), Φ (x´)] entre las imágenes de dos puntos de datos x, x´ en
el espacio de funciones. El aprendizaje se lleva a cabo en el espacio de características, y los
puntos de datos sólo aparecen dentro de los productos de punto con otros puntos. Esto se refiere
a menudo como el "truco del núcleo" (Schöolkopf y Smola 2002). Más precisamente, si se usa
una proyección Φ: X → H, el producto de punto [Φ (x), Φ (x´)] puede ser representado por una
función de núcleo k
K (x, x´) = [Φ (x), Φ (x´)],
Que es computacionalmente más simple que proyectar explícitamente x y x´ en
el espacio de características H. Karatzoglou et al. (2006) profundiza la parte matemática de este
método en la clasificación.
Uno de los primeros trabajos sobre EWS:
Kim, Hwang, y col. (2004), Kim, Oh, et al. (2004) propusieron por primera vez
el enfoque de clasificación para el establecimiento del SAT para la crisis económica y Oh et al.
(2006a, 2006b) lo ha utilizado para desarrollar el indicador de condición financiera diaria
(DFCI). DFCI demostró registrar un buen desempeño al juzgar la condición dada del mercado
financiero en el sentido de que refleja la situación real del mercado financiero con bastante
exactitud.
21
Dichos autores clasificaron las condiciones del mercado en tres fases: (i) período
estable (SP), (ii) período inestable (UP) y (iii) período de crisis (CP). Mencionan que es UP lo
que da la característica única al enfoque de clasificación, es decir, el EWS basado en el enfoque
de clasificación está bosquejado para emitir una advertencia cada vez que el mercado financiero
entra en la UP. Como la UP suele ocurrir justo antes de una crisis, puede interpretarse como
una fase a través de la cual el mercado financiero hace un cambio de SP a CP. A menudo se
denomina zona gris donde se deteriora el mecanismo de auto corrección del mercado financiero
y se caracteriza por un súbito cambio de nivel de volatilidad y rápidas oscilaciones en los
sentimientos del mercado. Tenga en cuenta que el mercado financiero en la UP puede proceder
a una crisis o volver a una condición estable.(Ahn, Oh, Kim, & Kim, 2011, p. 2)
2.2.4. Árbol de Clasificación
Se han propuesto varios algoritmos para inducir árboles de decisión a lo largo de
los años (por ejemplo, CLS (Hunt et al., 1966), ID3 (Quinlan, 1986), C4.5 (Quinlan, 1993),
CART (Breiman et al. 1984), SLIQ (Mehta et al., 1996), SPRINT (Shafer et al., 1996)). La
mayoría de los algoritmos tienen dos fases distintas, una fase de construcción o de crecimiento
seguida por una fase de poda.
En la fase de construcción, el conjunto de datos de entrenamiento se particiona
recursivamente hasta que todos los registros de una partición tengan la misma clase. Para cada
partición, se agrega un nuevo nodo al árbol de decisión; Inicialmente, el árbol tiene un solo
nodo raíz para todo el conjunto de datos. Para un conjunto de registros en una partición P, se
determina en primer lugar un criterio de prueba T para dividir adicionalmente el conjunto en
P1, ..., Pm. Se crean nuevos nodos para P1, ..., Pm y éstos se añaden al árbol de decisiones
como hijos del nodo para P. También, el nodo de P se etiqueta con la prueba T y las particiones
P1, ..., Pm son Entonces particionado recursivamente. Una partición en la que todos los registros
22
tienen etiquetas de clase idénticas no se particiona más, y la hoja correspondiente a ella está
etiquetada con la clase.
La fase de crecimiento para los diversos sistemas de generación de árboles de
decisión difiere en el algoritmo empleado para seleccionar el criterio de prueba T para
particionar un conjunto de registros. CLS (Hunt et al., 1966), uno de los sistemas más antiguos,
examina el espacio de solución de todos los árboles de decisión posibles hasta una profundidad
fija. A continuación, elige una prueba que minimiza el costo de clasificación de un registro.
El costo se compone del costo de determinar los valores de las características
para las pruebas, así como el costo de la clasificación errónea. ID3 (Quinlan, 1986) y C4.5
(Quinlan, 1993) reemplazan el esquema computacionalmente costoso de CLS con un esquema
simple de teoría de la información que selecciona una prueba que minimiza la entropía de
información de las particiones Sección 3), mientras que CART (Breiman et al., 1984), SLIQ
(Mehta et al., 1996) y SPRINT (Shafer et al., 1996) seleccionan la prueba con el índice GINI
más bajo. Los clasificadores como C4.5 y CART asumen que los datos de entrenamiento
encajan en la memoria.(Shim & RASTOGI, 2000)
En este trabajo usaremos la metodología desarrollada en los años 80 por
Breiman, Freidman, Olshen, Stone en su papel "Classification and Regression Trees" (1984).
Árboles de clasificación y regresión (CART). En comparación con otros métodos de
aprendizaje automático, los árboles de decisión tienen la ventaja de ser explicados como una
serie de reglas "si-entonces" en lugar de ser cajas negras.
Las principales ventajas de esta técnica:
• No paramétrico. Por lo tanto, este método no requiere la especificación de ninguna
forma funcional.
• No requiere que las variables sean seleccionadas de antemano.
• Identificará las variables más significativas y elimina las no significativas.
23
• Los resultados son invariantes a las transformaciones monótonas de sus variables
independientes.
• Puede manejar fácilmente valores atípicos.
Es un método de clasificación que utiliza datos históricos para construir árboles
de decisión. Dependiendo de la información disponible sobre el conjunto de datos, se puede
construir el árbol de clasificación o el árbol de regresión. El árbol construido se puede utilizar
para la clasificación de nuevas observaciones.
Los árboles máximos pueden llegar a ser de muy alta complejidad y constan de
cientos de niveles. Por lo tanto, tienen que ser optimizados antes de ser utilizados para la
clasificación de nuevos datos. La optimización del árbol implica elegir el tamaño correcto del
árbol: cortar nódulos insignificantes e incluso subárboles. En la práctica se pueden utilizar dos
algoritmos de poda: optimización por número de puntos en cada nodo y validación cruzada.
(Timofeev, 2005)
2.3. Premisas de la investigación.
El sistema de alerta temprana permitirá a los analistas conocer, con 18 meses de anticipación,
los bancos con problemas financieros con el fin de que estos analistas tomen acciones para así
mitigar los riesgos a los que este expuesto su área de estudio.
2.4. Universo y muestra
Tal como lo señala el Código Orgánico Monetario y Financiero, en su capítulo
2, el sistema financiero está integrado por el sector financiero público, el sector financiero
privado y el sector financiero popular y solidario. De dicho sistema, el sector financiero privado
está compuesto por las siguientes entidades:
1. Bancos múltiples y bancos especializados: a) Banco múltiple es la entidad
financiera que tiene operaciones autorizadas en dos o más segmentos de crédito; y, b) Banco
especializado es la entidad financiera que tiene operaciones autorizadas en un segmento de
24
crédito y que en los demás segmentos sus operaciones no superen los umbrales determinados
por la Junta de Política y Regulación Monetaria y Financiera.
2. De servicios financieros: Almacenes generales de depósito, casas de cambio
y corporaciones de desarrollo de mercado secundario de hipotecas; y,
3. De servicios auxiliares del sistema financiero, tales como: software bancario,
transaccionales, de transporte de especies monetarias y de valores, pagos, cobranzas, redes y
cajeros automáticos, contables y de computación y otras calificadas como tales por la
Superintendencia de Bancos en el ámbito de su competencia. Los bancos múltiples y bancos
especializados analizados en este trabajo son 30; listados en la siguiente tabla.
Tabla 1- Bancos privados en análisis.
GUAYAQUIL SOLIDARIO
PACIFICO SUDAMERICANO
PICHINCHA TERRITORIAL
PRODUBANCO UNIBANCO
AUSTRO PROCREDIT
BOLIVARIANO DELBANK
RUMIÑAHUI LOJA
INTERNACIONAL ANDES
MACHALA CAPITAL
PROMÉRICA FINCA
CITIBANK D-MIRO
AMAZONAS COOPNACIONAL
COFIEC DESARROLLO
C. MANABÍ VISIONFUND
LITORAL CENTROMUNDO Fuente: Elaboración propia.
El sistema financiero es el grupo de instituciones públicas y privadas reguladas
por un ente de control y encargadas de realizar intermediación financiera con el público. En el
Ecuador los bancos son controlados por la Superintendencia de Bancos.
2.5. CDIU – Operacionalización de variables
La base de datos consta de 27 variables que vienen dadas por ratios financieros de cada banco en un
determinado tiempo. Estos ratios proceden del cálculo de las fórmulas que se indican en el siguiente
25
cuadro y la información viene dada por los estados financieros remitidos por cada institución al ente
supervisor.
Tabla 2- Codificación de variables.
Código Variable Tipo
IF102 Activ Imp Netos/Tot Activ Estruct. Y Calidad de Activos
IF101 Activ Product/Tot Activ Estruct. Y Calidad de Activos
IF688 Activ Product/ Pasiv C Cost Estruct. Y Calidad de Activos
IF013 Morosid De Cart Credit Estruct. Y Calidad de Activos
COBCP Cobert De La Cart Problemát Estruct. Y Calidad de Activos
IF123 Gast Op Estim /Tot Activ Prom Eficiencia microeconómica
IF1111 Gast Operac /Marg Financ Eficiencia microeconómica
IF202 Gast Pers Est /Tot Act Prom Eficiencia microeconómica
IF295 Result Ejerc Estim / Pat Prom Rentabilidad
IF293 Result Ejerc Estim /Activ Prom Rentabilidad
IF049 Cart B / (Dep Vist + Dep Plazo) Intermediación Financiera
MI/PAT Marg Intermed Est / Pat Prom Eficiencia Financiera
IF314 Marg Intermed Est / Act Prom Eficiencia Financiera
RCART Cartera Por Vencer Total Rendimiento de Cartera
IF1112 Fondos Disp/ Tot Dep A C/P Liquidez
COB25 Cob 25 Mayores Depositantes Liquidez
COB100 Cob 100 Mayores Depositantes Liquidez
CIMP/PAT Cartera Imp / Patrimonio Vulnerabilidad del Pat
IF113 Cart Imp Descub / (Pat + Result) Vulnerabilidad del Pat
IF041 Fk=(Pat+ Result-Ing Extr)/Act Tot Vulnerabilidad del Pat
IF111 Fi = 1 + (Act Imp/Activos Totales) Vulnerabilidad del Pat
IF112 Indice De Capit Neto: Fk / Fi Vulnerabilidad del Pat
P/PTR posición / p,t, requerido Vulnerabilidad del Pat
PT/ACPR P,T, / Act, Y Conting, Pond,X Riesgo Vulnerabilidad del Pat
PT/ACT P,T, / Activos Y Cont Tot Vulnerabilidad del Pat
AF/PT Activo Fijo / Pat Tecnico Vulnerabilidad del Pat
IF114 ( Pat + Result ) /Act Inmovilizados Vulnerabilidad del Pat Fuente: Elaboración propia.
2.6. Gestión de datos
Se consolidó información de 30 instituciones financieras del Ecuador con 27
ratios financieros, datos mensuales desde enero del 2005 a marzo del 2017, con un total de
94,743 datos. Dichos datos fueron recogidos de los boletines financieros y calculados (Anexo
A) a través de los balances generales publicados en la página web de la Superintendencia de
Bancos del Ecuador.
26
De 98,712 datos, tenía 0.164% de datos faltantes por lo que realicé la imputación
de estos.
Procedí a emputar los datos faltantes, mediante el programa R, librería DMwR
realizada por Torgo (2013), con el método knnimpute explicado en detalle por Aha, Kibler, &
Albert (1991). Troyanskaya et al.(2001) llegan a la conclusión de que el método k-NN es mucho
mejor que los otros métodos, y también que es robusto con respecto a la cantidad de datos que
faltan y tipo de datos. Por otra parte, recomiendan el uso de la distancia euclidiana como medida
de similitud. Diversos autores recomiendan un k de entre 2 a 10. Dependiendo de la cantidad
de datos. En este caso, se realizó la imputación con un k=3, escalado, peso medio y los vecinos
se buscan en todos los datos disponibles.
2.7. Criterios éticos de la investigación
Esta investigación está dirigida a los analistas financieros. Estos deben tener mucho cuidado
al momento de usar un sistema de alerta temprana por cuanto este tipo de información no
debe ser usado para alarmar a la ciudadanía ni para desprestigiar a algún banco en particular.
Ya que el sistema financiero y económico podría ser seriamente golpeado por este tipo de
prácticas.
27
Capítulo 3: Resultados
3.1. Antecedentes de la unidad de análisis o población
En el Ecuador no se han publicado trabajos de EWS para el sistema bancario, a
junio del 2017. Entre los últimos trabajos que topan el tema de supervisión bancaria desde otros
temas tenemos a Chulde Revelo & Larrea Terán (2009) que analizan el riesgo sistémico en la
banca privada del Ecuador mediante pruebas de tensión macro prudenciales enfocada en el
riesgo de liquidez y crédito. Vinueza Rivadeneira (2016) desarrolló un índice de salud
financiera mediante el análisis factorial. Jácome Ortega (2015) plantea un método de análisis
cluster jerárquico, un modelo de Valor Económico Agregado y el Análisis de Cumplimiento
del Patrimonio Técnico para la supervisión bancaria.
Naranjo Paucar (2015) hace un análisis cualitativo de los factores que
determinaron la quiebra de bancos en el periodo 2001 al 2013. Andrade (2012) realizó un
modelo de estrés para el sistema financiero del Ecuador.
3.2. Diagnóstico o estudio de campo:
3.2.1. PLSD
Discriminé las instituciones cerradas (18 meses antes del fin de operaciones) de
las no cerradas, estos datos corresponden a una institución por mes, de las cuales 3566 no
cerradas y 90 cerradas. Correspondiente a datos desde el año 2005 a marzo 2017. Cabe indicar
que en un sistema bancario son bajos los porcentajes de instituciones quebradas. En el
pretratamiento de los datos se centraron y escalado a varianza unitaria.
Usando el sotware MVA-GIEM (2017) generé el modelo, se obtienen 7
componentes principales:
28
Se alcanza un R2 máximo en Y de 27.41% y Q2 de 24.93%, lo que indica que el
poder de predicción no es alto. Como resultado, me da una clasificación global del 94.53%.
Tabla 3- PLSD Matriz de confusión con atípicos.
QUIEBRA No Sí <ATIPICO> % aciertos
No 3456 0 73 96,92%
Sí 110 0 17 0,00%
Fuente: Elaboración propia.
Sin embargo, podría prescindir de la casilla atípica por cuanto sabemos que son
cifras fiables de instituciones que están operando en el mercado por lo que las encasillaré entre
las 2 opciones, colocando las atípicas como si quiebra. Con lo cual, quedaría mi clasificación
de manera global en 94.99%, siendo un valor bajo si tomamos en cuenta que solo el 18.89% de
las instituciones quebradas fueron clasificadas correctamente.
Tabla 4- PLSD Matriz de confusión.
QUIEBRA No Sí % aciertos
No 3456 73 96,92%
Sí 110 17 18,89%
Fuente: Elaboración propia.
Cabe indicar que si disminuyo a 6 componentes mejora el porcentaje de
clasificación global de 94.99% a 95.24%. Sin embargo, esta mejora va en detrimento al
porcentaje de si quiebra que pasa del 18.89% al 17.78%. Razón por la que no disminuyo el
componente ya que estimo más importante la discriminación de los que quiebran.
Ahora vamos a analizar las variables que me ayudaron a discriminar (Ilustración
4).
29
Ilustración 4-PLSD gráfico de pesos.
Fuente: Elaboración propia.
En el cuadro superior derecho de dicho gráfico se encuentras las variables que
definen a una institución que no quiebra, las cuales tienen altos ratios en IF314, MI_PAT
(Margen de intermed), IF295 (resultados ejercicios), y COB100(cobertura de deposit).
Los bancos que quiebran tienen altos IF013 (morosidad), IF113, CIMP_PAT
(cartera improductiva) y IF1111(Gastos operacionales). Las variables del centro no me ayudan
a discriminar en gran medida.
Obtenemos las variables que más influyeron en la discriminación, como son
IF013 (morosidad), IF113 (cartera improductiva), MI_PAT(margen de intermediación),
CIMP_PAT (cartera), IF314 (margen de intermediación/activo). Esto confirma lo que indican
los w*c 1 y 2.
Además, obtenemos el grafico (ilustración 5) de las observaciones vs predichos
de las variables que mejor y peor predicen, los cuales son IF013 y IF114, respectivamente.
30
Ilustración 5- PLSD observados vs predichos (variable).
Fuente: Elaboración propia.
Por último, tenemos un cuadro general de las observaciones frente a lo predicho:
Ilustración 6 – PLSD observados vs predichos global.
Fuente: Elaboración propia.
Aquí se observa cómo se ajusta lo predicho frente a las observaciones. En este
caso se ajusta medianamente bien cuando no quiebra, sin embargo, insatisfactoriamente cuando
quiebra.Se obtuvo un 96.92% de buena clasificación para los bancos activos y 11.64% para los
quebrados. De manera global un 94.99%. Una cifra baja para los bancos quebrados por lo que
el modelo no se considera bueno como discriminador.
Analizando los errores de clasificación, se obtiene que el banco peor clasificado
es Visionfund entidad que tiene 6 meses de creada fue discriminada incorrectamente como
quebrada, le sigue Banco Andes con el 61% no pudo ser discriminada como quebrada, al igual
que Centromundo y Banco Territorial. Citibank, al ser una institución de capital extranjero que
31
maneja una cartera corporativa y se fondea con fondos del exterior fue considerada como
atípica.
Ilustración 7-PLSD Porcentaje de error.
Fuente: Elaboración propia.
3.2.2. SVM
Discriminé las instituciones cerradas (18 meses antes del fin de operaciones) de
las no cerradas, estos datos corresponden a una institución por mes, de las cuales 3419 no
cerradas y 90 cerradas. Correspondiente a datos desde el año 2005 a marzo 2017. Utilizando el
sotware MVA-GIEM (2017) para modelar, use 2 métodos; optimización secuencial y mínimos
cuadrados. Con 6 funciones kernel; lineal, cuadrática, polinomial de orden 3 y 4, radial basis
function (RBF) y multilayer perceptron (MLP). Realicé pre tratamiento de auto escalado y una
optimización de validación cruzada 70% de entrenamiento y 30% de test para todos los
modelos. Con un total de 12 modelos, cuyos resultados se muestran a continuación:
Tabla 5- Porcentaje de clasificación de los distintos modelos propuestos de SVM
Método Función Kernel % Aciertos Global % Aciertos No % Aciertos Si
Optimización secuencial Lineal 97,34% 97,27% 100,00%
Optimización secuencial Cuadrática 99,14% 99,12% 100,00%
Optimización secuencial Polinomial (3) 98,86% 99,22% 85,19%
Optimización secuencial Polinomial (4) 98,76% 98,93% 92,59%
Optimización secuencial RBF 99,05% 99,61% 77,78%
0%10%20%30%40%50%60%70%80%90%
100%
VIS
ION
FUN
D
AN
DES
CEN
TRO
MU
ND
O
TER
RIT
OR
IAL
CIT
IBA
NK
UN
IBA
NC
O
SUD
AM
ERIC
AN
O
CO
FIEC
D-M
IRO
CO
OP
NA
CIO
NA
L
LOJA
PIC
HIN
CH
A
RU
MIÑ
AH
UI
Porcentaje de error
32
Optimización secuencial MLP 97,43% 100,00% 0,00%
Mínimos Cuadrados Lineal 94,96% 94,83% 100,00%
Mínimos Cuadrados Cuadrática 98,48% 98,83% 85,19%
Mínimos Cuadrados Polinomial (3) 98,57% 99,12% 77,78%
Mínimos Cuadrados Polinomial (4) 97,15% 97,76% 74,07%
Mínimos Cuadrados RBF 98,76% 100,00% 51,85%
Mínimos Cuadrados MLP 68,73% 68,88% 62,96%
Fuente: Elaboración propia.
De los modelos propuestos, el método de optimización secuencial con función
Kernel cuadrática fue el de mayor porcentaje de clasificación, tanto global como de bancos en
quiebra. Mostrada en la tabla 3. Se obtuvo un 99.14% de clasificación global. Un 100% de
bancos quebrados y 99.12% de bancos no quebrados.
Tabla 6 -SVM Matriz de confusión.
QUIEBRA No Sí %
aciertos
No 1016 0 99,12%
Sí 9 27 100,00%
Fuente: Elaboración propia.
Las nueve instituciones que fueron clasificadas como quebradas cuando no lo
son, tenemos a; Cofiec, Del Bank, Sudamericano y Territorial. Tal como lo muestra el siguiente
detalle:
Tabla 7- SVM Bancos mal clasificados.
FECHA_IFI
12-10_COFIEC
1-05_DELBANK
2-05_DELBANK
8-12_SUDAMERICANO
1-13_SUDAMERICANO
12-07_TERRITORIAL
1-08_TERRITORIAL
2-08_TERRITORIAL
4-11_TERRITORIAL
7-11_TERRITORIAL Fuente: Elaboración propia.
33
Aun cuando están mal clasificados, es pertinente mencionar que 3 de las 4
instituciones terminaron cerrando sus puertas. En Cofiec alerta un cambio en el mes 55 antes
del cierre. En el caso del banco Sudamericano, se clasifica 19 meses y 24 antes del cierre. En
el Territorial ocurre en el mes 19 y 22 antes del cierre. Y también tiene una mala clasificación
3 años antes. Lo que indica que dichas instituciones ya tenían rasgos de un banco en quiebre y
que el modelo como clasificador es muy bueno.
3.2.3. ARBOL DE CLASIFICACIÓN
Usé el programa R para realizar el modelo CART a través de la librería rpart
para construir el árbol. Se empieza con el cp=0.001, para generar el siguiente cuadro; que nos
proporciona el cp óptimo mediante los cortes que se realizan al árbol.
Tabla 8- Árbol de Clasificación CP.
CP nsplit rel error xerror xstd
1 0.177778 0 1.00000 1.00000 0.104049
2 0.105556 1 0.82222 0.90000 0.098839
3 0.066667 3 0.61111 0.74444 0.090076
4 0.057778 5 0.47778 0.75556 0.090732
5 0.011111 10 0.18889 0.56667 0.078770
6 0.001000 11 0.17778 0.54444 0.077233 Fuente: Elaboración propia.
Se escoge el xerror mínimo y arroja el cp de 0,001000. Con este valor se genera
el árbol óptimo. Este árbol (ilustración 8) me indica las características que tiene un banco y bajo
estos parámetros lo considera quebrado o no quebrado. Cada nodo indica el % de bancos que
abarca.
34
Ilustración 8- Árbol de decisión óptimo.
Fuente: Elaboración propia. Realizado mediante la librería rpart.plot.
Por lo tanto, un banco quebrará cuando:
• Su cobertura de los 100 mayores depositantes sea menor al 25% y el índice IF259 es menor
al 0.66%.
• Su cobertura de los 100 mayores depositantes sea menor al 25%, el índice IF259 es mayor
al 0.66% y el ratio IF123 es mayor al 18%.
• Su cobertura de los 100 mayores depositantes sea mayor al 25%, el índice IF1111 es mayor
al 350% y el IF202 es mayor al 3.6%
• Su cobertura de los 100 mayores depositantes sea mayor al 25%, el índice IF1111 es menor
al 350%, el IF113 es mayor a 61% y su rendimiento de cartera es menor o igual al 12%.
• Su cobertura de los 100 mayores depositantes sea mayor al 25%, el índice IF1111 es menor
al 350%, el IF113 es menor a 61% y el IF013 es mayor al 35%.
• Su cobertura de los 100 mayores depositantes sea mayor al 25%, el índice IF1111 es menor
al 350%, el IF113 es menor a 61%, el IF013 es menor al 35%, el IF1112 mayor al 100%,
IF123 menor a 7.4% y el ratio IF114 menor a 250%.
35
Se realizó la predicción, se generó la matriz de confusión con la probabilidad
mayor al 50% de los de quiebran y el porcentaje de acierto global.
Tabla 9- Árbol de Clasificación Matriz de confusión #1.
QUIEBRA No Sí 99,54%
No 3417 14 99,94%
Sí 2 76 84,44% Fuente: Elaboración propia. Modelo con todos los datos.
Esta matriz de confusión me indica que el 99.94% de las veces que una es una
institución que no quiebra la voy a catalogar como no quebrada. O lo que es lo mismo,
clasificaré mal al 0.06% de las instituciones que están bien financieramente. Al 84.44% de los
quebrados los identificaré como tal. De forma global con el árbol de clasificación obtengo el
99.54% de buena clasificación.
Luego usé el método hold out que consiste en partir la base de datos en un 70%
para entrenamiento y en 30% en test y procedí a formar el árbol con los datos de entrenamientos,
realizo el podado de este árbol. Finalmente realizo la predicción del árbol podado con los datos
que guardé para el test y me muestra la siguiente matriz de confusión:
Tabla 10- Árbol de Clasificación Matriz de confusión #2.
QUIEBRA No Sí 99,72%
No 1025 2 99,90%
Sí 1 25 92,59% Fuente: Elaboración propia. Modelo bajo el método Hold out.
Esta matriz de confusión me indica que el 99.90% de las veces que una es una
institución que no quiebra la voy a catalogar como no quebrada. O lo que es lo mismo,
clasificaré mal al 0.1% de las instituciones que están bien financieramente. Al 92.59% de los
quebrados los identificaré como tal. De forma global con el árbol de clasificación obtengo el
99.72% de buena clasificación.
Por último, realicé la validación cruzada de mis datos con el fin de descartar un
sobre ajuste. La técnica llamada k fold cross validation, el cual es explicada con detalle por
36
Efron & Tibshirani (1993), p. 239, consiste en dividir los datos en varios set de datos y luego
elegir uno de los set para probar y el resto para entrenar el árbol de clasificación. Esto se hace
de forma repetida hasta "testear" con cada set de datos, guardando el resultado de cada iteración
en una tabla para luego analizar la eficiencia de la predicción. Este método viene del concepto
Leave One Out. Para elaborar esta técnica, se usaron 10 folds “iteraciones”. Dando como
resultado una eficiencia de predicción del 98.42%. Esta eficiencia es el promedio de las 10
iteraciones, como se muestra a continuación:
Ilustración 9- Árbol de clasificación. Gráfico k-Fold validation.
Fuente: Elaboración propia.
Con un mínimo de 97.43% y un máximo de 99.45%, la varianza de los resultados
es baja lo que indica que el modelo es bueno, en caso hubiese salido una varianza elevada se
requeriría paralelizar la validación cruzada. Además, el promedio mencionado es congruente
con el 99.54% y 99.72% obtenido en la primera y segunda predicción.
37
Capítulo 4: Discusión
4.1. Contrastación empírica:
Gissel, Giacomino, & Akers (2007) realizaron un análisis de los modelos de
predicción de bancarrota desde 1930 al 2006, Señalando que el pionero en EWS multivariante
Altman (1968), obtuvo un 95% de clasificación con 1 año de antelación al quiebre y un 72% a
los 2 años. Analizando las herramientas aquí estudiadas, con el método PLSD se obtuvo una
baja clasificación de bancos quebrados. Sin embargo, da señales de cuáles son las variables de
mayor importancia en la discriminación. Serrano-Cinca & Gutiérrez-Nieto (2013) uso PLSD
obteniendo mejores resultados tanto en la discriminación de bancos quebrados (63.89% vs
18.89%) como de manera global (95.02% vs 94.99%). Existen pocos trabajos de PLSD ya que
es mejorado por otros métodos como el tradicional Logit o el de moda Redes Neuronales, para
el caso de las EWS.
El árbol de clasificación CART da un buen modelo que alcanza el 99.72% de
clasificación global y 92.59% de los bancos quebrados en la validación cruzada. Además, este
método no es una caja negra lo que indica que no solo me indica las variables que más
discriminan, sino que me da un ruta de clasificación, formando un árbol. En este trabajo se
obtiene una mejor clasificación en relación a Cielen, Peeters, & Vanhoof (2004), analizaron
bancos de Bélgica en el periodo de 1994 a 1996, obteniendo una clasificación global de; modelo
MSD (minimize the sum of the deviations) 78.8%, modelo DEA (data envelopment analysis)
85.1% y el modelo C5.0 (Arbol de decisión) 79.9%.
Mientras SVM me da la mejor calificación con una clasificación global de
99.14% y del 100% de los bancos quebrados. Dicho logro sobrepasa a los trabjos realizados
con logit y cercanos a lo conseguido por el método trait recognition. El cual fue realizado por
Kolari, Glennon, Shin, & Caputo (2002). Ellos realizaron un EWS con datos de bancos grandes
estadounidense del periodo 1989 a 1992. Logrando con logit a 1 año del quiebre un 96% de
38
correcta clasificación mientras a 2 años del quiebre un 95%. Con el método “trait recognition”
en 1 y 2 años el 100% de correcta clasificación.
4.2. Limitaciones: exponer las limitaciones del estudio.
A partir del año 2007 para atrás, la información de los ratios financieros es
incompleta debido tanto a que no se publican los índices aquí estudiados, así como por que los
balances no están abiertos del todo para poder calcular dichas variables.
Otra limitación es el factor tiempo, ya que no se pudo analizar más métodos de
discriminación con el cual estudiar la problemática.
4.3. Líneas de investigación: explorar la implicación de los resultados para futuras
investigaciones.
Es un punto de partida para que futuras investigaciones apliquen otros modelos
que mejoren el poder de clasificación de quiebre bancario en el Ecuador. Además, estos
modelos podrían ser usados para monitorizar otras instituciones financieras como las
Cooperativas de Ahorro y Crédito, Mutualistas, etc. U otras instituciones no financieras que
son controladas por la Superintendencia de Compañías y Seguros.
4.4. Destacar los aspectos más novedosos e importantes del estudio y las diferencias
con los referentes empíricos.
Los modelos aplicados no son los modelos tradicionales de clasificación con el
objetivo de estudiar estos a fondo y de exponerlos al público en general como herramientas
útiles para la clasificación.
39
Capítulo 5: Propuesta
Las distintas herramientas aplicadas en este trabajo serán de vital importancia
para los distintos actores del sistema financiero ya que es un instrumento útil para conocer las
instituciones próximas a quebrar con el fin de tomar decisiones. En el caso de la
Superintendencia de Bancos, este debe diseñar un sistema de alerta temprana que obtenga
porcentajes de clasificación iguales o mejores a los de este trabajo para así monitorizar y
controlar a las instituciones bajo su control. En el caso de una calificadora de riesgos, estudiar
con más detenimiento al sistema o banco y revisar si amerita una menor calificación. Los
departamentos de riesgos de cada institución financiera tendrían una alerta temprana importante
para realizar los correctivos necesarios en el banco. Por último, es de interés de los inversores
si una institución está trabajando correctamente y así tomar las mejores decisiones con el fin de
mitigar su riesgo de pérdida.
Conclusiones y recomendaciones:
El método PLSD nos brindó una clasificación global del 94.99% y una
clasificación de bancos quebrados (18 meses antes de su cierre) del 18.89%. Los bancos que no
quiebran tienen altos ratios en ; IF314 (Eficiencia financiera), MI_PAT (Margen de
intermediación), IF295 (Resultados de ejercicios), y COB100(Cobertura de 100 mayores
depositantes).
Los bancos que quiebran tienen altos niveles de; IF013 (Morosidad), IF113
(Vulnerabilidad del patrimonio), CIMP_PAT (cartera improductiva) y IF1111(Gastos
operacionales).
El Árbol de clasificación CART arrojó un buen modelo de clasificación, dando
un 99.72% de clasificación global y 92.59% de bancos quebrados. Además, nos da información
40
de las variables que mejor discriminan, bajo qué condiciones y nos indica el porcentaje de la
población que se encuentra en dicho nodo.
Con el SVM se obtuvo la mejor clasificación, un 99.14% de clasificación global.
Clasificando el 100% de bancos quebrados y el 99.12% de bancos no quebrados. Dichos
resultados son muy alentadores para el uso inmediato por parte de los distintos actores del
sistema bancario.
Se recomienda el uso de estas técnicas para nuevos estudios tanto en el campo
de EWS financiero no abarcado en este estudio como en el de un EWS para empresas no
financieras controladas por la Superintendencia de Compañias y Seguros.
41
Bibliografía:
Aha, D. W., Kibler, D., & Albert, M. K. (1991). Instance-Based Learning Algorithms.
Machine Learning, 6(1), 37–66. https://doi.org/10.1023/A:1022689900470
Ahn, J. J., Oh, K. J., Kim, T. Y., & Kim, D. H. (2011). Usefulness of support vector machine
to develop an early warning system for financial crisis. Expert Systems with
Applications, 38(4), 2966–2973. https://doi.org/10.1016/j.eswa.2010.08.085
Altman, E. I. (1968). Financial Ratios, Discriminant Analysis and the Prediction of Corporate
Bankruptcy, 23(4), 589–609. Retrieved from http://www.jstor.org/stable/2978933
Andrade, N. S. (2012). Modelo de estrés para el sistema financiero del Ecuador.
PONTIFICIA UNIVERSIDAD CATÓLICA DEL ECUADOR.
Barker, M., & Rayens, W. (2003). Partial least squares for discrimination. Journal of
Chemometrics, 17(3), 166–173. https://doi.org/10.1002/cem.785
Barrientos, F., & Ríos, S. A. (2013). Aplicación de Minería de Datos para Predecir Fuga de
Clientes en la Industria de las Telecomunicaciones. Sistemas de Informacion, XXVII, 73–
107. Retrieved from http://www.dii.uchile.cl/~ris/RIS2013/rios.pdf
Briceño, Y., & Orlandoni, G. (2012). Determinación de indicadores de riesgo bancario y el
entorno macroeconómico en Venezuela ( 1997-2009 ). Economía, 34, 55–88.
https://doi.org/198702me336
Chulde Revelo, K. M., & Larrea Terán, L. I. (2009). ANÁLISIS DE RIESGO SISTÉMICO EN
LA BANCA PRIVADA DEL ECUADOR MEDIANTE PRUEBAS DE TENSIÓN
MACROPRUDENCIALES ENFOCADA EN EL RIESGO DE LIQUIDEZ Y CRÉDITO
PARA EL PERÍODO 2003 - 2013. ESCUELA POLITÉCNICA NACIONAL.
Cielen, A., Peeters, L., & Vanhoof, K. (2004). Bankruptcy prediction using a data
envelopment analysis. European Journal of Operational Research, 154(2), 526–532.
https://doi.org/10.1016/S0377-2217(03)00186-3
Cochran, W. G. (1964). On the Performance of the Linear Discriminant Function.
Technometrics, 6(2), 179–190. https://doi.org/10.2307/1266150
Cortés, H. (2000). La arquitectura monetaria mundial., (Globalización XXI. América Latina y
los desafíos del nuevo milenio), 183–196.
Daher, A. (2004). Riesgo-país versus riesgo-región : Santiago en el Mercosur, 85, 85–113.
Daher, A. (2013). El sector inmobiliario y las crisis economicas. Eure, 39(118), 47–76.
https://doi.org/10.4067/S0250-71612013000300003
Davis, E. P., & Karim, D. (2008). Comparing early warning systems for banking crises.
Journal of Financial Stability, 4(2), 89–120. https://doi.org/10.1016/j.jfs.2007.12.004
De Gregorio, J., & Guidotti, P. E. (1995). Financial development and economic growth.
World Development, 23(3), 433–448. https://doi.org/10.1016/0305-750X(94)00132-I
Demyanyk, Y., & Hasan, I. (2010). Financial crises and bank failures: A review of prediction
methods. Omega, 38(5), 315–324. https://doi.org/10.1016/j.omega.2009.09.007
Efron, B., & Tibshirani, R. J. (1993). An introduction to the Bootstrap. Toronto: Chapman &
Hall/CRC.
Espinosa, R. (2000). La crisis económica financiera ecuatoriana de finales de siglo y la
dolarización. QUITO.
Gaytán, A., & Johnson, C. A. (2002). A Review of the Literature on Early Warning Systems
for Banking Crises. Banco Central de Chile Documentos de Trabajo Central Bank of
Chile Working Paper (Vol. 183).
Gil González, W. J. (2013). Clasificador robusto basado en máquinas de soporte vectorial
para la localización de fallas en sistemas de distribución. Universidad Tecnológica de
Pereira.
Gissel, J. L., Giacomino, D., & Akers, M. D. (2007). A Review of Bankruptcy Prediction
42
Studies: 1930-Present. Journal of Financial Education, 33, 1–42.
https://doi.org/10.1017/CBO9781107415324.004
González, L., Torres, J. M., & Martín, N. Y. J. (2010). Discriminación automática de vertidos
de hidrocarburos a partir de imágenes ASAR utilizando una máquina de vectores soporte
( SVM ) Automatic discrimination of hydrocarbon spills from ASAR images using a
support vector machine ( SVM ), 17–28.
Guitián, M. (1996). Macroeconomic Consequences and Causes of Bank Unsoundness.
Washington.
Hausmann, R., & Liliana Rojas-Suarez. (1996). VOLATILE CAPITAL FLOWS: TAMING
THEIR IMPACT ON LATIN AMERICA.
Huerta, J. A., Gonz, B. U., & Econ, D. (2000). Crisis Bancarias: causas, costos, duración,
efectos y opciones de política.
Jácome Ortega, X. O. (2015). Método de análisis y supervisión a la gestión bancaria :
Monitor de Banca de Ecuador. NEBRIJA. https://doi.org/10.13140/RG.2.1.1456.9048
Karatzoglou, A., Meyer, D., & Hornik, K. (2006). Support Vector Machines in R. Journal of
Statistical Software, 15(9), 28. https://doi.org/10.18637/jss.v015.i09
Kolari, J. W., Glennon, D., Shin, H., & Caputo, M. (2002). Predicting large US commercial
bank failures. Journal of Economics and Business, 54(4), 361–387.
Multivariante, G. de I. E. (2017). MVA-GIEM. VALENCIA. Retrieved from
http://mseg.webs.upv.es/index_s.html
Naranjo Paucar, J. S. (2015). Análisis de los factores determinantes en las quiebras de los
Bancos Privados y Mutualistas en el Ecuador : Período 2001-2013. PONTIFICIA
UNIVERSIDAD CATÓLICA DEL ECUADOR. Retrieved from
http://repositorio.puce.edu.ec/bitstream/handle/22000/9282/Tesis_JuanNaranjo_28-
mayo-2015.pdf?sequence=1
Pérez-Enciso, M., & Tenenhaus, M. (2003). Prediction of clinical outcome with microarray
data: a partial least squares discriminant analysis (PLS-DA) approach. Human Genetics,
112(5–6), 581–592. https://doi.org/10.1007/s00439-003-0921-9
Perez, N. F. (2010). Fiabilidad De Clasificación Con Pls Discriminante.
Reinhart, C., & Rogoff, K. (2011). Esta vez es distinto: ocho siglos de necedad financiera.
México, D.F.: Fondo de Cultura Económica.
Roubini, N., & Mihm, S. (2010). Crisis Economics: A Crash Course in the Future of Finance.
Santana, O., & Pinoargote, N. (2015). Análisis de las reformas institucionales en materia de
regulación y supervisión bancaia en Ecuadoren el periodo 2007- 2014 y su efecto en la
evolución de la competitividad y solidez financiera de país., 136.
Serrano-Cinca, C., & Gutiérrez-Nieto, B. (2013). Partial least square discriminant analysis for
bankruptcy prediction. Decision Support Systems, 54(3), 1245–1255.
https://doi.org/10.1016/j.dss.2012.11.015
Shim, K., & RASTOGI, R. (2000). PUBLIC: A decision tree classifier that integrates building
and pruning. Proceedings on Internation Conference on Very Large Databases, 4(Data
Mining and Knowledge Discovery), 315–344. https://doi.org/10.1023/A:1009887311454
Silverman, B. W., & Jones, M. C. (1989). An Important Contribution to Nonparametric
Discriminant Analysis and Density Estimation: Commentary on Fix and Hodges (1951).
International Statistical Review, 57(3), 233–238. Retrieved from
http://www.jstor.org/stable/1403796
Tan, Y., Shi, L., Tong, W., Hwang, G. T. G., & Wang, C. (2004). Multi-class tumor
classification by discriminant partial least squares using microarray gene expression data
and assessment of classification models. Computational Biology and Chemistry, 28(3),
235–244. https://doi.org/10.1016/j.compbiolchem.2004.05.002
Timofeev, R. (2005). Classification and regression trees (CART) Theory and Applications.
43
Humboldt University. https://doi.org/10.3171/jns.1995.82.5.0764
Torgo, L. (2013). Package “DMwR.” Retrieved from https://cran.r-
project.org/web/packages/DMwR/DMwR.pdf
Troyanskaya, O., Cantor, M., Sherlock, G., Brown, P., Hastie, T., Tibshirani, R., … Altman,
R. B. (2001). Missing value estimation methods for DNA microarrays. Bioinformatics.
2001 Jun;, 17(6), 520–525.
VINUEZA RIVADENEIRA, J. L. (2016). Formulación de un indicador integral de salud
financiera, para el sistema bancario del Ecuador, orientado a la toma de decisiones de
inversión y gestión. ESCUELA POLITÉCNICA NACIONAL.
44
ANEXOS
Anexo A. Ratios calculados por el autor:
Fecha Ratio
01-05 hasta 02-08 Cartera bruta / (depósitos a la vista + depósitos a plazo)
01-05 hasta 02-08 Cartera imp descub / (patrimonio + resultados)
01-05 hasta 02-08 Cartera improductiva / patrimonio (dic)
01-05 hasta 03-06 Cartera por vencer total
top related