universidad de granada - masteres.ugr.es

99
UNIVERSIDAD DE GRANADA DEPARTAMENTO DE ESTADÍSTICA E INVESTIGACIÓN OPERATIVA MÁSTER EN ESTADÍSTICA APLICADA TRABAJO FIN DE MÁSTER PROCESOS DE LLEGADAS DE MARKOV EN MODELOS MULTI-ESTADOS: MAP Antonio Hernández Moreno 2013-2014

Upload: others

Post on 01-Oct-2021

9 views

Category:

Documents


0 download

TRANSCRIPT

Page 1: UNIVERSIDAD DE GRANADA - masteres.ugr.es

UNIVERSIDAD DE GRANADA

DEPARTAMENTO DE ESTADÍSTICA E INVESTIGACIÓN OPERATIVA

MÁSTER EN ESTADÍSTICA APLICADA

TRABAJO FIN DE MÁSTER

PROCESOS DE LLEGADAS DE MARKOV EN MODELOS MULTI-ESTADOS: MAP

Antonio Hernández Moreno

2013-2014

Page 2: UNIVERSIDAD DE GRANADA - masteres.ugr.es
Page 3: UNIVERSIDAD DE GRANADA - masteres.ugr.es

TRABAJO FIN DE MÁSTER

PROCESOS DE LLEGADAS DE MARKOV EN MODELOS MULTI-ESTADOS: MAP

Trabajo realizado por Antonio Hernández Moreno

Vº Bº

Dr. D. Juan Eloy Ruiz Castro

Departamento de Estadística e Investigación Operativa

Universidad de Granada

Page 4: UNIVERSIDAD DE GRANADA - masteres.ugr.es
Page 5: UNIVERSIDAD DE GRANADA - masteres.ugr.es

V

A Susana y Laura, por vuestra comprensión y paciencia,

por prestarme el tiempo necesario para realizar este trabajo.

Page 6: UNIVERSIDAD DE GRANADA - masteres.ugr.es

VI

Page 7: UNIVERSIDAD DE GRANADA - masteres.ugr.es

VII

ÍNDICE GENERAL Introducción ................................................................................................................................ IX Capítulo 1. Preliminares ............................................................................................................. 1 1.1. Cadenas de Markov en tiempo continuo ............................................................................ 1 1.2. Producto y suma de Kronecker y tranformadas de Laplace-Stieltjes ............................. 7 1.3. Distribuciones tipo fase ........................................................................................................ 8 Capítulo 2. El proceso de Poisson ............................................................................................ 13 2.1. Introducción ........................................................................................................................ 13 2.2. Definiciones ......................................................................................................................... 13 2.3. Propiedades ......................................................................................................................... 15 2.3.1. Superposición del proceso de Poisson ........................................................................... 16 2.3.2. Descomposición del proceso de poisson ........................................................................ 18 2.4. Medidas de funcionamiento .............................................................................................. 18 Capítulo 3. Proceso de llegadas de Markov (MAP) ............................................................... 19 3.1. Introducción ........................................................................................................................ 19 3.2. Definiciones ......................................................................................................................... 20 3.3. Propiedades de los procesos MAP .................................................................................... 33 3.3.1. Superposición de procesos MAP ................................................................................... 36 3.3.2. Descomposición de procesos MAP ................................................................................ 37 3.4. Medidas de funcionamiento ............................................................................................... 39 3.5. Comparación del proceso de Poisson y MAP .................................................................. 41 Capítulo 4. Proceso de llegadas de Markov en grupo (BMAP) ............................................. 43 4.1. Introducción ........................................................................................................................ 43 4.2. Definiciones ......................................................................................................................... 44 4.3. Propiedades de los procesos BMAP y medidas de funcionamiento ............................... 48 4.3.1. Superposición de procesos BMAP ................................................................................. 51 4.3.2. Descomposición de procesos BMAP .............................................................................. 52 Capítulo 5. Proceso de llegadas de Markov marcadas (MMAP) .......................................... 53 5.1. Introducción ........................................................................................................................ 53 5.2. Definiciones ......................................................................................................................... 54 5.3. Propiedades ......................................................................................................................... 57 5.3.1. Propiedades de superposición y descomposicicón de MMAP ..................................... 59 5.4. Medidas de funcionamiento ............................................................................................... 60 Capítulo 6. Aplicación en fiabilidad ........................................................................................ 65 6.1. Introducción ........................................................................................................................ 65 6.2. Descripción del sistema ...................................................................................................... 67 6.3. Análisis MAP ...................................................................................................................... 71 6.4. Análisis MMAP .................................................................................................................. 75 Apéndice. Sintaxis informática ................................................................................................ 81 Bibliografía ................................................................................................................................ 85

Page 8: UNIVERSIDAD DE GRANADA - masteres.ugr.es

VIII

Page 9: UNIVERSIDAD DE GRANADA - masteres.ugr.es

IX

INTRODUCCIÓN

Los procesos estocásticos surgen por la necesidad de modelizar fenómenos aleatorios

que evolucionan a lo largo del tiempo. En función de las características de los mismos,

se han determinado distintas clasificaciones bien analizadas, estructuradas y

desarrolladas en los textos. Son muchas las referencias, Ross (1983), Taylor y Karlin

(1994), Kovalenko y otros (1996), donde se presenta el análisis y estudio de procesos

estocásticos como los procesos puntuales, de recuento, de renovación, de Markov,

etcétera. Los procesos estocásticos han sido aplicados en un amplio número de campos

científicos como son economía, teoría de colas, biomedicina con análisis de

supervivencia y fiabilidad en ingeniería.

Cuando se realiza un estudio de un fenómeno mediante procesos estocásticos, las

expresiones que se obtienen en la modelización no son siempre lo suficientemente

manejables para una posterior implementación computacional y aplicación a un

conjunto de datos. En teoría de renovación, por ejemplo, son conocidos los resultados

más o menos complejos, donde la puesta en práctica es muy complicada cuando las

distribuciones implícitas tienen estructura poco manejable. Este hecho hace que el

modelo y las medidas asociadas adquieran expresiones difícilmente interpretables. Lo

deseable es poder obtener modelos cuya estructura generalice otros ya conocidos, de

forma que sean algoritmizables para su posterior implementación computacional y

aplicación.

Un primer caso, muy utilizado en modelización estocástica, es el del proceso de

Poisson (PP). El proceso de Poisson es uno de los más simples procesos de recuento.

Las buenas propiedades de la distribución exponencial, la markovianidad del proceso,

heredada por la no memoria de esta distribución, y su fácil estructura algebraica ha

hecho que este modelo sea centro de muchos estudios en diversos campos.

Page 10: UNIVERSIDAD DE GRANADA - masteres.ugr.es

X

Pero, en la práctica se presentan sistemas a estudiar donde su evolución atraviesa

distintos niveles de comportamiento y deben ser modelizados mediante procesos más

complejos que el de Poisson. Por ejemplo, en el campo de la fiabilidad, un sistema

puede estar operativo atravesando distintos niveles de funcionamiento. Un sistema que

tiene un número finito de razones de funcionamiento se denomina un sistema multi-

estados.El caso más simple de modelo multi-estados es el de un sistema binario. Son

muchas las situaciones donde un sistema multi-estados es considerado en la vida real.

Así, en medicina se puede considerar un modelo multi-estados para analizar el

comportamiento de una enfermedad que atraviesa múltiples estados, y en fiabilidad es

habitual modelizar sistemas cuyo funcionamiento y reparación atraviesan distintos

niveles. Son muchos los trabajos donde se estudian sistemas complejos multi-estados

como son los dados en Ruiz-Castro (2013, 2014).

En muchas ocasiones es de interés analizar un sistema multi-estados que durante su

evolución sufre distintos eventos que se desean contabilizar obteniendo propiedades del

mismo. Así, por ejemplo, en el campo de la fiabilidad, los sistemas pueden funcionar

atravesando distintos niveles de operatividad hasta que ocurren fallos de distinta

tipología. Este estudio es primordial que se realice de forma que la modelización y sus

medidas asociadas adquieran una estructura algebraico matricial, sean interpretables y

algoritmizables, pudiendo ser tratados de forma asequible para su aplicación.

Los procesos de llegadas markovianas o de Markov (Markovian Arrival Process,

MAP), introducidos por Neuts (1979, 1989), fueron estudiados como una generalización

del proceso de Poisson para analizar de forma algorítmica el comportamiento de

llegadas en sistemas multi-estados. Son muchos los textos donde los procesos de

llegadas de Markov han sido considerados. Neuts (1992) y He (2014) desarrollan un

análisis de los procesos de llegadas de Markov en profundidad presentando sus

propiedades y ejemplos de aplicación. Los MAPs verifican muchas de las buenas

propiedades del proceso de Poisson como se ve a lo largo de esta memoria. Así, la

propiedad de no memoria del proceso de Poisson se mantiene parcialmente para el caso

MAP condicionando a la fase de la cadena de Markov subyacente. Una propiedad

importante de los procesos de llegadas de Markov es que son densos en el conjunto de

los procesos de recuento, es decir cualquier proceso de recuento puede ser aproximado

Page 11: UNIVERSIDAD DE GRANADA - masteres.ugr.es

XI

mediante un MAP tanto como se desee. Esta propiedad permite analizar sistemas

considerando un proceso de recuento general, de forma bien estructurada, con medidas

obtenidas mediante expresiones algebraico-matriciales, lo que permite la

algoritmización y aplicación.

Los procesos de llegadas de Markov (MAP) son generalizados mediante los

procesos de llegadas de Markov por lotes o grupos (BMAP). El BMAP es una

generalización de muchos procesos bien conocidos como el de Poisson y el de Poisson

modulado. En este caso se introduce una estructura algebraico-matricial para el análisis

de sistemas multi-estados con llegadas en lotes. Un análisis de los mismos puede verse

en Cordeiro y Kharoufeh (2011). Un estudio de las probabilidades de transición de los

procesos BMAP es desarrollado de forma algorítmica en Neuts y Li (1997).

Una generalización de los procesos BMAP, también estudiados en esta memoria,

son los Procesos de llegadas de Markov con llegadas marcadas (MMAP). En este caso

los eventos que ocurren a lo largo del tiempo son diferentes situaciones que acontecen

sobre el sistema, con distinta interpretación, y que se desean contabilizar. Por ejemplo,

es de interés en fiabilidad analizar el número de fallos y reparaciones a lo largo del

tiempo atendiendo a distinta tipología de los mismos. Un estudio de las propiedades y

ejemplos de aplicación de los MMAP es dado en He y Neuts (1998).

En esta memoria, tras una breve introducción a los procesos estocásticos, se

presentan de forma evolutiva los procesos anteriormente citados (PP, MAP, BMAP,

MMAP), desde el proceso de Poisson hasta el proceso de llegadas de Markov con

llegadas marcadas. Cada uno de ellos generaliza al anterior y es definido desde cuatro

puntos de vista distintos para su interpretación, desde una definición axiomática hasta

una constructivista. Este hecho permitirá comprender en profundidad el comportamiento

interno de los correspondientes procesos. Tras las definiciones se analizan las

principales propiedades y se obtienen las medidas de funcionamiento asociadas a los

distintos modelos, todo ello de una forma algebraico-matricial para su algoritmización.

Un aspecto de interés es la aplicabilidad de los distintos modelos. En la memoria se

presentan distintas aplicaciones en el campo de fiabilidad mostrando la versatilidad de

los procesos llevados a cabo para modelos multi-estados. Se han desarrollado e

Page 12: UNIVERSIDAD DE GRANADA - masteres.ugr.es

XII

implementado métodos computacionales para los distintos modelos y sus medidas

asociadas.

Page 13: UNIVERSIDAD DE GRANADA - masteres.ugr.es

1

CAPÍTULO 1

PRELIMINARES

A lo largo del trabajo se van a considerar conceptos referidos a estadística en general, probabilidad y procesos estocásticos. Obviando los resultados más básicos, en este capítulo se ofrece una introducción a tres conceptos bien conocidos, como son las cadenas de Markov en tiempo continuo, la suma y producto de Kronecker y las distribuciones tipo fase.

1.1. CADENAS DE MARKOV EN TIEMPO CONTINUO

El objetivo que aborda este trabajo se centrará en el estudio de los procesos de llegadas de Markov (MAPs), sus ampliaciones y sus posibles aplicaciones, en este caso, referidas al mundo de la fiabilidad. Dada la relación de estos procesos con el proceso de Poisson comenzamos el trabajo recordando unas nociones previas de Procesos Estocásticos, y de algunos casos particulares, como el mencionado Proceso de Poisson. En este capítulo también se introducirán de forma general las Cadenas de Markov y las distribuciones Tipo Fase, que serán de utilidad a lo largo del trabajo, así como la suma y el producto de Kronecker.

Los procesos estocásticos se centran en el estudio y en la modelización de sistemas que evolucionan a lo largo del tiempo generalmente, o del espacio, de acuerdo a unas leyes no determinísticas, esto es, de carácter aleatorio, y que se verán regidas por leyes probabilísticas.

Muchas aplicaciones de los procesos estocásticos aparecen en materias tan dispares como física, ingeniería, biología, medicina y en otras disciplinas como la que nos interesa en este trabajo, la fiabilidad.

La evolución de un fenómeno aleatorio a lo largo del tiempo o espacio puede ser analizado mediante procesos estocásticos. Por ejemplo, el número de personas que espera ante una ventanilla de un banco en un instante t de tiempo; el precio de las

Page 14: UNIVERSIDAD DE GRANADA - masteres.ugr.es

Preliminares

2

distintas acciones de una empresa a lo largo de un tiempo; el número de parados en el sector de la Construcción a lo largo de un año…

Un proceso estocástico es una familia de v.a. , tX t , definidas en un mismo

espacio probabilístico.

Definición 1.1.1. Dado el espacio de probabilidad (Ω, , P ) de modo que para todo

t T fijo se tiene

: Ω, , P ( , )tX

t X ( ) R

es decir, tX es una variable aleatoria y Ω fijo, • ( )X w es una función dependiente

del tiempo.

Definición 1.1.2. Al conjunto T de subíndices se le denomina espacio paramétrico y puede ser continuo o numerable.

De este modo aparece una primera clasificación en procesos estocásticos de parámetro continuo o de parámetro discreto.

Definición 1.1.3. Se denomina conjunto de estados E, al conjunto de los posibles valores que pueden tomar las variables aleatorias , tX t .En general, se piensa en el

subíndice t como el indicativo del tiempo y en tX como el estado o posición del

proceso estocástico en el instante t. Definición 1.1.4. Un proceso estocástico en tiempo continuo 0 ( )tN t , se dice de

recuento o puntual si ( )N t representa el número de veces que ocurre un suceso hasta el instante de tiempo t.

Un caso especialmente relevante de los procesos de recuento son los procesos de renovación que son de gran utilidad en el análisis de modelos probabilísticos aplicados en distintos campos: modelos de inventarios y aplicaciones en fiabilidad y colas, entre otros.

Los procesos estocásticos se pueden clasificar según dos tipos de estructura, la

estructura del conjunto paramétrico T y del conjunto de estados E y según las características probabilísticas de las variables aleatorias. Según la primera clasificación, es decir, a través del conjunto paramétrico y del conjunto de estados, los procesos estocásticos se pueden clasificar en cuatro tipos, dependiendo de si T es un conjunto numerable o continuo, y de si E es otro conjunto numerable o continuo.

Page 15: UNIVERSIDAD DE GRANADA - masteres.ugr.es

Antonio Hernández Moreno

3

E/T Discreto Continuo Discreto Cadena Proceso Puntual Continuo Sucesión de variables aleatorias Proceso Continuo

Si nos fijamos ahora en el segundo criterio de clasificación, podemos observar como en la vida real se producen distintas relaciones entre las variables aleatorias que constituyen un proceso estocástico.

Las propiedades probabilísticas de las variables aleatorias son importantes a la hora

de identificar y clasificar un proceso estocástico. Atendiendo a distintos factores como puede ser el nivel de dependencia se pueden realizar distintas clasificaciones de los procesos estocásticos. Así se tienen entre otros

— Procesos estacionarios. — Procesos Markovianos. — Procesos de incrementos independientes.

Analizamos con más detenimiento estos casos.

a) Procesos estacionarios: Para su tratamiento primero es necesaria una definición.

Definición 1.1.5. Función de autocovarianzas de un proceso estocástico. Dado

, tX t T , se llama función de autocovarianzas a la función,

( , ) ( , ) [( ( ))·( ( ))]r s r r s sr s Cov X X E X E X X E X

donde , r s T .

La estacionariedad de un proceso se puede clasificar como débil o estricta (fuerte).

Definición 1.1.6. Un proceso , tX t T tal que 2( ) tE X t T , es un proceso

estacionario en sentido débil si:

1) ( ) , tE X m t T

2) ( , ) ( , ) , ,r s r t s t r s t T

Esto implica que [ ]tVar X es constante t T .

Además, debe existir el momento de orden dos de las variables aleatorias, teniendo todas las mismas medias. La segunda condición implica que la función

Page 16: UNIVERSIDAD DE GRANADA - masteres.ugr.es

Preliminares

4

de autocovarianza tomará el mismo valor para dos variables aleatorias que estén separadas por un retardo t en el proceso, independientemente de dónde se encuentren situadas estas variables en el tiempo. Es decir, es invariante la función de autocovarianzas frente a traslaciones.

Definición 1.1.7. Un proceso , tX t T tal que 2( ) tE X t T , es un proceso

estacionario en sentido estricto si 1 2, y , , , nn h T t t t T , las

variables aleatorias1 2

, , , nt t tX X X tienen la misma distribución conjunta que

1 2 , , ,

h h nt t t hX X X .

Evidentemente, es fácil comprobar que un proceso estacionario en sentido estricto también lo será en sentido débil, mientras que la implicación contraria no siempre tiene porqué ser cierta. En el caso de que las variables aleatorias sean distribuciones normales probabilísticas sí se dan ambas implicaciones.

b) Procesos Markovianos: la característica de los procesos estocásticos

markovianos es que la distribución de 1nX es independiente de 1 2, , ..)( .n nX X

conocido nX . Se puede resumir diciendo que el futuro del proceso, es

independiente del pasado, conocido el presente.

c) Procesos con incrementos independientes: Se dice que un proceso , tX t T

tiene incrementos independientes si 1 2, , , , nn t t t T , las variables

aleatorias

2 1

1

2

n n

t t

n t t

y X X

y X X

son independientes.

Como puede observarse y demostrarse, todo proceso con incrementos independientes es a su vez un proceso markoviano.

Existe una gran variedad dentro de los procesos estocásticos, con distribuciones típicas que se repiten en situaciones reales y las modelizan, tanto en su vertiente discreta como en su vertiente continua. Entre esa tipología destacamos el proceso de Poisson, y las cadenas de Markov (en tiempo discreto y en tiempo continuo) ya que son procesos que nombraremos a lo largo de la exposición teórica que vamos a realizar, y es por ello

Page 17: UNIVERSIDAD DE GRANADA - masteres.ugr.es

Antonio Hernández Moreno

5

que procedemos a realizar una breve descripción. Comenzamos por las Cadenas de Markov en tiempo continuo.

Las Cadenas de Markov son utilizadas en el análisis del comportamiento de determinados procesos que evolucionan de forma no determinística a lo largo del tiempo en torno a un conjunto de estados verificando la propiedad de Markov.

Una Cadena de Markov puede representar un sistema que varía su estado a lo largo del tiempo, siendo cada cambio una transición del mismo. Estos cambios no están, sin embargo, predeterminados, aunque sí estarán regidos probabilísticamente.

Para definir una Cadena de Markov se deben tener en cuenta tres elementos: un conjunto de estados del sistema, la definición de transición y una ley de probabilidad condicional que defina la probabilidad del nuevo estado en función de los anteriores.

Los estados son una caracterización de la situación en la que se halla en un instante de tiempo dado, y dicha caracterización puede ser tanto cualitativa como cuantitativa. Respondería a la pregunta de “¿Cómo están las cosas?”.

El concepto de transición proviene del cambio del sistema a lo largo del tiempo, tiempo que se puede analizar desde un punto de vista discreto o continuo dando lugar a las Cadenas de Markov en Tiempo Continuo o en Tiempo Discreto, donde las primeras saltan de un estado a otro en tiempos aleatorios de la recta real y las segundas saltan de un estado a otro en tiempos aislados en un conjunto numerable.

A lo largo del trabajo surgen dentro de los componentes del Proceso de Llegadas de Markov (MAP) una Cadena de Markov en tiempo continuo, que pasamos a describir brevemente.

Definición 1.1.8. Sea 0 t tX un proceso estocástico en tiempo continuo, es decir,

[0, ]t T conT fijo, y que toma valores en un conjunto numerable E. Se dice que el

proceso 0 t tX es una Cadena de Markov en Tiempo Continuo (CMTC) si

, 0 , , us t y i j x E con 0 u s se cumple que

[ | , 0 ] [ | ]t s s u u t s sP X j X i X x u s P X j X i .

En otras palabras, una CMTC es un proceso estocástico que verifica la propiedad Markoviana, es decir, que la probabilidad condicional de un futuro estado en el tiempo t+s, dado el estado presente en el tiempo s y todos los estados pasados, solo depende del estado presente siendo independiente del pasado. Continuamos con una serie de definiciones necesarias para completar las CMTC.

Las probabilidades [) |( ]ij t s sp P X j it X , probabilidad de que estando en el

estado i en el instante s, después de un intervalo de tiempo t la cadena esté en el estado

Page 18: UNIVERSIDAD DE GRANADA - masteres.ugr.es

Preliminares

6

j, describen el comportamiento de las transiciones de la CMTC. Estas probabilidades así definidas, se denominan probabilidades de transición. Si las probabilidades de transición son independientes del tiempo s, como es el caso descrito, se dice que la cadena es homogénea.

Definición1.1.9. Si 0 t tX es una CMTC y además verifica que [ | ]t s sP X j X i es

independiente de s entonces se dice que la CMTC es homogénea.

Definición 1.1.10. Diremos que un estado es transitorio si la probabilidad de que la cadena no vuelva a visitarlo en el futuro es positiva, en caso contrario se dice recurrente. Si un estado es recurrente es visitado infinitas veces con probabilidad 1, siendo recurrente positivo si el tiempo esperado de retorno al estado es finito (en caso contrario se habla de recurrente nulo).

Definición 1.1.11. Decimos que el proceso 0 t tX es irreducible si para todo ,x y E

la probabilidad de alcanzar el estado y saliendo del estado x en un tiempo finito es positiva. Todos los estados comunican entre sí.

Definición 1.1.12. La distribución de 0 0, ( ) ( )X x P X x es llamada distribución

inicial de la cadena.

Una cadena de Markov 0 t tX , queda determinada por las probabilidades de

transición y la distribución inicial. Para hallar las probabilidades de transición es fundamental introducir el concepto de generador del proceso o Q-matriz.

Una forma de introducir el generador del proceso es mediante las probabilidades de transición. Es fácil demostrar que las probabilidades de transición verifican las llamadas ecuaciones de Chapman-Kolmogorov. Estas son

( () ) ( )·ij ik kjk E

p t s p t p s

que en forma matricial se tiene

( ) ( ) ( )P t s P t P s .

Definición 1.1.13. La matriz , ij i j EQ q , donde

0

1 ( )lim ii

ii i h

p hq q

h

,

0

( )lim ij

ijh

p hq

h

se denomina matriz de intensidad o generador infinitesimal. En notación matricial

0

( ) (0)limh

P h PQ

h

.

Page 19: UNIVERSIDAD DE GRANADA - masteres.ugr.es

Antonio Hernández Moreno

7

Un proceso de Markov en tiempo continuo también queda definido completamente mediante el generador o Q-matriz y la distribución inicial. Se demuestra que dado el generador Q las probabilidades de transición de la cadena de Markov homogénea asociada viene dada por la solución de las llamadas ecuaciones diferenciales de Kolmogorov,

'( ) ( ) ( )P t P t Q QP t .

Estas ecuaciones tienen una única solución que viene dada por

0

( ) exp[ ] .!

nn

n

QP t Qt t

n

Un concepto importante en el estudio de las CMTC es el de distribución estacionaria que vemos a continuación.

Los valores de la distribución estacionaria se pueden interpretar como la proporción final de tiempo que la cadena ha permanecido en cada estado a lo largo del tiempo. Se puede decir que es también la proporción, a largo plazo, de etapas en las que la cadena se encuentra en el estado i a lo largo de su evolución, si ha partido de i o de otro estado recurrente que intercomunica con i. Para una cadena de Markov finita, aperiódica e irreducible, existe una única distribución estacionaria.

El cálculo de la distribución estacionaria viene de la resolución del siguiente sistema de ecuaciones,

0

1

Q

e

La estacionariedad resulta muy útil en una distribución debido a sus propiedades.

1.2. PRODUCTO, SUMA DE KRONECKER Y TRANFORMADAS DE LAPLACE-STIELTJES

Al seguir con el tratamiento de distintos conceptos que nos aparecerán durante el documento, se hará necesario el conocimiento de las expresiones de la suma y producto de Kronecker. Se introducen por tanto estas operaciones para su correcta comprensión.

Page 20: UNIVERSIDAD DE GRANADA - masteres.ugr.es

Preliminares

8

Definición 1.2.1. Sea A una matriz de dimensión m x n y sea B una matriz de orden p x q. Se define el producto de Kronecker A B , como la matriz bloque mp x nq dada por la expresión

11 1

1

n

m mn

a B a B

A B

a B a B

.

Definición 1.2.2. La suma de Kronecker de dos matrices cuadradas de órdenes p y q respectivamente queda definida por la expresión basada en el producto de Kronecker con la correspondiente matriz identidad.

q pC D C I I D ,

siendo Ir la matriz identidad de orden r.

Definición 1.2.3. Sea X una variable aleatoria no negativa con función de distribución H. La transformada de Laplace-Stieltjes de X o de H es la función definida en (0, ) por

0

ˆ ( ,) ( )sxe dH xh s s

.

Para valores de s no negativos, ˆ( )h s siempre es finita, y dependiendo del

comportamiento de ˆ ( )H x para x grande, ˆ( )h s podría ser finita para algunos valores de s

negativos.

1.3. DISTRIBUCIONES TIPO FASE

A continuación se hace una breve descripción de las distribuciones tipo fase, que están ligadas a los procesos MAPs y que son utilizadas en distintos campos como en teoría de colas y fiabilidad de sistemas. Este tipo de distribución está ligado a los procesos de Markov que se introdujeron en el apartado anterior.

Definición 1.3.1. Una distribución tipo fase (PH) se define como la distribución del tiempo hasta la absorción en un proceso de Markov (finito) con estados transitorios y una clase absorbente. Formalmente, una distribución es tipo fase con representación ( ),T , si es el tiempo hasta la absorción en un proceso de Markov sobre los estados

1, , , 1m m , donde los m primeros estados son transitorios y el estado m+1 es

absorbente. El generador del proceso, que se expresa matricialmente por bloques tiene la siguiente estructura,

Page 21: UNIVERSIDAD DE GRANADA - masteres.ugr.es

Antonio Hernández Moreno

9

0

0 0

T T

.

Donde T es una matriz mxm, llamada matriz de intensidades, con diagonal negativa, y elementos fuera de ella no negativos, donde vienen recogidas las transiciones entre los estados transitorios.

La distribución inicial para los estados transitorios se define a través del parámetro , también de orden m. Se considerará que inicialmente se partirá de un estado transitorio con probabilidad 1.

Se satisface la condición 0– 0Te T , donde e es un vector columna con elementos 1 de dimensión adecuada.

La función de la distribución tipo fase se denota por (·)H , y viene dada por

( ) 1 ·exp( )· ; 0.H x Tx e x

En otras palabras, una distribución tipo fase es la distribución del tiempo de absorción en una cadena de Markov con espacio de estados finito, donde uno de ellos es absorbente y los demás transitorios.

Algunos casos especiales de distribuciones tipo fase son la distribución exponencial, la distribución Earlang, la hiperexponencial…La importancia y el uso extendido de las distribuciones tipo fase viene dado por las propiedades analíticas que posee. Algunas de ellas se muestran a continuación, pudiendo verse en detalle en Neuts (1981).

Enunciamos primero el teorema que demuestra la conexión entre el método matricial analítico y las distribuciones tipo fase.

Teorema 1.3.1. Sea B una distribución tipo fase con distribución inicial , matriz de intensidades T y con m estados transitorios. Entonces:

a) La función de distribución es ( ) 1 TxB x e e .

b) La función de densidad es 0( ) Txb x e T .

c) La función característica es 1 0

0

ˆ ( ) ( ) ( )zxB z e B dx zI T T

.

Otra característica notable de estas distribuciones radica en que gracias a su distribución probabilística, no es complejo demostrar que las distribuciones tipo fase son cerradas para una gran cantidad de operaciones, es decir, operaciones entre

Page 22: UNIVERSIDAD DE GRANADA - masteres.ugr.es

Preliminares

10

variables con distribución tipo fase da como resultado otra variable con también distribución tipo fase.

Teorema 1.3.2. Sean dos variables tipo fase X e Y con representaciones ( ),T y ( , )Srespectivamente. La variable Z=X+Y sigue entontes una distribución tipo fase con representación ( , )L dada por

0

0

T TL

S

1 1 1 1( , );m m k m k

Demostración. Neuts (1975)

Teorema 1.3.3. Dada la variable aleatoria iX con distribución tipo fase ( ),i iT y sea

i iZ I X con1

1k

ii

I

y ( 1)i iP I p , entonces la variable aleatoria Z tiene distribución

tipo fase con representación ( , )L dada por

1 0

0 k

T

L

T

1 1 2 2( , , , )k kp p p

Demostración. Neuts (1975)

Una vez vistas las propiedades donde se puede ver que bajo distintas operaciones sobre distribuciones tipo fase obtenernos otra distribución tipo fase, vamos a ver resultados que caracterizan a las distribuciones tipo fase:

Teorema 1.3.4. Una distribución tipo fase es tipo fase si y sólo si:

i) Tiene una función densidad de probabilidad continua en la recta real positiva, con una posible masa en 0.

ii) Su transformada de Laplace-Stiejes es racional. iii) Su transformada de Laplace-Stiejes tiene un polo único de parte real

maximal.

Demostración. Maier y O'Cinneide (1992)

Page 23: UNIVERSIDAD DE GRANADA - masteres.ugr.es

Antonio Hernández Moreno

11

La expresión de la transformada de Laplace-Stiejes ( )f s para un distribución tipo fase

viene especificada en Mishkoy, Krieger y Bejenari D, (2012). En concreto,

1 0( ) ( )f s sI T T .

Page 24: UNIVERSIDAD DE GRANADA - masteres.ugr.es

Preliminares

12

Page 25: UNIVERSIDAD DE GRANADA - masteres.ugr.es

13

CAPÍTULO 2

EL PROCESO DE POISSON

2.1. INTRODUCCIÓN

El proceso de Poisson es de gran importancia en la modelización en distintos campos de aplicación. En esta memoria presentamos el proceso de Poisson y veremos que los Procesos de Llegada Markovianos y sus ampliaciones lo generalizan expresando los resultados de forma matricial bien estructurada. En cierta forma, surgen de él basándose en sus singulares propiedades.

2.2. DEFINICIONES

Supongamos que un mismo evento ocurre repetidas veces de manera aleatoria a lo largo del tiempo. Tal evento puede ser, por ejemplo, la llegada de una reclamación a una compañía aseguradora o la recepción de una llamada a un conmutador, la llegada de un cliente a una ventanilla para solicitar algún servicio o los momentos en que una cierta maquinaria requiere reparación, etcétera. Supongamos que las variables aleatorias

1 2, ,...T T representan los tiempos que transcurren entre una ocurrencia del evento y la

siguiente ocurrencia. Supongamos que estos tiempos son independientes uno del otro y que cada uno tiene distribución exponencial de igual parámetro. Se define el proceso de Poisson al tiempo t como el número de ocurrencias del evento que se han observado hasta ese instante t. Esta es una definición constructiva de este proceso y la formalizaremos a continuación. Más adelante enunciaremos otras definiciones axiomáticas equivalentes.

Page 26: UNIVERSIDAD DE GRANADA - masteres.ugr.es

El Proceso de Poisson

14

Definición 2.2.1. Sea 1 2, ,T T una sucesión de variables aleatorias independientes con

distribución exponencial de parámetro . El proceso de Poisson de parámetro es el

proceso de tiempo continuo , tN t T , definido de la siguiente manera,

1 1: t nN máx n T T t

Caracterización 2.2.1. Se dice que un proceso estocástico , tN t T es un proceso de

Poisson, donde tN es el número de sucesos que ocurren en un intervalo (0, ]t si los

sucesos cumplen las siguientes condiciones:

i) El número de sucesos que aparecen en un intervalo de tiempo es independiente del número de sucesos que ocurren en intervalos de tiempo anteriores.

ii) Homogeneidad en el tiempo: la probabilidad de que en un intervalo de tiempo ocurran k sucesos sólo depende de la longitud del intervalo y no de dónde se encuentre éste,

s t sP(N t N ) k P N k

iii) Estabilidad: El número medio de sucesos (a largo plazo) que ocurren por unidad de tiempo es constante e igual a una tasa dada λ,

( )N t

Et

iv) El número de sucesos que ocurren en un intervalo infinitesimal (0, t) puede ser,

1. Dos o más sucesos, con [ 1] ( )tP N o t donde ( )o t es tal que

0

( )lim 0

t

o t

t

.

2. Un solo suceso con [ 1] ( )tP N t o t .

3. Ningún suceso con [ 0] 1 ( )tP N t o t .

Esto implica que se puede elegir un intervalo suficientemente pequeño de tiempo, para que sólo ocurra un suceso (o ninguno) cuando las ocurrencias son de una en una.

Proposición 2.2.1. Bajo estas condiciones, el número de ocurrencias en el intervalo

(0, t] sigue una distribución de Poisson. Así si tN cuenta el número de ocurrencias en el

intervalo (0, t] , entonces tN P(λt) .

Demostración. Kingman (2002).

Page 27: UNIVERSIDAD DE GRANADA - masteres.ugr.es

Antonio Hernández Moreno

15

Proposición 2.2.2. En un proceso de Poisson, el tiempo que transcurre entre dos llegadas es una variable aleatoria con distribución exponencial de parámetro λ.

El modelo estándar del proceso de Poisson presenta condiciones demasiado severas y rara vez aparecen en la modelización real de procesos complejos: todos los sucesos tienen la misma probabilidad de aparecer, y la tasa de llegada de los sucesos es siempre la misma. Se puede generalizar, así, el caso donde varíen las tasas.

Definición2.2.2. Proceso de Poisson no homogéneo. Se dice que , tN t T es un

proceso de Poisson con tasa ( )r si

i) (0) 0N .

ii) ( ) N t tiene incrementos independientes.

iii) N(t s) N(s) se distribuye como una Poisson de media t .

Como se ha comentado, la importancia del proceso de Poisson dentro de los procesos de llegada Markovianos es clara, ya que estos últimos surgen del proceso de Poisson a través de sus propiedades. Veamos a continuación las propiedades más importantes de un proceso de Poisson.

2.3. PROPIEDADES

En esta sección se presentan algunas propiedades del proceso de Poisson.

Teorema 2.3.1.Sea un proceso estocástico , tN t T . Entonces ( ) ( ), 0N t s N s t es

un proceso de Poisson de parámetro y es independiente de ( ), 0N r r s .

Demostración: Supongamos que ( )N s n y que el n-ésimo evento ocurrió en el

instante n . Sabemos que el intervalo de tiempo para el siguiente evento debe satisfacer

que 1n nT s , pero por la propiedad falta de memoria de la distribución exponencial

1 1 1[ | ] [ ] tn n n n nP T s t T s P T t e .

Así, demostramos que la distribución del tiempo de espera hasta el primer evento

después de s es exponencial de parámetro y es independiente de ,1 iT i n . Además,

Page 28: UNIVERSIDAD DE GRANADA - masteres.ugr.es

El Proceso de Poisson

16

1 2, ,n nT T son independientes de ,1 iT i n . Esto muestra que los intervalos entre

eventos que ocurren después de s son variables aleatorias idénticamente distribuidas con distribución exponencial con parámetro , y por lo tanto ( ) ( ), 0N t s N s t es un

proceso de Poisson.

Otra propiedad de los procesos de Poisson nos remite a la definición 2.2.2. dando lugar por tanto a una caracterización de proceso de Poisson que viene dada por el siguiente teorema.

Teorema 2.3.2. Si ( ), 0N s s es un proceso de Poisson,

i) (0) 0N .

ii) ( ) ( ) , 0N t s N s t es un proceso de Poisson de parámetro t .

iii) ( ) N t tiene incrementos independientes.

Recíprocamente, como hemos visto en la definición 2.2.2. si se cumplen estas condiciones, entonces ( ), 0N s s es un proceso de Poisson.

Demostración: A través de las propiedades anteriores podemos ver directamente parte la demostración buscada. Resto en Kingman (2002).

2.3.1. SUPERPOSICIÓN DEL PROCESO DE POISSON

Una de las propiedades más importantes que poseen los procesos de Poisson hace referencia a la superposición de procesos, propiedad que además heredarán los Procesos de Llegada Markovianos (MAP).

Teorema 2.3.1.1. Sean 1( ), , ( )kN t N t procesos de Poisson independientes con

parámetros 1, , k respectivamente, entonces el proceso 1 )( () kN N tt es también

un proceso de Poisson con parámetro 1 k .

Demostración: Se hará la demostración para el caso k=2, obteniéndose el caso general por inducción. Es claro que la suma tiene incrementos independientes, y

que 1 2 0(0) (0)N N . Para verificar que los incrementos tienen distribución de

Poisson con parámetro igual a 1 2 vemos que si

Page 29: UNIVERSIDAD DE GRANADA - masteres.ugr.es

Antonio Hernández Moreno

17

1 1 1( ) ( ) ( )Y N Nt s s t y

2 2 2( ) ( ) ( )Z N Nt s s t

entonces,

1 1 2 2( ) ( ) ( ) ( ) ( ) ( )N t s N s N t s N s N t s N s Y Z

que siguiendo la propiedad de la distribución de Poisson se distribuirá por una

distribución de Poisson de parámetro 1 2( )t .

Un resultado más potente que el anterior también llamado teorema de Palm-Khintchine (Han et al. 2006 y Cox and Miller 1977) afirma que si se superponen varios procesos puntuales independientes, el proceso total que da como resultado será localmente un proceso de Poisson. El término “local” hace referencia a considerar intervalos muy cortos y que cada proceso contribuya como máximo con un evento durante esos intervalos.

Gráficamente lo podemos ver de la siguiente forma:

Gráfico 2.2.2.1. Superposición de Procesos Puntuales

Vemos pues que la condición de independencia es la condición necesaria para la superposición de procesos de Poisson en otro proceso de Poisson.

Page 30: UNIVERSIDAD DE GRANADA - masteres.ugr.es

El Proceso de Poisson

18

2.3.2. DESCOMPOSICIÓN DEL PROCESO DE POISSON

Paralelamente, nos debe interesar de igual modo el estudio del comportamiento de los procesos de Poisson en el caso de descomposición del mismo.

Teorema 2.3.2.1.Sean los eventos de un proceso de Poisson ( ), 0N s s de dos tipos, A

y B. Sea 0 1p la probabilidad de que un evento sea del tipo A y 1q p la

probabilidad de que el evento sea del tipo B. Supongamos que p es constante y que la ocurrencia de un tipo no influye sobre la ocurrencia del otro tipo de evento. En estas

condiciones del proceso ( ), 0N s s con parámetro 0 , los procesos ( ), 0AN s s y

( ), 0BN s s son procesos independientes de Poisson con parámetros p y (1 )p

respectivamente.

Demostración. Neuts (1975)

Claramente, este resultado es fácilmente ampliable a más de dos tipos de eventos.

Resulta razonable pensar que si la superposición de procesos de Poisson es otro proceso de Poisson, la descomposición de procesos de Poisson también lo es.

Ejemplo 2.3.2.1. Sea un proceso de Poisson que mide la llegada a una estación de servicio, con parámetro 5 . Si dicha estación de servicio tiene tres surtidores, y los clientes acuden al azar a cada uno de ellos de forma independiente, las llegadas a cada surtidor pueden medirse a través de un proceso de Poisson con parámetro / 3 .

2.4. MEDIDAS DE FUNCIONAMIENTO

El cálculo de las medidas más representativas del proceso de Poisson se resuelve de forma casi inmediata a través del resultado de la propiedad 2.3.1. y del teorema 2.3.1. De ellos, se deducía que el proceso es de incrementos estacionarios, que siguen una distribución de Poisson de parámetro conocido s . Lo vemos analíticamente.

El número medio de sucesos hasta el instante s viene dado por,

[ ( )] [ ( 0) (0)]E N s E N s N s .

Por lo tanto su varianza es, [ ( )] .Var N s s

Y para cualquier intervalo de longitud s:

[ ( ) ( )] [ ( )]E N s t N t E N s s .

Page 31: UNIVERSIDAD DE GRANADA - masteres.ugr.es

19

CAPÍTULO 3

PROCESO DE LLEGADAS DE MARKOV (MAP)

3.1. INTRODUCCIÓN

Una vez terminados los dos primeros apartados de introducción básica, a través de las nociones de procesos estocásticos, con la descripción de las Cadenas de Markov y los procesos de Poisson y el conocimiento de las distribuciones tipo fase, comenzamos con el verdadero objetivo de esta memoria, que no es más que el estudio y análisis del Proceso de Llegadas de Markov (Markovian Arrival Process, MAP). Se va a realizar una breve descripción de este proceso respondiendo a preguntas como de dónde surgen, dónde podemos encuadrarlos, qué utilidad poseen, qué propiedades cumplen….

El proceso de Poisson, analizado en el capítulo anterior, es un proceso de llegadas markoviano. Su propiedad de no memoria nos conduce a su aplicabilidad mediante modelos Markovianos en la modelización estocástica. Una generalización del proceso de Poisson, que mantiene muchas de las propiedades, es el Proceso de Llegadas de Markov (MAP). El objetivo de este capítulo es introducir estos procesos, mostrando sus interesantes propiedades. Si se tiene un sistema multiestados donde pueden ocurrir llegadas desde cualquiera de ellos con distinta razón de ocurrencia entonces podemos modelizar mediante un MAP.

Un MAP mantiene la propiedad de no memoria del proceso de Poisson condicionando a la fase de la cadena inmersa. Se verá que el conjunto de procesos de llegadas de Markov es muy versátil. De hecho, cualquier proceso de recuento puede ser aproximado tanto como se desee mediante una sucesión de procesos de llegadas de Markov.

La gran ventaja, como veremos durante la descripción teórica, de los procesos MAPs está en su tratamiento analítico, puesto que, por ejemplo, la superposición de

Page 32: UNIVERSIDAD DE GRANADA - masteres.ugr.es

Proceso de llegadas de Markov (MAP)

20

procesos MAPs es un proceso MAP, propiedad que heredan de los procesos de Poisson, donde se halla el germen del los procesos MAPs.

Como ampliación de los procesos MAPs veremos cómo se puede asociar al momento de la llegada el número de elementos de ésta. Los procesos con llegadas en grupo, con determinación del tiempo entre llegadas a través de un proceso MAP, son los procesos BMAP (Batch Markovian Arrival Process) o MAP en grupo, donde la distribución del número de elementos de la llegada es independiente del proceso MAP y está regulada por una Cadena de Markov con un número finito de estados.

Los procesos MAPs son una clase de procesos que incorpora, entre otros, a los procesos de Poisson modulados de Markov (Markov-Modulated Poisson Process, MMPP), procesos de renovación con distribución de tipo fase para los intervalos entre-llegadas, procesos puntuales semi-Markovianos con tiempos entre-llegadas de tipo fase, y superposiciones de estos procesos.

3.2. DEFINICIONES

Como se ha indicado en la introducción, el verdadero objetivo del presente trabajo es la introducción de los procesos de llegada Markovianos, que a partir de ahora denotaremos como MAP (Markovian Arrival Process) y sus generalizaciones BMAP (Batch Markovian Arrival Process) y MMAP (Marked Markovian Arrival Process) (también podría verse de forma contraria, comenzando por el proceso más general, los procesos MMAPs y yendo posteriormente a cada uno de sus casos particulares de procesos BMAP y procesos MAPs).

Comenzamos con el primero y más sencillo de los casos. Como veremos, iremos pasando de uno a otro de una forma constructiva, comenzando por el ya definido proceso de Poisson, origen de todos, que generará el MAP, éste el BMAP, y éste el MMAP.

La descripción de todos estos procesos será nuestro objetivo, ya que en la práctica nos servirán para modelizar multitud de situaciones de la vida real, tal y como veremos.

En los tres tipos de procesos procederemos de la misma forma, introduciéndolos a través de la formulación de su definición de cuatro formas distintas, siguiendo distintos criterios y puntos de vista. Posteriormente se mostrarán algunas medidas clave en dichos procesos así como resultados y propiedades a tener en cuenta.

Se introducirán ejemplos que afianzan las definiciones, los resultados mostrados y que muestran la versatilidad de estos procesos.

Page 33: UNIVERSIDAD DE GRANADA - masteres.ugr.es

Antonio Hernández Moreno

21

Supongamos un sistema de fiabilidad que atraviesa distintos estados mediante su funcionamiento (sistema multi-estados) y que puede fallar en cualquier instante de tiempo desde cualquier estado. El funcionamiento de este sistema puede modelizarse mediante una cadena de Markov, con generador D. Los fallos del sistema pueden ocurrir cuando tiene lugar un cambio de estados o mientras está funcionando en uno cualquiera. El número de fallos de este sistema multiestados puede ser modelizado mediante un proceso de llegadas de Markov (MAP).

Definición 3.2.1. Sean 0 1( , ) D D matrices de orden m, con m entero positivo, con todos

los elementos de las dos matrices no negativos excepto la diagonal principal de 0D , que

son negativos, y 0 1 D D D un generador infinitesimal de una cadena de Markov. Sean

sus elementos 0 0,( , )( ) i jD d y 1 1,( , )( ) i jD d . Entonces, 0 1( , ) D D definen un MAP

( ( ), ( )), 0N t I t t como sigue:

1) (0) 0N

2) La matriz D define una cadena de Markov en tiempo continuo (CMTC) ( ), 0I t t por D.

3) Para una fase (estado) i con 1 ,( ) 0i id , se tiene un proceso de Poisson (PP), con

razón de llegada )1( ,i id para 1, ,i m . Si ( )I t i , el proceso Poisson estará

operativo y en otro caso no operativo. 4) Si ( )I t i y una llegada del proceso de Poisson ocurre, ( )N t se incrementa en

una unidad, para 1, ,i m .

5) Al final de cada permanencia en el estado i, con probabilidad 0, ( , )

( , )( )i j

i i

dd ,

(con 0,( , ) 1 , )( , ) ,(i i i i i id d d ), I(t) transitará de la fase i a la j, y ( )N t se mantendrá

igual, es decir, sin llegadas; y con probabilidad 1, ( , )

( , )( )i j

i i

dd , transitará ( )I t

igualmente de i a j, pero ( )N t se incrementará en una unidad, es decir, con una

llegada, para y , 1, ,i j i j m .

Llamamos 0 1( , ) D D a la representación matricial del MAP y a ( ), 0I t t la cadena

de Markov subyacente o inmersa.

Si el estado inicial de ( ), 0, (0)I t t I , está bien determinado, el MAP estará bien

definido.

Esta definición de MAP puede ser reexpresada en términos de razones de llegadas y transiciones de la siguiente forma:

‐ 0, ( , )i jd = razón de transición del estado i al j sin llegadas, con i j .

Page 34: UNIVERSIDAD DE GRANADA - masteres.ugr.es

Proceso de llegadas de Markov (MAP)

22

‐ 1, ( , )i jd = razón de transición del estado i al j con llegadas, para todo i,j.

‐ 0, ( , )i id = razón total de eventos del estado i.

Ejemplo 3.2.1. Los MAPs son de amplia aplicación en la vida real y de forma teórica en probabilidad. Los siguientes ejemplos nos lo muestran.

1) Proceso de Poisson con parámetro λ. En este caso, 0 1( ), ( ), (0) D D D y

1m .Notar que (1,1) 0d ya que hay un único estado y por tanto no hay

transiciones entre fases. 2) Proceso de renovación de Erlang con m fases (estados): es definido como un

proceso de renovación estándar para el cual los tiempos entre llegadas son v.a.i.i.d. según una distribución Erlang con parámetros m y λ. Usando una representación tipo fase de la distribución Erlang, una representación matricial

de este proceso de llegada puede darse como 0 1( λ·J(m)), ( λ· ( ))D D K m

,siendo,

1 10

0 1 0 0

( ) , ( )

1 1 1 00

0 1mxm

mxm

J m K m

.

3) Proceso de renovación tipo fase. Se trata de un proceso de renovación estándar cuyos tiempos entre llegadas son independientes y tiene una distribución probabilística común tipo fase con representación PH( ,T) , con · 1e . Así,

00 1; ·D T D T .

El generador infinitesimal de la cadena de Markov subyacente es 0 ·D T T .Las transiciones asociadas a T no tienen llegadas, mientras que las transiciones

asociadas a 0·T tienen una llegada. 4) Proceso de llegadas a ráfagas.

0 1

10 0 8 2 ,

2 2 0 0D D

.

Cuando la cadena de Markov está en el estado 1, un número de llegadas puede ocurrir en corto período de tiempo.

5) MSSP: Markov switched Poisson Process.

Page 35: UNIVERSIDAD DE GRANADA - masteres.ugr.es

Antonio Hernández Moreno

23

1

2

0 1 ,

0

0

, ( )

0

0i j

m

D D d

.

Como por definición, 0 1D D D debe ser un generador infinitesimal, en este

MAP las llegadas cambian entre m procesos de Poisson con tasas de llegada

1λ , ,λ m . Tras cada llegada el MAP puede cambiar a otro proceso de

Poisson o permanecer en el mismo. Por ejemplo,

0 1

10 0 0 0 0 10 0 0

0 8 0 0 0 6 2 0;

0 0 10 0 0 0 8 2

0 0 0 8 8 0 0 0

D D

.

6) MMPP: Markov Modulated Poisson Process. En este caso 0 1 Λ, ΛD D D ,

donde Λ es una matriz diagonal de enteros positivos. Las llegadas ocurren en los estados individuales y no en las transiciones entre estados (por ello, D es diagonal). De esta forma, las tasas de llegada son moduladas (Modulated) por una Cadena de Markov en Tiempo Continuo (CMTC) con generador D. Por ejemplo,

1

9 9 5 0; Λ

3 3 0 6D D

.

Es decir, que tenemos unas tasas de llegada 5 y 6 para las fases 1 y 2 respectivamente. Los procesos MMPP son procesos MAPs con sólo un tipo de llegadas, que vienen impuestas por el proceso de Poisson.

La flexibilidad para generar procesos de llegadas con características distintas es una de las principales razones por la que los procesos MAPs son usados extensamente en la práctica. Otras razones para este uso generalizado, son, tal y como se verá a lo largo de este documento, la tratabilidad analítica y numérica, y la flexibilidad en la modelización estocástica.

Observación 3.2.1. Por la definición dada de MAP se pueden proporcionar las siguientes observaciones sobre el proceso estocástico( ( ), ( )), 0N t I t t .

Page 36: UNIVERSIDAD DE GRANADA - masteres.ugr.es

Proceso de llegadas de Markov (MAP)

24

1) En el estado ( , )n i , la siguiente transición ocurre tras un tiempo distribuido

exponencialmente, al igual que ocurre con la siguiente llegada desde el proceso de Poisson impuesto en el estado i. Además, el tiempo de permanencia en el estado ( , )n i , o lo que es lo mismo, el tiempo hasta un nuevo evento, ya sea una

llegada o ya sea una transición, se distribuye exponencialmente con parámetro

0, ( , )i id para 0, 1, ,n i m .

2) Al final de su estancia en el estado ( , )n i , el proceso ( ( ), ( )), 0N t I t t hará una

transición al estado ( , )n j con probabilidad 0, ( , )

0, ( , )( )i j

i i

dd

con

, , 1, , ;i j i j m o al estado 1,n j con probabilidad 1, ( , )

0, ( , )( )i j

i i

dd

para

, 1, ,i j m . Estas probabilidades muestran las importancia y la fácil

descripción del MAP a través de su representación matricial, ya que en esa representación está toda la información necesaria del MAP.

Por la definición dada de CMTC y estas observaciones indicadas, es fácil ver que ( ( ), ( )), 0N t I t t es a su vez una CMTC, que nos lleva a poder formular la definición

de MAP a partir de CMTC.

Definición 3.2.2. Se define( ( ), ( )), 0N t I t t como una CMTC con espacio de estados

0,1, 2, 1, 2 ,x m con m siendo un entero positivo y definiendo su generador

infinitesimal como

0 1

0 1

0 1

0

0 0

0

D D

D D

Q

D D

.

Considerando que N(0) 0,( ( ), ( )), 0N t I t t se denomina MAP con representación

matricial 0 1 ( , )D D .

Acorde con la definición de CMTC, 0 1( , )D D debe satisfacer las condiciones dadas

en la definición 3.2.1.deprocesos MAPs. Se observa que ( )N t es no decreciente

formando un proceso de recuento. Esta definición permite llamar a ( ( ), ( )), 0N t I t t

MMCP (Markov Modulated Counting Process).

Page 37: UNIVERSIDAD DE GRANADA - masteres.ugr.es

Antonio Hernández Moreno

25

Se puede demostrar que para esta Cadena de Markov recién definida, el tiempo de permanencia en la fase i se distribuye exponencialmente con parámetro ( , )i id , para

1, ,i m , siendo ( , ) 0 1( )i iD d D D .

Esta no ha sido la última definición posible de MAP. Todavía se puede construir un MAP siguiendo otros puntos de vista. Para la siguiente definición se necesita introducir el ambiente probabilístico en el que se fundamenta.

Sea n el tiempo entre la llegada ( 1)n y la llegada n de un MAP con

representación matricial 0 1 ( , )D D . Sea nI la fase inmediatamente después de la n-ésima

llegada, es decir, 1 2( 0)n nI I . Ya que puede haber eventos sin llegadas

entre llegadas consecutivas, en general, n puede no ser distribuido exponencialmente.

Si ( ) 0N t las transiciones de la Cadena de MarkovQestará gobernada por 0D en (0, )t .

Así,

0 ,[ ( ) , ( ) 0 | (0) ] (exp( · ))i jP I t j N t I i D t ,

1 0 ,[ ( ) , | (0) ] (exp( · ))i jP I t j t I i D t .

Para el proceso de Poisson, en un intervalo infinitesimal, la probabilidad de que haya un evento es proporcional a la longitud del intervalo, ·t y la probabilidad de haber dos o más eventos es ( · )o t .

El suceso 1 1 , · / (0) I j t I i implica que al menos una llegada tiene lugar en

(0, · )t , que sería la transición de i a j. Tenemos por tanto,

1 1 1( , )[( ), · / (0)] · ( · )i jP I j t I d t o t

Por la propiedad de Markov, dicho evento en el instante primero es equivalente a cualquier otro tipo de tiempo n.

Por definición, ( , ), 0,1,2, n nI n es un proceso de renovación de Markov,

hecho que da pie a la tercera definición de MAP que vemos a continuación.

Definición 3.2.3. Suponiendo que las matrices 0 1( , )D D satisfacen las condiciones dadas

en la definición 3.2.1 de procesos MAPs. Se define el proceso de renovación de Markov

( , ), 0,1,2, n nI n mediante

1 0 10, ( exp )

t

n n n ijP I j t I i D x dxD ,

Page 38: UNIVERSIDAD DE GRANADA - masteres.ugr.es

Proceso de llegadas de Markov (MAP)

26

y su correspondiente cadena de Markov en tiempo continuo ( ), 0I t t con generador

infinitesimal 0 1D D D . Se define

1 2 1

(0) 0( )

( ) ; 0.n

NN t

N t n t t

El proceso ( ( ), ( )), 0N t I t t se denomina MAP.

Finalmente He (2010) introduce la siguiente definición.

Definición 3.2.4.: Sea ,1 i i m números no negativos cuya suma es la unidad. Sean

0( , ) , , , 1, , ) i jd i j i j m y 1( , ) , , 1, , )i jd i j m números no negativos con m entero

finito positivo. Asumiendo que

0( , ) 0( ,1) 0( , 1) 0( , 1) 0( , ) 1( ,1) 1( , ) 1( , ) 0 i i i i i i i i m i i i i md d d d d d d d para

todo i = 1,…,m, definimos el proceso estocástico ( ( ), ( )), 0N t I t t de la siguiente

forma,

1) Definimos )·(2 1m m procesos de Poisson independientes con parámetros

0( , ) 1( , ) , , , 1, , ) , , 1, , )i j i jd i j i j m y d i j m . Si alguno de esos

parámetros vale 0, el Proceso de Poisson no tiene ocurrencias.

2) Sea (0)I dado por la distribución de probabilidad ,1 i i m , con (0) 0N .

3) Si ( ) ,1 , ( )I t i i m I t y ( )N t permanecen igual hasta que el primer evento

ocurra en los 2 1m procesos de Poisson correspondiendo a

0( , ) , , , 1, , ) i jd i j i j m y 1( , ) , , 1, , )i jd i j m . Si el siguiente evento

ocurre desde el proceso de Poisson correspondiente a 0( , )i jd , la fase de la

variable ( )I t cambia de i hacia j y ( )N t no cambia, 1, , ; .j m j i Sin

embargo, si la siguiente ocurrencia viene del proceso de Poisson

correspondiente a 1( , )i jd la fase de la variable ( )I t cambia de i hacia j y ( )N t se

incrementa en una unidad, es decir, ha ocurrido una llegada, 1, , .j m

Se puede demostrar que: i) El tiempo de permanencia en ( , )n i del proceso( ( ), ( )), 0N t I t t , se

distribuye exponencialmente con parámetro 0( , ) , 1, , i id i m

ii) Que la probabilidad de que la nueva fase sea j y que no haya llegada es

0( , )

0( , )

i j

i i

d

d.

Page 39: UNIVERSIDAD DE GRANADA - masteres.ugr.es

Antonio Hernández Moreno

27

iii) Que la probabilidad de que la nueva fase sea j y que sí haya una llegada

es 1( , )

0( , )

i j

i i

d

d, dado que el estado activo es ( , )n i para

, 1, , ; 0,1,2i j m n

iv) El tiempo de permanencia de ( ), 0I t t en la fase i se distribuye por

una distribución exponencial de parámetro

0( , ) 1( , )( ( )) 1, , .i i i id d i m

v) Sea 0 0( , ) 1 1( , )( ), ( )i j i jD d D d . Se puede demostrar que ( ), 0I t t es

una CMTC con generador infinitesimal 0 1D D D .

vi) ( ( ), ( )), 0N t I t t es otra CMTC con generador infinitesimal dado por

0 1

0 1

0 1

0

0 0

0

D D

D D

Q

D D

.

Por lo tanto, ( ( ), ( )), 0N t I t t es un MAP con representación matricial 0 1( , )D D .

Ésta es una interpretación intuitiva de los parámetros de los MAP y es muy usada en la modelización estocástica, dando una forma sencilla de simular MAP. No es objeto demostrar que las cuatro definiciones distintas vistas de MAP son equivalentes pero aportan distintas perspectivas. De hecho, resumiendo, podemos decir que la primera definición dada (Definición 3.2.1.) es una definición constructiva basada en las cadenas de Markov y en el proceso de Poisson. La segunda, (Definición 3.2.2.) es una macrodefinición basada en cadenas de Markov. La tercera (Definición 3.2.3.), en cambio, es una microdefinición basada en el proceso de renovación de Markov y por último la cuarta definición, recién vista, (Definición 3.2.4.) aporta una definición constructiva basada en los procesos de Poisson.

A continuación vamos a mostrar algunos ejemplos de procesos MAPs.

Ejemplo 3.2.2. Sea la CMTC ( ), 0I t t con generador infinitesimal

3.5 3.5

9 9D

.

Es decir, se tiene una CMTC con dos estados, 1 y 2, donde el tiempo de permanencia en el estado 1 es una exponencial con parámetro 3,5 y el tiempo de permanencia en el estado 2 es una exponencial con parámetro 9. La probabilidad de que

Page 40: UNIVERSIDAD DE GRANADA - masteres.ugr.es

Proceso de llegadas de Markov (MAP)

28

estando la cadena en el estado 1 pase al 2, o que estando en el 2 pase al 1 una vez que se produce el salto es igual a 1. Analizamos el MAP que contabiliza una llegada cada vez que se produce un cambio de estado.

A esta CMTC se le puede calcular su distribución estacionaria, resolviendo como es conocido el sistema de equilibrio junto a la condición de normalidad,

· 0

· ,

D

e e

obteniendo como solución8.5 3.5

,12.5 12.5

.

Como el proceso siempre salta de un estado al otro, siempre habrá una llegada en

cada transición, y podemos definir por tanto 1( )N t como en “nº de llegadas en (0,t]”.

Con las definiciones vistas, es fácil determinar que 1( ( ), ( )), 0N t I t t es un MAP,

donde 1( )N t contabiliza el número de llegadas e ( )I t realiza el seguimiento de los

estados de la cadena de Markov subyacente o inmersa. Si el estado inicial de ( ), 0I t t está determinado, el MAP está bien definido.

Como se vio en las definiciones, para representar un proceso necesitamos las

razones de llegada. Para un MAP 1( ( ), ( )), 0N t I t t , las razones de llegada son

exactamente las intensidades de transición entre los estados individuales. Así, en el ejemplo, si el proceso se encuentra en el estado 1, la razón de llegada al estado 2, que es la de salida de este estado es 3.5. Por el contrario, si el proceso se encuentra en el estado 2, la tasa de salida que es la de llegada al estado 1 vale 9.

Con estos datos podemos definir la representación matricial del MAP de la siguiente forma:

0 1

3.5 0 0 3,5;

0 9 9 0D D

.

Como se observa, en la diagonal de 0D se muestran las razones de salida de los

estados individuales. Los ceros de 0D y 1D indican que no existe correspondencia entre

llegadas y/o cambios de estado.

Resumiendo, en 0D nos encontramos con las intensidades de transición sin llegadas

(menos en su diagonal principal) mientras que en 1D no encontramos con las razones de

transición con llegadas.

Page 41: UNIVERSIDAD DE GRANADA - masteres.ugr.es

Antonio Hernández Moreno

29

Esta representación matricial 0, 1( )D D representará al MAP, y 0 1D D D describe

los cambios de estado en la cadena de Markov subyacente, sin considerar las llegadas.

Siguiendo con el análisis de 1( ( ), ( )), 0N t I t t , que acabamos de ver que es MAP,

también es una CMTC con espacio de estados0,1,2, 1,2x , y podremos calcularle

su generador infinitesimal. En este caso valdrá,

0 1

0 1

0 1

(0,1) (0, 2) (1,1) (1, 2) (2,1) (2, 2)

(0,1) 3,5 0 0 3.5 0 0

(0, 2) 0 9 9 0 0 0

(1,1) 0 0 3.5 0 0 3,5

(1, 2) 0 0 0 9 9 0

0

0 0

.

0

Q

D D

D D

D D

Cada una de las fases anteriores puede ser interpretada como sigue. La fase ( , )n i

indica que han ocurrido n llegadas y la cadena se encuentra en el estado i. Así, se puede considerar un MAP en la modelización de un sistema de fiabilidad donde se analiza el número de fallos que tienen lugar cuando se cambia de estado. Mediante el producto de

Kronecker el generador Q puede ser expresado como 0 1( )|I D D , siendo I la matriz

identidad de orden infinito.

Ejemplo 3.2.3. Siguiendo con el ejemplo anterior, ahora se añade la posibilidad de poder haber cambios de estado sin contabilizar como llegada. Sea ( ), 0I t t una

CMTC con dos estados, tal que, cuando cambia desde el estado 1 al 2, ocurre una llegada con probabilidad 0.2, y por tanto, la probabilidad de que no haya llegada en esa transición es 0.8. Paralelamente, cuando la CMTC cambia del estado 2 al 1, la

probabilidad de que haya una llegada es 0.7, y de que no la haya 0.3. Sea 2 ( )N t =”nº de

llegadas en (0,t]”. Entonces, 2( ( ), ( )), 0N t I t t es un MAP que analizamos a

continuación.

Si la cadena de Markov ( ), 0I t t está en el estado 1, la tasa de transición total

será 2.5, que puede descomponerse en dos partes según haya o no una llegada en el cambio (suponemos que no hay llegadas si no hay cambio de estado). Si hay llegada, la tasa de transición es 0.2 3.5 0.7x mientras que si no hay llegada será 0.8 3.5 2.8x .

Page 42: UNIVERSIDAD DE GRANADA - masteres.ugr.es

Proceso de llegadas de Markov (MAP)

30

Análogamente para el caso del estado 2, obteniendo las matrices de la representación matricial del MAP

0 1

3.5 2.8 0 0.7;

2.7 9 6.3 0D D

.

Los valores 2.8, 2.7, 0.7, ( 6.3) corresponden a los cambios de estado de la CM

inmersa dependiendo de si hay o no llegadas.

Como se puede ver, 0 1D D D no sufre modificaciones con respecto a la

presentada en el Ejemplo 3.2.2.y de nuevo

0 1

0 1

0 1

0

0 0

0

D D

D D

Q

D D

.

Ejemplo 3.2.4. Sea ( ), 0I t t la CMTC introducida en los ejemplos anteriores. Si la

cadena está en el estado 1, se define un proceso de Poisson con razón de ocurrencia igual a 4. Estas llegadas no van a acompañadas de un cambio de estado en la CM inmersa. Cuando la cadena de Markov transiciona al estado 2, el proceso de Poisson definido en el estado 1 queda no operativo. Si vuelve al estado 1 el proceso de Poisson vuelve a estar operativo. No existen llegadas cuando ocurre una transición al estado 2 ni

desde el estado 2 al 1. Definimos el MAP 3( ( ), ( )), 0N t I t t con 3( )N t =”número de

llegadas en (0,t]” Analizamos el comportamiento de los estados.

‐ Estado 1: el tiempo hasta la siguiente transición de la CM inmersa, denotada

1X sin producir llegada se distribuye según una distribución exponencial de

parámetro 2.5, y el tiempo hasta la siguiente llegada del proceso de Poisson,

que denotamos 1 Z será también exponencial de parámetro 4. Por lo tanto,

aunando estos dos procesos, el tiempo hasta el siguiente suceso, sea llegada o

sea transición será la variable aleatoria 1 1( , )Min X Z , que por propiedades de la

distribución exponencial se distribuirá como otra distribución exponencial de parámetro 6.5, que es la razón total de cambio. Cuando se produzca el cambio de estado desde el estado 1, será una llegada

con probabilidad 46.5 y será una transición sin llegada con probabilidad

2.56.5 .

Page 43: UNIVERSIDAD DE GRANADA - masteres.ugr.es

Antonio Hernández Moreno

31

‐ Estado 2: en el estado 2 no se imponen llegadas de Poisson, siendo la razón total de cambios igual a 10, que es la intensidad de transición del estado 2 al 1, siempre sin llegadas.

Visto el comportamiento de ambos estados se pueden deducir las componentes de la representación matricial del MAP como sigue,

0 1

2.5 4 2.5 4 0;

10 10 0 0D D

Observamos como se ha ido complicando ligeramente la composición del MAP así

como de su representación matricial. Aquí como novedad tenemos el valor 1(1,1) 4d ,

que como hemos visto es la tasa de llegadas del proceso de Poisson sin cambio de estado.

Siguiendo con el análisis del MAP 3( ( ), ( )), 0N t I t t podemos calcular el

generador infinitesimal del mismo, donde veremos que sigue con la misma estructura que los casos anteriores,

0,1 0, 2 1,1 1, 2 2,1 2, 2

0,1 6,5 2.5 4 0 0 0

0, 2 10 10 0 0 0 0

1,1 0 0 6.5 2.5 4 0

1, 2 0 0 10 10 0 0

Q

0 1

0 1

0 1

0

0 0

0

D D

D D

D D

.

Ejemplo 3.2.5. Seguimos viendo ejemplos de MAP desde un punto de vista constructivista. Ahora, analicemos que ocurre en el caso de conjugar los dos últimos casos vistos.

Sean los MAPs 2( ( ), ( )), 0N t I t t y 3( ( ), ( )), 0N t I t t definidos en los ejemplos

anteriores. Calculamos 4( ( ), ( )), 0N t I t t donde 4 2 3( ) ( ) ( )N N t Nt t . Este ejemplo se

analizará en capítulo 3.3.1.considerando el resultado para la superposición de MAPs.

Tal y como se han definido los MAPs anteriores, 2N y 3N , la suma de llegadas de ambos

Page 44: UNIVERSIDAD DE GRANADA - masteres.ugr.es

Proceso de llegadas de Markov (MAP)

32

procesos ocurren de la siguiente forma. Cuando la Cadena de Markov está en el estado 1 la razón total de eventos es 6.5. Si el estado 2 no es considerado, obtenemos un proceso de Poisson con razón de llegada 6.5 de donde:

a) Se tiene una llegada con probabilidad 4

6.5.

b) Una transición desde el estado 1 al 2 con llegada con probabilidad2.5

0.2 0.56.5

x .

c) Una transición del estado 1 al 2 sin llegadas con probabilidad2.5

0.8 26.5

x .

Cuando la Cadena de Markov está el estado 2, la tasa total es igual a 10. Si el estado 1 no es considerado, se tiene un proceso de Poisson con razón de llegada igual a 2. O dicho de otra forma, cuando llega un evento se tiene que,

a) Llegada y estado de permanencia en 2 con razón 0. b) Llegada y que el estado cambie a 1 es 7 /10.

c) No llegada y estado cambie a 1 es3/10 .

Aunque no se ha comentado, es obvio decir que 4( ( ), ( )), 0N t I t t es un MAP

pero también una CMTC con

0 1

0 1

0 1

0

0 0

0

D D

D D

Q

D D

,

siendo

0 1

2.5 4 2 4 0.5;

3 10 7 0D D

.

Ejemplo 3.2.6.: Terminamos mostrando el comportamiento y las funcionalidades de los procesos MAPs a través del siguiente ejemplo donde se ponen en juego 3 estados y no 2 como en los ejemplos anteriores. Sea una CMTC ( ), 0I t t donde

8 2 6

10 10 0

2 3 5

D

.

Page 45: UNIVERSIDAD DE GRANADA - masteres.ugr.es

Antonio Hernández Moreno

33

Es decir, se tiene una transición del estado 1 al 2, con probabilidad 2/8, y del 1 al 3 con probabilidad 6/8. Las transiciones del estado 2 al 1 ocurren con probabilidad 1, y no pueden haber transiciones del estado 2 al 3. Respecto al estado 3, cambiará con probabilidad 2/5 al estado 1, y al 2 con probabilidad 3/5.

Definimos el MAP 5( ( ), ( )), 0N t I t t , donde:

a) Estando en el estado 1: si la CM va al estado 2, no existen llegadas. Si la CM va a 3, hay una llegada con probabilidad 0.4.

b) Estando en el estado 2: hay un proceso de Poisson con tasa 4 de llegadas. Si la CM va a 1, habrá una llegada con probabilidad 0.7.

c) Estando en el estado 3: hay un proceso de Poisson con tasa 1 de llegadas. Si la CM va a 1, habrá una llegada con probabilidad 0.8. Y si va a 2, habrá una llegada con probabilidad 0.5.

Sumando, la tasa total de los estados 1,2 y 3 son respectivamente 8+0, 10+4 y 5+1.

Descomponiendo D en 0D , que como sabemos incluye las tasas en el caso de que no

hubiera llegadas, y 1D que las incluye en el caso de que sí las haya, se tiene que

10

8 2 3.6 0 0 2.4

3 10 4 0 ; 7 4 0

0.4 1.5 5 1 1.6 1.5 1

D D

.

Todos estos ejemplos, demuestran que los eventos con llegadas pueden ocurrir en los estados individuales según su proceso de Poisson y cuando la Cadena de Markov subyacente cambia de estado. De hecho, son las únicas formas de generar llegadas en los procesos MAPs. Resumiendo, en un MAP los eventos que pueden ocurrir son: i) transición entre los estados; ii) llegada sin cambio de estado; iii) transición con llegada.

3.3. PROPIEDADES DE LOS PROCESOS MAPS

Una vez definidos los procesos MAPs a través de cuatro vertientes distintas, analizar las propiedades básicas de los mismos y ver ejemplos ilustrativos, debemos hacer hincapié en dos propiedades que justifican aún más el uso de los procesos MAPs en la modelización de sucesos reales. Tal y como hicimos en relación a los procesos de Poisson, analizamos la superposición de procesos MAPs y la descomposición de procesos MAPs, pero antes se deben introducir resultados acerca de la función generatriz de momentos que son necesarios.

Page 46: UNIVERSIDAD DE GRANADA - masteres.ugr.es

Proceso de llegadas de Markov (MAP)

34

Una de las conclusiones que a primera vista se ve sobre los procesos MAPs es que son CMTC, y por tanto, podemos estudiarlo como tales según la teoría de las Cadenas de Markov. Aprovechando la estructura de los MAPs y de las Cadenas de Markov se puede hacer un análisis más eficiente. Basado en probabilidades condicionadas y métodos de transformación que se presentan en este capítulo, se obtendrán en el capítulo 3.4. expresiones de medidas de funcionamiento a partir de la expresión de su función generatriz de momentos.

Centrando el foco en el número de llegadas ( )N t , que es una variable aleatoria para

un t fijo, se puede obtener la función media y varianza de ( )N t , donde se mostrará que

la fase en la que se encuentra el proceso subyacente ( )I t juega un papel importante.

Para un MAP ( ( ), ( )), 0N t I t t con representación matricial 0 1( , )D D , podemos

definir las probabilidades de transición,

,

,

[ ( ) , ( ) / ( ) ] , 1, ,( ,

( ( , ), ) )

)

(i j

i j mxm

p P N t n I t j I t i i j m

P p n t

n t

n t

Estas probabilidades se pueden expresar matricialmente obteniendo la matriz

( , )P n t . Notar que (0,0) ; ( ,0) 0; 1,2P I P n n , donde , ( , )i jp n t es la

probabilidad de que haya n llegadas en (0, ]t y que la Cadena de Markov subyacente

esté en j en t, dado que la Cadena de Markov inicialmente en el estado i. Debemos recordar en este punto que el tiempo de permanencia en ( , )n i se distribuye

exponencialmente dada la markovianiedad.

Condicionando por el número de llegadas en un intervalo infinitesimal ( , )t t t , se

obtiene que

, , 0,( , ) , 0,( , )1;

( ( , )( ), ) 1 ( , )· m

i j i j j j i k k jk k j

p n t t p d t p n t tn t d

, 1,( , )1

, ( )( )1 ·m

i k k jk

p n t d t o A B C D

.

Es decir, se puede descomponer en cuatro términos la expresión de la probabilidad de que haya n llegadas en un intervalo infinitesimal en torno a t, donde A corresponde a que no haya llegadas, ni cambios de estado en el intervalo de tiempo ( , )t t t , B

corresponde a que no haya llegadas y que la fase cambia del estado k al j en ( , )t t t ,

C a que haya una llegada y que la fase cambie del estado k al j en ( , )t t t (aunque

podría darse). Por último, ( )o contiene todas las probabilidades de todos los eventos

restantes.

Page 47: UNIVERSIDAD DE GRANADA - masteres.ugr.es

Antonio Hernández Moreno

35

Operando y tomando límites 0,t

,, 0,( , ) , 0,( , )

1;

( , )( , ) ( , ) ·

mi j

i j j j i k k jk k j

n tn t n

dpp d p d

dtt

, 1,( , )1

1, ·( )m

i k k jk

p n t d

,

que matricialmente puede expresarse como sigue,

0

0 1

(0, )(0, )·

( , )( , )· ( 1, )· ; 1, 2, .

dP tP t D

dtdP n t

P n t D P n t D ndt

Desde este resultado se puede ver la estructura matricial de la función generatriz de momentos de un MAP. Por definición, la función generatriz de momentos de )(N t viene

dada por

*

0

( , ) ( , ) , 0n

n

P z t P n t z z

Desde las ecuaciones diferenciales anteriores, multiplicando por zn y sumando se tiene que

10 1

0 0 1

( , )( , ) ( 1, )n n n

n n n

dP n tz P n t D z P n t D z

dt

*

* * *0 1 0 1

( , )( , ) ( , ) ( , )

dP z tP z t D zP z t D P z t D zD

dt .

Por lo tanto, dado que *( ,0)P z I y que ( ,0) 0P n para 1, 2,n … se tiene que

la función generatriz de probabilidades de un MAP viene dada por

*0 1( , ) exp[( ) ]P z t D zD t .

NOTA. En el caso de un proceso de Poisson se tiene el mismo resultado de manera inmediata.

El número de llegadas en (0, ]t depende del estado inicial. Por definición, el i-ésimo

elemento de *0 1( , )· exp[ ])( · ·P z t e D zD t e es la función generatriz de momentos del

número de llegadas en (0, ]t dado que (0)I i . A través de siguiente expresión podemos

Page 48: UNIVERSIDAD DE GRANADA - masteres.ugr.es

Proceso de llegadas de Markov (MAP)

36

calcular los momentos de ( )N t dada la distribución inicial . La función generatriz

viene dada por * ,· ·( )z tP e .

3.3.1. SUPERPOSICIÓN DE PROCESOS MAPS

De igual forma que ocurría con los procesos de Poisson, los procesos MAPs pueden ser superpuestos y descompuestos, además con similar comportamiento al caso poissoniano.

Teorema 3.3.1.1. Sean 1( ( ), ( )), 0N t I t t y 2( ( ), ( )), 0N t I t t dos procesos MAPs

con representaciones matriciales 0 1( , )D D y 0 1( , )C C , independientes. Sea

1 2( ) ( , ( )( ))tI t I I t .Entonces 1 2( ( ) ( ), ( )), 0N t N t I t t es un MAP con representación

matricial 0 0 1 1( , )D I I C D I I C . Es decir, la superposición de dos Procesos

MAPs independientes es otro MAP cuya representación matricial se puede construir usando el producto de Kronecker.

Demostración. He (2014)

NOTA: La representación matricial del MAP puede expresarse mediante la suma de

Kronecker quedando 0 0 1 1,D C D C .

La comparación con los procesos de Poisson surge sola obteniendo un resultado similar, la superposición de este tipo de procesos mantiene la propiedad de clausura.

Ejemplo 3.3.1.1. A continuación indicamos un ejemplo de superposición de procesos MAPs, con representaciones matriciales

0 1

9 0 8 1;

1 1 0 0D D

,

0 1

4 1 0 3;

2 7 2 3C C

.

Entonces, la representación matricial del proceso MAP resultante sería formada por las matrices:

Page 49: UNIVERSIDAD DE GRANADA - masteres.ugr.es

Antonio Hernández Moreno

37

0 0 0 0

9 0 0 0 4 1 0 0

0 9 0 0 2 7 0 0

1 0 1 0 0 0 4 1

0 1 0 1 0 0 2 7

D C D I I C

13 1 0 0

2 16 0 0

1 0 5 1

0 1 2 8

1 1 1 1

8 0 1 0 0 3 0 0

0 8 0 1 2 3 0 0

0 0 0 0 0 0 0 3

0 0 0 0 0 0 2 3

D C D I I C

8 3 1 0

2 11 0 1

0 0 0 3

0 0 2 3

.

3.3.2. DESCOMPOSICIÓN DE PROCESOS MAPS

Se presenta a continuación el teorema de descomposición de procesos MAPs.

Proposición 3.3.2.1. Sea un MAP ( ( ), ( )), 0N t I t t con representación matricial

0 1( , )D D . Este proceso se puede descomponer en n tipos de llegadas usando marcados

independientes con probabilidad 1 2 , , , np p p de tal forma que los procesos MAPs

resultantes ( ( ), ( )), 0jN t I t t tienen representación matricial

0 1 1( (1 )· , · ), 1, , .j jD p D p D j n

Demostración. He(2014)

Comparado con la descomposición de procesos de Poisson, visto en el capítulo 2.2.2., observamos un claro paralelismo, necesitando únicamente añadir en el proceso MAP los marcados independientes para poder descomponer los procesos y sus representaciones matriciales.

Page 50: UNIVERSIDAD DE GRANADA - masteres.ugr.es

Proceso de llegadas de Markov (MAP)

38

En el caso particular de dos tipos de llegadas se tiene el siguiente resultado.

Teorema 3.3.2.1. Sea ( ( ), ( )), 0N t I t t un MAP con representación matricial

0 1( , )D D . Supongamos que las llegadas pueden ser de dos tipos 1 y 2, ocurriendo las

primeras con probabilidad p y las segundas con probabilidad1 p . Entonces, se puede

obtener un nuevo MAP con las llegadas marcadas de la siguiente forma,

1 2( ( ), ( ), ( )), 0N t N t I t t con representación matricial 0 1 1( , · , (1 )· )D p D p D . A partir de

él, podemos descomponer el proceso inicial en los procesos MAPs 1( ( ), ( )), 0N t I t t y

2( ( ), ( )), 0N t I t t con representaciones matriciales 0 1 1( (1 )· · ),D p D p D ,

0 1 1· , ( )·( )1D p D p D respectivamente. Ambos procesos cuantifican las llegadas tipo 1

y tipo 2.

Esto es así ya que, si hay una llegada asociada con tasa 1 ,( )i jD con probabilidad p

esta llegada será marcada como de tipo 1 y su correspondiente tasa es 1 ,·( ) i jp D , y

complementariamente, con probabilidad 1 p será marcada como de tipo 2 y por tanto

su tasa es 1 ,(1 )·( )i jp D . En la primera de las situaciones, 1 ,(1 )·( )i jp D es sumado a 0D

hasta que no haya una llegada tipo 1.

Demostración. He (2014)

Hay que notar que puede que los procesos resultantes 1( ( ), ( )), 0N t I t t y

2( ( ), ( )), 0N t I t t no sean independientes, ya que para ambos procesos marcados las

futuras razones de llegada dependen de la fase de la Cadena de Markov inmersa.

Ejemplo 3.3.2.1. Sea el proceso MAP ( ( ), ( )), 0N t I t t con representación matricial

0 1

2 0 2 0;

2 5 2 1D D

. Podemos descomponer el proceso en dos procesos con

marcados independientes con 1 1/ 3p y 2 2 / 3p obteniendo como resultado los

siguientes procesos MAPs,

1( ( ), ( )), 0N t I t t con representación matricial,

0 0 1 1 1

2 20 0

2 13 3; ,10 13 2 13 3

3 3 3 3

C D D C D

Page 51: UNIVERSIDAD DE GRANADA - masteres.ugr.es

Antonio Hernández Moreno

39

y 2( ( ), ( )), 0N t I t t con representación matricial,

0 0 1 1 1

4 40 0

1 23 3;8 14 4 23 3

3 3 3 3

E D D E D

.

3.4. MEDIDAS DE FUNCIONAMIENTO

A continuación se van a calcular diversas medidas e introducir diversos resultados que nos ayuden a analizar el proceso MAP. A través de la función generatriz de momentos presentada en el capítulo 3.3. podemos obtener los siguientes resultados.

Cálculo del número esperado de llegadas hasta un tiempo t

Definimos la razón de llegadas estacionaria como 1D e , donde es la

distribución estacionaria de D, es decir, 0; · 1.D e

Nota: Si D es irreducible, es única y puede calcularse fácilmente.

En el proceso de Poisson del que surgen los procesos MAPs, el cálculo de [ ( )]E N t

es inmediato aprovechando la propiedad que poseen de distribuirse probabilísticamente a través de una distribución de Poisson de parámetro t , tal y como vimos al tratar los procesos de Poisson. Ahora el cálculo no es tan directo pero se puede obtener igualmente el número esperado de llegadas a partir de la función generatriz de momentos generalizando el caso exponencial.

Teorema 3.4.1.Sea la Cadena de Markov inmersa ( ), 0I t t irreducible o lo que es lo

mismo, D es irreducible. Entonces, el número esperado de llegadas hasta un tiempo t viene dado por

11[ ( )] ( ( ) )( ) ; 0E N t t exp Dt I D e D e t ,

siendo la distribución inicial asociada al proceso Q.

Demostración. La demostración se basa en el cálculo a partir de la función generatriz de momentos. Puede verse en He (2014).

Nota. Claramente el caso exponencial es un caso particular de los MAPs.

Page 52: UNIVERSIDAD DE GRANADA - masteres.ugr.es

Proceso de llegadas de Markov (MAP)

40

De igual forma podemos hacer con su varianza, donde en este caso no se obtiene una expresión tan fácilmente comparable con los procesos de Poisson.

Teorema 3.4.2.: Asumiendo que la Cadena de Markov subyacente ( ), 0I t t es

irreducible o lo que es lo mismo, D es irreducible. Entonces, la función de varianza del número de llegadas hasta un tiempo t viene dada por

2 11 1[ ( )] ( 2 2 ( ))Var N t D D e D e t

1 11 12 ( )( ) ( )( )D D e exp Dt I D e D e .

Demostración. De nuevo la demostración se obtiene desde la función generatriz de probabilidades y el resultado anterior. He (2014)

Nota. En el caso exponencial se tiene que 0 10, ,D D D quedando

2 2 1( ( )) ( 2 2 ( ) )Var N t e e t t .

Calculamos ahora el índice de dispersión que pasamos a definir.

Definición 3.4.1. Se define el índice de dispersión de ( )N t como [ ( )] / [ ( )]Var N t E N t .

Para el proceso de Poisson, el número de llegadas en intervalos no solapados son independientes. En MAP sin embargo son correlados. Pero son condicionalmente independientes, es decir, si ( )I t es conocida el proceso de llegada en ( , )t t s es

independiente en (0, ]t . Basado en esta independencia condicional, la correlación puede

ser obtenida explícitamente para el caso estacionario. Sea ( , ) ( ) ( ),N t t s N t s N t

dado 1 2 1 2, , , [ ( ) , ( , ) , ( ) | (0)) ](ijp n t n s P N t n N t s t n I t s j I i para i,j = 1,…,m y

1 2, 0,1,2n n

Para poder obtener otras expresiones de los momentos de un proceso MAP, necesitamos el cálculo de su función característica, con ella el cálculo de momentos es inmediato. Los dos siguientes resultados lo ilustran.

Se define *, 1 2( , , , )i jp z t z s como la función generatriz de probabilidad conjunta de

, 1 2 1 2 , , , ; , 0,1, 2 , , 1, , ( )i jp n t n s n n i j m y * *1 2 , 1 2 *, , , ( (( , , , ))) i j m mP z t z s p z t z s .

Teorema 3.4.3. *1 2 0 1 1 0 2 1, , , exp(( )·exp) ( ) )( ) (P z t z s D z D t D z D s

Page 53: UNIVERSIDAD DE GRANADA - masteres.ugr.es

Antonio Hernández Moreno

41

Demostración. A través de la propiedad de Markov de ( )I t . He (2014).

Corolario 3.4.1. Suponiendo que la cadena de Markov inmersa ( ), 0I t t es

irreducible o lo que es lo mismo, D es irreducible. Entonces, dado (0)I tiene

distribución ,se tiene que

i) [ ( , )] E N t t s s

ii) 2 1

1

11

[ ( ) ( , )] ( )

( ( )

(

)

)

(

·

)

( )E N t N t t s ts D D e exp Dt I

exp Ds I D e D e

Demostración. He (2014)

3.5. COMPARACIÓN DEL PROCESO DE POISSON Y MAP

A lo largo de la descripción de las propiedades de los procesos MAPs ha quedado en evidencia un paralelismo claro con los procesos de Poisson de los que proviene. En el siguiente cuadro se comparan de forma resumida las características de ambos procesos, que han sido descritas con anterioridad.

Page 54: UNIVERSIDAD DE GRANADA - masteres.ugr.es

Proceso de llegadas de Markov (MAP)

42

PP MAP Parámetro 0 1( , )D D

Tiempo entre llegadas

exp( ) General distribution

Tasa de llegada 1·D e

E[N(t)] t 11· ( ) ·t exp Dt I D e D e

Var[N(t)] t 2 1

1 1

1 11 1

( 2 2 )

2 ) (

( )

( )( )( )

D D e D e t

D D e exp D e I D e D e

Propiedades Falta de memoria Falta de memoria parcial Aproximación a cualquier proceso de recuento

Propiedad Cerrada

Superposiciones independientes Superposiciones independientes

Composición 1 ,( (), )kN Nt t Procesos Poisson

independientes con parámetros

1, , k respectivamente, entonces

1 )( () kN N tt es también un

PP con parámetro 1 k .

1( ( ), ( )), 0N t I t t y

2( ( ), ( )), 0N t I t t procesos MAPs,

representaciones matriciales 0 1( , )D D y

0 1( , )C C , independientes. Sea

1 2( ) ( , ( )( ))tI t I I t .Entonces

1 2( ( ) ( ), ( )), 0N t N t I t t es un MAP

con representación matricial

0 0 1 1( , )D I I C D I I C

Descomposición Eventos de un proceso de Poisson ( ), 0N s s de dos tipos, A y B. Sea 0 1 la probabilidad de que un evento sea del tipo A y 1q p la probabilidad de que el evento sea del tipo B. Los procesos ( ), 0AN s s ,y ( ), 0BN s s

son procesos independientes de Poisson con parámetros p y

(1 )p respectivamente.

Marcados independientes

1 2 , , , np p p ; Procesos MAPs

resultantes ( ( ), ( )), 0jN t I t t

representación matricial

0 1 1(1 )· , · , 1, , .j jD p D p D j n

Cuadro 3.5.1. Comparación PP MAP

Page 55: UNIVERSIDAD DE GRANADA - masteres.ugr.es

43

CAPÍTULO 4

PROCESO DE LLEGADAS DE MARKOV EN GRUPO (BMAP)

4.1. INTRODUCCIÓN

En este capítulo se van a introducir los procesos de llegadas de Markov por grupos (Batch Markovian Arrivals Process, BMAP). Los BMAP generalizan a los procesos MAPs considerando llegadas en grupos. Centrándonos en los BMAP, prestaremos atención a la interpretación de las razones de llegada.

En un MAP con representación matricial 0, 1( )D D , tal y como acabamos de definir y

analizar en el capítulo 3, los elementos de 0D son interpretados como las razones de

ocurrencia de un evento sin haber llegadas, y 1D lo mismo pero con llegadas.

Una manera de generalizar los procesos MAPs es dividir las tasas de llegada en 1D

y asignar diferentes significados a los mismos. Intuitivamente, un proceso de llegadas de Markov en grupo, BMAP, es un proceso estocástico que generaliza el proceso de Poisson estándar (así como otros procesos estocásticos) permitiendo grupos en las llegadas, tiempos entre llegadas dependientes, distribuciones de tiempos entre llegadas no exponenciales y tamaños de grupo correlacionados. Los procesos MAPs es un BMAP donde el tamaño del lote queda restringido a la unidad. Estos resultados pueden consultarse en el trabajo de Lucantoni (1991).

Una de las aplicaciones de los procesos MAPs y más concretamente de los procesos BMAP está en que su estructura proporciona un análisis de sistemas usando métodos analíticos matriciales, pudiendo obtener sistemas en el campo de teoría de colas como MAP/G/1 en un versión básica y BMAP/G/1 en una versión ampliada. Para ampliar este resultado puede consultarse Lucantoni (1993).

Page 56: UNIVERSIDAD DE GRANADA - masteres.ugr.es

Proceso de llegadas de Markov en grupo (BMAP)

44

Introducimos los BMAP mediante el siguiente ejemplo.

Ejemplo 4.1.1. Para el MAP 0, 1( )D D definido en el capítulo 3, si una llegada ocurre, un

cliente llega. En lugar de interpretar 1D como la razón del evento llegada de un cliente

podríamos interpretarlo de la siguiente manera: i) 1D es la matriz de razones de un lote

de 5 clientes; ii) Si una llegada ocurre según 1D con probabilidad 0.1, un cliente llega;

con probabilidad 0.2, dos clientes llegan; con probabilidad 0.3, 3 clientes llegan; y con probabilidad 0.4, 4 clientes llegan. En este caso, podemos escribir las razones de llegada en cuatro matrices que reflejen el número de clientes en distintos grupos de llegadas:

1 2 3 40.1· , 0.2· , 0.3· , 0.4·D D D D .

4.2. DEFINICIONES

De igual forma que se hizo en los procesos MAPs, vamos a introducir los procesos BMAPs a través de las 4 definiciones introducidas en el capítulo 3 viendo una equivalencia clara entre ambos tipos de procesos

Definición 4.2.1. Sean 1 2 3 , , , , ND D D D matrices de orden m no negativas, 0D con

valores no negativos fuera de su diagonal principal y con valores negativos en su diagonal, m un entero positivo y N entero positivo (pudiendo ser ). Sea

0 1 ND D D D , un generador infinitesimal. Sea 0 0( , ) ( , )( ); ( )i j n i jnD d D d para

1, ,n N . Entonces 0 1 2 3 , , , , , ND D D D D define un BMAP ( ( ), ( )), 0N t I t t como

sigue:

i) Sea (0) 0N .

ii) La matriz generador D define una CMTC ( ), 0I t t a través de D.

iii) Para el estado i, con ( , ) 0n i id , define un proceso de Poisson con razones de

llegada ( , )n i id con 1, , ; 1, ,n N i m . El proceso de Poisson estará

operativo si I t i y no operativo en otro caso.

iv) Para 1, ,i m , si ( )I t i y una llegada del proceso de Poisson con razón

( , )n i id entonces ( )N t se incrementa en n unidades, con1 n N .

v) Al final de cada permanencia en el estado i, con probabilidad 0( , )

( , )

i j

i i

d

d, donde

( , ) 0( , ) 1( , ) ( , ), ( )i i i i i i N i id d d d I t pasa del estado i al j y ( )N t no varía. Al

Page 57: UNIVERSIDAD DE GRANADA - masteres.ugr.es

Antonio Hernández Moreno

45

final de la permanencia en el estado i pasa al estado j incrementándose n

unidades ( )N t con probabilidad ( , )

( , )

n i j

i i

d

d para 1 ;n N i j .

Llamamos 0 1 2 3 , , , , , ND D D D D a la representación matricial del BMAP

( ( ), ( )), 0N t I t t , donde ( ), 0I t t es la Cadena de Markov subyacente del BMAP.

Remarcamos que 1( , ) ( , ), i j N i jd d es la razón de un evento llegada de clientes si el

proceso pasa de la fase i a la j. Si tal evento ocurre, con probabilidad ( , )

1( , ) ( , )

n i j

i j N i j

d

d d

el tamaño del lote es n, para1 n N .

A continuación se introducen distintos ejemplos poniendo de manifiesto la versatilidad del modelo.

Ejemplo 4.2.1.

1. Proceso de Poisson Compuesto: 0 1 1( ), ( ), , ( )N ND D D con

1

N

ii

. Para un evento llegada el tamaño serán clientes con probabilidad n

.

2. Proceso de Poisson en grupo: si en el caso anterior la probabilidad de que las

llegadas sean de tamaño n con probabilidad np el proceso resultante es BMAP,

con matriz generadora dada por

1 2

1 1

1 1

0 k

k k

k k

p p p

p p pQ

p p p

.

3. En un MAP tal que 0 1

2 4 1.6 4 0,4,

3 10 6 0D D

se puede plantear una

división de para obtener un BMAP de la siguiente forma,

1 2

2 0.2 2 0, 2,

3 3ˆ

0 0D D

.

4. Proceso de renovación Tipo Fase en grupo: Supongamos que las llegadas

llegan acorde a un proceso de renovación : 0n n . El proceso de renovación

tipo-fase es un proceso de renovación con tiempos entre renovaciones dados

por 1 , 0n n nS n , tipo fase con representación ( ),T con T de orden m.

Page 58: UNIVERSIDAD DE GRANADA - masteres.ugr.es

Proceso de llegadas de Markov en grupo (BMAP)

46

El proceso de renovación tipo fase en grupo será BMAP con0

0 ; ; 1; k kD T D p T k siendo 0T Te .

Se ha comentado en varias ocasiones la relación entre MAP y BMAP. En el siguiente resultado queda mostrada.

Propiedad 4.2.1. Podemos ver claramente la relación existente entre MAP y BMAP a

través de las siguientes propiedades aditivas. Si 0 1 2 3 , , , , , ND D D D D es un BMAP

entonces,

1. 0 1 2 , ND D D D es un MAP

2. , k kD D D es un MAP para cualquier k.

Demostración. Al lector.

Sea ( ( ), ( )), 0N t I t t un proceso estocástico BMAP con espacio de estados

0,1,2, 1,2, , . x m Como sabemos la variable ( )N t es creciente en t, pudiendo en un

solo salto crecer a lo sumo N unidades. De forma similar al caso general MAP, ( ( ), ( )), 0N t I t t es una Cadena de Markov en Tiempo Continuo (CMTC) y por tanto

tenemos abierta la vía análoga al MAP para la definición a través de la CMTC.

Definición 4.2.2. Sea 0 1 2 3 , , , , , ND D D D D tal que satisface las condiciones dadas en

la definición 4.2.1.. Entonces, un BMAP (MAP en grupo) puede definirse como una

CMTC 0 1 2 3 , , , , , ND D D D D con (0) 0N y generador infinitesimal

0 1 2

0 1 1

0 1 1

0N

N N

N N

D D D D

D D D DQ

D D D D

.

Para un BMAP, se define el proceso de renovación de Markov

( , , ), 0,1,2, n n nI J n donde nI es la fase justo después de la n-ésima llegada

(grupo), nJ es el tamaño del n-ésimo lote y n es el tiempo entre llegadas,

concretamente entre las llegadas n y n1. ( , , ), 0,1,2, n n nI J n satisface que para

0, 1, , x k N

Page 59: UNIVERSIDAD DE GRANADA - masteres.ugr.es

Antonio Hernández Moreno

47

1 0

0 ,

( ; , | ) exp( ) x

n n n n k

i j

P I j J k x I i D t dtD

Definición 4.2.3. De forma paralela a las definiciones de un MAP, podemos seguir

construyendo el caso BMAP. Asumiendo que 0 1 2 3 , , , , , ND D D D D satisface las

condiciones de la primera definición BMAP y sea ( )I t la fase de la CMTC con

generador infinitesimal 0 1 ND D D D en un tiempo t. Definimos el proceso de

renovación de Markov ( , , ), 0,1,2, n n nI J n usando la definición anterior siendo

1 1 1 10 ( ) , n n nnN t k t J J k J J

. En estas condiciones

( ( ), ( )), 0N t I t t es un BMAP.

Los MAP, BMAP y distribuciones tipo fase están relacionados dada su estructura inmersa markoviana. El siguiente ejemplo muestra un primer resultado.

Ejemplo 4.2.2. En un BMAP, si ( )I t tiene distribución entonces la distribución del

tiempo hasta la primera llegada después de un tiempo t es tipo fase con representación

0( , )PH D . De igual forma, la distribución del tiempo hasta la primera llegada de un

lote de tamaño k, después de un tiempo t es ( , ).kPH D D

Definición 4.2.4. Como en el caso MAP, hay una cuarta definición de BMAP, que es

una generalización de la vista en MAP. Sea ,1 i i m números no negativos cuya

suma es la unidad. Sean 0( , ) , , , 1, , ) i jd i j i j m y ( , ) , , 1, , )n i jd i j m números

no negativos con m entero finito positivo y 1, ,n N . Asumiendo que

0( , ) 0( ,1) 0( , 1) 0( , 1) 0( , ) 1( ,1) 1( , )

1( , ) ( ,1) ( , ) ( , ) 0 ,

i i i i i i i i m i i i

i m n i n i i n i m

d d d d d d d

d d d d

para cualquier i= 1,…, m. Se define el proceso estocástico ( ( ), ( )), 0N t I t t como

sigue.

1) Sean · 1(( ) 1)m N m procesos de Poisson independientes con parámetros

0( , ) ( , ) , , , 1, , , , 1, , ; 1, , i j n i jd i j i j m y d i j m n N . Si alguno de esos

parámetros vale 0, el proceso de Poisson no tiene eventos.

2) (0)I viene dado por la distribución inicial de probabilidad ,1 i i m , con

(0) 0.N

Page 60: UNIVERSIDAD DE GRANADA - masteres.ugr.es

Proceso de llegadas de Markov en grupo (BMAP)

48

3) Si ( ) ,1 , ( )I t i i m I t y ( )N t permanece igual hasta que ocurre el primer

evento en los ( 1) 1N m procesos de Poisson correspondientes a

0( , ) , , , 1, , i jd i j i j m y ( , ) , , 1, , ; 1, , n i jd i j m n N . Si el siguiente

evento viene del proceso de Poisson correspondiente a 0( , )i jd la fase de la

variable ( )I t cambia de i a j y ( )N t no sufre cambio, 1, , ; .j m j i Sin

embargo, si el siguiente evento viene del proceso de Poisson correspondiente a

( , )n i jd la fase de la variable ( )I t cambia de i hacia j y N t se incrementa en n

unidades, es decir, han ocurrido n llegadas, 1, , 1 .j m y n N

Se demuestra que

i) El tiempo de permanencia en ( , )n i del proceso( ( ), ( )), 0N t I t t , se

distribuye exponencialmente con parámetro 0,( , )i id , para 1, ,i m .

ii) La probabilidad de que la próxima fase sea j y que no haya llegada es

0( , )

0( , )

i j

i i

d

d, dado que el estado actuales ( , ); , , 1, , 0,1,2n i i j i j m y n

iii) La probabilidad de que la nueva fase sea j y que haya k llegadas es

( , )

0( , )

k i j

i i

d

d, dado que el estado actuales ( , )n i para

, 1, , ; 0,1,2.. y 1, ,i j m n k N .

iv) El tiempo de permanencia de ( ), 0I t t en la fase i se distribuye según

una distribución exponencial de parámetro

0( , ) 1( , ) 2( , ) ( , )( ) ( ) ( )) 1, ,i i i i i i n i id d d d i m .

v) Sea ( ), 0I t t 0 0( , ) ( , )( ), ( )i j k k i jD d D d . Se demuestra que ( ), 0I t t

es una CMTC con generador infinitesimal 0 1 kD D D D .

vi) ( ( ), ( )), 0N t I t t es una CMTC con generador infinitesimal dado por

0 1 2

0 1 1

0 1 1

0N

N N

N N

D D D D

D D D DQ

D D D D

.

4.3. PROPIEDADES DE LOS PROCESOS BMAPS Y MEDIDAS DE FUNCIONAMIENTO

En la siguiente sección se van a calcular distintas medidas de funcionamiento de los procesos BMAPs así como ver ciertas propiedades de los mismos. Para ello,

Page 61: UNIVERSIDAD DE GRANADA - masteres.ugr.es

Antonio Hernández Moreno

49

comenzamos calculando las expresiones de la función generatriz de momentos y de su esperanza, pues estos resultados aparecen en diversas propiedades.

Para analizar el proceso de recuento ( ), 0N t t de un BMAP y obtener las

primeras medidas de funcionamiento se definen las siguientes probabilidades de transición

, ,( , ,) 1,ijp i j mn t ,

( , ) ( , ) [ ( ) ; ( ) / (( ) ) ]ij mxmP n t p n t P N t n I t j I t i .

Las ecuaciones diferenciales para su cálculo se pueden obtener de forma análoga a como se obtuvieron para el caso MAP en el capítulo 3.

0( )) 0( )1

( , )

,( )1 1

( ) ( ) (, ·(1 ( · , ·

1, · ))

)

( ) · (

m

ij ij jj ik kjk

k j

Min N n m

ik l kjl k

p n t t p d t p n t d tn

p n t d t o

t

t

0 1 ( , )

( , )( , )· ( 1, )· [ ( , ), ]· Min N n

dP n tP n t D P n t D P n Min N n t D

dt

La interpretación de estas expresiones es clara, ya que ( , ) iP n i t D es la matriz de

transiciones que hay entre n i clientes en el sistema en un tiempo t, y los i que llegan en t. En consecuencia, habrá n i i n clientes tras un tiempo t.

Siguiendo pasos similares a los realizados para el caso MAP, se obtiene la función generatriz de probabilidades. El siguiente teorema muestra el resultado.

Teorema 4.3.1. La función generatriz de probabilidades de un BMAP con ( , )P n t

definido anteriormente viene dado por

* 20 1 2

0

( , ) ( , ) exp[( ) ]n NN

n

P z t P n t z D zD z D z D t

,

si notamos 2 *0 1 2 ( )N

ND zD z D z D D z entonces * *( , ) exp[ ( ) ]P z t D z t .

Demostración: He (2014)

La interpretación del resultado anterior es intuitiva. En la expresión, kz está

relacionado con kD , donde kD es la matriz de razones de llegadas de grupos de tamaño k.

Page 62: UNIVERSIDAD DE GRANADA - masteres.ugr.es

Proceso de llegadas de Markov en grupo (BMAP)

50

*( )D z puede considerarse como la función generatriz de las razones del número de

clientes que llegan por unidad de tiempo, y por tanto su exponencial es la función generatriz de probabilidad del número de clientes llegados en [0, ].t

Conocida la función generatriz dada en el resultado anterior, se pueden calcular distintas medidas del proceso BMAP. La expresión de [ ( )]E N t en los procesos BMAPs

es dada por el siguiente resultado.

Teorema 4.3.2. Sea ( ), 0I t t una CMTC irreducible, es decir, D es irreducible. Dada

α la distribución inicial, se tiene que

1

1

[ ( )] (exp( )( ) ); 0;N

jj

E N t t Dt I D e jD e t

donde y es la distribución estacionaria e inicial de D respectivamente y

1

N

jj

jD e

.

Demostración. He (2014)

NOTA. Este resultado generaliza el caso MAP donde se considera 1N .

La interpretación de la razón de llegada estacionaria viene dada por la expresión

*

1

( , )

z

P z te t

z

.

La razón de llegada de grupos (que no el número total de llegadas) es dado por

1

ˆ ( ) ,N

jj

D e

y concretando aún más, la tasa de llegada de grupos de tamaño j es

j jD e .

Los procesos BMAP mantienen unas similitudes en cuanto a sus propiedades con los procesos MAPs. Analizamos a continuación los principales resultados.

El siguiente teorema muestra la potencia de los procesos BMAPs. Esta clase de procesos es densa en el conjunto de los procesos de llegadas, de forma que cualquier proceso de llegadas puede ser aproximado tanto como se quiera mediante un BMAP. Teorema 4.3.3. Cualquier proceso de llegada estocástico puede ser aproximado por un BMAP.

Page 63: UNIVERSIDAD DE GRANADA - masteres.ugr.es

Antonio Hernández Moreno

51

Demostración. Asmussen y Koole(1993) Comentario. Casi todos los resultados aportados anteriormente para los MAP pueden generalizarse para los BMAP. Este resultado, junto con el teorema de Asmussen y Koole (1993) advierten de la importancia y gran aplicabilidad en la modelización estocástica que obtenemos al usar procesos BMAPs, ya que numerosas situaciones reales pueden ser aproximadas a través de ellos. Teorema 4.3.4. Para cualquier distribución inicial se tiene que

[ ( )]limt

E N t

t

.

La relación entre MAP y BMAP queda de nuevo expuesta a través del siguiente

resultado. Teorema 4.3.5. Sea ( , )X PH T . Para un BMAP el número de llegadas en [0, ]X

tiene función generatriz de probabilidad 1

1 1 00 0

1

( ) (( ) ( ( )) ( ) () )N

kk

k

I D I I T z D I D I I T e T

.

Llegado a este punto, durante la definición en el capítulo 3.3. dedicado a los

procesos MAPs, analizamos las propiedades de superposición y descomposición de procesos MAPs bajo ciertas condiciones. Analizamos estas propiedades para los procesos BMAPs.

4.3.1. SUPERPOSICIÓN DE PROCESOS BMAPS

Como ocurrió en el caso de los procesos MAPs, una de las propiedades más interesantes y de más utilidad de los procesos BMAPs, tal y como ocurría en los procesos MAPs, es que la superposición de procesos BMAPs es igualmente BMAP. Este resultado queda demostrado en el siguiente teorema.

Teorema 4.3.1. Sean los procesos BMAPs independientes 1 2( , , , )ND D D de orden 1m

y 1 2( , , , )MC C C de orden 2m . El proceso de superposición es también un BMAP con

representación matricial 0 0 , ; 1,2, n nD I I C D I I C n , es decir,

0 0 1 2,, ,,n nD C D C n

Page 64: UNIVERSIDAD DE GRANADA - masteres.ugr.es

Proceso de llegadas de Markov en grupo (BMAP)

52

Demostración. Cordeiro and Kharoufch (2012)

Como se observa el resultado es muy similar al caso de los procesos MAPs, pero ampliada al trabajar con una representación matricial de mayor orden, manteniendo la clausura como propiedad.

4.3.2. DESCOMPOSICIÓN DE PROCESOS BMAPS

De igual forma interesa estudiar qué ocurre en el caso de descomposición de procesos BMAPs. Al igual que en el caso de la descomposición del proceso de Poisson y de los procesos MAPs, existen varias formas de proceder al marcado, por ejemplo, marcado grupal, marcado individual,…, de los sucesos de llegada.

A partir del método elegido se obtienen las expresiones de los procesos de llegada de Markov resultantes, siguiendo el camino abierto en el caso de procesos MAPs.

Proposición 4.3.2.1. Sea ( ( ), ( )), 0N t I t t un BMAP con representación matricial

0 1 2 3 , , , , , ND D D D D .Se puede descomponer el proceso BMAP en n tipos de llegadas

usando marcadores independientes con probabilidades 1 , , i nip p 1, ,i N . Así, los

procesos ( ( ), ( )), 0jN t I t t son procesos BMAPs con representación matricial

01

(1 ) ,n

ji i ji ii

D p D p D

para 1, , ; 1, , .j n i N

Demostración. Cordeiro and Kharoufch (2012)

Nota. El paralelismo que se observa en la descomposición de los procesos BMAPs comparado con los procesos MAPs es total, con la única y lógica diferencia de la representación matricial distinta que poseen los BMAPs al tener que trabajar con grupos.

Page 65: UNIVERSIDAD DE GRANADA - masteres.ugr.es

53

CAPÍTULO 5

PROCESO DE LLEGADAS DE MARKOV MARCADAS (MMAP)

5.1. INTRODUCCIÓN

Los procesos de llegada de Markov con llegadas marcadas (MMAP) son un paso más en el ambiente de generalización de los procesos MAPs que hemos llevado a cabo al obtener los BMAP. Ahora se trata de generalizaciones de los procesos BMAPs con diferentes tipos de llegadas, clientes, ítems… La idea es asignar diferentes interpretaciones de eventos según sean las razones de llegada. Para introducir los

MMAP definimos un conjunto de índices 0C que distinguen los distintos tipos de llegada. Comenzamos con distintos ejemplos que motivan el capítulo que se va a desarrollar. Ejemplo 5.1.1.En un problema MMAP los elementos de C0 pueden ser cualquier cosa de interés en modelización estocástica.

1) 0 , , , , C hombre mujer hombre mujer niño donde hay tres elementos.

2) 0 , , , , , , , C A B AA AB BA BB ABB BAB donde hay dos tipos de clientes, A y B,

que pueden llegar individualmente (dos primeros casos), por parejas (siguientes 4 casos), o por tríos, considerando además el orden de llegada.

3) 0 , , , , C A AA AAA AAA AAA donde sólo habría un tipo de cliente pero en

grupo. En este caso el conjunto de índices nos llevaría a la definición de BMAP.

Page 66: UNIVERSIDAD DE GRANADA - masteres.ugr.es

Proceso de llegadas de Markov marcadas (MMAP)

54

5.2. DEFINICIONES

Hemos comentado que un proceso MMAP es una generalización de los procesos BMAPs y MAP. Veamos que las 4 definiciones vistas para esos casos, con ligeras modificaciones tienen vigencia en los procesos MMAP.

Definición 5.2.1. Sea 0C un conjunto de índices. Sean 0 : hD h C matrices no

negativas, con 0D una matriz con elementos no negativos fuera de la diagonal principal

y negativos en dicha diagonal. Sea 0

0 hh C

D D D

un generador infinitesimal de orden

m, siendo m un entero positivo. Sea 0 0( , ) ( , )( ), ( )i j h h i jD d D d para 0h C . Entonces

00 , : hD D h C define un MMAP de la siguiente forma 0 , , ( )( ) , 0hN h C I t tt

1) 00, (0)hN h C

2) La matriz D define una CMTC ( ), 0I t t

3) Para una fase i con ( , ) 0h i id , se define un proceso de Poisson con tasa de

llegada ( , )h i id , para 0 ,1 h C i m . El proceso de Poisson estará operativo si

( )I t i . En otro caso está no operativo.

4) Para1 i m , 0h C , si ( )I t i y hay una llegada del proceso de Poisson ( , )h i id

, entonces ( )hN t se incrementa en 1 unidad.

5) Al final de cada permanencia en el estado i, con probabilidad 0( , )

( , )

i j

i i

d

d, ( )I t pasa

del estado i al j y ( )hN t se mantiene igual, es decir, sin llegadas. Con

probabilidad ( , )

( , )

h i j

i i

d

d, ( )I t pasa del estado i al j y ( )hN t se incrementa en una

unidad, y otra ( )uN t , con1 i m , 0 , u C u h , permanece igual sin llegadas.

A 00 , : hD D h C se le llama representación matricial del MMAP

0 , , ( )( ) , 0hN h C I t tt y ( ), 0I t t es la Cadena de Markov subyacente.

Ejemplo 5.2.1. Procesos de entrada y salida en colas de Markov. Las colas de Markov se describen por cadenas de Markov de parámetro continuo. Para colas de capacidad finita, podemos etiquetar las transiciones correspondientes a una llegada como a, aquellas correspondientes a una salida por d. El conjunto de índices asociado al proceso

Page 67: UNIVERSIDAD DE GRANADA - masteres.ugr.es

Antonio Hernández Moreno

55

MMAP 0C ahora estará formado por los elementos a y d y la matriz de tasas de

transición D estará formada lógicamente por la suma de las matrices 0, a dD D y D .

Los procesos MMAP son usados frecuentemente modelizando procesos de entrada de sistemas estocásticos con muchos tipos de asuntos (por ejemplo, clientes o pedidos). En telecomunicaciones, por ejemplo, una red multiservicio provista de servicios de voz, datos y videos. La naturaleza de la información transmitida desde esas fuentes es radicalmente distinta. Una formulación uniforme para describir la entrada de procesos mientras cada fuente es todavía distinguible será útil para el análisis de la influencia de la información de cada fuente en el sistema. En fabricación, los pedidos de varios artículos son comunes en la práctica. Los MMAP pueden usarse para modelizar los procesos de demanda de los niveles de los artículos de modo que un análisis del inventario puede llevarse a cabo en términos de artículos individuales mientras las correlaciones de los distintos artículos se consideran.

Definición 5.2.2. Sean 00 , : hD D h C satisfaciendo las condiciones de la definición

anterior de MMAP. Definimos la CMTC 0 , , ( )( ) , 0hN h C I t tt con las razones de

transición dadas por 00 , : hD D h C tal que cada hD corresponde al incremento en

una unidad de ( )hN t para el 0h C correspondiente. En este caso, la CMTC 0 , , ( )( ) , 0hN h C I t tt es un MMAP.

Para un MMAP se define un proceso de renovación de Markov

( , , ), 0,1,2, n n nI J n donde nI es la fase justo después de la n-ésima llegada, nJ es

el tipo del n-ésimo llegada y n es el tiempo entre llegadas, concretamente entre las

llegadas n y n1.

Así,

1 0

0 ,

[ , , | ] exp( )x

n n n n h

i j

P I j J h x I i D t dtD

,

que prácticamente es la misma expresión vista en BMAP cambiando el significado y

grafía de kD por el hD actual.

Definición 5.2.3. Sea 00 , : hD D h C satisfaciendo las condiciones de la definición

inicial de MMAP. Sea ( )I t la fase de la CMTC definida por D en t. Sea

Page 68: UNIVERSIDAD DE GRANADA - masteres.ugr.es

Proceso de llegadas de Markov marcadas (MMAP)

56

1 2 1 2 11 0

( )

, k k

h

k J h J h J h J h J h J hk

N n

t L L L n L L

t

L

donde L es la función indicadora. En tales condiciones 0 , , ( )( ) , 0hN h C I t tt es un

MMAP.

La familia de MMAPs es versátil. Así, añadiendo fases y asignando razones de transición de forma adecuada, una amplia gama de procesos de llegadas con especiales características pueden ser construidos como MMAPs. Veamos algunos ejemplos. Ejemplos 5.2.2.

1) Llegadas cíclicas. Si 1 y 2 llegan cíclicamente.

0 1

4 0 0 4;

0 7 0 0D D

; 2

0 0

7 0D

.

2) Individual frente a grupo. Cada llegada de tipo 2 es acompañada de una llegada de tipo 1.

0 1

10 0 9 0;

0 5 0 4D D

; 2,1

0 1

1 0D

.

4) Tras Tipo 2 sigue llegada tipo 1.

0 1

5 0 3 2;

0 10 0 0D D

; 2,1

0 0

8 0D

.

5) Pedidos en grupos individuales.

0 1 1,2,1

5 0 4 0 0 1; ;

0 10 0 9 1 0D D D

y

0 311211 1213312

5 0 4 0 0 1; ;

0 10 0 9 1 0D D D

si los pedidos sin grupo ocurren.

Definición 5.2.4. Como en el caso MAP y BMAP, hay una cuarta definición de MMAP, que es una generalización de la vista en los anteriores tipos de procesos. Sea

,1 i i m números no negativos cuya suma es la unidad. Sean

0( , ) , , , 1, , ) i jd i j i j m y 0( , ) , , 1, , , h i jd i j m h C números no negativos con m

Page 69: UNIVERSIDAD DE GRANADA - masteres.ugr.es

Antonio Hernández Moreno

57

entero finito positivo. Asumiendo que0

0( , ) 0( , ) ( , )1; 1

0 1, ,m m

i i i j h i jj j i jh C

d d d i m

.Se define el proceso estocástico 0 , , ( )( ) , 0hN h C I t tt como sigue

1) Se definen procesos de Poisson independientes con parámetros

0( , ) , , , 1, , ) i jd i j i j m y 0( , ) , , 1, , , h i jd i j m h C . Si alguno de esos

parámetros vale 0, el proceso de Poisson no tiene eventos.

2) (0)I viene dado por la distribución de probabilidad inicial ,1 i i m , con00; 0 ( )hN h C .

3) Si ( ) ,1 , I t i i m ( )I t y 0 ;( ) hN h Ct permanecen igual hasta que el

primer evento ocurra en los procesos de Poisson correspondiendo a

0( , ) , , , 1, , ) i jd i j i j m y 0( , ) , , 1, , , h i jd i j m h C . Si el siguiente

evento viene del proceso de Poisson correspondiente a 0( , )i jd la fase de la

variable ( )I t transiciona de i hacia j y 0 ;( ) hN h Ct no cambia,

1, , ; .j m j i Sin embargo, si el siguiente evento viene del proceso de

Poisson correspondiente a ( , )h i jd la fase de la variable ( )I t cambia de i hacia j y

0 ;( ) hN h Ct se incrementa en una unidad o en un número preespecificado

(tamaño del grupo) en su grupo h y ( )lN t se mantiene igual con 0, l h l C ,0h C .

Además se demuestra que,

i) ( ), 0I t t es una CMTC con generador infinitesimal dado por

00 h

h C

D D D

.

ii) 0 , , ( )( ) , 0hN h C I t tt es un MMAP con tasas de transición 0

0 , , hD D h C .

5.3. PROPIEDADES

Las llegadas de un proceso MMAP, siendo de diferentes tipos, son útiles para conocer cómo distinguirlas o para examinar cuando la llegada de un cierto tipo ocurre. También es útil para ver cómo los procesos de llegada de un tipo especial afectan al

comportamiento de los procesos ( )allN t (Procesos descritos en He (2014) y Neuts

Page 70: UNIVERSIDAD DE GRANADA - masteres.ugr.es

Proceso de llegadas de Markov marcadas (MMAP)

58

(1998)) ,1

( )( )K

all kk

N N tt

.

1. Tipos de llegada: Consideramos la etiqueta de una llegada, la etiqueta de la última llegada antes del tiempo t, o la etiqueta de la primera llegada después de un tiempo

t. Hay tres modos de observar las llegadas. Sea 0

01 , , nC h h donde 0n es un

entero finito positivo. Sea ( )L t dada por la etiqueta de la última llegada antes de un

tiempo t y sea ( )J t componente de un proceso de renovación de Markov

( , , ), 0n n nJ L n (descrito en He (2004); Neuts(1998)). En este caso ( ( ), ( )) L t J t

es un proceso de Markov con generador infinitesimal

1 0

1 0

0

0

h h

h h

D D D

Q

D D D

.

Más resultados sobre los procesos MMAP vienen al considerar la distribución estacionaria.

Teorema 5.3.5. Se tienen los siguientes resultados:

i. Backwardlooking: La probabilidad de que la última llegada antes de un tiempo arbitrario t es marcada por h es dada por 1 0

0 , hD D e h C .

ii. Fordwardlooking: La probabilidad de que la primera llegada después de un

tiempo arbitrario t es marcada por h es dada por 1 00 , .hD D e h C

iii. Para la llegada: la probabilidad de que una llegada arbitraria sea de tipo h

viene dada por*h*

λ

λ, donde * 0

hλ , hD e h C y θ la distribución estacionaria

asociada a la CMTC con generador D.

Demostración. He (2004); Neuts (1998)

2. Procesos de finalización: Consideremos un tiempo de parada de

( ), ( ), ( ), 0J t L t N t t de un MMAP. Un proceso de finalización está definido

como un proceso estocástico el cual es idéntico al MMAP antes de y termina se

en ( )J tras .Para el proceso de finalización sea ( )J t la fase en t, y el vector

( )N t el número de llegadas de los diferentes tipos en t. Así:

Page 71: UNIVERSIDAD DE GRANADA - masteres.ugr.es

Antonio Hernández Moreno

59

( ) ( )

( )

J t si tJ t

J si t

( ) ( )

( )

N t si tN t

N si t

Específicamente, si tiene distribución tipo fase con representación ( , )T ,

podemos definir MMAP* como superposición de MMAP y del proceso de renovación tipo fase con tiempos entre llegadas . El MMAP* tiene K+1 tipos de ítems y matrices con coeficientes

0

0 , , , hD T D I h C I Te .

5.3.1. PROPIEDADES DE SUPERPOSICIÓN Y DESCOMPOSICIÓN DE MMAP

Como es sabido, las propiedades sobre la superposición y descomposición de procesos son de gran interés. Vemos estas propiedades a través de los siguientes resultados. Teorema 5.3.1.1. (Composición de MMAP) Un proceso estocástico ( )T t es una

composición de MMAP si ( )

,1 1

( )kN tK

k nk n

T t v

donde 1 , , (( ) )KN N tt son procesos de

recuento de un MMAP con 0 1,2, , C K y , 1 , 1k nv k K n . Si derivamos la

transformada de Laplace-Stietjes de ( )T t para los siguientes casos:

1. , , 1k nv n son secuencias de variables aleatorias independiente e

idénticamente distribuidas, para1 k K , las cuales son independientes de cada una de las otras e independiente del MMAP.

2. La secuencia , ,1 k nv n tienen tiempos entre llegadas sucesivos de

un MAP con representación 0 1( , )k kC C de orden km , para 1 k K .

Al igual que se analizó para el capítulo anterior, los MMAPs también pueden descomponerse y superponerse como en los modelos anteriores.

Teorema 5.3.1.2. (Superposición de procesos MMAPs) Sean los procesos MMAPs

independientes 00( , : )hD D h C de orden 1m y 0

0 , :( )hC C h C de orden 2m . El

proceso de superposición es también un MMAP con representación matricial

00D I I C , 0, hhD I I C h C , es decir, 0 00, , h hD C D C h C .

Page 72: UNIVERSIDAD DE GRANADA - masteres.ugr.es

Proceso de llegadas de Markov marcadas (MMAP)

60

Teorema 5.3.1.3. Adelgazamiento de MAP. Sea un MAP con representación 0 1( , )D D .

Después de un tiempo exponencial con parámetro λ, la siguiente llegada es marcada como de tipo 2. Las llegadas durante el tiempo exponencial son de tipo 1. Justo después de la llegada tipo 2 se reinicia el tiempo exponencial. El proceso de llegada resultante es MMAP con representación matricial

0 10 1

0

0;

0 0 0

D I I DC C

D

; 2

1

0 0

0C

D

Demostración: He (2014)

Teorema 5.3.1.4. Sea 0 , , ( )( ) , 0hN h C I t tt un MMAP con representación

matricial 00 , : hD D h C . Se puede descomponer el proceso MMAP en n tipos de

llegadas usando marcadores independientes con probabilidades 1 , , i nip p 0i C . Así,

los procesos , ( , ( ) ) 0jN I tt t para j=1,…,n son procesos MMAPs con representación

matricial

01

(1 ) ,n

ji i ji ii

D p D p D

para 01, , ; .j n i C

5.4. MEDIDAS DE FUNCIONAMIENTO

Como se ha realizado en capítulos anteriores, se van a analizar algunas medidas asociadas a los procesos MMAPs.

Estudiamos en primer lugar algunas funciones de interés como el número de llegadas en (0,t]. Consideramos

0 0( )( , ), [ ( ) , ( ) , / (0) ]ij h h hp n h C t P I t i N t n h C I i ,

0 0(( , ), ) / ( )(0) ) ( ( , ), )h ij hP n h C t I i p n h C t ,

0 0

* 0 0

0,

( , ), (( ,) ,( ) ) h

h

nh h h

n h C h C

P z h C t P n h C t z

,

0

* 0 00( ), , 1 , h h h h

h C

D z h C D z D z h C

.

Page 73: UNIVERSIDAD DE GRANADA - masteres.ugr.es

Antonio Hernández Moreno

61

Para obtener medidas de funcionamiento es necesario determinar la función generatriz de probabilidades conjunta, la cual viene dada en el siguiente resultado.

Teorema 5.4.1. Para un MMAP, la función general de probabilidad conjunta para el número de llegadas en [0,t]viene dada por

* 0 * 0, exp( , ) (( )), hhP h C D z ht C tz .

Demostración. He (2014)

Ejemplo 5.4.1. Sea el conjunto de índices

0 , , , , C hombre mujer hombre mujer niño ,

entonces una representación matricial del MMAP puede ser

0

2 4 1.6 2 0.2;

3 10 2 0HD D

;

1 0.2 1 0;

3 0 2 0M HMND D

.

Se obtiene

* 0 * 00( ), , exp( , ) ex) p( (( ) )h h H H M M HMN HMNP z h C t D z h C t D z D z D z D t

La expresión

* 0 * 0( , ), exp( , ) ( )( )h hP z h C t D z h C t

puede usarse para obtener varias razones de llegada. Por ejemplo, tomando derivadas

parciales con respecto a hz

0

* 0

1

0 1,

( , ),· ·

!C

nh n

hnh

z C C

P z h C t te D D e

z n

Dada una distribución inicial , podemos obtener tanto al esperanza como la

varianza de ( )hN t .

1[ (exp( ) )( ) ;)] 0(h h hE N t Dt It D e D e t ,

Page 74: UNIVERSIDAD DE GRANADA - masteres.ugr.es

Proceso de llegadas de Markov marcadas (MMAP)

62

donde h hD e , que es la razón de llegada del grupo tipo h, y es la distribución

estacionaria de la CMTC con generador D.

De igual forma, la varianza:

2 1

1 1

[N ( )] ( 2 2 )

2 exp( )

( )

( ) ( )( )

h h h h h

h h

Var t D D e D e t

D D e Dt I D e D e

Ejemplo 5.2.4.: Para el ejemplo anterior en concreto, si definimos

( ) ( )HN t =”Número total de hombres llegados”

( ) ( )MN t =”Número total de mujeres llegadas”

( ) ( )NN t =”Número total de niños llegados”

Obviamente tenemos que

( ) ( ) ( ) ( )H H HMNt NtN N t

( ) ( ) ( ) ( )M M HMNt NtN N t

( ) ( ) ( ) ( )N N HMNt NtN N t

Y con ello:

( ) ( ) ( )

, , ,

[ ; ; ; / (0) ];1

( )

( ) ( ) ,) ;( ( )

ij H M N

H H M H N N

p n n n t

P N n N n N n I j I i it t mt jt

( , , , ) ( , , ,( ))H M N ij H M NP n n n t p n n n t

*( ) ( ) ( )

, , 0( ) ( ) ( ), , , · ( , , , )( ) NH M

H M N

nn nH M N H M N

n n nH M NP z z z t z z z P n n n t

Se puede demostrar que:

( ) ( ) ( ) ( ) ( ) ( ) ( ) ( )*

0, , , ) exp(( ) )( H M N H H M HM H M MN NP z z z t D z D z D z z z D t .

Las expresiones de las covarianzas y correlaciones de 0 , , ( )( ) , 0hN h C I t tt

pueden calcularse explícitamente. Sin pérdida de generalidad, se asume que 0 1,2C

Teorema 5.4.2. Para la versión estacionaria del MMAP con representación 0 1 2( , , )D D D ,

Page 75: UNIVERSIDAD DE GRANADA - masteres.ugr.es

Antonio Hernández Moreno

63

la covarianza entre 1( )N t y 2 ( )N t está dada por

1 2

21

1 2 31

21 1

31

( , )

2 ( )

( e

( ) ( )

( ) ( xp( () ) .) )

k kk

k kk

Cov N N

D D e D e t

D D e Dt I D e D e

t t

Demostración. He (2014).

Page 76: UNIVERSIDAD DE GRANADA - masteres.ugr.es

Proceso de llegadas de Markov marcadas (MMAP)

64

Page 77: UNIVERSIDAD DE GRANADA - masteres.ugr.es

65

CAPÍTULO 6

APLICACIÓN EN FIABILIDAD

En este capítulo se quiere aplicar los conocimientos y técnicas descritos en los capítulos anteriores a un caso específico de sistema de fiabilidad. Para ello, se definirán de forma breve conceptos básicos de fiabilidad, para pasar a introducir el sistema concreto al que se van a aplicar las técnicas de procesos de llegada markovianos vistas hasta el momento.

6.1. INTRODUCCIÓN

Como se ha comentado, el objetivo final de este trabajo está en el estudio de los procesos de llegada Markovianos (MAP), sus ampliaciones y sus aplicaciones, en concreto en su aplicación al campo de la fiabilidad. Es por ello que debemos referirnos brevemente a este mundo de la fiabilidad para entender algunos de los conceptos con los que posteriormente trabajaremos en la práctica.

Un sistema se define como un conjunto de elementos independientes que interaccionan entre sí para realizar una tarea común.

La fiabilidad de un sistema se estudia para poder determinar probabilísticamente el comportamiento del fallo o cualquier otro evento asociado a un sistema.

La evaluación de la fiabilidad de los sistemas lógicos se realiza mediante distribuciones de probabilidad, lo que se explica intuitivamente al considerar cómo fallan elementos de un mismo tipo, que han sido fabricados, y que trabajan en las mismas condiciones. El tiempo de funcionamiento correcto es específico para cada uno, es decir, que todos los elementos no fallan después del mismo tiempo de operación. Si se registran los tiempos hasta el fallo de cada uno de los elementos observados tendremos la distribución de probabilidad de fallo de este tipo de elementos cuando se fabrican y operan en las condiciones definidas. La distribución de probabilidad de fallo

Page 78: UNIVERSIDAD DE GRANADA - masteres.ugr.es

Aplicación en Fiabilidad

66

de otro grupo de elementos del mismo tipo pero fabricado según otro proceso, o que trabaja en otras condiciones posiblemente será distinta a la anterior.

Según se describe en el párrafo anterior, la ocurrencia de fallos en un grupo de elementos de un mismo tipo e iguales características de fabricación y operación es aleatoria en el tiempo. En consecuencia, el tiempo hasta el fallo, T, es una variable aleatoria.

La función de distribución del tiempo de vida (o fallo), ( )F t , se define como la

función de distribución de la variable aleatoria T – no negativa y continua -, definida como la probabilidad de fallo de un producto en condiciones preestablecidas, en un intervalo de tiempo hasta t, dado que se encontraba en condición operativa en el instante inicial.

La probabilidad de que el elemento funcione correctamente hasta el tiempo t es ( ) 1 ( )R t F t siendo ( )R t la función que representa la fiabilidad del elemento. Por tanto

la función de fiabilidad de un elemento no reparable se define como la probabilidad de que realice su función sin fallo en un tiempo dado y en unas condiciones especificadas. Es decir, la fiabilidad es la probabilidad de supervivencia del elemento.

Sus expresiones indican que la función de distribución de probabilidad de fallo y la fiabilidad son complementarias. Por tanto, y dado que la función de densidad de probabilidad de fallo es la derivada de la función de distribución de probabilidad de fallo, se tienen las siguientes relaciones.

0

( ) [ ] ( ) ,t

F t P T t f x dx

( ) 1 ( ),R t F t

siendo la función f la densidad de la variable.

Se observa cómo esta función de fiabilidad es monótona no creciente y cumple que (0) 1 R y ( ) 0.R

La función tasa de fallo o función de riesgo (hazard function), indica la razón de fallo inmediato dado que el componente está funcionando en ese momento. Matemáticamente,

[ | ] ( )( ) lim

( )t

P t T t t T t f th t

t R t

Es bastante común que el comportamiento de fallos de dispositivos sea descrito en términos de sus funciones de riesgo.

Page 79: UNIVERSIDAD DE GRANADA - masteres.ugr.es

Antonio Hernández Moreno

67

La función tasa de fallo o función de riesgo acumulada también será de utilidad ya que será recta si la tasa de fallos es constante, crece por encima de la recta si es creciente y por debajo si es decreciente. Se define como,

0

( ) ( )t

H t h x dx

El sentido de la fiabilidad es realizar estimaciones del tiempo de funcionamiento sin fallos de los distintos sistemas o componentes. Como hemos visto, esto es posible a partir de las funciones recién definidas como son la función de distribución ( ),F t de

supervivencia ( )R t , de densidad ( )f t y/o detasa de fallos, ( ).h t

6.2. DESCRIPCIÓN DEL SISTEMA

En este apartado se introduce el sistema de fiabilidad al que se le van a aplicar las técnicas de los capítulos anteriores.

En concreto, se va a considerar un sistema de fiabilidad con dos unidades y un reparador (una unidad online y la otra en reserva pasiva). Si ambas unidades están listas para el funcionamiento, una estará trabajando y la otra en espera. Si una unidad falla, se envía al reparador para su reparación y la unidad en espera entra en funcionamiento. Si la reparación concluye antes de un nuevo fallo, la unidad reparada queda en espera. Si el fallo, sin embargo, acaece antes de terminar la reparación, la nueva unidad que ha fallado queda en espera de reparación, entrando en funcionamiento la unidad que está en reparación en cuento sea reparada.

Para el análisis del sistema se van a considerar tres modelos distintos. Uno donde todos los tiempos implícitos son exponenciales con razones de fallo y reparación distintos; un segundo donde los tiempos de vida de ambas unidades son exponenciales de igual parámetro y el tiempo de reparación exponencial con igual parámetro y un tercer modelo donde los tiempos implícitos son tipo fase.

Modelo 1. Tiempos exponenciales distintos

Los tiempos de fallo y reparación se distribuyen según una distribución exponencial

de parámetros respectivos para las dos unidades 1 , 2 , 1 y 2 respectivamente.

Los estados de cada componente los vamos a notar como sigue,

- 0, cuando está siendo reparada.

Page 80: UNIVERSIDAD DE GRANADA - masteres.ugr.es

Aplicación en Fiabilidad

68

- 1, cuando está en espera de reparación (cola de reparación).

- 2, cuando está en espera de funcionamiento (standby, reserva).

- 3, cuando se encuentre en funcionamiento (unidad online).

Sean 1( )I t y 2 ( )I t el estado de la unidad 1 y de la unidad 2 en el tiempo t. El

proceso 1 2 ( ) ( ( ), ( )), 0I t I t I t t tiene espacio de estados

(3,2), (3,0), (2,3), (1,0), (0,1), (0,3).

Se está interesado en el número de reparaciones en[0, ]t - el número de fallos lo

estudiamos al considerar el proceso MMAP-. Se definen los eventos del proceso de Poisson asociado con tasas de reparación como llegadas (correspondiendo a la matriz

D1). El resto del proceso de Poisson corresponde a la matriz 0D . Sea ( )N t el número de

llegadas asociadas a la cadena de Markov en tiempo continuo ( ), 0I t t . Así definido,

es fácil ver que ( ( ), ( )), 0N t I t t es un MAP con representación matricial

1 1

2 2

1 2 10

2 1 2

2

1

0 0 0 0(3, 2)

0 0 0 0(2,3)

0 0 0 0(3,0)

0 0 0 0(0,3)

0 0 0 0 0(1,0)

0 0 0 0 0(0,1)

D

,

21

1

2

1

0 0 0 0 0 0(3, 2)

0 0 0 0 0 0(2,3)

0 0 0 0 0(3,0)

0 0 0 0 0(0,3)

0 0 0 0 0(1,0)

0 0 0 0 0(0,1)

D

.

Modelo 2. Tiempos exponenciales iguales para funcionamiento y reparación respectivamente

Una variedad para este modelo introducido sería la suposición, por simplicidad, de que las dos unidades son idénticas, es decir, tienen la misma distribución para el tiempo

de reparación y para los tiempos de fallo, respectivamente (exponencial con razón y

). Ambos modelos serán estudiados. Siguiendo nuestro interés en el número de reparaciones entre[0, ]t . Así definimos los eventos del proceso de Poisson asociado con

tasas de reparación como llegadas (correspondientes como sabemos a la matriz 1D ). El

Page 81: UNIVERSIDAD DE GRANADA - masteres.ugr.es

Antonio Hernández Moreno

69

resto de eventos del proceso de Poisson corresponden a 0D . Sea ( )N t el número de

dichas llegadas asociadas a la cadena de Markov en tiempo continuo ( ), 0I t t . En

esta ocasión, se definen los estados I(t) como el número de unidades en reparación en el tiempo t. Se esta forma, ( ( ), ( )), 0N t I t t es un MAP y su representación matricial

viene dada por

0

0 0

1 0 ,

2 0 0

D

1

0 0 0 0

1 0 0 .

2 0 0

D

En el caso de haber estado igualmente interesados en el número de fallos podríamos considerar el MAP ( ( ), ( )), 0N t I t t con representación matricial

0

0 0 0

1 0 ,

2 0

D

1 0

0

0 0 0

1 0 .

2 0 0

D

Este último MAP lo consideraremos dentro del análisis MMAP – capítulo 6.4.- haciendo uso del conjunto de índices.

Modelo 3. Tiempos de funcionamiento y reparación tipo fase

Finalmente, se considerará que ambas unidades son multi-estados, atraviesan estados de funcionamiento y de reparación distintos, considerando que el tiempo de

funcionamiento de cada unidad es tipo fase con representación 1 1( , )T y 2 2( , )T

respectivamente. La reparación también es multi-estados considerando tipo fase con

representaciones para cada unidad 1 1( , )S y 2 2( , )S su comportamiento.

El MAP que estudia el número de reparaciones en este caso viene dado por

Page 82: UNIVERSIDAD DE GRANADA - masteres.ugr.es

Aplicación en Fiabilidad

70

02 1 1

02 1 2 2

01

1

1 20 0

1 2

2

1

2

(3,2) 0 0 0 0

(2,3) 0 0 0 0

(3,0) 0 0 0 0

(0,3) 0 0 0 0

(1,0) 0 0 0 0 0

(0,1) 0 0 0 0 0

T

T S

T

T T

TD

I

S T TI

S

S

,

02

01

02 2 1

01 1 2

1

0 0 0 0 0 0(3, 2)

0 0 0 0 0 0(2,3)

0 0 0 0 0(3,0)

0 0 0 0 0(0,3)

0 0 0 0 0(1,0)

0 0 0 0 0(0,1)

I S

S ID

S

S

.

Si se consideran distribuciones tipo fase con iguales representaciones para funcionamiento y reparación, ( , )T y ( , )S , se tiene que el MAP que estudia el número

de reparaciones viene dado por

0

00

0 0

1 0 ,

2 0 0

T

T

T

T ID S

S

01

0

00 0 0

1 0 .

2 0 0

0I SD

S

En este caso también se puede estudiar el MAP que analiza el número de fallos hasta un determinado tiempo. Este MAP viene dado por

00

0

0 0 0

1 ,

2 0

0D T S

T

I S

S S

0

01 0 0

0

0 0 0

1 .

2 0 0

T

TD I

Page 83: UNIVERSIDAD DE GRANADA - masteres.ugr.es

Antonio Hernández Moreno

71

En la sección 6.4 se hará un análisis detallado.

6.3. ANÁLISIS MAP

En esta sección se van a presentar distintas simulaciones numéricas para los modelos presentados. Para el desarrollo se comenzará desde el modelo más simple (Modelo 2) al más complejo.

Modelo 2

Para el modelo 2 propuesto, podemos calcular medidas de funcionamiento del mismo, basándonos en su modelización MAP con la representación matricial recién expuesta.

Uno de nuestros objetivos es el estudio ( )N t y para ello podemos calcular su

esperanza y su varianza y a partir de ellos el índice de dispersión, medidas definidas en el capítulo 3.4. Recordamos las expresiones,

11[ ( )] ( ( ) )( ) ; 0E N t t exp Dt I D e D e t

2 11 1[ ( )] ( 2 2 ( ))Var N t D D e D e t

1 11 1 2 ( )( ) ( )( )D D e exp Dt I D e D e .

Comenzamos calculando la distribución estacionaria de la cadena de Markov.

Sabemos que 0 1D D D . La expresión de la distribución estacionaria es también

conocida0

1

D

e

.

Resolviendo el sistema de ecuaciones para los dos modelos presentados, primero para el caso de considerar idénticas ambas unidades.

0

0

D

Se obtienen como resultados genéricos para los parámetros de la distribución estacionaria los siguientes valores,

Page 84: UNIVERSIDAD DE GRANADA - masteres.ugr.es

Aplicación en Fiabilidad

72

1 2

2 2 2

3 2

En la siguiente tabla se muestran según los valores de y , y con dicho valor

obtenemos la tasa de llegada estacionaria 1D e correspondiente, que indicaría el

número de reparaciones completas por unidad de tiempo.

1 2 3 1D e

0.01 0.5 0.9800078401 0.0196001568 0.0003920031 0.00999608 0.015 0.5 0.9700261907 0.0291007857 0.0008730236 0.0149869 0.02 0.5 0.960061444 0.038402458 0.001536098 0.01996928 0.025 0.5 0.950118765 0.047505938 0.00237529 0.02494062 0.03 0.5 0.940203084 0.056412185 0.003384731 0.02989846 0.01 0.4 0.9750152346 0.0243753809 0.0006093845 0.00999390 0.015 0.4 0.962550760 0.036095653 0.001353587 0.0149797 0.02 0.4 0.950118765 0.047505938 0.002375297 0.01995249 0.025 0.4 0.937728938 0.058608059 0.003663004 0.02490842 0.03 0.4 0.925390399 0.069404280 0.005205321 0.02984384 Tabla 6.3.1. Simulación distribución estacionaria .Modelo 2

Dada pues una distribución inicial (1,0,0) , donde ambas unidades inicialmente

están operativas, para cada t se obtiene de manera directa el valor esperado de ( )N t , su

varianza, y a partir de estas dos medidas su coeficiente de variación y su índice de dispersión. De nuevo, para los distintos valores de y y ahora para distintos valores

de t (probamos con t = 1, 10, 100) se obtienen,

t ( )E N t ( )Var N t

0.02 0.5 1 0.004238295 0.01995479 0.02 0.5 10 0.1587923 0.1988646 0.02 0.5 100 1.955576 1.985505 0.03 0.5 1 0.006340343 0.02985158 0.03 0.5 10 0.2370007 0.2963114 0.03 0.5 100 2.927069 2.952945 0.02 0.4 1 0.003496267 0.01993465 0.02 0.4 10 0.1489426 0.1983749 0.02 0.4 100 1.94323 1.977922 0.03 0.4 1 0.005229691 0.02978674 0.03 0.4 10 0.2218645 0.2947698 0.03 0.4 100 2.905346 2.929073

Tabla 6.3.2. Simulación Medidas de Funcionamiento Modelo 2

Page 85: UNIVERSIDAD DE GRANADA - masteres.ugr.es

Antonio Hernández Moreno

73

Gráficamente, si llamamos a las series formadas por los distintos valores de y

, respectivamente, como A(=0.02, =0.5), B(=0.03, =0.5) , C(=0.02, =0.4) y

D(=0.03, =0.4), podemos representar la esperanza y la varianza como sigue observando un paralelismo claro en estas dos medidas.

Gráfico 6.3.1. Esperanza Matemática según los distintos valores de y

Gráfico 6.3.2. Varianza según los distintos valores de y .

0

0,5

1

1,5

2

2,5

3

3,5

1 6

11

16

21

26

31

36

41

46

51

56

61

66

71

76

81

86

91

96

Esperanza Matemática

A

B

C

D

0

0,5

1

1,5

2

2,5

3

3,5

1 6

11

16

21

26

31

36

41

46

51

56

61

66

71

76

81

86

91

96

Varianza

A

B

C

D

Page 86: UNIVERSIDAD DE GRANADA - masteres.ugr.es

Aplicación en Fiabilidad

74

Modelo 1

En la resolución de la distribución estacionaria, en el caso de considerar el modelo anterior planteado con las dos unidades no obligatoriamente iguales, queda

2 22 1 2 2 2 2 1 1 2 1 1 1

2 21 1 2 2

1 22 22 2 1 1

13 1

2

24 2

1

21

5 122

22

6 221

( ) ( ) 0

(1 ) (1 ) 1

.

Tal y como se presentó en el modelo anterior, se presenta una tabla con los valores de la

distribución estacionaria para este modelo, para distintos valores de 1 2, 1 2, , y de t.

1 2 1 2 1 2 3 4 5 6 1D e

0.01 0.01 0.5 0.4 0.487 0.490 0.012 0.010 0.000 0.000 0.009 0.02 0.01 0.5 0.5 0.320 0.653 0.013 0.013 0.001 0.000 0.0133 0.03 0.01 0.5 0.6 0.238 0.735 0.012 0.015 0.001 0.000 0.0149 0.01 0.03 0.4 0.4 0.730 0.232 0.018 0.017 0.000 0.001 0.0149 0.02 0.03 0.4 0.5 0.575 0.371 0.023 0.028 0.001 0.002 0.024 0.03 0.03 0.4 0.6 0.474 0.463 0.024 0.035 0.001 0.003 0.030 Tabla 6.3.3. Simulación distribución estacionaria Modelo 1

1 2 1 2 t ( )E N t ( )Var N t

0.01 0.01 0.5 0.4 100 1.953175 0.9976252 0.02 0.03 0.4 0.5 100 3.315536 2.445802 0.03 0.01 0.5 0.6 100 2.686251 1.773229 0.03 0.03 0.4 0.6 100 3.852308 2.94801

Tabla 6.3.4. Simulación Medidas de Funcionamiento Modelo 1

Page 87: UNIVERSIDAD DE GRANADA - masteres.ugr.es

Antonio Hernández Moreno

75

6.4. ANÁLISIS MMAP

Siguiendo con el estudio del sistema planteado, se puede estudiar el problema de analizar el número de reparaciones y el número de fallos en el intervalo (0, ]t de una

forma conjunta y no a través de los dos procesos MAP, uno para las reparaciones y otro para los fallos, aplicando procesos MMAP.

Modelo 1

El modelo 1, con tiempos exponenciales distintos, es analizado mediante MMAP para estudiar el número de fallos y reparaciones hasta un cierto tiempo. Si definimos

0 , C fallo reparación , entonces el MMAP ( ( ), ( ), ( )), 0 r fN t N t I t t viene dado

como sigue,

1

2

1 20

2 1

2

1

0 0 0 0 0(3, 2)

0 0 0 0 0(2,3)

0 0 0 0(3,0)

0 0 0 0 0(0,3)

0 0 0 0 0(1,0)

0 0 0 0 0(0,1

0

)

D

,

2

1

2

1

0 0 0 0 0 0(3, 2)

0 0 0 0 0 0(2,3)

0 0 0 0 0(3,0)

0 0 0 0 0(0,3)

0 0 0 0 0(1,0)

0 0 0 0 0(0,1)

rD

,

1

2

1

2

(3,2) 0 0 0 0

(2,3) 0 0 0 0 0

(3,0) 0 0 0 0

(0,3) 0 0 0 0

(1,0) 0 0 0 0 0

(0,1) 0

0

0

0

0

0 0 0 00

fD

.

Page 88: UNIVERSIDAD DE GRANADA - masteres.ugr.es

Aplicación en Fiabilidad

76

Modelo 2

Debido a la complejidad de cálculo del modelo 1, vamos a calcular la representación del MMAP asociada al modelo 2, donde las unidades las considerábamos iguales.

Se definen los eventos del proceso de Poisson asociado con razones de reparación

de r llegadas (correspondientes a rD ) y los eventos un proceso de Poisson con razones

de fallo de f llegadas (correspondientes a fD ). El resto del proceso de Poisson

corresponde a 0D . Es claro cómo se puede definir el conjunto de índices asociado al

proceso MMAP 0 , C fallo reparación . Sea ( )rN t el número de reparaciones

completadas en el periodo (0, ]t y ( )fN t el número de fallos acaecidos en el periodo

(0, ]t .

El MMAP queda planteado de la siguiente manera, ( ( ), ( ), ( )), 0 r fN t N t I t t con

representación matricial,

0

0 0 0

1 0 0

2 0 0

D

0 0 0 0

1 0 0

2 0 0rD

0 0 0

1 0 0

2 0 0 0fD

donde si, por ejemplo, consideramos 0.02 y 0.4 , la distribución estacionaria de

( ), 0I t t será – tal y como se muestra en la tabla 6.3.1.

1

2

3

0.95011876

0.04750594

0.002375

y con ella se pueden calcular la razón de reparaciones, 0.01995238rD e y la razón

de fallos 0.01995249fD e .

Page 89: UNIVERSIDAD DE GRANADA - masteres.ugr.es

Antonio Hernández Moreno

77

Modelo 3

Tiempos distintos

Si consideramos que cada tiempo de funcionamiento y reparación siguen distribuciones tipo fase distintas, de forma que atraviesan múltiples estados de funcionamiento y reparación, se tiene que el MMAP tiene la siguiente representación matricial,

1

1 2

1 2

2

0

2

1

0 0 0 0 0(3, 2)

0 0 0 0 0(2,3)

0 0 0 0(3,0)

0 0 0 0 0(0,3)

0 0 0 0 0(1,0)

0 0 0 0(0,

0

01)

T

T S

S T

S

S

T

D

,

02

01

02 2 1

01 1 2

0 0 0 0 0 0(3, 2)

0 0 0 0 0 0(2,3)

0 0 0 0 0(3,0)

0 0 0 0 0(0,3)

0 0 0 0 0(1,0)

0 0 0 0 0(0,1)

r

I S

S ID

S

S

,

02 1 1

01 2 2

01

02

(3, 2) 0 0 0 0

(2,3) 0 0 0 0 0

(3,0) 0 0 0 0

(0,3) 0 0 0 0

(1,0) 0 0 0 0 0

(0,1) 0 0 0 0

0

0

0

0

0

0

f

I

I

T

T

TD

T

.

Tiempos iguales

Continuando con el análisis de sistema concretos, es sabido que las distribuciones tipo fase son muy comunes al trabajar con los sistemas de fiabilidad. Se puede por tanto, asumir que los tiempos de fallo tienen una distribución tipo fase con representación ( , )T y que los tiempos de reparación, igualmente, tienen por distribución una tipo

fase de representación ( , )S . En este caso, el MMAP ( ( ), ( ), ( )), 0 r fN t N t I t t puede

construirse, tal y como muestra He (2014), a través de la siguiente representación matricial.

Page 90: UNIVERSIDAD DE GRANADA - masteres.ugr.es

Aplicación en Fiabilidad

78

0

0 0 0

1 0 0

2 0 0

T

D T I I S

S

0

0

0 0 0 0

1 0 0

2 0 0rD I S

S

0

0

0 0 0

1 0 0

2 0 0 0f

T

D T I

donde 0S Se y 0T Te .

Considerando un ejemplo numérico, con las distribuciones tipo fase del menor orden posible para simplificar los cálculos – orden 2 -, donde (0,1) ,

0.5 0.45

0.3 0.4T

y (1,0) , 1.17 0.5

0.5 1.17S

, la representación matricial del

MMAP será,

0

0.5 0.45 0 0 0 0 0 0

0.3 0.4 0 0 0 0 0 0

0 0 1.67 0.5 0.45 0 0 0

0 0 0.5 1.67 0 0 0 0

0 0 0.3 0 1.57 0.5 0 0

0 0 0 0.3 0.5 1.57 0 0

0 0 0 0 0 0 1.17 0.5

0 0 0 0 0 0 0.5 1.17

D

Page 91: UNIVERSIDAD DE GRANADA - masteres.ugr.es

Antonio Hernández Moreno

79

0 0 0 0 0.05 0 0 0

0 0 0 0 0.1 0 0 0

0 0 0 0 0 0 0.05 0

0 0 0 0 0 0 0 0.05

0 0 0 0 0 0 0.1 0

0 0 0 0 0 0 0 0.1

0 0 0 0 0 0 0 0

0 0 0 0 0 0 0 0

fD

,

0 0 0 0 0 0 0 0

0 0 0 0 0 0 0 0

0.67 0 0 0 0 0 0 0

0.67 0 0 0 0 0 0 0

0 0.67 0 0 0 0 0 0

0 0.67 0 0 0 0 0 0

0 0 0 0 0.67 0 0 0

0 0 0 0 0.67 0 0 0

rD

donde se cumple que 0 f rD D D D .

La distribución estacionaria viene dada por

0.3482,0.5323,0.0135,0.0080,0.0619,0.0220,0.0083,0.0058 .

Finalmente, las razones de reparación y fallo, iguales en régimen estacionarios, son 0.0801.

Page 92: UNIVERSIDAD DE GRANADA - masteres.ugr.es

Aplicación en Fiabilidad

80

Page 93: UNIVERSIDAD DE GRANADA - masteres.ugr.es

81

APÉNDICE: SINTAXIS INFORMÁTICA

Se adjunta a continuación la sintaxis utilizada en los modelos analizados en el capítulo 6. El programa elegido para realizar la mayoría de los cálculos necesarios ha sido R Project. R es un paquete estadístico, software libre, que permite un análisis matemático y estadístico de una forma profesional de un conjunto de datos.

R Project utiliza un paquete base donde incluye una gran variedad de opciones de análisis, ampliable a través de paquetes específicos según el interés del programador. En nuestro caso, se ha tenido que instalar uno de estos paquetes específicos, denominado expm para poder realizar el cálculo de la exponencial de una matriz.

En un primer caso, se presenta la sintaxis creada para el modelo 2 presentado en el capítulo 6, donde las dos unidades se podían considerar iguales. Así, para el cálculo de la distribución estacionaria y para el cálculo de las medidas de funcionamiento del sistema para los distintos valores de los parámetros se uso la siguiente sintaxis.

tita=c(beta^2/(gamma*beta+beta^2+gamma^2), beta*gamma/(gamma*beta+beta^2+gamma^2),

gamma^2/(gamma*beta+beta^2+gamma^2) )

d0=matrix(c(‐gamma,gamma,0,0,‐gamma‐beta,gamma,0,0,‐beta), nrow=3, ncol=3, byrow = TRUE)

d1= matrix(c(0,0,0,beta,0,0,0,beta,0),nrow=3,ncol=3, byrow = TRUE)

ee=matrix(c(1,1,1),nc=1)

l=tita%*%d1%*%ee

d=d0+d1

alpha=c(1,0,0)

I=matrix(c(1,0,0,0,1,0,0,0,1),nrow=3,ncol=3)

esperanza=l*t‐ alpha%*%(expm(d*t)‐I)%*%(solve(d‐ee%*%tita))%*%d1%*%ee

varianza= (l‐2*l^2‐2*tita%*%d1%*%(solve(d‐ee%*%tita))%*%d1%*%ee)*t + 2*tita%*%d1%*%(solve(d‐ee%*%tita))%*%(expm(d*t)‐I) %*%(solve(d‐ee%*%tita))%*%d1%*%ee

El código para obtener las gráficas de la esperanza matemática y de la varianza, para t=1, …, 100 es,

Page 94: UNIVERSIDAD DE GRANADA - masteres.ugr.es

Apéndice: Sintaxis Informática

82

y=100

simula_esperanza= array(1:y,dim=c(y,1))

simula_varianza=array(1:y,dim=c(y,1))

for (t in 1:y)

tita=c(beta^2/(gamma*beta+beta^2+gamma^2), beta*gamma/(gamma*beta+beta^2+gamma^2),

gamma^2/(gamma*beta+beta^2+gamma^2) )

d0=matrix(c(‐gamma,gamma,0,0,‐gamma‐beta,gamma,0,0,‐beta), nrow=3, ncol=3, byrow = TRUE)

d1= matrix(c(0,0,0,beta,0,0,0,beta,0),nrow=3,ncol=3, byrow = TRUE)

ee=matrix(c(1,1,1),nc=1)

la=tita%*%d1%*%ee

d=d0+d1

alpha=c(1,0,0)

Id=matrix(c(1,0,0,0,1,0,0,0,1),nrow=3,ncol=3)

esperanza=la*t+alpha%*%(expm(d*t)‐Id)%*%(solve(d‐ee%*%tita))%*%d1%*%ee

varianza= (la‐2*la^2‐2*tita%*%d1%*%(solve(d‐ee%*%tita))%*%d1%*%ee)*t + 2*tita%*%d1%*%(solve(d‐ee%*%tita))%*%(expm(d*t)‐Id) %*%(solve(d‐ee%*%tita))%*%d1%*%ee

simula_esperanza[t]=esperanza

simula_varianza[t]=varianza

simula_esperanza

simula_varianza

Para el modelo 1, donde las unidades ya no se consideraban iguales, la sintaxis utilizada, muy similar, fue,

A= matrix(c(nu1*nu2*lambda1+nu1*lambda1^2,‐nu2*lambda2^2‐nu1*nu2*lambda2,1+lambda1/nu2+lambda1^2/nu2^2, 1+lambda2/nu1+lambda2^2/nu1^2), nrow=2, ncol=2, byrow = TRUE)

b=matrix(c(0,1),ncol=1)

tita=solve(A,b)

tita_m= matrix(c(tita[1],tita[2],lambda1/nu2*tita[1] ,lambda2/nu1*tita[2],lambda1^2/nu2^2*tita[1],lambda2^2/nu1^2*tita[2]),ncol=6)

tita_m

dd0= matrix(c(‐lambda1,0,0,lambda1,0,0,0,‐lambda2, lambda2,0,0,0,0,0,‐ lambda1‐nu2,0, lambda1,0,0,0,0,‐ lambda2‐nu1,0, lambda2,0,0,0,0,‐nu2,0,0,0,0,0,0,‐nu1), nrow=6, ncol=6, byrow = TRUE)

dd1= matrix(c(0,0,0,0,0,0,0,0,0,0,0,0,nu2,0,0,0,0,0,0,nu1,0,0,0,0,0,0,0,nu2,0,0,0,0,nu1,0,0,0), nrow=6, ncol=6, byrow = TRUE)

dd=dd0+dd1

ee=matrix(c(1,1,1,1,1,1),nc=1)

l=tita_m%*%dd1%*%ee

dd=dd0+dd1

Page 95: UNIVERSIDAD DE GRANADA - masteres.ugr.es

Antonio Hernández Moreno

83

alpha=c(1,0,0,1,0,0)

I=matrix(c(1,0,0,0,0,0,0,1,0,0,0,0,0,0,1,0,0,0,0,0,0,1,0,0,0,0,0,0,1,0,0,0,0,0,0,1),nrow=6,ncol=6)

esperanza=l*t‐ alpha%*%(expm(dd*t)‐I)%*%(solve(dd‐ee%*%tita_m))%*%dd1%*%ee

varianza= (l‐l^2‐2*tita_m%*%dd1%*%(solve(dd‐ee%*%tita_m))%*%dd1%*%ee)*t + 2*tita_m%*%dd1%*%(solve(dd‐ee%*%tita_m))%*%(expm(dd*t)‐I) %*%(solve(dd‐ee%*%tita_m))%*%dd1%*%ee

Para el caso MMAP con distribuciones tipo fase (análisis MMAP del modelo 3), la sintaxis para el cálculo de las matrices D0, Df y Dr se realizó en el software Matlab, quedando su sintaxis para el caso particular propuesto alpha=[0,1];

T=[‐0.5,0.45;0.3,‐0.4];

beta=[1,0];

S=[‐1.17,0.5;0.5,‐1.17];

m=length(T);

T0=‐T*ones(m,1);

n=length(S);

S0=‐S*ones(n,1);

D0=[T,zeros(m,m*n+n);zeros(m*n,m),kron(T,eye(n))+kron(eye(m),S),zeros(m*n,n);zeros(n,m+m*n),S];

Dr=[zeros(m,m+m*n+n);kron(eye(m),S0),zeros(m*n,m*n+n);zeros(n,m),kron(alpha,S0*beta),zeros(n,n)]

Df=[zeros(m,m),kron(T0*alpha,beta),zeros(m,n);zeros(m*n,m+m*n),kron(T0,eye(n));zeros(n,m+m*n+n)];

D=D0+Dr+Df

Page 96: UNIVERSIDAD DE GRANADA - masteres.ugr.es

Apéndice: Sintaxis Informática

84

Page 97: UNIVERSIDAD DE GRANADA - masteres.ugr.es

85

BIBLIOGRAFÍA

Alfa, AS. (2004) Markov chain representations of discrete distributions applied to queue in models. Computers & Operations Researh, 31, 2365-2385.

Asmussen, S. and Koole, G.M. (1993) Marked point processes as limits of Markovian arrival streams. Journal of Applied Probability, 30, 365–372.

Cordeiro, J.D. and Kharoufeh, J.P. (2011) Batch Markovian arrival processes (BMAP). Wiley Encyclopedia of Operations Research and Management Science.

Cordeiro J.D. and Kharoufeh J.P. (2012) The unreliable M/M/1 retrial queue in a random environment. Stochastic Models, 28 (1), 29-48.

Cox, D.R. and Miller H.D. (1977) The theory of stochastic Processes. CRC Press.

Han, Y; La, R.J.; Makowski, A. and Lee, S (2006) Distributions of path duration in mobile ad hoc networks- Palm’s theorem to the rescue. Computer networks, 50 (12) 1887-1900.

He, Q.M. (2010) Construction of continuous time Markov arrival processes. Journal of Systems Science and System Engineering, 19, 351-366.

He, Q.M. (2014) Fundamentals of Matrix-Analytic Methods. Springer. New York.

He, Q.M. and Neuts, M.F. (1998) Markov chains with marked transitions. Stochastics processes and their applications, 74, 37-52.

Kingman, J.F.K. (2002) Poisson Processes. Oxford University Press. New York.

Kovalenko, I.N.; Kuznetsov, N.Y. and Shurenkov, V.M. (1996) Models of Random Processes. A handbook for mathematicians and engineers. CRC Press.

Lucantoni, D.M. (1991) New results on the single server queue with a Batch Markovian arrival process. Commun. Statist.-Stochastic Model, 7(1),1-46.

Page 98: UNIVERSIDAD DE GRANADA - masteres.ugr.es

86

Lucantoni, D.M. (1993) The BMAP/G/1 Queue: A tutorial. In Donatiello, L. and Nelson, R., eds Models and techniques for Performance Evaluation of Computer and Communications Systems, 330-358. Springer.Verlad, London. U.K.

Mishkoy, G.; Krieger, U.R. and Bejenari, D. (2012) Matrix algorithm for Polling modelswith PH distribution.BuletinulAcademiei de Stiinte. A Republicii Moldova.Matematica, 1(68), 70–80.

Neuts, M.F. (1979) A versatile Markovian point process. Journal of Applied Probability, 16, 764-779.

Neuts, M.F. (1975) Probability distributions of phase type. Liber. Amicorum Prof. Emeritus H. Florin. Dept. Math. University of Louvain, Belgium, 173-206.

Neuts, M.F. (1984) Matrix-analytic methods in queueing theory. European Journal of Operational Research, 15, 2-12.

Neuts, M.F. (1981) Matrix-Geometric Solutions in Stochastic Models: An Algorithmic Approach. Dover Publications, Inc., New York, NY.

Neuts, M.F. (1992) Models based on the Markovian Arrival Processes. IEEE Transactions on Communications, E75-B, 12, 1255-1265.

Neuts, M.F. (1989) Structured stochastic matrices of M/G/1 type and their applications. New York, Marcel Dekker Inc.

Neuts, M.F. and Li, J-M. (1997) An algorithm for the P(n, t) matrices of a continuous BMAP.In Matrix-analytics methods in stochastic models. Edited by Srinivas R. Chakravarthy and Attahiru S. Alfa. Marcel and Dekker, INC.

Pérez Ocón, R. and Ruiz Castro, J.E. (2003) Markovian Models in Survival Studies. In 54th International Statistical Institute Session 2003.

Ross, S.M. (1983) Stochastic Processes. John Wiley & Sons.

Ruiz-Castro, J.E. (2013) A preventive maintenance policy for a standby system subject to internal failures and external shocks with loss of units. International Journal of Systems Science. DOI: 10.1080/00207721.2013.827258.

Ruiz-Castro, J.E. (2014) Preventive maintenance of a multi-state device subject to internal failure and damage due to external shocks. IEEE Transactions on Reliability, 63, 2, 646-660.

Taylor, H. M. and Karlin, S. (1994) An Introduction to Stochastic Modeling. Academic Press.

Page 99: UNIVERSIDAD DE GRANADA - masteres.ugr.es