cadenas de markov
DESCRIPTION
Libro de cadenasTRANSCRIPT
![Page 1: Cadenas de Markov](https://reader031.vdocuments.co/reader031/viewer/2022020222/563db7d8550346aa9a8e7c31/html5/thumbnails/1.jpg)
Cadenas de Markov
José Antonio Camarena Ibarrola
![Page 2: Cadenas de Markov](https://reader031.vdocuments.co/reader031/viewer/2022020222/563db7d8550346aa9a8e7c31/html5/thumbnails/2.jpg)
Definiciones elementales
• El proceso discreto es denominado cadena de Markov si se cumple
es la probabilidad de que en el tiempo k, el proceso esté en el estado j dado que en el tiempo k-1 estaba en el estado i
Si la distribución de probabilidad de transición entre estados no cambia en el tiempo, la cadena de Markov es homogénea, para este tipo de cadenas de Markov
![Page 3: Cadenas de Markov](https://reader031.vdocuments.co/reader031/viewer/2022020222/563db7d8550346aa9a8e7c31/html5/thumbnails/3.jpg)
Definiciones elementales
• Para cadenas de Markov homogeneas
• La condición 2 dice que los estados son mutuamente exclusivos y colectívamente exhaustivos
![Page 4: Cadenas de Markov](https://reader031.vdocuments.co/reader031/viewer/2022020222/563db7d8550346aa9a8e7c31/html5/thumbnails/4.jpg)
Regla de la Cadena de Markov
• De la definiciones anteriores
• Lo cual implica que si se conoce la distribución de probabilidades de estados iniciales se puede conocer
![Page 5: Cadenas de Markov](https://reader031.vdocuments.co/reader031/viewer/2022020222/563db7d8550346aa9a8e7c31/html5/thumbnails/5.jpg)
Matriz de transición entre estados
• Es común representar la distribución de transición entre estados como una matriz:
• Es una matriz estocástica puesto que para cada renglón i, se cumple que
![Page 6: Cadenas de Markov](https://reader031.vdocuments.co/reader031/viewer/2022020222/563db7d8550346aa9a8e7c31/html5/thumbnails/6.jpg)
La probabilidad de transición de n pasos
![Page 7: Cadenas de Markov](https://reader031.vdocuments.co/reader031/viewer/2022020222/563db7d8550346aa9a8e7c31/html5/thumbnails/7.jpg)
Para dos pasos (n=2)
• Si m=0
![Page 8: Cadenas de Markov](https://reader031.vdocuments.co/reader031/viewer/2022020222/563db7d8550346aa9a8e7c31/html5/thumbnails/8.jpg)
Las ecuaciones Chapman-Kolmogorov
• Se trata de una generalización del resultado obtenido anteriormente
• Demostración
![Page 9: Cadenas de Markov](https://reader031.vdocuments.co/reader031/viewer/2022020222/563db7d8550346aa9a8e7c31/html5/thumbnails/9.jpg)
Matriz de transición de n pasos
![Page 10: Cadenas de Markov](https://reader031.vdocuments.co/reader031/viewer/2022020222/563db7d8550346aa9a8e7c31/html5/thumbnails/10.jpg)
Diagramas de transición
• Suponga que al arrojar una moneda, el resultado dependiera del lanzamiento anterior
![Page 11: Cadenas de Markov](https://reader031.vdocuments.co/reader031/viewer/2022020222/563db7d8550346aa9a8e7c31/html5/thumbnails/11.jpg)
Clases de estados • Alcanzable. Un estado j es alcanzable desde algún
estado i sii Observe que la Matriz nos brinda información de
alcanzabilidad entre estados • Dos estados se comunican si son alcanzables
mútuamente • El concepto de comunicación divide al espacio de
estados en clases • Dos estados que se comunican pertenecen a la misma
clase • Todos los estados de una misma clase se comunican
entre sí • Decimos que una clase es cerrada si ninguno de los
estados que la conforman puede se alcanzado por ningún estado fuera de la clase
![Page 12: Cadenas de Markov](https://reader031.vdocuments.co/reader031/viewer/2022020222/563db7d8550346aa9a8e7c31/html5/thumbnails/12.jpg)
Cadenas de Markov irreductibles
• Son cadenas de Markov en las cuales todos los estados se comunican
• Eso implica que los estados conforman una única clase
![Page 13: Cadenas de Markov](https://reader031.vdocuments.co/reader031/viewer/2022020222/563db7d8550346aa9a8e7c31/html5/thumbnails/13.jpg)
Probabilidad de primera pasada
• Sea la probabilidad condicional de que dado que le proceso se encuentra actualmente en el estado i, la primera vez que entre al estado j ocurra en exactamente n transiciones (Probabilidad de primera pasada del estado i al j en n transiciones)
• Probabilidad de primera pasada del estado i al j • Es también la probabilidad de que alguna vez
llegue al estado j dado que está en el estado i
![Page 14: Cadenas de Markov](https://reader031.vdocuments.co/reader031/viewer/2022020222/563db7d8550346aa9a8e7c31/html5/thumbnails/14.jpg)
Estados recurrentes y transitorios
• Método recursivo para determinar
• es la probabilidad de que eventualmente regrese al estado i
• Cualquier estado i para el que se conoce como estado recurrente
• Cualquier estado para el que se conoce como estado transitorio
![Page 15: Cadenas de Markov](https://reader031.vdocuments.co/reader031/viewer/2022020222/563db7d8550346aa9a8e7c31/html5/thumbnails/15.jpg)
Cadenas sencillas
• Un estado j es transitorio (o recurrente) si hay una probabilidad diferente de cero de que el proceso no regrese al estado j dado que está en el estado j
• Un estado j es recurrente (o persistente) si con probabilidad 1, el proceso eventualmente regresará al estado j dado que está en el estado j
• Un conjunto de estados recurrentes forman una cadena sencilla si cada uno de los estados del conjunto se comunica con cada uno de los demás estados del conjunto
![Page 16: Cadenas de Markov](https://reader031.vdocuments.co/reader031/viewer/2022020222/563db7d8550346aa9a8e7c31/html5/thumbnails/16.jpg)
Estados periódicos
• Un estado recurrente j es llamado estado periódico si existe un entero d (d>1) tal que es cero para todo n excepto para d, 2d, 3d ,…
• d es el periodo
• Si d=1 el estado es aperiódico
•
![Page 17: Cadenas de Markov](https://reader031.vdocuments.co/reader031/viewer/2022020222/563db7d8550346aa9a8e7c31/html5/thumbnails/17.jpg)
Cadenas ergódicas
• Un estado recurrente es recurrente positivo si el número esperado de transiciones para que regrese a el es finito
• Un estado recurrente es recurrente nulo si el número esperado de transiciones para que regrese a el es infinito
• Si un estado es recurrente positivo y aperiódico, entonces se denomina estado ergódico
• Una cadena consistente de estados ergódicos se llama cadena ergódica
![Page 18: Cadenas de Markov](https://reader031.vdocuments.co/reader031/viewer/2022020222/563db7d8550346aa9a8e7c31/html5/thumbnails/18.jpg)
Estado absorbente
• Un estado para el cual
• También se llaman estados trampa
![Page 19: Cadenas de Markov](https://reader031.vdocuments.co/reader031/viewer/2022020222/563db7d8550346aa9a8e7c31/html5/thumbnails/19.jpg)
Ejemplo 1
• Los estados 1,2 y 3 son recurrentes
• El estado 4 es transitorio
• No hay estados periódicos
• Hay una cadena sencilla {1,2,3}
![Page 20: Cadenas de Markov](https://reader031.vdocuments.co/reader031/viewer/2022020222/563db7d8550346aa9a8e7c31/html5/thumbnails/20.jpg)
Ejemplo 2
• Los estados 1, 2 y 3 son ahora transitorios
• El estado 4 es absorbente (o trampa)
![Page 21: Cadenas de Markov](https://reader031.vdocuments.co/reader031/viewer/2022020222/563db7d8550346aa9a8e7c31/html5/thumbnails/21.jpg)
Ejemplo 3
• Tiene una cadena sencilla {1,2,3}
• Los tres estados son periódicos con periodo 3
![Page 22: Cadenas de Markov](https://reader031.vdocuments.co/reader031/viewer/2022020222/563db7d8550346aa9a8e7c31/html5/thumbnails/22.jpg)
Obteniendo la probabilidad de transición de n pasos
![Page 23: Cadenas de Markov](https://reader031.vdocuments.co/reader031/viewer/2022020222/563db7d8550346aa9a8e7c31/html5/thumbnails/23.jpg)
Nota
• Para la matriz de este ejemplo y para un gran número de cadenas de Markov, encontramos que al multiplicar a la matriz por si misma muchas veces la matriz tiende a tener valores fijos
• Mas importante que eso es el hecho de que todos los miembros de una misma columna convergen hacia un mismo valor
![Page 24: Cadenas de Markov](https://reader031.vdocuments.co/reader031/viewer/2022020222/563db7d8550346aa9a8e7c31/html5/thumbnails/24.jpg)
Distribución de estados iniciales
• La probabilidad de que en el tiempo t=0 el proceso se encuentre en el estado i es
• Si la cadena de Markov tiene N estados
![Page 25: Cadenas de Markov](https://reader031.vdocuments.co/reader031/viewer/2022020222/563db7d8550346aa9a8e7c31/html5/thumbnails/25.jpg)
Probabilidad de estado límite
• La probabilidad de que en el instante n el proceso se encuentre en el estado j es
• Para cierta clase de cadenas de Markov, a medida que , no depende de i, lo cual significa que tiende a una constante
• Cuando dicho límite existe, definimos
![Page 26: Cadenas de Markov](https://reader031.vdocuments.co/reader031/viewer/2022020222/563db7d8550346aa9a8e7c31/html5/thumbnails/26.jpg)
Probabilidad de estado límite
• Sabemos que
• Y si los estados límite existen y no dependen del estado inicial entonces
![Page 27: Cadenas de Markov](https://reader031.vdocuments.co/reader031/viewer/2022020222/563db7d8550346aa9a8e7c31/html5/thumbnails/27.jpg)
Obteniendo las probabilidades de estados límite
• Definiendo el vector de probabilidades de estados límite como
• El cual es un sistema de ecuaciones lineales a resolver
![Page 28: Cadenas de Markov](https://reader031.vdocuments.co/reader031/viewer/2022020222/563db7d8550346aa9a8e7c31/html5/thumbnails/28.jpg)
Condiciones para la existencia de estados límites
• En cualquier cadena de Markov aperiódica e irreductible, existen y son independientes del estado inicial
• Las probabilidades de los estados límites se deben interpretar como la probabilidad de que a largo plazo el proceso estará en dicho estado
![Page 29: Cadenas de Markov](https://reader031.vdocuments.co/reader031/viewer/2022020222/563db7d8550346aa9a8e7c31/html5/thumbnails/29.jpg)
Ejemplo
Como hay mas ecuaciones que incógitas usamos solo
De la primera ecuación
Substituyendo en la segunda
![Page 30: Cadenas de Markov](https://reader031.vdocuments.co/reader031/viewer/2022020222/563db7d8550346aa9a8e7c31/html5/thumbnails/30.jpg)
Calcular
Como son eventos mutuamente excluyentes:
![Page 31: Cadenas de Markov](https://reader031.vdocuments.co/reader031/viewer/2022020222/563db7d8550346aa9a8e7c31/html5/thumbnails/31.jpg)
Alternativamente
![Page 32: Cadenas de Markov](https://reader031.vdocuments.co/reader031/viewer/2022020222/563db7d8550346aa9a8e7c31/html5/thumbnails/32.jpg)
Matrices doblemente estocásticas
• No solo los renglones sino tambien las columnas suman 1
• Para este tipo de cadenas de Markov
• Demostración
Substituyendo
![Page 33: Cadenas de Markov](https://reader031.vdocuments.co/reader031/viewer/2022020222/563db7d8550346aa9a8e7c31/html5/thumbnails/33.jpg)
Ejemplo
![Page 34: Cadenas de Markov](https://reader031.vdocuments.co/reader031/viewer/2022020222/563db7d8550346aa9a8e7c31/html5/thumbnails/34.jpg)
Tiempo esperado de estancia en un estado
• Sea el número de unidades de tiempo que un proceso permanecería en el estado i antes de abandonarlo
• Observe que se usó la regla de la cadena de Markov
![Page 35: Cadenas de Markov](https://reader031.vdocuments.co/reader031/viewer/2022020222/563db7d8550346aa9a8e7c31/html5/thumbnails/35.jpg)
Análisis transitorio de Cadenas de Markov de tiempo discreto
Recordemos que la probabilidad de transición en n pasos está dada por:
Se cumple entonces, para una cadena de Markov de N estados
La transformada Z de
Aplicando transformada Z a ambos miembros tenemos:
![Page 36: Cadenas de Markov](https://reader031.vdocuments.co/reader031/viewer/2022020222/563db7d8550346aa9a8e7c31/html5/thumbnails/36.jpg)
Análisis transitorio de Cadenas de Markov de tiempo discreto
En forma matricial:
![Page 37: Cadenas de Markov](https://reader031.vdocuments.co/reader031/viewer/2022020222/563db7d8550346aa9a8e7c31/html5/thumbnails/37.jpg)
Análisis transitorio de Cadenas de Markov de tiempo discreto
Obtenemos Mediante la inversa de G(z) obteniendo dos componentes, uno constante y un término transitorio
El término constante tiene la característica de que todos los renglones son idénticos Y sus elementos son las probabilidades de estados límite
Donde T(z) es la transformada Z de T(n)
![Page 38: Cadenas de Markov](https://reader031.vdocuments.co/reader031/viewer/2022020222/563db7d8550346aa9a8e7c31/html5/thumbnails/38.jpg)
Ejemplo
Obtener para una cadena de Markov con la siguiente Matriz de transición entre estados
![Page 39: Cadenas de Markov](https://reader031.vdocuments.co/reader031/viewer/2022020222/563db7d8550346aa9a8e7c31/html5/thumbnails/39.jpg)
Ejemplo
![Page 40: Cadenas de Markov](https://reader031.vdocuments.co/reader031/viewer/2022020222/563db7d8550346aa9a8e7c31/html5/thumbnails/40.jpg)
Ejemplo
La matríz asociada con (1-z) contiene las probabilidades de estados límites Observe tambien que cada renglón de las otras matrices suma cero Cuando n=0 obtenemos la matriz identidad Cuando n=1 obtenemos P
![Page 41: Cadenas de Markov](https://reader031.vdocuments.co/reader031/viewer/2022020222/563db7d8550346aa9a8e7c31/html5/thumbnails/41.jpg)
El tiempo de la primera transición de i a j es:
Previamente definimos la probabilidad de la primera transición como:
También recordar que podemos determinar recursívamente
![Page 42: Cadenas de Markov](https://reader031.vdocuments.co/reader031/viewer/2022020222/563db7d8550346aa9a8e7c31/html5/thumbnails/42.jpg)
La relación entre la probabilidad de transición en n pasos y la probabilidad de primera transición es
Como ,esta expresión se puede convertir en:
Podemos despejar para conlcuir:
![Page 43: Cadenas de Markov](https://reader031.vdocuments.co/reader031/viewer/2022020222/563db7d8550346aa9a8e7c31/html5/thumbnails/43.jpg)
El tiempo medio de primera transición del estado i al j se determina mediante
Como el tiempo que el proceso dura en cada estado es 1, esta ecuación dice que el tiempo promedio es el tiempo que dura en el estado i mas el tiempo medio de primera transición del estado k al j dado que el estado que sigue del i es el k
De manera similar, el tiempo de recurrencia del estado i es:
![Page 44: Cadenas de Markov](https://reader031.vdocuments.co/reader031/viewer/2022020222/563db7d8550346aa9a8e7c31/html5/thumbnails/44.jpg)
Ejemplo Determinar el tiempo medio de primera transición del estado 1 al 3 para una cadena de Markov con la siguiente matriz de probabilidades de transición
De donde:
Necesitamos otra ecuación
![Page 45: Cadenas de Markov](https://reader031.vdocuments.co/reader031/viewer/2022020222/563db7d8550346aa9a8e7c31/html5/thumbnails/45.jpg)
Ejemplo
Determinar