unidad ii introduccion a los procesos de markov

18
Ensenada, B. C., agosto a diciembre, 2015 Unidad II Cadenas de Markov

Upload: socorro-lomeli-sanchez

Post on 12-Feb-2017

557 views

Category:

Engineering


6 download

TRANSCRIPT

Page 1: Unidad II Introduccion a los procesos de Markov

         

Ensenada,  B.  C.,  agosto  a  diciembre,  2015  

Unidad II Cadenas de Markov

Page 2: Unidad II Introduccion a los procesos de Markov

Unidad II: Cadenas

Markovianas

El estudiante será capaz de:

1.  Explicar lo que es un proceso estocástico, proceso markoviano y cadena markoviana.

2.  Calcular las probabilidades del estado estable, con operaciones m a t r i c i a l e s y u t i l i z a n d o l a computadora.

3.  Determinar las características impor tan tes de una cadena markoviana endógica.

4.  Aplicar las fases del proceso de decisión markoviano.

Page 3: Unidad II Introduccion a los procesos de Markov

INTRODUCCIÓN  

PROCESOS  ESTOCÁSTICOS  

PROBABILIDADES  DE  ESTADO  ESTABLE  

CLASIFICACIÓN  DE  LOS  ESTADOS  DE  UNA  CADENA  MARKOVIANA  

Page 4: Unidad II Introduccion a los procesos de Markov

INVESTIGACION:  ANDREI  MARKOV  

a.  Datos  Generales  de  Vida  y  formación.  b.  Asociaciones  o   ins@tuciones  en  donde  se  

con@núan  aplicando  sus  métodos.  c.  Aportaciones  realizadas  a  la  inves@gación  

de  operaciones.  d.  Beneficios  a   las   industrias  mexicanas  por  

aplicar  sus  métodos.  e.  Razones   principales   del   porque   los  

ingenieros   industriales   deben   estudiar  Cadenas  de  Markov.  

f.  Tarjeta  de  presentación  y  Resume.    

Page 5: Unidad II Introduccion a los procesos de Markov

Rúbrica  de  evaluación  Criterio   Puntos  

Máximos  

El  equipo  presenta  la  información  que  se  solicita  en  la  inves@gación  y  presentan  una  tarjeta  crea@va,  que  propicie  la  aceptación  del  trabajo  de  Markov  en  las  empresas    

5  

Referencias  bibliográficas  en  criterio  APA,  válidas  académicamente    y  presentación  en  cumplimiento  del  formato  establecido  en    www.modelocurriculum.net/el-­‐resume  

3  

Trabajo  en  equipo:  con  copar@cipación  de  los  miembros  y  discusiones  sustan@vas  en  el  salón  de  clases,  que  lleve  a  acuerdos  y  conclusiones    

2  

Puntos  totales   10  

Page 6: Unidad II Introduccion a los procesos de Markov

•  En  el  área  de  Probabilidad  y  Estadís@ca,  un   proceso   aleatorio   o   proceso  estocás@co,  es  un  concepto  matemá@co  que   sirve   para   caracterizar   y   estudiar  todo   @po   de   fenómenos   aleatorios  (estocás@cos)   que   evoluc ionan,  generalmente  con  el  @empo.  

•  El   índice   de   la   bolsa   de   valores   es   un  ejemplo  de  proceso  estocás@co  de  @po  no  estacionario  (por  tal  mo@vo  es  diYcil  de  predecir).  

 

Procesos Estocásticos

Page 7: Unidad II Introduccion a los procesos de Markov

Procesos estocásticos •  Señales  de  telecomunicación  •  Señales  sísmicas  •  Número  de  manchas  solares  año  tras  año  •  Índice  de  la  bosa  segundo  a  segundo  •  Señales  biomédicas:  electrocardiograma,  encefalograma,  etc.  

•  Evolución  de  la  población  de  un  municipio  año  tras  año  •  Tiempo  de  espera  en  cola  de  cada  uno  de  los  usuarios  que  van  llegando  a  una  ventanilla  

•  Clima  procesos  estocás@cos  interrelacionados:  velocidad  del  viento,  humedad  del  aire,  temperatura.  

Page 8: Unidad II Introduccion a los procesos de Markov

Procesos Estocásticos

Tipos  De  Markov  

Estacionario  

Homogéneos  

De  Gauss  De  

Poisson  

Gauss  –  Markov  

Bernulli  

Page 9: Unidad II Introduccion a los procesos de Markov

Procesos Estocásticos Estacionario  

•  La  distribución    conjunta  es  invariante  respecto  al  @empo  

•  La  media  teorica  es  independiente  del  @empo  

•  Las  autovarianzas  no  dependen  del  @empo  

Homogéneas  

•  Variables  aleatorias  independientes  

•  Idén@camente  distribuidas  

De  Markov  

•  La  evolución  solo  depende  del  estado  actual  

•  La  evolución  no  depende  de  estados  anteriores  

Page 10: Unidad II Introduccion a los procesos de Markov

Procesos Estocásticos

De  Gauss  

•  Procesos  con@nuo  

•  Toda  combinación  lineal  de  variables  es  una  variable  de    distribución  normal  

De  Poisson  

•  Procesos  discretos  

•  Llegadas  por  unidad  de  @empo  

De  Gauss  -­‐  Markov  

•  Procesos  que  son  al  mismo  @empo  de  Gauss  y  de  Markov  

De  Bernoulli  

•  Procesos  discretos    

•  Con  distribución  Binomial  

Page 11: Unidad II Introduccion a los procesos de Markov

Un   proceso   estocás@co   se   puede  definir   equivalentemente   de   dos  formas  diferentes:  Como  un  conjunto  de  realizaciones  temporales   y   un   índices   aleatorio  que  selecciona  una  de  ellas.  Como   un   conjunto   de   variables  aleatorias   Xt   indexadas   por   un  índice  t,  dado  que          t  ε  T,  con    T    c    Ŗ.  

Procesos estocásticos matematicos

Page 12: Unidad II Introduccion a los procesos de Markov

T   puede   ser   con@nuo   se   es   un  intervalo  (el  número  de  sus  valores  es   ilimitado)   o   discreto   si   es  n ume r a b l e   ( p u ede   a s um i r  determinados  valores)  Las   variables   aleatorias   Xt   toman  valores   en   un   conjunto   que   se  denomina   espacio   probabilís@co  (Ω,  β,  P)  

Procesos estocásticos matematicos

Page 13: Unidad II Introduccion a los procesos de Markov

Probabilidad  del  estado  estable  •  La metastabilidad es una propiedad de un

sistema con varios estados de equilibrio de exhibir durante un considerable espacio de tiempo un estado de equilibrio débilmente estable.

•  Bajo la acción de perturbaciones externas (a veces no fácilmente detectables) dichos sistemas exhiben una evolución temporal hacia un estado de equilibrio fuertemente estable.

•  Normalmente, la metaestabilidad es debida a transformaciones de estados lentas.

Page 14: Unidad II Introduccion a los procesos de Markov

Hillier  &  Hillier,  (2008).  Métodos  Cuan@ta@vos  para  Administradores.  Editorial  Mc.  Graw  Hill    

Un   sistema  metaestable,   con  un  estado   debilmente   estable   (1),  un   e s t ado   i n se s t ab l e   de  transiccion   (2)   y   un   estado  fuertemente  estable  (3)    

Page 15: Unidad II Introduccion a los procesos de Markov

En  que  consiste  el  proceso  Markoviano  •  Método   desarrollado     en   1907   por   el  

matema@co   ruso   Markov ,   para  encontrar   la   probabilidad   de   que   un  sistema   se   encuentre   en   un   estado  par@cular  en  un  momento  dado.    

•  El   proceso   markoviano   permite  encontrar   el   promedio   a   la   larga   o   las  probabilidades   del   estado   estable   para  c a d a   e s t a d o ,   p r e d i c i e n d o   e l  comportamiento  del  sistema  a  través  del  @empo.  

Page 16: Unidad II Introduccion a los procesos de Markov

Procesos  de  Markov  .vs.  Cadenas  de  Markov  •  En   cualquier   instante   cada   objeto   deberá  

encontrarse  en  uno  de  los  estados.  

•  La  probabilidad  de  que  un  objeto  cambie  de  un   estado   a   otro   durante   un   intervalo,  depende   del   resultado   del   estado  inmediatamente  anterior  y  no  de  cualquier  otro.    

•  Las   etapas   del   proceso   representan   el  número  de  los  periodos  transcurridos  desde  el  momento  en  que  se  inicia  el  proceso.    

•  Las  etapas  pueden  ser  finitas  o  infinitas.  

•  Es   una   serie   de   eventos,   en   la   cual   la  probabilidad   de   que   ocurra   un   evento  depende  del  evento  inmediato  anterior.    

•  Cuenta   con   memoria,   recuerda   el  ul@mo   evento   y   esto   condiciona   las  posibilidades  de  los  eventos    futuros.    

•  En  los  negocios  se  u@lizan  para:  analizar  los  patrones  de   compra  de   los   clientes  de   tarjeta,   patrones   de   deudores  morosos,   planear   las     necesidades   de  personal   y   analizar   el   remplazo   de  equipos.  

Page 17: Unidad II Introduccion a los procesos de Markov

CaracterísPcas  de  las  Cadenas  de  Markov  

•  Es  un  proceso  markoviano  que  @ene  un  numero  finito  o   infinito  contable  de  estados.  

•  Una  persona  puede  escoger  entre  conducir  su  auto  o  tomar  el  camión  para  ir  al   trabajo   cada  día.   Supongamos  que   la   persona  nunca   toma  el   camión  dos  días  seguidos,  persona  si  conduce  hasta  el   trabajo,  entonces  el  día  siguiente  puede  manejar  de  nuevo  o  tomar  el  camión.  

•  El   espacio   de   estados   del   sistemas   es   {t,c},     el   resultado   de   cualquier   dia  depende  de  lo  que  selecciono  el  día  anterior.  

•  La   primer   afila   de   la  matriz   corresponde   al   hecho   de   que   la   persona   nunca  toma  el  camión  por  dos  días  seguidos  y  también  da  que  de  manera  defini@va  conducirá  su  auto  al  día  siguiente  de  haber  tomado  el  camión.  

•  Son  procesos  discretos  con  una  distribución  binomial.  

Page 18: Unidad II Introduccion a los procesos de Markov

[email protected]  

P &

R  E  G  U  N  T  A  S  

E  S  P  U  E  S  T  A  S  R