tema nº3 - cadenas de eventos - analisis de markov

Upload: karina-belizario

Post on 19-Jul-2015

1.775 views

Category:

Documents


3 download

TRANSCRIPT

FACULTAD DE CIENCIAS ADMINISTRATIVAS ESCUELAACADEMICO PROFESIONAL ADMINISTRACION

TEMA: CADENAS DE EVENTOS: ANALISIS DE MARKOV CURSO: INVESTIGACION OPERATIVA ESTUDIANTES:APAZA PLATERO, SUSANA AMELIA 07-30408 BELIZARIO SUCA, KARINA 07-30417 CHANINI FLORES, VERONICA CRYSTABEL07-30402 HUACAC TRUJILLO, MIRIAM ROCIO07- 30401 QUISPE PARISUAA, ANA ROCIO 07-30396 DOCENTE : ING. ECO. JESUS A. OLIVERA CACERES

AO: CUARTO TURNO: DIURNO TACNA PER 2010 ANALISIS DE MARKOVUNJBG 2 INDICE INTRODUCCION I.ANTECEDENTES ........................................................................... 4 II.CADENAS DE MARKOV ............................................................... 5 1.Descripcin de una cadena de Markov.................................... 8 2.Probabilidades de Transicin .................................................. 9 3.Matriz de Transicin ................................................................ 10 4.Clculo de las probabilidades de estado estable ....................... 4 a.Probabilidad de transiciones estacionarias de estados Estables............................................................................. 6 5.Mtodo de la suma de flujos...................................................... 6 6.Aplicacin a la Administracin : Cambio de Marca .................... 6 7.Anlisis de Markov de Primer orden .......................................... 12 8.Condiciones de Equilibrio .......................................................... 12 9.Uso del anlisis de Markovpor la administracin ..................... 12 10. Aplicacin de las cadenas de Markov enlas diferentes materias ................................................................................... 12 III.CONCLUSIONES.......................................................................... 50 IV.REFERENCIAS............................................................................. 51 V.ANEXOS ........................................................................................ 52 ANALISIS DE MARKOVUNJBG 3 INTRODUCCION Las cadenas de Markov esta destinado a una clase de modelos de probabilidad que sontilesenunaampliavariedaddeciencias.LascadenasdeMarkovhan encontrado aplicaciones en la biologa, la fsica, la demografa, la economa y, lo que es ms importante para nuestros propsitos, la administracin. Lacienciaadministrativahadesarrolladomtodosdeanlisisyherramientas cuantitativas para la toma de decisiones objetivas. Un factor importante que se debe consideraralseleccionarunaherramientadetomadedecisionesessugradode confiabilidad, ya que as la incertidumbre y el riesgo resultan menores.Unarelacindealgunoselementosdeapoyocuantitativoenlatomadedecisiones gerenciales es el anlisis de markov LascadenasdeMarkovsepuedenutilizarenmodelossimplesdevaluacinde opcionesparadeterminarcundoexisteoportunidaddearbitraje,ascomoenel modelodecolapsosdeunabolsadevaloresoparadeterminarlavolatilidadde precios. ANALISIS DE MARKOVUNJBG 4 ANTECEDENTES AndreiAndreevichMarkovnaceenRyazan(Rusia)el14 de junio de 1856 y muere en San Petersburgo en 1914, es elcreadordelascadenasdeMarkov,unodelos conceptos ms importantes en la construccin de modelos engrancantidaddecamposqueabarcandesdela sociologa a la fsica terica. Markov estudia en San Petersburgo y muestra un carcter fuertequelecausarproblemasposteriormenteconel rgimenzaristayconsuscolegasdelaUniversidadde SanPetersburgo.Eramalestudianteentodomenosen matemticas.Inicisusestudiosuniversitariosdematemticasen1874yacaben1878, siendopremiadoconlamedalladeoroalterminarlos.RealizenlaUniversidaddeSan Petersburgosucarreraacadmica.Sutesisdoctoralestuvoenelmbitodelateoradelos nmeros,peroconlaretiradadeChebyshev,en1883,Markovpasaencargarsedelcurso sobre la teora de la probabilidad continuando con el mismo incluso despus de su retirada de la Universidad en 1905. PertenecialaescuelamatemticadeSanPetersburgofundadaporChebyshev,yjuntoa Liapunovllegaserunadelasfigurasmseminentesdelamismaenelcampodela probabilidad.Bernstein(1927),otrodelosrepresentantesdelaescueladeSanPetersburgo, deca de l:SindudaelmsimportantecontinuadordelasideassobreprobabilidadfueMarkov,sus trabajos son modelos de rigor y claridad en la exposicin, y han contribuido en gran medida a transformar la teora de la probabilidad en uno de los ms perfectos campos de la matemtica y a aumentar la popularidad de los mtodos y las ideas de Chebyshev1

1 http://estadisticamigable.blogspot.com/2010/08/andrei-marcov-1856-1922-en-el-157.html ANALISIS DE MARKOVUNJBG 5 CADENAS DE MARKOV Un tipo especial de procesos estocsticos de tiempo discreto se llama cadena de Markov. Una cadena de Markov es una serie de eventos, en la cual la probabilidad de que ocurra un evento dependedeleventoinmediatoanterior.Enefecto,lascadenasdeestetipotienenmemoria Recuerdanelultimoeventoyestocondicionalasposibilidadesdeloseventosfuturosesta dependenciadeleventoanteriordistinguealascadenasdeMarkovdelasseriesdeeventos independientes, como tiraruna monedaal aire o un dado. En los negocios, las cadenas de Markov se han utilizado para analizar los patrones de compra delosdeudoresmorosos,paraplanearlasnecesidadesdepersonalyparaanalizarel reemplazo de equipo. 2 Los procesos de Markovo Cadena deMarkov son procesosestocsticos que son tilesal estudiar la evolucin de ciertos sistemas en ensayos repetidos. Losensayossonfrecuentementeperiodossucesivosenlosquenosepuededeterminar certidumbredelestadooresultadodelsistemaencualquierlapsoointervalodetiempo determinado.Seutilizanprobabilidadesdetransicinparadescribirlaformaenelqueel sistema hace transacciones de un periodo al siguiente. Por ello sehabla de la probabilidad de que el sistema se encuentre en un estado especifico en un periodo dado, que se encontraba en un estado en el periodo anterior.3 LascadenasdeMarkovpermitenencontrarlaprobabilidaddequeunsistemaseencuentre enunestadoenparticularenunmomentodado.Algomsimportantean,esquepermite encontrar el promedio a la larga o las probabilidades de estado estable para cada estado.Conestainformacinsepuedepredecirelcomportamientodelsistemaatravsdeltiempo. Esta es una herramienta de gran alcance del anlisis dela confiabilidady puede ser utilizada en ms casos que cualquier otro mtodo. Elmtodo de Markov se utiliza extensamente para

2 Charles A. Gallagher, Mtodos cuantitativos para la toma de decisiones en la administracin, Editorial Mc Graw Hill Mexico D.F., 1982 pag 330-331. 3 http://sisbib.unmsm.edu.pe/bibvirtualdata/tesis/basic/cabanillas_ce/cap1.pdf ANALISIS DE MARKOVUNJBG 6 modelarsistemasconfallasyreparacionesconpromedioconstante.Aexcepcindealgunos casos especiales.4

LacaractersticafundamentaldeunacadenadeMarkovesesta:Laprobabilidaddequeel sistema bajo estudio este en una condicin particular depende solo de su condicin actual.Por ejemplo si se usa cadena de Markov como modelo de los siguientes sistemas, entonces: La probabilidad de que haya seis personas esperando para usar un cajero dentro de 30minutos depende solo de cuantos hay esperando ahora. Laprobabilidaddequeciertoporcentajedelaprximageneracinderatonesde laboratoriotengaunaenfermedadhereditariadependesolodelporcentajederatones que tienen la enfermedad en la generacin actual.5 Ejemplo: Laprobabilidaddequeeldademaanaestenublado,estodependesolodelas condiciones actuales del clima. Despus de un estudio sobre el clima, hemos visto que si un da est soleado, en el 70% de los casoseldasiguientecontinuasoleadoyenel30%seponenublado.Entrminosdeprobabilidad,loquenossirveentoncesparapredecirelclima,vemosquelaprobabilidadde quecontinesoleadoeldasiguientees7ylaprobabilidaddequealdasiguienteest nublado es .3. Tambin nos fijamos en que si un da est nublado, la probabilidad de que est soleado el da siguiente es .6 y la probabilidad de que se ponga nublado es 4. Pregunta Hoyestnublado,culeslaprobabilidaddequemaanacontinenublado?culesla probabilidad de que est nublado pasado maana? Podemos ilustrar esta situacin por medio de un diagrama de rbol:

4http://www.unipamplona.edu.co/unipamplona/portalIG/home_10/recursos/general/documentos/pdf/16102009/18_ar_carolina_casan.pdf 5 Libro 16 pag 568 ANALISIS DE MARKOVUNJBG 7 Con la ayuda de la Figura 1 podemos predecir qu ocurrir maana si sabemos que hoy est nublado. Vemos que la probabilidad de que maana contine nublado es .4, es decir, si hiciramos esta prediccin muchas veces estaramos en lo correcto cerca del 40% de las veces. Para conocer laprobabilidaddeestnubladopasadomaanabuscamosenlashojasdelrbol correspondientesalTiempopasadomaanaloslugaresdondedicenublado.Haydoshojas donde esto ocurre. Ahora lo que queda es determinar cmo desde el principio, desde la raz del rbol, podemos llegar all. Sihoyestnublado,paraquepasadomaanaestnublado,podramostenerundade maana soleado o nublado. As tenemos las siguientes secuencias en orden de (hoy, maana, pasado maana): (nublado, soleado, nublado) o (nublado, nublado, nublado) donde pasado maana es nublado. Estas secuencias son mutuamente excluyentes, corresponden a caminos distintos en el rbol, as tenemos que: P(pasado maana nublado | hoy nublado) = P((nublado, soleado, nublado) o (nublado, nublado, nublado)) = P(nublado, soleado, nublado) + P (nublado, nublado, nublado) = (.6 .3) + (.4 .4) = .34. Esteresultadoseobtuvomultiplicandolasprobabilidadescondicionalesalolargodelos caminos desde hoy nublado hasta pasado maana nublado. No es necesario que seamos tan especficosentrminosdehoy,maanaopasadomaana,podemosdarnoscuentaquelo realmente importante es el nmero de das que pasa entre una prediccin y otra.6

6 http://www.infoamerica.org/documentos_pdf/markov.pdf ANALISIS DE MARKOVUNJBG 8 1.DESCRIPCION DE UNA CADENA DE MARKOV: Enlafigura1semuestraelprocesoparagenerarunacadenadeMarkov.Elgeneradorde Markovproduceunodeneventosposibles,Ej,dondej=1,2,,n,aintervalosdiscretosde tiempo(quenotienenqueseriguales)lasprobabilidadesdeocurrenciaparacadaunode estos eventos dependen del estado del generador. Este estado se describe por el ltimo evento esto Generado.enlafigura1,elultimoeventogeneradofueEj,demaneraqueelgeneradose encuentra en el estado Sj . La Probabilidad de que Ek sea el siguiente evento generado es una probabilidadcondicional; P(Ek/Sj).EstosellamaprobabilidaddetransicindelestadoSjalestadoEk.Paradescribir completamenteunacadenadeMarkovesnecesariosaberelestadoactualytodaslas probabilidades de transicin.7

7 Charles A. Gallagher, Mtodos cuantitativos para la toma de decisiones en la administracin, Editorial Mc Graw Hill Mexico D.F., 1982 pg. 331 Estado generador: Sj Movimiento Evento generado E7E1E4 E6Ej Tiempo T1T2T3T4 T5 FIGURA 2 Generador de Markov ANALISIS DE MARKOVUNJBG 9 2.PROBABILIDADES DE TRANSICION Una forma para describir una cadena deMarkov es un diagrama de estados, como el que se muestra en la Figura 2. En esta se ilustra un sistema de Markov con cuatro estados posibles: S1,S2,S3,S4.Laprobabilidadcondicionalodetransicindemoversedeunestadoaotro se indica en el diagrama. Para simplificar la notacin se utilizan subndices para el estado actual y elsiguienteesdecirP14=P(S4/S1).Lasflechasmuestranlastrayectoriasdetransicinque sonposibles.Enla figurasenota quenoaparecenalgunas trayectoriascomoladeS2aS3. Su ausencia significa que esas trayectorias tienen probabilidad de ocurrencia igual que cero.8

8 Charles A. Gallagher, Mtodos cuantitativos para la toma de decisiones en la administracin, Editorial Mc Graw Hill Mexico D.F., 1982, pag. 332 P44 P33 FIGURA 2 Un diagrama de Estados S1S1 S1 S1 P31 P13 P12P21P43P34 P42 P24 ANALISIS DE MARKOVUNJBG 10 Existen muchas situaciones en las cuales es posible aplicar matrices, para esto consideremos situaciones en la que se separa a la poblacin en dos o ms categoras o estados. Por ejemplo, podemos separar los ciudadanos de un pas de acuerdo a: -Sus ingresos, en las categoras: pobre, ingresos medio o rico. -Las migraciones del campo a la ciudad; o del norte al sur. -La movilidad intergeneracional de padres a hijos, en relacin al nivel educativo. -La preferencia por una determinada marca de bebidas. En general al hablar de poblacin nos estaremos refiriendo a gente, pero esto no es esencial. Podemosclasificarlosautomvilesdeacuerdoasifuncionanono,elriesgodeponero cambiarnuestrosahorrosdelaAFPenundeterminadotipodefondoA,B,C,D;obien, estudiar los patrones de cambio de uso de suelo en una ciudad de rpido crecimiento.Estamosinteresadosencmoladistribucindeunapoblacinentreestadospuedecambiar duranteunperododetiempo.Las matricesysumultiplicacinpuedendesempearunpapel importante en dichas consideraciones, para esto se utilizan las matrices de transicin. 3.MATRICES DE TRANSICION: La forma ms cmoda de expresar la ley de probabilidad condicional de una cadena de Markov es mediante la llamada matriz de probabilidades de transicin P, o ms sencillamente,matriz de la cadena. La tendencia de una poblacin a moverse entre n estados se puede describir a veces mediante una matriz de n x n. Dichamatrizescuadradacontantasfilasycolumnascomoestadostieneelsistema,ylos elementosdelamatrizrepresentanlaprobabilidaddequeelestadoprximoseael correspondiente a la columna si el estado actual es el correspondiente a la fila.Como el sistema debe evolucionar de t a alguno de los n estados posibles, las probabilidades de transicin cumpliran con la propiedad siguiente: Consideremos una poblacin distribuida entre n = 3 estados, que llamaremos estado 1, estado 2 y estado 3. Se supone que conocemos la proporcin tijde la poblacin del estado i, quese mueve al estado jen determinado perodo de tiempo fijo. 9

9 http://fbarreiro.com/joom2/index.php?option=com_content&view=article&id=53&Itemid=60 ANALISIS DE MARKOVUNJBG 11 La matriz T = (tij) se llama matriz de transicin.Supongamos que la poblacin de un pas, est clasificada de acuerdo con los ingresos en Estado 1:pobre Estado 2: ingresos medios Estado 3:rico Supongamos que en cada perodo de 20 aos tenemos los siguientes datos para la poblacin y su descendencia:De la gente pobre, el 19% pas a ingresos medios, y el 1% a rica; de la gente con ingresos medios, el 15% pas a pobre, y el 10%a rica; de la gente rica, el 5% paso a pobre, y el 30%, a ingresos medios. Podemos armar una matriz de transicin de la siguiente manera:10

10 http://fbarreiro.com/joom2/index.php?option=com_content&view=article&id=53&Itemid=60 ANALISIS DE MARKOVUNJBG 12 Obsrvese que: 1)Las entradas de la diagonalde la matriz representala proporcin de la poblacin que no cambia de estado en un perodo de 20 aos; 2)Un registro de la matriz da la proporcin de la poblacin del estado izquierdodel registro que pasa al estado derecho del registro en un perodo de 20 aos.3)La suma de losregistrosde cada fila de la matriz T es 1, pues la suma refleja el movimiento de toda la poblacin para el estado relacionado en la parte izquierda de la fila. Otra forma de presentacin de un proceso y su correspondiente matriz de transicin Donde la i representa el estado inicial de una transicin, j representa el estado final de una transicin, Pij representa la probabilidad de que el sistema estando en un estado i pase a un estado j. ANALISIS DE MARKOVUNJBG 13 1.Clculo de las probabilidades de estado estable:LascadenasdeMarkovposeenunaprobabilidadnotableencuantoaquetiendena aproximarse a lo que se llama estado estable.CuandounacadenadeMarkovhallegadolosuficientementelejoscomoestarcercade estoslmites,sedicequehaalcanzadounestadoestable.Adems,estoslmitessonlos mismos, independientemente del punto de partida del sistema. Esimportantehacernotarquelaexistenciadeunacondicindeestadoestableesuna propiedadadicionaldelascadenasdeMarkov.Deningunamaneraafectalas probabilidadesdetransicinoladependenciadecadaestadoenestadoanterior.Los lmitesdeestadoestableserefierensoloalporcentajedetiempoalargoplazoqueel sistema se encontrara en cada estado particular. En la mayora delas aplicaciones el estado estable tiene una gran importancia. 1.1.Probabilidad de transiciones estacionarias de estados estables a)Teorema:11Sea P la matriz de transicin de una cadena de M estados. Existe entonces un vector tal que se establece que para cualquier estado inicial i , .Elvectoramenudosellamadistribucindeestadoestable,otambindistribucinde equilibrioparalacadenadeMarkov.Paraencontrarladistribucindeprobabilidadesde estacionario para una cadena dada cuya matriz de transicin es P, segn el teorema, para n grande y para toda i ,(1) Como Pij (n + 1) = (rengln i de Pn )(columna j de P), podemos escribir(2) Ejemplo:Suponga que toda la industria de refrescos produce dos gaseosas. Cuando una persona ha comprado la gaseosa 1, hay una probabilidad de 90 % de que su siguiente compra sea de lagaseosa1.Siunapersonacomprgaseosa2,hayun80%deprobabilidadesquesu prxima compra sea de gaseosa 2. Entonces:Al reemplazar la segunda ecuacin por la condicin, obtenemos el sistema

11 www.itescam.edu.mx/principal/sylabus/fpdb/recursos/r55111.DOC ANALISIS DE MARKOVUNJBG 14 Al despejar resulta que Por lo tanto, despus de largo tiempo, hay probabilidad 2/3 de que unapersonadadacompregaseosa1y1/3deprobabilidaddequeunapersonacompre gaseosa 2.Tiempos de primer pas:Confrecuenciaesconvenientepoderhacerafirmacionesentrminosdeprobabilidades sobre el nmero de transiciones que hace el proceso al ir de un estado i a un estado j por primera vez . este lapso se llama tiempos de primer paso al ir del estado i al estado j.CuandoJ=i,estatiempodeprimerpasoesjustoelnmerodetransicioneshastaqueel proceso regresa al estado inicial i. En este caso, el tiempo de primer paso se llama tiempo de recurrencia para el estado i.Para ilustrar estas definiciones, reconsidrese el ejemplo siguiente:Unatiendadecmarastieneenalmacnunmodeloespecialdecmaraquesepuede ordenarcadasemana. SeanD1,D2,lasdemandasdeestacmaradurantelaprimera, segundasemana,respectivamente.SesuponequelasDisonvariablesaleatorias independienteseidnticamentedistribuidasquetienenunadistribucindeprobabilidad conocida. Sea X0 el nmero de cmaras que se tiene en el momento de iniciar el proceso, X1elnmerodecmarasquesetienenalfinaldelasemanauno,X2elnmerode cmarasalfinaldelasemanados,etc.SupongaqueX0=3.Elsbadoenlanochela tienda hace un pedido que le entregan el lunes en el momento de abrir la tienda. La tienda hace un pedido que le entregan el lunes en el momento de abrir la tienda. La tienda usa la siguiente poltica (s, S)1 para ordenar: si el nmero de cmaras en inventario al final de la semanaesmenorques=1(nohaycmarasenlatienda),ordenar(hasta)S=3.Deotra manera,nocolocalaorden(sisecuentaconunaomscmarasenelalmacn,nose haceelpedido).Sesuponequelasventassepierdencuandolademandaexcedeel inventario.Entonces,{X1}parat=0,1,esunprocesoestocsticodelaformaquese acabadedescribir.Losestadosposiblesdelprocesosonlosenteros0,1,2,3que representan el nmero posible de cmaras en inventario al final de la semana.Donde Xt : es el nmero de cmaras en inventario al final de la semana t y se comienza con , Suponga que ocurri lo siguiente:En este caso, el tiempo de primer paso para ir al estado 3 al estado 1 es de 2 semanas, el tiempodeprimerpasoparairdelestado3alestado0esde3semanasyeltiempode recurrencia del estado 3 es de 4 semanas.ANALISIS DE MARKOVUNJBG 15 En general, los tiempos de primer paso son variables aleatorias y, por lo tanto, tienen una distribucindeprobabilidadasociadaaellos.Estasdistribucionesdeprobabilidad dependendelasprobabilidadesdetransicindelproceso.Enparticular,denotala probabilidaddequeeltiempodeprimerpasodelestadoialjseaigualan.Sepuede demostrar que estas probabilidades satisfacen las siguientes relaciones recursivas:Entonces se puede calcular la probabilidad de un tiempo de primer paso del estado i al j en n pasos, de manera recursiva, a partir de las probabilidades de transicin de un paso. En el ejemplo,ladistribucindeprobabilidaddelostiemposdeprimerpasodelestado3al estado 0 se obtiene como sigue:Para i y j fijos, las son nmeros no negativos tales que : Estasumapuedesermenorque1,loquesignificaqueunprocesoqueeliniciarse encuentra en el estado i puede no llegar nunca al estado j . Cuando la suma es igual a 1, las pueden considerarse como una distribucin de probabilidad para la variable aleatoria, el tiempo de primer pas.Paraobtenereltiempoesperadodeprimerpasodelestadoialestadoj.Sea,quese define como:Entonces satisface, de manera nica, la ecuacin:Cuando i=j, se llama tiempo esperado de recurrencia.Alaplicarloalejemplodelinventario,estasecuacionessepuedenusarparacalcularel tiempoesperadohastaqueyanosetengancmarasenelalmacn,suponiendoqueel procesoiniciacuandosetienentrescmaras;esdecir,sepuedeobtenereltiempo esperadodeprimerpaso.Comotodoslosestadossonrecurrentes,elsistemade ecuaciones conduce a las expresionesLa solucin simultnea de este sistema es: Demanera queel tiempoesperadohasta quelatiendase quedasincmarasesde3.50 semanas.2.Mtodo de la suma de flujos: Este mtodo esta basado en el concepto de que todo lo que entra debe salir. El diagrama de estados se usa para presentar los flujos.Enlafigurasemuestradenuevoelejemploanteriordedosestados.Paracadaestado puede escribirse una ecuacin tal que para el estado K se cumpla: ANALISIS DE MARKOVUNJBG 16 ( )

(

) Ejemplo de dos estados: 3.APLICACIN A LA ADMINISTRACION: CAMBIO DE MARCA Las compras de los consumidores estn influidas por la publicidad, el precio y muchos otros factores.Confrecuenciaunfactorclaseeslaltimacompradelconsumidor.Si,por ejemplo,alguiencompraunrefrigeradormarcaYyledaunbuenservicio,quedara predispuestoacomprarotrorefrigeradormarcaY.Dehecho,unainvestigacinde mercado puede determinar el grado de lealtad a la marca encuestando a los consumidores. EntrminosdeunacadenadeMarkov,losresultadosdelainvestigacinsonlas probabilidades de transicin de seguir con la marca o de cambiar. EnlasiguientefigurasemuestraunejemplodecadenasdeMarkovparaelcambiode marca. En este ejemplo, la marca A es la marca de inters y la marca B representa todas lasdemsmarcas.Losclientessonbastanteleales,el80%deellossonclientesque repiten. La oposicin conserva el 70% de sus clientes. Qu informacin puede obtenerse con el anlisis de Markov? Con el anlisis de transicin puede descubrirse que tan probable es que un cliente cambie despus de cierto numero de ciclos. Pero el anlisis de estado estable esel mas til. Quinterpretacin dara el lector alpromedioalargoplazodeestarencualquieradelosestados?Ladeporcentajesde mercado!ElpromedioalalargadelestadoAeselporcentajedemercadoquepuede 0.75 0.7 0.7 0.75 S1 S2 0.250.25 ANALISIS DE MARKOVUNJBG 17 esperar recibir la marca A. As, conociendo el grado de lealtad a la marca entre los clientes puede predecirse el porcentaje de mercado para el producto o servicio. Las ecuaciones de estado estable para el ejemplo de la figura son: P (A) = 0.8P (A) + 0.3P (B) P (B) = 0.2P (A) + 0.7P (B) P(A) + P (B) = 1 La solucin de este sistema es: P(A) = 0.6 P (B)=0.4 Grafico: Cambio de marca ANALISIS DE MARKOV DE PRIMER ORDEN El proceso de Markov tiene varios rdenes, y el primero depende de los resultados del ltimoacontecimiento(seleccionesdemarcasporlosclienteseneseperodo),ynode cualquier comportamiento previo de compras para la probabilidad del acontecimiento siguiente (selecciones de los clientes para el prximo perodo). UnanlisisdeMarkovdesegundoordensuponequelasseleccionesdemarcasespecficas paraelprximoperododependerndelasseleccionesdemarcashechasporlosclientes durante los dos perodos anteriores. 0.7 0.7 0.7 0.8 A B 0.20.3 Marca A Marca B De: Marca A Marca B 0.8 0.2 0.30.7 ANALISIS DE MARKOVUNJBG 18 DemodosemejanteunprocesodeMarkovdetercerorden,estudialapreferenciadelos clientesdurantelostresltimosperodos,afindepronosticarsucomportamientoduranteel perodo siguiente hacia determinadas marcas. Muchosestudiosdeprocesosdemercadoshandemostradoqueesvlidoutilizarlas suposiciones de primer orden para fines de pronstico. Losdatosindicanquelaspreferenciasdelosclientesdedeterminadasmarcas,siguenun patrnbastanteestable.Enrealidadlamatrizdeprobabilidadesdetransicinpermanece estable o casi estable durante cierto perodo.12 IProcesos de Markov Principio de Markov: Cuando una probabilidad condicional depende nicamente del suceso inmediatamente anterior, cumple con el Principio de Markov de Primer Orden, es decir. ijp i t X j t X P i t X K X K X j t X P = = = + = = = = = + ) ) ( ) 1 ( ( ) ) ( ,....., ) 1 ( , ) 0 ( ) 1 ( (1 0 Definiciones en los Procesos de Markov de Primer Orden: Estados: Las condiciones en las cuales se encuentra un ente sucesos posibles. Ensayos: Las ocurrencias repetidas de un evento que se estudia. Probabilidad de Transicin: La probabilidad de pasar de un estado actual al siguiente en un perodo tiempo, y se denota por pij ( la probabilidad de pasar del estado i al estado j en una transicin perodo) 1.Caractersticas de los Procesos de Markov de Primer Orden: Se pueden usar como modelo de un proceso fsico econmico que tenga las siguientes propiedades: a)Que la probabilidad cumpla con el principio de Markov.

12 Robert J. Thierauf; Richard A. Grosse, TomadeDecisiones pormediode la InvestigacindeOperaciones, EditorialLIMUSA S.A. de C.V, Mexico D.F., 1991, pags. 404-405 ANALISIS DE MARKOVUNJBG 19 b)Existencia de un nmero finito de estados. c)Las pij son constante con respecto al tiempo perodo. d)Ensayos en perodos iguales. Siunsucesodependedeotroademsdelinmediatamenteanterior,esteesunprocesode Markov de mayor orden. Por ejemplo, Un proceso de segundo orden describe un proceso en el cual el suceso depende de los dos sucesos anteriores. Los procesos de Markov tambin se les llaman Cadenas de Markov. Notaciones que utilizaremos: pij = probabilidad de transicin en un perodo. P=[pij]nxnmatrizdetransicinformadaporlosvaloresdepij ,dondecadafilarepresentael estado inicial donde se parte y las columna el estado al que se ira en un perodo. ) ) 0 ( ) ( () (i X j k X P pkij= = = Representalaprobabilidaddeirdelestadoialestadojenk perodos. P(k)=[ ) (kijp ]nxn la matriz de transicin de k perodos. Si(t) = probabilidad de encontrarse en el estado i en el perodo t. S(t)=(S1(t),S2(t),....,Sn(t))vectordeprobabilidaddeestadoenelperodot.Paran estados. Los sucesos que cumplan con un proceso de Markov, se pueden representar por medio de un esquemadondelosnodosindiquenlosestadosyarcosdirigidosdenodoanodoconun nmero que representa la probabilidad de transicin de ir de un estado a otro, por medio de una matriz de transicin. Ejemplo: ((((

=4 . 0 4 . 0 2 . 03 . 0 4 . 0 3 . 05 . 0 3 . 0 2 . 0P ANALISIS DE MARKOVUNJBG 20 Para calcular: ) 1 ) 0 ( 1 ) 2 ( () 2 (11= = = X X P p = p11.p11+ p12.p21+ p13.p31

= 0,2.0,2+0,3.0,3+0,5.0,2 = 0,23 ) 1 ) 0 ( 2 ) 2 ( () 2 (12= = = X X P p = p11.p12+ p12.p22+ p13.p32

= 0,2.0,3+0,3.0,4+0,5.0,4 = 0,38 ) 1 ) 0 ( 3 ) 2 ( () 2 (13= = = X X P p = p11.p13+ p12.p23+ p13.p33

= 0,2.0,5+0,3.0,3+0,5.0,4 = 0,39 Luego ) 2 (11p +) 2 (12p +) 2 (13p=1 Otra forma es usando el vector de probabilidades y la matriz de transicin, es decir: S(0) = (1, 0, 0)S(1) = S(0).P = (0,2; 0,3; 0,5) S(2) =S(1).P =(0,23; 0,38; 0,39) 2.Cadenas de Markov Ergdicas cadenas irreductibles.Describen matemticamente un proceso en el cual es posible avanzar desde un estado hasta cualquier otro estado. No es necesario que esto sea posible en un paso. Unacadenaergdicaesregular:Siparaalgunapotenciadelamatrizdetransicintiene nicamente elementos positivos de probabilidad (diferente de cero) Ejemplo 1: ANALISIS DE MARKOVUNJBG 21 ((((

=6 . 0 4 . 0 07 . 0 0 3 . 00 5 . 0 5 . 0P((((

=64 . 0 24 . 0 12 . 042 . 0 43 . 0 15 . 035 . 0 25 . 0 40 . 02P Luego es regular(y por lo tanto ergdica) Ejemplo 2: (((((

=5 . 0 0 5 . 0 00 4 . 0 0 6 . 07 . 0 0 3 . 0 00 6 . 0 0 4 . 0P(((((

=60 . 0 0 40 . 0 00 52 . 0 0 48 . 056 . 0 0 44 . 0 00 48 . 0 0 52 . 02P(((((

=h hr rq qp pP1 0 00 1 01 0 00 1 04 EstamatrizrepitecontinuamenteestepatrnparatodaslaspotenciasdeP;porconsiguiente no es regular ni tampoco ergdica. 3.Propiedades de las Cadenas de Markov. 1.-Las probabilidades de estados deben ser igual a uno, es decir. S1(t)+S2(t)+ . . . . ,+Sn(t) = 1para n estados. 2.-Para cada fila de la matriz P se cumple: pi1+pi2+...... +pin = 1para todo i = 1, 2, ..., n 3.-Las transiciones de un perodo al siguiente se obtienen de la siguienteecuacin: S(t) = S(t-1).P por lo tanto S(t) = S(0).Pt

4.-SiS(t+1)=S(t)parat>K,Entoncessedicequeelsistemaseestabilizaquelos estados son estacionarios estables. Esto implica que S = S.P , es decir.El vector de estado estacionario sigue siendo igual despus de la transicin t. Ejemplo para calcular el vector de equilibrio o de estado estacionario. Sea : ANALISIS DE MARKOVUNJBG 22 ((

=5 / 1 5 / 45 / 2 5 / 3P((

=2 5 / 9 2 5 / 1 62 5 / 8 2 5 / 1 72P((

=1 2 5 / 4 1 1 2 5 / 8 41 2 5 / 4 2 1 2 5 / 8 33P((

=625 / 209 625 / 416625 / 208 625 / 4174P((

=3125 / 1041 3125 / 20843125 / 1042 3125 / 20835P((

=3 / 1 3 / 23 / 1 3 / 26P((

=3 / 1 3 / 23 / 1 3 / 27P El proceso se estabiliza en el perodo 6 Otra forma: Secalculaelsiguientesistema ==1.iSP S Senestecaso = ++ =+ = 12 , 0 4 , 08 , 0 6 , 02 12 1 22 1S SS S SS S Sy queda = += 10 8 , 0 4 , 02 12 1S SS S

Cuya solucin es: S1 = 2/3yS2 = 1/3 Observacin:LasecuacionesqueseobtienendeldesarrollodeS=S.PSiemprehayuna ecuacin que es combinacin lineal de las dems ecuaciones, por lo tanto se omite para que el sistema quede con necuaciones y nvariables. 4.Estados Absorbentes: Es aquel estado que tiene una probabilidadde ser abandonado igual a cero, es decir. Una vez en l es imposible dejarlo. Esto quiere decir:Si i es un estado absorbente si se cumple quepij =0si i = jy pii =1. Una cadena de Markov es Absorbente: Si se cumple: a)Tiene por lo menos un estado Absorbente. ANALISIS DE MARKOVUNJBG 23 b)Es posible ir de cada estado no absorbente hasta por lo menos un estado absorbente. No es necesario efectuar esta transicin en un paso; ni es necesario tener la posibilidad de alcanzar cada estado absorbente a partir de cualquier estado no absorbente. 5.Anlisis de las cadenas de Markov Absorbentes. A partir del anlisis de estas cadenas, es posible determinar los siguientes datos: 1)El nmero esperado de pasos antes de que el proceso sea absorbido. 2)Elnmeroesperadodevecesqueelprocesoestencualquierestadodadono absorbente. 3)La probabilidad de absorcin por cualquier estado absorbente dado. ElprimerpasodelanlisisesconstruirunasubmatrizHdePformadadeestadosno absorbentesaestadosnoabsorbentes.LuegoHdalasprobabilidadesdeirdesdecualquier estadonoabsorbentehastaotroestadonoabsorbenteenunpasoexactamente,H2dalas probabilidades de ir desde cualquier estado no absorbente hasta otro estado no absorbente en dos pasos exactamente. H3 da informacin similar para tres pasos, etc. Por lo tanto, Hn da esta misma informacinpara n pasos. Parahallarelnmeroesperadodepasosantesqueelprocesoseaabsorbido,consisteen calcularelnmeroesperadodevecesqueelprocesopuedeestarencadaestadono absorbenteysumarlos.Estototalizaraelnmerodepasosantesdequeelprocesofuera absorbido y por consiguiente el nmero esperado de pasos hacia la absorcin. Luego: I+H+H2+H3+ .. = (I-H)-1 =Q Por consiguienteQ representa el nmero esperado de perodos que el sistema estar en cada estado no absorbente antes de la absorcin, por lo tanto la suma de cada fila de Q representa el promedio de perodos que transcurren antes de ir a un estado absorbente. Para hallar la probabilidad de absorcin por cualquier estado absorbente dado, se emplea una lgicasimilarenelanlisis.SeconstruyeunasubmatrizGdePformadadeestadosno absorbenteaestadosabsorbentesyrepresentalaprobabilidaddeirdeunestadono absorbenteaunestadoabsorbenteenunpasoexactamente,H.Grepresentalaprobabilidad ANALISIS DE MARKOVUNJBG 24 deirdeunestadonoabsorbenteaunestadoabsorbenteendospasosexactamenteyas sucesivamente.PorlotantoG+H.G+H2.G+.....=(I+H+H2+H3+..).G=(I-H)-1.G=Q.G=R,Y estamatriz representa la proporcin probabilidad en que un estado no absorbente pasa a un estado absorbente. Nmero de pasos para alcanzar por primera vez un estado determinado en cadenas no absorbentes (Tiempo de la primera transicin) Si definimos a fij como el promedio de perodos que transcurre antes de cambiar de un estado i al estado j por primera vez. Setiene que =+ =j kkj ik ijf p f . 1y adems iiiSf1=Otro mtodo: Consiste en transformar en estado absorbente el estado al cual queremos ir por primeravez,porejemplosijeselestadoquequeremosllegarporprimeravez,paraellola matriz P se modifica de manera que el estado j aparezca como estado absorbente y obtener la matrizQdeestatransformacinyporlotanto =iA iAq f dondeArepresentaelestado absorbente. Valor Econmico Esperado en un Proceso cadena de Markov. EnunprocesodeMarkovestarencadaestadogenerauncostobeneficio,porlotantoel valor econmico esperado se define: = =i iiiiS cfcC E . ) ( ,esdecir,elvaloreconmicoporlaprobabilidaddelsistema estabilizado.13 VI. CONDICIONES DE EQULIBRIO

13 http://ares.unimet.edu.ve/matematica/bpma31/Modelos%20Estocasticos/PROCESOS%20DE%20MARKOV.doc ANALISIS DE MARKOVUNJBG 25 Solopuedehaberunacondicindeequilibriosiningunodeloscompetidoresalteralamatriz deprobabilidadesdetransicin.Esrazonablesuponerquepodrallegarseenelfuturoaun estadode equilibrio, con respecto a las participacionesde mercado. El intercambio de clientesentrminosderetencin,gananciasoprdidas,seriaestticoenelmomentoenquese lograraelequilibrio.Entrminosdemercadotecniacualessonlasparticipacionesde mercado final o de equilibrio? Puedenemplearsevariasmatricesdeprobabilidadesdetransicinparademostrarlas condicionesde equilibrio. Elejemplomscomnesaqulenqueningunaempresaobtienetodalaclientelaoseaque en un totalde tres empresas, ni unani dosde ellas se apoderande todoel mercado. Hay cierta condicinfinalde equilibrioque se desarrolla y continuabasndose en una matrizestable de probabilidades de transicin. En casi todos los problemas de markov, ordinariamente las prdidas y gananciasson de gran magnituden los primerosperiodos.(14) VII. USO DEL ANALISIS DE MARKOVPOR LA ADMINISTRACION Engranparte,elmaterialprecedentehatratadolametodologadelanlisisdemarkov,que bsicamenteesuninstrumentodemercadotecniadelaadministracin,paradeterminarla estrategiade mercadotecniams apropiada para la empresa. Esto puede demostrarse con el ejemplosiguiente,enelqueinicialmentecadaempresacuentaconlatercerapartedel mercado.

((((

7 . 1 . 3 .2 . 6 . 2 .1 . 3 . 5 .

Suponiendoque la matrizde probabilidades de transicinno cambie , las participacionesde equilibriooalalargademercadodeA,ByC,sernde27.8,33.3y38.9porciento, respectivamente.Sabiendoqueesperaperderunapartedesumercadoenelfuturo,el

14J. ThieraufRobert , A. Grosse Richard. Toma de decisiones por medio de Investigacion de Operaciones. pg. 410. A B C Retenciny gananciaRetenciny prdidaA B C ANALISIS DE MARKOVUNJBG 26 vendedorApuedehaceralgoconrespectoalasituacinactual,paraimpedirqueesto ocurra .Adispone dedosestrategiasposibles: puedetratarderetener unmayornmero de suspropiosclientes(estrategia1),opuedeencaminarsusesfuerzosde mercadotecnia(publicidadyventaspersonales)hacialoscompradoresquesecambianalos vendedores B y C (estrategia 2). Refirindonosalaestrategia1,elvendedorApodratratarderetenerunmayornmerode clientes, digamosde .5 a .7. Ese cambio supone que A disminuyesus prdidas de clientesa favor de B y C. La nuevamatriz de probabilidades de transicin es: ((((

7 . 1 . 2 .2 . 6 . 1 .1 . 3 . 7 . Lasnuevasparticipacionesdeequilibriodemercadoson:A,38.6,B,27.0yC,34.4por ciento.Actualmente,esosesfuerzosespecficosdeventashandadoporresultadouna posicin ms favorablea la largapara el vendedor A. Lasegundaestrategia(delvendedorA,queencaminasusesfuerzosdeventasalos compradores que cambiana B y a C), se muestra en la matriz revisada de probabilidades de transicin: ((((

7 . 5 . 0 . 3 .1 . 6 . 2 .2 . 35 . 5 . Los clculos de las participacionesde equilibrio de mercado son: A, 32.6, B, 19.0, y C, 84.4 por ciento. Podemos preguntar :Cul es la mejor estrategiapara el vendedorA? el factor decisivoes el factorde costo de los esfuerzosde ventas , si todos losdems permaneceniguales.Si losde las dos estrategiasson iguales, evidentemente la estrategia1 ser la mejor .Sin embargo , A B C AB CA B C A B C ANALISIS DE MARKOVUNJBG 27 cuandolosfactoresdecostodelesfuerzodeventasnosoniguales,laseleccindela respuestaapropiada dependerdel anlisismarginal , los ingresosadicionalescomparados conlos costosadicionales. El anlisis Markov no se limitaen modoalguno a determinarlas participacionesde mercadoa corto plazoy a largo plazo .Muchas compaasestnusando lascadenas de markov como ayudapara el anlisis de las necesidades de mano de obra de su grupode vendedores. Cada ao,hayempresasqueesperanperderunaporcindesugrupodevendedoresdebidoa renuncias,retirosomuertes.Losvendedoresactualestienendiferentesnivelesde experiencia, instrucciny capacidad. Una empresa tiene que contratar nuevos elementospara remplazarlos que se van, y otrosms para satisfacersus crecientes requerimientos .La alta gerenciase enfrentaal problemade calcular las futuras necesidadesde mano de obra , de acuerdocon la edad y la clasede servicio , en vistade las caractersticasdel movimientode personaly del crecimientoplaneadode las ventas . El primer pasoconsisteen calcularlos porcentajesde retencinde losvendedoresen las diversasclases de servicioy de edad .Esos porcentajescalculadosse utilizanen el anlisis deMarkovparaproyectarlasfuturascaractersticasdelafuerzadevendedores,sinose contratannuevoselementos.Seanalizanlospatronesalternativosdereclutamientocon respectoa su efectoen la composicinde la futura fuerzade ventasy probablenivelde ventas.Paraciertametadeventas,puederecomendarsealaadministracinsuperiorla cantidadmnimayeltipodevendedoresquehayareclutarcadaao. ElanlisisdeMarkov tambinpuede aplicarse a las demsfunciones principalesde laempresa, desde el punto de vistade las necesidades de personal. OtrasreasdondesehanaplicadolascadenadeMarkov,sonlasestimacionesdelas toleranciaspara cuentasdudosas en el campode contabilidad, y la introduccinde un nuevo producto.Conrelacinalosegundo,unaempresaquieresaber,porejemplo,comose vendersunuevoproducto,unlimpiadorparacuartosdebao ,cuandosepongaenlos estantesde unsupermercado , al ladode otros limpiadorespara bao. Algunospueden ser lquidos en botella, otros pueden ser en polvosen lastas de fibra , cremasen recipientes de plstico,oenformadeaerosoles.Generalmenteesasituacinrequierelaconstruccinde modelosmatemticossobrelaformaenquepuedacambiarocambiarselalealtaddelos clientesadeterminadoproducto.Enrealidad,losmatemticosdelaempresatendrnque ANALISIS DE MARKOVUNJBG 28 expresarlalealtaddelosclientesdeMarkovquemuestrenelcomportamientode intercambio de los clientes.15 VI.APLICACINDELASCADENASDEMARKOVALASDIFERENTES MATERIAS a)Fsica LossistemasMarkovianaparecenextensivamenteadentrofsica,particularmentemecnicos estadsticos,siemprequelasprobabilidadesseutilicenpararepresentarlosdetalles desconocidos o unmodelled del sistema, si puede ser asumido que las dinmicas son tiempo-invariantes, y que ninguna historia relevante necesita ser considerada que no se incluye ya en la descripcin del estado. b)Prueba VariostericoshanpropuestolaideadelapruebaestadsticadelacadenadeMarkov,un mtododeconjoiningcadenasdeMarkovparaformarunamantadeMarkov,arreglando estas cadenas en varias capas recurrentes (wafering) y produciendo sistemas ms eficientes delaprueba-muestras-comoreemplazoparalapruebaexhaustiva.MCSTstambintiene aplicacionesenredesestado-basadastemporales;Chilukuriyotros.'redestemporalesdadas derecho papel del razonamiento de la incertidumbre de s las para la fusin de la evidencia con losusosparaoponerseladeteccinyseguir(ScienceDirect)danunestudioexcelentedel fondo y de caso para aplicar MCSTs a una gama de usos ms amplia. c)Teora que hace cola

15J. ThieraufRobert , A. Grosse Richard. Toma de decisiones por medio de Investigacion de Operaciones. pg. 418. ANALISIS DE MARKOVUNJBG 29 LascadenasdeMarkovsepuedentambinutilizarparamodelarvariosprocesosadentro teoraquehacecolayestadstica.[2].ClaudeShannonpapelfamoso1948Unateora matemtica de la comunicacin, de que en un solo paso cre el campo teora de informacin, seabreintroduciendoelconceptodeentropaconmodelardeMarkovdelalenguainglesa. Talesmodelosidealizadospuedencapturarmuchasdelasregularidadesestadsticasde sistemas. Incluso sin describir la estructura completa del sistema perfectamente, tales modelos delasealpuedenhacermuyeficazposiblecompresindedatosporcodificacindela entropa tcnicas por ejemplo codificacin aritmtica. Tambin permiten la valoracin eficaz del estadoyreconocimientodepatrn.Lossistemasdetelfonomvildelmundodependende AlgoritmodeViterbiparaerror-correction,mientrasquemodelosocultadosdeMarkovse utilizanextensivamenteadentroreconocimientodediscursoytambinadentrobioinformatics, porejemploparalaregindelacodificacin/laprediccindelgene.LascadenasdeMarkov tambin desempean un papel importante adentro el aprender del refuerzo. d)Usos del Internet PageRankdeunWebpagesegnloutilizadocercaGoogleesdefinidoporunacadenade Markov.Eslaprobabilidadaestarenlapginaienladistribucininmvilenlacadenade Markov siguiente en todos los Web pages (sabidos). Si N es el nmero de Web pages sabidos, y una pgina i tiene ki los acoplamientos entonces tiene probabilidad de la transicin para todas las pginas a las cuales se ligan y para todas las pginas que no son se lig a. El parmetro q se toma para ser cerca de 0.15. LosmodelosdeMarkovtambinsehanutilizadoparaanalizarelcomportamientodela navegacin de la tela de usuarios. La transicin del acoplamiento de la tela de un usuario en un Web site particular se puede modelar usando los modelos primeros o second-order de Markov ysepuedeutilizarhacerprediccionesconrespectoalanavegacinfuturaypersonalizarel Web page para un usuario individual. e)Estadstico Los mtodos de la cadena de Markov tambin han llegado a ser muy importantes para generar secuenciasdenmerosalazarparareflejarexactamentedistribucionesdeseadasmuy complicadasdelaprobabilidad,vaunprocesollamadoCadenadeMarkovMonteCarlo ANALISIS DE MARKOVUNJBG 30 (MCMC).EstosltimosaosestotienerevolutionisedlafactibilidaddeInferenciaBayesian mtodos,permitiendounaampliagamadedistribucionesposterioressersimuladoysus parmetros ser encontrados numricamente. f)Economa La macroeconoma dinmica utiliza pesadamente cadena de Markov. g)Biologa matemtica LascadenasdeMarkovtambintienenmuchosusosenmodelarbiolgico,particularmente procesosdelapoblacin,quesontilesenmodelarlosprocesosqueson(porlomenos) anlogosalaspoblacionesbiolgicas.MatrizdeLeslieesuntalejemplo,aunquealgunasde susentradasnosonprobabilidades(puedenser1mayor que). Otroejemploimportanteesel modelardelaformadelaclulaendividirlashojasdeclulasepiteliales].Ladistribucinde formas -- predominante hexagonal -- era un misterio de muchos aos hasta que fue explicado por un modelo simple de Markov, donde est su nmero el estado de una clula de lados. La evidenciaempricaderanas,demoscasdefruta,ydelhydramsfuturosugierequela distribucininmvildelaformadelaclulaseaexhibidaporcasitodoslosanimales multicelularesh)Juego LascadenasdeMarkovsepuedenutilizarparamodelarmuchosjuegosdelaocasin.Los juegos de los nios Serpientes y escalasy Hi Ho! La Cereza-o ", por ejemplo, es representada exactamente por cadenas de Markov. En cada vuelta, el jugador sale en un estado dado (en un cuadradodado)ydeallhafijadoprobabilidadesdetrasladarseaciertosotrosestados (cuadrados). i)Bisbol ANALISIS DE MARKOVUNJBG 31 LosmodelosdelascadenasdeMarkovsehanutilizadoenanlisisavanzadodelbisbol desde 1960, aunque su uso sigue siendo raro. Cada mitad-turno de un juego del bisbol cabe el estado de la cadena de Markov cuando el nmero de corredores y las salidas se consideran. Paracadamitad-turnohay24combinacionesposiblesdelagotamiento.Losmodelosdela cadenadeMarkovsepuedenutilizarparaevaluarlosfuncionamientoscreadosparaambos jugadores individuales as como un equipo. 16 UNA APLICACIN DE LAS CADENAS DE MARKOV EN UN PROCESO INDUSTRIAL INTRODUCCIN: ElpresentetrabajopretendemostrarlaaplicacindelascadenasdeMarkovenelproceso industrial de fabricacin de tejas de asbesto cemento en la empresa Torres S.A. ANTECEDENTES: Torreses una empresa del grupo Eternit Blgica dedicada a generar soluciones a la industria de la construccin con sus productos de asbesto cemento. En esta empresa es una prioridad el manejo del Scrap(desperdicio) en el proceso productivo debido a que su acumulacin s convierte en un problema ambiental y a su vez una carga en el costo final del producto. El proceso productivo se puede describir as: 1.Humectacin: lugar donde se combinan las materias primas para generar la mezcla con la que se elaboraran las tejas de asbesto cemento. 2.Fabricacin: lugar donde la mezcla del proceso anterior se le da forma de teja. 3.Desmoldeo: lugar donde la teja es fraguada y separada de los moldes y apilada en estibas.

16 (www.worldlingo.com/ma/enwiki/es/Markov_chain) ANALISIS DE MARKOVUNJBG 32 4.Almacndeproductoterminado:lugardondelastejasprovenientesdedesmoldeo terminan su ciclo de fraguado. 5.Scrap:lugardondesealmacenanlosdesperdiciosodefectuososgeneradosporlos procesos anteriores. Icnico del proceso: HUMECTACIN FABRICACINDESMOLDEOAPT SCRAP OBJETIVOS: ANALISIS DE MARKOVUNJBG 33 GENERAL: Aplicar la teora fundamental de cadenas de Markov para determinar el comportamiento de la materia prima a futuro en cada proceso. ESPECIFICOS: -Mostrar que el proceso es una cadena de Markov. -Construir la matriz de transicin. -Mostrar que los estados son accesibles. -Mostrar que los estados se comunican. -Mostrar que los estados son recurrentes. -Mostrar que los estados son aperidicos. -Presentar los tiempos de: recurrencia y primera ocurrencia. MARCO TERICO: 1.PROCESOS MARKOV 1.1. ESTADOS DEL SISTEMA: Un modelo de Markov consiste en un conjunto de estados discretos. Este conjunto es exhaustivo y describe todos los posibles estados donde el sistema puede estar. La transicin del estado i a j ocurre con una probabilidadpij Podemos pensar en un modelo de Markov como una simple lnea de transferencia.Se puede pensar en dos mquinas y en un inventario. Cada mquina es descrita por su tiempo ANALISIS DE MARKOVUNJBG 34 de operacin, su tiempo para la falla y su tiempo para la reparacin. El tiempo de proceso se refiere a la cantidad de tiempo en que demora hacer una parte. El tiempo para la falla, es el tiempo que ocurre entre la ltima reparacin y el siguiente dao. El tiempo para reparacin, es el tiempo que transcurre entre el ultimo dao y el momento en que la mquina esta disponible para operar. Estas cantidades pueden ser deterministicas, en estos casos se obtienen estados discretos y una cadena de Markov con transiciones discretas(o tiempos discretos en la cadena de Markov). Tambin puede ser continuo con variables aleatorias. Se asume que la primera mquina nunca deja de ser alimentada y la ultima maquina nunca es bloqueada. Se modela para una maquina y as tener una idea bsica de la cadena de Markov. En este caso el estado de la maquina se describe por su estatus, Wi, donde: Wi = 1mquina disponible 0mquina en reparacin M1

Inventario M2 La cadena se puede representar as: Donde de 0 a 1 se da la probabilidad de repararse. Donde de 1 a 0 se da la probabilidad de falla. 0

1 ANALISIS DE MARKOVUNJBG 35 Estas probabilidades se obtienen al observar las mquinas en operacin por un largo periodo de tiempo. Estos datos se pueden recopilar para determinar que porcentaje de tiempo la mquina esta siendo reparado e igual para el porcentaje de tiempo que la mquina esta disponible para el trabajo. Ahora los estados de este proceso consisten en el estatus de cada mquina ms la cantidad de material presente en el sistema. Especficamente, el estado del sistema es: S=(n,W1,W2), Donde: n= # de piezas en inventario + # piezas en la mquina 20