ramificacion

133
 Relaci´ on entre los Procesos de Ramificaci´ on y los Procesos de L´ evy

Upload: hugo-cruz

Post on 22-Jul-2015

106 views

Category:

Documents


0 download

TRANSCRIPT

Relacin entre los Procesos o de Ramificacin y los Procesos o de Lvy e

Indice generalIntroduccin. o 1. El Proceso de Ramificacin de Galton-Watson. o 1.1. Introduccin. . . . . . . . . . . . . . . . . . . . . . . . . o 1.2. Definicin. . . . . . . . . . . . . . . . . . . . . . . . . . o 1.3. Descripcin matemtica. . . . . . . . . . . . . . . . . . . o a 1.4. La Funcin Generadora para el Proceso de Ramificacin. o o 1.5. Los Momentos de Zn . . . . . . . . . . . . . . . . . . . . . 1.6. La Probabilidad de Extincin. . . . . . . . . . . . . . . . o 1.7. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .III

1 . 1 . 2 . 3 . 4 . 6 . 8 . 15 29 29 30 31 34 37 44 49 51 56 59 63 63 64 65 72

2. El Proceso Markoviano de Ramificacin a Tiempo Continuo o 2.1. Introduccin. . . . . . . . . . . . . . . . . . . . . . . . . . . . o 2.2. Definicin. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . o 2.3. Construccin . . . . . . . . . . . . . . . . . . . . . . . . . . . o 2.4. Las Ecuaciones Backward y Forward de Kolmogorov . . . . . 2.5. Funcin Generadora . . . . . . . . . . . . . . . . . . . . . . . o 2.6. Existencia y Unicidad de las Soluciones. . . . . . . . . . . . . 2.7. Hiptesis de no explosin. . . . . . . . . . . . . . . . . . . . . o o 2.8. Los Momentos de Z(t) . . . . . . . . . . . . . . . . . . . . . . 2.9. Probabilidad de Extincin . . . . . . . . . . . . . . . . . . . . o 2.10. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3. El C.B. Proceso 3.1. Introduccin . . . . . . . . . . . . . . . . . o 3.2. Definicin . . . . . . . . . . . . . . . . . . o 3.3. Existencia y Construccin del C.B. proceso o 3.4. Los Momentos del C.B. Proceso . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

II

INDICE GENERAL

3.5. El C.B. Proceso como Proceso 3.6. Probabilidad de Extincin . . o 3.7. El C.B. Proceso como Proceso 3.7.1. Distribuciones L mite . 3.7.2. Teoremas L mite . . .

de Difusin. o . . . . . . . L mite . . . . . . . . . . . . . . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

74 79 81 81 89

4. Relacin entre los P. de Ramificacin y los P. de o o 4.1. Introduccin . . . . . . . . . . . . . . . . . . . . . o 4.2. Deniciones . . . . . . . . . . . . . . . . . . . . . 4.3. El C.B.P. y el P. de Lvy con saltos no negativos e

Lvy e 107 . . . . . . . 107 . . . . . . . 107 . . . . . . . 109 113 . 113 . 114 . 117

A. Procesos de Markov. A.1. Funcin de Transicin . . . . . . . . . . . . . . . . . . . . . o o A.2. Semigrupos . . . . . . . . . . . . . . . . . . . . . . . . . . . A.3. Procesos de Markov . . . . . . . . . . . . . . . . . . . . . . .

B. Procesos de Lvy e 121 B.1. Denicin y algunas propiedades . . . . . . . . . . . . . . . . 121 o B.2. Procesos de Lvy con saltos no negativos. . . . . . . . . . . . . 123 e Bibliograf a 127

Introduccin oEn este trabajo se estudian los procesos de ramificacin y la relacin de o o estos con los procesos de Lvy, nuestro objetivo principal es el de presentar e de manera detallada dicha relacin, ya que pocos libros bsicos mencionan o a esto. Esta relacin es importantisima ya que es el prembulo del estudio de o a los superprocesos. Hay una manera de clasicar a los procesos de ramificacin de acuerdo o con su condicin cr o tica, su parmetro del tiempo, el caso sencillo o mula tiple de part culas, el caracter Markoviano o no Markoviano, etc. Nosotros solamente nos limitamos al estudio del caso Markoviano y sencillo, pero en cada cap tulo vamos cambiando el parmetro tiempo y el espacio de estados, a as por ejemplo en el primer cap tulos analizamos el caso de tiempo y espacio de estados discreto, en el segundo el caso de espacio de estados discreto y tiempo continuo y por ultimo el caso de espacio de estado y tiempo contui nuo. En el cap tulo uno se desarrolla un poco de la teor del proceso de Galtona Watson,el cual es el proceso de ramificacin mas sencillo, bsicamente damos o a su denicin, su construccin, sus momentos, algunos ejemplos y por ultimo o o la probabilidad de extincin del procesos. En el cap o tulo dos analizaremos a el proceso Markoviano de ramificacin a tiempo cotinuo, el cual no es ms o a que una extensin del proceso de Galton-Watson. Hay que sealar que dicho o n anlisis no es tan simple como en el caso del proceso de Galton-Watson, pero a aun as se pueden obtener sus momentos y la probabilidad de extincin. o El cap tulo tres y cuatro son la parte ms importante de este trabajo y esa tan basados en los trabajos hechos por Lamperti y Silverstein. En el cap tulo tres se hace un estudio del proceso de ramificacin continua. En dicho estudio o vemos la construccin del proceso, su existencia, sus momentos, que es un o proceso de difusin, su probabilidad de extincin y lo mas importante, que o o se puede ver como un proceso l mite de procesos de Galton-Watson. Por ulti

IV

Introduccin o

mo en el cuarto cap tulo vemos la relacin entre el proceso de ramificacin o o continua y el proceso de Lvy con saltos no negativos. e Adems se agregan dos apndices con material auxiliar para el desarrollo a e de este trabajo.

Cap tulo 1 El Proceso de Ramificacin de o Galton-Watson.1.1. Introduccin. o

Fue en 1874 cuando Francis Galton y H. W. Watson trabajaron en el problema de extincin de familias, mostrando como la probabilidad puede o ser aplicada al estudio de los efectos del azar en el desarrollo de familias o poblaciones. Lamentablemente este primer trabajo ten una hiptesis que a o no pod ser aceptada, ya que asum que las familias distinguidas son ms a a a dadas a desaparecer que las ordinarias. Es as como Galton vuelve a plantear el problema de la siguiente manera: Sean p0 , p1 , p2 ,. . . , las respectivas probabilidades de que un hombre tenga 0, 1, 2,. . . , hijos varones; donde cada hijo varn tiene o las mismas probabilidades que sus padres de tener hijos varones; y as sucesivamente.Cul es la probabilidad de que la lnea mas a culina se extinga despus de r-generaciones? O de una manera e ms general Cul es dicha probabilidad para un nmero de desa a u cendientes en la linea masculina de una generacin dada? o Este planteamiento da nacimiento al estudio de los procesos de ramificacin. o Estos trabajos fueron olvidados por varios aos, pero fueron retomados exn tensivamente entre los aos veinte y treinta de este siglo por su gran inters n e matemtico y como una base terica para estudios de poblaciones de indivia o duos como serian: genes, neutrones o rayos csmicos. o

2

El Proceso de Ramificacin de Galton-Watson. o

La primera correcta y completa determinacin de la probabilidad de extino cin para dicho proceso fue dada por J. F. Steffenson (1930, 1932). Despus o e el modelo fue retomado por Kolmogorov y Dimitriev (1938), los cuales aumentaron notablemente su estudio y le dieron el nombre de los Procesos de Ramificacin. o En este cap tulo estudiaremos el proceso de ramificacin ms simple como o a una introduccin al estudio de los procesos de ramificacin ms generales. El o o a objetivo principal es el de mostrar con claridad el modelo, as como algunas de sus propiedades que nos sern de gran utilidad en los siguientes cap a tulos; adems vamos a resolver el problema de extincin de familias, que es el tema a o principal en este cap tulo.

1.2.

Definicin. o

Para empezar con el estudio de este modelo, es necesario imaginar individuos que puedan generar nuevos individuos del mismo tipo, por ejemplo: el hombre, las bacterias reproducindose o neutrones en una reaccin en cae o dena. Primero vamos a empezar con un conjunto inicial de individuos, al cual llamaremos generacin cero, si estos individuos tienen descendientes, estos nuevos o integrantes van a conformar a la primera generacin y los descendientes de o esta primera generacin van a conformar a la segunda generacin y as suceo o sivamente. Es necesario aclarar que se estudiar al proceso de ramificacin a o de Galton-Watson ms simple. a Hay que hacer notar que seguiremos con atencin el tamao de las generao n ciones sucesivas, no el tiempo al cual cada individuo nace; as como tampoco la relacin familiar de cada individuo. o Vamos a denotar por Z0 , Z1 , Z2 ,. . . , como el nmero de individuos de la u generacin cero, primera generacin, segunda generacin, . . . Tambin vamos o o o e a agregar las siguientes dos hiptesis: o i) Si el tamao de la n-sima generacin es conocido, entonces la ley de n e o probabilidades que gobierna a las generaciones siguientes, no depende del tamao de las generaciones previas a la n-sima; en otras palabras n e Z0 , Z1 , Z2 ,. . . forma una cadena de markov. ii) La cadena de Markov considerada en este cap tulo, tiene una propiedad especial, la cual consiste en que diferentes individuos no intereren

1.3 Descripcin matemtica. o a

3

con los otros; en el sentido de que el nmero de descendientes de un u individuo no depende en cuantos otros individuos estan presentes.

1.3.

Descripcin matemtica. o a

Sean Z0 , Z1 , Z2 ,. . . , variables aleatorias. Interpretaremos a Zn como el nmero de individuos en la n-sima generacin; durante todo este cap u e o tulo vamos a suponer que el proceso inicia con un solo individuo, o de otra manera tenemos que Z0 = 1. Adems vamos a denir {Xi,n : n 1, i 1} una sucesin de variables a o aleatorias independientes e idnticamente distribuidas, las cuales representan e el nmero de descendientes que puede tener el i-simo individuo de la n-sima u e e generacin. o De esta manera vamos a escribir a Zn+1 como: Zn+1 =Zn

Xi,n+1

i=1

Por esta ultima relacin vemos que si Zn = 0, la suma siempre va a ser cero, o en consecuencia vamos a armar que el cero es un estado absorbente. Denotaremos por P como la medida de probabilidad del proceso. Entonces la funcin masa de probabilidad de Xi esta dada por: o P Xi,n = k = k para toda k, n {0, 1, 2, 3, . . .} y

k = 1

k=0

donde k es la probabilidad de que un individuo de la n-sima generacin e o tenga k hijos. Con toda esta informacin podemos obtener una probabilidad de transicin o o para el proceso que denotaremos por Pij la cual representa la probabilidad de que en la (n+1)-sima generacin haya j individuos dado que en la generacin e o o pasada (n-sima) la poblacin total era de i individuos. La probabilidad de e o transicin para toda i, j, n {0, 1, 2, 3, . . . } esta dada por: o Pij = P Zn+1 = j|Zn = i = P i

Xk,n+1 = j

k=1

4

El Proceso de Ramificacin de Galton-Watson. o

1.4.

La Funcin Generadora para el Proceso o de Ramificacin. o

La funcin generadora para la variable aleatoria Zn la vamos a denir como: o fn (s) = P(Zn = k)sk para toda n {0, 1, 2, 3, . . . }. Como vamos a tener que P Z0 = 1 = 1 en este cap tulo, o al menos que se diga lo contrario, entonces podemos obtener la siguiente relacin o f0 (s) = P(Z0 = k)sk = sk=0 k=0

Deniremos a la funcin generadora para la variable aleatoria X1 como: o k s k donde s [1, 1] R fX (s) =k=0

Teorema 1.4.1 (Funciones Generadoras). Sean X1 , X2 , X3 , . . . una sucesin o de variables aleatorias independientes e idnticamente distribuidas, con valoe res en los enteros, y sea N otra variable aleatoria independiente de la sucesin o {Xi }i1 y con valores en los enteros positivos, entonces la variable aleatoria N Y = Xk tiene por funcin generadora a: ok=1

y podemos notar que la variable aleatoria Z1 se distribuye igual que la variable aleatoria X1 entonces f1 (s) = P(Z1 = k)sk = fX (s).k=0

fY (s) = fN (fX1 (s)).

Demostracin. Primero vamos a hacer una particin en el espacio de estao o S dos , donde = {N = n} y denamos a 1 A como la funcin indicadora l on=1

del conjunto A , es decir 1A (x) = 1 si y slo si x A; si utilizamos el l o teorema de convergencia dominada tenemos que P P N n Xk Xk Y k=1 k=1 fY (s) = E[s ] = E s 1 = E l s 1{N =n} l (X1 +X2 ++Xn ) = E s 1{N =n} ln=1 n=1

1.4 La Funcin Generadora para el Proceso de Ramificacin. o o

5

Usando el hecho de que {Xi }i1 son independientes entre s e independientes de la variable aleatoria N , e identicamentes distribuidas tenemos que n n X fY (s) = E s k P(N = n) = E[sXk ]P(N = n) = = fN (fX (s))n=1 n=1

n X1 E[s ] P(N = n) = [fX (s)]n P(N = n)n=1

k=1

n=1 k=1

Para obtener la funcin generadora del proceso en la (n+1)-sima generacin o e o Zn es necesario recordar que Zn+1 = Xk,n+1 , as podemos aplicar el teorema de las funciones generadoras y llegar a la siguiente relacin o fn+1 (s) = fn (fX (s)).k=1

(1.1)

Esta relacin tambin se puede obtener anal o e ticamente, desarrollarlo es un ejercicio importante ya que utilizaremos algunas tcnicas que necesitaremos e ms adelante. a Por denicin tenemos o fn+1 (s) = P(Zn+1 = k)sk = P(Zn+1 = k|Zn = j)P(Zn = j)sk = = =k=0 j=0 j=0 k=0 j=0

P(Zn = j)

j=0

= fn (fX (s)).

j P(Zn = j) E[sX1 ] =

P j j Xi,n+1 P(Zn = j)E s i=1 = P(Zn = j) E[sXi,n+1 ]j=0 i=1 j=0

k=0

P(X1,n+1 + X2,n+1 + + Xj,n+1 = k)sk

j P(Zn = j) fX (s)

Siguiendo con este procedimiento por induccin obtenemos que para cualo quier k {0, 1, 2, . . . , n} fn+1 (s) = fnk (fk+1 (s))

Ahora podemos iterar esta funcin y obtener el siguiente resultado: o fn+1 (s) = fn (fX (s)) = fn1 fX (fX (s) = fn1 (f2 (s)) = fn2 fX (f2 (s)) = fn2 (f3 (s))

6

El Proceso de Ramificacin de Galton-Watson. o

y si k = n 1 tenemos

fn+1 (s) = fX (fn (s)).

(1.2)

1.5.

Los Momentos de Zn.

Lema 1.5.1. Sean = E[X1 ] y 2 = Var[X1 ] y suponemos que son nitas. Entonces n 2 si = 1, E[Zn ] = n y Var[Zn ] = 2 (n1) n 1 si = 1. 1 Demostracin. Hay que notar que fX (1) = y 2 = fX (1) + 2 . Si o derivamos la ecuacin (1.1) tenemos que o fn+1 (s) = fn (fX (s))fX (s)

y si tomamos s = 1 tenemos fn+1 (1) = fn (1)fX (1)

hasta llegar a que

si iteramos esta ultima relacin obtenemos que o 2 3 fn+1 (1) = fn (1)fX (1) = fn1 (1) fX (1) = fn2 (1) fX (1) n n+1 fn+1 (1) = fX (1) fX (1) = fX (1) . E[Zn+1 ] = n+1 .

como la primera derivada de la funcin generadora de X1 evaluada en uno o es igual a entonces tenemos que

Para obtener la Var [Zn+1 ] primero hacemos notar que fn (1) = 2 2 k(k 1)P(Zn = k) = E[Zn ] E[Zn ] = E[Zn ] fn (1)

k=2

de esta manera vamos a ver que V ar[Zn ] = fn (1) + fn (1) fn 1))2 .

1.5 Los Momentos de Zn .

7

Si ahora derivamos dos veces a la ecuacin (1.2) obtenemos la siguiente reo lacin: o 2 fn+1 (s) = fX (fn (s)) fn (s) + fX (fn (s))fn (s) y si tomamos s = 1 obtenemos 2 fn+1 (1) = fX (1) fn (1) + fX (1)fn (1)

sustituyendo tenemos que

fn+1 (1) = ( 2 + 2 )2n + fn (1) = ( 2 + 2 )2n + ( 2 + 2 )2(n1) + fn1 (1) = ( 2 + 2 )(2n + 2n1 ) + 2 fn1 (1) = ( 2 + 2 )(2n + 2n1 ) + 2 ( 2 + 2 )2(n2) + fn2 (1) = ( 2 + 2 )(2n + 2n1 + 2n2 ) + 3 fn2 (1)

siguiendo la iteracin por induccin llegamos a o o fn+1 (1) = ( 2 + 2 )(2n + 2n1 + 2n2 + + n ).

Ahora, gracias a este desarrollo vamos a obtener la varianza de Zn+1 . V ar[Zn+1 ] = ( 2 + 2 )(2n + 2n1 + 2n2 + + n ) + n+1 2n+2 = 2 (2n + 2n1 + 2n2 + + n ) + (2n+2 + 2n+1 + 2n + + n+2 ) (2n+1 + 2n + 2n1 + + n+1 ) + n+1 2n+2 = 2 (2n + 2n1 + 2n2 + + n ) = 2 n (n + n1 + n2 + + 1). De aqu se ve claramente que n+1 1 2 n 1 V ar[Zn+1 ] = 2 (n + 1) si = 1, si = 1.

Observacin 1.5.1. La varianza crece o decrece geomtricamente, segn si o e u > 1 < 1, y linealmente si = 1. o

8

El Proceso de Ramificacin de Galton-Watson. o

1.6.

La Probabilidad de Extincin. o

En esta seccin vamos a calcular la probabilidad de extincin del proceso, o o pero antes tenemos que dar las siguientes deniciones. Definicin 1.6.1. Por extincin vamos a entender como el evento en que la o o sucesin {Zn }n=0 de variables aleatorias consiste en ceros para toda n n o para algn n nito. u Como Zn es un valor entero, la extincin es el evento tal que on

l Zn = 0 m

Definicin 1.6.2. Tomaremos a como la probabilidad de extincin de una o o familia, es decir, = P {|Zn () = 0 para alguna n 1} Teorema 1.6.1. El l P(Zn = 0) es igual a mn

donde es la raz no negativa ms pequea de la ecuacin s = fX (s). Adems a n o a = 1 si 1 y < 1 si > 1 siempre y cuando P(Z1 = 1) < 1. Demostracin. Primero vamos a denir a los conjuntos A y An , como: o A = {|Zn () = 0 para alguna n 1} y An = {|Zn () = 0},

P {|Zn () = 0 para alguna n 1} =

y la probabilidad del evento An como n = P(An ). Claramente se ve que An An+1 por ser el cero un estado absorbente, entonces tenemos quen

l An = m

n=1

as vemos que = P(A) = P An = P

An = A

n=1

n

l An = l P(An ) = l n m m mn n

1.6 La Probabilidad de Extincin. o

9

y adems sabemos que fn (0) = P(Zn = 0) de esta manera tenemos que an

l P(Zn = 0) = l fn (0) = l n m m mn n

entonces n = fn (0) = f (fn1 (0)) = f (n1 ) y sabemos que l n = , por lo cual tenemos mn

En esta ultima igualdad, para poder meter el l mite en la esperanza se utiliz el Teorema de Convergencia Dominada. o Ahora mostraremos que si e es cualquier ra no negativa de la ecuacin z o s = f (s) entonces e . Como f (s) es no decreciente en [0, 1] tenemos 1 = f (0) f (e) = e 2 = f (1 ) f (e) = e y si seguimos iterando veremos que para toda n N., n e concluyendo que e. Entonces es la ra ms pequea no negativa de la ecuacin z a n o s = fX (s). Para vericar la segunda armacin del teorema, necesitamos el hecho de o que fX (s) es convexa en [0, 1] y esto es fcil de ver porque a fX (s) = E[Z1 (Z1 1)s(Z1 2) ] 0 si

= l n = l f (n1 ) = l E (n1 )Z1 m m m n n n Z1 Z1 = E l (n1 ) m = E[ ] = f ().n

s 0.

Entonces fX (s) es convexa y no decreciente en [0, 1] con fX (1) = 1, adems a se puede vericar que las curvas y = fX (s) y y = s generalmente tienen dos intersecciones en dicho intervalo y esto ocurre cuando s = y s = 1. Ahora probaremos que si 1 y P(Z1 = 1) < 1 la ecuacin fX (s) = s no o tiene ra en [0, 1) y si > 1, entonces tiene una unica ra en [0, 1). ces z Supongamos que < 1, esto nos permite armar que fX (1) < 1; como fX (s) es no decreciente armamos que fX (s) < 1 para toda s [0, 1). Si suponemos que = 1 y P(Z1 = 1) < 1, entonces P(Z1 = n) > 0 para algn n 2, y u como fX (1) = 1 armamos que fX (s) < 1 para toda s [0, 1) ya que el l fX (s) = 1 y fX (s) es estrictamente creciente. m s1

10

El Proceso de Ramificacin de Galton-Watson. o

Lo que acabamos de mostrar es que si tenemos que 1 y P(Z1 = 1) < 1 entonces fX (s) < 1 para toda s [0, 1); por lo tanto

d (fX (s) s) < 0 para 0 s < 1. ds Ahora tenemos que fX (s) s es estrictamente decreciente en [0, 1) y como fX (1) 1 = 0 entonces fX (s) s > 0 en [0, 1). Por esta razn la funcin o o fX (s) = s no tiene raices en [0, 1). Ahora si suponemos que > 1, lo que vamos a tener es que l s1 fX (s) > 1, m por continuidad de fX (s) existe un s0 en el intervalo (0, 1) tal que para toda s (s0 , 1), fX (s) > 1 y por el teorema del valor medio para derivadas tenemos que fX (1) fX (s0 ) fX () = >1 para alguna (s0 , 1) 1 s0 y como fX (1) = 1 entonces fX (s0 ) s0 < 0. Ahora fX (s) s es continua en s y no negativa en s = 0, entonces por el teorema del valor intermedio vamos a tener un cero en [0, s0 ). Por lo tanto armamos que tenemos una ra en . z Si suponemos que existe otra ra 1 entonces fX (s) s vale cero en , en 1 z y en 1. Si 0 < 1 < 1, por el teorema de Rolle la primera derivada tiene al menos dos ra ces en el intervalo (0, 1) y la segunda al menos una ra en z el mismo intervalo. Pero si > 1, entonces al menos para una n 2 pasa que P(Z1 = n) > 0, por lo cual tenemos que la segunda derivada no tiene raices en [0, 1) y es aqu donde cae la contradiccin. Con esto podemos armar que fX (s) = s o tiene una unica ra en el intervalo [0, 1). z Con esto hemos mostrado que si < 1, la unica ra de fX (s) = s es cuando z = 1 en [0, 1], cuando > 1 tenemos una unica ra que es menor a uno z y si = 1 tenemos que distinguir entre el caso no aleatorio en donde 2 = 0, fX (s) = s y = 0, y en el caso aleatorio cuando 2 > 0, fX (s) > s para s [0, 1) y = 1. Con la teor general podemos resumir la evolucin a travs del tiempo de a o e un proceso de ramificacin. o La cadena no es irreducible pero existe una unica distribucin estacionaria o dada por 0 = 1, i = 0 si i > 0. Esto no nos dice nada acerca del comportamiento del proceso y debemos buscar en otro lado, para obtener mayor informacin. o

1.6 La Probabilidad de Extincin. o

11

Una de las dicultades, es que el proceso puede comportarse relativamente diferente dependiendo del momento en que llegue la extincin. o Una forma de atacar el problema es estudiando el comportamiento del proceso condicionado con la ocurrencia de algn evento como la extincin o el u o valor de una variable aleatoria como el nmero total de progenie. u Sean g(k) y f (s) la funcin de densidad y la funcin generadora de Z1 , esto o o es: g(k) = P(Z1 = k) fX (s) = E[sZ1 ]. Sea T el tiempo en que ocurre la extincin, denido como o {n : Zn = 0} si la extincin ocurre, nf o T = en otro caso. Hablando de manera estricta si T = entonces el proceso crecer ms a a all de toda cota, en cambio si T < entonces el tamao del proceso nunca a n llegar a ser muy grande y en consecuencia se ir a cero. a a Como sabemos P(T < ) es la ms pequea ra no negativa de la ecuacin a n z o s = fX (s). Ahora, sea En = {n < T < } el evento de que la extincin ocurra en algn o u tiempo despus de n. e Debemos estudiar la distribucin de Zn condicionado a la ocurrencia de En , o n para lo cual deniremos P0j = P(Zn = j|En ); la cual es la probabilidad condicional de que en la n-sima generacin haya j individuos dada la futura e o extincin del proceso. o En lo que estamos interesados es en el valor l mite de dicha probabilidad, esto es 0 j = l P0j m nn

si es que dicho l mite existe. Para evitar algunos casos triviales supondremos que 0 < g(0) + g(1) < 1 y g(0) > 0, estas condiciones implican por ejemplo que 0 < P(En ) < 1 y que la probabilidad de extincin nal = P(T < ) satisface 0 < 1. o0 Teorema 1.6.2. Si E[Z1 ] < entonces l P0j = j existe. m n n 0 j La funcin generadora f (s) = o j s satisface la ecuacin o j=0

f ( 1 fX (s)) = f (s) + 1

(1.3)

12

El Proceso de Ramificacin de Galton-Watson. o

donde es la probabilidad de la extincin nal y = fX (). o Notemos que si = E[Z1 ] 1 entonces = 1 y = por lo tanto la ecuacin (1.3) se reduce a o

f (fX (s)) = f (s) + 1 . Cualquiera que sea el valor de tenemos que fX () 1 dndose la igualdad a si y slo si = 1. o

Demostracin. Para s [0, 1) sea o

fn (s) =

j=0

Donde

fn (s) = E sZn Enn sj P0j = j=0

sj

P(Zn = j, En ) . P(En )

P(En ) = P(n < T < ) = P(T < ) P(T n) = fn (0) y P(Zn = j, En ) = P(Zn = j y todas las lineas siguientes mueran) = P(n < T < |Zn = j)P(Zn = j) = P(T < |Z0 = j)P(Zn = j) = j P(Zn = j) j1 adems tenemos que P(Zn = 0, En ) = P(Zn = 0), entonces a fn (s) = P(Zn = j, En ) 1 j = s P(Zn = j) j P(En ) P(En ) j=0 j=0 1 fn (s) fn (0) . = (s)j P(Zn = j) = fn (0) j=0 fn (0)

sj

Ahora, vamos a denir dos funciones de gran utilidad para la demostracin o de este teorema de la siguiente manera: Hn (s) = fn (s) fn (0) y h(s) = fX (s) s 0 s < .

1.6 La Probabilidad de Extincin. o De esta manera renombramos a fn (s) de la siguiente relacin o fn (s) = 1 Hn (s)

13

(1.4)

veamoslo 1 Hn (s) = 1 fn (s) fn (0) + fn (s) = fn (0) fn (0) fn (s) fn (0) = = fn (s) fn (0)

Ntese que Hn tiene dominio en el intervalo [0, ) y fn (s) tiene dominio en o el intervalo [0, 1). Ahora proponemos la siguiente relacin o

Hn (s) h(fn1 (s)) = Hn1 (s) h(fn1 (0)) esto por que fn (s) Hn (s) ( fn (s))( fn1 (0)) fn (0) = = . Hn1 (s) fn1 (s) ( fn1 (s))( fn (0)) fn1 (0) Por el otro lado tenemos fX (fn1 (s)) h(fn1 (s)) ( fX (fn1 (s)))( fn1 (0)) fn1 (s) = = h(fn1 (0)) fX (fn1 (0)) ( fn1 (s))( fX (fn1 (0))) fn1 (0) = ( fn (s))( fn1 (0)) ( fn1 (s))( fn (0))

de cualquier modo fn1 (s) es no decreciente y h(s) es no decreciente porque f (s) es convexa en [0, ). Por lo tanto tenemos para s < Hn (s) Hn1 (s)

14

El Proceso de Ramificacin de Galton-Watson. o

entonces por la ecuacin (1.4) tenemos o f (s) = 1 H(s) si se satisfacen estos l mites para s [0, 1)n

si 0 s < 1

l Hn (s) = H(s) m

y

n

l fn (s) = f (s) m

pero claramente se ve que sucede. 0 Entonces el coeciente j de sj en f (s) existe para toda j como se deseaba. An ms, si 0 s < tenemos u a Hn (f (s)) = fn (fX (s)) fX (fn (0)) fn+1 (s) = = h(fn (0))Hn+1 (s). fn (0) fn (0) fn+1 (0) (1.5)

Cuando n tiende a innito fn (0) tiende a y entonces podemos decir l h(fn (0)) = l m m fX (s) = fX () s

n

s

haciendo tender n a innito en (1.5) obtenemos H(f (s)) = fX ()H(s)

si 0 s <

y f (s) = 1 H(s). Con esto podemos ver que f ( 1 fX (s)) = 1 H( 1 fX (s)) = 1 H(fX (s)) = 1 fX ()H(s) = 1 H(s) = 1 (1 f (s)) = 1 + f (s) lo cual era a lo que quer amos llegar.

1.7 Ejemplos

15

1.7.

Ejemplos

Ejemplo 1.7.1 (Clculo de Esperanzas). a Sea un proceso de ramicacin Z con E[Z1 ] = < . Para calcular o E[Zm Zn ] para m n primero tenemos que mostrar que E[Zn |Zm ] = Zm nm , lo cual haremos por induccin. o Para demostrar que es vlido para n = m + 1 primero veremos que a j j j E[Zm+1 |Zm = j] = E Xi Zm = j = E[Xi ] = = j.i=1 i=1 i=1

De esta manera tenemos que E[Zm+1 |Zm ] = Zm . Ahora supondremos que es vlido para un n > m + 1 y lo probaremos para n + 1. a E[Zn+1 |Zm ] = E E[Zn+1 |Zn ]Zm = E[Zn |Zm ] = Zm nm = n+1m Zm entonces, con este resultado podemos calcular lo siguiente2 E[Zm Zn |Zm ] = Zm E[Zn |Zm ] = Zn nm

y es as como obtenemos 2 2 E[Zn Zm ] = E E[Zn Zm |Zm ] = E[Zm nm ] = nm E[Zm ]. Lo cual era lo que queriamos calcular. Ejemplo 1.7.2 (Probabilidad de un ancestro comn). u Consideremos un procesos de ramificacin Z en el cual P(Z0 = 1) = 1 y o P(Z1 = 0) = 0. Tomamos dos individuos aleatoriamente (con reemplazo) de la n-sima generacin y sea L el indicador de la generacin que contiene su e o o ms reciente ancestro comn. Para probar que a u1 1 P(L = r) = E[Zr ] E[Zr+1 ]

para 0 r < n

supongamos 0 r n, y que todo es conocido en el proceso hasta la generacin r. Condicionando con esta informacin, se toma aleatoriamente o o 1 a un individuo en la n-sima generacin con probabilidad Zr de tener un e o ancestro en la r-sima generacin, para cualquier miembro de la r-sima e o e

16

El Proceso de Ramificacin de Galton-Watson. o

generacin. La probabilidad de que dos individuos de la n-sima generacin, o e o tomados aleatoriamente e independientemente uno del otro, tengan el mismo 1 ancestro en la r-sima generacin es entonces Zr . Entonces e o P(L < r) = P(L < r, Zr = i) = P(L < r|Zr = i)P(Zr = i) i=1 i=1 1 = E P(L < r|Zr ) = E[1 Zr ]

de esta manera para 0 r < n

1 1 P(L = r) = P(L < r + 1) P(L < r) = E[1 Zr+1 ] E[1 Zr ] 1 1 = E[Zr ] E[Zr+1 ].

Si ahora tenemos que 0 < P(Z1 = 0) < 1 entonces P(L < r|Zn > 0) = =

P(L < r|Zn > 0, Zr = i)P(Zr = i|Zn > 0) = E P(L < r|Zn > 0, Zr )Zn > 0i=1 1 1 = E[1 Zr |Zn > 0] = 1 E[Zr |Zn > 0]

i=1

P(L < r, Zr = i|Zn > 0)

con este resultado obtenemos que1 1 P(L = r|Zn > 0) = E[Zr |Zn > 0] E[Zr |Zn > 0].

Ejemplo 1.7.3 (Tiempo de extincin). o Consideremos un proceso de ramificacin Z cuyo tamao de familia tiene o n k una funcin geomtrica g(k) = qp , para k 0 y donde p + q = 1. Sea o e T = m n{n : Zn = 0} el tiempo de extincin del proceso de ramificacin o o Z, y supongamos Z0 = 1. Para calcular P(T = n) primero se mostrar que a el nmero de descendientes de la n-sima generacin satisface la siguiente u e o relacin: o n si p = q P(Zn = 0) = n+1n qn ) q(p si p = q pn+1 q n+1

1.7 Ejemplos

17

Este hecho se demostrar por induccin. Cuando n = 1 se ve claramente que a o esta relacin se satisface o 1 si p = q P(Z1 = 0) = 2 q si p = q Ahora suponemos que es vlida para n = k y demostraremos que se cumple a para n = k + 1 P(Zk+1 = 0) = fk+1 (0) = f (fk (0)) =j=0

[fk (0)]j P(Z1 = j).

Si p = q vamos a tener que j k j 1 j+1 1 k 1 fk+1 (0) = = = 2k 2 2 j=0 2(k + 1) 2 2(k+1) j=0 k + 1 = k+1 k+1 = . 2(k + 1) k k+2

Si p = q vamos a ver que q(pn q n ) j q(pn q n ) j j fk+1 (0) = P(Z1 = j) = qp n+1 q n+1 n+1 q n+1 j=0 p j=0 p qp(pn q n ) j q =q = qp(pn q n ) n+1 q n+1 j=0 p 1 n+1 n+1p q

= =

q(pn+1 q n+1 ) q(pn+1 q n+1 ) = n+1 pn+1 q n+1 [qp(pn q n )] p q n+1 qpn+1 + pq n+1 q(pn+1 q n+1 ) q(pn+1 q n+1 ) = n+2 . pn+1 (1 q) q n+1 (1 p) p q n+2 P(T = n) = P(Zn = 0) P(Zn1 = 0).

Ya demostrado lo anterior, ahora vamos a realizar el siguiente clculo a

Si p = q tenemos que P(T = n) = = n n1 n2 (n + 1)(n 1) = n+1 n n(n + 1) n2 (n2 1) 1 = . n(n + 1) n(n + 1)

18

El Proceso de Ramificacin de Galton-Watson. o

Y para p = q vamos a tener que P(T = n) = = = = = q(pn q n ) q(pn1 q n1 ) pn+1 q n+1 pn q n

q(pn q n )2 q(pn1 q n1 )(pn+1 q n+1 ) (pn q n )(pn+1 q n+1 ) q(pn1 q n+1 2pn q n + q n1 pn+1 ) (pn q n )(pn+1 q n+1 ) q n pn1 (q 2 2pq + p2 ) (pn q n )(pn+1 q n+1 ) q n pn1 (p q)2 . (pn q n )(pn+1 q n+1 )

Con este resultado se puede ver que E(T ) < si y slo si p < q aplicando o el criterio del cociente. Ejemplo 1.7.4 (Funciones generadoras). Para un proceso de ramificacin con Z0 = 1, encontraremos una expresin o o para la funcin generadora fn de Zn , en los casos en que Z1 tiene funcin o o generadora dada por: i) f (s) = 1 (1 s) 0 < , < 1. Lo primero que tenemos que hacer para resolver este ejercicio es proponer una relacin para la n-sima iterada de la funcin generadora. o e o Para proponer dicha relacin nos ser de gran utilidad analizar los casos o a cuando n = {2, 3}. f2 (s) = f (f (s)) = 1 {[1 (1 s) ]} = 1 [(1 s) ] = 1 (+1) (1 s) ,2 2 ++1) 2

f3 (s) = f (f2 (s)) = 1 {1 [1 (+1) (1 S) ]} = 1 [(+1) (1 s) ] = 1 (

2

(1 s) .

3

El analizar estos dos casos nos dio una idea de como podr ser la a n-sima iterada de la funcin generadora, la cual proponemos como e o fn (s) = 1 (n1 + n2 +++1)

(1 s) .

n

1.7 Ejemplos

19

Ahora slo falta demostrar que esta relacin se cumple, lo cual haremos o o por induccin. Supongamos que se cumple para n = k y demostraremos o que es vlido para n = k + 1. a fk+1 (s) = f (fk (s)) = 1 [1 ( = 1 [( = 1 (n + n1 +++1) k1 + k2 +++1)

k1 + k2 +++1)

(1 s)

(1 s) ]n+1

n

(1 s) ]

n

.

ii) f (s) = g 1 (P (g(s))) donde P es una funcin generadora y g es una o funcin conveniente que satisface g(1) = 1. o De la misma manera que en el caso anterior, tenemos que proponer una relacin para la n-sima iterada, entonces vamos a analizar los casos o e cuando n = {2, 3}. Como P es una funcin generadora tenemos que o P (P (s)) = P2 (s) f (s) = g 1 (P (g(s))) f2 (s) = f (f (s)) = g 1 (P (g(g 1 (P (g(s)))))) = g 1 (P (P (g(s)))) = g 1 (P2 (g(s))), f3 (s) = f (f2 (s)) = g 1 (P (g(g 1 (P2 (g(s)))))) = g 1 (P (P2 (g(s)))) = g 1 (P3 (g(s))). De esta manera vamos a proponer a la n-sima iterada de la funcin e o generadora como fn (s) = g 1 (Pn (g(s))) para n 1

la cual se va a demostrar por induccin. o Vamos a suponer que es vlido para n = k y demostraremos que se a cumple para n = k + 1. fk+1 (s) = f (fk (s)) = g 1 (P (g(g 1 (Pk (f (s)))))) = g 1 (P (Pk (f (s)))) = g 1 (Pk+1 (f (s))). iii) Para el caso (ii) calcular la respuesta expl cita cuando g(x) = xm y P (s) = s( ( 1)s)1 donde > 1. Como podemos ver este ejemplo es un caso particular del ejemplo anterior. Para resolverlo va ser necesario proponer la n-sima iterada para e

20

El Proceso de Ramificacin de Galton-Watson. o

la funcin generadora P , nuevamente va ser de gran utilidad analizar o los casos cuando n = {2, 3}. Pero antes vamos a hacer un cambio de 1 variable dado por = , entonces tenemos que P (s) = s s = . 1 1 (1 )s (1 (1 )s)

De esta manera va ser ms fcil analizar estos casos a a s 1(1)s P2 (s) = P (P (s)) = s 1 (1 ) 1(1)s = 1 (1 )s (1 )s 2s 1(12 )s s3 1(12 )s

s 1(1)s

[1 (1 )s]

=

s s = , 2 1 s + s 1 (1 2 )s

P3 (s) = P (P2 (s)) = s2 1 (1 ) 1(12 )s s3 s3 = . 1 (1 2 )s (1 )s2 1 s + s3 1 (1 3 )s Entonces proponemos la siguiente relacin: o = = Pn (s) = sn . 1 (1 n )s [1 (1 2 )s]

La demostracin de que esta relacin se cumple la haremos por induco o cin. Suponemos que es vlido para n = k y demostraremos que se o a cumple para n = k + 1, sn 1(1n )s Pn+1 (s) = P (Pn (s)) = sn 1 (1 ) 1(1n )s = = 1 (1 n )s (1 )sn sn+1 n+1 = 1 s + sn+1 1 (1 n+1 )s sn+1 1(1n )s

[1 (1 n )s]

1.7 Ejemplos

21

Ejemplo 1.7.5 (Ramificacin con migracin). o o

Como tenemos que g(x) = xm y conocemos la n-sima iterada para la e funcin generadora P , entonces concluimos que o 1 m 1 n sm 1 m m fn (s) = g (Pn (g(s))) = Pn (s ) = . 1 (1 n )sm

Cada generacin de un proceso de ramificacin (con un solo progenitor), auo o menta por un nmero aleatorio de inmigrantes los cuales son indistinguibles u de los otros miembros de la poblacin. Supongamos que el nmero de ino u migrantes en diferentes generaciones son independientes de cada uno, en la historia pasada del proceso, dado tal nmero se tiene la funcin generadora u o H(s). Sea Zn el nmero de miembros de la n-sima generacin. La n + 1-sima u e o e generacin tiene tamao Cn+1 + In+1 donde Cn es el nmero de descendieno n u tes naturales de la generaciones previa, e In es el nmero de inmigrantes. u Entonces por independencia tenemos E[sZn+1 |Zn ] = E[sCn+1 +In+1 |Zn ] = E[sCn+1 |Zn ]E[sIn+1 |Zn ] = E[sCn+1 |Zn ]H(s) = f (s)Zn H(s) y de esta manera tenemos que fn+1 (s) queda determinada por fn+1 (s) = E[sZn+1 ] = E E[sZn+1 |Zn ] = E[f (s)Zn ]H(s) = fn (f (s))H(s). Ejemplo 1.7.6 (Martingala). Consideremos a {Zn } un proceso de ramificacin con E[Z1 ] = . Sao n=0 r n bemos que E[Zn+r |Zn ] = Zn donde r, n N. Si denimos a Wn = Zn se puede ver que {Wn } es una martingala, veamoslo n=0 E[Wn+r |Wn ] = 1 n+r E[Zn+r |Zn ] = 1 n+r Z n r = W n .

Ejemplo 1.7.7 (Funcin generadora fraccional lineal.). o Consideremos un proceso de ramificacin Z cuyo tamao de familia tiene o n una funcin de densidad dada por P(Z1 = k) = bc(k1) donde b, c > 0 y o b + c < 1. Lo que deseamos ver es que para la n-sima generacin la funcin e o o generadora fn (s) y P(T = n) donde T = nf{n : Zn = 0} y s0 es la ra no z negativa mas pequea de f (s) = s, cumplen con n

22

El Proceso de Ramificacin de Galton-Watson. o

i) Si = 1

y

1 s0 (1 s0 ) n s 0 fn (s) = 1 + n s 0 n 1 1s n s0n

n s

P(T = n) = (n1) s0 ii) Si = 1 fn (s) = y P(T = n) =

(n

( 1)(1 s0 ) s0 )((n1) s0 )

nc s[(n + 1)c 1] 1 + (n 1)c ncs

c(1 c) [1 + (n 1)c][1 + (n 2)c]

Como k = bc(k1) para toda k {1, 2, 3, . . .} entonces 0 = 1 i=1

i = 1

i=1

bc(i1) = 1 b

c(i1)

i=1

=1b

j=0

cj = 1

b . 1c

La funcin generadora para Z1 esta dada por o f (s) =i=0

P(Z1 = i)si = 1

=1 =1

b b + bs (cs)(i1) = 1 + bs (cs)j 1c 1c i=1 j=0

(i1) i b + bc s 1 c i=1

La esperanza de Z1 esta dada por f (1) = entonces f (s) = de aqu que = (1 cs)b bs(c) b = (1 cs)2 (1 cs)2 b . (1 c)2

b bs + . 1 c 1 cs

1.7 Ejemplos

23

Ahora tenemos que para todad u [1, 1] se cumple la siguiente relacin: o f (s) f (u) = 1 = b bs b bu + 1+ 1 c 1 cs 1 c 1 cu

bs(1 cu) bu(1 cs) b(s u) = (1 cs)(1 cu) (1 cs)(1 cu) b(s v) . (1 cs)(1 cv)

entonces tambin tenemos que para toda v [1, 1] se cumple e f (s) f (v) =

De esta manera llegamos a la siguiente relacin o b(s u) f (s) f (u) (1 cs)(1 cu) (s u)(1 cv) = = . f (s) f (v) (s v)(1 cu) b(s v) (1 cs)(1 cv) Como ya sabemos que la ecuacin f (s) = s tiene ra en s0 y en 1 armamos o ces que si > 1 tenemos que s0 < 1, si = 1 entonces s0 = 1 y nalmente si < 1 la ra s0 > 1. Si tomamos a u = s0 y v = 1 entonces para = 1 la z relacin que se acaba de obtener queda o f (s) s0 (s s0 )(1 c) = f (s) 1 (s 1)(1 cs0 ) por lo tanto tenemos que 1c f (s) s0 s s0 f (s) s0 s s0 = = . 1 cs0 f (s) 1 s 1 s 1 f (s) 1 Aplicando el l mite cuando s tiende a 1 a toda la igualdad se puede ver que 1c f (s) s0 s 1 f (s) s0 s1 1 = l m = l m l m = 1 cs0 s1 s s0 f (s) 1 s1 s s0 s1 f (s) 1 Ya que tenemos que al aplicar la regla de LHospital para el segundo l mite obtenemos s1 1 1 l m = l m = s1 f (s) 1 s1 f (s)

24

El Proceso de Ramificacin de Galton-Watson. o

y el otro l mite claramente es 1. Estos resultados nos permite armar que f (s) s0 1 s s0 = . f (s) 1 s1

Este ultimo resultado va ser de gran utilidad para obtener una frmula o expl cita para fn (s). Primero vamos analizar los casos n = {2, 3} para proponer dicha forma expl cita para fn (s). Para f2 tenemos f2 (s) s0 f (f (s)) s0 1 f (s) s0 1 s s0 = = = 2 . f2 (s) 1 f (f (s)) 1 f (s) 1 s1

Para f3 (s) tenemos que

Entonces proponemos a fn (s) como

f3 (s) s0 f2 (f (s)) s0 1 f (s) s0 1 s s0 = = 2 = 3 . f3 (s) 1 f2 (f (s)) 1 f (s) 1 s1 fn (s) s0 1 s s0 = n . fn (s) 1 s1

Esta relacin se va a demostrar por induccin, entonces vamos a suponer que o o es vlido para n = k 1 y probaremos que se cumple para n = k, veamoslo. a fk (s) s0 fk1 (f (s)) s0 1 f (s) s0 1 s s0 = = (k1) = k . fk (s) 1 fk1 (f (s)) 1 f (s) 1 s1 fn (s) = n s0 (s 1) (s s0 ) . n (s 1) (s s0 )

Si resolvemos esta ecuacin vamos a ver que nos queda como: o

Para obtener el resultado al cual queremos llegar tenemos que manipular esta ecuacin, entonces tenemos que o (s s0 ) s0 (s 1) (s s0 ) n (s 1) fn (s) = n = (s 1) (s s0 ) (s s0 ) 1 n (s 1)n

s0

=

1

(s s0 ) + s0 1 1 s0 n (s 1) =1 (s s0 ) (s s0 ) 1 n 1 n (s 1) (s 1)

1.7 Ejemplos

25

fn (s) = 1

n (1 s0 )(s 1) n (1 s0 )(s 1) =1+ n s(n 1) + s0 n s0 s(n 1) n n s0 (1 s0 )(s 1) =1+ n s0 n s0 s(n 1) =1+ n (1 s0 ) (n s0 )(s 1) n s0 n s0 s(n 1)

n (1 s0 ) n (s 1) s0 (s 1) =1+ n s0 n s0 s(n 1) =1+ n (1 s0 ) n (s 1) s0 (s 1) + s s n s 0 n s0 s(n 1)

n (1 s0 ) (1 s0 )s (n n s s0 + s) =1+ n s 0 n s0 s(n 1) n n s s 0 + s n s(1 s0 )2 n (1 s0 ) n s 0 n s 0 =1+ n s0 s(n 1) 1 s0 (1 s0 ) n s 0 =1 + . ns n 1 0 1s n s0n

sn

De esta manera demostramos la forma expl cita para fn (s) a la cual queriamos llegar si = 1. Esta relacin nos servira para obtener P(T = n). o Sea A = {|T () n}, entonces A = {|T () n} = {|existe una s {1, 2, 3, . . . , n}tal que Zs () = 0} n = {|Zi () = 0} = {|Zn () = 0}i=1

De esta manera tenemos que P(T n) = P(Zn = 0) = fn (0) y fn (0) es equivalente a 1 s0 fn (0) = 1 n n . s0

26

El Proceso de Ramificacin de Galton-Watson. o

Con todos estos resultados, vamos a calcular P(T = n) P(T = n) = P(T n) P(T n 1) = fn (0) fn1 (0) = 1 n = n1 1 s0 1 s0 1 + n1 (n1) n s 0 s0

(1 s0 )(n s0 ) (1 s0 )(n1 s0 ) (n1 s0 )(n s0 ) ( 1)(1 s0 ) . (n s0 )(n1 s0 )

= n1 s0

Ahora veremos el caso en que = 1. En este caso podemos ver que b = (1 c)2 y solamente tenemos una unica ra la cual es s0 = 1, con toda esta z, informacin vemos que f (s) nos queda como: o 1 c (1 c)2 s(1 c)2 s(1 c)2 + =c+ 1c 1 cs 1 cs c(1 cs) + s(1 c)2 c s(2c 1) = , 1 cs 1 cs

f (s) = =

para f2 (s) tenemos c (2c 1)s c (2c 1) c (2c 1)f (s) 1 cs f2 (s) = f (f (s)) = = 1 cf (s) c (2c 1)s 1c 1 cs c(1 cs) (2c 1)(c s(2c 1)) 1 cs c2 + cs(2c 1) 2c 2c2 + s[(2c 1)2 c2 ] = 1 c2 + cs(2c 2) = =

2c(1 c) + s(3c2 4c + 1) 2c (3c 1)s = . (1 c)(1 + c) + 2cs(c 1) 1 + c 2cs

1.7 Ejemplos

27

y para f3 (s) tenemos c (2c 1)s 2c (3c 1) 2c (3c 1)f (s) 1 cs f3 (s) = f2 (f (s)) = = 1 + c 2cf (s) c (2c 1)s 1 + c 2c 1 cs = = = 2c(1 cs) (3c 1)[c s(2c 1)] (1 + c)(1 cs) 2c[c s(2c 1)]

3c 3c2 + s[(2c 1)(3c 1) 2c2 ] 1 + c 2c2 + cs[2(2c 1) 1 c] 3c(1 c) + s(4c2 5c + 1) 3c (4c 1)s = . 1 c + 2c(1 c) + 3cs(c 1) 1 + 2c 3sc nc [(n + 1)c 1]s . 1 + (n 1)c ncs

Entonces vamos a proponer la siguiente relacin para fn (s) : o fn (s) =

Esta funcin la vamos a probar por induccin. Supongamos que se cumple o o para k 1 , entonces basta ver que se cumple para k fk (s) = fk1 (f (s)) = (k 1)c (kc 1)f (s) 1 + (k 2)c (k 1)cf (s)

c s(2c 1) 1 cs = c s(2c 1) 1 + (k 2)c (k 1)c 1 cs (k 1)c (kc 1) = = =

(k 1)c(1 sc) c(kc 4) + s(kc 1)(2c 1) 1 cs + (k 2)c(1 cs) (k 1)c2 + s(2c 1)(k 1)c kc kc2 + s[(2c 1)(kc 1) (k 1)c2 ] 1 c + (k 1)c (k 1)c2 + cs[(2c 1)(k 1) 1 (k 2)c] kc(1 c) + s[(k + 1)c2 (k + 2)c + 1] kc s((k + 1)c 1) = . 1 c + (k 1)c(1 c) + csk(c 1) 1 + (k 1)c kcs

Ya demostrada la n-sima iterada,vamos a calcular fn (0) la cual es necesaria e

28

El Proceso de Ramificacin de Galton-Watson. o

para obtener P(T = n) fn (0) = entonces

nc 1 + (n 1)c nc (n 1)c 1 + (n 1)c 1 + (n 2)c

P(T = n) = fn (0) fn1 (0) = = =

nc(1 + (n 2)c) c(n 1)[1 + (n 1)c] [1 + (n 2)c][1 + (n 1)c] c(1 c) . [1 + (n 1)c][1 + (n 2)c]

Lo cual era a lo que queriamos llegar.

Cap tulo 2 El Proceso Markoviano de Ramificacin a Tiempo o Continuo2.1. Introduccin. o

En el cap tulo anterior estudiamos el proceso de ramificacin de Galtono Watson ms simple, en el cual el tiempo de vida de cada individuo es de una a unidad de tiempo. Como podemos darnos cuenta, este proceso no es suficiente para modelar el crecimiento de muchas poblaciones f sicas o biolgicas, es por o esto, que ahora se presenta una extensin a tiempo continuo del proceso de o ramificacin de Galton-Watson, el cual llamaremos el Proceso Markoviano o de Ramificacin a Tiempo Continuo. o Ser de gran inters ver que tanto el proceso de ramificacin de Galtona e o Watson como el Proceso Markoviano de Ramificacin a Tiempo Continuo o tienen propiedades muy similares y que en algunas ocasiones no es ms que a el resultado de una extensin. Adems se analizar el problema de como deo a a nir la n-sima iterada de una funcin cuando n no es un entero, que desde e o tiempo atrs ha interesado a un gran nmero de matemticos. a u a Este proceso tambin modela el crecimiento de una poblacin, salvo que e o ahora el tiempo de vida de cada individuo es una variable aleatoria. Nuevamente no tenemos un mecanismo matemtico para representar las relaciones a entre los individuos de la poblacin total, aunque se tengan en mente cuano do se plantea el modelo. La primera formulacin del proceso markoviano o

30

El Proceso Markoviano de Ramificacin a Tiempo Continuo o

de ramificacin a tiempo continuo aparece en los trabajos de Kolmogorov y o Dimitriev en 1947.

2.2.

Definicin. o

Como se hab sealado, en el proceso de ramificacin de Galton-Watson a n o el tiempo de vida de cada individuo es de una unidad de tiempo, una generalizacin natural para la construccin del proceso markoviano de ramificacin o o o a tiempo continuo es la de permitir que estos tiempos de vida sean aleatorios. En el cap tulo anterior se consider una cadena de Markov a tiempo discreto o {Zn : n = 0, 1, 2, . . .}, ahora deniremos un proceso {Z(t) : t 0} donde Z(t) es el nmero de individuos al tiempo t. Este proceso en general no u es de Markov, al menos que los tiempos de vida sean independientes y se distribuyan como variables aleatorias exponenciales, que para nuestros nes es lo que se va a suponer. Definicin 2.2.1. Un proceso estocstico {Z(t, ) : t 0} denido en un o a espacio de probabilidad (, , P) es llamado como el Proceso Markoviano de Ramificacin a Tiempo Continuo Unidimensional si: o i) Su espacio de estados esta dado por el conjunto de enteros no negativos. ii) Es una cadena de Markov estacionaria con respecto a los campost = {Z(s, ) : s t}, (para cualquier coleccin D de valores reales, o variables aleatorias Borel medibles denidas en (, , P), (D) denota la sub--lgebra generada por D). a iii) Las probabilidades de transicin Pij (t) = P(Z(t) = j|Z(0) = i) satisfao cen: i j j Pij (t)s = P1j (t)sj=0 j=0

Los incisos (i) y (ii) nos dicen que Z(t) es un Proceso Markoviano a Tiempo Continuo en los enteros, y el inciso (iii) caracteriza la propiedad bsica de ramificacin. a o Como era de esperarse gran parte de la teor del proceso de ramificacin a o de Galton-Watson se puede desarrollar en el caso continuo con tcnicas sie milares a las ya vistas. Ser de gran inters ver que el Proceso Markoviano de a e Ramificacin a Tiempo Continuo tiene una estructura mucho ms compleja. o a

para toda i 0 y |s| 1.

2.3 Construccin o

31

2.3.

Construccin o

Para la construccin del Procesos Markoviano de Ramificacin a Tiempo o o Continuo es indispensable estudiar las probabilidades de transicin, las cuales o estan dadas por Pij (, + t) = P(Z( + t) = j|Z( ) = i) para toda i, j {0, 1, 2, . . . }. Debido a la hiptesis de homogeneidad del tiempo estas satisfacen que o Pij (, + t) = Pij (t) t 0.

Estudiaremos las probabilidades de transicin mediante los dos sistemas o de ecuaciones diferenciales, las ecuaciones backward y forward de Kolmogorov. Para escribir de una manera expl cita dichas ecuaciones, primero obtendremos a ciertas funciones ai (t) y ij (t), con i, j = {0, 1, 2, . . .}. Si se tiene que Z(t) = i, entonces la probabilidad de que un cambio de estado ocurra en un intervalo de tiempo (t, t + h) es ai (t)h + o(h). Si nosotros sabemos que el cambio ocurre al tiempo t cuando el estado es i, entonces ij (t) es la probabilidad de que el nuevo estado sea j. Ahora vamos a suponer que un individuo presente al tiempo t tiene una probabilidad a(t)h + o(h) de morir en el intervalo de tiempo (t, t + h), donde a(t) es una funcin continua y no negativa. Si este individuo muere en un o tiempo , las probabilidades de que sea reemplazado por 0, 2, 3, . . . individuos son 0 (t), 2 (t), 3 (t), . . . Se omitir la posibilidad de muerte seguida de un a slo reemplazo, debido a la falta de dependencia en la edad, ya que parecer o a que no hubo cambio alguno. Por esta misma razn, la muerte de un individuo o y su reemplazo por n nuevos individuos (n 2), es equivalente a que dicho individuo no muera y tenga (n 1) nuevos descendientes. Es importante notar que si un individuo nace en un tiempo t1 , la probabilidad de que dicho individuo tenga un tiempo de vida adicional esta dada por t1 +

a(t1 + ) exp

a(x)dx

t1

la cual se convierte en una funcin de densidad exponencial si a es constante. o Si ahora en vez de tener un slo individuo, tenemos i presentes a un tiemo po t, entonces la probabilidad de que mueran 0, 1 y un nmero mayor a 2 en u un intervalo de tiempo (t, t + h) son 1 ia(t)h + o(h), ia(t)h + o(h) y o(h)

32

El Proceso Markoviano de Ramificacin a Tiempo Continuo o

respectivamente. Si ocurre una muerte al tiempo , entonces la probabilidad de que el tamao de la poblacin sea j dado que a cierto tiempo antes a n o el nmero de individuos era i, es ji+1 ( ). Al obtener estos resultados u podemos concluir que ai (t) = a(t) y ij (t) = ji+1 (t). Las k (t) son llamadas las probabilidades innitesimales, las cuales para nuestro proceso en estudio no dependen del tiempo; lo mismo le sucede a a(t) la cual no le queda ms que ser una constante. Las probabilidades innitesia males y el parmetro a deben cumplir con las siguientes propiedades: a 0 < a < , 0 < k y

k = 1.

k=0

Las probabilidades innitesimales determinan a las probabilidades de transicin como soluciones de las ecuaciones de Kolmogorov, dichas ecuao ciones sonj+1 d Pij (t) = jaPij (t) + a kPik (t)jk+1 dt k=1 k=j

forward

(2.1)

y

con condiciones en la frontera+

d Pij (t) = iaPij (t) + ia Pkj (t)ki+1 dt k=i1

backward

(2.2)

1 si i = j, Pij (0 ) = ij = 0 si i = j. Las probabilidades innitesimales nos dan una interpretacin probabilista o en trminos de un proceso de ramificacin, el cual construiremos de la siguiene o te manera. Supongamos que se empieza con un cierto nmero de individuos u a un determinado tiempo, la longitud de vida adicional de cada individuo es una variable aleatoria exponencial con prametro a. Al morir cada individuo a deja k descendientes con probabilidad k , donde k = {0, 1, 2, 3, . . .}. Como en el cap tulo anterior el comportamiento de cada individuo es independiente al de otros individuos y de la historia del proceso. Ahora supongamos que el proceso est en el estado i a un tiempo dado, a este contina ah por una cantidad de tiempo el cual se distribuye expou nencialmente con parmetro ia. Si el proceso salta a los estados j i 1, a

2.3 Construccin o

33

estos saltos estan determinados por las probabilidades ji+1 , entonces la probabilidad de transicin est dada por o a Pij ( ) = iaji+1 + o( ) cuando 0 y para j i 1 con j = i. Si el proceso se encuentra en el estado i y contina ah por cierta cantiu dad de tiempo, pero ahora no hay salto alguno, entonces la probabilidad de transicin queda determinada por o Pii ( ) = 1 ia + o( ) cuando 0. Y si el proceso se encuentra en el estado i y contina ah por cierta u cantidad de tiempo, pero ahora salta a los estados j < i 1, entonces la probabilidad de transicin queda determinada por o Pij = o( ) cuando 0 y para j < i 1. Este proceso que se acaba de construir se llama el proceso minimal. Nosotros acabamos de mencionar la construccin de Harris de un espacio o de probabilidad para un proceso de ramificacin. En esta construccin cada o o punto en el espacio muestral representa un completo arbol familiar, especicando el tiempo de nacimiento, longitud de vida, ancestros y descendientes de cada individuo, y una apropiada medida de probabilidad es construida en la extensin de Borel en los conjuntos cil o ndricos de estos espacios. Cuando la distribucin del tiempo de vida es exponencial, Harris prueba o que el proceso es de Markov, y tiene una funcin de transicin que satisface o o las ecuaciones de Kolmogorov. El obtuvo un proceso markoviano con el mismo mecanismo de transicin o ya descrito, pero en espacios muestrales subyacentes espec camente identicados como espacios de rboles de familias. a Esta identicacin ser de utilidad para nosotros. Por ejemplo sta nos o a e posibilitar para denir variables aleatorias como a Z(t,) (i) Zt (, ) si Z(t, ) > 0 Z(t + , ) = i=1 0 si Z(t, ) = 0

34(i)

El Proceso Markoviano de Ramificacin a Tiempo Continuo o

donde Zt (, ) es el nmero de descendientes que estan vivos hasta el tiemu po (t + ) del i-simo individuo de los Z(t, ) existentes al tiempo t. e (i) Los procesos Z(t, ) y {Zt (, ); 0} son independientes y equivalentes a {Z(u, ); u 0}, con la hiptesis usual de que Z(0, ) = 1. o

2.4.

Las Ecuaciones Backward y Forward de Kolmogorov

En esta seccin vamos a construir a las ecuaciones de Kolmogorov. El o proceso minimal es indispensable para dicha construccin. o

Proposicin 2.4.1. El proceso markoviano de ramificacin a tiempo contio o nuo satisface la ecuacin forward de Kolmogorov dada por o

j+1 d kPik (t)jk+1 Pij (t) = jaPij (t) + a dt k=1 k=j

Demostracin. Supongamos que Z(t + h) = j y Z(t) = i para cualquier o i {1, 2, 3, . . .} y j {0, 1, 2, 3, . . .}, entonces tenemos que Pij (t + h) = P(Z(t + s + h) = j|Z(s) = i) = P(Z(t + s + h) = j, Z(t + s) = k|Z(s) = i) =k=1 k=1

P(Z(t + s + h) = j|Z(t + s) = k)P(Z(t + s) = k|Z(s) = i)

2.4 Las Ecuaciones Backward y Forward de Kolmogorov

35

Pij (t + h) =

k=1 k=j

+ P(Z(t + s + h) = j|Z(t + s) = j)Pij (t)+ + P(Z(t + s + h) = j|Z(t + s) = k)Pik (t)k=j+2

j+1

P(Z(t + s + h) = j|Z(t + s) = k)Pik (t)+

=

k=1 k=j

j+1

Pik (t)(kahjk+1 + o(h))+

+ Pij (t)(1 jah + o(h)) + =k=1 k=j j+1

o(h)Pik (t)

k=j+2

akhPik (t)jk+1 +

jahPij (t) + o(h) + = Pij (t) jaPij (t)h +

j+2

k=1 k=j

j+1

k=1 k=j

j+1

Pik (t)o(h) + Pij (t)

o(h)Pik (t)

kahPik (t)jk+1 + o(h)

Ahora si restamos en ambos lados Pij (t) y dividimos entre h, entonces la ecuacin nos queda oj+1 Pij (t + h) Pij (t) kPik (t)jk+1 + o(1) = jaPij (t) + a h k=1 k=j

y si a h la hacemos tender a cero tenemos a la ecuacin forward de Kolmoo gorov j+1 d kPik (t)jk+1 Pij (t) = jaPij (t) + a dt k=1k=j

Proposicin 2.4.2. El proceso markoviano de ramificacin a tiempo contio o nuo satisface la ecuacin backward de Kolmogorov dada por o d Pij (t) = iaPij (t) + ia Pkj (t)ki+1 dt k=i1 k=i

36

El Proceso Markoviano de Ramificacin a Tiempo Continuo o

Demostracin. Para obtener la ecuacin backward de Kolmogorov, nueo o vamente vamos a suponer que Z(t + h) = j y Z(t) = i para cualquier i {1, 2, 3, . . .} y j {0, 1, 2, 3, . . .}, entonces tenemos que Pij (t + h) = P(Z(t + s + h) = j|Z(s) = i) = P(Z(t + s + h) = j, Z(h + s) = k|Z(s) = i) = =k=1 k=1 i2

P(Z(t + s + h) = j|Z(h + s) = k)P(Z(h + s) = k|Z(s) = i)

Pkj (t)P(Z(h + s) = k|Z(s) = i)+

k=1

+ Pij (t)P(Z(h + s) = i|Z(s) = i)+ + Pkj (t)P(Z(h + s) = k|Z(s) = i)k=i1 k=i

=

k=1

+

i2

Pkj (t)o(h) + Pij (t)(1 iah + o(h))+

Pkj (iahki+1 + o(h))

k=i1 k=i

= Pij (t) iahPij (t) +

Pkj (t)iahki+1 h + o(h)

k=i1 k=i

Ahora si restamos Pij (t) en ambos lado de la igualdad y dividimos entre h, entonces la ecuacin nos queda o Pij (t + h) Pij (t) = iaPij (t) + Pkj (t)iaki+1 + o(1) h k=i1 k=i

y si hacemos tender h a cero vamos a tener a la ecuacin backward de Kolo mogorov. d Pij (t) = iaPij (t) + ia Pkj (t)ki+1 dt k=i1k=i

Definicin 2.4.1. Llamaremos al conjunto de funciones {Pij (t)} una soluo cin de las ecuaciones backward y forward de Kolmogorov si son no negativas, o

2.5 Funcin Generadora o

37

absolutamente continuas en 0 y en t, satisfacen las ecuaciones de Kolmogorov y las siguientes condiciones i) Pij (t) =

Pik (t1 )Pkj (t)

i, j = 0, 1, 2, . . .

j=0

0 t1 t

(ecuacin de Chapman-Kolmogorov) o ii)

j=0

Pij (t) 1

i = 0, 1, 2, . . .

2.5.

Funcin Generadora o

Por el momento vamos a suponer que {Pij (t)} es una unica solucin de o las ecuaciones de Kolmogorov, por ser unica satisface

Pij (t) = 1.

j=0

La funcin generadora juega un papel importante en el anlisis de los o a procesos continuos. Antes de denir a la funcin generadora del proceso, o vamos a denir una funcin f (s) como o f (s) = y otra funcin u(s) como o u(s) = a[f (s) s]. El nmero a, que toma valores en el intervalo (0, ), y la funcin u o {j : j = 0, 1, 2, . . .} son los datos totales del proceso {Z(t) : t 0}. Deniremos a la funcin generadora del proceso {Z(t) : t 0} como o Fk (s, t) = =j=0 j=0

j s j

donde

j=0

|s| 1

P(Z(t) = j|Z(0) = k)sj Pkj (t)sj

= E[sZ(t) ].

38

El Proceso Markoviano de Ramificacin a Tiempo Continuo o

Si k = 1 entonces la funcion generadora se denota por F (s, t). Por las ecuaciones de Kolmogorov podemos ver que F (s, t) satisface las siguientes relaciones las cuales demostraremos mas adelante F (s, t) = u(F (s, t)) t y (ecuacin backward ) o (2.3)

F (s, t) = u(s) F (s, t) (ecuacin forward ) o t s con condicin de frontera o F (s, 0) = s.

(2.4)

Proposicin 2.5.1. El Proceso Markoviano de Ramificacin a Tiempo Cono o tinuo con solucin unica satisface la ecuacion backward de Kolmogorov para o la funcin generadora o F (s, t) = u(F (s, t)). t Demostracin. Para la construccin de la ecuacin backward para la funo o o cin generadora, primero tenemos que ver que de la ecuacin backward orio o ginal d Pij (t) = iaPij (t) + ia Pkj (t)ki+1 dt k=i1k=i

se puede armar que porque cuencia a n

j=0

Pij (t) converge uniformemente en (0, t) a

n

d P (t) dt ij

converge uniformemente en (0, t) a

j=0

Pij (t) y en conse-

d P (t), dt ij

j=0 k=i1 k=i

es decir,

Si la ecuacin backward original es multiplicada por sj en ambos lados, o al introducir la suma nita hasta n podemos ver que esta nueva relacin o d converge uniformemente en el intervalo (0, t) a P (t)sj , ya que |s| 1, dt ijj=0 n d c.u. d Pij (t)sj Pij (t)sj . dt dt j=0 j=0

j=0 k=i1 k=i

j=0 n

j=0

Pkj (t)ki+1 converge uniformemente en el mismo intervalo

Pkj (t)ki+1 .

2.5 Funcin Generadora o

39

De esta manera podemos aplicar el siguiente teorema. Teorema 2.5.1. Sean a < b y {fn : n N} una sucesin de funciones o derivables en (a, b) tal que la sucesin {fn : n N} converge uniformemente o en (a, b) y existe un punto x0 (a, b) tal que la sucesin {fn (x0 ) : n N} o converge. Entonces la sucesin {fn : n N} converge uniformemente en o (a, b) y n

l fn m

= l fn m n

Demostracin. Para demostrar que la sucesin {fn : n N} converge o o uniformemente, es suciente mostrar que dicha sucesin es de Cauchy. Sea o > 0. La sucesin {fn (x0 ) : n N} converge, entonces es de Cauchy, y existe o N1 N tal que |fn (x0 ) fm (x0 )| < 2 para todo m, n N1 . Tambin, la sucesin {fn : n N} es de Cauchy; sea N N1 tal que e o |fn (x) fm (x)| < 2(b a) para todo m, n N y x (a, b). Para todo n, m N y x (a, b) ahora tenemos |fn (x) fm (x0 )| |fn (x) fn (x0 ) fm (x) + fm (x0 )| + |fn (x0 ) fm (x0 )| |(fn fm )(x) (fn fm )(x0 )| + 2 = |(fn fm ) ()||x x0 | + 2 < |x x0 | + 2(b a) 2 0 existe una > 0 tal que |f (x + t) f (x) g(x)t| |t| para toda t con |t| < . Sean x (a, b) y > 0. Ya que l fn = g existe, m n tenemos que existe N N tal que para toda n N |fn () fN ()| 0 tal que para o toda t con |t| < , |fN (x + t) fN (x) fN (x)t| 0. n Hay que notar que sup s u(s) <

Ahora de un resultado muy bien conocido de la teor de ecuaciones dia ferenciales parciales (Kamke [9]), la ecuacin (2.7) tiene exactamente una o solucin en el trapezoide 0 t T , (s0 At) s s0 At, tomando o n como valor inicial a Fi (s, 0+ ) = si . Si Fi (s, t) es una solucin tal que es una serie de potencias en s, cono vergente para |s| s0 , entonces nosotros tendremos que Fi (s, t) = Fi (s, t)

2.6 Existencia y Unicidad de las Soluciones.

47

en el rectangulo 0 t T , s0 s s0 , ya que Fi (s, t) = Fi (s, t) en el n trapezoide. Podemos utilizar el mismo argumento para demostrar la unicidad en el siguiente rectangulo con T de ancho, y seguir as hasta llegar a T . Como T n es arbitrario podemos ver que la ecuacin (2.7) tiene una unica solucin en o o la regin s0 s s0 , t 0, y esto es para cada t en una serie de potencias o en s que es convergente para |s| s0 . Si la equacin forward tuviese una segunda solucin {Pij (t)} su correso o pondiente funcin generadora Fi (s, t) es una solucin de la serie de poo o tencias de la ecuacin (2.7) que tiene que coincidir con Fi (s, t), entonces o {Pij (t)} = {Pij (t)}. Esto prueba la unicidad de la solucin para la ecuacin o o forward de Kolmogorov. Si F (s, t) es solucin de la ecuacin ( 2.7) con valor inicial s, entonces o o i F (s, t) es una solucin con el valor inicial si . Por la propiedad de la unicio i dad tenemos que F (s, t) = Fi (s, t), y esto prueba que la ecuacin (2.5) se o satisface.

Lema 2.6.2. La funcin generadora F (s, t) satisface la desigualdad para o |s| 1 F (s, t) (1 P11 (t))(1 |s|) + |s| y si t esta en un intervalo nito, entonces existe una constante c (0, 1), tal que F (s, t) 1 c(1 |s|). Demostracin. Primero vamos a ver que la desigualdad para F (s, t) se o

48

El Proceso Markoviano de Ramificacin a Tiempo Continuo o

cumple para toda t en un intervalo nito j F (s, t) = P1j (t)s j=0 j=0

= P1j (t)sj P11 (t)|s| + P11 (t)|s| P11 (t)|s| P11 (t) + P1j (t)sj j=0 P1j (t)

P11 (t)|s| P11 (t) +

j=0

P11 (t)|s| P11 (t) + 1

P11 (t)|s| P11 (t) + 1 |s| + |s| (1 P11 (t))(1 |s|) + |s|. Ahora nosotros sabemos que P11 (t) satisface la siguiente desigualdad por el Lema 2.6.1 P11 (t) eat por lo tanto tenemos que 1 P11 (t) 1 eat Como t est en un intervalo nito y la funcin 1 eat es montona a o o creciente y su dominio es [0, 1) para toda t > 0, entonces existe un nmero u c en (0, 1) tal que 1 eat c para toda t en el intervalo nito. Con esto tenemos que F (s, t) (1 P11 (t))(1 |s|) + |s| c(1 |s|) + |s|

Teorema 2.6.2. La ecuacin backward de Kolmogorov tiene exactamente o una unica solucin que satisface la propiedad de ramificacin (2.5), y sta es o o e la solucin unica de la ecuacin forward de Kolmogorov. La funcin generao o o dora .F (s, t) satisface a la ecuacin (2.3) para |s| 1. o Demostracin. Si |s| < 1 entonces por el Lema 2.6.2, F (s, t) est acotada o a por una constante < 1, cuando t est en un intervalo nito. a

2.7 Hiptesis de no explosin. o o

49

Si s y t1 son nmeros jos, el lado derecho de la ecuacin (2.3) satisface u o la condicin de Lipschitz en la regin F (s, t) , 0 t t1 . Entono o ces la ecuacin (2.3) tiene para cada s con |s| < 1 una unica solucin que o o est acotada por alguna constante menor a uno. Pero si la ecuacin (2.2) tiea o ne otra solucin {Pij (t)} que satisface la ecuacin (2.7), su correspondiente o o funcin generadora F (s, t) va a ser una solucin a la ecuacin (2.3), la cual o o o est acotada por una constante menor a uno, entonces F (s, t) = F (s, t) y a {P1j (t)} = {P1j (t)}. Desde que {Pij (t)} est determinada por {P1j (t)} entonces por la propiea dad (2.7) la unicidad esta probada. La siguiente condicin asegura que la unica solucin de la ecuacin foo o o rward satisface Pij (t) = 1. En este caso la solucin es una unica solucin o oj=0

para la ecuacin backward. o

Condicin 2.6.1. La serie o tervalo nito (0, t).

j=0

jj (t) converge uniformemente en cada in-

Supongamos una t1 ja y t (0, t1 ), y sea F (1, t) = G(t). Entonces G(t) satisface la ecuacin diferencial ordinaria o d G(t) = au(G(t)) dt con G(t ) = 1 y 0 G(t) 1. 1 El lado derecho de la ecuacin diferencial satisface la condicin de Lipso o chitz en la regin 1 G(t) 1 y 0 t t1 , gracias a la condicin 2.6.1 o o y de la denicin de f (s). Entonces la solucin es unica y como 1 es una o o solucin tenemos que G(t) = 1. o

2.7.

Hiptesis de no explosin. o o

En esta seccin veremos que bajo la hiptesis de no explosin vamos o o o a tener que la solucin a las ecuaciones de Kolmogorov van a satisfacer o Pij (t) = 1 para t 0, lo cual nos dice que dicha solucin va a ser unica. o j=0

50

El Proceso Markoviano de Ramificacin a Tiempo Continuo o

De la ecuacin 2.3 tenemos que o F (s, t) = a f (F (s, t)) F (s, t) t con condicin en la frontera F (s, 0) = s, de donde se sigue que o armamos que F (s, t) t =a f (F (s, t)) F (s, t) y de aqu vemos que F (s,t) dx = at f (x) x s Hiptesis de no explosin : Para toda > 0 tenemos o o 1 dx = 1 f (x) x

Entonces

Teorema 2.7.1. La hipotesis de no explosin es necesaria y suciente para o que se satisfaga que P(Z(t) < ) = 1 F (1, t) = 1 o

Demostracin. Primero hay que ver la equivalencia entre P(Z(t) < ) y o F (1, t) F (1, t) = =j=0 j=0

P1j (t) P(Z(t) = j|Z(0) = 1)

= P(Z(t) < |Z(0) = 1) = P(Z(t) < ). Ahora tomamos un s0 (0, 1), de tal manera que f (x) x no se acerque mucho a cero para cualquier x [s0 , 1). Tomamos s1 y t1 tal que s0 < s1 < 1, t1 > 0 y s1 at1 > s0 , entonces vemos que t F (s, t) a, de esta manera armamos que F (s, t) sat > s0 para s1 s < 1 y 0 t t1 . Del Lema 2.6.2 podemos ver que |F (s, t)| < 1 si |s| < 1, entonces aplicamos F (s,t1 ) 1 dx = at1 para s1 s < 1 f (x) x s

2.8 Los Momentos de Z(t)

51

Para poder retener el valor at1 cuando s tiende a 1, debemos tener que F (1, t1 ) < 1 si la integral del fenomeno de no explosin converge, cuando t1 o es positiva; y vamos a tener que F (1, t1 ) = 1 si dicha integral diverge donde t1 es nita. Corolario 2.7.1. Si f (1) < , entonces F (1, t) = 1 Demostracin. Solamente tenemos que ver que la relacin o o f (h) h = (f (1) 1)(u 1) + o(u 1) u1

se va a cero cuando u tiende a 1, de esta manera utilizando el Teorema que acabamos de demostrar, armamos que F (1, t) = 1.

2.8.

Los Momentos de Z(t)

Vamos a denir el k-simo momento factorial de Z(t), donde k = 1, 2, 3, . . ., e como mk (t) = E Z(t)(Z(t) 1) (Z(t) k + 1)Z(0) = 1 . k Si la serie j k converge uniformemente en cada intervalo nito (0, t),j=0

entonces mk (t) es nito y se puede obtener derivando a las ecuaciones de Kolmogorov para la funcin generadora k veces con respecto a s y evaluando o en s = 1. Teorema 2.8.1. Sea b = a[f (1) 1] y tomamos Z(0) = 1, entonces E[Z(t)] = ebt y V ar[Z(t)] = f (1)f (1)+1 bt bt e (e f (1)1

f (1)at

1) si b = 0, si b = 0.

Demostracin. Denimos para |s| < 1 o m1 (s, t) = F (s, t) = kP1k (t)sk1 , s k=1

52

El Proceso Markoviano de Ramificacin a Tiempo Continuo o

entonces de la ecuacin (2.3) tenemos o F (s, t) = a f (F (s, t)) F (s, t) . t Si a esta ecuacin le calculamos la derivada parcial con respecto a s vamos o a tener F (s, t) = a f (F (s, t)) F (s, t) s t s s = a f (F (s, t) F (s, t) F (s, t) s s = a f (F (s, t)) 1 F (s, t) s = a f (F (s, t)) 1 m1 (s, t) y adems se cumple que a F (s, t) = m1 (s, t). s t t El intercambio de derivadas es vlido para |s| < 1 por la convergencia a absoluta y uniforme de las series. La condicin Pij (0+ ) = ij implica que o + m1 (s, 0 ) = 1. La solucin a esta ecuacin diferencial parcial o o m1 (s, t) = a f (F (s, t)) 1 m1 (s, t) t se obtiene jando a s y utilizando tcnicas de ecuaciones diferenciales ordie

2.8 Los Momentos de Z(t)

53

narias, entonces tenemos d m1 (s, t) = a f (F (s, t)) 1 m1 (s, t) dt dm1 (s, t) = a f (F (s, t)) 1 dt m1 (s, t) m1 (s,t) t dx =a f (F (s, y)) 1 dy x 1 0 t ln m1 (s, t) = a f (F (s, y)) 1 dy0 0

t m1 (s, t) = exp a f (F (s, y)) 1 dyj=1

Si hacemos a s tender a 1, la condicin de que la o

jj converge unifor-

y como sabemos que b = a f (1) 1 , entonces t m1 (1, t) = exp b dy = ebt0

memente implica que el integrando en la ecuacin a la cual se acaba de llegar o esta acotado y se aproxima a un l mite acotado, por lo tanto t m1 (1, t) = exp a f (1) 1 dy0

Con esto hemos demostrado la relacin para la esperanza. Para la varianza o primero vamos a suponer que b = 0. Al calcular la primera derivada parcial con respecto a s de la ecuacin backward de Kolmogorov para la funcin o o generadora tenemos la siguiente relacin o F (s, t) = a f (F (s, t)) 1 m1 (s, t). s t

Si a esta ultima ecuacin le calculamos la derivada parcial con respecto o a s tenemos m1 (s, t) 2 F (s, t) = a f (F (s, t)) 1 + af (F (s, t))m2 (s, t) 1 s st s

54

El Proceso Markoviano de Ramificacin a Tiempo Continuo o

y adems vemos que a

2 F (s, t) m2 (s, t) = . s st t Nuevamente el intercambio de derivadas es vlido para |s| < 1 por la a convergencia absoluta y uniforme de las series. La solucin a la ecuacin o o m2 (s, t) = a(f (F (s, t)) 1)m2 (s, t) + af (F (s, t))m2 (s, t) 1 t se obtiene jando a s y por tcnicas de ecuaciones diferenciales ordinarias, e entonces tenemos que dm2 (s, t) = a f (F (s, t)) 1 m2 (s, t) + af (F (s, t))m2 (s, t). 1 dt

Ahora multiplicamos por una funcin (s, t) con (s, 0) = 1, la ecuacin o o nos queda (s, t) dm2 (s, t) a f (F (s, t))1 (s, t)m2 (s, t) = af (F (s, t))(s, t)m2 (s, t) 1 dt

y de esta manera tenemos que del segundo termino de la izquierda no le queda mas que ser la derivada de (s, t) con respecto a t, es decir: d(s, t) = a f (F (s, t)) 1 (s, t) dt d(s, t) = a f (F (s, t)) 1 dt (s, t) (s,t) t dx = a f (F (s, y)) 1 dy x 1 0 t ln (s, t) = a f (F (s, y)) 1 dy0

De este modo

(s, t) = exp(a entonces

t

0

(f (F (s, y)) 1)dy)

d d d [m2 (s, t)(s, t)] = (s, t) m2 (s, t) + (s, t)m2 (s, t). dt dt dt

2.8 Los Momentos de Z(t)

55

Regresando a nuestra ecuacin original vemos o d m2 (s, t)(s, t) = af (F (s, t))m2 (s, t)(s, t) 1 dt t

m2 (s, t)(s, t) =

0

af (F (s, y))m2 (s, y)(s, y)dy 1

Si hacemos a s tender a 1, la condicin de que o

j=1

convergen uniformemente implica que ambos integrandos en la ecuacin a la o cual se acaba de llegar estan acotados y se aproximan a un l mite acotado, de esta manera t

jj y que

j=1

j(j 1)j

m2 (1, t)e

bt

=

0

af (1)m2 (1, y)eby dy 1 t

= af (1)

eby dy

0

t af (1) by = e b =

0

af (1) bt (e 1) b

entonces m2 (t) = af (1) bt bt e (e 1). b

Ahora para obtener la varianza solamente tenemos que sustituir en la siguiente relacin o V ar[Z(t)] = m2 (t) + m1 (t) m2 (t). 1

56

El Proceso Markoviano de Ramificacin a Tiempo Continuo o

Al sustituir vemos V ar[Z(t)] = = af (t) bt bt e (e 1) + ebt e2bt b f (t) bt bt e (e 1) ebt (ebt 1) f (1) 1

y

f (t) f (1) + 1 bt bt e (e 1) f (1) 1 Si suponemos que b = 0, entonces t m2 (t) = af (1)dy = af (1)t =0

f (t) bt bt f (1) 1 bt bt = e (e 1) e (e 1) f (1) 1 f (1) 1

m1 (t) = 1 de esta manera vamos a tener que V ar[Z(t)] = af (1)t Por lo tanto hemos demostrado el teorema.

2.9.

Probabilidad de Extincin o

En esta seccin vamos a resolver el problema de extincin de familias para o o el Proceso Markoviano de Ramicacin a Tiempo Continuo. Primero vamos o a asumir que 0 > 0, ya que de otra manera la extincin ser imposible. o a Tambin vamos a considerar el caso en donde el proceso al tiempo cero eme pieza con un solo individuo. Por propiedad del Proceso de Ramificacin vamos a tener que o i Pi0 (t) = P10 (t) . Intuitivamente podemos considerar que Pi0 (t) es una funcin no decreo ciente al tiempo t. Nosotros podemos probarlo formalmente considerando que para una h > 0 tenemos i i i Pi0 (t h) = Fi (0, t + h) = F (0, t + h) = F (F (0, h), t) P10 (t)

2.9 Probabilidad de Extincin o

57

Definicin 2.9.1. La probabilidad de extincin puede denirse como la proo o babilidad de que la familia generada por un solo individuo va a desaparecer, o sea = l P10 (t) mt

Utilizando la teor del proceso de ramificacin de Galton-Watson, resula o tara fcil determinar la probabilidad de extincin en el caso continuo. a o Teorema 2.9.1. La probabilidad de extincin del proceso markoviano de o ramificacin a tiempo continuo Z(t) es la raz no negativa ms pequea de o a n la ecuacin F (s, t0 ) = s, donde t0 es cualquier nmero positivo o u Demostracin. Sea t0 un nmero positivo jo y consideremos a el proceso o u de Galton-Watson Z(0), Z(t0 ), Z(2t0 ), . . . , Z(nt0 ), . . ., donde Z(t) es la poblacin al tiempo t correspondiente al Proceso Markoviano de Ramificacin o o a Tiempo Continuo original, que empieza con un slo individuo al tiempo o t = 0. Como Z(t) es un proceso de Markov, el proceso a tiempo discreto Yn = Z(nt0 ) obviamente sera una cadena de Markov y describe a un proceso de Galton-Watson. Por la hiptesis de homogeneidad del tiempo y por la o propiedad de ramificacin podemos obtener o

k=0

P(Yn+1 = k|Yn = i)sk = E[sYn+1 |Yn = i] = E[sZ((n+1)t0 ) |Z(nt0 ) = i] = E[sZ(t0 ) |Z(0) = i] i = E[sZ(t0 ) |Z(0) = 1] i = E[sY1 |Y0 = 1]

Esto muestra que Yn es un proceso de ramificacin y la funcin generadora o o de el nmero de descendientes de un solo individuo es F (s, t0 ). Nosotros u sabemos que la probabilidad de extincin para Yn es la ra no negativa ms o z a

58

El Proceso Markoviano de Ramificacin a Tiempo Continuo o

pequea de la ecuacin F (s, t0 ) = s. Pero n o P(Yn = 0 para algn n N) = l P(Yn = 0) u mn

= l P(Z(nt0 ) = 0) mn

= l P(Z(t) = 0) mt

= Entonces la probabilidad de extincin del Proceso Markoviano de Ramifio cacin a Tiempo Continuo Z(t) es la ra no negativa ms pequea de la o z a n ecuacin F (s, t0 ) = s, donde t0 es cualquier nmero positivo. o u Como es la ra de F (s, t0 ) = s para cualquier t0 , podemos pensar z que se podr calcular a de una ecuacin que no dependa del tiempo. Lo a o cual si sucede y se puede probar el siguiente resultado. Teorema 2.9.2. La probabilidad de extincin es la raz no negativa ms o a pequea de la ecuacin u(s) = 0. Donde = 1 si y slo si u (1) 0. n o o Demostracin. Como satisface F (s, t0 ) = s para cualquier t0 , podemos o armar que u() = 0. Como (j2) u (s) = a j(j 1)j 0j=2

u(s) es convexa en el intervalo [0, 1]. Si u(1) = 0 y u(0) = a0 , u(s) tiene a lo ms una ra en [0, 1). a z Hay que notar que E(Z(t0 )) = E(Y1 ) > 1 si y slo si u (1) > 0. Esto o signica que para el Proceso de Ramificacin de tiempo discreto Z(nt0 ), o n = 0, 1, 2, . . . y t0 > 0 jo, tiene una unica ra en el intervalo (0, 1) y en z consecuencia tambin se vale para el Proceso Markoviano de Ramificacin a e o Tiempo Continuo Z(t) . De manera similar se tiene que E(Z(t0 )) = E(Y ) 1 si y slo si u (1) 0, entonces = 1. o

2.10 Ejemplos

59

2.10.

Ejemplos

Resolver las ecuaciones de Kolmogorov resulta en la mayor de los casos a una tarea muy dif y por ello la distribucin de Z(t) muy pocas veces puede cil o determinarse de manera expl cita. Sin embargo, existen dos ejemplos importantes que si se pueden resolver, estos son el Proceso de Yule y el Proceso de Nacimiento y Muerte. Ejemplo 2.10.1 (El Proceso de Yule de Fisin Binaria). o Denamos a {Z(t) : t 0} como un proceso markoviano de ramificacin o a tiempo continuo, en donde cada part cula vive una longitud de tiempo que se distribuye de manera exponencial y enseguida se divide en dos part culas. Lo que queremos ver es que la funcin generadora es de la forma o F (s, t) = seat 1 s(1 eat ) con F (s, 0) = s

Como cada part cula al morir se divide en dos part culas podemos armar que 2 = 1, como consecuencia vemos que f (s) = s2 . Con todos estos resultados la ecuacin backward de Kolmogorov para la funcin generadora o o queda de la siguiente manera F (s, t) = a F 2 (s, t) F (s, t) t

Para obtener la solucin a est ecuacin diferencial parcial vamos a jar o a o a s, entonces el problema se restringe a solucionar una ecuacin diferencial o ordinaria. Primero vamos a proponer una funcin (t) con (0) = 1, entonces o (t) y (t) dF (s, t) 1 a(t) + = a(t). 2 (s, t) dt F F (s, t)d(t) dt

dF (s, t) + a(t)F (s, t) = a(t)F 2 (s, t) dt

Entonces proponemos a

como

d(t) = a(t) dt

60

El Proceso Markoviano de Ramificacin a Tiempo Continuo o

cuya solucin se obtiene de la siguiente manera o d(t) = adt (t) ln (t) = at (t) = eat . De esta manera tenemos que d eat = aeat dt F (s, t) t eay = eax t 0 F (s, y) 0

eat 1 = eat + 1 F (s, t) s

multiplicando por un menos y al desarrollar esta relacin tenemos o eat 1 (1 eat )s = F (s, t) s de aqu se ve claramente que F (s, t) = que era a lo que queriamos llegar. Ejemplo 2.10.2 ( El Proceso de Nacimiento y Muerte). Denamos a {Z(t); t 0} como un Proceso Markoviano de Ramificacin o a Tiempo Continuo en donde cualquier individuo en un cierto tiempo t tiene una probabilidad dt de morir en un intervalo (t, t + dt) y una probabilidad dt de desaparecer y ser reemplazado por dos nuevos individuos en el mismo intervalo de tiempo. Vamos a ver que la funcin generadora esta determinada o por F (s, t) = (s 1) e()t (s ) (s 1) e()t (s ) con F (s, 0) = s seat 1 (1 eat )s

2.10 Ejemplos

61

Como tenemos que cualquier individuo tiene una probabilidad de morir sin reproducirse , entonces 0 = + , pero si se reproduce solamente tiene dos descendientes, entonces 2 = + . De esta manera vemos que f (s) = + s2 + y a = + .

Entonces la ecuacin backward de Kolmogorov para la funcin generadora o o nos queda como F (s, t) + F 2 (s, t) = ( + ) F (s, t) t + = F 2 (s, t) ( + )F (s, t) + . El lado derecho de la ecuacin se puede factorizar y nos queda como o F (s, t) = (F (s, t) 1) F (s, t) . t Para resolver esta ecuacin diferencial parcial jamos a s, de esta manera o nos limitaremos a resolver una ecuacion diferencial ordinaria, entonces vamos a tener que dF (s, t) = dt (F (s, t) 1) F (s, t) Por el mtodo de fracciones parciales vamos a tener que e dF (s, t) dF (s, t) dF (s, t) + = (F (s, t) 1)(F (s, t) ) F (s, t) 1 F (s, t) entonces nos limitaremos a solucionar la siguiente ecuacin diferencial o dF (s, t) dF (s, t) + = dt F (s, t) 1 F (s, t) dF (s, t) dF (s, t) + = ( )dt F (s, t) 1 F (s, t)

62

El Proceso Markoviano de Ramificacin a Tiempo Continuo o

de esta manera t dx = ( ) dy x1 s s 0 F (s,t) x ln x 1 ln = ( )t F (s,t)

dx x

F (s,t)

s

F (s,t) x ln = ( )t (x 1) s s F (s, t) ln (F (s, t) 1) ln (s 1) = ( )t F (s, t) (s 1) ln (F (s, t) 1) s = ( )t F (s, t) (s 1) = e()t (F (s, t) 1) s

Ahora la unico que nos hace falta por hacer es obtener una forma expl cita para F (s, t), de esta manera vamos a tener que F (s, t) = F (s, t) (F (s, t) 1)(s )e()t (s 1)

F (s, t)(s )e()t (s 1) (s )e()t = (s 1) (s 1) 2 (s 1) (s )e()t (s 1) (s )e()t F (s, t) = (s 1) (s 1) entonces vemos que F (s, t) = (s 1) (s )e()t (s 1) (s )e()t

Lo cual era a lo que queriamos llegar.

Cap tulo 3 El C.B. Proceso3.1. Introduccin o

En este cap tulo vamos a estudiar al Proceso de Ramificacin Continua o o C. B. Proceso, donde bsicamente vamos a analizar y desarrollar sus prina cipales propiedades. Primero vamos a denir a la funcin de ramificacin continua, a la cual o o vamos a asociarle un semigrupo de contraccin y gracias a este, veremos que o tiene asociado un proceso de Markov fuerte, al que llamaremos Proceso de Ramificacin Continua o C.B. proceso. Despus vamos a obtener sus momeno e tos, veremos que este proceso ,en especial, es un Proceso de Difusin y gracias o a esta propiedad obtendremos la probabilidad de extincin del proceso. o Un problema importante es el de analizar la relacin que existe entre el o Proceso de Ramificacin de Galton-Watson con el C.B. Proceso, ya que este o ultimo se puede ver como un proceso l mite de Procesos de Galton-Watson normalizados. Tenemos un proceso de Galton-Watson {Zn } y denimos Zt(r)

=

Z[rt] ar br

donde

Z0 = c r

(r)

y donde ar R, br > 0 son constantes normalizadoras y cr son enteros positivos cuyo l mite se va a innito cuando r crece a innito. (r) Es claro que para cada r > 0 ja, {Zt : t > 0} es un proceso estcstico a que denotaremos por U r . Lo que nos va a interesar es el comportamiento l mite de U r cuando r tiende a innito. En particular veremos los casos en que ar = 0 y l ar /br = , los cuales nos daran diferentes resultados. mr

64

El C.B. Proceso

El C.B. proceso fue estudiado por primera vez por Jirina en 1957, cuya denicin es ms general que la que se presenta en este cap o a tulo y la relacin o de los procesos de ramificacin de Galton-Watson y los C.B. procesos por o Lamperti a nales de los aos sesenta. n

3.2.

Definicin o

El proceso va a ser denido a travs de sus funciones de transicin. e o Definicin 3.2.1. Una familia {Pt (x, E) : t 0} de funciones ser llao a mada una funcin de ramificacin continua o C.B. funcin si satisface las o o o siguientes condiciones: i) Pt (x, E) esta denida para t 0, x 0 y E un subconjunto de Borel de la semi-recta [0, ). Pt : R+ B([0, )) [0, 1] para cada t 0.

ii) Para x y t fijas, Pt (x, ), es una medida de probabilidad; y para un conjunto E fijo, Pt (x, E) es conjuntamente medible en x y t. iii) La ecuacin de Chapman-Kolmogorov, es decir, o Pt+s (x, E) =

Pt (u, E)Ps (x, du)

0

iv) Para cualquier x, y, t 0, {Pt } satisface Pt (x + y, E) = = para cada E B([0, )). v) Existen t > 0 y x > 0 tal que Pt (x, {0}) < 1 0

Pt (x, E u)Pt (y, du)

1E (v + w)Pt (x, dv)Pt (y, dw) l

0

0

3.3 Existencia y Construccin del C.B. proceso o

65

Observacin 3.2.1. Por la propiedad ( iv) tenemos que o f (u)Pt (x + y, du) = f (v + w)Pt (x, dv)Pt (y, dw)0 0 0

para cualquier funcin f medible y acotada. o Si examinamos estas condiciones lo primero que vamos a notar es que las primeras tres condiciones corresponden a la denicin de funcin de transio o 1 cin de Markov . La propiedad (iv ) es la propiedad de ramificacin; la cual o o nos dice que si empezamos en x + y el proceso resultante es equivalente a la suma de dos procesos, uno que empieza en x y otro que empieza en y. Y nalmente la propiedad (v ) elimina el caso trivial, en el cual el proceso empieza en cualquier x 0, muere instantaneamente y permanece ah . En este cap tulo vamos a ver que una C.B. funcin va dar lugar a un o proceso fuerte de Markov en los reales no negativos. Este proceso va a ser llamado Proceso de Ramificacin con Espacio de Estados Continuo o simpleo mente C.B. proceso. Uno de las principales propiedades de este proceso es que se puede ver como un proceso l mite de una sucesin de procesos de Galton-Watson, en o los cuales la poblacin inicial va a innito y la escala del tiempo se encoge o de una manera espec ca.

3.3.

Existencia y Construccin del C.B. proo ceso

Para la construccin del C.B. proceso es necesario introducir la denicin o o de medidas de probabilidad innitamente divisibles. Definicin 3.3.1. Sea Y una variable aleatoria, con funcin de distribucin o o o PY y transformada de Laplace Y (), se dice que es innitamente divisible si para todo n N existe una sucesin {k }n de variables aleatorias o k=1 independientes e identicamente distribuidas tal que Y tiene la misma distribucin que la o suma de estas (Y = 1 + + n ) o de manera equivalente si n Y () = 1 PY = P1 P2 Pn . o1

Ver apndice A e

66

El C.B. Proceso

Sea {Pt (x, E)} una C.B. funcin; por la propiedad (iv ) es claro que para o cada pareja (x, t) la medida Pt (x, E) es innitamente divisible, ya que dado x>0ynN Pt (x, E) = Pt x n + x x x (n) + + , E = Pt , E n n n

La transformada de Laplace de Pt (x, E) es t (x, ) = ey Pt (x, dy)0

0

Vamos a ver que por la propiedad (iv ) t (x, ) satisface la siguiente relacin o t (x + y, ) = t (x, )t (y, ) Veamoslo t (x + y, ) = = = =

ez Pt (x + y, dz) ez Pt (x, dz) Pt (y, dz) e

0

0

e(u+v) Pt (x, du)Pt (y, dv) 0

0

0

v

eu Pt (x, du)Pt (y, dv)

0

= t (x, )

0

ev Pt (y, dv)

= t (x, )t (y, ) esto prueba la relacin. o Sabemos por la propiedad (ii ) que para una t y jas, t (x, ) es una funcin medible de x. Adems es claro que t (x, ) es montona decreciente o a o en x y podemos concluir por la relacin anterior, que para cada t y existe o un nmero t () tal que u t (x, ) = ext () (3.1)

3.3 Existencia y Construccin del C.B. proceso o

67

Usando la propiedad (iii ), podemos ver que {t ()} satisface t+s () = t (s ()) ya que ext+s ()

para toda

>0

(3.2)

= = = =

ez Pt+s (x, dz) ez

0

0

0

Ps (u, dz)Pt (x, du)

0

ez Ps (u, dz)Pt (x, du)

0

eus () Pt (x, du)

0

= ext (s ()) esto prueba la relacin. o Esta es la forma anloga de la iterada de la funcin generadora del proceso a o de Galton-Watson. Para ir de una funcin de transicin {Pt (, )} a un proceso de Markov que o o corresponde a esta, se utilizan las herramientas de la Teor de Semigrupos. a Para cualquier funcin medible y acotada f en [0, ) denimos o (Tt f )(x) = f (y)Pt (x, dy)0

Esto dene a una familia de operadores lineales acotados {Tt ; t 0}, de norma unitaria en el espacio de Banach L de funciones medibles y acotadas en [0, ) con la norma ||f || = sup |f (x)|.x0

De la ecuacin de Chapman-Kolmogorov tenemos que {Tt } satisface la o relacin o Tt+s = Tt Ts y esto hace que la familia {Tt } sea un semigrupo2 .2

Ver apndice A e

68

El C.B. Proceso

Usando la denicin o (Tt+s f )(x) = = = =

f (y)Pt+s (x, dy) f (y)

0

0

Ps (u, dy)Pt (x, du)

0

f (y)Ps (u, dy)Pt (x, du)

0

0

(Ts f )(u)Ps (x, du)

0

= Tt (Ts f (x)) demostrando que {Tt } es un semigrupo. Lema 3.3.1. Una C.B. funcin satisface o Pt (x, {0}) < 1 para toda t, x > 0 y Pt (0, {0}) = 1

Demostracin. Sabemos que Pt (x, {0}) es una medida de probabilidad en o B [0, ) , puede suceder que Pt (x, {0}) > 0 que Pt (x, {0}) = 0. o En cualquier caso se tiene ext ()

= Pt (x, {0}) +

ey Pt (x, dy)

0+

Tomamos el l mite cuando tiende a innito en ambos lados, y tenemos que xt () l e m = Pt (x, {0}) + l m ey Pt (x, dy) 0+

Es claro que si y > 0, tenemos que l ey = 0. De esta manera podemos m aplicar el Teorema de Convergencia Dominada, con lo cual vamos a obtener que para toda x, , t > 0 se cumple exp x l t () = Pt (x, {0}) m

(3.3)

3.3 Existencia y Construccin del C.B. proceso o

69

Por la hiptesis (v ) sabemos que existe x0 , t0 > 0 tal que Pt0 (x0 , {0}) < 1, o de donde vemos que exp x0 l t0 () < 1 m

x0 l t0 () < 0 m

l t0 () > 0 m

Esto muestra que Pt0 (x, {0}) < 1 para cualquier x > 0. Ahora sea r > 0 de tal manera que r > t0 y s = r t0 , entonces Pr (x, {0}) = Pt0 (u, {0})Ps (x, du)0

como sabemos que Pt0 (u, {0}) < 1 para cualquier u > 0, concluimos que Pr (x, {0}) < 1 para toda r > t0 . Si 0 < r < t0 podemos armar que existe n tal que (t0 /n) < r; basta ver que P t0 (x, {0}) < 1 para una x > 0, ya que por consecuencia tendremos que n vale para toda x > 0 y por un razonamiento anlogo al anterior obtendremos a que Pr (x, {0}) < 1. Por denicin tenemos que o Pt0 (x, {0}) = P t0 (u, {0})P (n1)t0 (x, du) < 10n n

Supongamos que P t0 (u, {0}) = 1 para toda u > 0, en consecuencia tenn driamos que Pt0 (x, {0}) = 1, lo cual contradice nuestra hiptesis. Por lo tanto o P t0 (x, {0}) < 1 para una x > 0. n Es as como hemos probado que Pt (x, {0}) < 1 para toda t, x > 0. Para mostrar que Pt (0, {0}) = 1 basta sustituir x = 0 en la relacin (3.3). o Sea C0 = f : [0, ) R l f (x) = 0 mx

dene un semigrupo de contraccin en el espacio C0 , es decir, si f C0 o entonces Tt f C0 .

Teorema 3.3.1. Si {Pt (x, E)}t0 es una C.B. funcin , el operador o Tt f (x) = f (y)Pt (x, dy)0

70

El C.B. Proceso

Demostracin. Primero vamos a ver que Tt f dene un semigrupo de cono traccin, o sea que tiene que cumplir con o ||Tt f || ||f ||. Nosotros sabemos que |Tt f (x)| = f (y)Pt (x, dy) 0 f (y)Pt (x, dy) 0 0

||f ||.

f Pt (x, dy)

Ahora si al lado izquierdo de la ecuacin le aplicamos el supremo sobre o las x [0, ), tenemos ||Tt f || ||f || esto arma que es un semigrupo de contraccin. o Ahora solamente es necesario mostrar que Tt vive.en el espacio C0 . Si f (x) es de la forma f (x) = ex , Tt f (x) es una funcin continua en x, ya que o el lado derecho de (3.1) es continua en x. Por el teorema de continuidad para la transformada de Laplace-Stielges, es claro que Tt f (x) es continua en x para toda f C0 . Lo unico que nos hace falta ver es que x

l Tt f (x) = 0. m

Por el Lema 3.3.1 tenemos que t () > 0 para cada > 0, entonces cuando x tiende a innito la transformada de Laplace de Pt (x, ) tiende a cero para > 0. Esto implica que la medida Pt (x, ) tiene su masa en innito, en consecuencia tenemos que Tt f (x) tienda a cero.

Teorema 3.3.2. Una C.B. funcin es estocsticamente continua. o a

3.3 Existencia y Construccin del C.B. proceso o

71

Demostracin. Vamos a entender por continuidad estocstica3 que para o a cada x, la medida Pt (x, ) converge dbilmente a una unidad de masa en x e + cuando t tiende a 0 . Vamos a empezar con