sobre algunas relaciones entre la probabilidad y las ... · 2.2. reconocimiento de siluetas y la...

126
Sobre algunas relaciones entre la probabilidad y las ecuaciones diferenciales Rafael Granero Belinch´on rafael.granero@uam.es Trabajo del M´aster en Matem´aticas y Aplicaciones. Director: Don Jes´ us Garc´ ıa Azorero

Upload: vuongngoc

Post on 12-Oct-2018

222 views

Category:

Documents


0 download

TRANSCRIPT

Page 1: Sobre algunas relaciones entre la probabilidad y las ... · 2.2. Reconocimiento de siluetas y la ecuacio´n de Poisson . . . . . 38 2.3. ... la integracio´n de ecuaciones estocasticas,

Sobre algunas relaciones entre la probabilidad y las

ecuaciones diferenciales

Rafael Granero Belinchon

[email protected]

Trabajo del Master en Matematicas y Aplicaciones.

Director: Don Jesus Garcıa Azorero

Page 2: Sobre algunas relaciones entre la probabilidad y las ... · 2.2. Reconocimiento de siluetas y la ecuacio´n de Poisson . . . . . 38 2.3. ... la integracio´n de ecuaciones estocasticas,

Indice general

Introduccion 5

1. Primeros conceptos 7

1.1. El movimiento browniano . . . . . . . . . . . . . . . . . . . . 7

1.2. Existencia y unicidad para las ecuaciones estocasticas . . . . 15

1.3. La medida de Wiener . . . . . . . . . . . . . . . . . . . . . . 21

1.4. Semigrupos y procesos de Markov . . . . . . . . . . . . . . . . 26

2. Ecuaciones elıpticas 32

2.1. El laplaciano . . . . . . . . . . . . . . . . . . . . . . . . . . . 33

2.2. Reconocimiento de siluetas y la ecuacion de Poisson . . . . . 38

2.3. Ecuaciones elıpticas generales . . . . . . . . . . . . . . . . . . 42

2.4. Dominios no acotados . . . . . . . . . . . . . . . . . . . . . . 44

3. Ecuaciones parabolicas 46

3.1. Ecuaciones parabolicas generales . . . . . . . . . . . . . . . . 46

3.2. La ecuacion de Fisher . . . . . . . . . . . . . . . . . . . . . . 51

3.3. Feynman y la mecanica cuantica . . . . . . . . . . . . . . . . 53

4. Dinamica de fluidos 62

4.1. La ecuacion de Burgers 1-dimensional . . . . . . . . . . . . . 63

4.2. La ecuacion de Burgers d−dimensional . . . . . . . . . . . . . 65

4.3. Las ecuaciones de Navier-Stokes incompresibles . . . . . . . . 71

4.4. Existencia local para Navier-Stokes . . . . . . . . . . . . . . . 75

5. Juegos diferenciales y ecuaciones 78

5.1. Los operadores . . . . . . . . . . . . . . . . . . . . . . . . . . 78

5.2. Los juegos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80

5.2.1. ’Tug of war’ . . . . . . . . . . . . . . . . . . . . . . . 80

5.2.2. Aproximaciones por SDE al ∆∞ . . . . . . . . . . . . 83

5.2.3. Existencia del valor para el juego . . . . . . . . . . . . 84

5.2.4. ’Tug of war con ruido’ . . . . . . . . . . . . . . . . . . 87

5.2.5. Juego de Spencer . . . . . . . . . . . . . . . . . . . . . 88

5.2.6. Otros juegos . . . . . . . . . . . . . . . . . . . . . . . 89

2

Page 3: Sobre algunas relaciones entre la probabilidad y las ... · 2.2. Reconocimiento de siluetas y la ecuacio´n de Poisson . . . . . 38 2.3. ... la integracio´n de ecuaciones estocasticas,

INDICE GENERAL 3

6. Experimentos numericos 91

7. Conclusion 95

A. Algunos resultados auxiliares 97

A.1. Una construccion del movimiento browniano . . . . . . . . . . 97A.2. El teorema de Kolmogorov . . . . . . . . . . . . . . . . . . . . 99A.3. La formula de Ito . . . . . . . . . . . . . . . . . . . . . . . . . 101A.4. Existencia y unicidad de EDP . . . . . . . . . . . . . . . . . . 106

B. La integral de Ito 107

C. Codigo numerico utilizado 111

C.1. Trayectorias de un movimiento browniano . . . . . . . . . . . 111C.2. Trayectorias de un puente browniano . . . . . . . . . . . . . . 111C.3. Metodo de Euler para una ecuacion estocastica . . . . . . . . 112

C.3.1. Caso unidimensional . . . . . . . . . . . . . . . . . . . 112C.3.2. Caso 2D . . . . . . . . . . . . . . . . . . . . . . . . . . 112

C.4. Metodo de Monte-Carlo para el laplaciano . . . . . . . . . . . 112C.5. Reconocimiento de siluetas . . . . . . . . . . . . . . . . . . . 114C.6. Metodo de Monte-Carlo para ecuaciones parabolicas . . . . . 116C.7. Codigo para aproximar el ∞−laplaciano . . . . . . . . . . . . 118

Page 4: Sobre algunas relaciones entre la probabilidad y las ... · 2.2. Reconocimiento de siluetas y la ecuacio´n de Poisson . . . . . 38 2.3. ... la integracio´n de ecuaciones estocasticas,

Indice de figuras

1.1. Dos trayectorias de un movimiento browniano. . . . . . . . . 101.2. Un movimiento browniano en el plano. . . . . . . . . . . . . . 111.3. Algunas trayectorias de la solucion de la ecuacion de Langevin

v. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141.4. Una trayectoria solucion de la ec. de Langevin en 2D. . . . . 151.5. Los cilindros. . . . . . . . . . . . . . . . . . . . . . . . . . . . 231.6. Trayectorias de un puente browniano. . . . . . . . . . . . . . 26

2.1. Experimento numerico, silueta y u. . . . . . . . . . . . . . . . 402.2. Resultados, arriba la funcion Φ, abajo la funcion Ψ. . . . . . 42

3.1. Onda viajera solucion de la ecuacion (3.3). . . . . . . . . . . . 52

4.1. Solucion de Navier-Stokes en tiempo 10. . . . . . . . . . . . . 634.2. Solucion del problema de Stokes. . . . . . . . . . . . . . . . . 634.3. Evolucion de la solucion de la ecuacion (4.3). . . . . . . . . . 644.4. Soluciones de (4.4) para diferentes viscosidades. . . . . . . . . 654.5. Flujo. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67

5.1. Funcion ∞−armonica. . . . . . . . . . . . . . . . . . . . . . . 805.2. Juego con trayectorias no markovianas. . . . . . . . . . . . . 815.3. Esquema del juego ’Tug of war’ con ruido. . . . . . . . . . . . 88

6.1. La aproximacion a nuestra solucion. . . . . . . . . . . . . . . 926.2. Valor inicial. . . . . . . . . . . . . . . . . . . . . . . . . . . . 936.3. Solucion numerica en tiempo 4. . . . . . . . . . . . . . . . . . 94

4

Page 5: Sobre algunas relaciones entre la probabilidad y las ... · 2.2. Reconocimiento de siluetas y la ecuacio´n de Poisson . . . . . 38 2.3. ... la integracio´n de ecuaciones estocasticas,

Introduccion

A simple vista puede parecer que las ecuaciones en derivadas parcialesy la probabilidad son campos de estudio muy distintos. Pero, cuando seestudian un poco en profundidad aparecen multiples conexiones entre ellos(formulas de representacion, nuevos metodos numericos...). Vamos a expo-ner algunas de estas relaciones, centrandonos sobre todo en la obtencionde resultados que se podrıan encuadrar mas en el marco de las ecuacionesdiferenciales. Pero, a la vez, presentaremos los conceptos probabilısticos ne-cesarios, al menos de un modo descriptivo, remitiendo los detalles tecnicosde las pruebas a los textos especializados recogidos en la bibliografıa.

Esta aproximacion nos va a permitir resolver algunos problemas masfacilmente, o por lo menos de forma diferente. Ademas, desde el punto devista del calculo numerico es util, pues nos permitira utilizar un metodoMonte-Carlo para aproximar la solucion de una EDP. Otras aplicacionesderivadas de este calculo han sido la integracion funcional, clave en cuantica,o un nuevo metodo, del que hablaremos despues, para reconocimiento desiluetas en fotografıas ([GGSBB]).

Este trabajo consta de dos partes. En la primera obtendremos formulasde representacion (FR) como integrales en un cierto espacio funcional pa-ra las soluciones de diversas ecuaciones en derivadas parciales. Entre otrascosas daremos una demostracion sencilla de la existencia local en tiempode soluciones clasicas para el sistema de Navier-Stokes. Para ello segui-remos de cerca el trabajo de G. Iyer y de P. Constantin contenido en latesis doctoral del primero y en diversos artıculos de ambos ([CI],[Iy],[Iy2],[C]). Tambien daremos formulas de representacion para ciertas ecuaciones dela mecanica cuantica y comentaremos brevemente la formulacion de Feyn-man, menos conocida que las formulaciones de Heisenberg o de Schrodinger([FH],[Fe],[Fe2],[GJ],[S],[Z]). Este metodo de considerar difusiones de Ito sepuede interpretar como el metodo de las caracterısticas, si bien han de con-siderarse aleatorias (ver capıtulo 4).

Despues abordaremos problemas relacionados con el infinito laplaciano,con una aproximacion basada en la teorıa de juegos. Para ello seguiremos eltrabajo de Y.Peres, S.Sheffield, D.Wilson y O.Schramm ([PSSW]).

Finalmente, la segunda parte se dedicara a los apendices con resultadostecnicos que complementan a los capıtulos anteriores.

5

Page 6: Sobre algunas relaciones entre la probabilidad y las ... · 2.2. Reconocimiento de siluetas y la ecuacio´n de Poisson . . . . . 38 2.3. ... la integracio´n de ecuaciones estocasticas,

6 INTRODUCCION

No queremos acabar esta introduccion sin mencionar explıcitamente alos grandes matematicos y fısicos responsables del desarrollo de esta teorıa,como a A. Einstein por sus artıculos acerca del movimiento browniano ([E]),R. Feynman ([Fe],[Fe2] ,[FH]) y P. Dirac por pensar en ’integrar en funcio-nes’ y dar forma a la formulacion de la mecanica cuantica del primero. Elrigor en este tipo de calculo lo aportaron N. Wiener y M. Kac ([K],[K2]). Es-te ultimo autor escribio un texto cuyo tıtulo ha inspirado el de este trabajo.Tambien hay que mencionar a K. Ito, que nos dejo un resultado basico parala integracion de ecuaciones estocasticas, y a S. Ulam, responsable de losmetodos Monte-Carlo. Nos gustarıa que este trabajo sirviese como humildehomenaje. Es curioso comprobar que todas estas ideas surgieron en muypocos kilometros cuadrados: Wiener, Feynman y Ulam se conocıan de LosAlamos, donde ayudaron a fabricar la bomba atomica. Kac fue companerode Feynman cuando ambos eran profesores en la universidad de Cornell.

Tambien se quiere agradecer a varias personas su contribucion, sobretodo a Don Jesus Garcıa Azorero (Universidad Autonoma de Madrid), porsu atencion y esfuerzo, imprescindibles para la realizacion de este traba-jo. Tambien a Don Rafael Orive Illera (Universidad Autonoma de Madrid),por su revision del texto preliminar, a Don Massimiliano Gubinelli (Univer-sidad Paris-Dauphine), por sus explicaciones y ayuda, a Don Bela Farago(Instituto Laue-Langevin) por su hospitalidad y tiempo, y a Don Julio D.Rossi (Universidad de Buenos Aires) y a Don Fernando Charro (UniversidadAutonoma de Madrid) por sus explicaciones, muy valiosas para el capıtulo 5.Menos formal pero igual de provechosa fue la ayuda que me brindaron DonaEva Martınez Garcıa, Don David Paredes Barato y Don Jesus RabadanToledo.

Page 7: Sobre algunas relaciones entre la probabilidad y las ... · 2.2. Reconocimiento de siluetas y la ecuacio´n de Poisson . . . . . 38 2.3. ... la integracio´n de ecuaciones estocasticas,

Capıtulo 1

Primeros conceptos

En este capıtulo presentamos los resultados y las definiciones que mastarde nos seran necesarias. Hablaremos del movimiento browniano, dandoalgunas propiedades de sus trayectorias y presentando las ecuaciones es-tocasticas. Puede verse un esquema de la construccion del proceso en unode los apendices, y para un analisis detallado de las propiedades de este ob-jeto se puede consultar [Du]. Tambien construiremos la medida de Wiener,que nos permitira integrar en funciones. Concluiremos con varios resulta-dos que establecen las propiedades del semigrupo asociado a un proceso deMarkov.

1.1. El movimiento browniano

El movimiento browniano es el movimiento aleatorio que se observa enalgunas partıculas microscopicas que se hallan en un medio fluido (por ejem-plo polen en una gota de agua). Recibe su nombre en honor a Robert Brownquien lo describe en 1827. El movimiento aleatorio de estas partıculas se de-be a que su superficie es bombardeada incesantemente por las moleculas delfluido sometidas a una agitacion termica. Este bombardeo a escala atomicano es siempre completamente uniforme y sufre variaciones estadısticas im-portantes. Ası la presion ejercida sobre los lados puede variar ligeramentecon el tiempo provocando el movimiento observado.

Tanto la difusion como la osmosis son fenomenos basados en el movi-miento browniano.

El primero en describir matematicamente el movimiento browniano fueThorvald N. Thiele en 1880, en un documento sobre el metodo de los mıni-mos cuadrados. Fue seguido independientemente por Louis Bachelier en 1900en su tesis doctoral ’La teorıa de la especulacion’, en la que se presenta unanalisis estocastico de accion y opcion de mercados. Sin embargo, fue elestudio independiente de Albert Einstein en su artıculo de 1905 (’Sobre elmovimiento requerido por la teorıa cinetica molecular del calor de pequenas

7

Page 8: Sobre algunas relaciones entre la probabilidad y las ... · 2.2. Reconocimiento de siluetas y la ecuacio´n de Poisson . . . . . 38 2.3. ... la integracio´n de ecuaciones estocasticas,

8 CAPITULO 1. PRIMEROS CONCEPTOS

partıculas suspendidas en un lıquido estacionario’ ) el que mostro la soluciona los fısicos, como una forma indirecta de confirmar la existencia de atomosy moleculas.

En esa epoca la naturaleza atomica de la materia aun era una idea contro-vertida. Einstein y Marian Smoluchowski dedujeron que si la teorıa cineticade los fluidos era correcta entonces las moleculas de agua tendrıan movi-mientos aleatorios. Por lo tanto las partıculas pequenas podrıan recibir unnumero aleatorio de impactos, de fuerza aleatoria y de direcciones aleatorias,en cortos perıodos de tiempo. Este bombardeo aleatorio por las moleculasdel fluido podrıa ser suficiente para que las partıculas pequenas se moviesende la manera exacta que Brown habıa descrito.

Consideremos ahora una malla en dos dimensiones (una asociada al es-pacio y otra al tiempo) (ndx,mdt),m, n ∈ Z con incrementos dx y dt.Consideremos una partıcula que esta en tiempo 0 en la posicion x = 0. Estapartıcula tiene una probabilidad 1/2 de moverse hacia la derecha o hacia laizquierda, a la vez que automaticamente subira en la malla al ser el eje ver-tical el eje temporal. Tal y como hemos dicho anteriormente nuestro modeloquiere reflejar la situacion de una partıcula que se mueve ’al azar’ por estarsometida a choques aleatorios.

Sea p(n,m) la probabilidad de que esta partıcula este en la posicion ndxen tiempo mdt.

Usando probabilidades condicionadas, se tiene que

p(n,m+ 1) =1

2(p(n− 1,m) + p(n+ 1,m))

y por lo tanto,

p(n,m+ 1) − p(n,m) =1

2(p(n − 1,m) − 2p(n,m) + p(n+ 1,m))

Si ahora suponemos quedx2

dt= D > 0 (1.1)

podemos escribir

p(n,m+ 1) − p(n,m)

dt=D

2

(p(n − 1,m) − 2p(n,m) + p(n+ 1,m))

dx2

La condicion en el cociente que hemos establecido en (1.1) es necesaria paraobtener una ecuacion parabolica, si considerasemos otra distinta el lımiteresultante no tendrıa sentido.

Formalmente, asumiendo que los lımites que tomamos a continuacionexisten, haciendo dx, dt → 0 pero guardando (1.1) y escribiendo ndx = x,mdt = t, resulta que nuestra probabilidad discreta converge a una densidad,

p(n,m) → f(x, t)

Page 9: Sobre algunas relaciones entre la probabilidad y las ... · 2.2. Reconocimiento de siluetas y la ecuacio´n de Poisson . . . . . 38 2.3. ... la integracio´n de ecuaciones estocasticas,

1.1. EL MOVIMIENTO BROWNIANO 9

y obtenemos que la densidad verifica la ecuacion del calor con parametroD/2

∂tf(x, t) =D

2∆f(x, t), f(x, 0) = δ0(x) (1.2)

La hipotesis (1.1) es clave y nos garantiza que la ecuacion que obtenemoses la de difusion, como por otra parte debe ser dado el modelo que hemosconsiderado. Nuestra constante D sera igual a la unidad en el movimientobrowniano estandar.

Estos calculos son puramente formales, pues entre otras cosas, el pasoal lımite anterior no es riguroso. Sin embargo se puede formalizar de mane-ra rigurosa por medio del teorema del lımite central, el cual nos confirmaque la probabilidad del proceso definido anteriormente viene dada por unadistribucion normalN(0,Dt). Todos estos calculos se encuentran, convenien-temente justificados, en [Ev]. Einstein en [E] aborda este problema. Nuestrosargumentos formales nos empiezan a ensenar que puede haber una conexionentre la probabilidad y las EDP.

Vamos a dar ahora una definicion y algunos resultados precisos del mo-vimiento browniano.

Definicion 1 (Movimiento browniano). Dado un espacio de probabilidad(Ω,B, P ), se dice que un proceso W (ω, t)1, W : Ω × [0, T ] → R es un movi-miento browniano si se cumple que

1. W (ω, 0) = 0 y t 7→W (ω, t) es continua c.t.p.

2. W (ω, t) −W (ω, s) ∼ N(0, t− s) ∀t ≥ s > 0

3. Los incrementos son independientes.

Consideramos unos tiempos t1, t2..., tn y unos intervalos B1, ...Bn, po-demos calcular las probabilidades de que nuestro movimiento brownianoeste en tiempo ti en el intervalo Bi utilizando las propiedades anteriores.Sea

p(t, x, y) =1√2πt

exp

(−|x− y|22t

)

P (a1 < W (t1) < b1, ...an < W (tn) < bn) =∫

B1

...

Bn

p(t1, 0, x1)p(t2 − t1, x1, x2)...p(tn − tn−1, xn−1, xn)dxn...dx1 (1.3)

Este calculo sera relevante a la hora de construir la medida de Wiener.

1Usualmente, utilizaremos la siguiente notacion para el movimiento browniano ~W (t).Sin embargo, para hacer hincapie en la idea del movimiento browniano como una variablealeatoria con valores en un espacio funcional, escribiremos W (ω) ∈ C([0, T ]) o ω(t).

Page 10: Sobre algunas relaciones entre la probabilidad y las ... · 2.2. Reconocimiento de siluetas y la ecuacio´n de Poisson . . . . . 38 2.3. ... la integracio´n de ecuaciones estocasticas,

10 CAPITULO 1. PRIMEROS CONCEPTOS

0 200 400 600 800 1000 1200−1.5

−1

−0.5

0

0.5

1

1.5

2

Figura 1.1: Dos trayectorias de un movimiento browniano.

Por un argumento estandar de aproximacion, una vez establecida parafunciones escalonadas, podemos generalizar esta formula para funciones

E[f(W (t1), ...,W (tn))] =∫

Rn

f(x1, ..., xn)p(t1, 0, x1)p(t2 − t1, x1, x2)...p(tn − tn−1, xn−1, xn)dxn...dx1

(1.4)Comentario 1 Mas tarde veremos que (1.4) puede entenderse como una

’integral en funciones’ ya que, fijo T , podemos ver el movimiento brownianocomo una aplicacion W (ω) : Ω 7→ C([0, T ]), y ası f sera una funcion querecibe como argumento otra funcion. Un calculo similar y un paso al lımitepermitio a Wiener definir su medida y a Feynman dar una nueva formulacionde la mecanica cuantica (ver secciones 1.3 y 3.3).

De la definicion podemos concluir facilmente que

E[W (t)] = 0, E[W 2(t)] = t

Podemos calcular la covarianza de forma parecida. Si s < t entonces

E[W (t)W (s)] = E[(W (s)+W (t)−W (s))W (s)] = s+E[(W (t)−W (s))W (s)] = s

Para sus aplicaciones en ecuaciones diferenciales, nos interesan las pro-piedades de sus trayectorias. Antes de poder demostrar nada, hemos deenunciar el teorema de regularidad de Kolmogorov cuya prueba puede verseen el apendice A.

Teorema 1 (Kolmogorov). Sea X un proceso estocastico con trayectoriascontinuas c.t.p. tal que

E[|X(t) −X(s)|β ] ≤ C(t− s)1+α, ∀t, s ≥ 0

Page 11: Sobre algunas relaciones entre la probabilidad y las ... · 2.2. Reconocimiento de siluetas y la ecuacio´n de Poisson . . . . . 38 2.3. ... la integracio´n de ecuaciones estocasticas,

1.1. EL MOVIMIENTO BROWNIANO 11

−1.6 −1.4 −1.2 −1 −0.8 −0.6 −0.4 −0.2 0 0.2 0.4−1

−0.5

0

0.5

1

1.5

2

Figura 1.2: Un movimiento browniano en el plano.

entonces para todo 0 < γ < αβ y T > 0 existe K(ω) tal que

|X(t) −X(s)| ≤ K|t− s|γ

Veamos que el movimiento browniano cumpla la hipotesis del teorema.Fijemos t > s, entonces se tiene

E[|W (t) −W (s)|2m] =1

2π(t− s)

R

|x|2m exp(−|x|2/2(t− s))dx

=(t− s)m√

R

|y|2m exp(−|y|2/2)dy

= C|t− s|m

donde hicimos el cambio natural, que ya intuıamos util en los calculos for-males anteriores (1.1),

y =x√t− s

(1.5)

La hipotesis se cumple con β = 2m y α = m − 1. Entonces se ha de tenerque γ < α

β = 12 − 1

2m para todo m y concluımos que γ < 12 .

Hemos demostrado que el movimiento browniano tiene trayectorias Holdercontinuas en [0, T ] con exponente γ < 1/2. Este resultado es optimo en elsentido de que ningun otro γ ≥ 1

2 nos servira. La prueba es la siguiente. Situvieramos una estimacion Holder con γ = 1/2 entonces se cumplirıa

sup0<s<t<T

|W (t) −W (s)||t− s|1/2

≤ C(ω) c.t.p. (1.6)

Page 12: Sobre algunas relaciones entre la probabilidad y las ... · 2.2. Reconocimiento de siluetas y la ecuacio´n de Poisson . . . . . 38 2.3. ... la integracio´n de ecuaciones estocasticas,

12 CAPITULO 1. PRIMEROS CONCEPTOS

Una desigualdad como la anterior no es posible, pues, si consideramos unaparticion 0 = t1 < t2... < tn = T ,

sup0<s<t<T

|W (t) −W (s)|(t− s)1/2

≥ supi

|W (ti+1) −W (ti)|(ti+1 − ti)1/2

Hemos minorado la expresion original por unas variables aleatorias (hemosfijado los tiempos) independientes e identicamente distibuidas con distribu-ciones conocidas (normales estandar), por lo que podemos calcular explıci-tamente la probabilidad de que el supremo de dichas variables sea mayorque un cierto parametro L. Si tomasemos γ distinto de 1/2 entonces noquedarıan variables identicamente distribuıdas.

P

(

supi

|W (ti+1) −W (ti)|(ti+1 − ti)1/2

≥ L

)

= 1−P( |W (t2) −W (t1)|

(t2 − t1)1/2

)n

→ 1, si n→ ∞

Como L era arbitrario podemos tomarlo tan grande como queramos y con-cluir que no existe tal constante, por lo que no es Holder continua. Como noes Lipschitz en ningun intervalo de tiempo concluımos que no es derivable encasi ningun punto, es decir, una partıcula en un medio que se mueva comoun movimiento browniano no tendra bien definida la velocidad en ningunpunto. Esta propiedad presenta graves dificultades de interpretacion desdeel punto de fısico, que resolveremos mas adelante mediante otro modelo di-ferente. Otra demostracion, obra de Erdos, Kakutani y Devoretzky, de estehecho puede encontrarse en [Ev].

Queremos remarcar que este proceso estocastico no es de variacion totalacotada, pues si lo fuese, dada una particion, se tendrıa

n∑

i=0

|W (ti+1) −W (ti)|2 = maxi

(|W (ti+1 −W (ti)|)n

i=0

|W (ti+1 −W (ti)|

≤ V (0, T )maxi

(|W (t) −W (s)|)

y esta ultima expresion tiende a cero por la continuidad del movimientobrowniano conforme refinamos la particion. La contradiccion esta en que lavariacion cuadratica del movimiento browniano es mayor que cero, por lotanto V (0, T ), la variacion total no puede ser acotada.

Hemos demostrado ası el siguiente resultado:

Teorema 2. El movimiento browniano tiene trayectorias Holder continuascon exponente γ < 1

2 . Este exponente es optimo, en particular sus trayecto-rias no tienen variacion acotada ni son derivables en casi ningun punto.

Una propiedad muy importante de los procesos que vamos a estudiar esla propiedad de Markov, que viene a decir que el proceso no guarda memoriade la historia pasada. O de forma mas precisa,

Page 13: Sobre algunas relaciones entre la probabilidad y las ... · 2.2. Reconocimiento de siluetas y la ecuacio´n de Poisson . . . . . 38 2.3. ... la integracio´n de ecuaciones estocasticas,

1.1. EL MOVIMIENTO BROWNIANO 13

Definicion 2 (Proceso de Markov). Sea X(t). Es un proceso de Markov sicumple que, dada Fs la fitracion generada por el proceso (ver apendice B),

P [X(t) ∈ B|Fs] = P [X(t) ∈ B|X(s)] c.t.p., ∀t > s

Es decir, suponiendo que podemos definir el proceso X empezando encualquier punto x, se ha de cumplir que X empiece de nuevo en todo tiempo,sin recordar por donde ya paso o dejo de pasar. Para ver la definicion ypropiedades de la esperanza condicionada puede consultarse [Ev]. Siendoel movimiento browniano el origen y prototipo de todos estos procesos, elprimer paso es comprobar que la verifica.

Teorema 3. El movimiento browniano, W , es un proceso de Markov.

Demostracion. Observamos que X(t) = W (t + s) − W (s), t ≥ 0 es unmovimiento browniano (que partio del origen). Ademas es independientede W (t), 0 ≤ t ≤ s, por la propiedad 3 de la definicion del movimientobrowniano.2 Entonces se tiene que W (t + s) es un movimiento brownianoque empezo en W (s).

Siendo el movimiento browniano un proceso tan relevante hay una ex-tensa literatura donde se pueden consultar mas exhaustivamente sus pro-piedades, por ejemplo pueden consultarse [MP],[Du]. Como no es el temacentral de este texto, nos remitimos a las referencias antes citadas para suestudio detallado, y retomaremos el tema con el que empezamos, nuestromodelo para una partıcula en un medio sometida a un bombardeo aleatorio.Nuestro primer modelo, el movimiento browniano, vimos que no tenıa unavelocidad definida en casi ningun punto y que era de variacion no acotadaen cualquier intervalo. Como eso plantea dificultades desde el punto de vis-ta fısico, vamos a presentar un modelo alternativo. En lugar de estudiar laposicion de la partıcula vamos a fijarnos en su velocidad. Sea v(t) la veloci-dad de la partıcula. Las fuerzas a las que esta sometida son el rozamiento,que sera proporcional a la velocidad, y un termino aleatorio que refleja losbombardeos. Anticipandonos, escribiremos el termino aleatorio como dW

dt ylo llamaremos ruido blanco. En un cierto sentido, si lo que estamos modeli-zando es la velocidad, esta funcion deberıa ser la ’derivada’ del movimientobrowniano (ver [Ev]).

Por la segunda ley de Newton, denotando por −av(t)dt el termino derozamiento, tenemos

dv(t) = −av(t)dt + bdW, v(0) = v0, (1.7)

2Dos procesos X(t), Y (t) se dicen independientes si para todo par de conjuntos detiempos ti, si se tiene que el vector formado (X(t1), .., X(tn)) es independiente del vector(Y (s1), ..., Y (sn)).

Page 14: Sobre algunas relaciones entre la probabilidad y las ... · 2.2. Reconocimiento de siluetas y la ecuacio´n de Poisson . . . . . 38 2.3. ... la integracio´n de ecuaciones estocasticas,

14 CAPITULO 1. PRIMEROS CONCEPTOS

que recibe el nombre de ecuacion de Langevin. La posicion vendra dada por

dx(t) = v(t), x(0) = x0.

La posicion verificara la ecuacion de Ornstein-Uhlenbeck . Formalmente, po-demos tratar la ecuacion de Langevin como si fuese una EDO normal yescribir su solucion

v(t) = e−atv0 + b

∫ t

0e−a(t−s)dW (s). (1.8)

El problema es dar sentido al termino∫ t0 e

−a(t−s)dW (s), que no es una in-tegral de Riemann, sino una integral estocastica, que se interpreta en elsentido de la integral de Ito (ver [Ev], [Du], [MP] y apendices).3

0 1 2 3 4 5 6 7 8 9 10−2

0

2

4

6

8

10

v(t)

t

Figura 1.3: Algunas trayectorias de la solucion de la ecuacion de Langevinv.

Las ideas con las que debemos quedarnos es que el objeto definido en (1.7)(una ecuacion diferencial estocastica) no tiene sentido tal y como esta ahı,esa manera de presentarlo es solo formal, solo tiene sentido escrito en suforma integral (una vez que hemos definido la integral de Ito) que es

v(t) = v0 +

∫ t

0−av(s)ds+

∫ t

0bdW (s) (1.9)

Las soluciones de esta integracion son procesos estocasticos y por lo tanto,aleatorios. Podemos interpretar las ecuaciones estocasticas como una EDOen cada ω. La siguiente seccion esta dedicada al estudio de cuando un pro-blema como (1.7) esta bien propuesto y que propiedades verifica su solucion.

3Hay otra manera importante de interpretar este tipo de integrales, la integral deStratonovich (ver apendice B).

Page 15: Sobre algunas relaciones entre la probabilidad y las ... · 2.2. Reconocimiento de siluetas y la ecuacio´n de Poisson . . . . . 38 2.3. ... la integracio´n de ecuaciones estocasticas,

1.2. EXISTENCIA Y UNICIDAD PARA LAS ECUACIONES ESTOCASTICAS15

−0.5 0 0.5 1 1.5 2−0.5

0

0.5

1

1.5

2

2.5

Figura 1.4: Una trayectoria solucion de la ec. de Langevin en 2D.

1.2. Existencia y unicidad para las ecuaciones es-

tocasticas

Una vez hemos presentado algunos modelos de ecuaciones estocasticas,es el momento de dar la definicion general. Sea ~X0 una variable aleatorian−dimensional y sea ~W un proceso de Wiener m−dimensional e indepen-diente de nuestra variable ~X0.

4

Como σ−algebra consideramos la engendrada por la variable aleatoriainicial y el movimiento browniano, esto es5

F(t) = Σ ~X0, ~W (s) 0 ≤ s ≤ t.

Sean dos funciones~b : R

d × [0, T ] → Rd

σ : Rd × [0, T ] → Md×m

donde Md×m es el espacio de las matrices de dimension d×m.

Dado que las trayectorias del movimiento browniano no son suaves, nopodemos esperar soluciones derivables para las ecuaciones estocasticas. Co-mo hemos observado anteriormente, estas ecuaciones solo tienen sentido ensu formulacion integral. Antes de ver la definicion de solucion de la ecuacionestocastica necesitamos otras

4Movimiento browniano y proceso de Wiener son terminos que se emplean indistinta-mente a lo largo de todo el texto.

5Notaremos como ΣX(s), 0 ≤ s ≤ t a la σ−algebra generada por el proceso X(s). Pe-dimos atencion al lector para que no se confunda con la difusion de la ecuacion, la cual,tradicionalmente, tambien se denota por σ.

Page 16: Sobre algunas relaciones entre la probabilidad y las ... · 2.2. Reconocimiento de siluetas y la ecuacio´n de Poisson . . . . . 38 2.3. ... la integracio´n de ecuaciones estocasticas,

16 CAPITULO 1. PRIMEROS CONCEPTOS

Definicion 3 (Procesos progresivamente medible). Una funcion f(s, ω) esprogresivamente medible si es medible en el conjunto [0, T ]×Ω con respectoa la σ−algebra B × F , la menor σ−algebra en [0, T ] × Ω que contiene alos conjuntos A × B con A en [0, T ] y B en Ω. Tambien se conoce comoindependiente del futuro.

Definicion 4 (Espacios Lp para los procesos). Para los procesos f(s, ω) sedefinen los siguientes espacios

L1([0, T ]) = f(s, ω), E

[∫ T

0|f(s)|ds

]

<∞.

Para un p general se considera

Lp([0, T ]) = f(s, ω), E

[ ∫ T

0|f(s)|pds

]

<∞.

Definicion 5. Se dice que el proceso estocastico ~X(t) es solucion de laecuacion diferencial estocastica

d ~X = ~b( ~X, t)dt + σ( ~X, t)d ~W, ~X(0) = ~X0 (1.10)

si se cumplen

1. ~X(t) es progresivamente medible.

2. ~b( ~X(t), t) ∈ L1[0, T ].

3. σ( ~X(t), t) ∈ L2[0, T ].

4.

~X(t) = ~X0 +

∫ t

0

~b( ~X(s), s)ds +

∫ t

0σ( ~X(s), s)d ~W c.t.p. ∀ 0 ≤ t ≤ T

(1.11)

Que consideremos solo las ecuaciones de primer orden no es una restric-cion, pues una ecuacion de grado n se puede escribir como n ecuaciones degrado uno.

Para probar la existencia y la unicidad utilizaremos el metodo de apro-ximaciones sucesivas, exactamente igual que con las EDO.

Ası el teorema es

Teorema 4 (Existencia y unicidad). Supongamos que tanto ~b como σ sonfunciones Lipschitz en la variable espacial y para todos los tiempos en elintervalo [0, T ]

i.e. |~b(x, t) −~b(x′, t)| ≤ L1|x− x′|, ∀ 0 ≤ t ≤ T

Page 17: Sobre algunas relaciones entre la probabilidad y las ... · 2.2. Reconocimiento de siluetas y la ecuacio´n de Poisson . . . . . 38 2.3. ... la integracio´n de ecuaciones estocasticas,

1.2. EXISTENCIA Y UNICIDAD PARA LAS ECUACIONES ESTOCASTICAS17

|σ(x, t) − σ(x′, t)| ≤ L2|x− x′|, ∀ 0 ≤ t ≤ T

Sea ~X0 una variable aleatoria en L2[0, T ] independiente del movimientobrowniano considerado. Entonces existe un unico proceso en L2[0, T ] tal quees solucion de la ecuacion (1.10).6

Antes de demostrarlo damos varios resultados necesarios que dejamossin demostracion (ver [O] y [Ev]).

Lema 1 (Desigualdad de Gronwall). Sean φ un funcion no negativa definidaen el intervalo 0 ≤ t ≤ T , y sean C0, A unas constantes. Si se cumple

φ(t) ≤ C0 +

∫ t

0Aφ(s)ds ∀ 0 ≤ t ≤ T

entonces se tiene

φ(t) ≤ C0 exp(At).

Teorema 5 (Desigualdad para martingalas). Sea X una martingala enton-ces se tiene, si 1 < p <∞,

E

(

max0≤s≤t

|X(s)|p)

≤(

p

p− 1

)p

E(|X(t)|p).

Lema 2 (Desigualdad de Chevichev). Sea X variable aleatoria, entoncespara todo λ > 0 y p ∈ [1,∞) se tiene

P (|X| ≥ λ) ≤ E(|X|p)λp

Lema 3 (Borel-Cantelli). Denotamos por An i.o. al lımite superior de es-ta familia de conjuntos. Es decir, aquellos elementos que estan un numeroinfinito de veces. Entonces si

∞∑

n=1

P (An) <∞

entonces

P (An i.o.) = 0

Ahora sı que podemos pasar a la demostracion del teorema de existenciay unicidad para las ecuaciones estocasticas.

6En el sentido de que si hay dos entonces son iguales en casi todo punto.

Page 18: Sobre algunas relaciones entre la probabilidad y las ... · 2.2. Reconocimiento de siluetas y la ecuacio´n de Poisson . . . . . 38 2.3. ... la integracio´n de ecuaciones estocasticas,

18 CAPITULO 1. PRIMEROS CONCEPTOS

Demostracion. (Unicidad) Supongamos que hay dos soluciones ~X y ~X ′.Restandolas obtenemos

~X(t)− ~X ′(t) =

∫ t

0

~b( ~X(t), t)−~b( ~X ′(t), t)dt+∫ t

0σ( ~X(t), t)− σ( ~X ′(t), t)d ~W

Entonces se tiene que

E(| ~X(t) − ~X ′(t)|2) ≤ 2E

(∣

∫ t

0

~b( ~X(t), t) −~b( ~X ′(t), t)ds

2

+

∫ t

0σ( ~X(t), t) − σ( ~X ′(t), t)d ~W

2)

Observamos que podemos utilizar Cauchy-Schwarz y la condicion de serLipschitz para acotar cada termino.

E

(∣

∫ t

0

~b( ~X(t), t) −~b( ~X ′(t), t)ds

2)

≤ TE

(∫ t

0

~b( ~X(t), t) −~b( ~X ′(t), t)

2)

≤ L2T

∫ t

0E(| ~X(t) − ~X ′(t)|2)

Para acotar el segundo sumando utilizamos las propiedades de la integral deIto ([Ev],[Du]).

E

(∣

∫ t

0σ( ~X(t), t) − σ( ~X ′(t), t)d ~W

2)

= E

( ∫ t

0

σ( ~X(t), t) − σ( ~X ′(t), t)

2

ds

)

≤ L2

∫ t

0E(| ~X(t) − ~X ′(t)|2)ds

Y, considerando las dos desigualdades

E(| ~X(t) − ~X ′(t)|2) ≤ C

∫ t

0E(| ~X(t) − ~X ′(t)|2)ds

Ahora podemos utilizar la desigualdad de Gronwall con

φ(t) = E(| ~X(t) − ~X ′(t)|2), C0 = 0

y concluımos que ~X y ~X ′ son iguales en casi todo punto para todo tiempo.

(Existencia) Consideraremos las aproximaciones

~Xn+1(t) = ~X0 +

∫ t

0

~b(Xn(s), s)ds +

∫ t

0σ( ~Xn(s), s)d ~W

Usaremos el siguiente resultado (cuya demostracion, basada en un meto-do de induccion, puede consultarse en [Ev]):

Page 19: Sobre algunas relaciones entre la probabilidad y las ... · 2.2. Reconocimiento de siluetas y la ecuacio´n de Poisson . . . . . 38 2.3. ... la integracio´n de ecuaciones estocasticas,

1.2. EXISTENCIA Y UNICIDAD PARA LAS ECUACIONES ESTOCASTICAS19

Sea la ’distancia’

dn(t) = E(| ~Xn+1(t) − ~Xn(t)|2)

Entonces se cumple

dn(t) ≤ (Mt)n+1

(n+ 1)!∀ n = 1, ..., 0 ≤ t ≤ T

para alguna constante M = M(L, T, ~X0).

Se tiene, por los calculos anteriores, que

max0≤t≤T

| ~Xn+1(t) − ~Xn(t)| ≤ L2T2

∫ T

0| ~Xn(t) − ~Xn−1(t)|2dt

+ max0≤t≤T

2

∫ t

0σ( ~Xn(s), s) − σ( ~Xn−1(s), s)d ~W

2

Ahora usamos el teorema 5 y el resultado anterior y concluımos que se tiene

E[ max0≤t≤T

| ~Xn+1(t) − ~Xn(t)|] ≤ L2T2

∫ T

0| ~Xn(t) − ~Xn−1(t)|2dt

+ 8L2

∫ T

0| ~Xn(t) − ~Xn−1(t)|2dt

≤ C(MT )n

n!

Aplicando la desigualdad de Chevichev y el lema de Borel-Cantelli con-cluımos que

P

(

max0≤t≤T

| ~Xn+1(t) − ~Xn(t)| > 1

2i.o.

)

= 0

Entonces para casi todo ω, ~Xn converge uniformemente en [0, T ] a un proceso~X. Pasando al lımite en la definicion de ~Xn+1 y en las integrales concluımosque el proceso lımite es solucion de la ecuacion (1.11). La prueba de que elproceso esta en L2 puede consultarse en [Ev] o en [O]. La prueba se basaen la definicion recurrente del proceso Xn+1(t) y en la suma de la serieexponencial.

Dado que una ecuacion estocastica es una generalizacion de una ecuacionordinaria, podıamos esperar que la demostracion fuese similar. Sin embargo,dado que el browniano no es derivable en casi ningun punto, en generalno podremos esperar que una solucion de una ecuacion estocastica vaya aser diferenciable. La maxima regularidad que podemos esperar es la mismaque para el browniano, que es Holder-α con α < 1/2 en tiempo. En lascondiciones del teorema tendremos Holder-β con β < 1 en espacio.

Page 20: Sobre algunas relaciones entre la probabilidad y las ... · 2.2. Reconocimiento de siluetas y la ecuacio´n de Poisson . . . . . 38 2.3. ... la integracio´n de ecuaciones estocasticas,

20 CAPITULO 1. PRIMEROS CONCEPTOS

Para introducir la idea de flujo estocastico, que no es mas que la versionaleatoria de la idea de flujo de las EDO, usaremos un nuevo parametro s, eltiempo inicial, y escribiremos ~Xt

s(x) para la solucion de

d ~X(t) = ~b( ~X(t), t)dt + σ( ~X(t), t)d ~W , ~X(s) = x (1.12)

Ası se tiene la propiedad de flujo

~Xtu( ~Xu

s (x)) = ~Xts(x) en c.t.p. ∀ 0 ≤ s ≤ u ≤ t ≤ T, ∀x ∈ R

d (1.13)

La demostracion de este hecho puede verse en las notas del curso impartidopor M.Gubinelli en su pagina web o en [Ku].

Para hablar de la regularidad respecto de los parametros necesitamosuna desigualdad para poder aplicar el teorema de Kolmogorov. En [BF]puede encontrarse

E[| ~Xts(x) − ~Xt′

s′(x′)|p] ≤ C[|x− x′|p + |s− s′|p/2 + |t− t′|p/2] (1.14)

Ahora, si consideramos x = x′ y queremos ver el exponente de Holder enel tiempo tenemos que aplicar el teorema de Kolmogorov de manera identicaa como lo hicimos en la seccion anterior. Concluımos que, vista la solucioncomo una funcion en s (o en t) el exponente de Holder es γ < 1/2. Verlo parael espacio es similar. Consideremos ahora s = s′, t = t′. Entonces aplicamosel teorema de Kolmogorov y concluımos que el exponente es γ < 1. Hemosdemostrado ası el resultado siguiente

Teorema 6 (Regularidad). Sea una ecuacion estocastica con coeficientesbajo las hipotesis del teorema 4. Y sea ~Xt

s(x) su solucion. Entonces se tiene

1. s 7→ ~Xts(x) es Holder-γ si γ < 1/2.

2. t 7→ ~Xts(x) es Holder-γ si γ < 1/2.

3. x 7→ ~Xts(x) es Holder-γ si γ < 1.

Claro esta que si se tiene una mayor regularidad en las funciones ~b y σentonces se tendra mayor regularidad en el espacio. En concreto se tiene

Teorema 7. Sean los coeficientes de la ecuacion estocastica funciones Ck,α

en x, entonces la solucion Xt0(x) es Ck,β en x con β < α.

En el tiempo no ganaremos nada, porque el contraejemplo del movimien-to browniano lo impide. Para las demostraciones rigurosas de estas afirma-ciones puede consultarse [Ku].

Teorema 8. Sean los coeficientes de la ecuacion estocastica satisfaciendolas hipotesis del teorema 4, entonces existe c constante tal que dos solucionesde la misma ecuacion con distintos valores iniciales cumplen

E[| ~X1(t) − ~X2(t)|2] ≤ |x1 − x2|2ect.

Page 21: Sobre algunas relaciones entre la probabilidad y las ... · 2.2. Reconocimiento de siluetas y la ecuacio´n de Poisson . . . . . 38 2.3. ... la integracio´n de ecuaciones estocasticas,

1.3. LA MEDIDA DE WIENER 21

Demostracion. La idea de la prueba es aplicar la formula de Ito (ver apendiceA) a la funcion norma,

ρ2( ~X1(t), ~X2(t)) =d

i=1

(Xi1(t) −Xi

2(t))2

Una vez que hemos hecho esto, aplicamos la desigualdad de Gronwall.

Hay que mencionar que hay dos tipos de ecuaciones estocasticas, cadauno de ellos basado en una integracion estocastica diferente. Son las ecua-ciones de Ito, que se basan en la integral de Ito y son las que trataremosaquı, y las de Stratonovich, que se basan en la integral del mismo nombre.Para mas detalles se pueden consultar los apendices.

Las ecuaciones estocasticas podemos considerarlas como generalizacionesde la ecuacion de Langevin para una partıcula suspendida en un medio ysometida a bombardeos aleatorios que cambian su velocidad. Es entoncesfacil establecer que reflejan una difusion7.

Pensando en las soluciones como difusiones es posible convencerse de queverificaran la propiedad de Markov, esto es, que son procesos de Markov.La prueba rigurosa se puede consultar en [O]. En cualquier caso esto noes sorprendente, pues la aleatoriedad aparecıa por medio del movimientobrowniano, y este es un proceso de Markov. No ha de preocuparnos que loscoeficientes puedan depender de t, pues podemos suponerlos independientessi anadimos t como otra coordenada de la incognita ~X(t) ∈ R

d+1.Veremos que el hecho de ser un proceso markoviano nos da un semigrupo

de operadores. Pero antes necesitamos definir la medida de Wiener.

1.3. La medida de Wiener

En esta seccion presentaremos la medida de Wiener para poder continuardefiniendo los semigrupos asociados a procesos de Markov en la seccionsiguiente. Necesitamos esta medida para integrar en las funciones y construirası soluciones de una EDP.

La medida de Wiener es la inducida por el movimiento browniano, visto,no como una funcion ~W (ω, t), sino como

~W : Ω 7→ C([0, T ],Rd)

Lo trataremos entonces como una variable aleatoria que toma valores en unespacio de funciones. En efecto, sea x un punto cualquiera, entonces podemosconsiderar los siguientes espacios de funciones

Cx([0, T ],Rd) = f ∈ C([0, T ],Rd), f(0) = x (1.15)

7De hecho a la funcion ~b se le llama drift, a σ, termino de difusion y a las solucionesde ecuaciones como (1.10), difusiones de Ito.

Page 22: Sobre algunas relaciones entre la probabilidad y las ... · 2.2. Reconocimiento de siluetas y la ecuacio´n de Poisson . . . . . 38 2.3. ... la integracio´n de ecuaciones estocasticas,

22 CAPITULO 1. PRIMEROS CONCEPTOS

Cyx([0, T ],Rd) = f ∈ C([0, T ],Rd), f(0) = x, f(T ) = y (1.16)

Podemos definir una medida en el espacio, (1.15) considerando un movi-miento browniano que no parta de 0 sino de x.8 O equivalentemente podemosconsiderar el proceso ~V (t) = x+ ~W (t).

En el segundo caso, (1.16), la medida construıda se dice condicionadaya que hemos impuesto el extremo final.

La manera rigurosa de construir ambas es similar.9 Para simplificar,consideraremos el caso unidimensional (d = 1) y x = 0.10 Consideraremoslos conjuntos (que llamaremos cilindros) siguientes11. Dados tiempos t1, ...tny borelianos en R B1, ...,Bn definimos el conjunto

ΠB1,...,Bn

t1,...,tn = f ∈ C0([0, T ],R), f(ti) ∈ Bi (1.17)

Hemos de asignarles una probabilidad, y es ahora donde el calculo previo(1.3) nos ayuda. Pues les asignamos la probabilidad usandolo.

W(ΠB1,...,Bn

t1,...,tn ) =

B1

. . .

Bn

n−1∏

i=0

1

(√

2πti+1 − ti)e

−|x1|2t1 e

−|x2−x1|2(t2−t1) ...e

−|xn−xn−1|2(tn−tn−1) dxn...dx1

(1.18)Observamos que si para cierto tiempo nuestro boreliano es todo el espacioentonces ese tiempo no cuenta, i.e. si en ti se tiene Bi = R entonces

W(ΠB1,...,Bn

t1,...,tn ) = W(ΠB1,...Bi−1,Bi+1,...,Bn

t1,...,ti−1,ti+1,...,tn )

Esto es una consecuencia de la ecuacion de Chapman-Kolmogorov. Si

p(t, x, y) =1√2πt

exp(−(x− y)2/2t)

entonces la ecuacion de Chapman-Kolmogorov se puede escribir

p(s+ t, x, y) =

R

p(s, x, z)p(t, z, y)dz (1.19)

es decir, la probabilidad de ir en s + t de x a y es la misma que la de ir dex a z en s y de z a y en t siempre que contemos todos los z posibles.

8Lo llamaremos espacio de caminos del ingles ’path space’ Cada una de las funcionessera un camino (’path’ )

9Las separa una integracion (ver capıtulo 3)10Notaremos W0 = W.11Hay varias maneras de construir la medida de Wiener. Nosotros optaremos por con-

siderar los cilindros y utilizar el teorema de extension de Kolmogorov. Otra demostracionse puede consultar en [GJ].

Page 23: Sobre algunas relaciones entre la probabilidad y las ... · 2.2. Reconocimiento de siluetas y la ecuacio´n de Poisson . . . . . 38 2.3. ... la integracio´n de ecuaciones estocasticas,

1.3. LA MEDIDA DE WIENER 23

0 50 100 150 200 250 300 350−0.8

−0.6

−0.4

−0.2

0

0.2

0.4

0.6

t

B1

B2

B3

B4

Figura 1.5: Los cilindros.

Para poder utilizar el teorema de extension de Kolmogorov hemos de verque a conjuntos iguales se les asigna la misma medida. Es decir, hemos dever que si

ΠB1,...,Bn

t1,...,tn = ΠA1,...,Ams1,...,sm

entonces

W(ΠB1,...,Bn

t1,...,tn ) = W(ΠA1,...,Ams1,...,sm

)

Esto se puede reducir al caso donde un conjunto de tiempos y boreles contie-ne al otro, pues si ambos conjuntos son iguales entonces podemos considerarla interseccion de ambos y uno de ellos, i.e. tenemos el siguiente caso

ΠB1,...,Bn

t1,...,tn = ΠB1,...,Bn,A1,...,Am

t1,...,tn,s1,...,sm

Pero ahora podemos reducir la propiedad que queremos a la que habıamosdemostrado ya usando las ecuaciones de Chapman-Kolmogorov. En efecto,si se cumple la igualdad entonces en los tiempos ’nuevos’ sj del miembrode la derecha los boreles respectivos, Aj, han de ser todo el espacio. Si nofuese ası, existe una funcion continua que pasa por los borelianos correctos

Page 24: Sobre algunas relaciones entre la probabilidad y las ... · 2.2. Reconocimiento de siluetas y la ecuacio´n de Poisson . . . . . 38 2.3. ... la integracio´n de ecuaciones estocasticas,

24 CAPITULO 1. PRIMEROS CONCEPTOS

en todos los tiempos ti anteriores y posteriores y que en el tiempo sj pasasepor Ac

j. Por lo que ambos conjuntos no serıan iguales y obtenemos unacontradiccion. Una vez que los boreles son todo el espacio entonces usandolas ecuaciones de Chapman-Kolmogorov podemos concluir que las medidasde ambos conjuntos son iguales.

Usamos el teorema de extension (o de existencia) de Kolmogorov, puestenemos que se satisfacen las condiciones de consistencia. Ademas, ası defini-da la medida es numerablemente aditiva en los cilindros. Que es finitamenteaditiva es una simple observacion. La numerabilidad viene de que podemosescribir12

W(∪∞i=1Ci) = W(∪N

i=1Ci) + W(∪∞i=N+1Ci)

por ser valido para un numero finito de conjuntos. Ahora concluımos obser-vando que el segundo sumando converge a cero cuando avanzamos en N porser la medida de un conjunto que tiende al vacıo.

Por lo tanto tenemos una medida en la σ−algebra generada por loscilindros antes mencionados. Sin embargo no esta nada claro a simple vistacual es dicha σ−algebra.

Consideremos el conjunto

A = φ, f(s) < φ(s) < g(s)

para ciertas funciones continuas f, g. Sean si los racionales en el intervalo[0, T ]. Entonces podemos escribir el conjunto como

A =

∞⋃

n=1

si

f(si) + 1/n < φ(si) < g(si) − 1/n

Por lo que tenemos que es una union numerable de intersecciones de cilin-dros. Conjuntos como el anterior estaran en la σ−algebra, y por lo tantoestaran los boreles (de la convergencia uniforme), pues bastara fijar ψ ytomar f = ψ − ε y g = ψ + ε. Es mas, se puede demostrar que ambasσ−algebras en realidad coinciden.

Introduciremos la notacion, muy comun,

~W (ω, t) = ω(t)

Entonces la medida anterior nos define una esperanza

E0[f ] =

C0([0,T ],R)f(ω)dW (1.20)

Observamos que el cero aparece como subındice en el integrando porqueconsideramos un movimiento browniano con origen el cero. Si queremos

12Se sabe (ver [Kl]) que si consideramos constantes de difusion imaginarias la medidaresultante no es numerablemente aditiva.

Page 25: Sobre algunas relaciones entre la probabilidad y las ... · 2.2. Reconocimiento de siluetas y la ecuacio´n de Poisson . . . . . 38 2.3. ... la integracio´n de ecuaciones estocasticas,

1.3. LA MEDIDA DE WIENER 25

considerar movimientos partiendo de un punto x escribiremos

Ex[f ] =

Cx([0,T ],R)f(ω)dWx (1.21)

Esta probabilidad se concentrara en las funciones continuas que pasanpor x en tiempo 0.

Si fijamos unos tiempos, entonces podemos cambiar la integral en elespacio de funciones por una integral en R

d.13 Esto es consecuencia de comohemos definido la medida en los cilindros.

E[f1( ~W (t1)), ..., fn( ~W (tn))] =

Rn

n∏

j=1

fj(xj)p(tj−tj−1, xj , xj−1)dx1dx2, ...dxn

Esta formula nos es bien conocida en un caso con un solo tiempo, pues noes mas que la formula del semigrupo de la ecuacion del calor. Ası si

H0 = −1

2∆

e−tH0f(x) =

R

p(t, x, y)f(y)dy = Ex[f( ~W (t))] = E0[f(x+ ~W (t))] (1.22)

Esta es la primera formula de representacion que hemos conseguido.

Observamos que entonces podemos escribir la medida en funcion de estosoperadores.

E0[f1( ~W (t1)), ..., fn( ~W (tn))] = [e−t1H0f1e−(t2−t1)H0f2...e

−(tn−tn−1)H0fn](0)

Hemos definido la medida de Wiener como la inducida por el movimientobrowniano, pero podemos hacer lo mismo con otros procesos. Por ejemplola medida definida en (1.16) no esta inducida por el movimiento browniano,sino por el puente browniano ~X, definido como

~X(t) = ~W (t) +t

T(y − ~W (t))

Se puede definir tambien como la solucion de la SDE

d ~X(t) =t− ~X(t)

T − tdt+ d ~W

con el mismo punto inicial que tenga el movimiento browniano que lo induce.

Ası podemos definir la medida (con medida del espacio total igual ap(T2 −T1, x, y)) inducida por el puente browniano que en tiempo T1 esta en

13La llamaremos integral de caminos del ingles ’path integral’.

Page 26: Sobre algunas relaciones entre la probabilidad y las ... · 2.2. Reconocimiento de siluetas y la ecuacio´n de Poisson . . . . . 38 2.3. ... la integracio´n de ecuaciones estocasticas,

26 CAPITULO 1. PRIMEROS CONCEPTOS

x y en T2 esta en y como unos ciertos operadores, exactamente igual que enel caso anterior,

Cyx([T1,T2],R)

f1( ~X(t1), f2( ~X(t2), ...fn( ~X(tn)dWx,y[T1,T2]

=

= [e−(T1−t1)H0f1e−(t2−t1)H0f2...e

−(tn−tn−1)H0fne−(T2−tn)H0(·, y)](x) (1.23)

Comentario 2 Cualquier difusion nos da una medida en el espacio de lasfunciones continuas con respecto a la σ−algebra de los cilindros14. Puedeconsultarse [F] para mas detalles. Lo que ocurrira es que no sera posibleescribirla tan explıcitamente salvo en unos pocos casos.

0 200 400 600 800 1000 1200−2

−1.5

−1

−0.5

0

0.5

1

1.5

2

Figura 1.6: Trayectorias de un puente browniano.

1.4. Semigrupos y procesos de Markov

Sea un dominio U ⊂ Rd. Entonces dado un proceso de Markov X defi-

nimos el operador

Ttf(x) = Ex[f( ~Xt0(x))] =

Rd

f(y)P (t, x, dy) (1.24)

donde P (t, x,Γ) es la funcion de transicion, que da la probabilidad de queen tiempo t nuestro proceso que parte de x llegue a Γ, es decir

P ( ~Xt0(x) ∈ Γ) =

Γp(t, x, y)dy

14En realidad cualquier proceso estocastico con trayectorias continuas nos define unamedida en la σ−algebra de los cilindros. Tambien podemos extender esta idea a las EDOque tengan unicidad, existencia y sus soluciones sean continuas. Solo que en este caso lamedida es totalmente singular, con probabilidad 1 caera en la unica solucion de la EDO.

Page 27: Sobre algunas relaciones entre la probabilidad y las ... · 2.2. Reconocimiento de siluetas y la ecuacio´n de Poisson . . . . . 38 2.3. ... la integracio´n de ecuaciones estocasticas,

1.4. SEMIGRUPOS Y PROCESOS DE MARKOV 27

y p(t, x, y) es la densidad de transicion.

Observamos que si f ≥ 0 entonces Ttf ≥ 0. Ademas si f ∈ L∞ tenemosTtf ∈ L∞, es mas

||Ttf ||∞ ≤ ||f ||∞Que efectivamente es un semigrupo se desprende de la propiedad de

Markov15 y de las propiedades de la esperanza condicionada (ver [Ev]),

E[f( ~Xt+s0 (x))|Σ( ~X(z), 0 ≤ z ≤ s)] = E[f( ~Xt

s(~Xs

0(x)))] = Ttf( ~Xs0(x))

Ahora tomando esperanzas y aplicando las propiedades de la esperanzacondicionada concluımos

Ts+tf(x) = TsTtf(x)

Por lo tanto Tt es un semigrupo de contracciones en L∞. Definimos sudominio como

D(Tt) = f ∈ L∞, ||Ttf − f || → 0, si t→ 0

Este conjunto es un espacio vectorial (por la linealidad de la esperanza y ladesigualdad triangular). Ademas es cerrado. En efecto, basta observar quesi

fn ∈ D(Tt) → f, Ttfn → Ttf

entonces

||Ttf − f ||∞ ≤ ||Ttf − Ttfn||∞ + ||Ttfn − fn||∞ + ||fn − f ||∞ → 0.

Y por lo tanto f ∈ D(Tt).

Se tiene tambien que

t 7→ Ttf

es continuo. En efecto,

||Tt+hf − Ttf ||∞ ≤ ||Tt(Thf − f)||∞ ≤ ||Thf − f ||∞ → 0

Hemos demostrado ası el siguiente resultado

Teorema 9 (Semigrupo). Dado un proceso de Markov, se tiene que

15Hay muchas formulaciones de la propiedad de Markov, nosotros utilizamos antes unabasada en a probabilidad, pero ahora utilizaremos una con esperanzas (ver [Du],[F]).Entonces se dice que ~X es de Markov si

E[ ~X(t + h)|Σ ~X(s), 0 ≤ s ≤ t] = E[ ~X(t + h)| ~X(t)]

Page 28: Sobre algunas relaciones entre la probabilidad y las ... · 2.2. Reconocimiento de siluetas y la ecuacio´n de Poisson . . . . . 38 2.3. ... la integracio´n de ecuaciones estocasticas,

28 CAPITULO 1. PRIMEROS CONCEPTOS

1. Tt es un semigrupo de contracciones en L∞, con dominio

D(Tt) = f ∈ L∞, ||Ttf − f || → 0, si t→ 0.

Ademas es un espacio vectorial cerrado.

2. s 7→ Ts es continuo.

Para fijar las ideas, veamos algunos ejemplos en una dimension espacial.Ejemplo 1:

Consideremos la EDO, escrita para conservar la notacion como

dXt(x) = bdt.

Entonces, como no tiene ningun tipo de naturaleza estocastica, podemosobviar las esperanzas. En este caso el operador es

Ttf(x) = Ex[f(Xt0(x))] = f(x+ bt).

Vemos que es justamente la solucion de la ecuacion de transporte

ut = bux, u(0, x) = f(x)

En este caso el generador es

A = b∂

∂x.

Ejemplo 2:

Consideremos ahora la ecuacion estocastica

dX = dW, X(0) = x

con solucionXt

0(x) = x+W (t)

Vimos anteriormente que

Ttf(x) = Ex[f(x+W (t))]

resolvıa la ecuacion del calor con difusion 1/2,

ut =1

2uxx, u(x, 0) = f(x)

En este caso el generador es

A =1

2

∂2

∂x2.

Page 29: Sobre algunas relaciones entre la probabilidad y las ... · 2.2. Reconocimiento de siluetas y la ecuacio´n de Poisson . . . . . 38 2.3. ... la integracio´n de ecuaciones estocasticas,

1.4. SEMIGRUPOS Y PROCESOS DE MARKOV 29

Ejemplo 3:

Podemos considerar la ecuacion estocastica

dX = bdt+ dW, X(0) = x

y entonces el semigrupo ira asociado a la ecuacion

ut = bux +1

2uxx

En este caso el generador es

A = b∂

∂x+

1

2

∂2

∂x2.

En general, observamos que el generador del semigrupo, que se definecomo

A = lımh→0

Thf(x) − f(x)

h,

es el operador elıptico que aparece en (A.4)16

Au =1

2

d∑

i,j=1

ai,j(x)∂2u

∂xi∂xj+

d∑

i=1

bi(x)∂u

∂xi.

Recordemos que ai,j = (σσt)i,j . Para demostrarlo solo hemos de tomar es-peranzas en la formula de Ito aplicada a f(x) ∈ C2 con derivadas acotadas.Por lo tanto tenemos asociada la ecuacion

d

dtTtf(x) = ATtf(x), T0f(x) = f(x).

Para mas detalles puede consultarse [Du], [App].Comentario 3 Se tiene que el operador A tiene sentido clasico para

las funciones f ∈ C2b = C2 ∩ L∞, ademas C2

b ⊆ D(A) ⊂ D(Tt) ⊂ L∞. Losdominios dependen de la dimension considerada, ası para d = 1 D(A) = C2

b ,pero para d > 1 es estrictamente mayor.

Queremos remarcar que antes tenıamos la continuidad en t, pero ahora, almenos para ciertas funciones f , tenemos la derivabilidad en t. Querremos laderivabilidad tambien en x, pero esa es debida al propio proceso de Markov.

Definicion 6. Un semigrupo es de Feller si se cumple que si f ∈ C(U) ∩L∞(U) = Cb(U) entonces Ttf(x) ∈ Cb(U).

Se tiene el siguiente resultado

Teorema 10. Sean los coefientes de una ecuacion estocastica como en elteorema 4 y acotados, entonces el semigrupo asociado es de Feller.

16Si lo restringimos a las funciones suficientemente regulares (ver [F] o [Dy]).

Page 30: Sobre algunas relaciones entre la probabilidad y las ... · 2.2. Reconocimiento de siluetas y la ecuacio´n de Poisson . . . . . 38 2.3. ... la integracio´n de ecuaciones estocasticas,

30 CAPITULO 1. PRIMEROS CONCEPTOS

Demostracion. Sean x, y valores iniciales de la ecuacion estocastica con coe-ficientes Lipschitz acotados. Podemos separar esa esperanza en funcion deque los argumentos Xt

0(x),Xt0(y) estan proximos (y por la continuidad de

f entonces la diferencia de dichos valores sera menor que ε) y separados.Entonces

|Tt(f(x)−Ttf(y))| ≤ E[|f( ~Xt0(x))−f( ~Xt

0(y))|] ≤ ε+2||f ||∞P (| ~Xt0(x)− ~Xt

0(y)| > δ)

El segundo termino es el resultante de la probabilidad de que los argu-mentos estan alejados. En el caso de que nuestros argumentos esten separa-dos podemos acotar

|f( ~Xt0(x)) − f( ~Xt

0(y))| ≤ 2||f ||∞.

Ahora podemos aplicar el lema de Chevichev con p = 2 y el teorema 8 paraacotar el ultimo termino con potencias de |x− y| y constantes dependientesdel tiempo. De aquı se infiere la continuidad. En concreto se tiene

P (| ~Xt0(x) − ~Xt

0(y)| > δ) ≤ 1

δ2E[| ~Xt

0(x) − ~Xt0(y)|2] ≤

ect

δ2|x− y|2.

Acabamos de ver que Ttf(x) es continua en x, por lo tanto tenemosdemostrada alguna regularidad para la solucion de la ecuacion

d

dtTtf(x) = ATtf(x), T0f(x) = f(x)

siempre que f ∈ Cb y los coeficientes de la difusion estocastica sean acotadosy Lipschitz.

Si ademas suponemos que los coeficientes de la difusion son funcionesC2,α y f ∈ C2

b entonces Ttf(x) ∈ C2(Rd) por el teorema 7.

El resultado se puede mejorar. La formula de Bismut-Elworthy-Li (ver[Du] o [Ku]) nos permite escribir la derivada espacial de Ttf(x) sin usar lasderivadas de f . En concreto,

Teorema 11 (Formula de Bismut-Elworthy-Li). Sea f ∈ Cb, una difusion~Xt

0(x) con coeficientes C2,αb y ~v, ~w dos direcciones. Entonces la derivada de

Ttf(x) en la direccion ~v es

∇~vTtf(x) ≤ C|~v|√t||f ||∞.

Para las segundas derivadas la formula es similar,

∇~v, ~wTtf(x) ≤ C|~v||~w|t

||f ||∞.

Page 31: Sobre algunas relaciones entre la probabilidad y las ... · 2.2. Reconocimiento de siluetas y la ecuacio´n de Poisson . . . . . 38 2.3. ... la integracio´n de ecuaciones estocasticas,

1.4. SEMIGRUPOS Y PROCESOS DE MARKOV 31

Por lo tanto solo necesitaremos f ∈ Cb y coeficientes de la SDE C2,αb

para que el generador tenga sentido clasico.17

Queremos hacer notar que nuestra p en el caso de una difusion de Itono es otra que la solucion fundamental del problema parabolico, tal y comoparecıa claro del caso de la ecuacion del calor.

Comentario 4 Esto es gracias a que tenemos un proceso de Markov,pero estos no deben ser necesariamente difusiones de Ito, i.e. solucionesde ecuaciones estocasticas, pueden ser procesos de Levy mas generales queincluyan saltos... Esto llevarıa a ecuaciones no-locales y operadores fraccio-narios.

17Notaremos el espacio de las funciones dos veces derivables con derivadas acotadascomo C2

b . Y como Cb al espacio C(U) ∩ L∞(U).

Page 32: Sobre algunas relaciones entre la probabilidad y las ... · 2.2. Reconocimiento de siluetas y la ecuacio´n de Poisson . . . . . 38 2.3. ... la integracio´n de ecuaciones estocasticas,

Capıtulo 2

Formulas de representacion

para ecuaciones elıpticas

Comenzaremos dando una definicion necesaria para tratar con problemasen dominios acotados y con condiciones Dirichlet1

Definicion 7. Se define un tiempo de parada con respecto a una filtracion,F(t), como una variable aleatoria

τ : Ω 7→ [0,∞]

que cumple queω, τ(ω) ≤ t ∈ F(t), ∀t ≥ 0.

Se tienen los siguientes resultados:

Proposicion 1. Sea τ1 y τ2 tiempos de parada con respecto a la mismafiltracion. Entonces

1. ω, τ1 < t y ω, τ1 = t pertenecen a la filtracion en todo tiempo.

2. mın(τ1, τ2) y max(τ1, τ2) son tiempos de parada.

La demostracion de este resultado puede consultarse en [Ev].El ejemplo que a nosotros nos interesara es el tiempo mınimo de tocar

un conjunto.

Proposicion 2. Sea ~X(t) la solucion de (1.11) satisfaciendo las hipotesisdel teorema 4 y un conjunto E cerrado o abierto y no vacıo en R

d. Entonces

τ = ınft ≥ 0| ~X(t) ∈ E

es un tiempo de parada.

1Las condiciones Neumann no se trataran en este texto, pero la idea es definir unadifusion que al llegar al borde se refleje de forma especular. (ver [R])

32

Page 33: Sobre algunas relaciones entre la probabilidad y las ... · 2.2. Reconocimiento de siluetas y la ecuacio´n de Poisson . . . . . 38 2.3. ... la integracio´n de ecuaciones estocasticas,

2.1. EL LAPLACIANO 33

La relacion entre la integracion de Ito y estas variables aleatorias queson tiempos es clara. Funcionaran como lımites de integracion. Ası en [Ev]puede verse la prueba de los resultados siguientes.

Proposicion 3. Si G ∈ L2[0, T ] y 0 ≤ τ(ω) ≤ T es un tiempo de paradaentonces la integral

∫ τ(ω)

0GdW =

∫ T

0G1t≤τ(ω)dW

cumple las siguientes propiedades

1.

E

(∫ τ(ω)

0GdW

)

= 0

2.

E

((∫ τ(ω)

0GdW

)2)

= E

(∫ τ(ω)

0G2dt

)

Este resultado es una consecuencia inmediata del mismo resultado parala integral con lımites no aleatorios (ver apendice B).

Tambien se tiene una version de la formula de Ito con tiempos de paradacomo lımite de integracion. Ver apendices. La prueba, que es una consecuen-cia de los resultados vistos en el apendice, se puede consultar en [Ev].

Los tiempos de parada que hemos considerado como el ınfimo de t talque una cierta difusion golpea un conjunto se pueden ver como una variablealeatoria que tiene como espacio de probabilidad las funciones continuas.Esto es porque la difusion tomara valores continuos tal y como vimos enel capıtulo anterior, y cada una de estas funciones (que son aleatorias encuanto que no sabemos cual saldra) tendra su propio valor τx.

2.1. El laplaciano

Hay dos maneras de aproximarse a estas formulas. Podemos partir de queconocemos que existe una solucion de la EDP y llegar a que dicha soluciones justamente una esperanza, o bien podemos ver que existe una funcion quees una esperanza y que dicha funcion es lo bastante regular como para sersolucion clasica de una cierta EDP asociada. De momento optaremos por laprimera manera, es decir, de una cierta solucion que se sabe que existe deuna EDP obtendremos una formula de representacion probabilıstica.

Hemos visto anteriormente que el generador A asociado al movimientobrowniano es justamente

−H0 =1

2∆.

Page 34: Sobre algunas relaciones entre la probabilidad y las ... · 2.2. Reconocimiento de siluetas y la ecuacio´n de Poisson . . . . . 38 2.3. ... la integracio´n de ecuaciones estocasticas,

34 CAPITULO 2. ECUACIONES ELIPTICAS

Ası es natural considerar la familia de ecuaciones en un dominio regularU ⊂ R

d siguiente

−1

2∆u(x) = f(x) si x ∈ U, u(x) = g(x) si x ∈ ∂U (2.1)

Consideremos primero el caso f = 0 y g una funcion continua. Entoncesqueremos una formula para las funciones armonicas.

Nuestro problema es

−1

2∆u(x) = 0 si x ∈ U, u(x) = g(x) si x ∈ ∂U (2.2)

Aplicamos la formula de Ito con lımite de integracion el tiempo de parada

τx(ω) = ınf(t|x+ ~W (t) ∈ ∂U)

al proceso estocastico (donde u es una solucion de (2.1))

u( ~Xt0(x)) = u(x+ ~W (t)).

Entonces, como el generador es A = 1/2∆

u( ~Xτx

0 (x)) − u(x) =

∫ τx

0Auds+

∫ τx

0∇u · σd ~W.

Si tomamos la esperanza observamos que el termino de la integracion es-tocastica desaparece (ver apendice A)

Ex[u( ~X(τx))] − Ex[u( ~X(0))] = Ex

[ ∫ τx

0Auds

]

.

Pero observamos que

Ex[u( ~X(τx))] = Ex[g( ~X(τx)], Ex[u( ~X(0))] = u(x), Ex

[∫ τx

0Auds

]

= 0

y por lo tanto el resultado que tenemos es

Teorema 12 (Kakutani). Sea U ⊂ Rd un dominio y sea g una funcion

continua definida en el borde de U , entonces la funcion u que es solucion de(2.2) cumple

u(x) = Ex[g( ~X(τx))]. (2.3)

Faltarıa ver que no puede ocurrir que el browniano permanezca infini-to tiempo dentro del conjunto U acotado. Para verlo se puede razonar devarias maneras. Supongamos que nuestro conjunto U acotado es tal queesta contenido en el semiespacio

x1 < a

Page 35: Sobre algunas relaciones entre la probabilidad y las ... · 2.2. Reconocimiento de siluetas y la ecuacio´n de Poisson . . . . . 38 2.3. ... la integracio´n de ecuaciones estocasticas,

2.1. EL LAPLACIANO 35

para cierto a. Entonces se tiene que

τx < τa1,x

donde el subındice indica la primera componente y

τa1,x = ınf(t|X1 = x1 +W1(t) = a).

Entonces tenemos que

P (τa1,x ≤ t) = P (τa

1,x ≤ t, x1 +W1(t) < a) + P (τa1,x ≤ t, x1 +W1(t) ≥ a)

= 2P (τa1,x ≤ t, x1 +W1(t) ≥ a)

= 2P (x1 +W1(t) ≥ a)

por la definicion del tiempo de parada y la simetrıa del movimiento brow-niano. Esta integral podemos calcularla explıcitamente y tras tomar el lımitecuando t → ∞ tenemos que la probabilidad es 1 por ser dos veces la inte-gral de la normal estandar en la semirrecta positiva. En efecto, tras hacer elcambio x = y/

√t, se tiene

2P (x1 +W1(t) ≥ a) =

2

π

∫ ∞

a√t

e−y2/2dy.

Desde este resultado es muy facil obtener la propiedad del valor medio.

Teorema 13 (Propiedad del valor medio). Si u es armonica entonces setiene

u(x) =1

|∂B(x, r)|

∂B(x,r)u(y)dy.

Demostracion. Usando el resultado anterior y observando que el movimientobrowniano es isotropo, que la medida del conjunto ha de ser la unidad y queen este caso el valor en el borde es la misma u se concluye.

Comentario 5 En realidad hemos demostrado que si tenemos unadifusion Xt

0(x) isotropa entonces v(x) = Ex[g(Xτx

0 (x))] verifica la propiedaddel valor medio.

Otra consecuencia inmediata es que en el caso de

g(x) = 1Γ

con Γ ⊂ ∂U , la funcion u(x) es la probabilidad de salir por Γ.

Proposicion 4. Sea u solucion de (2.2) con g(x) = 1Γ entonces se tiene

u(x) = P ( ~Xτx

0 (x) ∈ Γ).

Page 36: Sobre algunas relaciones entre la probabilidad y las ... · 2.2. Reconocimiento de siluetas y la ecuacio´n de Poisson . . . . . 38 2.3. ... la integracio´n de ecuaciones estocasticas,

36 CAPITULO 2. ECUACIONES ELIPTICAS

Antes mencionamos dos maneras de aproximarse a estos resultados. He-mos manejado hasta ahora la idea de que ya conocıamos que habıa solucion.Veamos ahora, en el caso de las funciones armonicas, que si definimos

v(x) = Ex[g( ~Xτx

0 (x))],

tenemos una solucion clasica de la EDP considerada.Sabemos que la propiedad del valor medio la verifican las funciones

armonicas. Entonces si vemos que v(x) verifica la propiedad del valor medio,que es continua y que v(x) satisface la condicion de borde entonces podemosconcluir que v(x) es la solucion clasica de nuestro problema.

Habıamos visto en el capıtulo 1 que la funcion ası definida era, al menos,continua en x.

Ver que verifica las condiciones de borde es trivial, basta observar que eltiempo de parada sera en ese caso τx = 0.

Usamos ahora el el ultimo comentario acerca de la propiedad del valormedio para demostrar que nuestra v efectivamente la cumple.

Ası hemos demostrado el resultado

Teorema 14. Sea u solucion de (2.1) con f = 0, entonces se tiene

u(x) = Ex[g( ~X(τx))]. (2.4)

Y recıprocamente, sea u como en la ecuacion anterior para una cierta g enla frontera de un dominio, entonces u es una solucion clasica de (2.1).

Si ahora consideramos el caso g = 0 y f una funcion Cαb tenemos el

resultado

Teorema 15. Si u es solucion de (2.1) con g = 0 y f ∈ Cαb (U) entonces

u(x) = Ex

[∫ τx

0f( ~Xs

0(x))ds

]

.

Demostracion. Similar a las anteriores. Solo hay que observar que el terminode borde de la formula de Ito se anula. Que E[τx] < ∞ (ver la seccionsiguiente para la prueba) y que f ∈ L∞(U) ∩ C(U) nos aseguran que laintegral es finita.

Podemos combinar los resultados anteriores para conseguir una formulapara el problema completo (2.1)

Teorema 16. Sean f, g funciones continuas y f ∈ Cαb (U). Entonces una

solucion u de (2.1) verifica

u(x) = Ex

[ ∫ τx

0f( ~Xs

0(x))ds

]

+ Ex[g( ~X(τx))].

Page 37: Sobre algunas relaciones entre la probabilidad y las ... · 2.2. Reconocimiento de siluetas y la ecuacio´n de Poisson . . . . . 38 2.3. ... la integracio´n de ecuaciones estocasticas,

2.1. EL LAPLACIANO 37

Demostracion. Basta combinar los resultados anteriores.

Podemos estar interesados en otros operadores elıpticos parecidos, porejemplo la ecuacion de Schrodinger estacionaria (consideramos las unidadesen las que las constantes son unitarias y funciones reales):

−1

2∆u(x) + c(x)u(x) = f si x ∈ U, u(x) = 0, si x ∈ ∂U (2.5)

La funcion c(x) que hace las veces de potencial se asume positiva yLipschitz. La funcion f es, como en los casos anteriores, Holder y acotada.

El tener que imponer un signo a c es para evitar caer en un problema deautovalores.

Para esta ecuacion se tiene el siguiente resultado:

Teorema 17 (Feynman-Kac). La solucion de (2.5), con f y c satisfaciendolas hipotesis anteriores viene dada por

u(x) = Ex

[ ∫ τx

0f( ~Xt

0(x))e−

R t

0c( ~Xs

0(x))dsdt

]

. (2.6)

Demostracion. Como E[τx] < ∞ (ver la seccion siguiente para la prueba),y f y c son acotadas tenemos la acotacion de las integrales anteriores. Seau solucion de la ecuacion (2.5) y consideremos

Rt0(x) = u( ~Xt

0(x))e−

R t

0c( ~Xt

0(x))ds.

Queremos aplicar la formula de Ito al proceso anterior. Para ello antes ve-remos que ocurre con los procesos

Zt0(x) = −

∫ t

0c( ~Xs

0(x))ds

Y t0 (x) = eZ

t0(x).

Las diferenciales de estos procesos son

dZ = −c( ~Xt0(x))dt

y

dY = −c( ~Xt0(x))Y

t0 (x)dt.

Aplicando la regla de derivacion del producto (ver apendice A) a Rt0(x)

nos da la diferencial

d

(

u( ~Xt0(x))e

−R t

0 c( ~Xt0(x))ds

)

= (du( ~Xt0(x)))Y

t0 (x) + u( ~Xt

0(x))dY.

Page 38: Sobre algunas relaciones entre la probabilidad y las ... · 2.2. Reconocimiento de siluetas y la ecuacio´n de Poisson . . . . . 38 2.3. ... la integracio´n de ecuaciones estocasticas,

38 CAPITULO 2. ECUACIONES ELIPTICAS

Aplicamos la formula de Ito (ver apendice A) y obtenemos

d

(

u( ~Xt0(x))e

−R t

0c( ~Xt

0(x))ds

)

=

(

1

2∆u( ~Xt

0(x))dt +

d∑

i=1

∂u( ~Xt0(x))

∂xidWi + u( ~Xt

0(x))(−c( ~Xt0(x))dt)

)

Y t0 (x).

Ahora integramos en (0, τx) y tomamos esperanzas con lo que nos queda

Ex

[

u( ~Xτx

0 (x))e−R τx0 c( ~Xτx

0 (x))ds

]

− Ex[u(x)] =

= Ex

[∫ τx

0

[

1

2∆u( ~Xt

0(x)) − c( ~Xt0(x))u( ~X

t0(x))

]

Y t0 (x)dt

]

.

Usando las condiciones de borde y la ecuacion nos queda

u(x) = Ex

[∫ τx

0f( ~Xt

0(x))e−

R t

0 c( ~Xs0(x))dsdt

]

Esta ecuacion se puede interpretar como una difusion con absorcion.Consideremos una partıcula browniana que puede mezclarse con el medio(desapareciendo). Sea c( ~Xt

0(x))h la probabilidad de desparecer en el inter-valo (t, t + h). Entonces la probabilidad de sobrevivir hasta tiempo t esaproximadamente

(1 − c( ~Xt10 (x))h)(1 − c( ~Xt2

0 (x))h)...(1 − c( ~Xtn0 (x))h)

donde ti forman una equiparticion con incremento h del intervalo (0, t).Conforme hacemos h→ 0 esta probabilidad nos tiende a una exponencial

e−R t

0c( ~Xs

0(x)ds).

Por lo tanto u es la media de f en los caminos brownianos cuyas difusionessobreviven hasta llegar a la frontera de U .

2.2. Reconocimiento de siluetas y la ecuacion de

Poisson

Esta seccion se basa en el artıculo [GGSBB], sin embargo, allı centrantodo el argumento en el analisis de paseos aleatorios. Al calcular el lımitedicen que aparece una cierta constante. Veremos que esa constante es justa-mente 1

2 . La idea es que al hacer el lımite consideramos un browniano, cuyogenerador es 1/2∆.

Page 39: Sobre algunas relaciones entre la probabilidad y las ... · 2.2. Reconocimiento de siluetas y la ecuacio´n de Poisson . . . . . 38 2.3. ... la integracio´n de ecuaciones estocasticas,

2.2. RECONOCIMIENTO DE SILUETAS Y LA ECUACION DE POISSON39

Consideramos un silueta cuyo contorno es una curva cerrada simple.La manera ’clasica’ de extraer propiedades es asignar a cada punto en la

silueta un valor que refleje su posicion con respecto al contorno. La maneramas popular es considerar la distancia. En este trabajo abordaremos otradistinta. Consideraremos partıculas brownianas que parten del punto interioren cuestion y su tiempo medio de salida de la silueta. Llegamos ası a laecuacion de Poisson. Como ya he mencionado, en el artıculo considerado[GGSBB] se hace un razonamiento basado en caminos aleatorios en el planoy observando que se llega a una discretizacion del laplaciano.

En lugar de usar esos argumentos discretos, nosotros consideraremos ladifusion browniana ~Xt

0(x) = x+ ~W (t), para cada punto interior x. Conside-ramos asimismo la ecuacion

1

2∆u = −1

con datos de borde Dirichlet homogeneos. Con la notacion de la seccionanterior f = 1 y g = 0. Observamos que nos aparece un 2 que en artıculono esta presente, pero mencionan los autores un factor de escala que hacenigual a 1 por conveniencia. Sea ahora τx = ınft|Xτx

0 (x) ∈ ∂S, donde S esla silueta.

Teorema 18. Para la solucion clasica de la ecuacion anterior se tiene

u(x) = Ex[τx]. (2.7)

Demostracion. La demostracion consiste en aplicar la formula de Ito, cosa

que podemos hacer por ser u regular, al proceso u( ~Xmın(τx,n)0 (x)), obteniendo

la formula siguiente tras tomar esperanzas

Ex[u( ~Xmın(τx,n)0 (x))] − Ex[u(x)] = Ex

[∫ mın(τx,n)

0

1

2∆u( ~Xs

0(x))ds

]

.

Ahora usamos las condiciones de borde y la ecuacion para obtener

Ex[u( ~Xmın(τx,n)0 (x))] − u(x) = −Ex

[ ∫ mın(τx,n)

01ds

]

= −Ex[mın(τx, n)].

Antes vimos que P (τx < ∞) = 1, aunque eso no nos asegura su inte-grabilidad. Para concluir que la esperanza que hemos escrito efectivamenteexiste hemos de utilizar que conocemos como es la solucion u de la ecua-cion de Poisson considerada (que es acotada). Al ser u acotada entoncesEx[mın(τx, n)] es acotada y aplicando el teorema de la convergencia domi-nada concluımos que

0 − u(x) = −Ex

[ ∫ mın(τx,n)

01ds

]

= − lımn→∞

Ex[mın(τx, n)],

y lımn→∞Ex[mın(τx, n)] = Ex[τx] <∞.

Page 40: Sobre algunas relaciones entre la probabilidad y las ... · 2.2. Reconocimiento de siluetas y la ecuacio´n de Poisson . . . . . 38 2.3. ... la integracio´n de ecuaciones estocasticas,

40 CAPITULO 2. ECUACIONES ELIPTICAS

Figura 2.1: Experimento numerico, silueta y u.

Sabemos que esta solucion u sera regular (tanto como permita la fronte-ra) y que sera positiva. Esta ultima cualidad es facil deducirla de la expresionanterior como esperanza de algo positivo.

Los conjuntos de nivel de u nos dan aproximaciones cada vez mas suavesa la frontera. En el artıculo [GGSBB] se mencionan otras propiedades de laecuacion de Poisson y de la ecuacion de Laplace, como son la existencia yunicidad de soluciones para clases grandes de condiciones de borde. Tam-bien mencionan la propiedad del valor medio, por la cual el valor de unafuncion armonica (solucion de la ecuacion de Laplace) en un cierto punto xeste determinado como la media de los valores en B(x, r) para todo r. Laprueba de esto es de nuevo sencilla (ver seccion anterior) usando nuestrarepresentacion estocastica.

Notamos que podemos usar la solucion de nuestro problema u para divi-dir una silueta en partes mediante el metodo del umbral. Aunque tambiennotamos que este metodo puede llevar a perder informacion de las partes nocentrales de nuestra forma.

Para solucionar este problema consideramos la funcion

Φ(x) = u(x) + |∇u(x)|2.

Page 41: Sobre algunas relaciones entre la probabilidad y las ... · 2.2. Reconocimiento de siluetas y la ecuacio´n de Poisson . . . . . 38 2.3. ... la integracio´n de ecuaciones estocasticas,

2.2. RECONOCIMIENTO DE SILUETAS Y LA ECUACION DE POISSON41

Esta funcion tiene ciertas propiedades que la hacen interesante, pero parael tratamiento de imagenes lo mas importante es que los valores altos deΦ indican concavidades (allı el gradiente de u es grande) y que podemosutilizar el metodo del umbral para dividir nuestra forma en partes sin perderinformacion.

Hemos mencionado que podıa utilizarse Φ para detectar concavidades,sin embargo hay un metodo mejor. Definimos la funcion

Ψ(x) = −∇ ·( ∇u|∇u|

)

.

Comentario 6 Este operador es el 1−laplaciano. En el capıtulo 5 nosaparecera de nuevo, y allı lo estudiaremos mas en profundidad.

Esta funcion tiene la propiedad de que los valores altos (en valor abso-luto) se alcanzan en zonas curvadas.

Por lo tanto sirve para encontrar las esquinas en nuestra forma. Losvalores negativos de Ψ indican concavidades. Cuanto mas negativo mas ’pi-cuda’ es la concavidad. Al reves tamben funciona, los valores altos indicanconvexidades.

Para encontrar el ’esqueleto’ de nuestra forma definimos la funcion

Ψ = −uΨ/|∇u|.Ahora por el metodo del umbral podemos encontrar el conjunto pedido.

Podemos usar la solucion de la ecuacion de Poisson tambien para definiruna orientacion, lo cual es util en el reconocimiento de caracteres, donde laausencia de una parte troncal imposibilita el uso de Φ para dividir nuestraforma. Observamos que los conjuntos de nivel de u en una figura alargadaseran paralelos a la frontera. En esta direccion las derivadas segundas deu seran pequenas, mientras que en la direccion ortogonal seran grandes.Ası encontraremos la orientacion si encontramos la direccion θ tal que uθθ

sea pequena.El objetivo de todo esto es poder discernir entre las distintas formas. Para

conseguirlo pueden considerarse los ’arboles de decision’ (ver [GGSBB]).Veamos un ejemplo de uso.Observamos (Figura 2.2) los altos valores de Φ en torno a la chimenea

de la casa, que es la zona de las concavidades. Tambien observamos que Ψdetecta tando las concavidades (entorno de la chimenea y valores negati-vos) y las convexidades (esquinas inferiores y valores positivos), ası como el’esqueleto’, que es el pico de valor positivo y alto en el centro de la casa.

Comentario 7 Todos los programas que utilizamos llevan un contadorde tiempo, que al ejecutarlos en mi ordenador (1.73 GHz) con una toleranciade 10−4 ha marcado 20 segundos. Claro esta que la imagen es de tamanoınfimo, de unos 50 por 150 pixeles y en la mayoria de ellos no se calculanada. Intentamos realizar los experimentos con una imagen mas grande ymas cercana a las reales, pero el ordenador simplemente no podıa.

Page 42: Sobre algunas relaciones entre la probabilidad y las ... · 2.2. Reconocimiento de siluetas y la ecuacio´n de Poisson . . . . . 38 2.3. ... la integracio´n de ecuaciones estocasticas,

42 CAPITULO 2. ECUACIONES ELIPTICAS

Figura 2.2: Resultados, arriba la funcion Φ, abajo la funcion Ψ.

2.3. Ecuaciones elıpticas generales

El laplaciano no es el unico operador elıptico del cual podemos obtenerrepresentacion estocastica. Ası si tenemos

−A = −(

1

2

d∑

i,j=1

ai,j(x)∂2u

∂xi∂xj+

d∑

i=1

bi(x)∂u

∂xi

)

+ c(x)u = f si x ∈ U, (2.8)

u = g si x ∈ ∂U

donde los coeficientes ai,j , bi, c son C2,αb (para α ∈ (0, 1]), c es positivo y la

forma caracterıstica∑d

i,j=1 ai,jλiλj es positiva podemos aplicar los metodos

anteriores.2 Este operador es, en fısica, un hamiltoniano. c hace las veces depotencial. De nuevo g es una funcion continua y acotada, f ∈ Cα

b (U).

Supondremos ademas que tenemos

(ai,j)(x) = σ(x)σt(x)

con σ(x) una matriz cuyos elementos sean C2,αb . Una tal matriz existira siem-

pre que la matriz a tenga rango constante, como es en nuestro caso.3

2Necesitaremos imponer unas condiciones tales que exista una solucion clasica y estasea unica (ver apendice A).

3Este resultado no es optimo (ver [F]).

Page 43: Sobre algunas relaciones entre la probabilidad y las ... · 2.2. Reconocimiento de siluetas y la ecuacio´n de Poisson . . . . . 38 2.3. ... la integracio´n de ecuaciones estocasticas,

2.3. ECUACIONES ELIPTICAS GENERALES 43

Es posible que existan varias matrices que cumplan esta condicion, sinembargo eso no debe preocuparnos, pues si bien las difusiones a las que danlugar son distintas, las medidas en el espacio (1.15) engendradas por ellasson equivalentes. Por lo tanto podemos tomar cualquier difusion que nuestraesperanza tiene un sentido unico y bien definido. Para la demostracion deeste hecho ver [F].

Ası dado una ecuacion como (2.8) la difusion que consideramos es lasolucion de la ecuacion4

d ~Xt0(x) = ~b( ~Xt

0(x))dt + σ( ~Xt0(x))d

~W .

Sea τx un tiempo de parada definido como en la seccion anterior.

Si se cumplen las hipotesis de regularidad anteriores para los coeficientesde (2.8) entonces se tienen los siguientes resultados (cuya demostracion esanaloga a la del caso del laplaciano):

Teorema 19. Sea g una funcion continua y f ∈ Cαb (U). Sea c = 0. Entonces

la solucion u de (2.8) verifica

u(x) = Ex

[∫ τx

0f( ~Xs

0(x))ds

]

+ Ex[g( ~X(τx))].

Remarcamos que la medida es la inducida por la difusion considerada.

Teorema 20 (Feynman-Kac). La solucion de (2.8), con f ∈ Cαb (U) y c

acotada, positiva y Lipschitz viene dada por

u(x) = Ex

[ ∫ τx

0f( ~Xt

0(x))e−

R t

0c( ~Xs

0(x))dsdt

]

+ Ex

[

g( ~X(τx))e−R τx0

c( ~Xs0(x))ds

]

.

(2.9)

Otros operadores a los que se les pueden aplicar estos metodos son los’iterados’, por ejemplo el bilaplaciano con unas condiciones de borde ade-cuadas,

∆∆u = 0, u = g1, ∆u = g2.

Basta repetir el proceso anterior. En efecto, basta escribir la ecuacion como

∆v = 0, v = g2

∆u = v, u = g1

y utilizar los resultados anteriores.

4Recordemos la notacion, ~Xt0(x) es el valor en tiempo t de la solucion de la ecuacion

estocastica que parte en tiempo 0 del punto x.

Page 44: Sobre algunas relaciones entre la probabilidad y las ... · 2.2. Reconocimiento de siluetas y la ecuacio´n de Poisson . . . . . 38 2.3. ... la integracio´n de ecuaciones estocasticas,

44 CAPITULO 2. ECUACIONES ELIPTICAS

2.4. Dominios no acotados

Es natural querer aplicar estos metodos a operadores elıpticos en domi-nios no acotados. Por ejemplo puede interesarnos resolver el problema deSchrodinger, (2.5), en todo el espacio.

Nuestro planteamiento basado en tiempos de parada no sirve entonces,pues no hay frontera que golpear. Sin embargo podemos ver el problema deSchrodinger en un disco de radio R centrado en el origen (UR) e ir ampliandodicho radio. Ası tenemos la idea de que lımUR = R

d y τx → ∞.

Ası por ejemplo si consideramos el problema en todo el espacio (quetomamos R

3 por fijar ideas)

−∆u = f si x ∈ R3

sabemos que el operador de Green (puede consultarse en [Ev2]) es

G(x, y) =1

1

|x− y|

y que u se puede hallar por convolucion con dicho operador de Green. Sinuestra idea es correcta nuestra difusion, con densidad de transicion gaus-siana p(t, x, y), debe cumplir que al intergrarla en el tiempo resulte ser eloperador de Green que conocemos.

En efecto, resulta que

∫ ∞

0p(t, x, y)dt = G(x, y).

Para verlo hay que hacer el cambio de variables

t =|x− y|2

2s

en la integral.

Queremos hacer notar para operadores elıpticos mas generales como losde (2.8) podemos tratar los problemas en todo el espacio de la misma ma-nera, integrando en toda la semirecta del tiempo.

Comprobamos ası que vamos recuperando los resultados que ya co-nocıamos por unos metodos diferentes que en ocasiones, como ya hemosvisto en el caso de (2.5) o como veremos en la ecuacion de Navier-Stokes oen la ecuacion de Fisher, dan una nueva intuicion al problema.

Estos metodos probabilistas se pueden usar, como ya hemos visto, parademostrar algunas propiedades de las soluciones de dichas ecuaciones. Porejemplo, en [CR] demuestran una desigualdad de Harnack para (2.5). En laseccion 1 de este capıtulo demostramos la propiedad del valor medio paralas funciones armonicas.

Page 45: Sobre algunas relaciones entre la probabilidad y las ... · 2.2. Reconocimiento de siluetas y la ecuacio´n de Poisson . . . . . 38 2.3. ... la integracio´n de ecuaciones estocasticas,

2.4. DOMINIOS NO ACOTADOS 45

Ası tenemos una caracterizacion de las soluciones clasicas (que supone-mos que existen) a los problemas elıpticos (2.8) como integrales de ciertosfuncionales en (1.15) y siendo U un dominio acotado o no acotado. Las ven-tajas de conocer esta aproximacion a los problemas elıpticos son la nuevaintuicion, y los nuevos metodos numericos de aproximacion de la solucion.

Page 46: Sobre algunas relaciones entre la probabilidad y las ... · 2.2. Reconocimiento de siluetas y la ecuacio´n de Poisson . . . . . 38 2.3. ... la integracio´n de ecuaciones estocasticas,

Capıtulo 3

Formulas de representacion

para ecuaciones parabolicas

3.1. Ecuaciones parabolicas generales

Hemos visto en el capıtulo 1 que un proceso de Markov nos definıa unsemigrupo. En el caso particular de una difusion de Ito el semigrupo esta ge-nerado por un operador elıptico y por lo tanto nos resuelve una ecuacionparabolica.1

Comentario 8 Al considerar problemas en todo el espacio exigiremosf ∈ C2

b (Rd) ∩ L1(Rd). Por interpolacion tendremos que f ∈ Lp para los1 ≤ p ≤ ∞. Ademas denotaremos M =

Rd f(x)dx.

Tambien vimos que la funcion Ttf(x) era C1 en tiempo y que ser dosveces diferenciable en espacio dependıa de los coeficientes de la difusion.2

Exactamente igual a como hacıamos en la seccion correspondiente a opera-dores elıpticos generales, los tomaremos C2,α y acotados, de manera que elflujo estocastico sea dos veces derivable en x (ver el teorema 7).

En este capıtulo trataremos problemas parabolicos en todo el espacio, sinembargo, considerando tiempos de parada (como los definidos en el capıtuloanterior) se puede hacer para dominios acotados.

Ası ya vimos (capıtulo 1) que para la ecuacion del calor con valor inicialf ∈ C2

b ∩ L1(Rd)

ut(t, x) = −H0u(t, x) =1

2∆u(t, x), u(0, x) = f(x)

tenemos que la solucion es, en las diversas notaciones utilizadas en el texto,

u(t, x) = Ttf(x) = Ex[f( ~Xt0(x))] = E0[f(x+ ~W t

0(0))] = e−H0tf(x)

1Si consideramos que opera en las funciones f ∈ C2b .

2Ya mencionamos anteriormente que podıamos escribir dichas derivadas espaciales sinutilizar derivadas de f por la formula de Bismut-Elworthy-Li (teorema 11).

46

Page 47: Sobre algunas relaciones entre la probabilidad y las ... · 2.2. Reconocimiento de siluetas y la ecuacio´n de Poisson . . . . . 38 2.3. ... la integracio´n de ecuaciones estocasticas,

3.1. ECUACIONES PARABOLICAS GENERALES 47

donde estas esperanzas son, con respecto a la medida de Wiener. Es decir,que estamos integrando en funciones. Observamos que, al menos en el casode Wiener, el nucleo es justamente la integral con respecto a la medidainducida por el puente browniano en las funciones,3 i.e.

p(t− s, x, y) =

Cyx [s,t]

dWyx .

Si queremos considerar la medida inducida por el movimiento brownianoentonces se tiene

R

p(t, x, y)dy =

Cx[0,T ]dWx.

Veremos que esto es algo general.Comentario 9 Utilizando el teorema 11 y el teorema 7 podemos con-

cluir que si f ∈ Cb y nuestra difusion Xt0(x) tiene coeficientes C∞(Rd),

entonces Ttf(x) ∈ C∞(Rd). Por ejemplo esto es lo que ocurre con la ecua-cion del calor.

Comentario 10 Queremos hacer notar que si bien hay varias difusionesque nos dan el mismo generador esto no es un problema, pues las medidasque inducen todas ellas coinciden, por lo que la esperanza esta unıvocamentedefinida, (ver [F]).

Consideremos ahora el operador elıptico4

A = A− c(x) =1

2

d∑

i,j=1

ai,j(x)∂2

∂xi∂xj+

d∑

i=1

bi(x)∂

∂xi− c(x)

con coeficientes C2,α y acotados. Ademas c(x) ≥ 0.5 Supondremos que A esel generador de una difusion de Ito, es decir

(ai,j(x)) = σ(x)σt(x)

para una cierta matriz σ ∈ C2,αb , es decir, lo bastante regular para que el

flujo estocastico definido por la ecuacion estocastica

d ~X(t) = ~b( ~X(t))dt + σ( ~X(t))d ~W , X(0) = x

sea C2 en x (ver teorema 7).Sea la correspondiente ecuacion parabolica

∂u(t, x)

∂t= Au(t, x), u(0, x) = f(x). (3.1)

Entonces se tienen los siguientes resultados

3Lo que tambien es cierto es que el nucleo es la densidad de transicion de nuestroproceso de Markov.

4El signo menos que acompana a c es para tener un semigrupo de contracciones en L∞.Observamos que los coeficientes no dependen del tiempo.

5Podemos poner c negativa, pero en ese caso podemos tener soluciones estacionariasdistintas de la trivial. Dichas soluciones estaran asociadas a los autovalores del problemaelıptico.

Page 48: Sobre algunas relaciones entre la probabilidad y las ... · 2.2. Reconocimiento de siluetas y la ecuacio´n de Poisson . . . . . 38 2.3. ... la integracio´n de ecuaciones estocasticas,

48 CAPITULO 3. ECUACIONES PARABOLICAS

Teorema 21. Sea la ecuacion (3.1) satisfaciendo las hipotesis anteriores ycon c = 0. Sea f ∈ C2

b (Rd) y sea u(t, x) su solucion clasica. Entonces setiene

u(t, x) = Ttf(x) = Ex[f( ~Xt0(x))] = eAtf(x)

donde la medida es la que induce la difusion. Y recıprocamente, si definimosv(t, x) = Ttf(x) entonces v verifica la ecuacion (3.1) en sentido clasico.

Demostracion. Con t fijo, aplicamos la formula de Ito (podemos por la re-gularidad de u) a u(t− s, ~Xs

0(x)),

u(t−s, ~Xs0(x))−u(t, x) =

∫ s

0

(

∂r+A

)

u(t−r, ~Xr0 (x))dr+

∫ s

0∇u(t−r, ~Xr

0 (x))·σd ~W .

Observamos que∂

∂r= − ∂

∂t.

Ahora hacemos s = t y tomamos esperanzas, concluyendo

Ex[f( ~Xt0(x))] − u(t, x) = 0

de donde

u(t, x) = Ttf(x).

Sea ahora v(t, x) definida como en el enunciado. Vimos en el capıtulo 1que v(t, x) es C1 en tiempo. Que es C2 en espacio se deduce de la suavidadde los coeficientes de la difusion (ver [Ku] o teorema 7) y de la formulade Bismut-Elworthy-Li (teorema 11). Es obvio que satisface la condicioninicial. Solo queda probar que satisface la ecuacion. Vimos que el generadorde la difusion era justamente nuestro operador elıptico A, por lo tanto elsemigrupo satisface la ecuacion parabolica.

Si consideramos ahora c(x) ≥ 0, entonces tenemos la formula de Feynman-Kac (ahora en el caso parabolico). Sea el problema parabolico

∂u

∂t= Au, u(0, x) = f(x) (3.2)

entonces

Teorema 22 (Feynman-Kac (caso parabolico)). Sea la ecuacion (3.2) sa-tisfaciendo las hipotesis anteriores y con c ≥ 0. Sea f ∈ C2

b (Rd) y sea u(t, x)su solucion clasica. Entonces se tiene

u(t, x) = Ttf(x) = Ex[f( ~Xt0(x))e

−R t

0 c( ~Xs0(x)ds)].

donde la medida es la que induce la difusion.

Page 49: Sobre algunas relaciones entre la probabilidad y las ... · 2.2. Reconocimiento de siluetas y la ecuacio´n de Poisson . . . . . 38 2.3. ... la integracio´n de ecuaciones estocasticas,

3.1. ECUACIONES PARABOLICAS GENERALES 49

Demostracion. Sea t fijo. Consideramos los procesos

Zr0(x) = −

∫ r

0c( ~Xs

0(x))ds, Y r0 (x) = eZ

r0 (x)

con diferenciales

dZr0(x) = −c( ~Xr

0 (x))dr, dY r0 (x) = −c( ~Xr

0 (x))Y r0 (x)dr.

Entonces la diferencial del producto u(t− r, ~Xr0 (x))Y r

0 (x) es

d(u(t− r, ~Xr0 (x))Y r

0 (x)) = d(u(t − r, ~Xr0 (x)))Y r

0 (x) + udY r0 (x).

Por la formula de Ito aplicada a u se tiene

(

− ∂u(t− r, ~Xr0 (x))

∂t+Au(t− r, ~Xr

0 (x))

)

dr + ∇u(t− r, ~Xr0 (x)) · σd ~W.

Si introducimos esto en la formula anterior obtenemos

d(u(t− r, ~Xr0 (x))Y r

0 (x)) =

((

− ∂u(t− r, ~Xr0 (x))

∂t+Au(t− r, ~Xr

0 (x))

)

dr +

∇u(t− r, ~Xr0 (x)) · σd ~W

)

Y r0 (x) − u(t− r, ~Xr

0 (x))c( ~Xr0 (x))Y r

0 (x).

Ahora integramos hasta r = t y tomamos esperanzas. El resultado deesto es

Ttf(x)−u(t, x) = E

[ ∫ t

0

(

−∂u(t− r, ~Xr0 (x))

∂t+Au(t−r, ~Xr

0 (x))

)

e−R r

0 c( ~Xs0 (x)dsdr

]

= 0.

Comentario 11 Es importante observar que la ecuacion que nos apareceen la formula de Ito considerando una SDE tal y como se expusieron en elcapıtulo primero es

∂u

∂r+Au

Es decir, va en el sentido contrario del tiempo. Para solucionar este’contratiempo’ lo que hacemos es considerar u(t− r, x). Sin embargo esta noes la unica manera. En [Ku] podemos ver como si se consideran SDE en elsentido retrogrado del tiempo con dato final x la ecuacion que aparece esjustamente

∂u

∂t−Au

Page 50: Sobre algunas relaciones entre la probabilidad y las ... · 2.2. Reconocimiento de siluetas y la ecuacio´n de Poisson . . . . . 38 2.3. ... la integracio´n de ecuaciones estocasticas,

50 CAPITULO 3. ECUACIONES PARABOLICAS

Entonces la idea es que tenemos f( ~Xt0(x)) partıculas en ~Xt

0(x), que di-remos es el punto ’inicial ’, las cuales se mueven de acuerdo a la SDE consi-derada.6 Por lo tanto

u(t, x) = Ttf(x)

es la cantidad esperada de partıculas en el punto ’final ’ x en el tiempo t.

Podemos ası interpretar estas difusiones de Ito como unas ’curvas carac-terısticas’. Y entonces, dado x, t calculamos u(t, x) mirando f en el puntooriginal ~Xt

0(x) y tomando esperanzas. Exactamente igual al caso con carac-terısticas deterministas.

Comentario 12 El origen del problema (3.2) con ai,j = δi,j ,~b = 0 es lamecanica cuantica, por lo tanto es mas comun verlo escrito como

∂u(t, x)

∂t=

1

2∆u(t, x) − V (x)u(t, x), u(0, x) = f(x)

Observamos que

||Ttf(x)||∞ ≤ ||f(x)||∞e−t||c(x)||∞ ≤ ||f(x)||∞

Tt ası definido verifica las mismas propiedades que los semigrupos Tt.

Ademas, de la conservacion de la masa

Rd

Ex[f(Xt0(x))]dx ≤

Rd

Rd

p(t, x, y)f(y)dydx =

Rd

f(y)dy

y de que sea un semigrupo de contracciones en L∞ podemos concluir

||Ttf(x)||p ≤ ||f ||1p

1 ||f ||1− 1

p∞ , ∀p ∈ [1,∞], ∀t ≥ 0.

Si tuviesemos un resultado de como decae en L∞ la densidad de probabilidadentonces probarıamos el decaimiento en todos los Lp. En [Fr] (teorema 4.5)tenemos la siguiente cota

|p(t, x, y)| ≤ C

td/2.

Una prueba (distinta de la de [Fr]) de demostrar dicha desigualdad es con-siderar unas coordenadas adaptadas a la adveccion. Ası consideramos lascaracterısticas

~Y (t) =

∫ t

0

~b(~Y (s))ds

Definimos ahora

v(t, x) = u(t, x− ~Y (t))

6Tal y como hemos planteado la SDE es el punto final, pero la intuicion de estosmetodos viene al considerar que es el inicial.

Page 51: Sobre algunas relaciones entre la probabilidad y las ... · 2.2. Reconocimiento de siluetas y la ecuacio´n de Poisson . . . . . 38 2.3. ... la integracio´n de ecuaciones estocasticas,

3.2. LA ECUACION DE FISHER 51

con lo qued

i,j=1

ai,j(x)uxi,xj=

d∑

i,j=1

ai,j(x)vxi,xj

perovt = ut − ux

~Y ′(t) = ut − ux~b(x).

Observamos que v resuelve la ecuacion del calor (con unos coeficientesai,j(x)) y que se tiene ||u||∞ = ||v||∞, por lo que tenemos probado el decai-miento (ver la construccion de la solucion fundamental para esta difusion en[I]) y concluımos ası

||Ttf(x)||p ≤ ||f ||1p

1 ||f ||1− 1

p∞ ≤ c

(td/2)1−1p

, ∀p ∈ (1,∞], ∀t ≥ 0.

Comentario 13 Dijimos anteriormente que se podıan extender estas tecni-cas a dominios acotados y condiciones de borde Dirichlet. La manera de ha-cerlo es considerar un tiempo de parada τx(ω) como el definido en el capıtuloanterior y separar en t < τx y t ≥ τx, con lo que nos aparecera un terminode frontera. Como todo esto es bastante similar al capıtulo anterior no loincluımos.

3.2. La ecuacion de Fisher

Consideremos la ecuacion de Fisher7 en una dimension espacial

∂u(t, x)

∂t=

1

2

∂2u(t, x)

∂x2+ u(t, x)2 − u(t, x), u(0, x) = f(x) (3.3)

Para obtener nuestra representacion estocastica ahora hemos de consi-derar un proceso ligeramente distinto a los que normalmente consideramos.El proceso es un movimiento browniano con ramificaciones. Consideremosuna partıcula que sigue una trayectoria browniana y que en un tiempo ex-ponencial, T 8, se divide en dos partıculas identicas de manera que cada unade estas se mueva siguiendo una trayectoria browniana con origen el puntodonde se dividio la primera y se divida de nuevo con la misma probabilidad.Asumimos tambien que estas partıculas son independientes unas de otras.Estas partıculas las notamos x1(t), ...xn(t) con

P (n = k) = e−t(1 − e−t)k−1.

Entonces tenemos que, bajo ciertas condiciones en f que ahora especifi-caremos, la solucion es

u(t, x) = Ex[f(x+ x1(t)), ..., f(x + xn(t))].

7Esta ecuacion tambien se llama de Kolmogorov-Petrovskii-Piskunov.8Esto es P (T > t) = e−t.

Page 52: Sobre algunas relaciones entre la probabilidad y las ... · 2.2. Reconocimiento de siluetas y la ecuacio´n de Poisson . . . . . 38 2.3. ... la integracio´n de ecuaciones estocasticas,

52 CAPITULO 3. ECUACIONES PARABOLICAS

−20 −15 −10 −5 0 5 10 15 200

0.1

0.2

0.3

0.4

0.5

0.6

0.7

0.8

0.9

1

x

u

Figura 3.1: Onda viajera solucion de la ecuacion (3.3).

La ecuacion se utiliza en dinamica de poblaciones, considerando pobla-ciones que se mueven (difusion), crıan (reaccion) y compiten (absorcion).9

Esto es justo lo que el proceso estocastico refleja, difusion browniana y na-cimiento.

El resultado preciso requiere una hipotesis en f que me asegure la exis-tencia de la esperanza. En concreto se tiene

Teorema 23. Sea f ∈ C2b (Rd),1 ≥ f ≥ 0. Entonces

u(t, x) = Ex[f(x+ x1(t)), ..., f(x + xn(t))]

verifica la ecuacion (3.3).

Demostracion. Para demostrarlo consideramos el caso T ≤ t o T > t. Ası setiene

P (T > t) =

∫ ∞

te−sds = e−t

y entonces, si T > t,

u(t, x) = Ex[f(x+W t0(0))] = e−H0tf(x).

Supongamos el otro caso, T ∈ (s, s + ds), con s + ds < t. La probabilidadde que esto ocurra es e−sds. Ahora las dos partıculas nuevas comienzana moverse desde x + x1(T ), dando dos ejemplos independientes del mismoproceso pero con unos tiempos t− s. Como son independientes la esperanzadel producto es el producto de las esperanzas y tenemos u2(t− s, x+x1(t)).Haciendo la media en todas las posibles posiciones x+ x1(t) = y obtenemosel termino

∫ ∞

−∞P (x+ x1(s) ∈ dy)u2(t− s, y) = e−sH0u2(t− s, x).

9En realidad la ecuacion de la dinamica de poblaciones es con una reaccion u − u2,pero teniendo esta basta hacer el cambio u 7→ 1 − u.

Page 53: Sobre algunas relaciones entre la probabilidad y las ... · 2.2. Reconocimiento de siluetas y la ecuacio´n de Poisson . . . . . 38 2.3. ... la integracio´n de ecuaciones estocasticas,

3.3. FEYNMAN Y LA MECANICA CUANTICA 53

Entonces, si ponemos todo lo anterior junto, nos queda

u(t, x) = P (T > t)e−H0tf(x)+

∫ t

0P (T ∈ dy)

∫ ∞

−∞P (x+x1(s) ∈ dy)u2(t−s, y)

o lo que es lo mismo

u(t, x) = e−te−H0tf(x) +

∫ t

0e−se−sH0u2(t− s, x)ds.

Comprobamos que u(0, x) = f(x).Hacemos el cambio s′ = t− s logrando

u(t, x) = e−te−H0tf(x) −∫ t

0es

′−te(s′−t)H0u2(s′, x)ds′.

Ahora derivamos en t y nos queda

∂u(t, x)

∂t= −e−te−H0tf(x) + e−t(−H0)e

−H0tf(x) + u2(t, x)−

∫ t

0

∂t

(

es′−te(s

′−t)H0u2(s′, x)

)

ds′

Concluımos observando que este ultimo termino es el que completa −u yuxx. Hemos visto ası que u(t, x) verifica la ecuacion (3.3) con el dato inicial f .La regularidad no es problema, pues de la expresion anterior y las suavidadde f y de la difusion considerada se desprende.

Vimos anteriormente como obtener formulas de representacion de ecua-ciones lineales, este es el primer ejemplo para una ecuacion no lineal. Un es-tudio mas detallado se puede consultar en [McK]. Esta idea de una partıculaque se difunde y se ramifica se puede utilizar para otras ecuaciones paraboli-cas semilineales, siempre que tengan una no-linealidad polinomica.

3.3. Una aplicacion a una ecuacion hiperbolica:

Feynman y la mecanica cuantica

En esta seccion veremos la integral de caminos de Feynman y comose relaciona con los objetos definidos en los capıtulos anteriores. Nos res-tringiremos a una dimension espacial, pero la generalizacion es inmediata.Intentaremos ser fieles a la notacion, que es distinta de la que hemos usado alo largo de todo el texto, y a los manejos de Feynman, por lo que el espıritude esta seccion es avanzar sin preocuparnos mucho por el rigor10. Creemos

10Feynman dice en [FH] ’The physicist cannot understand the mathematician’scare in solving an idealized physical problem. The physicist knows the real pro-blem is much more complicated. It has already been simplified by intuition, whichdiscards the unimportant and often approximates the remainder.’

Page 54: Sobre algunas relaciones entre la probabilidad y las ... · 2.2. Reconocimiento de siluetas y la ecuacio´n de Poisson . . . . . 38 2.3. ... la integracio´n de ecuaciones estocasticas,

54 CAPITULO 3. ECUACIONES PARABOLICAS

que este tema tiene un interes historico ademas del interes academico, porlo que el conservar la notacion y los calculos formales es lo mas apropiado.

Hemos visto como obtener soluciones de algunas ecuaciones en derivadasparciales por medio de una integracion funcional. Vamos a aproximarnos a lamecanica cuantica con esta idea. Sin embargo, pese a ser una idea bonita11

esta mucho mas extendida entre los fısicos que entre los matematicos.

Desde un punto de vista matematico no es una tecnica satisfactoria com-pletamente por haber problemas con las medidas en las funciones conside-radas. Ası Feynman en su artıculo [Fe] dice:

The formulation given here suffers from a serious drawback.The mathematical concepts needed are new. (...) One needs, inadittion, an appropiate measure for the space of the argumentfunctions x(t) of the functionals.

Para la exposicion de estas ideas seguiremos de cerca el artıculo [Fe] (queno es mas que una revision de la tesis [Fe2]).

Comenzaremos con una especie de ecuaciones de Chapman-Kolmogorov(ver capıtulo 1).

Sean A,B,C tres mediciones del estado de un sistema tal que lo deter-minen completamente. Sea Pab la probabilidad de que, dado A = a, se tengaB = b. De forma similar se define Pbc. Entonces si asumimos independenciase tiene, si Pabc es la probabilidad de que, dado A = a, se tenga B = b yC = c,

Pabc = PabPbc

y esperamos la relacion

Pac =∑

b

Pabc.

Esta es la diferencia fundamental entre la mecanica clasica y la cuantica.En la clasica la ecuacion anterior es cierta, mientras que en cuantica no loes. El motivo es que un sistema no tiene por que tener un estado intermediob definido, y hay que medir (y por lo tanto interferir con el sistema) paraque sea verdad dicha ecuacion.

Lo que sı es cierto es que existen numeros complejos tales que

Pab = |φab|2, Pbc = |φbc|2, Pac = |φac|2

y se cumple12

φac =∑

b

φabφbc.

11Al menos en la humilde opinion del autor.12Esta es una version de las ecuaciones de Chapman-Kolmogorov vistas anteriormente.

Page 55: Sobre algunas relaciones entre la probabilidad y las ... · 2.2. Reconocimiento de siluetas y la ecuacio´n de Poisson . . . . . 38 2.3. ... la integracio´n de ecuaciones estocasticas,

3.3. FEYNMAN Y LA MECANICA CUANTICA 55

La interpretacion de esta ecuacion es que la probabilidad de que unapartıcula vaya de a a c se puede representar como el cuadrado de una sumade cantidades complejas, cada una asociada a un camino posible.13 Vamosintuyendo ası el resultado principal.

Conocemos el principio de mınima accion, que dice que en un sistemaclasico la trayectoria es la que minimiza la accion

A =

∫ tb

ta

L(X ′(t),X(t), t)dt

donde L es el lagrangiano del sistema. Por ejemplo en un sistema que constede una partıcula de masa m moviendose bajo la influencia de un potencialV (x) el lagrangiano es

1

2m(X ′(t))2 − V (X(t)).

Comentario 14 Lo cierto es que nuestra trayectoria no tiene por que serun mınimo, basta con que sea un punto crıtico del funcional considerado.En este contexto se utilizan las ecuaciones diferenciales para resolver unproblema variacional, en otros contexto es justamente al reves, se resuelveun problema variacional para resolver una EDP (por ejemplo el problema deDirichlet para la ecuacion de Poisson). Ası, segun dijimos anteriormente,si P (ta, xa, tb, xb) es la probabilidad de que nuestra partıcula14 se mueva delpunto xa en tiempo ta = 0 al punto xb en tiempo tb = T se tiene

P (b, a) = |K(ta, xa, tb, xb)|2

para cierta funcion K que cumple que es suma de las contribuciones de loscaminos posibles

K(ta, xa, tb, xb) =∑

caminos de (ta, xa) a (tb, xb)

φ(X(t))

Comentario 15 Es necesario observar que en ningun momento hemosdicho que caminos son los considerados, pero el fijar ambos puntos extremossugiere el espacio definido en (1.16). Los fısicos no suelen dejar explıcitoque espacio funcional consideran.

La idea ahora es que todos los caminos contribuyen, pero lo hacen demanera distinta. En concreto se tiene

φ(X(t)) = Cei/~A (X(t))

13Sin considerar efectos relativistas ni espın.14Aquı consideramos la medida de Wiener condicionada, es decir, que tiene fijos ambos

extremos, pero eso no ha de preocuparnos (ver capıtulo 1), pues es esencialmente igual ala medida de Wiener que usamos en las secciones anteriores.

Page 56: Sobre algunas relaciones entre la probabilidad y las ... · 2.2. Reconocimiento de siluetas y la ecuacio´n de Poisson . . . . . 38 2.3. ... la integracio´n de ecuaciones estocasticas,

56 CAPITULO 3. ECUACIONES PARABOLICAS

donde C es una constante para normalizar.Fısicamente significa que nuestra partıcula, digamos un foton, viaja por

’todos’ los caminos posibles entre dos puntos, pero cada uno contribuyeen una fase distinta. Esto no es mas que la dualidad onda-partıcula de deBroglie.

Antes de continuar vamos a pensar como recuperamos la mecanica clasicaal hacer la constante de Planck 15 tender a cero. Surgen aquı de forma naturallas consideraciones acerca de la escala en la que la mecanica cuantica esvalida. A estos lımites se les suele llamar ’lımites semiclasicos’, pues no sonclasicos (~ 6= 0) pero el sistema se comporta casi como si lo fuera.

Si hacemos una perturbacion pequena en la escala clasica la contribucionde la accion es pequena en la escala clasica, pero no ası en la escala dela constante de Planck, donde los cambios son grandes. Entonces nuestroangulo16 oscila mucho de forma que la contribucion total es cero. Esto esporque si consideramos un camino, X1, que no es un punto crıtico de laaccion existe otro camino, X2, cercano al primero y tal que la contribucionde X2 es la de X1 pero con el signo contrario. Por lo tanto solo hemos deconsiderar caminos contenidos en la vecindad de X, donde X es tal que espunto crıtico de la accion. Ası en el lımite clasico (~ → 0) el unico caminoque cuenta es el punto crıtico del funcional.

Para definir la integral en los caminos consideramos una sucesion detiempos17, ti = ta + εi, i = 0, 1, ...N y las respectivas posiciones en dichostiempos de la partıcula considerada, Xi = X(ti). Entonces

K(ta, xa, tb, xb) ≈ C

φ(X1, ...XN−1)dX1dX2...dXN−1.

Necesitamos pasar al lımite y una constante de normalizacion. Ambas cosasson problematicas en general. Sin embargo, en el caso que consideramos masarriba de una partıcula que se mueve bajo la influencia de un potencial Vtal constante es (ver [FH])

C = A−N =

(

2πi~ε

m

)−N/2

.

Por lo tanto se tiene (en este caso el lımite existe (ver [FH]))

K(ta, xa, tb, xb) = lımε→0

1

A

ei/~A (X1,...XN−1)dX1

A...dXN−1

A(3.4)

donde A (X1, ...XN−1) es la integral sobre el camino que pasa por los pun-tos Xi en los tiempos ti y que es lineal entre ellos.18 Una tal definicion de

15La constante de Planck va asociada a la cuantizacion.16Tenemos una exponencial compleja.17Este es el mismo proceso, el de considerar los cilindros, que usamos nosotros para

definir la medida de Wiener en el capıtulo 1.18En el paso al lımite lo que obtenemos es un camino sin derivada en casi todo punto,

exactamente igual a lo que pasaba con el browniano.

Page 57: Sobre algunas relaciones entre la probabilidad y las ... · 2.2. Reconocimiento de siluetas y la ecuacio´n de Poisson . . . . . 38 2.3. ... la integracio´n de ecuaciones estocasticas,

3.3. FEYNMAN Y LA MECANICA CUANTICA 57

los caminos es problematica aunque no consideremos el paso al lımite (estodavıa mas problematica despues), pues en los puntos de X ′(t) discontinua(los Xi) la derivada segunda es infinita, es decir, la aceleracion es infini-ta. Feynman afirma que eso puede ser un problema, pero tambien dice quese puede ’solucionar ’ con la sustitucion de X ′′(t) por las diferencias finitas1ε2 (Xi+1 − 2Xi +Xi−1). Feynman no esta preocupado por estos problemasy afirma

Nevertheless, the concept of the sum over all paths, (...), isindependent of a special definition and valid in spite of the failureof such definitions.

Ası escribira la integral de caminos, entendida como paso al lımite cuandoN → ∞ en la expresion anterior,19

K(ta, xa, tb, xb) =

ei/~A (X(t))DX(t). (3.5)

En [Fe] podemos ver como, con calculos formales, Feynman nota que Kası definida verifica la ecuacion de Schrodinger

i~∂ϕ(t, x)

∂t= − ~

2

2m

∂2ϕ(t, x)

∂x2+ V (x)ϕ(x, t) = Hϕ(t, x).

Se sabe que podemos escribir la solucion, si f es un valor inicial dado, como,

ϕ(t+ s, x) =

K(0, x, t+ s, y)f(y)dy

=

∫ ∫

K(0, x, s, z)K(s, z, t + s, y)f(y)dzdy

=

K(0, x, s, z)ϕ(s, z)dz.

Esta formula nos permite iterar en el tiempo N veces, de manera que siti = ta + iε obtenemos la formula (3.4).

Ademas podemos escribir

K(ta, xa, tb, xb) = e−(i(tb−ta)/~)H (xa, xb).

Anteriormente escribimos

p(t− s, x, y) =

Cyx [s,t]

dWyx (3.6)

19Todas las integrales de caminos las interpretaremos como procesos de paso al lımiteen N .

Page 58: Sobre algunas relaciones entre la probabilidad y las ... · 2.2. Reconocimiento de siluetas y la ecuacio´n de Poisson . . . . . 38 2.3. ... la integracio´n de ecuaciones estocasticas,

58 CAPITULO 3. ECUACIONES PARABOLICAS

para el nucleo de la ecuacion del calor, donde considerabamos que estabanfijos tanto el punto inicial x como el final y, lo que recuerda los calculos an-teriores ((3.5)).20 Veamos la relacion con la integral en el sentido de Wiener.

Consideremos la ecuacion en una dimension espacial

∂ρ(t, x)

∂t=

1

2

∂2ρ(t, x)

∂x2− V (x)ρ(t, x).

En el caso de V = 0 (el caso antes mencionado de la ecuacion del calor) setiene, si f es un valor inicial dado21

ρ(t+ s, x) =

W (0, x, t+ s, y)f(y)dy

=

∫ ∫

W (0, x, s, z)W (s, z, t + s, y)f(y)dzdy

=

W (0, x, s, z)ρ(s, z)dz.

Este calculo nos induce a iterar en el tiempo N veces, de manera que ti =ta + iε. Obtenemos la formula

ρ(tb, xb) = C(ε)

e(−1/2ε)PN

l=0(Xl+1−Xl)2ρ(ta, xa)

N∏

l=1

dxl.

Si comparamos ambas formulas esperamos que, al servir el calculo para todoN , se tenga en el lımite22 N → ∞

W (ta, xa, tb, xb) = N1

e−1/2R tbta

X′2(t)dtDX(t) (3.7)

donde N1 es un factor de normalizacion.Recordemos que lo habıamos escrito ya de forma parecida

W (ta, xa, tb, xb) =

Cxbxa ([ta,tb],R)

dWxbxa.

El caso de la partıcula libre de masa unidad es

K(ta, xa, tb, xb) = N2

ei/~R tb

ta1/2·X′2(t)dtDX(t). (3.8)

Observamos las similitudes aparentes entre ambos nucleos (3.7) y (3.8).Sin embargo hay diferencias fundamentales entre ambas integrales. La inte-gral en (3.7) es la de Wiener, que ya vimos que es completamente rigurosa.

20En este contexto se suele llamar ’propagator ’.21Hemos cambiado la notacion del nucleo para conservar la de Feynman.22Recordamos que todas las integrales de caminos las interpretaremos como procesos de

paso al lımite en N .

Page 59: Sobre algunas relaciones entre la probabilidad y las ... · 2.2. Reconocimiento de siluetas y la ecuacio´n de Poisson . . . . . 38 2.3. ... la integracio´n de ecuaciones estocasticas,

3.3. FEYNMAN Y LA MECANICA CUANTICA 59

Sin embargo la integral en (3.8) no es rigurosa. Uno de los problemas es lamedida subyacente, que es solo finitamente aditiva (la medida de Feynmano una medida de Wiener con difusion compleja son finitamente aditivas (ver[Kl] y las referencias en dicho artıculo), otro es que hablamos de X ′(t), perolos caminos que consideramos son los del espacio (1.16), que estan relacio-nados con el puente browniano, y por lo tanto no son derivables en casiningun punto. Sin embargo, como X son caminos brownianos, interpretare-mos (ver [E])

X ′(s)dt =∫

dW , es decir, que en realidad tenemos integralesestocasticas de Ito.

Si consideramos ahora un potencial no nulo la formula de Feynman-Kac(ver seccion 1 de este mismo capıtulo) nos da

W (ta, xa, tb, xb) = Exbxa

[eR tb

ta−V (X(t))dt] =

Cxbxa ([ta,tb],R

eR tb

ta−V (X(t))dtdWxb

xa

(3.9)y en la notacion de Feynman esto es (formalmente al menos)

W (ta, xa, tb, xb) = N3

eR tb

ta−1/2·X′2(t)−V (X(t))dtDX(t). (3.10)

De nuevo las similitudes son grandes, pero solo en el caso de Wiener lasintegrales son rigurosas.

Ası hemos visto que, al menos en este caso, la integral de caminos nosda un nucleo. En concreto, si

H = −1

2∆ + V (x)

entoncesW (ta, xa, tb, xb) = e−(tb−ta)H(xa, xb).

Veamos por que en el caso de Wiener funciona bien.Con el paso al lımite en N tenemos que la integral en el espacio de los

caminos (el lımite del producto de las medidas en el espacio) es infinito, enefecto

DX(t) = lımε→0

∫ N∏

i

dX(ti) = ∞.

Por lo tanto se ha de tener que la exponencial en (3.7) se anule paraaspirar a que la integral este bien definida. Eso ocurre si el camino queconsideramos no es derivable, como sucede con el puente browniano (o elmovimiento browniano), que es el proceso que nos induce la medida deWiener considerada (ver seccion 1 de este capıtulo).

Ha habido intentos de justificar estas integrales de Feynman. Por ejemploIto considero un termino de regularizacion y un paso al lımite para anularlo,en concreto escribio

lımν→∞

N (ν)

ei/~R tbta

[ 12mX′2(t)−V (X(t))]dte−

12ν

R tbta

[X′′2(t)+X′2(t)]dtDX(t).

Page 60: Sobre algunas relaciones entre la probabilidad y las ... · 2.2. Reconocimiento de siluetas y la ecuacio´n de Poisson . . . . . 38 2.3. ... la integracio´n de ecuaciones estocasticas,

60 CAPITULO 3. ECUACIONES PARABOLICAS

La idea es que ahora los caminos son mas suaves, siendo la segunda derivadala que es infinita. Para mas maneras de avanzar en la rigorizacion ver [Kl].

Una vez que Feynman escribio su tesis considerando caminos en el espacio-tiempo, era cuestion de tiempo que considerase caminos en el espacio defases. Para ello vamos a recordar la relacion entre el lagrangiano y el hamil-toniano:

L(X ′(t),X(t)) = p(t)q′(t) −H(p(t), q(t)).

Fijos ta y tb, consideremos los caminos q(t) en el espacio de fases que en di-chos tiempos estan en las posiciones fijas de antemano qa y qb. Consideremostambien los caminos p(t) con ta ≤ t ≤ tb pero donde no se fijan posiciones.p, q seran caminos brownianos. Entonces, siguiendo las ideas anteriores es-peramos23

K(ta, qa, tb, qb) = M∫

e(i/~)R tbta

p(s)q′(s)−H(p(s),q(s))dsDp(t)Dq(t). (3.11)

De nuevo veremos esta expresion como el lımite al considerar un numeroN de tiempos e integrar en dichas posiciones24. Observamos que al ser p, qtrayectorias brownianas, no tendran derivada. Sin embargo, como ya dijimosanteriormente, podemos interpretar los terminos

q′(s)dt como integralesestocasticas

dW .La gran ventaja de las integrales en el espacio de fases es que se permi-

ten aplicar estas tecnicas a partıculas relativistas, de manera que dan unamanera de construir los campos cuanticos.

Por ejemplo, si consideramos una partıcula relativista libre, con hamil-toniano expresado de manera que la velocidad de la luz sea unitaria

H(p(t), q(t)) =√

p2(t) +m2

se tiene que el nucleo viene dado por la integral

R(ta, qa, tb, qb) = M∫

e(i/~)R tbta

p(s)q′(s)−√

p2(s)+m2dtDpDq.

Comentario 16 Este es un operador no-local. Recordemos la expresion

px = −i~ ∂

∂x

de donde

p2x = −~

∂2

∂x2.

Antes de concluir con este capıtulo hay que hacer varios comentarios. An-tes hablamos de que podıamos entender ciertos terminos (

q′(s)dt) como

23Como anteriormente, estos manejos son solo formales.24Esto es equivalente a los cilindros del capıtulo 1.

Page 61: Sobre algunas relaciones entre la probabilidad y las ... · 2.2. Reconocimiento de siluetas y la ecuacio´n de Poisson . . . . . 38 2.3. ... la integracio´n de ecuaciones estocasticas,

3.3. FEYNMAN Y LA MECANICA CUANTICA 61

integrales estocasticas, sin embargo no mencionamos en que sentido, si Itoo Stratonovich. El sentido ahora es el de Stratonovich, pues al considerarrelatividad es necesario tratar con cambios de coordenadas. Por eso que laecuacion de Schrodinger no refleja efectos relativistas, porque no es inva-riante a ciertos cambios de coordenandas. Necesitaremos que la ecuaciontenga el mismo orden en todas las variables para que pueda reflejar efectosrelativistas. Poder aplicar la regla de la cadena usual es una gran ventaja.

Tambien hay que senalar que aunque la esencia de esta seccion eran loscalculos formales, estos se pueden justificar en el caso de las integrales en elespacio de fases. Para ello se ha de considerar la regularizacion (ver [Kl])

lımν→0

e(i/~)R tb

tap(s)q′(s)−

√p2(s)+m2dte−

12ν

R

p′2(s)+q′2(s)dtDpDq

Comentario 17 Si bien |ϕ(t, x)|2 es la probabilidad de encontrar lapartıcula en el punto x en el tiempo t, |ϕ(p, q)| es una probabilidad de estaren un cierto estado, por lo que no tiene una interpretacion tan sencilla eintuitiva.

Page 62: Sobre algunas relaciones entre la probabilidad y las ... · 2.2. Reconocimiento de siluetas y la ecuacio´n de Poisson . . . . . 38 2.3. ... la integracio´n de ecuaciones estocasticas,

Capıtulo 4

Formulas de representacion

en dinamica de fluidos

Consideraremos las ecuaciones de Navier-Stokes en el caso incompresible,homogeneo, isotermo e isotropo.

[NS]

∂~u∂t + (~u · ∇)~u+ ∇p− ν∆~u = 0∇ · ~u = 0

(4.1)

~u es la velocidad del fluido en cada punto y tiempo mientras que p es lapresion. Esta ecuacion no es mas que la segunda ley de Newton en el casode que las fuerzas sean el rozamiento viscoso (el termino de segundo orden)y la presion. Matematicamente la presion es un multiplicador de Lagrangeasociado a la condicion de divergencia nula.

El dominio espacial considerado sera Td (o mas generalmente permiti-

remos que la celda tenga longitud L), por lo que tendremos condiciones deborde periodicas. A esto hay que anadir un dato inicial ~f(x) ∈ Ck+1,α, conk ≥ 1.

En ausencia de viscosidad, es decir, si ν = 0 obtenemos las ecuacionesde Euler

[Euler]

∂~u∂t + (~u · ∇)~u+ ∇p = 0∇ · ~u = 0

(4.2)

Obtendremos la representacion probabilıstica para Navier-Stokes y unaprueba de existencia local de solucion clasica. Sin embargo, para presentarestas ideas en un contexto mas simple, antes veremos el caso de la ecuacionde Burgers viscosa.

62

Page 63: Sobre algunas relaciones entre la probabilidad y las ... · 2.2. Reconocimiento de siluetas y la ecuacio´n de Poisson . . . . . 38 2.3. ... la integracio´n de ecuaciones estocasticas,

4.1. LA ECUACION DE BURGERS 1-DIMENSIONAL 63

Figura 4.1: Solucion de Navier-Stokes en tiempo 10.

Figura 4.2: Solucion del problema de Stokes.

4.1. La ecuacion de Burgers 1-dimensional

Comenzaremos con el problema de Cauchy para la ecuacion de Burgersno viscosa, pero la representacion probabilista es para la viscosa.1 Ası, dadoun valor inicial f ∈ C2

b , consideraremos las ecuaciones

vt + vvx = 0 (4.3)

vt + vvx =ν

2vxx (4.4)

La idea es usar la transformacion de Hopf-Cole y la representacion de laecuacion del calor. Es bien sabido que el termino de segundo orden previenela formacion de singularidades, que sı estan presentes en la ecuacion no vis-cosa, por lo que no debemos preocuparnos de ello. De nuestra representacionse obtendra la regularidad.

Lema 4 (Hopf-Cole). Sea u(t, x) una solucion clasica de la ecuacion del

1Ya mencionamos anteriormente (ejemplo 1) que si no hay difusion la medida en lasfunciones continuas es singular en el sentido de que esta soportada en una unica funcion.

Page 64: Sobre algunas relaciones entre la probabilidad y las ... · 2.2. Reconocimiento de siluetas y la ecuacio´n de Poisson . . . . . 38 2.3. ... la integracio´n de ecuaciones estocasticas,

64 CAPITULO 4. DINAMICA DE FLUIDOS

calor con coeficiente de difusion ν/2, entonces

v = −ν(log u)x (4.5)

es una solucion de la ecuacion de Burgers viscosa (4.4).

Demostracion. Calculando las derivadas de (4.5) obtenemos

vt = −ν uxtu− utux

u2,

0 1 2 3 4 5 6 7−1.5

−1

−0.5

0

0.5

1

1.5

Figura 4.3: Evolucion de la solucion de la ecuacion (4.3).

vx = −ν uxxu− u2x

u2= −ν

(

uxx

u−

(

ux

u

)2)

= −ν uxx

u+v2

ν,

vxx = −2uxxxu− uxuxx

u2+

2vvx

ν,

y se tiene, ya que u(t, x) es solucion de la ecuacion del calor

ν

2vxx = −ν uxtu− uxut

u2+ vvx = vt + vvx,

de manera que v(t, x) resuelve la ecuacion de Burgers viscosa.

Proposicion 5. Sea v(t, x) una solucion de la ecuacion de Burgers viscosa(4.4) con dato inicial f ∈ C2

b . Entonces se tiene la siguiente formula derepresentacion

v(t, x) = −ν(

log

(

Ex

[

exp(−1

ν

√ν(W t

0(x))

−∞f(s)ds)

]))

x

. (4.6)

Page 65: Sobre algunas relaciones entre la probabilidad y las ... · 2.2. Reconocimiento de siluetas y la ecuacio´n de Poisson . . . . . 38 2.3. ... la integracio´n de ecuaciones estocasticas,

4.2. LA ECUACION DE BURGERS D−DIMENSIONAL 65

−4 −3 −2 −1 0 1 2 3 4−1

−0.8

−0.6

−0.4

−0.2

0

0.2

0.4

0.6

0.8

1

Figura 4.4: Soluciones de (4.4) para diferentes viscosidades.

Demostracion. Se tiene que

u(t, x) = exp(−1

ν

∫ x

−∞v(t, s)ds)

resuelve la ecuacion del calor

ut =ν

2uxx

con dato inicial

u0(x) = exp(−1

ν

∫ x

−∞f(s)ds).

Sabemos (ver el capıtulo 3) que u(t, x) tiene la representacion

u(t, x) = Ex[u0(√ν(W t

0(x)))] = Ex

[

exp(−1

ν

√ν(W t

0(x))

−∞f(s)ds)

]

. (4.7)

Utilizamos la formula (4.5) para concluir

v(t, x) = −ν(

log

(

Ex

[

exp(−1

ν

√ν(W t

0(x))

−∞f(s)ds)

]))

x

.

4.2. La ecuacion de Burgers d−dimensional

Consideremos ahora el caso de Burgers en varias dimensiones (ahora ~ves un vector)

Page 66: Sobre algunas relaciones entre la probabilidad y las ... · 2.2. Reconocimiento de siluetas y la ecuacio´n de Poisson . . . . . 38 2.3. ... la integracio´n de ecuaciones estocasticas,

66 CAPITULO 4. DINAMICA DE FLUIDOS

~vt + (~v · ∇)~v = 0 (4.8)

y su version viscosa

~vt + (~v · ∇)~v = ν∆~v. (4.9)

Con dato inicial ~f ∈ C2b .

Supongamos primero que tenemos una solucion que es el gradiente deun potencial, ~v(t, x) = ∇H(t, x). Esta hipotesis, que fısicamente implica unflujo irrotacional, nos permite utilizar la transformacion de Hopf-Cole.

Supondremos ademas que

~f(x) = ∇H(0, x).

La transformacion de Hopf-Cole es

∇H(t, x) = ~v(t, x) = −ν∇u(t, x)u(t, x)

= −ν∇ log(u(t, x)) (4.10)

Y se tiene que si u(t, x) es una solucion de

ut =ν

2∆u

con dato inicial

u0(x) = exp

(

H(0, x)

−ν

)

entonces ~v(t, x) es un solucion de

~vt =ν

2∆~v − (~v · ∇)~v =

ν

2∆~v − 1

2∇|~v|2

v(0, x) = f(x) = ∇H(0, x)

Comentario 18 La ultima igualdad muestra que las dos posibles gene-ralizaciones del termino inercial, (~v ·∇) y 1

2∇||~v||22, de la ecuacion de Burgersen una dimension espacial son iguales en el caso de las funciones gradientes.2

Ahora utilizamos la representacion para la ecuacion del calor (ver capıtu-lo 3)

u(t, x) = Ex

[

u0(√ν(W t

0(x)))]

]

= Ex

[

exp(−1

νH0(

√ν(W t

0(x))))]

]

.

Concluımos utilizando la formula (4.10)

~v(t, x) = −ν∇ log

(

E

[

exp(−1

νH0(

√ν(Bt + x)))]

])

. (4.11)

2En general no es cierto.

Page 67: Sobre algunas relaciones entre la probabilidad y las ... · 2.2. Reconocimiento de siluetas y la ecuacio´n de Poisson . . . . . 38 2.3. ... la integracio´n de ecuaciones estocasticas,

4.2. LA ECUACION DE BURGERS D−DIMENSIONAL 67

Abandonamos ahora la hipotesis de un flujo potencial. Por lo tanto elperfil inicial ya no es necesariamente un gradiente, ~f(x) 6= ∇H0(x), peroimpondremos una suavidad mayor. Consideraremos ahora los problemas enel dominio T

d, que es acotado y nos impone condiciones de borde periodicas,por lo que no necesitamos tiempos de parada.

La idea es comenzar con una ecuacion no viscosa y considerar particulasque sigan trayectorias con ruido blanco, concretamente consideraremos elruido √

2νd ~W.

Cuyo generador es

(√

2ν)2

2∆ = ν∆.

Entonces tomando esperanzas obtendremos nuestra solucion de la ecuacionviscosa.

Comentario 19 Podemos ası ver nuestras difusiones como ’curvas ca-racterısticas’ aleatorias.

Comenzamos con la ecuacion de Burgers no viscosa (4.8). La ausenciade terminos de presion y de terminos disipativos permite a la velocidad sertransportada con el flujo.

Entonces si ~X(t, a) es la aplicacion que nos da el flujo del fluido,3

Figura 4.5: Flujo.

3Si fijamos t = s el flujo ~X(t, a) es un homeomorfismo entre los volumenes ocupadosen tiempo 0 y s, y, si fijamos a, es la trayectoria de dicha partıcula (ver Figura 4.5).

Page 68: Sobre algunas relaciones entre la probabilidad y las ... · 2.2. Reconocimiento de siluetas y la ecuacio´n de Poisson . . . . . 38 2.3. ... la integracio´n de ecuaciones estocasticas,

68 CAPITULO 4. DINAMICA DE FLUIDOS

~v(t,X(t, a)) es constante en tiempo, y por lo tanto se tiene ~v(t,X(t, a)) =f(a). Es decir, ’retrocedemos por nuestro flujo y miramos la velocidad ini-cial’. No es mas que el metodo de las caracterısticas. Por lo tanto el sistema

~X ′(t, a) = ~v(t, ~X(t, a)), ~v(t,X(t, a)) = f(a)

con dato inicial ~X(0, a) = a es equivalente a la ecuacion de Burgers antesde la formacion de singularidades (t pequeno).

Teniendo en cuenta que las variables a son puntos del volumen inicialU0, mientras que las variables x son puntos del volumen imagen en tiempot que llamamos Ut, denotaremos

~A(t, x) = ~X(t, a)−1 = a, de modo que ~v(t, x) = f( ~A(t, x)).

Ambos volumenes U0 y Ut seran, en este caso, el toro Td, pero es necesario

hacer la distincion entre las variables. Las funciones que me llevan unas aotras son X(t, a) = x y A(t, x) = a.

Comentario 20 Notamos que ~X(t, a)−1 = ~A(t, x) = a indica la inversaespacial, que se puede hacer puesto que

∂t det∇ ~X = ∇ · ~v det∇ ~X ⇒ det∇ ~X = exp(

∫ t

0∇ · ~vds) > 0.

La idea ahora es perturbar la EDO

~X ′ = ~v

incorporando un ruido estocastico que nos lleva a la la SDE

d ~X = ~vdt+√

2νd ~W.

Sin perdida de generalidad consideraremos ν = 1/2. El teorema principal esahora

Teorema 24 (Ecuacion de Burgers). Sea ~f ∈ Ck+1,α, k ≥ 1, campo devectores con divergencia nula, y ~W t

0(0) un proceso de Wiener d-dimensional.Sea el par ~v(t, x), ~X(t, a) solucion del sistema estocastico

d ~X = ~vdt+ d ~W~A(t, x) = ( ~X(t, a))−1

~v = Ex[~f( ~A(t, x))]

(4.12)

con dato inicial ~X(0, a) = a y condiciones de borde periodicas para ~v(t, x) y~X(t, a) − I. Entonces ~v(t, x) satisface la ecuacion (4.9) (con ν = 1/2), con~f como dato inicial.

Page 69: Sobre algunas relaciones entre la probabilidad y las ... · 2.2. Reconocimiento de siluetas y la ecuacio´n de Poisson . . . . . 38 2.3. ... la integracio´n de ecuaciones estocasticas,

4.2. LA ECUACION DE BURGERS D−DIMENSIONAL 69

Demostracion. Definimos

~vω = ~v(t, x+ ~W t0(0))

y ~Y ω como la solucion de

(~Y ω)′(t, a) = ~vω(t, ~Y ω), ~Y ω(0, a) = a.

La notacion con ω es para senalar que hay un parametro aleatorio.Sea

~Bω(t, x)

su inversa espacial.Definimos

~w(t, x− ~W t0(0)) = ~f( ~Bω(t, x− ~W t

0(0))) = ~f( ~A(t, x)).

Donde la ultima igualdad es consecuencia de

~X(t, ~Bω(t, x− ~W t0(0))) = ~Y ω(t, ~Bω(t, x− ~W t

0(0))) + ~W t0(0) = x

y ası~A(t, x) = ~Bω(t, x− ~W t

0(0)).

Aplicamos la formula de Ito generalizada (teorema A.8) a

~wω(t, x− ~W t0(0)) = ~f( ~A(t, x))

obteniendo

~wω(t, x− ~W t0(0)) − ~f(x) =

∫ t

0~wω(ds, x− ~W s

0 (0))

−∫ t

0∇~wω(s, x− ~W s

0 (0))d ~W

+1

2

∫ t

0∆~wω(s, x− ~W s

0 (0))ds

+

⟨∫ t

0∂j ~w

ω(ds, x− ~W s0 (0)), xj − ~W t

0(0)j⟩

.

Tomando esperanzas en la ecuacion anterior el miembro de la izquierdaqueda

~v(t, x) − ~f(x).

El miembro de la derecha es

Ex

[∫ t

0~wω(ds, x− ~W s

0 (0))

]

+ Ex

[

1

2

∫ t

0∆~wω(s, x− ~W s

0 (0))ds

]

Page 70: Sobre algunas relaciones entre la probabilidad y las ... · 2.2. Reconocimiento de siluetas y la ecuacio´n de Poisson . . . . . 38 2.3. ... la integracio´n de ecuaciones estocasticas,

70 CAPITULO 4. DINAMICA DE FLUIDOS

ya que el termino de integracion estocastica se anula al tomar esperanzasy el termino de variacion cuadratica tambien es cero por tenerse ~w(t, x) ∈C1 en tiempo (la derivada viene dada por la ecuacion de transporte) y~w(t, x) ∈ Ck+1,α (tanto como ~f) en espacio, y por lo tanto tanto ella comosus derivadas hasta de orden k son de variacion acotada.

Se tiene que

Ex

[

1

2

∫ t

0∆~wω(s, x− ~W s

0 (0))ds

]

=1

2

∫ t

0∆~v(s, x)ds.

Falta el termino convectivo en la ecuacion. Observamos que

~wω(t, x) = f( ~Bω(t, x))

resuelve~wω

t (t, x) + (~vω(t, x) · ∇)~wω(t, x) = 0.

con el dato inicial ~f . El termino que queda es

Ex

[ ∫ t

0~wω(ds, x− ~W s

0 (0))

]

= Ex

[ ∫ t

0~wω

t (s, x− ~W s0 (0))

]

=

∫ t

0Ex[−(~vω(s, x− ~W t

0(0)) · ∇)

× ~wω(s, x− ~W t0(0))]

= −∫ t

0(~v(s, x) · ∇)~v(t, x)ds

Ahora basta poner todos los calculos anteriores juntos y derivar en tiempo.

Hay que remarcar que se supone la existencia de solucion del sistemaestocastico, y entonces se demuestra la formula de representacion. Recıpro-camente, si ~v(t, x) es una solucion de la ecuacion de Burgers viscosa (4.9)el sistema estocastico tiene solucion (consultar [CI],[Iy] y [Iy2]). La idea esque, si ~v es solucion clasica,

d ~X = ~vdt+ d ~W

tiene solucion, y por lo tanto existe ~A. Que ademas se tiene

~v(t, x) = Ex[~f( ~A(t, x))]

se desprende de un resultado (de ecuaciones estocasticas parciales) conteni-do en [CI] y de la unicidad de soluciones clasicas para la ecuacion de Burgersviscosa. Si demostrasemos la existencia de solucion para el sistema estocasti-co, tendrıamos una solucion local en el tiempo para la ecuacion (4.9). El quesea solo local viene impuesto por utilizar el metodo del punto fijo (ver [Iy]).

Page 71: Sobre algunas relaciones entre la probabilidad y las ... · 2.2. Reconocimiento de siluetas y la ecuacio´n de Poisson . . . . . 38 2.3. ... la integracio´n de ecuaciones estocasticas,

4.3. LAS ECUACIONES DE NAVIER-STOKES INCOMPRESIBLES 71

Comentario 21 Las condiciones de borde impuestas son las naturales,porque ~X(0, a + L~ej) = a+ L~ej = ~X(0, a) + L~ej . Y esta es la condicion de

periodicidad para ~X(t, a) − I.

Comentario 22 Se ha conservado la notacion de [CI] para hacer notarlas similitudes entre esta seccion y la siguiente.

4.3. Las ecuaciones de Navier-Stokes incompresi-

bles

En esta seccion encontraremos una representacion de la solucion clasicade Navier-Stokes (4.1) como un sistema estocastico y una integral en fun-ciones. Entonces, si tenemos una solucion clasica de (4.1) esta verifica laformula de representacion probabilıstica. Y recıprocamente, si tenemos unasolucion de nuestro sistema estocastico entonces dicha ~u(t, x) es solucionclasica de Navier-Stokes. En esto se basa la demostracion de la siguienteseccion.

Necesitaremos varios resultados previos.4

Todos los campos ~v ∈ (L2)d∩(C∞)d se descomponen de forma ortogonalcomo un campo con divergencia nula y un campo gradiente. Ası podemosdefinir el operador siguiente:

Definicion 8. Escribimos P para el proyector de Leray, i.e. el operador que,dado un campo, nos devuelve su parte de divergencia nula.

P : (L2)d ∩ (C∞)d 7→ S

donde S denota el subespacio de los campos con divergencia nula (se dicensolenoidales).

Proposicion 6 (Formulacion Euleriana-Lagrangiana). Sea k ≥ 0 y ~f(x) ∈Ck+1,α tal que ∇· ~f(x) = 0. Entonces ~u(t, x) satisface las ecuaciones de Eulerincompresibles (4.2) con dato inicial ~f(x) si y solo si el par de funciones~u(t, x), ~X(t, a) satisfacen el sistema estocastico

~X ′(t, a) = ~u(t, x) (4.13)

~A(t, x) = ~X−1(t, a) (4.14)

~u(t, x) = P[(∇ ~A)t(t, x)~f( ~A(t, x))] (4.15)

con dato inicial ~X(0, a) = a.

La demostracion de este resultado se puede consultar en [C].

4Escribiremos P para el proyector de Leray en los campos solenoidales. No hay queconfudirse con P , la probabilidad.

Page 72: Sobre algunas relaciones entre la probabilidad y las ... · 2.2. Reconocimiento de siluetas y la ecuacio´n de Poisson . . . . . 38 2.3. ... la integracio´n de ecuaciones estocasticas,

72 CAPITULO 4. DINAMICA DE FLUIDOS

Lema 5. Sea ~u(t, x) un campo de velocidades. El conmutador [∂t+(~u·∇),∇]es

[∂t + (~u · ∇),∇] = −(∇~u(t, x))t∇Demostracion.

[∂t + (~u · ∇),∇]~f(t, x) = (∂t + (~u · ∇))∇~f −∇(∂t + (~u · ∇))~f(t, x)

= (~u · ∇)∇~f(t, x) − (~u · ∇)∇~f(t, x) − (∇~u(t, x))t∇~f(t, x)

Lema 6. Dado un campo de velocidades solenoidal ~u(t, x) y Lipschitz, ydados ~X(t, a) y ~A(t, x) definidos por

~X ′(t, a) = ~u(t, x)

~A(t, x) = ~X−1(t, a)

~X(0, a) = a

Definimos ~v(t, x) como la solucion de la ecuacion de evolucion

(∂t + (~u · ∇))~v(t, x) = ~z(t, x)

para cierto campo ~z, y con dato inicial ~v0. Entonces si ~w(t, x) se define como

~w(t, x) = P[(∇ ~A)t(t, x)~v(t, x)]

se tiene que ~w(t, x) es la solucion de

(∂t + (~u(t, x) · ∇))~w(t, x) + (∇~u(t, x))t ~w(t, x) + ∇q(t, x) = ((∇ ~A)t)~z(t, x)

∇ · ~w(t, x) = 0

~w(0, x) = P~v0(x)

La prueba puede consultarse en [CI]. En la prueba de la formula derepresentacion utilizaremos el caso particular ~v(t, x) = ~f( ~A(t, x)) y ~z = 0.

Teorema 25 (Ecuaciones de Navier-Stokes). Sea ~f ∈ Ck+1,α,k ≥ 1, uncampo de divergencia nula, y ~W t

0(0) un proceso de Wiener d-dimensional.Sea el par ~u(t, x), ~X(t, a) solucion del sistema estocastico

d ~X = ~udt + d ~W (4.16)

~A = ~X−1 (4.17)

~u = Ex[P[(∇ ~A)t ~f( ~A)]] (4.18)

con dato inicial ~X(a, 0) = a y tal que ~u y ~X − I verifican condicionesde borde periodicas. Entonces ~u satisface las ecuaciones de Navier-Stokesincompresibles con ~f como dato inicial.

Page 73: Sobre algunas relaciones entre la probabilidad y las ... · 2.2. Reconocimiento de siluetas y la ecuacio´n de Poisson . . . . . 38 2.3. ... la integracio´n de ecuaciones estocasticas,

4.3. LAS ECUACIONES DE NAVIER-STOKES INCOMPRESIBLES 73

Demostracion. Sea uω definida como

~uω(t, x) = ~u(t, x+ ~W t0(0)).

Sea ~Y ω la solucion de

~Y ω′(t, a) = ~uω(t, ~Y ω(t, a)), ~Y ω(0, a) = a.

Sea ~Bω(t, x) la inversa espacial de ~Y ω. Observamos que

~X(t, ~Bω(t, x− ~W t0(0))) = ~Y ω(t, ~Bω(t, x− ~W t

0(0))) + ~W t0(0) = x

y ası se tiene que~A(t, x) = ~Bω(t, x− ~W t

0(0)).

Si escribimos θxh(y) = h(y − x) para las traslaciones entonces

A = θ ~W t0(0)B.

Definimos wω como

wω(t, x) = P[(∇ ~Bω)t(~f( ~Bω(t, x)))].

Aplicando el lema 6 en el caso particular ~z = 0 y ~v(0, x) = ~f( ~A(t, x)) setiene

(∂t + (~uω(t, x) · ∇))~wω(t, x) + (∇~uω(t, x))t ~wω(t, x) + ∇qω(t, x) = 0∇ · ~wω(t, x) = 0

~w(0, x) = P~f(x).(4.19)

De la definicion de u se tiene

~u = Ex[P[(∇ ~A)t ~f( ~A(t, x))]]

= Ex[P[(∇θW t0(0)

~B)t ~f(θW t0(0)

~B(t, x))]]

= Ex[P[θW t0(0)((∇ ~B)t ~f( ~B(t, x)))]]

= Ex[θW t0(0)(P[(∇ ~B)t ~f( ~B(t, x))])]

= Ex[θW t0(0)w

ω].

La hipotesis ~f ∈ Ck+1,α junto con el teorema de existencia de solucionespara el sistema estocastico (4.18) (que se demuestra en la seccion siguiente)nos garantizan suficiente regularidad como para poder aplicar la formulade Ito en su version generalizada (teorema A.8). Observese que ~wω hace elpapel de F en el teorema A.8. ~w ha de ser C2 en el espacio y C1 en tiempo.Por el lema 6 se tiene que es C1 en tiempo, y por el resultado de existencia yregularidad para el sistema estocastico (4.18) se tiene al menos esa suavidad

Page 74: Sobre algunas relaciones entre la probabilidad y las ... · 2.2. Reconocimiento de siluetas y la ecuacio´n de Poisson . . . . . 38 2.3. ... la integracio´n de ecuaciones estocasticas,

74 CAPITULO 4. DINAMICA DE FLUIDOS

en el espacio. Ademas, x − ~W t0(0) es martingala y hace el papel de g(t) en

el teorema.Aplicamos a ~wω(t, x − ~W t

0(0)) la formula de Ito generalizada (teoremaA.8),

~wω(t, x− ~W t0(0)) − ~f(x) =

∫ t

0~wω(ds, x− ~W s

0 (0))

−∫ t

0∇~wω(s, x− ~W s

0 (0))d ~W

+1

2

∫ t

0∆~wω(s, x− ~W s

0 (0))ds

+

⟨∫ t

0∂j ~w

ω(ds, x− ~W s0 (0)), xj − ~W t

0(0)j⟩

.

Por la suavidad de ~wω tenemos que el termino de variacion cuadratica con-junta se anulara. Ademas al tomar Ex el termino de integracion estocasticatambien desaparecera. Por esto nos queda

~u(t, x) − ~f(x) = Ex

[∫ t

0~wω(ds, x− ~W s

0 (0))

]

+1

2

∫ t

0∆~u(s, x)ds.

El termino que involucra ~wω es

Ex

[∫ t

0~wω(ds, x− ~W s

0 (0))

]

= Ex

[∫ t

0~wω

t (s, x−W s0 (0))ds

]

= −Ex

[ ∫ t

0(~u(s, x) · ∇)~wω(s, x− ~W s

0 (0))

+ (∇~u(s, x))t ~wω(s, x− ~W s0 (0))

+ ∇qω(s, x− ~W s0 (0))ds

]

= −∫ t

0[(u · ∇)u+ ∇pds]

donde

p =1

2|u|2 + Ex[θ ~W t

0(0)qω].

Finalmente, la condicion de incompresibilidad se deduce de la incompresibi-lidad de ~wω y de ~u = Exθ ~W t

0(0) ~wω.

Comentario 23 En la demostracion anterior se utiliza varias vecesel resultado de existencia y regularidad del sistema estocastico (4.18) (verteorema 26 en la seccion siguiente).

En [Iy] se puede ver el resultado para una sustancia transportada porun fluido. En concreto

Page 75: Sobre algunas relaciones entre la probabilidad y las ... · 2.2. Reconocimiento de siluetas y la ecuacio´n de Poisson . . . . . 38 2.3. ... la integracio´n de ecuaciones estocasticas,

4.4. EXISTENCIA LOCAL PARA NAVIER-STOKES 75

Proposicion 7. (Transporte) Sea ~u ∈ C1 un campo de velocidades de unfluido y sea Θ(t, x) solucion clasica de

Θt(t, x) + (~u(t, x) · ∇)Θ(t, x) − ν∆Θ(t, x) = 0, Θ(0, x) = f(x).

entonces se tieneΘ(t, x) = Ex[f( ~A(t, x))]

donde A es como en el teorema 25.

Tambien hay un resultado para la representacion de la vorticidad.

Proposicion 8 (Vorticidad). Sea ~V (t, x) la vorticidad de un fluido, entonces

~V (t, x) = Ex[(∇ ~X~V0)( ~A(t, x))].

Si d = 2, entonces~V (t, x) = Ex[~V0( ~A(t, x))].

Comentario 24 Estas formulas son el resultado de tomar la esperanzaen las formulas correspondientes en el caso de las ecuaciones de Euler (4.2).

Comentario 25 Podemos usar la proposicion 8 para obtener una se-gunda version del teorema 25 utilizando la ley de Biot-Savart.

Comentario 26 Podemos dar un resultado igual para un caso condifusion distinta en cada direccion, i.e. un operador mas general del tipo∑d

i,j=1 ai,j(x)∂2

∂xj∂xi.

4.4. Demostracion de la existencia local de solu-

ciones de Navier-Stokes

En esta seccion demostraremos un resultado de existencia y regularidadlocal en tiempo para el sistema estocastico, y por lo tanto, de existencialocal de solucion clasica para el sistema de Navier-Stokes (4.1).

Teorema 26 (Existencia del sistema estocastico). Sea ~f ∈ Ck+1,α, k ≥ 1,un campo de divergencia nula. Entonces existe un tiempo T = T (L, ||~f ||Ck+1,α , k, α)pero independiente de la viscosidad ν, y un par de funciones ~u, λ ∈ C([0, T ], Ck+1,α)tales que ~u, ~X = I+λ satisfacen el sistema (4.18). Ademas, existe Λ tal que||~u(t)||Ck+1,α ≤ Λ.

Comentario 27 La norma en Ck,α se define como

||~u||k,α =∑

|m|≤k

L|m| supx∈Ω

|Dm~u| +∑

|m|=k

Lk supx,y∈Ω

Lα|Dm~u(x, t) −Dm~u(y, t)||x− y|α .

Page 76: Sobre algunas relaciones entre la probabilidad y las ... · 2.2. Reconocimiento de siluetas y la ecuacio´n de Poisson . . . . . 38 2.3. ... la integracio´n de ecuaciones estocasticas,

76 CAPITULO 4. DINAMICA DE FLUIDOS

Y para la norma en C([0, T ], Ck,α) tomamos el supremo

||~u||C([0,T ],Ck,α) = sup0≤t≤T

||~u||k,α.

Antes de pasar a la prueba necesitamos algunas definiciones y obteneralgunas cotas. Para las demostraciones de estos resultados se puede consultar[Iy].

Definicion 9. Definimos el operador de Weber ~W : Ck,α × Ck+1,α 7→ Ck,α

como~W (~v,~l) = P[(I + (∇~l)t)~v].

Proposicion 9. Si k ≥ 1, ~l1,~l2, ~v1, ~v2 ∈ Ck,α son tales que

||∇~li||k−1,α ≤ C

entonces

|| ~W (~v1,~l1) − ~W (~v2,~l2)||k,α ≤ c(||~v2||k,α||∇~l1 −∇~l2||k−1,α + ||~v1 − ~v2||k,α).

Lema 7. Sea k ≥ 1 y ~v,~l ∈ Ck,α. Entonces ~W (v, l) ∈ Ck,α y se tiene

|| ~W (v, l||k,α ≤ c(1 + ||∇l||k−1,α)||v||k,α.

Lema 8. Sean ~u ∈ (C[0, T ], Ck+1,α) y ~X(t, a) solucion del sistema (4.18).Sean λ = ~X − I, l = ~A − I y Λ = supt(||~u||k+1,α). Entonces existe c =c(k, α,Λ) tal que se tienen las siguientes cotas

||∇λ||k,α ≤ cΛt

Lexp(cΛt/L), ||∇~l||k,α ≤ cΛt

Lexp(cΛt/L)

Lema 9. Sean ~u1, ~u2 ∈ C([0, T ], Ck+1,α) tales que supt ||~ui||k+1,α ≤ Λ y

sean ~X1, ~X2, ~A1 y ~A2 definidas como en (4.18). Entonces existe un tiempoT = T (k, α,Λ) y una constante c = c(k, α,Λ) tal que se tienen las siguientecotas

|| ~X1 − ~X2||k,α ≤ c exp(cΛt/L)

∫ t

0||~u1 − ~u2||k,α

|| ~A1 − ~A2||k,α ≤ c exp(cΛt/L)

∫ t

0||~u1 − ~u2||k,α

para todo t ∈ [0, T ]

Demostracion (del teorema). Sea T un tiempo fijo, que mas adelante elegi-remos convenientemente pequeno y un numero Λ grande. Consideramos losespacios

U =

~u ∈ C([0, T ], Ck+1,α),∇ · ~u = 0, ~u(0, x) = ~f(x), ||~u||k+1,α ≤ Λ

Page 77: Sobre algunas relaciones entre la probabilidad y las ... · 2.2. Reconocimiento de siluetas y la ecuacio´n de Poisson . . . . . 38 2.3. ... la integracio´n de ecuaciones estocasticas,

4.4. EXISTENCIA LOCAL PARA NAVIER-STOKES 77

y

L =

~l ∈ C([0, T ], Ck+1,α), ||∇l||k,α ≤ 1

2∀t ∈ [0, T ]~l(0, x) = 0

.

Para ~u en U el sistema (4.18) tiene solucion. Definimos ası ~Xu, λu = ~Xu − Iy ~lu = ~Au − I.

Consideramos el operador W : U 7→ U

W (~u) = Ex~W (~f( ~Au),~lu).

Ahora hay que ver que W es Lipschitz en la norma

||~u||U = supt

||~u||k,α

y si elegimos T bastante pequeno W sera una contraccion y por lo tantotendra un punto fijo.

Los resultados anteriores permiten concluir, si se elige Λ proporcional a

||~f ||k+1,α

(

3

2

)k+2

,

||W (~u1) −W (~u2)||k,α ≤ cΛ

Lexp(cΛt/L)

∫ t

0||~u1 − ~u2||k,α

y por lo tanto si T = T (k, α, L,Λ) es elegido bastante pequeno nuestrooperador W sera una contraccion. Aplicando el teorema del punto fijo deBanach concluımos que la sucesion definida como ~un+1 = W (~un) converge enla norma Ck,α a una funcion ~u que es punto fijo de nuestro operador y por lotanto solucion de (4.18). Como la sucesion ~un esta acotada en la norma k+1tiene una subsucesion debilmente convergente en dicha norma a una funcion~v ∈ U y como es convergente fuertemente (en particular lo es debilmente) enla norma k a ~u ambos lımites coinciden. La cota ||~u(t)||k+1,α ≤ Λ es porque~u ∈ U .

Por lo tanto como tenemos una solucion de (4.18) aplicando el teorema25 tenemos una solucion clasica local en tiempo de las ecuaciones (4.1).

Page 78: Sobre algunas relaciones entre la probabilidad y las ... · 2.2. Reconocimiento de siluetas y la ecuacio´n de Poisson . . . . . 38 2.3. ... la integracio´n de ecuaciones estocasticas,

Capıtulo 5

Juegos diferenciales y

ecuaciones

Hemos visto en los capıtulos anteriores como las trayectorias de cier-tos procesos de Markov estaban relacionadas (eran curvas caracterısticas)con ecuaciones elıpticas y parabolicas. Vimos tambien (capıtulo 3) que paraalgunas ecuaciones semilineales podıamos encontrar una representacion siconsiderabamos procesos de Markov mas complicados. En este capıtulo ve-remos la relacion entre un tipo de juegos diferenciales (que llamaremos tug ofwar y seran en general procesos de Markov) y ciertas ecuaciones, en concretoel 1-laplaciano, el p−laplaciano y el ∞−laplaciano. Veremos que las diversasposiciones del juego son las curvas caracterısticas de estos operadores.

En este capıtulo seguiremos los artıculos [PSSW],[Ob],[Ev3],[BEJ], [ACJ],[KS1] y [KS2]

5.1. Los operadores

Definicion 10. El operador ∞-laplaciano es

∆∞u =

d∑

i,j=1

uxiuxj

|∇u|2 uxi,xj.

El operador p-laplaciano es

∆pu = ∇ · (∇u|∇u|p−2).

El operador 1-laplaciano es

∆1u = ∇ ·( ∇u|∇u|

)

.

78

Page 79: Sobre algunas relaciones entre la probabilidad y las ... · 2.2. Reconocimiento de siluetas y la ecuacio´n de Poisson . . . . . 38 2.3. ... la integracio´n de ecuaciones estocasticas,

5.1. LOS OPERADORES 79

Observamos que ∆1 es una difusion ortogonal al gradiente. En efecto,considerando el caso d = 2 se tiene que la forma de no-divergencia de esteoperador viene dada por la matriz

A =1

|∇u|

1 − u2x1

|∇u|2ux1ux2|∇u|2

ux1ux2|∇u|2 1 − u2

x2|∇u|2

.

Entonces en cada punto x consideramos la base formada por ∇u y ∇u⊥. Sihacemos A∇u comprobamos que es 0, y por lo tanto no hay difusion en esadireccion.

A su vez el ∞−laplaciano solo difunde en la direccion del gradiente. Lamatriz ahora es

A =

u2x1

|∇u|2ux1ux2

|∇u|2ux1ux2|∇u|2

u2x2

|∇u|2

.

Considerando la misma base anterior se tiene que A∇u⊥ = 0, y por lo tantosolo hay difusion en la direccion del gradiente.

Los calculos anteriores son solo formales, pues si ∇u = 0 no tienensentido (ni siquiera el operador esta bien definido). Sin embargo son utilesporque nos dan una intuicion.

Comentario 28 Ambos operadores son utilizados en el tratamiento deimagenes, para conservar contornos (∆1) o para difuminarlos (∆∞).

La interpretacion geometrica de u satisfaciendo ∆1u = 0 es que las curvasde nivel de u tienen curvatura media 0. La interpretacion variacional es queu es el mınimo de

J(u) =

U|∇u|

con unos datos de borde adecuados.Para el p−laplaciano la interpretacion variacional es que u es el mınimo

de

J(u) =

U|∇u|p

con unos datos de borde dados.La interpretacion variacional de ∆∞u = 0 en U con unos datos de

borde Lipschitz es que u cumple que

LipV (u) = Lip∂V (u) ∀V ⊂ U

donde U, V son dominios y LipV (u) indica la constante de Lipschitz en eldominio V de la funcion u. A estas funciones se les llama extension Lipschitzabsolutamente minimizante

Durante todo este capıtulo consideraremos U un dominio acotado, unafuncion continua g definida en ∂U y trataremos las ecuaciones

Lu = 0 en U, u = g en ∂U

donde L es uno de los operadores diferenciales anteriores.

Page 80: Sobre algunas relaciones entre la probabilidad y las ... · 2.2. Reconocimiento de siluetas y la ecuacio´n de Poisson . . . . . 38 2.3. ... la integracio´n de ecuaciones estocasticas,

80 CAPITULO 5. JUEGOS DIFERENCIALES Y ECUACIONES

−0.5

0

0.5

−0.5

0

0.50.5

0.55

0.6

0.65

0.7

0.75

Figura 5.1: Funcion ∞−armonica.

5.2. Los juegos

Todos los juegos que aparecen aquı son para dos jugadores y son de sumacero, por lo que un jugador paga al otro. Para fijar ideas asumiremos siempreque es el jugador 2 el que paga al jugador 1 la cantidad correspondiente (encaso de ser negativa en realidad la cobra). En todos los juegos los jugadoresiran moviendo por el dominio una ficha, y al llegar a la frontera el juegoacaba y se procede al pago. Cada juego estara determinado por una seriede posiciones xk, las posiciones de la ficha en cada turno. Ambos jugadorestendran estrategias, sin embargo parece razonable pensar que las estrategias’buenas’ seran markovianas. Los juegos que involucran al p-laplaciano y al1−laplaciano los veremos brevemente y sin demostraciones para centrarnosen el resultado para el ∞−laplaciano. Asumiremos toda la regularidad quesea necesaria en el dominio U para los pasos al lımite.

5.2.1. ’Tug of war’

Como este es el juego que mas nos interesa veremos su descripcion conmayor detalle. Sean como antes U ⊂ R

d, x0 ∈ U y g una funcion definida enla frontera y que es Lipschitz. Cada jugador elige un vector ~ai

k ∈ B0(ε) (don-de k es el turno e i es el jugador). Entonces se lanza una moneda de maneraque decide que jugador tiene el turno. En el caso de que el lanzamiento lo

Page 81: Sobre algunas relaciones entre la probabilidad y las ... · 2.2. Reconocimiento de siluetas y la ecuacio´n de Poisson . . . . . 38 2.3. ... la integracio´n de ecuaciones estocasticas,

5.2. LOS JUEGOS 81

gane el jugador 1 la nueva posicion sera xk+1 = xk +~a1k. Se define la historia

hk = (x0,~a0, x1,~a1...,~ak) donde ~ak es el vector elegido por el jugador queganase el turno k. Sea Hk el espacio con todas las historias posibles hastaturno k y sea H∞ el espacio de todas las posibles historias. Observamos queel espacio Hk es un espacio producto. Ası podemos ver la funcion pago comouna funcion

g : H∞ 7→ R.

Normalmente la eleccion del vector ~aik depende solo de la posicion xk, es

decir, sera un proceso markoviano, sin embargo permitiremos que dependade toda la historia anterior. Ademas habra ocasiones donde no sera marko-viano. Por ejemplo consideremos una bola como nuestro dominio. En ella de-finimos nuestro pago intermedio f de la siguiente manera: de forma simetricaconsideramos dos bolas contenidas en el dominio, en una de ellas f = 1 y enla otra f = −1. Fuera de ellas f = 0. Ademas no hay pago final. Entoncesnuestra difusion dirigida dependera del numero de veces que hemos pasadopor cada bola, pues ambos jugadores intentaran pasar el mayor numero deveces por la que les favorece. Por lo que nuestra difusion depende de ca-da posicion anterior. Con este ejemplo surge el problema de los juegos queno acaban casi seguramente. En dichos juegos el jugador 1 es penalizadofuertemente.

f=−1 f=1

Figura 5.2: Juego con trayectorias no markovianas.

Se define una estrategia Sik (segun corresponda al jugador i = 1, 2) como

una funcion Sik : Hk 7→ B0(ε). Dicha funcion indica el proximo movimiento

del jugador i. Definimos Si = Sikk. Entonces el punto inicial x0 y las

Page 82: Sobre algunas relaciones entre la probabilidad y las ... · 2.2. Reconocimiento de siluetas y la ecuacio´n de Poisson . . . . . 38 2.3. ... la integracio´n de ecuaciones estocasticas,

82 CAPITULO 5. JUEGOS DIFERENCIALES Y ECUACIONES

estrategias de ambos jugadores definen una probabilidad en el espacio dehistorias H∞.

Ası, si denotamos por xτ el punto de la frontera en el que el juego acaba ydadas las estrategias S1, S2 definimos las recompensas esperadas para ambosjugadores como

Vx0,i(S1, S2) = ES1,S2x0

[g(xτ )]

si el juego termina casi seguramente. En otro caso se tiene Vx0,1(S1, S2) =−∞ y Vx0,i(S1, S2) = ∞.1

Definimos el valor del juego (discreto) para el jugador 1 como

uε1 = sup

S1

ınfS2

Vx0,1(S1, S2).

El significado ’intuitivo’ es que ınfS2 Vx0,1(S1, S2) es lo mınimo que el jugador1 ganara asumiendo que el jugador 2 juega de forma optima. De manera queel supremo indica que maximiza lo que gana seguro.

Para el jugador 2 la definicion es

uε2 = ınf

S2

supS1

Vx0,2(S1, S2).

El significado ahora es que supS1Vx0,2(S1, S2) es lo que mas le puede obligar

el jugador 1 al jugador 2 a pagar. Y el ınfimo es que el jugador 2 minimiza loque ha de pagar en el caso de que el jugador 1 juegue de forma perfecta. Esdecir, el jugador 1 maximiza su peor caso mientras que el jugador 2 minimizasu peor caso.

Siempre se tiene que uε1(x) ≤ uε

2. Si ambas coinciden decimos que eljuego (discreto) tiene un valor y lo denotamos por uε. Ahora esperamos queal tomar el lımite ε → 0 nuestro valor para el juego converga, en un ciertosentido, a u solucion de

∆∞u = 0, u|∂U = g. (5.1)

El juego tiene un principio de programacion dinamica muy util para elcalculo numerico (ver apendice C o [Ob]). Este resultado es una especie depropiedad del valor medio para las funciones infinito armonicas.

Lema 10. Sea el juego tug of war sin pago intermedio (f = 0). Entoncesla funcion u(x) = uε

1(x) satisface

u(x) =1

2( supy∈Bx(ε)

u(y) + ınfy∈Bx(ε)

u(y)) (5.2)

para todo x ∈ U . En el caso de no acabar el juego se tiene u(x) = −∞. Lomismo es cierto para v(x) = uε

2(x), con la salvedad de que en el caso de noacabar nunca el juego se tiene v(x) = ∞.

1De manera parecida a la que vimos en el capıtulo 2 τ es el tiempo de salida deldominio.

Page 83: Sobre algunas relaciones entre la probabilidad y las ... · 2.2. Reconocimiento de siluetas y la ecuacio´n de Poisson . . . . . 38 2.3. ... la integracio´n de ecuaciones estocasticas,

5.2. LOS JUEGOS 83

Demostracion. Basta considerar los posibles resultados de la moneda y usarla probabilidad condicionada.

Comentario 29 Notamos las similitudes con el capıtulo 2. Sin em-bargo los casos tratados allı eran difusiones puras, sin posibilidad de tenerestrategias. Y las integrales eran en funciones, ahora es en historias.

Comentario 30 Aunque pensamos que las estrategias buenas seranmarkovianas no nos restringiremos a ellas, sino que permitiremos estrategiasmas generales.

5.2.2. Aproximaciones por SDE al ∆∞

En [BEJ] podemos ver que la ecuacion estocastica

d ~X = ~η(t)dt+ ~ζ(t)d ~W,X0 = x0

tambien esta relacionada con el ∆∞. Sean como anteriormente U ⊂ Rd,

ε > 0 y x0 ∈ U . El jugador 1 controla el valor de ~η, mientras que el jugador2 controla el valor de ~ζ. La funcion que nos da la recompensa es

g(Xτx

0 (x)) −∫ τx

0~η(s) · ~ζ(s) +

ε2

4|~η(s)|2ds

donde τx es el tiempo de parada asociado a salir del dominio.Este juego estocastico tiene un valor discreto que converge a u solucion

del problema (5.1).En [PSSW] podemos ver otra SDE que lleva al infinito laplaciano. Sea

u ∈ C2 una funcion infinito armonica. Definimos las funciones

~r(~Y t0 (x)) = |∇u(~Y t

0 (x))|−1∇u(~Y t0 (x))

y~s(~Y t

0 (x)) = |∇u(~Y t0 (x))|−2D2u(~Y t

0 (x))∇u(~Y t0 (x)) − P

donde P es su proyeccion en ∇u(~Y t0 (x)) (por lo que es ortogonal al gradien-

te).Ahora definimos la SDE

d ~Xt0(x) = ~r( ~Xt

0(x))dW + ~s( ~X0(x))dt, X0 = x.

Si ahora aplicamos la formula de Ito a la funcion u( ~Xt0(x)) obtenemos

u( ~Xt0(x)) − u(x) =

∫ t

0

1

2∆∞u( ~X

s0(x))ds +

∫ t

0∇ut · ~r( ~Xs

0(x))dW.

Tomamos esperanzas y concluımos

Ex[u( ~Xt0(x))] = u(x).

Page 84: Sobre algunas relaciones entre la probabilidad y las ... · 2.2. Reconocimiento de siluetas y la ecuacio´n de Poisson . . . . . 38 2.3. ... la integracio´n de ecuaciones estocasticas,

84 CAPITULO 5. JUEGOS DIFERENCIALES Y ECUACIONES

5.2.3. Existencia del valor para el juego

En esta seccion demostraremos la existencia de un valor para el juegotug of war discreto sin pagos intermedios.

Teorema 27. Sea U ⊂ Rd un dominio y 1 >> ε > 0 un numero fijo.

Consideramos el juego tug of war con f = 0 y g acotada inferiormente (osuperiormente) en ∂U una funcion Lipschitz. Entonces uε

1 = uε2 y por lo

tanto el juego tiene un valor.

Demostracion. Si g esta acotada por arriba y no por abajo hemos de consi-derar −g e intercambiar los papeles del juego entre ambos jugadores. Ası po-demos restringirnos al caso g acotada inferiormente.

Tenemos que ver que uε2 ≤ uε

1. Ademas el jugador 1 puede hacer que eljuego termine casi seguramente, pues siempre podemos extraer cadenas decaras (o cruces) de longitud arbitraria de lanzamientos al azar. Por lo tantouε

1 ≥ ınfx∈∂U g(x).Sean x0, x1, ... las posiciones del juego en los distintos turnos y escribamos

uε = uε1. Consideramos ahora la oscilacion

δ(x) = supy∈Bx(ε)

|uε(y) − uε(x)|.

Definimos el conjunto

X0 = x ∈ U : δ(x) ≥ δ(x0) ∪ ∂U

y el ındice jn = maxj≤n xj ∈ X0 que nos da el ultimo turno en el conjuntoX0. Sea vn = xjn la ultima posicion en X0. X0 es el conjunto de los puntosdonde la funcion oscila mas que en el punto inicial.

Del principio de programacion dinamica se tiene que

2uε(xn) = supy∈Bxn (ε)

uε(y)+ ınfy∈Bxn (ε)

uε(y) ⇔ ınfy∈Bxn (ε)

|uε(xn)−uε(y)| = δ(xn),

y por lo tanto si los jugadores optan por las estrategias de maximizar (ju-gador 1) o minimizar (jugador 2) siempre la funcion uε la funcion δ nosera decreciente porque tiene asegurada, al menos, la misma oscilacion quela posicion previa. Entonces con las estrategias anteriores siempre jugaremosen X0.

Consideremos ahora la siguiente estrategia para el jugador 2: si vn 6= xn,i.e. no estamos en X0, entonces el jugador 2 se movera al punto y queminimice la distancia entre xn y X0. Cuando xn = vn el jugador 2 elegira lanueva posicion de manera que minimice uε. Para el jugador 1 consideramoscualquier estrategia y veamos como evoluciona el juego. Hemos de decir queel jugador 2 no juega de forma muy inteligente, pues en X0 esta la frontera,que es donde el juego acaba y el debe pagar. Al jugador 2 le es mucho mas

Page 85: Sobre algunas relaciones entre la probabilidad y las ... · 2.2. Reconocimiento de siluetas y la ecuacio´n de Poisson . . . . . 38 2.3. ... la integracio´n de ecuaciones estocasticas,

5.2. LOS JUEGOS 85

favorable que el juego no acabe nunca, pues en ese caso su recompensa esuε

2 = ∞. Tambien hay que senalar que esta estrategia es markoviana.Sea d la distancia medida en pasos de longitud ε, entonces definimos

dn = d(xn, vn)

considerando que debe pasar por todas las posiciones anteriores del juego y

mn = uε(vn) + δ(x0)dn.

Entonces

uε(xn) = uε(vn) + (uε(xjn+1) − uε(vn)) + (uε(xjn+2) − uε(xjn+1)...

+ ...(uε(xn) − uε(xn−1)

≤ uε(vn) +n

k=jn+1

δ(xk)

≤ mn (porque no estan en X0.) (5.3)

mn es una supermartingala. En efecto, supongamos que xn ∈ X0 y queel jugador 1 ha ganado el turno. Entonces hay dos posibilidades, que xn+1

este o que no este en X0.Si xn+1 ∈ X0 entonces

mn+1 = uε(vn+1) − uε(xn) + uε(xn) ≤ uε(xn) + δ(xn) = mn + δ(xn).

Si xn+1 /∈ X0 entonces

mn+1 = uε(vn+1) + δ(x0)dn+1

≤ uε(xn) + δ(xn)

≤ mn + δ(xn).

Supongamos ahora xn ∈ X0 y que el jugador 2 ha ganado el turno. Eneste caso

uε(xn+1) = uε(xn) − δ(xn) = uε(vn) − δ(xn)

y en el caso de que xn+1 ∈ X0 la igualdad anterior es

mn+1 = mn − δ(xn) ≤ mn − δ(x0).

Si xn+1 /∈ X0 entonces se llega a una contradiccion, pues

δ(xn) ≥ δ(x0) > δ(xn+1)

y esto no puede darse por el principio de programacion dinamica, que ase-gura que la oscilacion en xn+1 (si elegimos el nuevo punto minimizando omaximizando uε) es no decreciente.

Page 86: Sobre algunas relaciones entre la probabilidad y las ... · 2.2. Reconocimiento de siluetas y la ecuacio´n de Poisson . . . . . 38 2.3. ... la integracio´n de ecuaciones estocasticas,

86 CAPITULO 5. JUEGOS DIFERENCIALES Y ECUACIONES

Supongamos ahora que xn /∈ X0 y que juega el jugador 2. Por la estra-tegia que hemos definido se tiene, si vn+1 6= xn+1, la desigualdad siguiente

mn+1 = uε(vn+1) + δ(x0)dn+1

≤ uε(vn+1) + δ(x0)d(vn+1, xn) − δ(x0)d(xn+1, xn)

≤ mn − δ(x0)

Si vn+1 = xn+1 entonces

mn+1 = uε(xn+1)±uε(xn) ≤ uε(xn)+δ(xn) ≤ mn+δ(x0) (por (5.3) y definicion de X0).

Consideremos el ultimo caso: xn /∈ X0 y juega el jugador 1.Supongamos que el jugador 1 entra en X0. Entonces

mn+1 = uε(un+1)±uε(xn) ≤ uε(xn)+δ(xn) ≤ mn+δ(x0) (por (5.3) y definicion de X0).

Supongamos ahora que el jugador 1 no entra en X0. Entonces

mn+1 = uε(vn+1) + δ(x0)d(vn+1, xn+1)

≤ uε(vn) + δ(x0)d(vn, xn) + δ(x0)d(xn, xn+1)

≤ mn + δ(x0).

Por todo lo anterior tenemos que si juega el jugador 2 se tiene

mn+1 ≤ mn − δ(x0)

y si juega el jugador 1mn+1 ≤ mn + δ(x0).

Entonces

E[mn+1|m0,m1...mn] ≤ mn +1

2(δ(x0) − δ(x0)) = mn. (5.4)

Entonces el teorema de convergencia de martingalas tenemos que, si τx0

es el tiempo que tarda el juego en acabar si empieza en x0, existe el lımitelımn→∞mmın(n,τx0 ). De la existencia de este lımite y de que mn+1 ≤ mn −δ(x0) se concluye que el juego debe acabar casi seguramente.

Entonces el pago esperado con esta estrategia para el jugador 2 es

Ex0 [uε(xτx0

)] = Ex0[ lımn→∞

uε(xmın(τx0 ,n))]

≤ Ex0[mmın(τx0 ,n))] (por (5.3) y el lema de Fatou)

≤ m0 = uε(x0) por ser supermartingala

Al ser una estrategia particular es mejor que uε2 y por lo tanto se concluye

queuε

2 ≤ uε1.

Page 87: Sobre algunas relaciones entre la probabilidad y las ... · 2.2. Reconocimiento de siluetas y la ecuacio´n de Poisson . . . . . 38 2.3. ... la integracio´n de ecuaciones estocasticas,

5.2. LOS JUEGOS 87

La oscilacion podrıa ser cero, y nosotros siempre la tratamos como sifuese positiva. En este caso la estrategia del jugador 2 es avanzar en direcciona la frontera hasta llegar a algun punto, x′0, con oscilacion no nula (pero talque uε(x0) = uε(x′0), momento en el que empieza a jugar segun la estrategiadefinida mas arriba.

Necesitamos ahora un teorema de convergencia al valor del juego conti-nuo.

Teorema 28. Consideremos un dominio acotado U y sea g (pago en lafrontera) acotada inferiormente, y f = 0 (pago intermedio) o se satisfacenlas tres condiciones siguientes:

ınf |f | > 0

f es uniformemente continua.

Entonces el valor del juego continuo, u, existe y se cumple que

||u− uε||∞ → 0

cuando ε→ 0. Ademas u es continua.

Y este valor del juego continuo es solucion del problema (5.1).

Teorema 29. Sea U ⊂ Rd un abierto acotado. Sea g definida en la frontera

una funcion Lipschitz y acotada inferiormente. Entonces u, el valor del juegocontinuo (con f = 0), es una extension Lipschitz absolutamente minimizantede g. Si g es ademas acotada entonces u es la unica solucion de (5.1).

5.2.4. ’Tug of war con ruido’

Definamos ahora el juego ’Tug of war con ruido’. En este caso el operadores el p-laplaciano. Sean U ⊂ R

d,x0 ∈ U y g como antes (f ahora es 0).Sea tambien la medida de probabilidad, µ, uniforme en la esfera de radior =

(d− 1)q/p (donde p−1 + q−1 = 1) en el hiperplano ortogonal a ~e1.Consideraremos µ~v(S) = µ(Ψ−1(S)) donde Ψ(~v) = ~e1.

2 En cada turno k selanza una moneda equilibrada que indica que jugador mueve ese turno. Eljugador que tenga el turno elige ~vk, de longitud menor o igual que ε. Ası elnuevo punto es xk = xk−1 + ~vk + ~zk, donde ~zk es un vector aleatorio conrespecto a µ~vk

. En el caso de estar a distancia de la frontera menor o iguala (1+ r)ε el jugador que tenga el turno tiene la obligacion de moverse hastaun punto de la frontera xk cumpliendo |xk − xk−1| ≤ (1 + r)ε, concluyendoası el juego.

Ası tenemos una ’difusion dirigida’ y un ruido en el hiperplano ortogonal.

2Consultar [PS] para la demostracion de que nuestra probabilidad no depende de laeleccion de Ψ.

Page 88: Sobre algunas relaciones entre la probabilidad y las ... · 2.2. Reconocimiento de siluetas y la ecuacio´n de Poisson . . . . . 38 2.3. ... la integracio´n de ecuaciones estocasticas,

88 CAPITULO 5. JUEGOS DIFERENCIALES Y ECUACIONES

Definimos uε1(x) y uε

2(x) como los resultados mınimos que los jugadoresesperan recibir si el juego comienza en x0 = x. Cuando ambas coincidendecimos que el juego tiene un valor.

Supongamos que el juego (discreto) tiene un valor, entonces el lımitepuntual u(x) = lımε→0 u

ε1(x) es la funcion que indica el resultado mınimo

que cada jugador espera si el juego (continuo) comienza en x0 = x.

La funcion u(x) verifica

∆pu = 0, u|∂U = g (5.5)

Figura 5.3: Esquema del juego ’Tug of war’ con ruido.

Comentario 31 Demostrar que el juego (discreto) tiene un valor, pasaral lımite y ver que efectivamente son esos los operadores son resultadoscontenidos en diversos artıculos de investigacion. Para la demostracion dedichos teoremas se puede consultar [KS1], [KS2] y [PS].

5.2.5. Juego de Spencer

Comenzaremos con el llamado ’juego de Spencer’ (ver [KS1] y [KS2])asociado con el operador 1-laplaciano. Dado un dominio U , x0 ∈ U el puntodesde el que comenzara nuestro juego, g una funcion continua definida en la

Page 89: Sobre algunas relaciones entre la probabilidad y las ... · 2.2. Reconocimiento de siluetas y la ecuacio´n de Poisson . . . . . 38 2.3. ... la integracio´n de ecuaciones estocasticas,

5.2. LOS JUEGOS 89

frontera de U , que sera nuestro pago final, y f : U 7→ R el pago que hay quehacer durante el juego. Ası, si g = 0 y f es constante positiva, c, los pagosen el turno k son f(xk) = c y en el caso de llegar a la frontera, g(xk) = 0.Entonces el jugador 1 querra maximizar el numero de pasos hasta acabaren la frontera, mientras que el jugador 2 querra llegar cuanto antes a lafrontera para que el juego acabe y pagar lo mınimo posible. Cada turno kel jugador 2 elige un vector, ~vk, de longitud fija de antemano ε. El jugador1 elige un sentido para dicho vector, σk ∈ 1,−1. Ası el nuevo punto esxk = xk−1 + σk~vk.

Definimos uε1(x) y uε

2(x) como los resultados mınimos que los jugadoresesperan recibir si el juego comienza en x0 = x.3 Cuando ambas coincidendecimos que el juego tiene un valor. Podemos pensar en u como el precioque ambos jugadores pagan al casino por jugar al juego. Tambien es lo quecada uno espera recibir, por lo que el jugador 1 hara lo posible por aumentaru mientras que el jugador 2, que es el que paga, hara lo posible por bajar elvalor de u.

Para obtener el operador diferencial anterior hemos de tomar el lımiteε→ 0.

Supongamos que el juego (discreto) tiene un valor, entonces el lımitepuntual u(x) = lımε→0 u

ε1(x) es la funcion que indica el resultado mınimo

que cada jugador espera si el juego (continuo) comienza en x0 = x.Supongamos que el jugador 2 elige la direccion del gradiente de u, pen-

sado en minimizar u todo lo posible. Entonces se arriesga a que el jugador1 le ponga signo positivo de manera que en la nueva posicion el jugador 2pague mas. De manera que uno espera que nos movamos solo en direccionesortogonales al gradiente.

En este caso tenemos que la funcion u(x) verifica

−1

2∆1u = f, u|∂U = g (5.6)

5.2.6. Otros juegos

En [KS1] y [KS2] exponen algunos juegos parecidos a los anteriores paraecuaciones parabolicas o elıpticas no-lineales generales. A tıtulo de ejemploveamos el juego que lleva a la ecuacion del calor retrogada.

Consideremos el problema retrogado en todo el espacio

ut(t, x) + uxx(t, x) = 0, u(T, x) = f(x).

Como antes, tenemos dos jugadores, un punto inicial x0 y ε fijo. Ademassea 0 < t < T un numero fijo. El jugador 1 elige un numero α. Entonces,despues de escuchar la eleccion del jugador 1, el jugador 2 elige b = ±1. Eljugador 1 paga

√2εαb. Ahora el tiempo, que cuando empezamos el juego era

3Esta definicion no es rigurosa. Veremos una rigurosa para el juego del ∞−laplaciano.

Page 90: Sobre algunas relaciones entre la probabilidad y las ... · 2.2. Reconocimiento de siluetas y la ecuacio´n de Poisson . . . . . 38 2.3. ... la integracio´n de ecuaciones estocasticas,

90 CAPITULO 5. JUEGOS DIFERENCIALES Y ECUACIONES

t, ha aumentado en ε2, mientras que la ficha, que originalmente estaba enx0, ha pasado a estar en xk = xk−1 +

√2εb. El juego continua hasta llegar al

tiempo final T , momento en el que el jugador 1 recibe un pago de f(x(T )),donde x(T ) es la posicion final de la ficha. La intencion del jugador 1 esconseguir que lo que gana al final menos lo que va pagando en cada turnosea maximo. El jugador 2 quiere justamente lo contrario, que el jugador 1tenga perdidas.

La funcion valor del juego para el jugador 1 uε1(t, x) se define como el

resultado maximo del pago final menos los pagos intermedios si el juego tienecomo tiempo inicial t y posicion inicial x0 = x. Esta funcion converge a lasolucion del problema retrogrado del calor anterior.

Estos juegos tambien tienen un principio de programacion dinamica. Endicho principio y en una expansion de Taylor se basa la prueba (ver [KS1]).En estos artıculos se presentan ademas las relaciones entre estos juegos y laeconomıa.

Page 91: Sobre algunas relaciones entre la probabilidad y las ... · 2.2. Reconocimiento de siluetas y la ecuacio´n de Poisson . . . . . 38 2.3. ... la integracio´n de ecuaciones estocasticas,

Capıtulo 6

Experimentos numericos

En la introduccion mencionamos las aplicaciones de estas formulas derepresentacion al calculo numerico. Tenemos que empezar por simular lastrayectorias de una cierta ecuacion estocastica dada. Para hacer esto utili-zamos el metodo de Euler explıcito. Entonces, si tenemos la difusion en unadimension dada por

dY = b(Y )dt + σ(Y )dW

con una valor inicial Y0. Nuestro metodo hace

Y (n + 1) = b(Y (n))T/N + σ(Y (N))(W (t(n + 1)) −W (t(n)).

Ahora podemos aplicar un metodo de Monte-Carlo a las ecuacioneselıpticas o parabolicas.

Consideraremos U el cuadrado centrado en el origen y de lado 2. Nuestrovalor en el borde sera g(x) = x1. La idea del algoritmo es simular variastrayectorias brownianas para cada punto, ver que puntos de la frontera songolpeados y evaluar allı la funcion g. Entonces promediar los valores de gobtenidos.

La figura 6.1 se corresponde con un experimento en el que se han utilizado100 puntos de mallado, un paso temporal de 1/9 y 100 difusiones para cadapunto. El tiempo que ha tardado mi ordenador (1.73 GHz) ha sido de 32segundos.

Para las ecuaciones parabolicas (consideramos el problema de Cauchy)podemos hacer lo mismo. Fijo t y dado un punto inicial x simulamos unnumero grande de difusiones que partan de x y vemos el valor de f evaluadaen el punto final (en tiempo t) de la trayectoria. La media de estos valoressera nuestra aproximacion numerica.

Por ejemplo, si consideramos la ecuacion del calor con un valor inicial quesea una caracterıstica de un cierto conjunto (y con mismo numero de puntosen la malla y el mismo paso temporal) tenemos los resultados mostrados en6.2 y 6.3.

91

Page 92: Sobre algunas relaciones entre la probabilidad y las ... · 2.2. Reconocimiento de siluetas y la ecuacio´n de Poisson . . . . . 38 2.3. ... la integracio´n de ecuaciones estocasticas,

92 CAPITULO 6. EXPERIMENTOS NUMERICOS

−1

−0.5

0

0.5

1

−1

−0.5

0

0.5

1−1.5

−1

−0.5

0

0.5

1

1.5

Solucion

Figura 6.1: La aproximacion a nuestra solucion.

Esperamos que nuestro error disminuya conforme aumente el numero depuntos del mallado, el numero de difusiones para cada punto y disminuya elpaso temporal. Sin embargo este no es siempre el caso, como veremos masadelante.

En [IN] podemos ver como usar un metodo de Monte-Carlo para aproxi-mar la solucion de las ecuaciones de Navier-Stokes y de Burgers. La idea esreemplazar el flujo X por M copias, cada una con un movimiento brownianoindependiente, y entonces cambiar la esperanza por la media de los resulta-dos. Este metodo nos da otro sistema, el numerico, que llamaremos el sistemaMonte-Carlo. Este metodo es valido para las ecuaciones de Navier-Stokes en2D (para Euler conocemos existencia de solucion clasica en 2D), sin embargoesto no es valido para la ecuacion de Burgers unidimensional. El motivo esque el sistema Monte-Carlo (el numerico) es disipativo solo para tiemposcortos. Cuando el sistema Monte-Carlo deja de disipar, la nolinealidad haceque la ecuacion solo tenga existencia para tiempo finito. El resultado sor-prendente es que si evolucionamos el sistema Monte-Carlo para un tiempopequeno, y utilizamos esta solucion en el tiempo pequeno como dato inicialpara repetir el mismo proceso obtenemos una solucion que aproxima la so-lucion real, sin discontinuidades. El sistema estocastico (ver el capıtulo 4)es markoviano, pero el sitema Monte-Carlo no. Si los tiempos son bastantepequenos entonces la disipacion es mas fuerte que las discontinuidades. Porlo tanto concluımos que la media disipa menos que la esperanza.

En este campo se esta investigando actualmente, por ejemplo puede con-

Page 93: Sobre algunas relaciones entre la probabilidad y las ... · 2.2. Reconocimiento de siluetas y la ecuacio´n de Poisson . . . . . 38 2.3. ... la integracio´n de ecuaciones estocasticas,

93

02

46

810

12

0

2

4

6

8

10

120

0.2

0.4

0.6

0.8

1

Valor inicial

Figura 6.2: Valor inicial.

sultarse el trabajo de Denis Talay [GKMPPT]En el apendice C se puede ver el codigo para Matlab.

Page 94: Sobre algunas relaciones entre la probabilidad y las ... · 2.2. Reconocimiento de siluetas y la ecuacio´n de Poisson . . . . . 38 2.3. ... la integracio´n de ecuaciones estocasticas,

94 CAPITULO 6. EXPERIMENTOS NUMERICOS

1

2

3

4

5

6

7

8

9

10

11

0

2

4

6

8

10

12

0

0.2

0.4

0.6

0.8

1

Evolucion

Figura 6.3: Solucion numerica en tiempo 4.

Page 95: Sobre algunas relaciones entre la probabilidad y las ... · 2.2. Reconocimiento de siluetas y la ecuacio´n de Poisson . . . . . 38 2.3. ... la integracio´n de ecuaciones estocasticas,

Capıtulo 7

Conclusion

Durante todo el texto hemos puesto de manifiesto como los procesosde Markov se relacionan con las ecuaciones diferenciales, comenzando conel resultado de Kakutani para funciones armonicas y concluyendo con unoperador, el ∞−laplaciano, para el que el proceso de Markov a considerares mucho mas complicado. Dichas trayectorias markovianas hacen el papel decurvas caracterısticas en el caso de ecuaciones de segundo orden. O, citandoa Kohn y Serfaty (ver [KS1])

’the first and second-order cases are actually quite similar.’

Estos metodos probabilısticos ofrecen una nueva intuicion util en muchosproblemas (Feynman-Kac, la ecuacion de Kolmogorov-Petrovski-Piskounov,Navier-Stokes...). Ademas da una manera diferente de conseguir los resul-tados ya conocidos (propiedad del valor medio, desigualdad de Harnack,existencia local de solucion clasica para Navier-Stokes). Tambien se pue-de generalizar esta tecnica a operadores no-locales (ver [A], [NT]), que sonlos generadores de procesos markovianos mas generales, los de Levy.1 Otrasecuaciones a las que se les pueden aplicar estas tecnicas son la ecuacion deondas, de la viga... (ver [DMT]).

Desde el punto de vista del analisis numerico son utiles cuando la geo-metrıa del dominio es complicada, o la dimension es alta. En estos casos unmetodo de Monte-Carlo no tiene ninguna desventaja, pues no se ve afectadopor la dimension o la geometrıa del dominio. Pueden usarse tambien paradividir el dominio original en subdominios de manera que sea mas facil encada uno de ellos aplicar los metodos ’clasicos’ (elementos finitos,...).

Estas ideas han demostrado ser utiles en multitud de aplicaciones (re-conocimiento de siluetas, mecanica de fluidos, mecanica cuantica, fısica es-tadıstica...), ya que por ejemplo han dado lugar a una tercera formulacionde la mecanica cuantica, la formulacion de Feynman (esta formulacion tienela gran ventaja de ser facilmente generalizable para los campos cuanticos y

1Estos procesos son ’movimientos brownianos y saltos’, y es por esos saltos por los queel operador es no-local.

95

Page 96: Sobre algunas relaciones entre la probabilidad y las ... · 2.2. Reconocimiento de siluetas y la ecuacio´n de Poisson . . . . . 38 2.3. ... la integracio´n de ecuaciones estocasticas,

96 CAPITULO 7. CONCLUSION

ademas esta muy bien adaptada a sistemas dinamicos con muchos grados delibertad).

Estas tecnicas tienen la peculiaridad de lo bien que se adaptan a condi-ciones de borde Dirichlet. Sin embargo, si consideramos condiciones de bordeNeumann, entonces hemos de considerar difusiones de Ito con una reflexional llegar a la frontera, lo que es mucho mas complicado (ver [F]).

Page 97: Sobre algunas relaciones entre la probabilidad y las ... · 2.2. Reconocimiento de siluetas y la ecuacio´n de Poisson . . . . . 38 2.3. ... la integracio´n de ecuaciones estocasticas,

Apendice A

Algunos resultados auxiliares

A.1. Una construccion del movimiento browniano

Como se ve en la integral de Ito (ver mas abajo), lo que nos interesaa la hora de dar sentido a las ecuaciones estocasticas son los incrementosdel movimiento browniano. Tıpicamente los incrementos van asociados a laidea de derivada. Aunque hemos dicho que el movimiento browniano no esregular, queremos conservar esta idea. Comenzaremos con que es el ruidoblanco, formalmente dW

dt . A partir de este proceso definiremos el movimientobrowniano por medio de una integral en el tiempo. El ruido blanco es unavariable aleatoria en L2(0, 1) (nos restringimos a este intervalo de tiempopor fijar ideas), pero se puede hacer para un intervalo general, por lo tanto,si ψn forman una base ortonormal de L2(0, 1) tenemos que podemos escribir

dW

dt(ω, t) =

∞∑

n=0

An(ω)ψn(t).

Por las propiedades que tiene el movimiento browniano, y dado que, formal-mente dW

dt es la derivada de W , esperamos que

An ∼ N(0, 1)

e independientes.

Veamos esto mas detenidamente. Se tiene

An(ω) =

∫ 1

0

dW

dt(ω, t)ψn(t)dt.

Si suponemos que son normales independientes de media 0 y varianza 1entonces se debe tener

0 = E[An]E[Am] = E[AnAm] =

∫ 1

0ψnψmdt = 0.

97

Page 98: Sobre algunas relaciones entre la probabilidad y las ... · 2.2. Reconocimiento de siluetas y la ecuacio´n de Poisson . . . . . 38 2.3. ... la integracio´n de ecuaciones estocasticas,

98 APENDICE A. ALGUNOS RESULTADOS AUXILIARES

Tambien se debe cumplir una condicion parecida para la varianza,

E[A2n] = 1.

Vemos que efectivamente, los resultados son coherentes con las hipotesis.

Ahora esperamos definir el movimiento browniano como

W (ω, t) =

∫ t

0

dW

dt(ω, s)ds =

∞∑

n=0

An(ω)

∫ t

0ψn(s)ds.

En ningun momento hemos especificado que base utilizamos. Lo diremosahora, pero lo cierto es que la formula es valida con cualquier base.

Sea hn la n−esima funcion de la base de Haar,

i.e. h0 = 11(0,1), h1 = 11(0,1/2) − 11(1/2,1)

hn = 2k1((n−2k)/2k ,(n−2k+1/2)/2k − 2k1((n−2k+1/2)/2k ,(n−2k+1)/2k

donde k es tal que se tenga 2k ≤ n < 2k+1.

Entonces en esta base todo queda particularmente sencillo, pues

∫ t

0hn(s)ds = sn(t)

donde sn es la n−esima funcion de Schauder (tambien un sistema completo).

Se demuestra ası el resultado

Teorema 30. Sea An ∼ N(0, 1) independientes, entonces

W (ω, t) =∞∑

k=0

Ak(ω)sk(t)

converge uniformemente en t en casi todo ω. Ademas ası definido W es unproceso browniano.

La demostracion se puede consultar en [Ev]. Es un calculo de funcionescaracterısticas para ver que los incrementos tienen las propiedades adecua-das.

Una vez que se tiene el browniano unidimensional en el intervalo (0,1) sepuede extender a varias dimensiones considerando varios de ellos. Tambiense puede extender a tiempos arbitrariamente largos simplemente ’pegando’unos on otros.

Page 99: Sobre algunas relaciones entre la probabilidad y las ... · 2.2. Reconocimiento de siluetas y la ecuacio´n de Poisson . . . . . 38 2.3. ... la integracio´n de ecuaciones estocasticas,

A.2. EL TEOREMA DE KOLMOGOROV 99

A.2. El teorema de Kolmogorov

Teorema 31 (Kolmogorov). Sea X un proceso estocastico con trayectoriascontinuas c.t.p. tal que

E[|X(t) −X(s)|β ] ≤ C(t− s)1+α, ∀t, s ≥ 0

entonces para todo 0 < γ < αβ y T > 0 existe K(ω) tal que

|X(t) −X(s)| ≤ K|t− s|γ .

Demostracion. Se puede tomar T = 1 sin perdida de generalidad. Tomemoscualquier γ en el intervalo considerado. Definimos para n ≥ 1

An =

X

(

i+ 1

2n

)

−X

(

i

2n

)∣

≥ 1

2nγpara algun entero i < 2n

.

Es decir, los conjuntos de sucesos tales que, en la particion que consideramos,tengan incrementos grandes. La idea ahora es acotarlos y aplicar el lema deBorel-Cantelli.

P (An) ≤2n−1∑

i=0

P

(∣

X

(

i+ 1

2n

)

−X

(

i

2n

)∣

≥ 1

2nγ

)

≤2n−1∑

i=0

E

[∣

X

(

i+ 1

2n

)

−X

(

i

2n

)∣

β](

1

2nγ

)−β

≤ C

2n−1∑

i=0

(

1

2n

)1+α(

1

2nγ

)−β

Por lo tanto, si ahora sumamos en n tenemos que la serie∑∞

n=1(An) esconvergente y por Borel-Cantelli podemos concluir que para casi todo ωexiste un m tal que si n ≥ m

X

(

i+ 1

2n

)

−X

(

i

2n

)∣

≤ 1

2nγ.

Pero entonces, pagando con una constante K(ω) podemos tener lo mismopara todo n. Solo hemos de elegir la constante en funcion de los primeros msumandos.

X

(

i+ 1

2n

)

−X

(

i

2n

)∣

≤ K

2nγ, ∀n ≥ 0 (A.1)

Ahora hemos de ver que la anterior ecuacion nos da lo que queremos.Fijemos ω ∈ Ω tal que se cumpla la ecuacion anterior. Sean t1 y t2 dos

racionales diadicos1 tales que 0 < t2 − t1 < 1. Sea n tal que se cumpla

2−n ≤ t2 − t1 ≤ 2−n+1.

1Aquellos con denominador una potencia de dos.

Page 100: Sobre algunas relaciones entre la probabilidad y las ... · 2.2. Reconocimiento de siluetas y la ecuacio´n de Poisson . . . . . 38 2.3. ... la integracio´n de ecuaciones estocasticas,

100 APENDICE A. ALGUNOS RESULTADOS AUXILIARES

Podemos escribir, por ser diadicos,

t1 =i

2n− 1

2p1− 1

2p2...− 1

2pk, n < p1 < ... < pk

t2 =j

2n+

1

2q1+

1

2q2...+

1

2qk, n < q1 < ... < qk

para ciertos i, j que cumplan

t1 ≤ i

2n≤ j

2n≤ t2.

Entonces, operando y reparando en lo que ha de cumplir la diferencia t2− t1podemos afirmar que se tiene

j − i

2n≤ t2 − t1 <

1

2n−1.

Concluımos que j = i o j = i+ 1.Ahora podemos usar la ecuacion (A.1) con el ω antes fijado y obtenemos

X

(

j

2n

)

−X

(

i

2n

)∣

≤ K

j − i

2n

γ

≤ K(t2 − t1)γ

X

(

i

2n− 1

2p1− 1

2p2...− 1

2pr

)

−X

(

i

2n− 1

2p1...− 1

2pr−1

)∣

≤ K

1

2pr

γ

.

Podemos ahora acotar, solo hay que sumar y restar los terminos anterioresy aplicar la desigualdad triangular,

X

(

t1

)

−X

(

i

2n

)∣

≤ K

k∑

r=1

1

2prγ(A.2)

Como pr > n podemos escribir

1

2pr=

1

2n

1

2pr−n≤ 1

2n

1

2r

aquı hemos usado la condicion arriba impuesta de n < p1... < pr. Ademaspodemos sumar todos los terminos de la serie obteniendo

K

k∑

r=1

1

2prγ≤ K

2nγ

∞∑

r=1

1

2rγ≤ C

2nγ.

En la ultima desigualdad hemos usado que la serie converge, pues a partirde cierto r el exponente es rγ > 1. Usando las propiedades del n concluımosque

C

2nγ≤ C(t2 − t1)

γ .

Page 101: Sobre algunas relaciones entre la probabilidad y las ... · 2.2. Reconocimiento de siluetas y la ecuacio´n de Poisson . . . . . 38 2.3. ... la integracio´n de ecuaciones estocasticas,

A.3. LA FORMULA DE ITO 101

De manera analoga demostramos una cota igual para

|X(t2) −X(j/2n)|.

Ahora

|X(t1) −X(t2)| = |X(t1) −X(i/2n) +X(i/2n) −X(j/2n) +X(j/2n) −X(t2)|≤ C1(ω)|t2 − t1|γ

para todos los racionales diadicos en [0,1]. Como sabemos por hipotesis queel proceso es continuo en el tiempo concluımos que se cumple para todot ∈ [0, 1].

A.3. La formula de Ito

Sea el operador

Au =1

2

d∑

i,j=1

ai,j(x)∂2u

∂xi∂xj+

d∑

i=1

bi(x)∂u

∂xi

donde

ai,j = (σσt)i,j .

Uno de los teoremas mas importantes que aparecen en este texto es la formu-la de Ito. Veamos la version unidimensional, que sera la que demostramos.

Teorema 32 (Formula de Ito (1D)). Sea

dX = b(X(t), t)dt + σ(X(t), t)dW

con b ∈ L1([0, T ]) y σ ∈ L2([0, T ]) (ver definicion 4). Consideremos

u : R × [0, T ] 7→ R

continua y con∂u

∂t,∂u

∂x,∂2u

∂x2

continuas. Entonces Y (t) = u(X(t), t) tiene la diferencial

dY =∂u

∂t(X(t), t)dt +

∂u

∂x(X(t), t)dX +

1

2

∂2u

∂x2(X(t), t)σ2dt

=

(

∂u

∂t(X(t), t) +

∂u

∂x(X(t), t)b(X(t), t) +

1

2

∂2u

∂x2(X(t), t)σ2

)

dt

+∂u

∂x(X(t), t)σ(X(t))dW.

Page 102: Sobre algunas relaciones entre la probabilidad y las ... · 2.2. Reconocimiento de siluetas y la ecuacio´n de Poisson . . . . . 38 2.3. ... la integracio´n de ecuaciones estocasticas,

102 APENDICE A. ALGUNOS RESULTADOS AUXILIARES

Demostracion. Comencemos por el caso donde u = xm. Se tiene

d(Xm)(t) = mX(t)m−1dX +1

2m(m− 1)Xm−2(t)σ2dt.

Los casos m = 0, 1 son triviales. Supongamos que se cumple para m − 1y demostremoslo para m. Usaremos el siguiente lema (cuya demostracionpuede encontrarse en [Ev]):

Lema 11 (Derivada del producto). Si tenemos

dX1(t) = b1(X(t)1, t)dt + σ1(X(t)1, t)dW

dX2(t) = b2(X(t)2, t)dt + σ2(X2(t), t)dW

con las funciones bi ∈ L1([0, T ]) y σi ∈ L2(0, T ). Entonces la diferencial delproducto es

d(X1X2)(t) = X2(t)dX1(t) +X1(t)dX2(t) + σ1(X(t)1, t)σ2(X(t)2, t)dt.

Ahora escribimosd(Xm−1X)

utilizando el lema y comprobamos que la formula de Ito se cumple para losmonomios. Como la diferencial es lineal concluımos que la formula de Ito escierta para los polinomios en x. Consideremos el producto de un polinomioen x y otro en t, i.e. u(t, x) = f(x)g(t). Entonces

d(f(X(t))g(t)) = f(X(t))g′dt+ gdf(X(t))

= f(X(t))g′dt+ g[f ′(X(t))dX +1

2f ′′(X(t))σ2dt].

que es justamente la expresion que querıamos. Concluımos que por lo tantoes cierta para toda funcion que se pueda escribir como una suma finita deproductos de polinomios como los anteriores, es decir

u(x, t) =

m∑

i=1

fi(x)gi(t). (A.3)

Ahora razonamos por densidad. Sea una funcion u como en el teore-ma, entonces existen un como en (A.3) tal que aproximan uniformementeen compactos en R × [0, T ] tanto a u como a las derivadas mencionadas.Por los calculos anteriores solo es necesario pasar al lımite para concluir lademostracion.

Tenemos ası una relacion entre la ecuacion estocastica (1.10) y el opera-dor elıptico

Au =1

2

d∑

i,j=1

ai,j(x)∂2u

∂xi∂xj+

d∑

i=1

bi(x)∂u

∂xi

Page 103: Sobre algunas relaciones entre la probabilidad y las ... · 2.2. Reconocimiento de siluetas y la ecuacio´n de Poisson . . . . . 38 2.3. ... la integracio´n de ecuaciones estocasticas,

A.3. LA FORMULA DE ITO 103

donde

ai,j = (σσt)i,j .

El caso en varias dimensiones es el siguiente:

Teorema 33 (Formula de Ito). Sea

d ~X = ~b( ~X(t), t)dt + σd ~W

es decir,

dXi = bi( ~X(t), t)dt +∑

j

σi,j( ~X(t), t)dW j

con bi ∈ L1([0, T ]) y σi,j ∈ L2([0, T ]), 1 ≤ i, j ≤ d (ver definicion 4). Sea

u : Rd × [0, T ] 7→ R

es continua con dos derivadas continuas en espacio y una en tiempo. En-tonces Y (t) = u(X1, ...,Xd, t) tiene la diferencial

dY =∂u

∂t( ~X(t), t)dt+

d∑

i=1

∂u

∂xi( ~X(t), t)dXi +

1

2

d∑

i,j=1

∂2u

∂xi∂xj( ~X(t), t)dXidXj

(A.4)donde los terminos que involucran dXi se operan siguiendo las siguientes’reglas’

dt2 = 0, dtdW j = 0, dW idW j = δi,jdt.

Tambien puede escribirse en su forma integral

u( ~X(t), t) − u( ~X(0), 0) =

∫ t

0

(

∂u

∂t+Au

)

ds+

∫ t

0∇u · σd ~W. (A.5)

Otra version que usaremos es

Teorema 34 (Formula de Ito (tiempos de parada)). Sea

d ~X = ~b( ~X(t), t)dt + σd ~W

es decir,

dXi = bi( ~X, t)dt +∑

j

σi,j( ~X, t)dW j

con bi ∈ L1([0, T ]) y σi,j ∈ L2([0, T ]), 1 ≤ i, j ≤ d (ver definicion 4). Sea

u : Rd × [0, T ] 7→ R

Page 104: Sobre algunas relaciones entre la probabilidad y las ... · 2.2. Reconocimiento de siluetas y la ecuacio´n de Poisson . . . . . 38 2.3. ... la integracio´n de ecuaciones estocasticas,

104 APENDICE A. ALGUNOS RESULTADOS AUXILIARES

es continua con dos derivadas continuas en espacio y una en tiempo. Porultimo, sea τ un tiempo de parada. Entonces Y (t) = u(X1, ...,Xd, t) tienela diferencial

dY =∂u

∂t(X(τ), τ)dt+

d∑

i=1

∂u

∂xi(X(τ), τ)dXi+

1

2

d∑

i,j=1

∂2u

∂xi∂xj(X(τ), τ)dXidXj

(A.6)donde los terminos que envuelven dXi se operan siguiendo las siguientes’reglas’

dt2 = 0, dtdW j = 0, dW idW j = δi,jdt.

Tambien puede escribirse en su forma integral

u( ~X(τ), τ) − u( ~X(0), 0) =

∫ τ

0

(

∂u

∂t+Au

)

ds+

∫ τ

0∇u · σd ~W. (A.7)

Las ’reglas’ del teorema inicial se pueden justificar por medio de la va-riacion cuadratica conjunta.

Definicion 11 (Variacion cuadratica). Sea X(t) un proceso estocastico de-finido para a < t < b y sea P = a ≤ t0..., tn ≤ b una particion de dichointervalo. Se define la variacion cuadratica asociada a la particion como

< X(t) >P =

k−1∑

i=0

(X(ti+1) −X(ti))2 + (X(t) −X(tk))2

donde tk es tal que tk < t < tk+1. Si al hacer el tamano de la particion tendera cero existe un lımite < X(t) > (en probabilidad) y este es independientede las particiones consideradas entonces a este lımite se le llama variacioncuadratica de X(t).

Es facil demostrar que si nuestro proceso X es de variacion acotada ycontinuo entonces la variacion cuadratica es cero. Por lo tanto, la variacioncuadratica de una funcion suave es cero.

Definicion 12 (Variacion cuadratica conjunta). Sean M(t),X(t) dos pro-cesos estocasticos definidos para a < t < b y sea P = a ≤ t0..., tn ≤ b unaparticion de dicho intervalo. Se define

< X(t),M(t) >P =

k−1∑

i=0

(X(ti+1) −X(ti))(M(ti+1)−

M(ti)) + (X(t) −X(tk))(M(t) −M(tk))

donde tk es tal que tk < t < tk+1. Si al hacer el tamano de la particiontender a cero existe un lımite < X(t),M(t) > (en probabilidad) y este esindependiente de las particiones consideradas entonces a este lımite se lellama variacion cuadratica conjunta de X(t) y M(t).

Page 105: Sobre algunas relaciones entre la probabilidad y las ... · 2.2. Reconocimiento de siluetas y la ecuacio´n de Poisson . . . . . 38 2.3. ... la integracio´n de ecuaciones estocasticas,

A.3. LA FORMULA DE ITO 105

La variacion cuadratica conjunta (si existe) es un proceso continuo de va-riacion acotada. Ademas cumple que es bilineal, simetrica, definida positivay una desigualdad de Schwartz

| < X(t),M(t) > − < X(s),M(s) > | ≤√

< X(t) > − < X(s) >√

< M(t) > − < M(s) >.

Para ver donde estan bien definidos estos procesos, algunas propieda-des adicionales y la aproximacion a la integral de Ito (o de Stratonovich)considerando estos procesos se puede consultar [Ku].

Necesitamos en el capıtulo 4 una version generalizada de la formula deIto. La prueba completa de este resultado se puede consultar en [Ku2].

Pero antes necesitamos unas definiciones:

Definicion 13 (Martingala local). Un proceso X(t) adaptado2 a una fil-tracion dada, Ft, se dice una martingala local si existen tiempos de paradacrecientes, τn, tal que el proceso X(mınt, τn) es una martingala.

Definicion 14 (Semimartingala). Un proceso X(t) se dice semimartingalasi se puede escribir como la suma de un proceso de variacion acotada y unamartingala local.

Teorema 35 (Formula de Ito (generalizada)). Sea ~F (x, t) un proceso C2 (enx) y una semimartingala C1 (en t). Sea ~g(t) una semimartingala continuatal que x y ~g(t) tengan valores en un dominio D ⊂ R

d. Entonces ~F (~g(t), t)es una semimartingala continua y satisface

F (~g(t), t) − F (~g(0), 0) =

∫ t

0F (~g(s), ds) +

d∑

i=1

∫ t

0

∂F

∂xi(~g(s), s)dgi(s)

+1

2

d∑

i,j=1

∂2F

∂xi∂xj(~g(s), s) < dgi(s), dgj(s) >

+

d∑

i=1

⟨ ∫ t

0

∂F

∂xi(~g(s), ds), gi(t)

Una idea de la demostracion es observar que, dada una particion, se tiene

F (gt, t) − F (g0, 0) =∑

F (gtk+1, tk+1) − F (gtk , tk) =

F (gtk+1, tk+1) ± F (gtk , tk+1) − F (gtk , tk)

y∑

F (gtk , tk+1) − F (gtk , tk) ≈∫ t

0F (gs, ds).

Para los demas terminos se hace algo parecido y se toman lımites en eltamano de la particion.

2Es decir, X(t) es Ft medible para cualquier t.

Page 106: Sobre algunas relaciones entre la probabilidad y las ... · 2.2. Reconocimiento de siluetas y la ecuacio´n de Poisson . . . . . 38 2.3. ... la integracio´n de ecuaciones estocasticas,

106 APENDICE A. ALGUNOS RESULTADOS AUXILIARES

A.4. Existencia y unicidad de EDP

En varias ocasiones nuestras demostraciones se basan en que conocemosde antemano un resultado de existencia y unicidad para un cierto operador.Incluımos aquı estos teoremas para facilidad del lector y completitud deltexto.

Teorema 36. Sea A el operador elıptico definido anteriormente (ver capıtu-lo 3) con c ≥ 0 y coeficientes acotados y Holder-α. Consideremos un dominioU acotado tal que satisface la propiedad de esfera exterior en todo punto dela frontera. Sea f acotada y Holder-α, y g continua. Entonces el problema

Au = f si x ∈ U, u|∂U = g

tiene una unica solucion clasica u ∈ C(U) ∩ C2,α(U).

Para la demostracion se puede consultar [GT].

Page 107: Sobre algunas relaciones entre la probabilidad y las ... · 2.2. Reconocimiento de siluetas y la ecuacio´n de Poisson . . . . . 38 2.3. ... la integracio´n de ecuaciones estocasticas,

Apendice B

La integral de Ito

Debemos dar sentido a la expresion

∫ t

0GdW

donde G es un proceso estocastico y dWdt es el ruido blanco usual. Como siem-

pre supondremos que tenemos un espacio de probabilidad y una filtracion1

adaptada al movimiento browniano considerado.

Definicion 15. Si [0, T ] es un intervalo de tiempo se define una particionP como una sucesion de tiempos tales que se cumple

0 = t0 < t1 < ... < tn = T.

Se define el tamano del mallado como

|P | = max0≤k≤n−1

|tk+1 − tk|.

Para definir la integral de Ito procederemos de la siguiente manera, pri-mero lo haremos para los procesos escalonados y despues aproximaremospor medio de estos procesos simples unos mas generales.

Consideramos el espacio (ver definicion 4)

L2(0, T ) = G(ω, t), G progresivamente medible y tales que E

(∫ T

0G2dt

)

<∞.

1Sucesion de σ−algebras que cumplen

F(t) ⊂ F(s) si t < s

σ(W (t)) ⊂ F(t) ∀t ≥ 0

F(t) independiente de σ(W (s)− W (t),∀s ≥ t)

donde σ(W (s)− W (t),∀s ≥ t) es el futuro del movimiento browniano.

107

Page 108: Sobre algunas relaciones entre la probabilidad y las ... · 2.2. Reconocimiento de siluetas y la ecuacio´n de Poisson . . . . . 38 2.3. ... la integracio´n de ecuaciones estocasticas,

108 APENDICE B. LA INTEGRAL DE ITO

Definicion 16. Se dice que G ∈ L2(0, T ) es un proceso escalonado si exis-ten unos subintervalos (tk, tk+1) tales que G(t) =

∑nk=1Gk1(tk ,tk+1) con Gk

variables aleatorias F(tk)−medibles. Para estos procesos se define la integralestocstica de Ito como

∫ T

0GdW =

n−1∑

k=0

Gk(W (tk+1) −W (tk)). (B.1)

Remarcamos que es una variable aleatoria.

De la definicion se ve que es un operador lineal.Una vez que se tiene la linealidad podemos observar que se ha de tener

E

(∫ T

0GdW

)

= E

( n−1∑

k=0

Gk(W (tk+1) −W (tk))

)

= 0 (B.2)

por las propiedades del proceso browniano y las hipotesis de independenciade la definicion de filtracion. Sabemos que el movimiento browniano tieneuna variacion cuadratica acotada, y desde aquı es facil concluir que se tiene

E

[(∫ T

0GdW

)2]

= E

(∫ T

0G2dt

)

. (B.3)

En efecto

E

[(∫ T

0GdW

)2]

=

n−1∑

k,j=1

E[Gk(W (tk+1) −W (tk))Gj(W (tj+1) −W (tj))]

Si suponemos ahora que j 6= k entonces, aplicando la independencia, tene-mos que esos terminos se anulan, por lo que solo quedan los terminos j = k.Utilizamos ahora que

E[W (tk+1) −W (tk)] = tk+1 − tk.

Tenemos ası el resultado

Teorema 37. La integral estocastica para un proceso escalonado cumple lassiguientes propiedades:

1. Es lineal.

2. Se tiene que

E

(∫ T

0GdW

)

= 0

E

[(∫ T

0GdW

)2]

= E

(∫ T

0G2dt

)

.

Page 109: Sobre algunas relaciones entre la probabilidad y las ... · 2.2. Reconocimiento de siluetas y la ecuacio´n de Poisson . . . . . 38 2.3. ... la integracio´n de ecuaciones estocasticas,

109

Ahora se procede aproximando el proceso por variables aleatorias esca-lonadas

Gk(ω) = G(ω, tk)

. Dicha sucesion de variables aleatorias sera de Cauchy en L2(0, T ) (ademasde convergente a G) y se tiene

E

[(∫ T

0Gm −GndW

)2]

= E

[ ∫ T

0(Gm −Gn)2dt

]

→ 0

por la propiedad 2 del teorema anterior. Concluımos que podemos definir laintegral del lımite como el lımite de las integrales en el sentido de L2(Ω).Para mas detalles se puede consultar [Du] o [Ev].

La integral estocastica para procesos en L2(0, T ) cumplira las mismaspropiedades que los procesos escalonados vistas en el teorema.

Se tiene tambien el teorema, necesario para la existencia de las ecuacionesestocasticas, siguiente

Teorema 38. Sea

I(t) =

∫ t

0GdW

entonces I(t) es una martingala y ademas tiene trayectorias continuas encasi todo ω.

Una demostracion del segundo apartado se puede encontrar en [Ev].Hay una sutileza que no hemos mencionado. Hemos evaluado las sumas

de Riemann en el punto mas pequeno del intervalo, tk. Si evaluamos lasuma de Riemann en otros puntos del intervalo el resultado que obtendremoscambiara. La utilizacion del punto de la izquierda es la aproximacion de Ito.

Si utilizamos el punto medio del intervalo, entonces hablamos de la in-tegral de Stratonovich. Las propiedades de ambas son muy diferentes, y porcitar una solo, en la manera de Ito no podemos aplicar la regla de la ca-dena usual al derivar, hemos de aplicar la formula de Ito, mientras que enStratonovich sı es posible. Sin embargo es precisamente el tener que usarla formula de Ito lo que nos proporciona la mayorıa de los resultados deeste texto. Otra ventaja de la formulacion de Ito es que la integral es unamartingala.

En cualquier caso, hay unas formulas de conversion que permiten pasarde una a otra segun convenga (ver [Ev]).

Mas concretamente se tiene el siguiente ejemplo∫ T

0WdW =

1

2W 2(t) − (λ− 1

2)T

donde λ es tal que se tenga la suma de Riemann

mn−1∑

k=0

W (τk)(W (tnk+1) −W (tnk))

Page 110: Sobre algunas relaciones entre la probabilidad y las ... · 2.2. Reconocimiento de siluetas y la ecuacio´n de Poisson . . . . . 38 2.3. ... la integracio´n de ecuaciones estocasticas,

110 APENDICE B. LA INTEGRAL DE ITO

con τk = (1 − λ)tk + λtk+1. Ası

λ = 0

es la integral de Ito, mientras que

λ = 1/2

es la integral de Stratonovich. Observamos que los resultados obtenidos di-fieren.

Quiero remarcar que toda integracion es en el sentido de L2(Ω), es decir

E

[(( mn−1∑

k=0

W (τk)(W (tk+1) −W (tk))

)

− 1

2W 2(t) − (λ− 1

2)T

)2]

→ 0

si n→ ∞.

Page 111: Sobre algunas relaciones entre la probabilidad y las ... · 2.2. Reconocimiento de siluetas y la ecuacio´n de Poisson . . . . . 38 2.3. ... la integracio´n de ecuaciones estocasticas,

Apendice C

Codigo numerico utilizado

C.1. Trayectorias de un movimiento browniano

function [B,t]=browniano(N,M,T)

%funcion que me aproxima M trayectorias del movimiento browniano

%en el intervalo [0,T] con paso T/N

t=0:T/N:T;

B=zeros(N+1,M);

for j=1:M

for i=1:N

B(i+1,j)=B(i,j)+normrnd(0,sqrt(1/N));

end

end

C.2. Trayectorias de un puente browniano

function [B,P,t1]=puentebrowniano(N,M)

%funcion que me aproxima M trayectorias del

%puente browniano en (0,1) con paso 1/N.

t1=0:1/N:1;

B=zeros(N+1,M);

P=B;

for j=1:M

for i=1:N

B(i+1,j)=B(i,j)+normrnd(0,sqrt(1/N)); %los incrementos del movimiento

%browniano son normales de media cero y desviacion tipica (1/N)^(1/2)

P(i,j)=B(i,j)-t1(i)*B(end,j);%Sabemos que P(t)=B(t)-t(B(T))

end

end

111

Page 112: Sobre algunas relaciones entre la probabilidad y las ... · 2.2. Reconocimiento de siluetas y la ecuacio´n de Poisson . . . . . 38 2.3. ... la integracio´n de ecuaciones estocasticas,

112 APENDICE C. CODIGO NUMERICO UTILIZADO

C.3. Metodo de Euler para una ecuacion estocasti-

ca

C.3.1. Caso unidimensional

function [t,Y]=sde1(a,b,Y0,T,N)

%funcion que me aproxima la solucion

%de la ecuacion estocastica

% dY=a(Y,t)dt+b(Y,t)dW

%por el metodo de Euler, i.e.

%Y(n+1)=a(Y(n))T/N+b(Y(N))(W(t(n+1))-W(t(n))

%a, b son las funciones. Y0 el valor inicial

%T es el tiempo final y N el numero de nodos

t=0:T/N:T;

Y=zeros(1,N+1);

Y(1)=Y0;

for i=1:N

Y(i+1)=Y(i)+feval(a,Y(i),t(i))*T/N+feval(b,Y(i),t(i))...

...*normrnd(0,sqrt(1/N));

end

C.3.2. Caso 2D

function [t,Y]=sde2(a,b,Y0,T,dt)

%funcion que me aproxima la solucion

%de la ecuacion estocastica

%dY=a(Y)dt+b(Y)dW

%por el metodo de Euler, i.e.

%Y(n+1)=a(Y(n),t)T/N+b(Y(N))(W(t(n+1))-W(t(n))

%a, b son las funciones. Y0 el valor inicial

%T es el tiempo final y N el numero de nodos

t=0:T/dt:T;

Y=zeros(2,dt+1);%difusion dos dimensional

Y(:,1)=Y0;

for i=1:dt

Y(:,i+1)=Y(:,i)+feval(a,Y(:,i),t(i)).*T/dt+feval(b,Y(:,i),t(i))...

.*[normrnd(0,sqrt(1/dt)),normrnd(0,sqrt(1/dt))]’;

end

C.4. Metodo de Monte-Carlo para el laplaciano

function u=lapbrow(g,n,N,B)

%funcion que me calcula en dos dimensiones

Page 113: Sobre algunas relaciones entre la probabilidad y las ... · 2.2. Reconocimiento de siluetas y la ecuacio´n de Poisson . . . . . 38 2.3. ... la integracio´n de ecuaciones estocasticas,

C.4. METODO DE MONTE-CARLO PARA EL LAPLACIANO 113

%la solucion del problema de encontrar una

%funcion armonica que valga g en la frontera

%del cuadrado centrado en el origen de lado 2.

%n^2 es el numero de puntos en la malla.

%para cada punto (xi,yj) del dominio calculamos B

%brownianos, luego sus valores por g y hacemos la media.

%1/N es el paso temporal

x=-1:1/(n-1):1;

y=x;

[X,Y]=meshgrid(x,y);

u=zeros(2*n-1,2*n-1);%las filas son y y las columnas x

for a=1:2*n-1

u(1,a)=feval(g,[x(a),1]);%la parte de arriba del dominio y=1

end

for b=1:2*n-1

u(b,1)=feval(g,[-1,y(b)]);%la parte de la izquierda del dominio x=-1

end

for c=1:2*n-1

u(2*n-1,c)=feval(g,[x(c),-1]);%la parte de abajo del dominio y=-1

end

for d=1:2*n-1

u(d,2*n-1)=feval(g,[1,y(d)]);%la parte de la derecha del dominio x=1

end

M=zeros(B,2);

for i=2:2*n-2 %recorre una variable

for j=2:2*n-2

tau=[x(i),y(j)];%el browniano empieza en el punto de la malla

tau1=[0 0];

for k=1:B

while prod(abs(tau1)<[1,1])%esto es que este en el cuadrado

tau1=tau+[normrnd(0,sqrt(1/N)),normrnd(0,sqrt(1/N))];

%un nuevo punto. el que se quedara fuera

if prod(abs(tau1)<[1,1])

tau=tau1;%este me guardara el que queda dentro

%else disp(’SE SALE’);

end

Page 114: Sobre algunas relaciones entre la probabilidad y las ... · 2.2. Reconocimiento de siluetas y la ecuacio´n de Poisson . . . . . 38 2.3. ... la integracio´n de ecuaciones estocasticas,

114 APENDICE C. CODIGO NUMERICO UTILIZADO

end

M(k,:)=tau1;

tau1=[0 0];

tau=[x(i),y(j)];

end

for l=1:B

G(l)=feval(g,M(l,:));%evaluamos g en la fila l-esima

end

G;

u(j,i)=mean(G);

clear G;

end

end

mesh(X,Y,u);title(’Solucion’)

C.5. Reconocimiento de siluetas

Este programa utiliza un metodo SOR para resolver la ecuacion de Pois-son. El dominio (esto es, la silueta) se le introduce desde la imagen simple-mente cambiando los colores y anadiendo una condicion ’if’.

function [img,img2,u,t,cnt]=imagessor(tol,itmax,image)

%Este programa utiliza un metodo SOR para

%resolver la ecuacion de Poisson en la silueta

%tol es la tolerancia

%itmax es el numero maximo de iteraciones

%image es una imagen .png

tic

img=imread(image);

figure;imagesc(img);

input(’Press any key’)

img=double(img);

[H,W]=size(img)

w= 2 / ( 1 + sin(pi/(H+1)) );%nuestro parametro de sobrerrelajacion

for i=1:H

for j=1:W

img2(i,j)=abs(img(i,j)-255); %cambio blanco por negro y viceversa

end

end

img2;

figure; imagesc(img2);

Page 115: Sobre algunas relaciones entre la probabilidad y las ... · 2.2. Reconocimiento de siluetas y la ecuacio´n de Poisson . . . . . 38 2.3. ... la integracio´n de ecuaciones estocasticas,

C.5. RECONOCIMIENTO DE SILUETAS 115

input(’Press any key’)

clear i,j;

%Ahora empezamos con el algoritmo. Como puede ser dificil

%introducir la geometria de la silueta

%nosotros usamos toda la imagen,

%pero solo resolvemos la ecuacion en la silueta.

u=img2;

v=u;

err=1;

cnt=0;

while((err>tol)&(cnt<=itmax))

for i=2:H-1

for j=2:W-1

if (img2(i,j)==0)

else

v(i,j)=u(i,j)+w*(v(i-1,j) + u(i+1,j) + v(i,j-1)...

... + u(i,j+1) +1 - 4*u(i,j))/4;

E(i,j)=v(i,j)-u(i,j);

end

end

end

err=norm(E,inf);

cnt=cnt+1;

u=v;

end

u=flipud(u);

figure;imagesc(u);

mesh(u)

t=toc;

Los programas para calcular gradientes, normas y las funciones especialesΦ y Ψ son los siguientes

function [Gux,Guy,NGu,t]=gradient(u)

%Este programa calcula el gradiente y su norma

%Gux es la primera componente del gradiente,

%Guy es la segunda componente del gradiente

%NGu es la norma del gradiente

tic

[H,W]=size(u);

for i=2:H

Page 116: Sobre algunas relaciones entre la probabilidad y las ... · 2.2. Reconocimiento de siluetas y la ecuacio´n de Poisson . . . . . 38 2.3. ... la integracio´n de ecuaciones estocasticas,

116 APENDICE C. CODIGO NUMERICO UTILIZADO

for j=2:W

Gux(i,j)=u(i,j)-u(i-1,j);

Guy(i,j)=u(i,j)-u(i,j-1);

NGu(i,j)=(Gux(i,j)^2+Guy(i,j)^2)^0.5;

end

end

t=toc;

function [Phi,t]=phi(u,NGu)

%Este programa calcula phi=u+NGu^2

%NGu es la norma del gradiente de u

tic

[H,W]=size(NGu);

for i=1:H

for j=1:W

Phi(i,j)=u(i,j)+NGu(i,j)^2;

end

end

t=toc;

function [Psi,t]=psiimages(u,Gux,Guy,NGu)

%Este programa calcula psi=-div(gradient(u)/norm(gradient(u))

%NGu es la norma del gradiente de u

%Gux es la primera componente del gradiente,

%Guy es la segunda componente del gradiente

tic

[H,W]=size(NGu);

for i=2:H

for j=2:W

Psix(i,j)=((Gux(i,j)-Gux(i-1,j))*NGu(i,j)-Gux(i,j)...

...*(NGu(i,j)-NGu(i-1,j)))/NGu(i,j)^2;

Psiy(i,j)=((Guy(i,j)-Guy(i,j-1))*NGu(i,j)-Guy(i,j)...

...*(NGu(i,j)-NGu(i,j-1)))/NGu(i,j)^2;

Psi(i,j)=-Psix(i,j)-Psiy(i,j);

end

end

t=toc;

C.6. Metodo de Monte-Carlo para ecuaciones pa-

rabolicas

function [t,u]=parabolic(T,M,N,a,b,dx,u0)

Page 117: Sobre algunas relaciones entre la probabilidad y las ... · 2.2. Reconocimiento de siluetas y la ecuacio´n de Poisson . . . . . 38 2.3. ... la integracio´n de ecuaciones estocasticas,

C.6. METODO DE MONTE-CARLO PARA ECUACIONES PARABOLICAS117

%Codigo que simula M difusiones, con numero de nodos N

%las difusiones tienen como punto inicial x0. El T es tiempo final (entero),

%a es el transporte, es una funcion.

%b es la difusion.

%u=u(T,x).

%dx es el paso espacial

%u0 es la funcion valor inicial

%

%

%%%IDEA%%%

%La idea es ver las difusiones de Ito como las trayectorias de las

%particulas. Entenderemos el punto x0 en realidad como el punto final

%[Antes dijimos que era el inicial, pero es que para considerar las

%ec.parabolicas en el sentido bueno del tiempo hemos de considerar

%las difusiones al reves, por la formula de Ito]. Asi la formula

%de representacion u(T,x0)=E[u0(X_0^T(x0))] se interpreta considerando

%X_0^T(x0) como el punto inicial de la difusion que llega a x0.

%Puede tambien hacerse con una backward SDE (Kunita).Asi u(T,x0)

%es la concentracion de particulas en dicho tiempo y punto,particulas

%que partieron del punto X_0^T(x0), considerando que u0 es la cantidad

%inicial, se mueven T y llegan a x0.

%%%Resumiendo, tenemos u0(X_0^T(x0)) particulas que se mueven de forma

%aleatoria y u(T,x0) es la cantidad media de dichas particulas que llegan a

%x0.

%%%% Tiempo

tic

%%%% Dominio

x=0:dx:10;

y=x;

Nx=length(x);

Ny=length(y);

%%%% Dato inicial

for i=1:Nx

for j=1:Ny

uo(i,j)=feval(u0,[x(i),y(j)]);

end

end

clear i,j;

Page 118: Sobre algunas relaciones entre la probabilidad y las ... · 2.2. Reconocimiento de siluetas y la ecuacio´n de Poisson . . . . . 38 2.3. ... la integracio´n de ecuaciones estocasticas,

118 APENDICE C. CODIGO NUMERICO UTILIZADO

figure(1)

mesh(uo);title(’Valor inicial’)

%%%%Codigo para el tiempo

for l=1:T

%%%% Codigo para simular difusiones

for i=1:Nx %paso en x

for j=1:Ny %paso en y

%%%Simula M difusiones partiendo de [x(i),y(j)]

% Esto me saca M puntos, se calcula u0 de dichos puntos

% y se guarda como un vector.

for k=1:M

[t,Y]=sde2(a,b,[x(i),y(j)]’,T,N);

uu(k)=feval(u0,Y(:,end));

end

%%%% Codigo que calcula la esperanza

uoo(i,j)=mean(uu); %u(l,i,j)=u(l,x(i),y(j))

u(l,i,j)=uoo(i,j);

clear uu;

end

end

figure

mesh(uoo);title(’Evolucion’)

end

t=toc;

C.7. Codigo para aproximar el ∞−laplaciano

function [u,cnt,t]=infinitylaplacian(B,f,tol,itmax,N)

%Este programa resuelve el problema del infinito laplaciano

%con un termino fuente f y datos de borde B en el cuadrado

%[-1/2,1/2]^2

%el metodo es iterativo

%tol es la tolerancia

%itmax es el numero maximo de iteraciones

%(N+1)^2 es el numero de puntos en la red

%B y f seran matrices

tic;

u=B;

Page 119: Sobre algunas relaciones entre la probabilidad y las ... · 2.2. Reconocimiento de siluetas y la ecuacio´n de Poisson . . . . . 38 2.3. ... la integracio´n de ecuaciones estocasticas,

C.7. CODIGO PARA APROXIMAR EL ∞−LAPLACIANO 119

u1=u;

umax=u;

umin=u;

v=u;

%La discretizacion de -inflap(u)=f es

%2u_ij-sup_i,j vecinos u -inf u=f_ij

%entonces u_ij=(f_ij+sup u + inf u)/2

err=1;

cnt=0;

while((err>tol)&(cnt<=itmax))

for j=2:N

for i=2:N

%calculamos esos supremos e infimos

umax(i,j)=max([v(i-1,j) v(i,j-1) u(i+1,j) u(i,j+1)]);

umin(i,j)=min([v(i-1,j) v(i,j-1) u(i+1,j) u(i,j+1)]);

u1(i,j)=umax(i,j)+umin(i,j);% asi el inflap es 2u-u1

v(i,j)=(f(i,j)+u1(i,j))/2;

E(i,j)=v(i,j)-u(i,j);

end

end

err=norm(E,inf);

cnt=cnt+1;

u=v;

end

u=flipud(u’);

t=toc;

Page 120: Sobre algunas relaciones entre la probabilidad y las ... · 2.2. Reconocimiento de siluetas y la ecuacio´n de Poisson . . . . . 38 2.3. ... la integracio´n de ecuaciones estocasticas,

Indice alfabetico

∞−laplaciano, 78, 80σ−algebra, 15, 24p-laplaciano, 87p−laplaciano, 78’tug of war con ruido’, 87’tug of war’, 801-laplaciano, 78, 89

accion, 55adveccion, 50aproximaciones sucesivas, 16arboles de decision, 41

base de Haar, 98base de Schauder, 98borelianos, 22

caminos en el espacio de fases, 60caminos en el espacio-tiempo, 60campos cuanticos, 60cilindros, 22concavidad, 41condiciones Dirichlet, 32condiciones Neumann, 32constante de Planck, 56curvas caracterısticas, 5, 67curvas caracterısticas aleatorias, 67

de Broglie, 56densidad de transicion, 27, 47desigualdad de Chevichev, 17desigualdad de Gronwall, 17difusion, 9, 21, 26, 38, 48difusion de Ito, 31, 46difusiones de Ito, 21dinamica de poblaciones, 52dominio, 27

dominios no acotados, 44dualidad onda-partıcula, 56

ecuacion de Burgers, 67ecuacion de Burgers no viscosa, 63ecuacion de Burgers viscosa, 63–65,

67, 71ecuacion de Chapman-Kolmogorov, 22,

54ecuacion de Euler, 62ecuacion de Fisher, 51ecuacion de Kolmogorov-Petrovskii-

Piskunov, 51ecuacion de Langevin, 14, 21ecuacion de Navier-Stokes, 62ecuacion de Ornstein-Uhlenbeck, 14ecuacion de Poisson, 38ecuacion de Schrodinger, 37, 57ecuacion del calor, 9, 28, 65ecuacion estocastica, 19, 28ecuacion ordinaria, 19ecuacion parabolica, 8, 47ecuaciones de Ito, 21ecuaciones de Stratonovich, 21ecuaciones elıpticas, 32ecuaciones estocasticas, 15ecuaciones parabolicas, 46EDO, 28, 68EDP, 33efectos relativistas, 55espın, 55espacio de caminos, 22esperanza, 24esperanza condicionada, 13estado de un sistema, 54estrategia, 80

120

Page 121: Sobre algunas relaciones entre la probabilidad y las ... · 2.2. Reconocimiento de siluetas y la ecuacio´n de Poisson . . . . . 38 2.3. ... la integracio´n de ecuaciones estocasticas,

INDICE ALFABETICO 121

existencia y unicidad (EDP), 106existencia y unicidad (SDE), 16exponencial, 51extension Lipschitz absolutamente mi-

nimizante, 79

formula de Bismut-Elworthy-Li, 30formula de Feynman-Kac, 37, 48, 59formula de Ito, 21, 29, 33, 34, 37, 38,

49, 101formula de representacion, 33flujo, 20flujo estocastico, 20, 46flujo irrotacional, 66forma caracterıstica, 42formulacion de Feynman, 53funcion armonica, 36funcion de transicion, 26funcional, 55

generador, 28, 29, 31, 33, 48

Holder, 11, 12, 19hamiltoniano, 42, 60historia, 80

imagenes, 41integracion funcional, 54integral de caminos, 25, 53integral de Ito, 14, 33, 107integral de Riemann, 14integral de Stratonovich, 14, 109integrales estocasticas, 61invariante, 61

juego de Spencer, 89juego diferencial, 78juego estocastico, 83

lagrangiano, 55, 60laplaciano, 33lema de Borel-Cantelli, 17, 99Lipschitz, 12, 30, 37, 77

metodo del umbral, 40metodos numericos, 91

mınimo, 55Markov, 12, 21, 26martingala, 105martingala local, 105matriz, 42mecanica clasica, 54mecanica cuantica, 53, 54medida de Feynman, 59medida de Wiener, 9, 21, 25, 47, 59medida de Wiener condicionada, 22,

55movimiento browniano, 7, 9, 12, 47,

97movimiento browniano con ramifica-

ciones, 51

nucleo, 47, 58, 60

operador de Green, 44operador de Weber, 76operador elıptico, 29, 42, 46operador no-local, 60operadores, 25orientacion, 41

partıculas relativistas, 60paseos aleatorios, 38potencial, 37, 42, 55principio de mınima accion, 55principio de programacion dinamica,

90proceso de Wiener, 15proceso escalonado, 108procesos de Levy, 31procesos estocasticos, 14progresivamente medible, 16propiedad del valor medio, 35puente browniano, 25, 47, 59punto crıtico, 55

regla de la cadena, 61regularidad de las ecuaciones estocasti-

cas, 20regularizacion, 59, 61ruido blanco, 13, 97

Page 122: Sobre algunas relaciones entre la probabilidad y las ... · 2.2. Reconocimiento de siluetas y la ecuacio´n de Poisson . . . . . 38 2.3. ... la integracio´n de ecuaciones estocasticas,

122 INDICE ALFABETICO

SDE, 68, 83semigrupo, 27, 46, 48semigrupo de contracciones, 27semigrupo de Feller, 29semimartingala, 105silueta, 39singularidades, 68solucion clasica, 36, 42solucion fundamental, 31sucesion, 109supermartingala, 86

teorema de extension de Kolmogo-rov, 22–24

teorema de regularidad de Kolmogo-rov, 10, 20, 99

teorema del lımite central, 9teorema del punto fijo de Banach, 77tiempo de parada, 32, 43, 104tiempos de parada, 46transformacion de Hopf-Cole, 63trayectorias, 10tug of war, 78, 84

variable aleatoria, 15variacion cuadratica, 12, 104variacion cuadratica conjunta, 104variacion total, 12

Page 123: Sobre algunas relaciones entre la probabilidad y las ... · 2.2. Reconocimiento de siluetas y la ecuacio´n de Poisson . . . . . 38 2.3. ... la integracio´n de ecuaciones estocasticas,

Bibliografıa

[A] P.Amore, ’Alternative representation for non-local operators andpath integrals’, arXiv:hep-th/0701032v3.

[ACJ] G.Aronsson,M.Crandall, P.Juutinen, ’A tour on the theory ofabsolutely minimizing functions’, Bull. Amer. Math. Soc., 41 (2004),439-505.

[App] D.Applebaum, Levy Processes and Stochastic Calculus, CambridgeStudies in Advanced Mathematics, 2004.

[BEJ] E.Barron,L.Evans,R.Jensen, ’Infinity laplacian, Aronsson’sequation and their generalizations’, Trans.Amer.Math.Soc. 360

(2008), 77-101

[BF] Y.N. Blagoveshcenskii y M.I. Freidlin, ’Some properties ofdiffusion processes depending on a parameter’, Dokl. Akad. Nauk.SSSR, 138 (1961), 508-511.

[C] P.Constantin, ’An Eulerian-Lagrangian approach for incompressi-ble fluids: local theory’. J.Amer.Math.Soc. 14 (2001), no.2, 263-278.

[CR] K.L. Chung y A.M. Rao, ’Feynman-Kac functional and theSchrodinger equation’. Seminar on Stochastic processes Birkhauser,1981.

[ChGR] F.Charro, J.Garcıa y J.D.Rossi, ’A mixed problem for the in-finity laplacian via tug-of-war games’. Calc.Var.Partial DifferentialEquations 34 (2009), 307-320.

[CI] P.Constantin y G.Iyer, ’A stochastic lagrangian representationof the 3-dimensional incompressible Navier-Stokes equations’, apa-recera en Communications on Pure and Applied Mathematics.

[DMT] R. Dalang, C.Mueller, R. Tribe, ’A Feynman-Kac-type for-mula for the deterministic and stochastic wave equations and otherp.d.e.’s’, arXiv:0710.2861v1 [math.PR].

123

Page 124: Sobre algunas relaciones entre la probabilidad y las ... · 2.2. Reconocimiento de siluetas y la ecuacio´n de Poisson . . . . . 38 2.3. ... la integracio´n de ecuaciones estocasticas,

124 BIBLIOGRAFIA

[Du] R.Durret, Stochastic calculus: a practical introduction, CRC Press,1996.

[Dy] E.B.Dynkin, Markov processes, vol I., Springer, 1965.

[E] A.Einstein, Investigations on the Theory of the Brownian Move-ment, ed. por R.Forth, Dover, 1956.

[Ev] L.C.Evans, Stochastic Differential Equations,http://math.berkeley.edu/evans.

[Ev2] L.C.Evans, Partial Diferential Equations, AMS, 2008.

[Ev3] L.C.Evans, ’The 1-laplacian, the ∞−laplacian and differential ga-mes’, Contemp. Math., 446 (2007), 245-254.

[Fe] R.P. Feynman, ’Space-time approach to non-relativistic quantummechanics’, Rev. of Mod. Phys, 20 (1948), 367-387.

[Fe2] R.P. Feynman, The principle of least action in quantum mecha-nics, ed por Laurie M. Brown, World scientific, 2005.

[FH] R.P. Feynman,A.R. Hibbs, Quantum mechanics and Path Inte-grals, McGraw-Hill, 1965.

[F] M. Freidlin, Fuctional integration and partial differential equa-tions, Princeton university press, 1985.

[Fr] A. Friedman, Stochastic differential equations and applications,vol.1, Academic press, 1975.

[GJ] J.Glimm, A.Jaffe Quantum physics, a functional integral point ofview second edition, Springer-Verlag, 1987.

[GKMPPT] C.Graham, T.Kurtz, S.Meleard, P.Protter,

M.Pulvirenti, D.Talay, Probabilistic Models for NonlinearPartial Differential Equations, Lecture Notes in Mathematics 1627,Springer-Verlag, 1996.

[GGSBB] L.Gorelick, M.Galun, E.Sharon, R.Basri, A.Brandt,’Shape Representation and Classification Using the Poisson Equa-tion’, IEEE transaction on pattern analysis and machine intelligen-ce, 28 (2006), no.12, 1991-2004.

[GT] D.Gilbarg, N.S.Trudinger, Elliptic partial differential equationsof second order, Springer-Verlag, 1970.

[I] S. Ito, Diffusion equations, American Mathematical Society, 1992.

Page 125: Sobre algunas relaciones entre la probabilidad y las ... · 2.2. Reconocimiento de siluetas y la ecuacio´n de Poisson . . . . . 38 2.3. ... la integracio´n de ecuaciones estocasticas,

BIBLIOGRAFIA 125

[Iy] G.Iyer ’A stochastic Lagrangian formulation of the incompressi-ble Navier-Stokes and related transport equations’, Ph.D. Thesis,University of Chicago, 2006.

[Iy2] G.Iyer, ’A stochastic lagrangian proof of global existence of theNavier-Stokes equations for flows with small Reynolds number’,Ann. Inst. H. Poincare Anal. Non Lineaire 26 (2009), 181-189.

[IN] G.Iyer, A.Novikov, ’The regularizing effects of resetting in a par-ticle system for the Burgers equation’, (Preprint)

[K] Kac, M. ’Wiener and integration in function spaces.’, Bull. Amer.Math. Soc. 72 (1966) 53-68.

[K2] Kac, M. ’On some connections between probability theory and dif-ferential and integral equations.’, Proceedings of the Second BerkeleySymposium on Mathematical Statistics and Probability (1950), 189-215.

[Kl] J.R. Klauder, ’The Feynman path integral: a historicalslice’,arXiv:quant-ph/0303034v1.

[Kle] H. Kleinert, Path integrals in quantum mechanics,statistics, poly-mer physics and financial markets, fourth edition, World Scientific,2006.

[KS1] R.Kohn S.Serfaty, ’A deterministic-control-based approach tomotion by curvature’, Comm.Pur.Appl.Math, 59 (2006), 344-407.

[KS2] R.Kohn S.Serfaty, ’Second order PDE’s and deterministic ga-mes’, (Preprint)

[Ku] H.Kunita, Stochastic differential equation and stochastic flows ofdiffeomorphism, Lecture Notes in Math. vol 1097, Springer, 1984.

[Ku2] H.Kunita, Stochastic flows and stochastic differential equations,Cambridge studies in advanced mathematics, 1997.

[LSU] O. Ladyzenskaya, V.Solonnikov, N.Uralceva, Linear an qua-silinear equations of parabolic type, American Mathematical Society,1968.

[McK] H.P. McKean, ’Application of brownian motion to the equationof Kolmogorov-Petrovskii-Piskunov’, Comm. Pur. Appl. Math., 28

(1975), 323-331.

[MP] P.Morters y Y.Peres, Brownian motion, disponible en versionelectronica en http://people.bath.ac.uk/maspm/book.pdf

Page 126: Sobre algunas relaciones entre la probabilidad y las ... · 2.2. Reconocimiento de siluetas y la ecuacio´n de Poisson . . . . . 38 2.3. ... la integracio´n de ecuaciones estocasticas,

126 BIBLIOGRAFIA

[NT] Nagasawa, M. and Tanaka, H ’The principle of variation forrelativistic quantum particles.’, Seminaire de Probabilites, 35, 1-27

[Ob] A. Oberman, ’A convergent difference scheme for the infinity la-placian: construction of absolutely minimizing Lipschitz extensions.’Mathematics of computation, 74 (2004), 1217-1230.

[O] B.Oksendal, Stochastic differential equations: an introduction withapplications, fifth edition, Springer-Verlag, 2000.

[PS] Y.Peres, S.Sheffield, ’Tug-of-war with noise: a game-theoreticview of the p-laplacian’, Duke Mathematical Journal, 145, (2008),91-120.

[PSSW] Y.Peres, O.Schramm, S.Sheffield y D.Wilson, ’Tug-of-warand the infinity laplacian’, aparecera en Jour. Amer. Math. Soc.

[R] S. Ramasubramanian, ’Reflecting brownian motion in a Lipschitzdomain and a conditional gauge theorem.’ The Indian Journal ofStatistics, 63 (2001), 178-193.

[S] B.Simon, Functional integration and quantum physics, Academicpress, 1979.

[Z] J. Zinn-Justin, Path integrals in quantum mechanics, Oxford Gra-duate Texts, 2005.