el metodo de las caracteristicas aleatorias: un ensayo · 2018-02-11 · el m´etodo de las...

41
El m´ etodo de las caracter´ ısticas aleatorias: Notas de clase Rafael Granero Belinch´on 1 22 de marzo de 2011 Resumen En estas clases estudiaremos la teor´ ıa de existencia y unicidad para las Ecuaciones Dife- renciales Estoc´asticas (ordinarias) y sus aplicaciones a las Ecuaciones en Derivadas Parciales. En concreto estudiaremos una generalizaci´ on del m´ etodo de las caracter´ ısticas. Estos apuntes son autocontenidos en la medida de lo posible, por lo que el lector que est´ e en apuros con la probabilidad puede consultar facilmente los teoremas necesarios en los ap´ endices. ´ Indice 1. Introducci´ on 2 I Bases de Procesos y Ecuaciones estoc´ asticas 6 2. Volvamos al movimiento browniano 6 3. Existencia y unicidad para las ecuaciones estoc´ asticas 10 4. La medida de Wiener 14 II Teor´ ıa para las ecuaciones lineales 17 5. Problemas Parab´olicos 18 5.1. La ecuaci´ on del calor ................................... 18 5.2. Ecuaciones parab´olicas generales ............................ 19 6. Problemas El´ ıpticos 26 6.1. La ecuaci´ on de Poisson .................................. 26 6.2. Ecuaciones el´ ıpticas generales .............................. 30 III Aplicaciones 31 7. Aplicaciones a las ecuaciones de los flu´ ıdos 31 7.1. La ecuaci´ on de Burgers ................................. 32 1 Email: [email protected], Consejo Superior de Investigaciones Cient´ ıficas, Instituto de Ciencias Matem´ aticas (CSIC-UAM-UC3M-UCM) C/ Nicol´as Cabrera, 13-15 Campus de Cantoblanco, 28049 - Madrid 1

Upload: others

Post on 13-Jul-2020

1 views

Category:

Documents


0 download

TRANSCRIPT

Page 1: El metodo de las caracteristicas aleatorias: un ensayo · 2018-02-11 · El m´etodo de las caracter´ısticas aleatorias: Notas de clase Rafael Granero Belinch´on1 22 de marzo de

El metodo de las caracterısticas aleatorias:

Notas de clase

Rafael Granero Belinchon1

22 de marzo de 2011

Resumen

En estas clases estudiaremos la teorıa de existencia y unicidad para las Ecuaciones Dife-renciales Estocasticas (ordinarias) y sus aplicaciones a las Ecuaciones en Derivadas Parciales.En concreto estudiaremos una generalizacion del metodo de las caracterısticas. Estos apuntesson autocontenidos en la medida de lo posible, por lo que el lector que este en apuros con laprobabilidad puede consultar facilmente los teoremas necesarios en los apendices.

Indice

1. Introduccion 2

I Bases de Procesos y Ecuaciones estocasticas 6

2. Volvamos al movimiento browniano 6

3. Existencia y unicidad para las ecuaciones estocasticas 10

4. La medida de Wiener 14

II Teorıa para las ecuaciones lineales 17

5. Problemas Parabolicos 18

5.1. La ecuacion del calor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 185.2. Ecuaciones parabolicas generales . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19

6. Problemas Elıpticos 26

6.1. La ecuacion de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 266.2. Ecuaciones elıpticas generales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30

III Aplicaciones 31

7. Aplicaciones a las ecuaciones de los fluıdos 31

7.1. La ecuacion de Burgers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32

1Email: [email protected],Consejo Superior de Investigaciones Cientıficas,Instituto de Ciencias Matematicas (CSIC-UAM-UC3M-UCM)C/ Nicolas Cabrera, 13-15Campus de Cantoblanco,28049 - Madrid

1

Page 2: El metodo de las caracteristicas aleatorias: un ensayo · 2018-02-11 · El m´etodo de las caracter´ısticas aleatorias: Notas de clase Rafael Granero Belinch´on1 22 de marzo de

8. Aplicaciones al Calculo Numerico 33

A. La formula de Ito 34

B. La integral de Ito 37

1. Introduccion

En la fısica, sin entrar demasiado en los detalles, hay dos tipos de fenomenos principales, losdifusivos y los conservativos. Dichos fenomenos se corresponden con dos tipos bien diferenciados deecuaciones en derivadas parciales, las parabolicas (ecuacion del calor) y las hiperbolicas (ecuacionde ondas) respectivamente. Las ecuaciones elıpticas (ecuacion de Poisson) pueden verse como elcaso estacionario de ambos fenomenos. Los comportamientos de dos ecuaciones de distinto tiposon bien distintos, ası como los metodos usuales para tratarlas.

Consideremos N partıculas de masa unidad de un gas ideal con choques perfectamente elasticosevolucionando segun las leyes de Newton en ausencia de fuerzas externas. Es decir, si xi(t) y vi(t)son las posicion y la velocidad de la partıcula i en el tiempo t > 0 se tiene

d

dtxi = vi,

d

dtvi = 0, i = 1, ...N. (1)

Consideremos ahora f(x, v, t) la funcion de densidad de las partıculas.1 Se tiene que dicha densidadevoluciona segun la ecuacion de Boltzmann

d

dtf(x, v, t) = ∂tf(x, v, t) +∇xf(x, v, t) · v +∇vf(x, v, t) ·

d

dtv

= ∂tf(x, v, t) +∇xf(x, v, t) · v = C, (2)

con C el termino de colision. Este termino en la distribucion de equilibrio sera 0.Si ahora nos preguntamos por las curvas caracterısticas de la ecuacion (2), las cuales conocemos

bien por ser esta ecuacion de primer orden, obtenemos las ecuaciones diferenciales ordinarias de(1).

Dado que en este modelo no podemos perder partıculas ni velocidad, estamos frente a un modeloconservativo. Ese es el motivo por el que la ecuacion en derivadas parciales que aparece es de tipohiperbolico. Observamos que para el problema de la evolucion de N partıculas de un gas ideal elmetodo de las caracterısticas hace equivalentes ambos enfoques, el microscopico, representado porlas ecuaciones diferenciales ordinarias, y el mesoscopico, encarnado en la ecuacion en derivadasparciales (2).

Consideremos ahora una partıcula de masa unidad que se encuentra inmersa en un fluıdo enreposo de manera que sufre constantemente choques con las partıculas del fluıdo. Que el fluıdoeste en reposo es importante para el tipo de choques que se daran, que en este caso seran igual denumerosos en todas direcciones. Sin embargo, si el fluıdo se moviese rapidamente en una direcciondeterminada nuestra partıcula sufrirıa mas choques en esa direccion que en las demas, lo que nosdarıa un termino de transporte ~b(x) en la ecuacion. Como la cantidad de partıculas del fluıdo esenorme podemos modelizar dichos choques con una fuerza aleatoria. Sea X(t) la posicion de dichapartıcula, y F la fuerza aleatoria. Las fuerzas presentes en la partıcula son el rozamiento, quees proporcional a la velocidad de la partıcula (Ley de Stokes), y la fuerza aleatoria causada porel bombardeo. La segunda ley de Newton aplicada a esta partıcula nos dice que la ecuacion delmovimiento es

d2

dt2X(t) = −µ d

dtX(t) + F. (3)

Esta ecuacion podemos escribirla como un sistema parecido a (1)

d

dtX = V,

d

dtV = −µV + F (4)

1De manera que la cantidad de partıculas en el volumen x+ dx con velocidades v+ dv para un cierto tiempo t esf(t, x, v)dxdv. Suponemos que N es tan grande que podemos tomar f(x, v, t) una funcion con argumentos continuos.

2

Page 3: El metodo de las caracteristicas aleatorias: un ensayo · 2018-02-11 · El m´etodo de las caracter´ısticas aleatorias: Notas de clase Rafael Granero Belinch´on1 22 de marzo de

Observamos el cambio de caracter de la ecuacion para la velocidad. En este caso perdemos ve-locidad, por lo que nuestro sistema no es conservativo, estamos frente a un proceso de difusion.Vemos que el cambio en las condiciones microscopicas, como no podıa ser de otra manera, alterael resultado mesoscopico.2

Ademas, la aparicion de un termino estocastico hace que necesitemos nuevas herramientas,como son las ecuaciones diferenciales estocasticas y el calculo estocastico, para entender el sistema(4). Estas herramientas se desarrollaron en el siglo XX y a dıa de hoy poseen una teorıa bienconocida. Nos referimos a los resultados de existencia, unicidad y regularidad para una ecuaciondiferencial estocastica (ordinaria), ası como con resultados como la formula de Ito, con la nocionde integal estocastica (en el sentido de Ito) o de medida de Wiener. El lector interesado puedeconsultar [Ku-84],[Ku-97],[O],[Ev], [Dy], [Du], [App] y [Fr].

Ası esperamos que unas ecuaciones diferenciales ordinarias como (1) sean equivalentes a unaecuacion del tipo hiperbolico como (2), mientras que unas ecuaciones diferenciales estocasticas(que son una generalizacion de una ecuacion ordinaria) sean equivalentes a una ecuacion de tipoparabolico, y por lo tanto con caracter difusivo. Equivalentemente podemos pensar en una ecuacionde conveccion-difusion como una generalizacion de una ecuacion de transporte, donde las carac-terısticas son aleatorias y es esta componente browniana lo que hace que aparezca el laplaciano.

Ver que ecuaciones en derivadas parciales nos dejan ecuaciones como (4) segun sea el terminoF , y que interpretacion y aplicaciones tienen sera el objetivo del ensayo.

El texto se organiza de la siguiente manera: en la primera parte trataremos las definicionesbasicas que nos permiten construir nuestra teorıa. En la segunda parte estudiaremos las ecuacionesen derivadas parciales lineales que involucran soluciones de ecuaciones diferenciales estocasticasgeneradas por un movimiento browniano. En esta seccion tenemos los resultados mas ’teoricos’ enel sentido de que pueden ser parte un curso avanzado de Ecuaciones Diferenciales o de ProcesosEstocasticos. Comenzaremos con el caso bien conocido de la ecuacion del calor en todo el espaciopara continuar con el problema de Cauchy para ecuaciones parabolicas mas generales con coefi-cientes autonomos bastante regulares. Veremos el caso de los problemas elıpticos, tanto en todoel espacio como en dominios acotados con frontera suave. En la tercera y ultima parte daremos(brevemente) varias aplicaciones de los resultados contenidos en las secciones anteriores. En estaultima parte se tratan algunos problemas no-lineales. Durante todo el texto daremos breves nocio-nes de la historia de la integral en funciones, la ’integral de caminos’, el movimiento browniano...ademas de esbozar algunos desarrollos, como pueden ser los ’juegos diferenciales’ y su relacion conoperadores elıpticos no-lineales, que complementan la teorıa que tratamos.

Un apunte historico: La ecuacion central de la teorıa cinetica es la ecuacion de Boltzmann

∂tf(x, v, t) +∇xf(x, v, t) · v +∇vf(x, v, t) ·d

dtv = C(f), (5)

donde C(f) es el termino de colision. La ecuacion

∂tf(x, v, t) +∇xf(x, v, t) · v +∇vf(x, v, t) ·d

dtv = 0, (6)

es la ecuacion de Vlasov (lineal). Estas ecuaciones fueron escritas ya por James C. Maxwell en 1866([Mx]). Son ecuaciones que describen la densidad de probabilidad de unas partıculas que evolu-cionan segun una ley microscopica que tiene un caracter estocastico. Tıpicamente las trayectoriasseran soluciones de ecuaciones diferenciales estocasticas. El mas famoso de estos procesos es elmovimiento browniano (ver Figura 1). Este proceso recibe su nombre en honor a Robert Brownquien lo describe en 1828 (ver [B]).

Albert Einstein en [E] estudia (matematicamente) el movimiento de partıculas inmersas en unfluıdo incompresible. En ese texto tambien trata la presion osmotica como un fenomeno basado enel movimiento browniano, que matematicamente es el proceso estocastico con incrementos inde-pendientes identicamente distribuıdos con distribucion normal de media 0 y varianza el incrementotemporal, i.e.

2Reservamos el termino macroscopico para las ecuaciones de Euler y Navier-Stokes, que se pueden deducir de laecuacion de Boltzmann tomando, al menos formalmente, unos lımites.

3

Page 4: El metodo de las caracteristicas aleatorias: un ensayo · 2018-02-11 · El m´etodo de las caracter´ısticas aleatorias: Notas de clase Rafael Granero Belinch´on1 22 de marzo de

Definicion 1 (Movimiento browniano). Dado un espacio de probabilidad (Ω,B, P ), se dice que unproceso W (ω, t), W : Ω× [0, T ] → R es un movimiento browniano si se cumple que

1. W (ω, 0) = 0 y t 7→W (ω, t) es continua c.t.p.

2. W (ω, t)−W (ω, s) ∼ N(0, t− s) ∀t ≥ s > 0

3. Los incrementos son independientes.

Senalamos que la condicion W (0) = 0 es para normalizar.

0 200 400 600 800 1000 1200−1.5

−1

−0.5

0

0.5

1

1.5

2

−1.6 −1.4 −1.2 −1 −0.8 −0.6 −0.4 −0.2 0 0.2 0.4−1

−0.5

0

0.5

1

1.5

2

Figura 1: a) Dos trayectorias de un movimiento browniano, b) un movimiento browniano en elplano.

0 1 2 3 4 5 6 7 8 9 10−2

0

2

4

6

8

10

v(t)

t −0.5 0 0.5 1 1.5 2−0.5

0

0.5

1

1.5

2

2.5

Figura 2: a) Algunas trayectorias de la solucion de la ecuacion de Langevin v, b) una trayectoriasolucion de la ec. de Langevin en 2D.

M.Smoluchowski en 1906 (ver [Sm]) tambien trabajo en la descripcion del movimiento brow-niano.

El proceso d ~W (t,ω)dt , la derivada (incremento) del movimiento browniano recibe el nombre de

ruido blanco y es el termino aleatorio perturbativo mas comun.3 Usaremos el ruido blanco paraperturbar una ecuacion diferencial ordinaria y obtener una ecuacion diferencial estocastica (ordi-naria). Para un tratamiento matematico moderno del movimiento browniano se puede consultar[MP].

Queremos senalar que la ecuacion

d

dt~V = −µ~V + ~F ,

en el caso en el que ~F es el ruido blanco recibe el nombre de ecuacion de Langevin, en honor delfısico Paul Langevin (ver Figura 1).

Un enfoque nuevo al movimiento browniano lo dio Norbert Wiener en 1923, con su artıculo[W]. En dicho texto Wiener observaba que al ser las trayectorias del movimiento browniano curvascontinuas para casi todo ω, el movimiento browniano podıa pensarse como una variable aleatoriaque tome valores en el espacio de las funciones continuas dependientes del tiempo. El enfoquedel movimiento browniano como un proceso estocastico es tratar ~W (t, ω) como unas variablesaleatorias indexadas segun el parametro t, mientras que el enfoque del movimiento browniano como

3Si bien hablamos coloquialmente de derivada del movimiento browniano, fijo ω, las trayectorias ~W (t, ω) no sonderivables para casi todo ω. La maxima regularidad es que seran Holder con α < 1/2.

4

Page 5: El metodo de las caracteristicas aleatorias: un ensayo · 2018-02-11 · El m´etodo de las caracter´ısticas aleatorias: Notas de clase Rafael Granero Belinch´on1 22 de marzo de

una variable aleatoria con valor en un espacio de funciones es tratar ~W (ω) = ω(t).4 Este segundoenfoque sera clave en todo este ensayo, por inducirnos una medida en el espacio de funciones.Integrando con respecto a esta medida resolveremos varias ecuaciones en derivadas parciales. Ellector que quiera abundar en este tema puede consultar los artıculos de Mark Kac [K-66],[K-50]y [K-47]. Los textos [K-66] y [K-47] contienen un resumen historico. Para un tratamiento masmoderno de la integracion funcional puede consultarse [F].

Wiener desarrollo esta teorıa mientras trabajaba en el problema de entender la turbulencia deun fluıdo. Encontro que la turbulencia tenıa relacion con el movimiento browniano. Debemos teneresto en mente para cuando lleguemos a la seccion de aplicaciones a las ecuaciones de los fluıdos.Ası en su autobiografıa escribe

“The problem of turbulence, was too complicated for immediate attack, but there wasa related problem which I found to be just right for the theoretical considerations of thefield I had chosen for myself. This was the problem of the Brownian motion, and it wasto provide the subject of my first major mathematical work.... Here I had a situationin which particles describe not only curves but statistical assemblages of curves. It wasan ideal proving ground for my ideas concerning the Lebesgue integral in a space ofcurves, and it had the abundantly physical texture of the work of Gibbs. It was to thisfield that I had decided to apply the work that I had already done along the lines ofintegration theory....”

Comentario 1 Para ser mas rigurosos al hablar de la fısica estadıstica debemos hacer notar queal tener todos estos modelos una escala microscopica las leyes validas no son las de la mecanicaclasica, sino las de la mecanica cuantica. Deberıamos hablar entonces de bosones y fermiones, perotodo esto nos llevarıa demasiado lejos y no es de interes para el tema del texto. Tambien deberıamoshablar de p, el momento de las partıculas, y de f(x, p, t) la densidad de las partıculas. Para loslectores interesados recomendamos el libro [Kub].

Comentario 2 Un modelo mas general que la ecuacion (4) es considerar un potencial U(x) queinteraccione con las partıculas, de manera que la fuerza, en el caso de que F sea un movimientobrowniano, es −∇U + dW (t, ω) − d

dtX. Ası nuestras partıculas evolucionan segun la ecuacionestocastica de segundo orden

d2

dt2~X =

√2d ~W

dt− d

dt~X −∇U( ~X) (7)

y se tiene que la densidad de las partıculas evoluciona segun la ecuacion de Fokker-Planck siguiente

∂tf +∇xf · v −∇xU(x) · ∇vf = ∆vf +∇v · (fv). (8)

Comentario 3 Debemos hacer aquı una observacion sobre la nomenclatura de la ecuacion deFokker-Planck. En la literatura a veces se llama ecuacion de Fokker-Planck a la ecuacion

∂tu =

d∑

i,j=1

∂yi∂yj

(aij(y)u)−∇y · (~b(y)u)− c(y)u. (9)

Nosotros trataremos una ecuacion muy similar. Para nosotros la ecuacion de Fokker-Planck es

∂tu =

d∑

i,j=1

aij(x)∂xi∂xj

u+~b(x) · ∇xu− c(x)u. (10)

La relacion entre ambas es sutil. Consideremos p(0, x, t, y) la solucion fundamental de la ecuacion(10). Demostraremos enseguida que nos define un semigrupo para una cierta clase de funciones,pero por el momento nos contentaremos con creerlo. Si escribimos dicho semigrupo, actuando sobref , como Ttf(x) y si escribimos A para su generador observamos que se tiene

Ttf(x) =

Rd

f(y)p(0, x, t, y)dy, Axf(x) =d∑

i,j=1

aij(x)∂xi∂xj

f +~b(x) · ∇f − c(x)f.

4Usualmente, utilizaremos la notacion ~W (t) para el movimiento browniano. Sin embargo, para hacer hincapie enla idea del movimiento browniano como una variable aleatoria con valores en un espacio funcional, escribiremosW (ω) ∈ C([0, T ]) o ω(t).

5

Page 6: El metodo de las caracteristicas aleatorias: un ensayo · 2018-02-11 · El m´etodo de las caracter´ısticas aleatorias: Notas de clase Rafael Granero Belinch´on1 22 de marzo de

Es un hecho bien conocido que los generadores de los semigrupos y el propio semigrupo conmutan,es decir AxTtf(x) = Tt(Ayf)(x). Ası, si tenemos suficiente regularidad para realizar los calculos,concluımos

AxTtf(x) =

Rd

Axp(0, x, t, y)f(y)dy =

Rd

p(0, x, t, y)Ayf(y)dy = Tt(Ayf)(x), (11)

y si integramos por partes en la ultima igualdad observamos que

Rd

p(0, x, t, y)Ayf(y)dy =

Rd

A∗yp(0, x, t, y)f(y)dy,

siendo el operador A∗y el adjunto de A. Un simple calculo nos ensena la relacion entre las ecuaciones

(9) y (10), que es que son una la adjunta de la otra, pues

A∗yf =

d∑

i,j=1

∂yi∂yj

(aij(y)f)−∇y · (~b(y)u)− c(y)u.

Como consecuencia extraemos que p(0, x, t, y) satisface la ecuacion (10) en x y (9) en y.

Parte I

Bases de Procesos y Ecuaciones

estocasticas

2. Volvamos al movimiento browniano

Veremos que el movimiento browniano es el paradigma mas sencillo de proceso estocastico, porlo tanto sera nuestro banco de pruebas.

Consideremos ahora una malla en dos dimensiones (una asociada al espacio y otra al tiempo)(ndx,mdt),m, n ∈ Z con incrementos dx y dt. Consideremos una partıcula que esta en tiempo 0en la posicion x = 0. Esta partıcula tiene una probabilidad 1/2 de moverse hacia la derecha o haciala izquierda, a la vez que automaticamente subira en la malla al ser el eje vertical el eje temporal.Tal y como hemos dicho anteriormente nuestro modelo quiere reflejar la situacion de una partıculaque se mueve ’al azar’ por estar sometida a choques aleatorios.

Sea p(n,m) la probabilidad de que esta partıcula este en la posicion ndx en tiempo mdt.Usando probabilidades condicionadas, se tiene que

p(n,m+ 1) =1

2(p(n− 1,m) + p(n+ 1,m))

y por lo tanto,

p(n,m+ 1)− p(n,m) =1

2(p(n− 1,m)− 2p(n,m) + p(n+ 1,m))

Si ahora suponemos quedx2

dt= D > 0 (12)

podemos escribir

p(n,m+ 1)− p(n,m)

dt=D

2

(p(n− 1,m)− 2p(n,m) + p(n+ 1,m))

dx2

La condicion en el cociente que hemos establecido en (12) es necesaria para obtener una ecuacionparabolica, si considerasemos otra distinta el lımite resultante no tendrıa sentido.

6

Page 7: El metodo de las caracteristicas aleatorias: un ensayo · 2018-02-11 · El m´etodo de las caracter´ısticas aleatorias: Notas de clase Rafael Granero Belinch´on1 22 de marzo de

Formalmente, asumiendo que los lımites que tomamos a continuacion existen, haciendo dx, dt →0 pero guardando (12) y escribiendo ndx = x, mdt = t, resulta que nuestra probabilidad discretaconverge a una densidad,

p(n,m) → f(x, t)

y obtenemos que la densidad verifica la ecuacion del calor con parametro D/2

∂tf(x, t) =D

2∆f(x, t), f(x, 0) = δ0(x) (13)

La hipotesis (12) es clave y nos garantiza que la ecuacion que obtenemos es la de difusion, comopor otra parte debe ser dado el modelo que hemos considerado. Nuestra constante D sera igual ala unidad en el movimiento browniano estandar.

Estos calculos son puramente formales, pues entre otras cosas, el paso al lımite anterior no esriguroso. Sin embargo se puede formalizar de manera precisa por medio del teorema del lımite cen-tral, el cual nos confirma que la probabilidad del proceso definido anteriormente viene dada por unadistribucion normal N(0, Dt). Todos estos calculos se encuentran, convenientemente justificados,en [Ev].

Consideramos ahora unos tiempos t1, t2..., tn y unos intervalos B1, ...Bn. Podemos calcular lasprobabilidades de que nuestro movimiento browniano este en tiempo ti en el intervalo Bi utilizandolas propiedades anteriores. Sea

p(t, x, y) =1√2πt

exp

(−|x− y|22t

)

P (a1 < W (t1) < b1, ...an < W (tn) < bn) =∫

B1

...

Bn

p(t1, 0, x1)p(t2 − t1, x1, x2)...p(tn − tn−1, xn−1, xn)dxn...dx1 (14)

Este calculo sera relevante a la hora de construir la medida de Wiener.Por un argumento estandar de aproximacion, una vez establecida para funciones escalonadas,

podemos generalizar esta formula para funciones

E[f(W (t1), ...,W (tn))] =∫

Rn

f(x1, ..., xn)p(t1, 0, x1)p(t2 − t1, x1, x2)...p(tn − tn−1, xn−1, xn)dxn...dx1 (15)

Comentario 4 Mas tarde veremos que (15) puede entenderse como una ’integral en funciones’ya que, fijo T , podemos ver el movimiento browniano como una aplicacion W (ω) : Ω 7→ C([0, T ]),y ası f sera una funcion que recibe como argumento otra funcion. Un calculo similar y un paso allımite permitio a Wiener definir su medida y a Feynman dar una nueva formulacion de la mecanicacuantica (ver secciones 1.3 y 3.3).

De la definicion podemos concluir facilmente que

E[W (t)] = 0, E[W 2(t)] = t

Podemos calcular la covarianza de forma parecida. Si s < t entonces

E[W (t)W (s)] = E[(W (s) +W (t)−W (s))W (s)] = s+ E[(W (t)−W (s))W (s)] = s

Para sus aplicaciones en ecuaciones diferenciales, nos interesan las propiedades de sus trayecto-rias. Antes de poder demostrar nada, hemos de enunciar el teorema de regularidad de Kolmogorovcuya prueba puede encontrarse en [Ev]:

Teorema 1 (Kolmogorov). Sea X un proceso estocastico con trayectorias continuas c.t.p. tal que

E[|X(t)−X(s)|β] ≤ C(t− s)1+α, ∀t, s ≥ 0

entonces para todo 0 < γ < αβ y T > 0 existe K(ω) tal que

|X(t)−X(s)| ≤ K|t− s|γ

7

Page 8: El metodo de las caracteristicas aleatorias: un ensayo · 2018-02-11 · El m´etodo de las caracter´ısticas aleatorias: Notas de clase Rafael Granero Belinch´on1 22 de marzo de

Veamos que el movimiento browniano cumpla la hipotesis del teorema. Fijemos t > s, entoncesse tiene

E[|W (t)−W (s)|2m] =1

2π(t− s)

R

|x|2m exp(−|x|2/2(t− s))dx

=(t− s)m√

R

|y|2m exp(−|y|2/2)dy

= C|t− s|m

donde hicimos el cambio natural, que ya intuıamos util en los calculos formales anteriores (12),

y =x√t− s

(16)

La hipotesis se cumple con β = 2m y α = m − 1. Entonces se ha de tener que γ < αβ = 1

2 − 12m

para todo m y concluımos que γ < 12 .

Hemos demostrado que el movimiento browniano tiene trayectorias Holder continuas en [0, T ]con exponente γ < 1/2. Este resultado es optimo en el sentido de que ningun otro γ ≥ 1

2 nosservira. La prueba es la siguiente. Si tuvieramos una estimacion Holder con γ = 1/2 entonces secumplirıa

sup0<s<t<T

|W (t)−W (s)||t− s|1/2 ≤ C(ω) c.t.p. (17)

Una desigualdad como la anterior no es posible, pues, si consideramos una particion 0 = t1 <t2... < tn = T ,

sup0<s<t<T

|W (t)−W (s)|(t− s)1/2

≥ supi

|W (ti+1)−W (ti)|(ti+1 − ti)1/2

Hemos minorado la expresion original por unas variables aleatorias (hemos fijado los tiempos)independientes e identicamente distibuidas con distribuciones conocidas (normales estandar), porlo que podemos calcular explıcitamente la probabilidad de que el supremo de dichas variables seamayor que un cierto parametro L. Si tomasemos γ distinto de 1/2 entonces no quedarıan variablesidenticamente distribuıdas.

P

(

supi

|W (ti+1)−W (ti)|(ti+1 − ti)1/2

≥ L

)

= 1− P

( |W (t2)−W (t1)|(t2 − t1)1/2

)n

→ 1, si n→ ∞

Como L era arbitrario podemos tomarlo tan grande como queramos y concluir que no existe talconstante, por lo que no es Holder continua. Como no es Lipschitz en ningun intervalo de tiempoconcluımos que no es derivable en casi ningun punto, es decir, una partıcula en un medio que semueva como un movimiento browniano no tendra bien definida la velocidad en ningun punto. Estapropiedad presenta graves dificultades de interpretacion desde el punto de fısico, que resolveremosmas adelante mediante otro modelo diferente. Otra demostracion, obra de Erdos, Kakutani yDevoretzky, de este hecho puede encontrarse en [Ev].

Queremos remarcar que este proceso estocastico no es de variacion total acotada, pues si lofuese, dada una particion, se tendrıa

n∑

i=0

|W (ti+1)−W (ti)|2 ≤ maxi

(|W (ti+1)−W (ti)|)n∑

i=0

|W (ti+1)−W (ti)|

≤ V (0, T )maxi

(|W (ti+1)−W (ti)|),

y esta ultima expresion tiende a cero por la continuidad del movimiento browniano confor-me refinamos la particion. La contradiccion esta en que la variacion cuadratica del movimientobrowniano es mayor que cero, por lo tanto V (0, T ), la variacion total no puede ser acotada.

Hemos demostrado ası el siguiente resultado:

Teorema 2. El movimiento browniano tiene trayectorias Holder continuas con exponente γ <12 . Este exponente es optimo, en particular sus trayectorias no tienen variacion acotada ni sonderivables en casi ningun punto.

8

Page 9: El metodo de las caracteristicas aleatorias: un ensayo · 2018-02-11 · El m´etodo de las caracter´ısticas aleatorias: Notas de clase Rafael Granero Belinch´on1 22 de marzo de

Una propiedad muy importante de los procesos que vamos a estudiar es la propiedad de Markov,que viene a decir que el proceso no guarda memoria de la historia pasada. O de forma mas precisa,

Definicion 2 (Proceso de Markov). Sea X(t). Es un proceso de Markov si cumple que, dada Fs

la fitracion generada por el proceso (ver apendices),

P [X(t) ∈ B|Fs] = P [X(t) ∈ B|X(s)] c.t.p., ∀t > s

Es decir, suponiendo que podemos definir el proceso X empezando en cualquier punto x, seha de cumplir que X empiece de nuevo en todo tiempo, sin recordar por donde ya paso o dejo depasar. Para ver la definicion y propiedades de la esperanza condicionada puede consultarse [Ev].Siendo el movimiento browniano el origen y prototipo de todos estos procesos, el primer paso escomprobar que la verifica.

Teorema 3. El movimiento browniano, W , es un proceso de Markov.

Demostracion. Observamos que X(t) = W (t + s) − W (s), t ≥ 0 es un movimiento browniano(que partio del origen). Ademas es independiente de W (t), 0 ≤ t ≤ s, por la propiedad 3 de ladefinicion del movimiento browniano.5 Entonces se tiene queW (t+s) es un movimiento brownianoque empezo en W (s).

Siendo el movimiento browniano un proceso tan relevante hay una extensa literatura donde sepueden consultar mas exhaustivamente sus propiedades, por ejemplo pueden consultarse [MP],[Du].Como no es el tema central de este texto, nos remitimos a las referencias antes citadas parasu estudio detallado, y retomaremos el tema con el que empezamos, nuestro modelo para unapartıcula en un medio sometida a un bombardeo aleatorio. Nuestro primer modelo, el movimientobrowniano, vimos que no tenıa una velocidad definida en casi ningun punto y que era de variacionno acotada en cualquier intervalo. Como eso plantea dificultades desde el punto de vista fısico,vamos a presentar un modelo alternativo. En lugar de estudiar la posicion de la partıcula vamos afijarnos en su velocidad. Sea v(t) la velocidad de la partıcula. Las fuerzas a las que esta sometidason el rozamiento, que sera proporcional a la velocidad, y un termino aleatorio que refleja losbombardeos. Anticipandonos, escribiremos el termino aleatorio como dW

dt y lo llamaremos ruidoblanco. En un cierto sentido, si lo que estamos modelizando es la velocidad, esta funcion deberıaser la ’derivada’ del movimiento browniano (ver [Ev]).

Por la segunda ley de Newton, denotando por −av(t)dt el termino de rozamiento, tenemos

dv(t) = −av(t)dt+ bdW, v(0) = v0, (18)

que recibe el nombre de ecuacion de Langevin. La posicion vendra dada por

dx(t) = v(t), x(0) = x0.

La posicion verificara la ecuacion de Ornstein-Uhlenbeck. Formalmente, podemos tratar la ecuacionde Langevin como si fuese una EDO normal y escribir su solucion

v(t) = e−atv0 + b

∫ t

0

e−a(t−s)dW (s). (19)

El problema es dar sentido al termino∫ t

0 e−a(t−s)dW (s), que no es una integral de Riemann, sino

una integral estocastica, que se interpreta en el sentido de la integral de Ito (ver [Ev], [Du], [MP]y apendices).6

Las ideas con las que debemos quedarnos es que el objeto definido en (18) (una ecuaciondiferencial estocastica) no tiene sentido tal y como esta ahı, esa manera de presentarlo es soloformal, solo tiene sentido escrito en su forma integral (una vez que hemos definido la integral deIto) que es

v(t) = v0 +

∫ t

0

−av(s)ds+∫ t

0

bdW (s) (20)

5Dos procesos X(t), Y (t) se dicen independientes si para todo par de conjuntos de tiempos ti, si se tiene que elvector formado (X(t1), ..,X(tn)) es independiente del vector (Y (s1), ..., Y (sn)).

6Hay otra manera importante de interpretar este tipo de integrales, la integral de Stratonovich (ver apendices).

9

Page 10: El metodo de las caracteristicas aleatorias: un ensayo · 2018-02-11 · El m´etodo de las caracter´ısticas aleatorias: Notas de clase Rafael Granero Belinch´on1 22 de marzo de

Las soluciones de esta integracion son procesos estocasticos y por lo tanto, aleatorios. Podemosinterpretar las ecuaciones estocasticas como una EDO en cada ω. La siguiente seccion esta dedicadaal estudio de cuando un problema como (18) esta bien propuesto y que propiedades verifica susolucion.

3. Existencia y unicidad para las ecuaciones estocasticas

Una vez hemos presentado algunos modelos de ecuaciones estocasticas, es el momento de darla definicion general. Sea ~X0 una variable aleatoria n−dimensional y sea ~W un proceso de Wienerm−dimensional e independiente de nuestra variable ~X0.

7

Como σ−algebra consideramos la engendrada por la variable aleatoria inicial y el movimientobrowniano, esto es8

F(t) = Σ ~X0, ~W (s) 0 ≤ s ≤ t.Sean dos funciones

~b : Rd × [0, T ] → Rd

σ : Rd × [0, T ] → Md×m

donde Md×m es el espacio de las matrices de dimension d×m.Dado que las trayectorias del movimiento browniano no son suaves, no podemos esperar so-

luciones derivables para las ecuaciones estocasticas. Como hemos observado anteriormente, estasecuaciones solo tienen sentido en su formulacion integral. Antes de ver la definicion de solucion dela ecuacion estocastica necesitamos otras

Definicion 3 (Procesos progresivamente medible). Una funcion f(s, ω) es progresivamente mediblesi es medible en el conjunto [0, T ]×Ω con respecto a la σ−algebra B × F , la menor σ−algebra en[0, T ]×Ω que contiene a los conjuntos A×B con A en [0, T ] y B en Ω. Tambien se conoce comoindependiente del futuro.

Definicion 4 (Espacios Lp para los procesos). Para los procesos f(s, ω) se definen los siguientesespacios

L1([0, T ]) = f(s, ω), E

[∫ T

0

|f(s)|ds]

<∞.

Para un p general se considera

Lp([0, T ]) = f(s, ω), E

[∫ T

0

|f(s)|pds]

<∞.

Definicion 5. Se dice que el proceso estocastico ~X(t) es solucion de la ecuacion diferencial es-tocastica

d ~X = ~b( ~X, t)dt+ σ( ~X, t)d ~W , ~X(0) = ~X0 (21)

si se cumplen

1. ~X(t) es progresivamente medible.

2. ~b( ~X(t), t) ∈ L1[0, T ].

3. σ( ~X(t), t) ∈ L2[0, T ].

4.

~X(t) = ~X0 +

∫ t

0

~b( ~X(s), s)ds+

∫ t

0

σ( ~X(s), s)d ~W c.t.p. ∀ 0 ≤ t ≤ T (22)

7Movimiento browniano y proceso de Wiener son terminos que se emplean indistintamente a lo largo de todo eltexto.

8Notaremos como ΣX(s), 0 ≤ s ≤ t a la σ−algebra generada por el proceso X(s). Pedimos atencion al lector paraque no se confunda con la difusion de la ecuacion, la cual, tradicionalmente, tambien se denota por σ.

10

Page 11: El metodo de las caracteristicas aleatorias: un ensayo · 2018-02-11 · El m´etodo de las caracter´ısticas aleatorias: Notas de clase Rafael Granero Belinch´on1 22 de marzo de

Que consideremos solo las ecuaciones de primer orden no es una restriccion, pues una ecuacionde grado n se puede escribir como n ecuaciones de grado uno.

Para probar la existencia y la unicidad utilizaremos el metodo de aproximaciones sucesivas,exactamente igual que con las EDO.

Ası el teorema es

Teorema 4 (Existencia y unicidad). Supongamos que tanto ~b como σ son funciones Lipschitz enla variable espacial y para todos los tiempos en el intervalo [0, T ]

i.e. |~b(x, t) −~b(x′, t)| ≤ L1|x− x′|, ∀ 0 ≤ t ≤ T

|σ(x, t) − σ(x′, t)| ≤ L2|x− x′|, ∀ 0 ≤ t ≤ T

Sea ~X0 una variable aleatoria en L2[0, T ] independiente del movimiento browniano considerado.Entonces existe un unico proceso en L2[0, T ] tal que es solucion de la ecuacion (21).9

Antes de demostrarlo damos varios resultados necesarios que dejamos sin demostracion (ver[O] y [Ev]).

Lema 1 (Desigualdad de Gronwall). Sean φ un funcion no negativa definida en el intervalo 0 ≤t ≤ T , y sean C0, A unas constantes. Si se cumple

φ(t) ≤ C0 +

∫ t

0

Aφ(s)ds ∀ 0 ≤ t ≤ T

entonces se tieneφ(t) ≤ C0 exp(At).

Teorema 5 (Desigualdad para martingalas). Sea X una martingala entonces se tiene, si 1 < p <∞,

E

(

max0≤s≤t

|X(s)|p)

≤(

p

p− 1

)p

E(|X(t)|p).

Lema 2 (Desigualdad de Chevichev). Sea X variable aleatoria, entonces para todo λ > 0 yp ∈ [1,∞) se tiene

P (|X | ≥ λ) ≤ E(|X |p)λp

Lema 3 (Borel-Cantelli). Denotamos por An i.o. al lımite superior de esta familia de conjuntos.Es decir, aquellos elementos que estan un numero infinito de veces. Entonces si

∞∑

n=1

P (An) <∞

entoncesP (An i.o.) = 0

Ahora sı que podemos pasar a la demostracion del teorema de existencia y unicidad para lasecuaciones estocasticas.

Demostracion. (Unicidad) Supongamos que hay dos soluciones ~X y ~X ′. Restandolas obtenemos

~X(t)− ~X ′(t) =

∫ t

0

~b( ~X(t), t)−~b( ~X ′(t), t)dt+

∫ t

0

σ( ~X(t), t)− σ( ~X ′(t), t)d ~W

Entonces se tiene que

E(| ~X(t)− ~X ′(t)|2) ≤ 2E

(∣

∫ t

0

~b( ~X(t), t)−~b( ~X ′(t), t)ds

2

+

∫ t

0

σ( ~X(t), t)− σ( ~X ′(t), t)d ~W

2)

9En el sentido de que si hay dos entonces son iguales en casi todo punto.

11

Page 12: El metodo de las caracteristicas aleatorias: un ensayo · 2018-02-11 · El m´etodo de las caracter´ısticas aleatorias: Notas de clase Rafael Granero Belinch´on1 22 de marzo de

Observamos que podemos utilizar Cauchy-Schwarz y la condicion de ser Lipschitz para acotarcada termino.

E

(∣

∫ t

0

~b( ~X(t), t)−~b( ~X ′(t), t)ds

2)

≤ TE

(∫ t

0

~b( ~X(t), t)−~b( ~X ′(t), t)

2)

≤ L2T

∫ t

0

E(| ~X(t)− ~X ′(t)|2)

Para acotar el segundo sumando utilizamos las propiedades de la integral de Ito ([Ev],[Du]).

E

(∣

∫ t

0

σ( ~X(t), t)− σ( ~X ′(t), t)d ~W

2)

= E

(∫ t

0

σ( ~X(t), t)− σ( ~X ′(t), t)

2

ds

)

≤ L2

∫ t

0

E(| ~X(t)− ~X ′(t)|2)ds

Y, considerando las dos desigualdades

E(| ~X(t)− ~X ′(t)|2) ≤ C

∫ t

0

E(| ~X(t)− ~X ′(t)|2)ds

Ahora podemos utilizar la desigualdad de Gronwall con

φ(t) = E(| ~X(t)− ~X ′(t)|2), C0 = 0

y concluımos que ~X y ~X ′ son iguales en casi todo punto para todo tiempo.(Existencia) Consideraremos las aproximaciones

~Xn+1(t) = ~X0 +

∫ t

0

~b(Xn(s), s)ds+

∫ t

0

σ( ~Xn(s), s)d ~W

Usaremos el siguiente resultado (cuya demostracion, basada en un metodo de induccion, puedeconsultarse en [Ev]):

Sea la ’distancia’dn(t) = E(| ~Xn+1(t)− ~Xn(t)|2)

Entonces se cumple

dn(t) ≤ (Mt)n+1

(n+ 1)!∀ n = 1, ..., 0 ≤ t ≤ T

para alguna constante M =M(L, T, ~X0).Se tiene, por los calculos anteriores, que

max0≤t≤T

| ~Xn+1(t)− ~Xn(t)|2 ≤ L2T 2

∫ T

0

| ~Xn(t)− ~Xn−1(t)|2dt

+ max0≤t≤T

2

∫ t

0

σ( ~Xn(s), s)− σ( ~Xn−1(s), s)d ~W

2

Ahora usamos el teorema 5 y el resultado anterior y concluımos que se tiene

E[ max0≤t≤T

| ~Xn+1(t)− ~Xn(t)|2] ≤ L2T 2

∫ T

0

| ~Xn(t)− ~Xn−1(t)|2dt

+ 8L2

∫ T

0

| ~Xn(t)− ~Xn−1(t)|2dt

≤ C(MT )n

n!

Aplicando la desigualdad de Chevichev y el lema de Borel-Cantelli concluımos que

P

(

max0≤t≤T

| ~Xn+1(t)− ~Xn(t)| > 1

2ni.o.

)

= 0

12

Page 13: El metodo de las caracteristicas aleatorias: un ensayo · 2018-02-11 · El m´etodo de las caracter´ısticas aleatorias: Notas de clase Rafael Granero Belinch´on1 22 de marzo de

Entonces para casi todo ω, ~Xn converge uniformemente en [0, T ] a un proceso ~X. Pasando al

lımite en la definicion de ~Xn+1 y en las integrales concluımos que el proceso lımite es solucion de laecuacion (22). La prueba de que el proceso esta en L2 puede consultarse en [Ev] o en [O]. La pruebase basa en la definicion recurrente del proceso Xn+1(t) y en la suma de la serie exponencial.

Dado que una ecuacion estocastica es una generalizacion de una ecuacion ordinaria, podıamosesperar que la demostracion fuese similar. Sin embargo, dado que el browniano no es derivable encasi ningun punto, en general no podremos esperar que una solucion de una ecuacion estocasticavaya a ser diferenciable. La maxima regularidad que podemos esperar es la misma que para elbrowniano, que es Holder-α con α < 1/2 en tiempo. En las condiciones del teorema tendremosHolder-β con β < 1 en espacio.

Para introducir la idea de flujo estocastico, que no es mas que la version aleatoria de la idea deflujo de las EDO, usaremos un nuevo parametro s, el tiempo inicial, y escribiremos ~Xt

s(x) para lasolucion de

d ~X(t) = ~b( ~X(t), t)dt+ σ( ~X(t), t)d ~W , ~X(s) = x (23)

Ası se tiene la propiedad de flujo

~Xtu(~Xus (x)) =

~Xts(x) en c.t.p. ∀ 0 ≤ s ≤ u ≤ t ≤ T, ∀x ∈ R

d (24)

La demostracion de este hecho puede verse en las notas del curso impartido por M.Gubinelli en supagina web o en [Ku-84].

Para hablar de la regularidad respecto de los parametros necesitamos una desigualdad parapoder aplicar el teorema de Kolmogorov. En [BF] puede encontrarse

E[| ~Xts(x)− ~Xt′

s′(x′)|p] ≤ C[|x− x′|p + |s− s′|p/2 + |t− t′|p/2] (25)

Ahora, si consideramos x = x′ y queremos ver el exponente de Holder en el tiempo tenemosque aplicar el teorema de Kolmogorov de manera identica a como lo hicimos en la seccion anterior.Concluımos que, vista la solucion como una funcion en s (o en t) el exponente de Holder es γ < 1/2.Verlo para el espacio es similar. Consideremos ahora s = s′, t = t′. Entonces aplicamos el teoremade Kolmogorov y concluımos que el exponente es γ < 1. Hemos demostrado ası el resultado siguiente

Teorema 6 (Regularidad). Sea una ecuacion estocastica con coeficientes bajo las hipotesis del

teorema 4. Y sea ~Xts(x) su solucion. Entonces se tiene

1. s 7→ ~Xts(x) es Holder-γ si γ < 1/2.

2. t 7→ ~Xts(x) es Holder-γ si γ < 1/2.

3. x 7→ ~Xts(x) es Holder-γ si γ < 1.

Claro esta que si se tiene una mayor regularidad en las funciones ~b y σ entonces se tendra mayorregularidad en el espacio. En concreto se tiene

Teorema 7. Sean los coeficientes de la ecuacion estocastica funciones Ck,α en x, entonces lasolucion Xt

0(x) es Ck,β en x con β < α.

En el tiempo no ganaremos nada, porque el contraejemplo del movimiento browniano lo impide.Para las demostraciones rigurosas de estas afirmaciones puede consultarse [Ku-84].

Teorema 8. Sean los coeficientes de la ecuacion estocastica satisfaciendo las hipotesis del teorema4, entonces existe c constante tal que dos soluciones de la misma ecuacion con distintos valoresiniciales cumplen

E[| ~X1(t)− ~X2(t)|2] ≤ |x1 − x2|2ect.

Demostracion. La idea de la prueba es aplicar la formula de Ito (ver apendices) a la funcion norma,

ρ2( ~X1(t), ~X2(t)) =

d∑

i=1

(X i1(t)−X i

2(t))2

Una vez que hemos hecho esto, aplicamos la desigualdad de Gronwall.

13

Page 14: El metodo de las caracteristicas aleatorias: un ensayo · 2018-02-11 · El m´etodo de las caracter´ısticas aleatorias: Notas de clase Rafael Granero Belinch´on1 22 de marzo de

Hay que mencionar que hay dos tipos de ecuaciones estocasticas, cada uno de ellos basado enuna integracion estocastica diferente. Son las ecuaciones de Ito, que se basan en la integral de Ito yson las que trataremos aquı, y las de Stratonovich, que se basan en la integral del mismo nombre.Para mas detalles se pueden consultar los apendices.

Las ecuaciones estocasticas podemos considerarlas como generalizaciones de la ecuacion deLangevin para una partıcula suspendida en un medio y sometida a bombardeos aleatorios quecambian su velocidad. Es entonces facil establecer que reflejan una difusion10.

Pensando en las soluciones como difusiones es posible convencerse de que verificaran la propie-dad de Markov, esto es, que son procesos de Markov. La prueba rigurosa se puede consultar en [O].En cualquier caso esto no es sorprendente, pues la aleatoriedad aparecıa por medio del movimientobrowniano, y este es un proceso de Markov. No ha de preocuparnos que los coeficientes puedandepender de t, pues podemos suponerlos independientes si anadimos t como otra coordenada de laincognita ~X(t) ∈ R

d+1.Veremos que el hecho de ser un proceso markoviano nos da un semigrupo de operadores. Pero

antes necesitamos definir la medida de Wiener.

4. La medida de Wiener

En esta seccion presentaremos la medida de Wiener para poder continuar definiendo los se-migrupos asociados a procesos de Markov en la seccion siguiente. Necesitamos esta medida paraintegrar en las funciones y construir ası soluciones de una EDP.

La medida de Wiener es la inducida por el movimiento browniano, visto, no como una funcion~W (ω, t), sino como

~W : Ω 7→ C([0, T ],Rd)

Lo trataremos entonces como una variable aleatoria que toma valores en un espacio de funciones. Enefecto, sea x un punto cualquiera, entonces podemos considerar los siguientes espacios de funciones

Cx([0, T ],Rd) = f ∈ C([0, T ],Rd), f(0) = x (26)

Cyx([0, T ],R

d) = f ∈ C([0, T ],Rd), f(0) = x, f(T ) = y (27)

Podemos definir una medida en el espacio, (26) considerando un movimiento browniano que no

parta de 0 sino de x.11 O equivalentemente podemos considerar el proceso ~V (t) = x+ ~W (t).En el segundo caso, (27), la medida construıda se dice condicionada ya que hemos impuesto el

extremo final.La manera rigurosa de construir ambas es similar.12 Para simplificar, consideraremos el ca-

so unidimensional (d = 1) y x = 0.13 Consideraremos los conjuntos (que llamaremos cilindros)siguientes14. Dados tiempos t1, ...tn y borelianos en R B1, ...,Bn definimos el conjunto

ΠB1,...,Bn

t1,...,tn = f ∈ C0([0, T ],R), f(ti) ∈ Bi (28)

Hemos de asignarles una probabilidad, y es ahora donde el calculo previo (14) nos ayuda. Pues lesasignamos la probabilidad usandolo.

W(ΠB1,...,Bn

t1,...,tn ) =

B1

. . .

Bn

n−1∏

i=0

1

(√2πti+1 − ti)

e−|x1|2t1 e

−|x2−x1|2(t2−t1) ...e

−|xn−xn−1|2(tn−tn−1) dxn...dx1 (29)

Observamos que si para cierto tiempo nuestro boreliano es todo el espacio entonces ese tiempo nocuenta, i.e. si en ti se tiene Bi = R entonces

W(ΠB1,...,Bn

t1,...,tn ) = W(ΠB1,...Bi−1,Bi+1,...,Bn

t1,...,ti−1,ti+1,...,tn )

10De hecho a la funcion ~b se le llama drift, a σ, termino de difusion y a las soluciones de ecuaciones como (21),difusiones de Ito.

11Lo llamaremos espacio de caminos del ingles ’path space’ Cada una de las funciones sera un camino (’path’)12Las separa una integracion (ver capıtulo 3)13Notaremos W0 = W .14Hay varias maneras de construir la medida de Wiener. Nosotros optaremos por considerar los cilindros y utilizar

el teorema de extension de Kolmogorov. Otra demostracion se puede consultar en [GJ].

14

Page 15: El metodo de las caracteristicas aleatorias: un ensayo · 2018-02-11 · El m´etodo de las caracter´ısticas aleatorias: Notas de clase Rafael Granero Belinch´on1 22 de marzo de

0 50 100 150 200 250 300 350−0.8

−0.6

−0.4

−0.2

0

0.2

0.4

0.6

t

B1

B2

B3

B4

Figura 3: Los cilindros.

Esto es una consecuencia de la ecuacion de Chapman-Kolmogorov. Si

p(t, x, y) =1√2πt

exp(−(x− y)2/2t)

entonces la ecuacion de Chapman-Kolmogorov se puede escribir

p(s+ t, x, y) =

R

p(s, x, z)p(t, z, y)dz (30)

es decir, la probabilidad de ir en s+ t de x a y es la misma que la de ir de x a z en s y de z a yen t siempre que contemos todos los z posibles.

Para poder utilizar el teorema de extension de Kolmogorov hemos de ver que a conjuntos igualesse les asigna la misma medida. Es decir, hemos de ver que si

ΠB1,...,Bn

t1,...,tn = ΠA1,...,Am

s1,...,sm

entoncesW(ΠB1,...,Bn

t1,...,tn ) = W(ΠA1,...,Ams1,...,sm )

Esto se puede reducir al caso donde un conjunto de tiempos y boreles contiene al otro, pues siambos conjuntos son iguales entonces podemos considerar la interseccion de ambos y uno de ellos,i.e. tenemos el siguiente caso

ΠB1,...,Bn

t1,...,tn = ΠB1,...,Bn,A1,...,Am

t1,...,tn,s1,...,sm

Pero ahora podemos reducir la propiedad que queremos a la que habıamos demostrado ya usandolas ecuaciones de Chapman-Kolmogorov. En efecto, si se cumple la igualdad entonces en los tiempos’nuevos’ sj del miembro de la derecha los boreles respectivos, Aj , han de ser todo el espacio. Si nofuese ası, existe una funcion continua que pasa por los borelianos correctos en todos los tiempos tianteriores y posteriores y que en el tiempo sj pasase por Ac

j . Por lo que ambos conjuntos no serıan

15

Page 16: El metodo de las caracteristicas aleatorias: un ensayo · 2018-02-11 · El m´etodo de las caracter´ısticas aleatorias: Notas de clase Rafael Granero Belinch´on1 22 de marzo de

iguales y obtenemos una contradiccion. Una vez que los boreles son todo el espacio entonces usandolas ecuaciones de Chapman-Kolmogorov podemos concluir que las medidas de ambos conjuntos soniguales.

Usamos el teorema de extension (o de existencia) de Kolmogorov, pues tenemos que se satisfacenlas condiciones de consistencia. Ademas, ası definida la medida es numerablemente aditiva en loscilindros. Que es finitamente aditiva es una simple observacion. La numerabilidad viene de quepodemos escribir15

W(∪∞i=1Ci) = W(∪N

i=1Ci) +W(∪∞i=N+1Ci)

por ser valido para un numero finito de conjuntos. Ahora concluımos observando que el segundosumando converge a cero cuando avanzamos en N por ser la medida de un conjunto que tiende alvacıo.

Por lo tanto tenemos una medida en la σ−algebra generada por los cilindros antes mencionados.Sin embargo no esta nada claro a simple vista cual es dicha σ−algebra.

Consideremos el conjuntoA = φ, f(s) < φ(s) < g(s)

para ciertas funciones continuas f, g. Sean si los racionales en el intervalo [0, T ]. Entonces podemosescribir el conjunto como

A =∞⋃

n=1

si

f(si) + 1/n < φ(si) < g(si)− 1/n

Por lo que tenemos que es una union numerable de intersecciones de cilindros. Conjuntos como elanterior estaran en la σ−algebra, y por lo tanto estaran los boreles (de la convergencia uniforme),pues bastara fijar ψ y tomar f = ψ − ε y g = ψ + ε. Es mas, se puede demostrar que ambasσ−algebras en realidad coinciden.

Introduciremos la notacion, muy comun,

~W (ω, t) = ω(t)

Entonces la medida anterior nos define una esperanza

E0[f ] =

C0([0,T ],R)

f(ω)dW (31)

Observamos que el cero aparece como subındice en el integrando porque consideramos un movi-miento browniano con origen el cero. Si queremos considerar movimientos partiendo de un puntox escribiremos

Ex[f ] =

Cx([0,T ],R)

f(ω)dWx (32)

Esta probabilidad se concentrara en las funciones continuas que pasan por x en tiempo 0.Si fijamos unos tiempos, entonces podemos cambiar la integral en el espacio de funciones por

una integral en Rd.16 Esto es consecuencia de como hemos definido la medida en los cilindros.

E[f1( ~W (t1)), ..., fn( ~W (tn))] =

Rn

n∏

j=1

fj(xj)p(tj − tj−1, xj , xj−1)dx1dx2, ...dxn

Esta formula nos es bien conocida en un caso con un solo tiempo, pues no es mas que la formuladel semigrupo de la ecuacion del calor. Ası si

H0 = −1

2∆

e−tH0f(x) =

R

p(t, x, y)f(y)dy = Ex[f( ~W (t))] = E0[f(x+ ~W (t))] (33)

15Se sabe (ver [Kl]) que si consideramos constantes de difusion imaginarias la medida resultante no es numera-blemente aditiva.

16La llamaremos integral de caminos del ingles ’path integral’.

16

Page 17: El metodo de las caracteristicas aleatorias: un ensayo · 2018-02-11 · El m´etodo de las caracter´ısticas aleatorias: Notas de clase Rafael Granero Belinch´on1 22 de marzo de

Esta es la primera formula de representacion que hemos conseguido.Observamos que entonces podemos escribir la medida en funcion de estos operadores.

E0[f1( ~W (t1)), ..., fn( ~W (tn))] = [e−t1H0f1e−(t2−t1)H0f2...e

−(tn−tn−1)H0fn](0)

Hemos definido la medida de Wiener como la inducida por el movimiento browniano, peropodemos hacer lo mismo con otros procesos. Por ejemplo la medida definida en (27) no esta inducida

por el movimiento browniano, sino por el puente browniano ~X, definido como

~X(t) = ~W (t) +t

T(y − ~W (t))

Se puede definir tambien como la solucion de la SDE

d ~X(t) =t− ~X(t)

T − tdt+ d ~W

con el mismo punto inicial que tenga el movimiento browniano que lo induce.Ası podemos definir la medida (con medida del espacio total igual a p(T2 − T1, x, y)) inducida

por el puente browniano que en tiempo T1 esta en x y en T2 esta en y como unos ciertos operadores,exactamente igual que en el caso anterior,

Cyx([T1,T2],R)

f1( ~X(t1), f2( ~X(t2), ...fn( ~X(tn)dWx,y[T1,T2]

=

= [e−(T1−t1)H0f1e−(t2−t1)H0f2...e

−(tn−tn−1)H0fne−(T2−tn)H0(·, y)](x) (34)

Comentario 5 Cualquier difusion nos da una medida en el espacio de las funciones continuascon respecto a la σ−algebra de los cilindros17. Puede consultarse [F] para mas detalles. Lo queocurrira es que no sera posible escribirla tan explıcitamente salvo en unos pocos casos.

0 200 400 600 800 1000 1200−2

−1.5

−1

−0.5

0

0.5

1

1.5

2

Figura 4: Trayectorias de un puente browniano.

17En realidad cualquier proceso estocastico con trayectorias continuas nos define una medida en la σ−algebra delos cilindros. Tambien podemos extender esta idea a las EDO que tengan unicidad, existencia y sus soluciones seancontinuas. Solo que en este caso la medida es totalmente singular, con probabilidad 1 caera en la unica solucion dela EDO.

17

Page 18: El metodo de las caracteristicas aleatorias: un ensayo · 2018-02-11 · El m´etodo de las caracter´ısticas aleatorias: Notas de clase Rafael Granero Belinch´on1 22 de marzo de

Parte II

Teorıa para las ecuaciones lineales

5. Problemas Parabolicos

5.1. La ecuacion del calor

Es un resultado clasico que la solucion fundamental de la ecuacion del calor

∂tu =1

2∆u (35)

es una gaussiana. Esto se puede ver de diversas maneras, desde buscar soluciones autosemejan-tes (ver [Ev-08] o [I]), a razonar con paseos aleatorios (ver [Ev]). Es este ultimo camino el queseguiremos nosotros.

Fijemos T > 0 el tiempo final de nuestra evolucion y consideremos el problema de Cauchy parala ecuacion (35). Sea f(x) el dato inicial, que supondremos positivo y en L1(Rd) con d la dimensiondel espacio (tıpicamente sera 1,2,o 3). Entonces la solucion de la ecuacion (35) viene dada por

u(t, x) =

Rd

f(y)W (0, x, t, y)dy, (36)

con

W (s, x, t, y) =1

2π(t− s)e

−|x−y|22(t−s) . (37)

Si recordamos la definicion 1 que dimos anteriormente se tiene que si ~Xt0(x) es la posicion en

tiempo t de un movimiento browniano que en tiempo 0 estaba en x la esperanza de f( ~Xt0(x)) con

respecto a la medida de Wiener,18 se puede escribir como

Ex[f( ~Xt0(x))] =

C([0,T ])

f(ω(t))dW(ω) =

Rd

f(y)W (0, x, t, y). (38)

Observamos que las expresiones (36) y (38) coinciden. Por lo tanto tenemos que Ex[f( ~Xt0(x))]

es solucion (clasica) de (35). Ası tenemos que si consideramos a las soluciones de las ecuacionesestocasticas como una generalizacion de las curvas caracterısticas para ecuaciones parabolicas en-tonces las trayectoria del movimiento browniano seran las curvas caracterısticas de la ecuacion delcalor.

Este metodo nos brinda una nueva intuicion. Consideremos una cantidad c de partıculas queen el tiempo inicial estaban en el punto z, i.e. f(y) = cδ(y − z). Dichas partıculas comienzan amoverse siguiendo un movimiento browniano, por lo tanto tienen unas probabilidades de acabartras un tiempo t en el punto x que vienen dadas por W (0, x, t, z). Ası u(t, x) = cW (0, x, t, z) es lacantidad esperada de partıculas en el punto x.

De nuestra representacion probabilista se extraen varias consecuencias facilmente. Para empezarse conserva el signo de f . Recordemos que f ≥ 0, entonces

Ex[f( ~Xt0(x)] ≥ 0,

por ser la esperanza de una funcion positiva.Tambien se conserva la masa. En efecto

Rd

Ex[f( ~Xt0(x))]dx =

Rd

Rd

f(y)W (0, x, t, y)dydx =

Rd

f(y)dy,

pues basta observar que

Rd

W (0, x, t, y)dx = 1, ∀t, y.

18Esta medida, soportada en las funciones continuas C([0, T ]) para todo T , la denotaremos como dW(ω) por estar

inducida por el movimiento browniano ~W (t, ω).

18

Page 19: El metodo de las caracteristicas aleatorias: un ensayo · 2018-02-11 · El m´etodo de las caracter´ısticas aleatorias: Notas de clase Rafael Granero Belinch´on1 22 de marzo de

Si ahora suponemos que f(x) = f(|x|) y por lo tanto es simetrica se tendra que Ex[f(Xt0(x))]

sera simetrica. La razon en este caso es que la probabilidad de cambiar entre dos posiciones x e yviene dada por una funcion de la distancia entre ambos puntos.

En realidad la relacion del movimiento browniano con la ecuacion del calor no deberıa ser nadasorprendente, pues conocemos la naturaleza atomica de la materıa, ası como que la temperatura esuna medicion del grado de agitacion, siempre existente, de los atomos. Si recordamos que el modeloque daba origen al movimiento browniano era el de considerar una partıcula pequena inmersa enun fluıdo, y por lo tanto sometida a choques aleatorios con las partıculas vecinas, no es llamativala aparicion en escena de la ecuacion del calor. De otra manera, un modelo que refleja la agitacionde partıculas pequenas debe tener alguna relacion con la ecuacion del calor.

Esta formulacion de integrales funcionales y difusiones markovianas ademas de una nueva intui-cion, nos da tambien un nuevo metodo para aproximar las soluciones de la ecuaciones en derivadasparciales, el metodo de Monte-Carlo (ver la parte de Aplicaciones).

Un apunte historico: La relacion entre la ecuacion del calor

∂tu =D

2∆u

y el movimiento browniano ya la noto Albert Einstein a principios del siglo XX. De esta relacionse puede obtener

D =TR

con T la temperatura absoluta, R la constante universal de los gases, N el numero de Avogadro yµ un numero que depende del tamano de la partıcula y de la viscosidad del fluıdo en el que estabainmersa la partıcula browniana. Ası utilizaron esta expresion de la constante D para determinarel numero de Avogadro. Este logro bien valio un premio Nobel en 1926 para Perrin.

5.2. Ecuaciones parabolicas generales

El caso de la ecuacion del calor (35) es bien conocido. Sin embargo, es un caso particular de unresultado mas amplio para ecuaciones parabolicas del tipo

∂tu =d∑

i,j=1

aij(x)∂xi∂xj

u+~b(x) · ∇u− c(x)u, u(0, x) = f(x) (39)

donde suponemos que aij(x),~b(x) ∈ Rd y c(x) ∈ R

+ son funciones C2,αb (Rd), con

∑di,j=1 aijθjθi ≥

h|θ|2 con h > 0, para todo vector θ ∈ Rd y aij una matrız simetrica. Requeriremos que c ≥ 0

para evitar problemas de resonancia al encontrar c algun autovalor del problema elıptico asociado.Ademas supondremos que existe una matriz σ tal que la matriz de coeficientes se puede escribircomo a = σσt. En general σ no sera unica (pensemos que no tiene por que ser una matriz cuadrada),pero la medida que induce Xt

0(x) no es sensible a estos cambios en σ (ver [F]). Fijemos T > 0 eltiempo final de nuestra evolucion y el dato inicial f ∈ Cb(R

d) ∩ L1(Rd).Esperamos que por ser una generalizacion de una ecuacion del calor admita un resultado pa-

recido al de la seccion anterior para un cierto tipo de ecuaciones estocasticas. Ası en funcion deσ y ~b definiremos una ecuacion estocastica que hara las veces de curva caracterıstica y que nosinducira una medida en las funciones continuas.

Procederemos de la siguiente manera: primero nos centraremos en el caso en el que c(x) = 0y por lo tanto no hay absorcion. En este caso daremos una descripcion probabilista del semigru-po involucrando ecuaciones estocasticas y esperanzas con respecto a la medida que inducen enC([0, T ]). Tras haber dado un resultado para este caso, consideraremos el caso c ≥ 0 y utilizaremosla formula de Feynman-Kac para caracterizar el semigrupo.

El caso c = 0: Consideremos la ecuacion diferencial estocastica, escrita formalmente como unadiferencial (ver [O])

d ~X = ~b( ~X)dt+ σ( ~X)d ~W , ~X(0) = x. (40)

19

Page 20: El metodo de las caracteristicas aleatorias: un ensayo · 2018-02-11 · El m´etodo de las caracter´ısticas aleatorias: Notas de clase Rafael Granero Belinch´on1 22 de marzo de

~Xt0(x) en este caso es la posicion de una partıcula que sufre ’choques aleatorios anisotropos’ (el

termino σd ~W ) y un transporte en la direccion ~b(x) que cambian su velocidad. Un ejemplo fısico esel caso de una partıcula inmersa en una disolucion que fluye por una rampa. El fluir da el termino~b(x) y el que sea una disolucion genera la anisotropıa σ(x).

Dada la solucion de la ecuacion estocastica (40) definimos el semigrupo

Ttf(x) = Ex[f( ~Xt0(x))] =

C([0,T ])

f(ω(t))dX (ω) =

Rd

f(y)P (0, x, t, dy) =

Rd

f(y)p(0, x, t, y),

(41)donde P (s, x, t,Γ) es la funcion de transicion, que da la probabilidad de que en tiempo t − s

nuestro proceso que parte de x en tiempo s llegue a Γ, es decir

P (s, x, t,Γ) = P ( ~Xts(x) ∈ Γ) =

Γ

p(s, x, t, y)dy

y p(s, x, t, y) es la densidad de transicion. Queremos hacer notar que nuestra p(s, x, t, y) en elcaso de una ecuacion estocastica como (40) no es otra que la solucion fundamental del problemaparabolico (39) con c = 0, tal y como parecıa claro del caso de la ecuacion del calor.19 Se tiene quedX es la medida en las funciones continuas que induce la solucion de la ecuacion (40). La esperanzaes con respecto a dX . Todo esto es analogo al caso de la medida de Wiener (ver [F]).

Tal y como sucedıa con la ecuacion del calor, si consideramos como una generalizacion de unacurva caracterıstica a la solucion de una ecuacion estocastica, entonces las soluciones de (40) seranlas curvas caracterısticas de ecuaciones parabolicas como (39) o (43).

Observamos que si f ≥ 0 entonces Ttf ≥ 0. Ademas tenemos Ttf ∈ L∞, es mas, se tiene

||Ttf ||∞ ≤ ||f ||∞.

Por lo tanto Tt es un semigrupo de contracciones en L∞. A este tipo de semigrupos se les llamamarkovianos.

Que efectivamente es un semigrupo se desprende de la propiedad de Markov20 y de las propie-dades de la esperanza condicionada (ver [Ev]),

E[f( ~Xt+s0 (x))|Σ( ~X(z), 0 ≤ z ≤ s)] = E[f( ~Xt

s(~Xs0 (x)))] = Ttf( ~X

s0(x))

Ahora tomando esperanzas y aplicando las propiedades de la esperanza condicionada concluımos

Ts+tf(x) = TsTtf(x)

Definimos su dominio como

D(Tt) = f ∈ L∞, ||Ttf − f || → 0, si t→ 0

Este conjunto es un espacio vectorial (por la linealidad de la esperanza y la desigualdad triangular).Ademas es cerrado. En efecto, basta observar que si

fn ∈ D(Tt) → f, Ttfn → Ttf

entonces||Ttf − f ||∞ ≤ ||Ttf − Ttfn||∞ + ||Ttfn − fn||∞ + ||fn − f ||∞ → 0.

Y por lo tanto f ∈ D(Tt).Se tiene tambien que

t 7→ Ttf

19Se llama solucion fundamental porque permite construir la solucion para un dato inicial continuo y acotadodado.

20Hay muchas formulaciones de la propiedad de Markov, nosotros utilizaremos una con esperanzas (ver [Du],[F]).~X es un proceso de Markov si

E[ ~X(t+ h)|Σ ~X(s), 0 ≤ s ≤ t] = E[ ~X(t+ h)| ~X(t)].

Σ(·) denota la σ−algebra generada.

20

Page 21: El metodo de las caracteristicas aleatorias: un ensayo · 2018-02-11 · El m´etodo de las caracter´ısticas aleatorias: Notas de clase Rafael Granero Belinch´on1 22 de marzo de

es continuo. En efecto,

||Tt+hf − Ttf ||∞ ≤ ||Tt(Thf − f)||∞ ≤ ||Thf − f ||∞ → 0

Hemos demostrado ası el siguiente resultado

Proposicion 1 (Semigrupo). Dado una solucion de la ecuacion estocastica (40) (o en general unproceso de Markov), se tiene que

1. Tt es un semigrupo de contracciones en L∞, con dominio

D(Tt) = f ∈ L∞, ||Ttf − f || → 0, si t→ 0.

Ademas el dominio es un espacio vectorial cerrado.

2. s 7→ Ts es continuo.

Para fijar las ideas, veamos algunos ejemplos en una dimension espacial.

Ejemplo 1: Consideremos la ecuacion diferencial ordinaria, escrita para conservar la notacioncomo

dXt(x) = bdt.

Entonces, como no tiene ningun tipo de naturaleza estocastica, podemos obviar las esperanzas. Eneste caso el operador es

Ttf(x) = Ex[f(Xt0(x))] = f(x+ bt).

Vemos que es justamente la solucion de la ecuacion de transporte

ut = bux, u(0, x) = f(x)

En este caso el generador del semigrupo es

A = b∂x.

Ejemplo 2: Consideremos ahora la ecuacion estocastica

dX = dW, X(0) = x

con solucionXt

0(x) = x+W (t)

Vimos anteriormente queTtf(x) = Ex[f(x+W (t))]

resolvıa la ecuacion del calor con difusion 1/2,

ut =1

2uxx, u(x, 0) = f(x)

En este caso el generador es

A =1

2∂2x.

21

Page 22: El metodo de las caracteristicas aleatorias: un ensayo · 2018-02-11 · El m´etodo de las caracter´ısticas aleatorias: Notas de clase Rafael Granero Belinch´on1 22 de marzo de

Ejemplo 3: Podemos considerar la ecuacion estocastica

dX = bdt+ dW, X(0) = x

y entonces el semigrupo ira asociado a la ecuacion

ut = bux +1

2uxx

En este caso el generador es

A = b∂x +1

2∂2x.

En general, observamos que el generador del semigrupo, que se define como

A = lımh→0

Thf(x)− f(x)

h,

es el operador elıptico,

Au =1

2

d∑

i,j=1

ai,j(x)∂xi∂xj

u+d∑

i=1

bi(x)∂xiu. (42)

al menos si lo restringimos a las funciones suficientemente regulares (ver [F] o [Dy]).Para demostrarlo solo hemos de tomar esperanzas en la formula de Ito aplicada a f(x) ∈ C2

b (Rd)

(ver [F]). Por lo tanto tenemos asociada la ecuacion

d

dtTtf(x) = ATtf(x), T0f(x) = f(x).

Para mas detalles puede consultarse [Du] o [App].Comentario 6 Se tiene que el operador A tiene sentido clasico para las funciones f ∈ C2

b (Rd),

ademas C2b (R

d) ⊆ D(A) ⊂ D(Tt) ⊂ L∞. Los dominios dependen de la dimension considerada,ası para d = 1 D(A) = C2

b (Rd), pero para d > 1 es estrictamente mayor. Veremos que en realidad

no hay que pedir tanto al dato inicial.Queremos remarcar que antes tenıamos la continuidad en t, pero ahora, al menos para ciertas

funciones f , tenemos la derivabilidad en t. Querremos la derivabilidad tambien en x, pero esa esdebida al propio proceso de Markov.

La formula de Bismut-Elworthy-Li (ver [Du] o [Ku-84]) nos permite escribir la derivada espacialde Ttf(x) sin usar las derivadas de f . En concreto,

Teorema 9 (Formula de Bismut-Elworthy-Li). Sea f ∈ Cb(Rd), una solucion de (40) ~Xt

0(x) concoeficientes C2,α

b (Rd) y v, w dos direcciones. Entonces la derivada de Ttf(x) en la direccion v es

∇vTtf(x) ≤C|v|√t||f ||∞.

Para las segundas derivadas la formula es similar,

∇v,wTtf(x) ≤C|v||w|

t||f ||∞.

Por lo tanto se tiene el siguiente teorema.

Teorema 10. Sea Xt0(x) la solucion de la ecuacion (40) con coeficientes C2,α

b (Rd) y consideremosEx la esperanza con respecto a la medida en las funciones continuas inducida por Xt

0(x). Seaf ∈ Cb(R

d) ∩ L1(Rd). Entonces

u(t, x) = Ttf(x) =

C([0,T ])

f(ω(t))dX (ω) = Ex[f(Xt0(x)]

es la unica solucion clasica de la ecuacion de Fokker-Planck siguiente

∂tu =

d∑

i,j=1

aij(x)∂xi∂xj

u+~b(x) · ∇u, u(0, x) = f(x). (43)

con aij = σσt.

22

Page 23: El metodo de las caracteristicas aleatorias: un ensayo · 2018-02-11 · El m´etodo de las caracter´ısticas aleatorias: Notas de clase Rafael Granero Belinch´on1 22 de marzo de

Como demostraremos el teorema analogo con c ≥ 0, que es un caso mas general, este teoremalo dejamos sin demostracion por ser esta similar a la del teorema 11.

Ası hemos descrito el semigrupo para (43) con tecnicas probabilistas.Podemos pensar que tenemos f(y) partıculas inicialmente en el punto y. La velocidad de estas

partıculas evoluciona siguiendo la ecuacion (40). Al final recuperamos Ttf(x) como la cantidadmedia de partıculas que han llegado en tiempo t al punto x.

El caso c ≥ 0: Consideremos la ecuacion (40) con coeficientes C2,αb (Rd). Para no preocuparnos

de la regularidad del dato inicial lo tomaremos f ∈ C2b (R

d). Escribamos

Au = Au− c(x)u,

con A el operador (42).Entonces se tiene el famoso teorema de Feynman y Kac,

Teorema 11 (Feynman-Kac). Sea Xt0(x) la solucion de la ecuacion (40) con coeficientes C2,α

b (Rd)y consideremos Ex la esperanza con respecto a la medida en las funciones continuas inducida porXt

0(x). Sea f ∈ C2b (R

d) ∩ L1(Rd) el dato inicial de (39). Entonces

u(t, x) = Ttf(x) =

C([0,T ])

f(ω(t))e−∫

t

0c(ω(s))dsdX (ω) = Ex[f( ~X

t0(x))e

−∫

t

0c( ~Xs

0 (x)ds)].

es la unica solucion clasica de la ecuacion de Fokker-Planck siguiente

∂tu =

d∑

i,j=1

aij(x)∂xi∂xj

u+~b(x) · ∇u− c(x)u, u(0, x) = f(x). (44)

con aij = σσt.

Demostracion. Sea t fijo. Consideramos los procesos

Zr0(x) = −

∫ r

0

c( ~Xs0(x))ds, Y r

0 (x) = eZr0 (x)

con diferenciales

dZr0 (x) = −c( ~Xr

0 (x))dr, dY r0 (x) = −c( ~Xr

0 (x))Yr0 (x)dr.

Entonces la diferencial del producto u(t− r, ~Xr0 (x))Y

r0 (x) es

d(u(t− r, ~Xr0 (x))Y

r0 (x)) = d(u(t− r, ~Xr

0 (x)))Yr0 (x) + udY r

0 (x).

Por la formula de Ito aplicada a u(t− r, ~Xr0 (x)) se tiene

(

− ∂tu(t− r, ~Xr0 (x)) +Au(t− r, ~Xr

0 (x))

)

dr +∇u(t− r, ~Xr0 (x)) · σd ~W.

Si introducimos esto en la formula anterior obtenemos

d(u(t− r, ~Xr0 (x))Y

r0 (x)) =

((

− ∂u(t− r, ~Xr0 (x))

∂t+Au(t− r, ~Xr

0 (x))

)

dr +

∇u(t− r, ~Xr0 (x)) · σd ~W

)

Y r0 (x) − u(t− r, ~Xr

0 (x))c( ~Xr0 (x))Y

r0 (x).

Ahora integramos hasta r = t y tomamos esperanzas con respecto a la medida que induce (40).El resultado de esto es

Ttf(x)− u(t, x) = E

[∫ t

0

(

− ∂u(t− r, ~Xr0 (x))

∂t+ Au(t− r, ~Xr

0 (x))

)

e−∫

r

0c( ~Xs

0(x)dsdr

]

= 0.

23

Page 24: El metodo de las caracteristicas aleatorias: un ensayo · 2018-02-11 · El m´etodo de las caracter´ısticas aleatorias: Notas de clase Rafael Granero Belinch´on1 22 de marzo de

Observamos que si bien para la ecuacion (43) la solucion solo depende del punto final de latrayectoria del proceso solucion de (40), para una ecuacion con absorcion como (39) la soluciondepende de toda la trayectoria. Por lo tanto, si fijamos x y t entonces estamos integrando unfuncional.

Para Ttf(x) hay una proposicion analoga a la proposicion 1. No la demostraremos ahora com-pleta, pero sı que veremos que Tt es un semigrupo de contracciones en L∞ y el decaimiento de losoperadores Tt y Tt en L

p(Rd). Se tiene que es un semigrupo de contracciones en L∞. En efecto,

||Ttf(x)||∞ ≤ ||f(x)||∞

C([0,T ])

e−∫

t

0c(ω(s))dsdX (ω)

∞≤ ||f(x)||∞.

Ademas, la masa va desapareciendo∫

Rd

Ttf(x)dx ≤∫

Rd

Ttf(x)dx =

Rd

Ex[f(Xt0(x))]dx =

Rd

Rd

p(0, x, t, y)f(y)dydx =

Rd

f(y)dy.

A los semigrupos que, como Tt, pierden masa se les llama submarkovianos. Una ecuacion como (43)en un dominio acotado U de R

d con condiciones de borde u|∂U = 0 nos da otro tipo de semigruposubmarkoviano.

De la caıda de la masa y de que sea un semigrupo de contracciones en L∞ podemos concluir

||Ttf(x)||p ≤ ||f ||1p

1

(

||f ||∞

C([0,T ])

e−∫

t

0c(ω(s))dsdX (ω)

)1− 1p

, ∀p ∈ [1,∞], ∀t ≥ 0.

Por si no tuviesemos el termino c nos interesa como decae la densidad de probabilidad en L∞,para probar el decaimiento del operador Tt en todos los Lp(Rd). En [Fr] (teorema 4.5) tenemos lasiguiente cota

|p(t, x, y)| ≤ C

td/2.

Una prueba (distinta de la de [Fr]) de demostrar dicha desigualdad es considerar unas coordenadasadaptadas a la adveccion. Ası consideramos las caracterısticas

~Y (t) =

∫ t

0

~b(~Y (s))ds

Definimos ahorav(t, x) = u(t, x− ~Y (t))

con lo qued∑

i,j=1

ai,j(x)∂xi∂xj

u =

d∑

i,j=1

ai,j(x)∂xi∂xj

v

pero∂tv = ∂tu−∇u · ~Y ′(t) = ∂tu−∇u ·~b(x).

Observamos que v resuelve la ecuacion del calor (con unos coeficientes ai,j(x)) y que se tiene||u||∞ = ||v||∞, por lo que tenemos probado el decaimiento (ver la construccion de la solucionfundamental para esta difusion en [I]) y concluımos ası

||Ttf(x)||p ≤ ||Ttf(x)||p ≤ ||f ||1p

1 ||f ||1− 1

p∞ ≤ c

(td/2)1−1p

, ∀p ∈ (1,∞], ∀t ≥ 0.

Con estos resultados hemos puesto de manifiesto que comportamientos microscopicos ’como elmovimiento browniano’ nos dan ecuaciones macroscopicas como (43).

Comentario 7 Toda esta tecnica probabilıstica es valida gracias a que tenemos un proceso deMarkov, pero estos no deben ser necesariamente difusiones de Ito, i.e. soluciones de ecuacionesestocasticas con ruido blanco como (40), como veremos pueden ser procesos de Levy mas generalesque incluyan saltos.

En lo que resta de seccion trataremos el problema de valor inicial y de contorno con datoDirichlet en un dominio suficientemente regular. Sea U el dominio del problema.

24

Page 25: El metodo de las caracteristicas aleatorias: un ensayo · 2018-02-11 · El m´etodo de las caracter´ısticas aleatorias: Notas de clase Rafael Granero Belinch´on1 22 de marzo de

Proposicion 2. Sea el τx tiempo de parada que nos indica el tiempo que tarda Xt0(x), solucion de

(40), en golpear por primera vez la frontera del dominio U . Si f ∈ C2b (R

d) ∩L1(Rd) y g ∈ Cb(∂U)entonces la solucion del problema de valores iniciales y de contorno

∂tu =1

2

d∑

i,j=1

ai,j(x)∂xi∂xj

u+~b · ∇u, u(0, x) = f(x) si x ∈ U, u|∂U = g(x), (45)

esu(t, x) = Ex[f(X

t0(x)χt<τx(t)] + Ex[g(X

τx0 (x))χt≥τx(t)], (46)

donde χA es la caracterıstica del conjunto A.

Demostracion. Sea U ⊂ Rd un dominio con frontera regular y el tiempo de parada τx definido

anteriormente. Con t fijo, aplicamos la formula de Ito a u(t− r, ~Xr0 (x)),

u(t− r, ~Xr0 (x)) − u(t, x) =

∫ r

0

(

∂s +A

)

u(t− s, ~Xs0(x))ds +

∫ r

0

∇u(t− s, ~Xs0(x)) · σd ~W .

Observamos que∂s = −∂t.

Ahora hacemos r = t y observamos que si t ≥ τx entonces u(0, Xτx0 (x)) = g(Xτx

0 (x)). Tomamosesperanzas con respecto a las medidas inducidas por la solucion de (40), concluyendo

Ex[f( ~Xt0(x))χt<τx(t)] + Ex[g( ~X

τx0 (x))χt≥τx(t)]− u(t, x) = 0.

Si la condicion de borde fuese Neumann tambien se puede dar un resultado, pero hay que definiruna reflexion y es mas laborioso (ver [R]).

Un apunte historico: Richard P. Feynman publico un artıculo ([Fe-48]) en 1948 (una revisionde su tesis doctoral ([Fe-05]) del ano 1942) en el que daba una tercera formulacion de la mecanicacuantica.21 La formulacion de Feynman se basa en una integral de caminos y en el uso de lasecuaciones de Chapman-Kolmogorov. Sin embargo hay problemas para definir una medida conrespecto a la que integrar. En palabras del propio Feynman

“The formulation given here suffers from a serious drawback. The mathematical con-cepts needed are new. (...) One needs, in adittion, an appropiate measure for the spaceof the argument functions x(t) of the functionals.”

Veamos rapidamente que hace Feynman. Consideremos una partıcula cuantica de masa m, sinefectos reslativistas o espın que se mueve bajo los efectos de un potencial V (x). Sea K(ta, xa, tb, xb)el nucleo de la ecuacion de Schrodinger. Entonces si φ es la contribucion de cada camino se tiene

K(ta, xa, tb, xb) =∑

caminos de (ta, xa) a (tb, xb)

φ(X(t))

La idea ahora es que todos los caminos contribuyen a la probabilidad, pero lo hacen de maneradistinta. Esto es bastante intuitivo. La interpretacion mas popular de la mecanica cuantica afirmael caracter probabilıstico del movimiento a esas escalas. Por lo tanto, si sabemos que una partıculasse mueve entre dos puntos es razonable pensar que la probabilidad ’se traslada’ al camino que haseguido. En concreto se tiene

φ(X(t)) = Cei/~A (X(t))

donde C es una constante para normalizar y

A (X(t)) =

∫ tb

ta

1

2m(X ′(t))2 − V (X(t))dt.

21Las otras dos formulaciones son la matricial de Heisenberg y la basada en espacios de Hilbert y operadores deSchrodinger. Esta formulacion de Feynman es la mas intuitiva en opinion del autor.

25

Page 26: El metodo de las caracteristicas aleatorias: un ensayo · 2018-02-11 · El m´etodo de las caracter´ısticas aleatorias: Notas de clase Rafael Granero Belinch´on1 22 de marzo de

es la accion clasica.Para definir la integral en los caminos consideramos una sucesion de tiempos, ti = ta + εi, i =

0, 1, ...N y las respectivas posiciones en dichos tiempos de la partıcula considerada, Xi = X(ti).22

Entonces esperamos

K(ta, xa, tb, xb) ≈ C

RN−1

φ(X1, ...XN−1)dX1dX2...dXN−1.

Necesitamos pasar al lımite y una constante de normalizacion. Ambas cosas son problematicas engeneral. Sin embargo, en el caso de una partıcula de masa m que se mueve bajo la influencia deun potencial V tal constante se conoce (ver [FH]). Se tiene

C = A−N =

(

2πi~ε

m

)−N/2

.

Ademas en este caso de una partıcula bajo los efectos de un potencial el lımite existe (ver [FH]).Por lo tanto se define la integral de camino como

K(ta, xa, tb, xb) = lımε→0

1

A

RN−1

ei/~A (X1,...XN−1)dX1

A...dXN−1

A

def=

ei/~A (X(t))DX(t), (47)

donde A (X1, ...XN−1) es la integral sobre el camino que pasa por los puntos Xi en los tiempos ti yque es lineal entre ellos.23 Una tal definicion de los caminos es problematica aunque no consideremosel paso al lımite. Por ejemplo, en los puntos de X ′(t) discontinua (los Xi) la derivada segunda esinfinita, es decir, la aceleracion es infinita. Feynman afirma que eso puede ser un problema, perotambien dice que se puede ’solucionar ’ con la sustitucion de X ′′(t) por las diferencias finitas1ε2 (Xi+1 − 2Xi +Xi−1). Feynman no esta preocupado por estos problemas y escribe

“Nevertheless, the concept of the sum over all paths, (...), is independent of a specialdefinition and valid in spite of the failure of such definitions.”

Mark Kac era entonces profesor en la universidad de Cornell. En la universidad de Cornelltambien era donde trabajaba Feynman. Kac leyo el artıculo de Feynman y quedo muy interesadoen la integral de caminos. Kac intento dar el rigor que le faltaba a la formulacion de Feynman. Laformula de Feynman-Kac (ver [K-50]) es el fruto de este interes.

Para un tratamiento mas moderno de este tema pueden consultarse [S], [Z], [GJ], [Kle] y lasreferencias en ellos. Para un enfoque historico puede leerse [Kl].

6. Problemas Elıpticos

6.1. La ecuacion de Poisson

En esta seccion trataremos la ecuacion de Poisson y de Laplace, tanto en dominios acotados,donde obtendremos una formula como (46), como no acotados.

El caso U ⊂ B(0, R) para algun R > 0: Consideremos la familia de ecuaciones en un dominioregular U ⊂ R

d siguiente

− 1

2∆u(x) = f(x) si x ∈ U, u(x) = g(x) si x ∈ ∂U (48)

y definamosτx(ω) = ınf(t|x+ ~W (t) ∈ ∂U)

un tiempo de parada.El teorema principal de esta seccion es

22Este es el proceso de considerar los cilindros. Esto es lo que se hace para definir la medida de Wiener (ver [F]).23En el paso al lımite lo que obtenemos es un camino sin derivada en casi todo punto, exactamente igual a lo que

pasaba con el browniano.

26

Page 27: El metodo de las caracteristicas aleatorias: un ensayo · 2018-02-11 · El m´etodo de las caracter´ısticas aleatorias: Notas de clase Rafael Granero Belinch´on1 22 de marzo de

Teorema 12. Sean f, g funciones continuas y f ∈ Cαb (U). Entonces una solucion u de (48) verifica

u(x) = Ex

[∫ τx

0

f( ~Xs0(x))ds

]

+ Ex[g( ~Xτx0 (x))]. (49)

Demostracion. Para que tenga sentido la formula debemos probar que no puede ocurrir que elbrowniano permanezca infinito tiempo dentro del conjunto U acotado. Supongamos que nuestroconjunto U acotado es tal que esta contenido en el semiespacio

x1 < a

para cierto a. Entonces se tiene queτx < τa1,x

donde el subındice indica la primera componente y

τa1,x = ınf(t|X1 = x1 +W1(t) = a).

Entonces tenemos que

P (τa1,x ≤ t) = P (τa1,x ≤ t, x1 +W1(t) < a) + P (τa1,x ≤ t, x1 +W1(t) ≥ a)

= 2P (τa1,x ≤ t, x1 +W1(t) ≥ a)

= 2P (x1 +W1(t) ≥ a)

por la definicion del tiempo de parada y la simetrıa del movimiento browniano. Esta integralpodemos calcularla explıcitamente y tras tomar el lımite cuando t→ ∞ tenemos que la probabilidades 1 por ser dos veces la integral de la normal estandar en la semirrecta positiva. En efecto, trashacer el cambio x = y/

√t, se tiene

2P (x1 +W1(t) ≥ a) =

2

π

∫ ∞

a√t

e−y2/2dy.

Demostremos ahora la formula (49). Para ello aplicamos la formula de Ito con lımite de inte-gracion el tiempo de parada

τx(ω) = ınf(t|x+ ~W (t) ∈ ∂U) (50)

al proceso estocasticou( ~Xt

0(x)) = u(x+ ~W (t)).

donde u es una solucion (clasica) de (48).Entonces, se tiene

u( ~Xτx0 (x)) − u(x) =

∫ τx

0

1

2∆uds+

∫ τx

0

∇u · d ~W.

Si tomamos la esperanza observamos que el termino de la integracion estocastica desaparece(ver [Ev], [Du])

Ex[u( ~Xτx0 (x))] − Ex[u(x)] = Ex

[∫ τx

0

−f(Xs0(x))ds

]

.

Pero observamos que

Ex[u( ~Xτx0 (x))] = Ex[g( ~X

τx0 (x))], Ex[u(x)] = u(x).

De aquı se infiere el resultado.

Si ahora nuestro problema es encontrar una representacion probabilista de las funciones armoni-cas, i.e. soluciones de

− 1

2∆u(x) = 0 si x ∈ U, u(x) = g(x) si x ∈ ∂U, (51)

tenemos el siguiente resultado

27

Page 28: El metodo de las caracteristicas aleatorias: un ensayo · 2018-02-11 · El m´etodo de las caracter´ısticas aleatorias: Notas de clase Rafael Granero Belinch´on1 22 de marzo de

Proposicion 3 (Kakutani). Sea U ⊂ Rd un dominio y sea g una funcion continua definida en el

borde de U , entonces la funcion u que es solucion de (51) cumple

u(x) = Ex[g( ~Xτx0 (x))]. (52)

La propiedad del valor medio que caracteriza a las funciones armonicas continuas se obtienemuy facilmente usando la proposicion 3.

Proposicion 4 (Propiedad del valor medio). Si u es armonica entonces se tiene

u(x) =1

|∂B(x, r)|

∂B(x,r)

u(y)dy.

Demostracion. Usando el resultado anterior y observando que el movimiento browniano es isotropo,que la medida del conjunto debe ser la unidad y que en este caso el valor en el borde es la mismau se concluye.

Otra consecuencia del teorema 3 es el principio del maximo, pues si u es la media de los valoresde la frontera no podra ser mayor que el mayor de ellos, y en el caso de ser igual nuestra funcionha de ser constante.

De nuevo podemos utilizar un metodo de de Monte-Carlo para aproximar las soluciones de laecuacion diferencial (48).

El caso U = Rd: Como ahora no tenemos una frontera nuestro planteamiento basado en tiempos

de parada no sirve. Sin embargo podemos ver el problema de Poisson (48) en un disco de radio Rcentrado en el origen, B(0, R), e ir ampliando dicho radio. Ası tenemos la idea de que lımB(0, R) =R

d y τx → ∞.Ası por ejemplo si consideramos el problema en todo R

3

−∆u = f si x ∈ R3

sabemos que el operador de Green (puede consultarse en [Ev-08]) es

G(x, y) =1

1

|x− y|

y que u se puede hallar por convolucion con dicho operador de Green. Si nuestra idea es correctanuestra difusion, con densidad de transicion gaussianaW (0, x, t, y), debe cumplir que al intergrarlaen el tiempo resulte ser el operador de Green que conocemos.

En efecto, resulta que∫ ∞

0

W (0, x, t, y)dt = G(x, y).

Para verlo hay que hacer el cambio de variables

t =|x− y|2

2s

en la integral.Por lo tanto, tomando lımites en (49) con g = 0 obtenemos

u(x) = lımτx→∞

Ex

[∫ τx

0

f(Xt0(x))dt

]

=

R3

∫ ∞

0

f(y)W (0, x, t, y)dtdy =

R3

f(y)G(x, y)dy,

y se concluye el resultado.

28

Page 29: El metodo de las caracteristicas aleatorias: un ensayo · 2018-02-11 · El m´etodo de las caracter´ısticas aleatorias: Notas de clase Rafael Granero Belinch´on1 22 de marzo de

Un apunte historico: Recientemente varios autores en los artıculos [PSSW], [PS], [KS-06],[KS-09], [Ev-07], y [ChGR] han considerado trayectorias dirigidas (las trayectorias solucion de (40)son trayectorias estocasticas), generadas por juegos diferenciales con turno aleatorio para conseguirresultados de ecuaciones elıpticas o parabolicas mas complicadas. Definamos los operadores

Definicion 6. El operador ∞-laplaciano es

∆∞u =

d∑

i,j=1

uxiuxj

|∇u|2 uxi,xj.

El operador p-laplaciano es∆pu = ∇ · (∇u|∇u|p−2).

El operador 1-laplaciano es

∆1u = ∇ ·( ∇u|∇u|

)

.

Veamos una breve descripcion de los juegos diferenciales que nos generan soluciones de losoperadores de la definicion 6.

Comenzaremos con el llamado ’juego de Spencer’ asociado con el operador 1-laplaciano. Dadoun dominio U , x0 ∈ U el punto desde el que comenzara nuestro juego, g una funcion continuadefinida en la frontera de U , que sera nuestro pago final, y f : U 7→ R el pago que hay que hacerdurante el juego.

Ası, si g = 0 y f es constante positiva, c, los pagos en el turno k son f(xk) = c y en el caso dellegar a la frontera, g(xk) = 0. Entonces el jugador 1 querra maximizar el numero de pasos hastaacabar en la frontera, mientras que el jugador 2 querra llegar cuanto antes a la frontera para queel juego acabe y pagar lo mınimo posible.

Cada turno k el jugador 2 elige un vector, ~vk, de longitud fija de antemano ε. El jugador 1 eligeun sentido para dicho vector, σk ∈ 1,−1. Ası el nuevo punto es xk = xk−1 + σk~vk.

Definimos uε1(x) y uε2(x) como los resultados mınimos que los jugadores esperan recibir si eljuego comienza en x0 = x. Cuando ambas coinciden decimos que el juego tiene un valor. Podemospensar en u como el precio que ambos jugadores pagan al casino por jugar al juego. Tambien es loque cada uno espera recibir, por lo que el jugador 1 hara lo posible por aumentar u mientras queel jugador 2, que es el que paga, hara lo posible por bajar el valor de u.

Para obtener el operador diferencial anterior hemos de tomar el lımite ε→ 0.Supongamos que el juego (discreto) tiene un valor, entonces el lımite puntual u(x) = lımε→0 u

ε1(x)

es la funcion que indica el resultado mınimo que cada jugador espera si el juego (continuo) comienzaen x0 = x.

Supongamos que el jugador 2 elige la direccion del gradiente de u, pensado en minimizar utodo lo posible. Entonces se arriesga a que el jugador 1 le ponga signo positivo de manera que enla nueva posicion el jugador 2 pague mas. De manera que uno espera que nos movamos solo endirecciones ortogonales al gradiente.

En este caso tenemos que la funcion u(x) verifica

− 1

2∆1u = f, u|∂U = g. (53)

Definamos el juego ’tug of war’. Sean como antes U ⊂ Rd, x0 ∈ U y g una funcion definida en

la frontera y que es Lipschitz. Cada jugador elige un vector ~aik ∈ B0(ε) (donde k es el turno e i esel jugador). Entonces se lanza una moneda de manera que decide que jugador tiene el turno. Enel caso de que el lanzamiento lo gane el jugador 1 la nueva posicion sera xk+1 = xk + ~a

1k. El juego

evoluciona hasta que llega a la frontera, momento en el que el juego acaba y se procede al pago.En este caso la ecuacion que aparece es

− 1

2∆∞u = f, u|∂U = g. (54)

Normalmente la eleccion del vector ~aik depende solo de la posicion xk, es decir, sera un pro-ceso markoviano, sin embargo permitiremos que dependa de toda la historia anterior. Ademas

29

Page 30: El metodo de las caracteristicas aleatorias: un ensayo · 2018-02-11 · El m´etodo de las caracter´ısticas aleatorias: Notas de clase Rafael Granero Belinch´on1 22 de marzo de

habra ocasiones donde no sera markoviano. Por ejemplo consideremos una bola como nuestro do-minio. En ella definimos nuestro pago intermedio f de la siguiente manera: de forma simetricaconsideramos dos bolas contenidas en el dominio, en una de ellas f = 1 y en la otra f = −1. Fuerade ellas f = 0. Ademas no hay pago final. Entonces nuestra difusion dirigida dependera del numerode veces que hemos pasado por cada bola, pues ambos jugadores intentaran pasar el mayor numerode veces por la que les favorece. Por lo que nuestra difusion depende de cada posicion anterior. Coneste ejemplo surge el problema de los juegos que no acaban casi seguramente. En dichos juegos eljugador 1 es penalizado fuertemente.

f=−1 f=1

Figura 5: Juego con trayectorias no markovianas.

Definamos ahora el juego ’Tug of war con ruido’. En este caso el operador es el p-laplaciano.Sean U ⊂ R

d,x0 ∈ U y g como antes (f ahora es 0). Sea tambien la medida de probabilidad, µ,uniforme en la esfera de radio r =

(d− 1)q/p (donde p−1 + q−1 = 1) en el hiperplano ortogonala ~e1. Consideraremos µ~v(S) = µ(Ψ−1(S)) donde Ψ(~v) = ~e1.

En cada turno k se lanza una moneda equilibrada que indica que jugador mueve ese turno.El jugador que tenga el turno elige ~vk, de longitud menor o igual que ε. Ası el nuevo punto esxk = xk−1 + ~vk + ~zk, donde ~zk es un vector aleatorio con respecto a µ~vk . En el caso de estar adistancia de la frontera menor o igual a (1 + r)ε el jugador que tenga el turno tiene la obligacionde moverse hasta un punto de la frontera xk cumpliendo |xk − xk−1| ≤ (1+ r)ε, concluyendo ası eljuego.

Ası tenemos una ’difusion dirigida’ y un ruido en el hiperplano ortogonal.Definimos uε1(x) y uε2(x) como los resultados mınimos que los jugadores esperan recibir si el

juego comienza en x0 = x. Cuando ambas coinciden decimos que el juego tiene un valor.Supongamos que el juego (discreto) tiene un valor, entonces el lımite puntual u(x) = lımε→0 u

ε1(x)

es la funcion que indica el resultado mınimo que cada jugador espera si el juego (continuo) comienzaen x0 = x.

La funcion u(x) verifica

∆pu = 0, u|∂U = g. (55)

Generalmente las pruebas de estos resultados se apoyan fuertemente en un principio de progra-macion dinamica, que es una especie de propiedad del valor medio para el operador considerado.

6.2. Ecuaciones elıpticas generales

En general todos los resultados de la seccion anterior sirven, tras hacer los cambios obvios,para ecuaciones elıpticas mas generales. Como las demostraciones son analogas no las incluiremosen aras de la brevedad, sin embargo, para que el texto sea todo lo autocontenido posible sı queenunciaremos los resultados mas importantes.

Dado un dominio U con frontera regular consideramos el problema

− A = −(

1

2

d∑

i,j=1

ai,j(x)∂2u

∂xi∂xj+

d∑

i=1

bi(x)∂u

∂xi

)

+ c(x)u = f si x ∈ U, (56)

u = g si x ∈ ∂U

30

Page 31: El metodo de las caracteristicas aleatorias: un ensayo · 2018-02-11 · El m´etodo de las caracter´ısticas aleatorias: Notas de clase Rafael Granero Belinch´on1 22 de marzo de

donde los coeficientes aij , bi, c son C2,αb (para α ∈ (0, 1]), c y la forma caracterıstica

∑di,j=1 ai,jλiλj

son positivos.Supondremos que la matriz a es simetrica, y ademas que se tiene

(ai,j)(x) = σ(x)σt(x)

con σ(x) una matriz cuyos elementos sean C2,αb . Una tal matriz existira siempre que la matriz a

tenga rango constante, como es en nuestro caso.24

Este operador es, en fısica, la derivada de un hamiltoniano. c hace las veces de potencial. Denuevo g es una funcion continua y acotada, y f ∈ Cα

b (U).Sea la solucion de la ecuacion

d ~Xt0(x) =

~b( ~Xt0(x))dt + σ( ~Xt

0(x))d~W ,

y sea τx el tiempo de parada definido como en (50).El resultado, que dejamos sin demostracion, por ser directa una vez conocidas las anteriores,

en este caso es

Teorema 13 (Feynman-Kac (caso elıptico)). La solucion de (56), con aij , b, c satisfaciendo lashipotesis anteriores, f ∈ Cα

b (U) y g ∈ Cb(∂U), viene dada por

u(x) = Ex

[∫ τx

0

f( ~Xt0(x))e

−∫

t

0c( ~Xs

0(x))dsdt

]

+ Ex

[

g( ~X(τx))e−

∫τx0

c( ~Xs0(x))ds

]

. (57)

Esta ecuacion se puede interpretar como una difusion anisotropa (por σ), con transporte (por~b) y con absorcion (por c). Consideremos una partıcula cuya velocidad sea solucion de (40) que

puede mezclarse con el medio, desapareciendo. Sea c( ~Xt0(x))h la probabilidad de desparecer en el

intervalo (t, t + h) en esa region del espacio. Entonces la probabilidad de sobrevivir hasta tiempot es aproximadamente

(1 − c( ~Xt10 (x))h)(1 − c( ~Xt2

0 (x))h)...(1 − c( ~Xtn0 (x))h)

donde ti forman una equiparticion con incremento h del intervalo (0, t). Conforme hacemos h→ 0esta probabilidad nos tiende a una exponencial

e−∫

t

0c( ~Xs

0(x)ds).

Por lo tanto u es la media de f en los caminos solucion de (40) cuyas trayectorias sobreviven hastallegar a la frontera de U .

Parte III

Aplicaciones

7. Aplicaciones a las ecuaciones de los fluıdos

En la primera parte del ensayo hemos puesto de manifiesto que anadir el ruido blanco a una ecua-cion ordinaria hacıa aparecer el laplaciano en la ecuacion de transporte correspondiente. Y hemosmencionado que Norbert Wiener ya noto la relacion del movimiento browniano con la turbulenciade un fluido. Parece entonces natural pensar que tras cambiar el sistema caracterıstico correspon-diente a la ecuacion de Euler podamos obtener en algun sentido la ecuacion de Navier-Stokes. Esees precisamente nuestro objetivo en esta seccion, sin embargo, no avanzaremos directamente sobreel, sino que primero trataremos el ejemplo mas sencillo de la ecuacion de Burgers. Los resultadosde esta seccion son para el problema de Cauchy o condiciones de borde periodicas, pues el cambiode las condiciones de borde ’fısicas’ de impermeabilidad a Dirichlet homogeneas por la viscosidades problematico.

El problema de entender el movimiento de los fluıdos y la turbulencia viene de hace tiempo.En realidad es uno de los problemas abiertos mas importantes. Ası Richard Feynman deja escritoa sus alumnos en sus Feynman’s lectures

24Este resultado no es optimo (ver [F]).

31

Page 32: El metodo de las caracteristicas aleatorias: un ensayo · 2018-02-11 · El m´etodo de las caracter´ısticas aleatorias: Notas de clase Rafael Granero Belinch´on1 22 de marzo de

“Finalmente, existe un problema fısico que es comun a muchos campos, que es muyviejo y que no ha sido resuelto. No es el problema de encontrar nuevas partıculas fun-damentales, sino algo que se viene arrastrando desde hace mucho tiempo, durante uncentenar de anos. Nadie en la fısica ha sido capaz de analizarlo de forma matematica-mente satisfactoria a pesar de su importancia para las ciencias hermanas. Es el analisisde los fluıdos turbulentos. (...) Lo que realmente no podemos hacer es tratar el agua realy humeda que fluye a traves de un tubo. Este es el problema central que deberıamosresolver un dıa, y que no hemos hecho.”

7.1. La ecuacion de Burgers

La ecuacion de Burgers 1-dimensional: Comenzaremos con el problema de Cauchy para laecuacion de Burgers no viscosa, pero la representacion probabilista es para la viscosa.25 Ası, dadoun valor inicial f ∈ C2

b , consideraremos las ecuaciones

∂tv + v∂xv = 0 (58)

∂tv + v∂xv =ν

2∂2xv. (59)

La idea es usar la representacion de la ecuacion del calor y la transformacion de Hopf-Cole:

Lema 4 (Hopf-Cole). Sea u(t, x) una solucion clasica de la ecuacion del calor con coeficiente dedifusion ν/2, entonces

v = −ν∂x(log u) (60)

es una solucion de la ecuacion de Burgers viscosa (59).

Es bien sabido que el termino de segundo orden previene la formacion de singularidades, quesı estan presentes en la ecuacion no viscosa, por lo que no debemos preocuparnos de ello. De nuestrarepresentacion se obtendra la regularidad.

Proposicion 5. Sea v(t, x) una solucion de la ecuacion de Burgers viscosa (59) con dato inicialf ∈ C2

b . Entonces se tiene la siguiente formula de representacion

v(t, x) = −ν∂x(

log

(

Ex

[

exp(−1

ν

√ν(W t

0 (x))

−∞f(s)ds)

]))

. (61)

Demostracion. Se tiene que

u(t, x) = exp

(−1

ν

∫ x

−∞v(t, s)ds

)

resuelve la ecuacion del calor∂tu =

ν

2∂2xu

con dato inicial

u0(x) = exp

(−1

ν

∫ x

−∞f(s)ds

)

.

Por (38) sabemos que u(t, x) tiene la representacion

u(t, x) = Ex[u0(√ν(W t

0(x)))] = Ex

[

exp(−1

ν

√ν(W t

0 (x))

−∞f(s)ds)

]

. (62)

Utilizamos la formula (60) para concluir

v(t, x) = −ν∂x(

log

(

Ex

[

exp(−1

ν

√ν(W t

0(x))

−∞f(s)ds)

]))

.

25Ya mencionamos anteriormente (ejemplo 1) que si no hay difusion la medida en las funciones continuas essingular en el sentido de que esta soportada en una unica funcion.

32

Page 33: El metodo de las caracteristicas aleatorias: un ensayo · 2018-02-11 · El m´etodo de las caracter´ısticas aleatorias: Notas de clase Rafael Granero Belinch´on1 22 de marzo de

Comentario 8 Podemos mejorar el resultado de dos maneras, considerando una fuerza ∂xc oaumentando la dimension. En el caso de anadir una fuerza ∂xc a la ecuacion, i.e.

∂tv + v∂xv =ν

2∂2xv + ∂xc.

Usando la transformacion de Hopf-Cole con la ecuacion del calor con absorcion

∂tu =ν

2∂2xu− cu,

y la formula de Feynman-Kac obtenemos el resultado.Si d > 1 e imponemos que el fluido es irrotacional, o lo que es lo mismo, que existe H(t, x) tal

que ~v(t, x) = ∇xH(t, x), entonces podemos volver a aplicar la transformacion de Hopf-Cole con loscambios pertinentes.

Hay resultados para la ecuacion de Burgers en d−dimensiones (donde no hay transformacionsi no es irrotacional) y para la ecuacion de Nevier-Stokes.

8. Aplicaciones al Calculo Numerico

En esta seccion veremos muy brevemente como utilizar esta formulacion de integrales funciona-les y difusiones markovianas para aproximar las soluciones de la ecuaciones en derivadas parciales.Para ello utilizaremos el metodo de Monte-Carlo. Este metodo fue ideado por Stanislaw Ulam yconsiste en simular un gran numero de difusiones y tomar la media de los resultados obtenidos.Supongamos para fijar ideas que queremos resolver la ecuacion del calor en un cierto dominio es-pacial con condiciones de borde Dirichlet homogeneas. Discretizamos el dominio considerando unmallado en su interior. Ahora para cada punto del mallado, xi, y cada tiempo, ti, consideramosun numero N >> 1 de difusiones brownianas (esto es por se la ecuacion del calor, si se tratasede otra ecuacion considerarıamos la ecuacion estocastica oportuna) que evolucionan hasta tiempoti y que partieron de xi. Ası para cada punto del mallado y tiempo tendremos N resultados trasevaluar las difusiones de acuerdo al dato inicial f . Ahora no hay mas que considerar que la mediade dichos resultados aproxima el valor de u(x, t).En concreto, para este ejemplo, obtendremos unos resultados como

0

2

4

6

8

10

0

2

4

6

8

10

0

0.5

1

1

2

3

4

5

6

7

8

9

10

11

0

2

4

6

8

10

12

0

0.2

0.4

0.6

0.8

1

Evolucion

Figura 6: a) Valor inicial, b) solucion numerica en tiempo 4.

Si buscamos una solucion de un problema elıptico podemos actuar igual. Por ejemplo, si bus-camos un caso trivial de funcion armonica tenemos

−1

−0.5

0

0.5

1

−1

−0.5

0

0.5

1−1.5

−1

−0.5

0

0.5

1

1.5

Solucion

Figura 7: La aproximacion a nuestra solucion.

Un punto delicado y que solo mencionaremos de pasada es como aproximar las trayectorias deuna ecuacion diferencial estocastica para un caso mas general que un movimiento browniano. Para

33

Page 34: El metodo de las caracteristicas aleatorias: un ensayo · 2018-02-11 · El m´etodo de las caracter´ısticas aleatorias: Notas de clase Rafael Granero Belinch´on1 22 de marzo de

ello se utiliza el metodo de Euler explıcito (similar al de las ecuaciones diferenciales ordinarias).Esperamos que conforme se aumente el numero de puntos del mallado, se disminuya el paso tem-poral y se aumente el numero de difusiones el error decrezca, sin embargo, un analisis cuidadosode esta cuestion es complicado y excede los contenidos de este artıculo.

Parece claro que por el propio algortimo este metodo es muy caro computacionalmente hablan-do. Por lo tanto solo es recomendable en dominios de muy complicada geometrıa, altas dimensiones,pues el metodo de Monte-carlo es insensible a estas complicaciones.

A. La formula de Ito

Sea el operador

Au =1

2

d∑

i,j=1

ai,j(x)∂2u

∂xi∂xj+

d∑

i=1

bi(x)∂u

∂xi

dondeai,j = (σσt)i,j .

Uno de los teoremas mas importantes que aparecen en este texto es la formula de Ito. Veamos laversion unidimensional, que sera la que demostramos.

Teorema 14 (Formula de Ito (1D)). Sea

dX = b(X(t), t)dt+ σ(X(t), t)dW

con b ∈ L1([0, T ]) y σ ∈ L2([0, T ]) (ver definicion 4). Consideremos

u : R× [0, T ] 7→ R

continua y con∂u

∂t,∂u

∂x,∂2u

∂x2

continuas. Entonces Y (t) = u(X(t), t) tiene la diferencial

dY =∂u

∂t(X(t), t)dt+

∂u

∂x(X(t), t)dX +

1

2

∂2u

∂x2(X(t), t)σ2dt

=

(

∂u

∂t(X(t), t) +

∂u

∂x(X(t), t)b(X(t), t) +

1

2

∂2u

∂x2(X(t), t)σ2

)

dt

+∂u

∂x(X(t), t)σ(X(t))dW.

Demostracion. Comencemos por el caso donde u = xm. Se tiene

d(Xm)(t) = mX(t)m−1dX +1

2m(m− 1)Xm−2(t)σ2dt.

Los casos m = 0, 1 son triviales. Supongamos que se cumple para m− 1 y demostremoslo para m.Usaremos el siguiente lema (cuya demostracion puede encontrarse en [Ev]):

Lema 5 (Derivada del producto). Si tenemos

dX1(t) = b1(X(t)1, t)dt+ σ1(X(t)1, t)dW

dX2(t) = b2(X(t)2, t)dt+ σ2(X2(t), t)dW

con las funciones bi ∈ L1([0, T ]) y σi ∈ L2(0, T ). Entonces la diferencial del producto es

d(X1X2)(t) = X2(t)dX1(t) +X1(t)dX2(t) + σ1(X(t)1, t)σ2(X(t)2, t)dt.

34

Page 35: El metodo de las caracteristicas aleatorias: un ensayo · 2018-02-11 · El m´etodo de las caracter´ısticas aleatorias: Notas de clase Rafael Granero Belinch´on1 22 de marzo de

Ahora escribimosd(Xm−1X)

utilizando el lema y comprobamos que la formula de Ito se cumple para los monomios. Como la di-ferencial es lineal concluımos que la formula de Ito es cierta para los polinomios en x. Consideremosel producto de un polinomio en x y otro en t, i.e. u(t, x) = f(x)g(t). Entonces

d(f(X(t))g(t)) = f(X(t))g′dt+ gdf(X(t))

= f(X(t))g′dt+ g[f ′(X(t))dX +1

2f ′′(X(t))σ2dt].

que es justamente la expresion que querıamos. Concluımos que por lo tanto es cierta para todafuncion que se pueda escribir como una suma finita de productos de polinomios como los anteriores,es decir

u(x, t) =

m∑

i=1

fi(x)gi(t). (63)

Ahora razonamos por densidad. Sea una funcion u como en el teorema, entonces existen uncomo en (63) tal que aproximan uniformemente en compactos en R × [0, T ] tanto a u como a lasderivadas mencionadas. Por los calculos anteriores solo es necesario pasar al lımite para concluirla demostracion.

Tenemos ası una relacion entre la ecuacion estocastica (40) y el operador elıptico

Au =1

2

d∑

i,j=1

ai,j(x)∂2u

∂xi∂xj+

d∑

i=1

bi(x)∂u

∂xi

dondeai,j = (σσt)i,j .

El caso en varias dimensiones es el siguiente:

Teorema 15 (Formula de Ito). Sea

d ~X = ~b( ~X(t), t)dt+ σd ~W

es decir,

dX i = bi( ~X(t), t)dt +∑

j

σi,j( ~X(t), t)dW j

con bi ∈ L1([0, T ]) y σi,j ∈ L2([0, T ]), 1 ≤ i, j ≤ d (ver definicion 4). Sea

u : Rd × [0, T ] 7→ R

es continua con dos derivadas continuas en espacio y una en tiempo. Entonces Y (t) = u(X1, ..., Xd, t)tiene la diferencial

dY =∂u

∂t( ~X(t), t)dt+

d∑

i=1

∂u

∂xi( ~X(t), t)dX i +

1

2

d∑

i,j=1

∂2u

∂xi∂xj( ~X(t), t)dX idXj (64)

donde los terminos que involucran dX i se operan siguiendo las siguientes ’reglas’

dt2 = 0, dtdW j = 0, dW idW j = δi,jdt.

Tambien puede escribirse en su forma integral

u( ~X(t), t)− u( ~X(0), 0) =

∫ t

0

(

∂u

∂t+Au

)

ds+

∫ t

0

∇u · σd ~W. (65)

Otra version que usaremos es

35

Page 36: El metodo de las caracteristicas aleatorias: un ensayo · 2018-02-11 · El m´etodo de las caracter´ısticas aleatorias: Notas de clase Rafael Granero Belinch´on1 22 de marzo de

Teorema 16 (Formula de Ito (tiempos de parada)). Sea

d ~X = ~b( ~X(t), t)dt+ σd ~W

es decir,

dX i = bi( ~X, t)dt+∑

j

σi,j( ~X, t)dW j

con bi ∈ L1([0, T ]) y σi,j ∈ L2([0, T ]), 1 ≤ i, j ≤ d (ver definicion 4). Sea

u : Rd × [0, T ] 7→ R

es continua con dos derivadas continuas en espacio y una en tiempo. Por ultimo, sea τ un tiempode parada. Entonces Y (t) = u(X1, ..., Xd, t) tiene la diferencial

dY =∂u

∂t(X(τ), τ)dt +

d∑

i=1

∂u

∂xi(X(τ), τ)dX i +

1

2

d∑

i,j=1

∂2u

∂xi∂xj(X(τ), τ)dX idXj (66)

donde los terminos que envuelven dX i se operan siguiendo las siguientes ’reglas’

dt2 = 0, dtdW j = 0, dW idW j = δi,jdt.

Tambien puede escribirse en su forma integral

u( ~X(τ), τ) − u( ~X(0), 0) =

∫ τ

0

(

∂u

∂t+Au

)

ds+

∫ τ

0

∇u · σd ~W. (67)

Las ’reglas’ del teorema inicial se pueden justificar por medio de la variacion cuadratica con-junta.

Definicion 7 (Variacion cuadratica). Sea X(t) un proceso estocastico definido para a < t < by sea P = a ≤ t0..., tn ≤ b una particion de dicho intervalo. Se define la variacion cuadraticaasociada a la particion como

< X(t) >P=

k−1∑

i=0

(X(ti+1)−X(ti))2 + (X(t)−X(tk))

2

donde tk es tal que tk < t < tk+1. Si al hacer el tamano de la particion tender a cero existe unlımite < X(t) > (en probabilidad) y este es independiente de las particiones consideradas entoncesa este lımite se le llama variacion cuadratica de X(t).

Es facil demostrar que si nuestro proceso X es de variacion acotada y continuo entonces lavariacion cuadratica es cero. Por lo tanto, la variacion cuadratica de una funcion suave es cero.

Definicion 8 (Variacion cuadratica conjunta). SeanM(t), X(t) dos procesos estocasticos definidospara a < t < b y sea P = a ≤ t0..., tn ≤ b una particion de dicho intervalo. Se define

< X(t),M(t) >P=k−1∑

i=0

(X(ti+1)−X(ti))(M(ti+1)−

M(ti)) + (X(t)−X(tk))(M(t) −M(tk))

donde tk es tal que tk < t < tk+1. Si al hacer el tamano de la particion tender a cero existe unlımite < X(t),M(t) > (en probabilidad) y este es independiente de las particiones consideradasentonces a este lımite se le llama variacion cuadratica conjunta de X(t) y M(t).

La variacion cuadratica conjunta (si existe) es un proceso continuo de variacion acotada.Ademas cumple que es bilineal, simetrica, definida positiva y una desigualdad de Schwartz

| < X(t),M(t) > − < X(s),M(s) > | ≤√

< X(t) > − < X(s) >√

< M(t) > − < M(s) >.

36

Page 37: El metodo de las caracteristicas aleatorias: un ensayo · 2018-02-11 · El m´etodo de las caracter´ısticas aleatorias: Notas de clase Rafael Granero Belinch´on1 22 de marzo de

Para ver donde estan bien definidos estos procesos, algunas propiedades adicionales y la apro-ximacion a la integral de Ito (o de Stratonovich) considerando estos procesos se puede consultar[Ku-84].

Necesitamos en el capıtulo 4 una version generalizada de la formula de Ito. La prueba completade este resultado se puede consultar en [Ku-97].

Pero antes necesitamos unas definiciones:

Definicion 9 (Martingala local). Un proceso X(t) adaptado26 a una filtracion dada, Ft, se diceuna martingala local si existen tiempos de parada crecientes, τn, tal que el proceso X(mınt, τn)es una martingala.

Definicion 10 (Semimartingala). Un proceso X(t) se dice semimartingala si se puede escribircomo la suma de un proceso de variacion acotada y una martingala local.

Teorema 17 (Formula de Ito (generalizada)). Sea ~F (x, t) un proceso C2 (en x) y una semimar-tingala C1 (en t). Sea ~g(t) una semimartingala continua tal que x y ~g(t) tengan valores en un

dominio D ⊂ Rd. Entonces ~F (~g(t), t) es una semimartingala continua y satisface

F (~g(t), t)− F (~g(0), 0) =

∫ t

0

F (~g(s), ds) +

d∑

i=1

∫ t

0

∂F

∂xi(~g(s), s)dgi(s)

+1

2

d∑

i,j=1

∂2F

∂xi∂xj(~g(s), s) < dgi(s), dgj(s) >

+

d∑

i=1

⟨∫ t

0

∂F

∂xi(~g(s), ds), gi(t)

Una idea de la demostracion es observar que, dada una particion, se tiene

F (gt, t)− F (g0, 0) =∑

F (gtk+1, tk+1)− F (gtk , tk) =

F (gtk+1, tk+1)± F (gtk , tk+1)− F (gtk , tk)

y∑

F (gtk , tk+1)− F (gtk , tk) ≈∫ t

0

F (gs, ds).

Para los demas terminos se hace algo parecido y se toman lımites en el tamano de la particion.

B. La integral de Ito

Debemos dar sentido a la expresion∫ t

0

GdW

donde G es un proceso estocastico y dWdt es el ruido blanco usual. Como siempre supondremos

que tenemos un espacio de probabilidad y una filtracion27 adaptada al movimiento brownianoconsiderado.

Definicion 11. Si [0, T ] es un intervalo de tiempo se define una particion P como una sucesionde tiempos tales que se cumple

0 = t0 < t1 < ... < tn = T.

Se define el tamano del mallado como

|P | = max0≤k≤n−1

|tk+1 − tk|.

26Es decir, X(t) es Ft medible para cualquier t.27Sucesion de σ−algebras que cumplen

F(t) ⊂ F(s) si t < s

σ(W (t)) ⊂ F(t) ∀t ≥ 0

F(t) independiente de σ(W (s) −W (t), ∀s ≥ t)

donde σ(W (s)−W (t), ∀s ≥ t) es el futuro del movimiento browniano.

37

Page 38: El metodo de las caracteristicas aleatorias: un ensayo · 2018-02-11 · El m´etodo de las caracter´ısticas aleatorias: Notas de clase Rafael Granero Belinch´on1 22 de marzo de

Para definir la integral de Ito procederemos de la siguiente manera, primero lo haremos paralos procesos escalonados y despues aproximaremos por medio de estos procesos simples unos masgenerales.

Consideramos el espacio (ver definicion 4)

L2(0, T ) = G(ω, t), G progresivamente medible y tales que E

(∫ T

0

G2dt

)

<∞.

Definicion 12. Se dice que G ∈ L2(0, T ) es un proceso escalonado si existen unos subintervalos(tk, tk+1) tales que G(t) =

∑nk=1Gk1(tk,tk+1) con Gk variables aleatorias F(tk)−medibles. Para

estos procesos se define la integral estocstica de Ito como

∫ T

0

GdW =

n−1∑

k=0

Gk(W (tk+1)−W (tk)). (68)

Remarcamos que es una variable aleatoria.

De la definicion se ve que es un operador lineal.Una vez que se tiene la linealidad podemos observar que se ha de tener

E

(∫ T

0

GdW

)

= E

( n−1∑

k=0

Gk(W (tk+1)−W (tk))

)

= 0 (69)

por las propiedades del proceso browniano y las hipotesis de independencia de la definicion defiltracion. Sabemos que el movimiento browniano tiene una variacion cuadratica acotada, y desdeaquı es facil concluir que se tiene

E

[(∫ T

0

GdW

)2]

= E

(∫ T

0

G2dt

)

. (70)

En efecto

E

[(∫ T

0

GdW

)2]

=

n−1∑

k,j=1

E[Gk(W (tk+1)−W (tk))Gj(W (tj+1)−W (tj))]

Si suponemos ahora que j 6= k entonces, aplicando la independencia, tenemos que esos terminos seanulan, por lo que solo quedan los terminos j = k. Utilizamos ahora que

E[W (tk+1)−W (tk)] = tk+1 − tk.

Tenemos ası el resultado

Teorema 18. La integral estocastica para un proceso escalonado cumple las siguientes propiedades:

1. Es lineal.

2. Se tiene que

E

(∫ T

0

GdW

)

= 0

E

[(∫ T

0

GdW

)2]

= E

(∫ T

0

G2dt

)

.

Ahora se procede aproximando el proceso por variables aleatorias escalonadas

Gk(ω) = G(ω, tk).

Dicha sucesion de variables aleatorias sera de Cauchy en L2(0, T ) (ademas de convergente a G) yse tiene

E

[(∫ T

0

Gm −GndW

)2]

= E

[∫ T

0

(Gm −Gn)2dt

]

→ 0

38

Page 39: El metodo de las caracteristicas aleatorias: un ensayo · 2018-02-11 · El m´etodo de las caracter´ısticas aleatorias: Notas de clase Rafael Granero Belinch´on1 22 de marzo de

por la propiedad 2 del teorema anterior. Concluımos que podemos definir la integral del lımitecomo el lımite de las integrales en el sentido de L2(Ω). Para mas detalles se puede consultar [Du]o [Ev].

La integral estocastica para procesos en L2(0, T ) cumplira las mismas propiedades que losprocesos escalonados vistas en el teorema.

Se tiene tambien el teorema, necesario para la existencia de las ecuaciones estocasticas, siguiente

Teorema 19. Sea

I(t) =

∫ t

0

GdW

entonces I(t) es una martingala y ademas tiene trayectorias continuas en casi todo ω.

Una demostracion del segundo apartado se puede encontrar en [Ev].Hay una sutileza que no hemos mencionado. Hemos evaluado las sumas de Riemann en el punto

mas pequeno del intervalo, tk. Si evaluamos la suma de Riemann en otros puntos del intervalo elresultado que obtendremos cambiara. La utilizacion del punto de la izquierda es la aproximacionde Ito.

Si utilizamos el punto medio del intervalo, entonces hablamos de la integral de Stratonovich.Las propiedades de ambas son muy diferentes, y por citar una solo, en la manera de Ito no podemosaplicar la regla de la cadena usual al derivar, hemos de aplicar la formula de Ito, mientras que enStratonovich sı es posible. Sin embargo es precisamente el tener que usar la formula de Ito lo quenos proporciona la mayorıa de los resultados de este texto. Otra ventaja de la formulacion de Itoes que la integral es una martingala.

En cualquier caso, hay unas formulas de conversion que permiten pasar de una a otra segunconvenga (ver [Ev]).

Mas concretamente se tiene el siguiente ejemplo

∫ T

0

WdW =1

2W 2(t)− (λ− 1

2)T

donde λ es tal que se tenga la suma de Riemann

mn−1∑

k=0

W (τk)(W (tnk+1)−W (tnk ))

con τk = (1− λ)tk + λtk+1. Asıλ = 0

es la integral de Ito, mientras queλ = 1/2

es la integral de Stratonovich. Observamos que los resultados obtenidos difieren.Quiero remarcar que toda integracion es en el sentido de L2(Ω), es decir

E

[((mn−1∑

k=0

W (τk)(W (tk+1)−W (tk))

)

− 1

2W 2(t)− (λ− 1

2)T

)2]

→ 0

si n→ ∞.

Referencias

[App] D.Applebaum, Levy Processes and Stochastic Calculus, Cambridge Studies in AdvancedMathematics, 2004.

[B] R.Brown, ’A brief account of microscopical observations made in the months of June,July and August, 1827, on the particles contained in the pollen of plants; and on thegeneral existence of active molecules in organic and inorganic bodies’, Phil. Mag. 4 (1828),161–173.

39

Page 40: El metodo de las caracteristicas aleatorias: un ensayo · 2018-02-11 · El m´etodo de las caracter´ısticas aleatorias: Notas de clase Rafael Granero Belinch´on1 22 de marzo de

[BF] Y.N. Blagoveshcenskii y M.I. Freidlin, ’Some properties of diffusion processes de-pending on a parameter’, Dokl. Akad. Nauk. SSSR, 138 (1961), 508-511.

[C] P.Constantin, ’An Eulerian-Lagrangian approach for incompressible fluids: local theory’.J.Amer.Math.Soc. 14 (2001), no.2, 263-278.

[CR] K.L. Chung y A.M. Rao, ’Feynman-Kac functional and the Schrodinger equation’. Se-minar on Stochastic processes Birkhauser, 1981.

[ChGR] F.Charro, J.Garcıa y J.D.Rossi, ’A mixed problem for the infinity laplacian via tug-of-war games’. Calc.Var.Partial Differential Equations 34 (2009), 307-320.

[CI] P.Constantin y G.Iyer, ’A stochastic lagrangian representation of the 3-dimensional in-compressible Navier-Stokes equations’, aparecera en Communications on Pure and AppliedMathematics.

[Du] R.Durret, Stochastic calculus: a practical introduction, CRC Press, 1996.

[Dy] E.B.Dynkin, Markov processes, vol I., Springer, 1965.

[E] A.Einstein, Investigations on the Theory of the Brownian Movement, ed. por R.Forth,Dover, 1956.

[Ev] L.C.Evans, Stochastic Differential Equations, http://math.berkeley.edu/evans.

[Ev-07] L.C.Evans, ’The 1-laplacian, the ∞−laplacian and differential games’, Contemp. Math.,446 (2007), 245-254.

[Ev-08] L.C.Evans, Partial Diferential Equations, AMS, 2008.

[Fe-48] R.P. Feynman, ’Space-time approach to non-relativistic quantum mechanics’, Rev. ofMod. Phys, 20 (1948), 367-387.

[Fe-05] R.P. Feynman, The principle of least action in quantum mechanics, ed por Laurie M.Brown, World scientific, 2005.

[FH] R.P. Feynman,A.R. Hibbs, Quantum mechanics and Path Integrals, McGraw-Hill, 1965.

[F] M. Freidlin, Fuctional integration and partial differential equations, Princeton universitypress, 1985.

[Fr] A. Friedman, Stochastic differential equations and applications, vol.1, Academic press,1975.

[GJ] J.Glimm, A.Jaffe Quantum physics, a functional integral point of view second edition,Springer-Verlag, 1987.

[GGSBB] L.Gorelick, M.Galun, E.Sharon, R.Basri, A.Brandt, ’Shape Representationand Classification Using the Poisson Equation’, IEEE transaction on pattern analysis andmachine intelligence, 28 (2006), no.12, 1991-2004.

[I] S. Ito, Diffusion equations, American Mathematical Society, 1992.

[Iy-06] G.Iyer ’A stochastic Lagrangian formulation of the incompressible Navier-Stokes andrelated transport equations’, Ph.D. Thesis, University of Chicago, 2006.

[Iy-09] G.Iyer, ’A stochastic lagrangian proof of global existence of the Navier-Stokes equationsfor flows with small Reynolds number’, Ann. Inst. H. Poincare Anal. Non Lineaire 26

(2009), 181-189.

[IN] G.Iyer, A.Novikov, ’The regularizing effects of resetting in a particle system for theBurgers equation’, (Preprint)

[K-47] M. Kac, ’Random walk and the theory of brownian motion’, The American MathematicalMonthly, 54, No. 7, Part 1 (1947), pp. 369-391.

40

Page 41: El metodo de las caracteristicas aleatorias: un ensayo · 2018-02-11 · El m´etodo de las caracter´ısticas aleatorias: Notas de clase Rafael Granero Belinch´on1 22 de marzo de

[K-50] M. Kac, ’On some connections between probability theory and differential and integralequations.’, Proceedings of the Second Berkeley Symposium on Mathematical Statistics andProbability (1950), 189-215.

[K-66] M. Kac, ’Wiener and integration in function spaces.’, Bull. Amer. Math. Soc. 72 (1966)53-68.

[Kl] J.R. Klauder, ’The Feynman path integral: a historical slice’,arXiv:quant-ph/0303034v1.

[Kle] H. Kleinert, Path integrals in quantum mechanics,statistics, polymer physics and finan-cial markets, fourth edition, World Scientific, 2006.

[KS-06] R.Kohn, S.Serfaty, ’A deterministic-control-based approach to motion by curvature’,Comm.Pur.Appl.Math, 59 (2006), 344-407.

[KS-09] R.Kohn, S.Serfaty, ’Second order PDE’s and deterministic games’, (Preprint)

[Ku-84] H.Kunita, Stochastic differential equation and stochastic flows of diffeomorphism, LectureNotes in Math. vol 1097, Springer, 1984.

[Ku-97] H.Kunita, Stochastic flows and stochastic differential equations, Cambridge studies inadvanced mathematics, 1997.

[Kub] R.Kubo, Statistical mechanics, North Holland, 1965.

[McK] H.P. McKean, ’Application of brownian motion to the equation of Kolmogorov-Petrovskii-Piskunov’, Comm. Pur. Appl. Math., 28 (1975), 323-331.

[MP] P.Morters y Y.Peres, Brownian motion, disponible en version electronica enhttp://people.bath.ac.uk/maspm/book.pdf

[Mx] J.C. Maxwell, ’On the dynamical theory of gases’. Philos. Trans. Roy. Soc. London Ser.A 157 (1867), 49–88.

[O] B.Oksendal, Stochastic differential equations: an introduction with applications, fifth edi-tion, Springer-Verlag, 2000.

[PS] Y.Peres, S.Sheffield, ’Tug-of-war with noise: a game-theoretic view of the p-laplacian’,Duke Mathematical Journal, 145, (2008), 91-120.

[PSSW] Y.Peres, O.Schramm, S.Sheffield y D.Wilson, ’Tug-of-war and the infinity lapla-cian’, aparecera en Jour. Amer. Math. Soc.

[R] S. Ramasubramanian, ’Reflecting brownian motion in a Lipschitz domain and a condi-tional gauge theorem.’ The Indian Journal of Statistics, 63 (2001), 178-193.

[S] B.Simon, Functional integration and quantum physics, Academic press, 1979.

[Sm] M. Smoluchowski, ’Zur kinetischen Theorie der Brownschen Molekularbewegung undder Suspensionen’, Annalen der Physik, 21 (1906), 756–780.

[W] N. Wiener, ’Differential space’. J.Math.Phys, 58 (1923), 74–131.

[Z] J. Zinn-Justin, Path integrals in quantum mechanics, Oxford Graduate Texts, 2005.

41