probabilidady economÍa3 procesos...

216
PROBABILIDAD Y ECONOMÍA 3 Procesos Estocásticos J. Margalef Roig, S. Miret Artés E. Outerelo Domínguez *

Upload: lehanh

Post on 19-Sep-2018

212 views

Category:

Documents


0 download

TRANSCRIPT

PROBABILIDAD Y ECONOMÍA 3Procesos Estocásticos

J. Margalef Roig, S. Miret ArtésE. Outerelo Domínguez

*

II

III

Prefacio

El objetivo de los autores al escribir este libro, que es el tercer volumende la obra Probabilidad y Economía, es dar a conocer las herramientas yoperativa matemática suficientes (contando también con las del volumen2 ya publicado) para establecer los resultados teóricos de Matemática Fi-nanciera tales como: El precio de los valores y de los derivados financieros,y su cobertura a lo largo del tiempo (modelo de Black-Scholes-Merton) ylas curvas de tipos de interés (bonos y otros activos con tipo de interés).La teoría de procesos estocásticos se expone ampliamente siguiendo estaspautas:

(1). Fundamentos de la teoría: Teoremas de existencia de Kolmogorov yde Ionescu Tulcea.

(2). Procesos estocásticos de Markov: Se realiza un estudio minucioso dela probabilidad de transición (que caracteriza a estos procesos) y dela densidad de transición con las ecuaciones backward y forward (ode Fokker-Planck) de Kolmogorov

(3). Martingalas, martingalas locales y martingalas cuadrado integrables.

(4). Procesos Brownianos (o de Wiener): Que se utilizarán, en el volumensiguiente, de manera esencial para dar precio y cobertura de activosfinancieros. Finalmente, mediante técnicas de cálculo numérico sellegará a las fórmulas explícitas del precio de las opciones que se uti-lizan en el día a día y se incluyen sin demostraciones y con el mínimodesarrollo matemático en los manuales de Mercados Financieros.

(5). Integrales estocásticas de Itô y de Fisk-Stratonovich relativas a un pro-ceso de Wiener detallando sus propiedades más importantes. A par-

IV

tir de la integral estocástica de Itô se definen los procesos estocás-ticos de Itô y las ecuaciones diferenciales estocásticas. De estas últi-mas se establecen teoremas de existencia y se estudian algunas ecua-ciones particulares con sus soluciones explícitas.

(6). Teoremas de Girsanov y el cambio de Girsanov.

Al final de cada sección se incluyen ejercicios y problemas con algunasindicaciones, con el propósito de que el lector afiance los conocimientosadquiridos o complete la teoría.

La metodología utilizada en el desarrollo del presente volumen permi-tirá al lector adentrarse, de la forma más sencilla y precisa, en los temas dela teoría de procesos estocásticos más utilizados en la economía financie-ra.

Finalmente, se advierte al lector que a lo largo de todo este libro, lasreferencias de resultados de los volúmenes 1 y 2 llevan asociadas V. 1 y V.2, respectivamente.

Nuestro agradecimiento al Dr. D. Manuel Linares por las fructíferas dis-cusiones y colaboraciones en estos temas, y al Dr. D. José María SánchezAbril autor de la excelente maquetación del libro.

Este trabajo ha sido parcialmente financiado por el proyecto: FIS2011-29596-C02-C01 (Ministerio de Economía y Competitividad).

LOS AUTORES

Índice general

Prefacio III

Índice general V

4. Procesos estocásticos 14.1. Procesos estocásticos. Teoremas de existencia . . . . . . . . . 14.2. Procesos estocásticos medibles . . . . . . . . . . . . . . . . . . 214.3. Procesos estocásticos estacionarios. Procesos Gaussianos . . 304.4. Procesos estocásticos reales de Markov . . . . . . . . . . . . . 374.5. Martingalas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 584.6. Movimiento Browniano. Procesos estocásticos de Wiener. . . 784.7. Integrales estocásticas . . . . . . . . . . . . . . . . . . . . . . . 964.8. Procesos estocásticos de Itô . . . . . . . . . . . . . . . . . . . . 1204.9. Ecuaciones diferenciales estocásticas. Solución fuerte . . . . 1454.10.Ecuaciones diferenciales estocásticas. Solución débil . . . . . 1744.11.Representación de martingalas de cuadrado integrable . . . 1754.12.Teorema de Girsanov . . . . . . . . . . . . . . . . . . . . . . . . 189

Bibliografía 199

Índice alfabético 203

Símbolos 209

V

VI ÍNDICE GENERAL

1

Capítulo 4

Procesos estocásticos

En este capítulo se estudiarán familias de variables aleatorias, (Definición3.3.1., (V. 2, pág. 149)), de un espacio medible (Ω,F ) en un espacio medi-ble (E ,E ), (espacio de estados), y con índices en un subconjunto arbitrarioS de los números reales, (algunas veces un conjunto abstracto arbitrario).

En todo el libro, si T es un elemento de [0,+∞) ⊂ R designaremos porJT al intervalo [0,T ] de R. Por otro lado, denotaremos por J+∞ al intervalo[0,+∞) de R. Además, el elemento +∞ de R se designará algunas veces,para abreviar, por ∞, y así escribiremos J∞ en lugar de J+∞.Queda, por tanto, definida la función J : [0,+∞] → P (R), por: J (T ) = JT =[0,T ] si T ∈ [0,+∞) y J (+∞)= J+∞ = [0,+∞) si T =+∞.

4.1. Procesos estocásticos. Teoremas de existen-cia

Vamos a considerar familias de variables aleatorias en un espacio medible(Ω,F ) con valores en un espacio medible (E ,E ) que dependan (cada unade ellas) de un parámetro real. La mayoría de las ocasiones el espacio me-dible (E ,E ) será a su vez un subconjunto de R con la σ-álgebra de Borel deE , B(E ) = B(R)∩E , (V. 2, pág. 39). Observamos que B(R) = σR(Tu), (V.2,pág. 39), y por tanto, B(E ) = σE (Tu|E ), (Proposición 3.1.14., (V. 2, pág.16)).

2 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

Sea (Ω,F ) un espacio medible y S ⊂R. Una familia de variables aleatoriasξs : Ω→R, s ∈ S, en (Ω,F ) se llama proceso estocástico real con dominio delparámetro S, (el parámetro s ∈ S suele asimilarse al tiempo).Si S = 0,1,2, ... =N, al proceso estocástico real con dominio del paráme-tro N, se le llama proceso estocástico real discreto, (o mejor dicho procesoestocástico real de tiempo discreto). A un proceso estocástico de este tipo,también se le llama sucesión estocástica.Si S es un intervalo de R no vacío y no puntual, a ξs , s ∈ S, se le llama pro-ceso estocástico real con tiempo continuo.

Definición 4.1.1. Sean (Ω,F ,P ) un espacio de probabilidad, S un subcon-junto de R y

ξ= ξs : Ω→Rs∈S y η=ηs : Ω→R

s∈S

dos procesos estocásticos reales, en el espacio medible (Ω,F ), con dominiodel parámetro S. Entonces,

(1). Se dice que ξ y η son estocásticamente equivalentes si para todo s ∈S, P

(ω : ξs(ω) = ηs(ω)

)= 1 (lo cual equivale a P

(ξs 6= ηs

)= 0, para

todo s ∈ S). Se suele decir (en tal caso) que ξ = ξs : Ω→Rs∈S es unamodificación de η=

ηs : Ω→R

s∈S .

(2). Si existe N ∈F con P (N ) = 0 tal que ξs (ω) = ηs (ω) para todo ω ∈ΩrNy todo s ∈ S, se dice que ξ y η son estocásticamente equivalentes ensentido estricto (o indistinguibles).

Observamos que en la definición anterior el segundo concepto implica elprimero (téngase en cuenta que al ser ξs y ηs variables aleatorias se verificaque ω : ξs(ω) 6= ηs(ω) ∈F , s ∈ S). Si S es numerable, el recíproco tambiénes cierto.

Sean (Ω,F ) un espacio medible, S ⊂ R y ξ= ξs : Ω→Rs∈S un procesoestocástico real en (Ω,F ) con dominio del parámetro S. Para cada ω ∈Ω,a la función

ϕω

ξ: S → R

s 7→ ξs(ω)

se le llama trayectoria (o realización) del proceso estocástico ξ correspon-diente al punto ω.

4.1. PROCESOS ESTOCÁSTICOS. TEOREMAS DE EXISTENCIA 3

Sean (Ω,F ,P ) un espacio de probabilidad, S un intervalo no vacío y nopuntual de R y ξ= ξs s∈S un proceso estocástico real en este espacio. Sedice que ξ es continuo en el intervalo no vacío y no puntual S ′ ⊂ S si casitodas (es decir, P-a.s., ((10), (V. 2, pág. 170))) sus trayectorias son continuasen todos los puntos s de S ′, (lo cual significa: Existe N ∈ F con P (N ) = 0tal que ϕω

ξes continua en todo s ∈ S ′, para todo ω ∈ N c = Ωr N ). Si ξ es

continuo en S ′ y S ′ = S, en tal caso, se dirá tan solo que ξ es continuo (C).Se tienen definiciones análogas de proceso estocástico continuo por la de-recha (CD), continuo por la izquierda (CI), continuo por la derecha con lí-mite por la izquierda (CDLI), continuo por la izquierda con límite por laderecha (CILD).

Proposición 4.1.2. Sean (Ω,F ,P ) un espacio de probabilidad, S un inter-valo no vacío y no puntual de R y ξ = ξss∈S un proceso estocástico real en(Ω,F ) con dominio del parámetro S. Entonces,

(1) Si ξ es (C), se verifica que existe un proceso estocástico real η =ηs

s∈S

en (Ω,F ) con todas sus trayectorias continuas que es indistinguiblede ξ. Se tienen resultados análogos si ξ es (CD), (CI), (CDLI) o (CILD).

(2) Si ξ es (CD) (o CI) y η=ηs

s∈S es un proceso estocástico real (CD) (o CI,

respectivamente) en (Ω,F ) que es una modificación de ξ, entonces severifica que ξ y η son indistinguibles.

Demostración. (1). Como ξ es continuo, existe Ω0 ∈ F con P (Ω0) = 1, talque sus trayectorias ϕω

ξ: S →R son continuas en S para todo ω ∈Ω0. Basta

tomar η=ηs

s∈S , donde

ηs (ω) =

ξs (ω), siω ∈Ω0

0, siω 6∈Ω0.

(2). Vamos a hacer la demostración sólo en el caso que ξ y η sean (CD), yaque el caso (CI) se probaría de forma análoga.Como η es una modificación de ξ, se tiene que existe Ω0 ∈F con P (Ω0) = 1tal que ξs (ω) = ηs (ω) para todo ω ∈Ω0 y todo s ∈Q∩S. Por otro lado, puestoque ξ y η son (CD), existe Ω1 ∈F con P (Ω1) = 1 tal que las trayectorias ϕω

ξ

y ϕωη de ξ y η, respectivamente, son continuas por la derecha para todo

4 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

ω ∈ Ω1. Los dos resultados implican que ξs (ω) = ηs (ω) para todo s ∈ S ytodo ω ∈Ω0 ∩Ω1, lo cual prueba que ξ y η son indistinguibles.

Sea S un subconjunto de R. En la página 41 de V. 2 se ha construido elespacio medible producto directo de una familia dada de espacios medi-bles. Como caso particular tenemos

(RS ,B

(RS))

=⊗

s∈S(Ωs ,Fs ) =

(RS ,

s∈SFs

),

donde (Ωs ,Fs ) = (R,B(R)), s ∈ S, y B(RS

)=

⊗s∈S Fs = σRS

(AS), siendoAS =

(ps )−1(B) : s ∈ S, B ∈B(R)

, ps : RS 7→R, x 7→ x(s) = xs , s ∈ S, x ∈RS .

Sean (Ω,F ) un espacio medible y ξ = ξs s∈S , un proceso estocásticoreal dado en dicho espacio, es decir, ξs : Ω → R es variable aleatoria en(Ω,F ), s ∈ S ⊂R. Podemos construir la función:

X ξ : Ω → RS

ω 7→ X ξ(ω),

donde (X ξ(ω))(s) = ξs (ω), ω ∈Ω, s ∈ S. Entonces tenemos los espacios me-

dibles (Ω,F ) y(RS ,B

(RS

)), y X ξ : Ω → RS es variable aleatoria en (Ω,F )

con valores en(RS ,B

(RS

)), (Definición 3.3.1., (V. 2, pág. 149)). En efecto:

Para todo s ∈ S, se tiene la igualdad ps X ξ = ξs y ξs es una variable aleato-ria en (Ω,F ). Así por el Corolario 3.1.45. (V. 2, pág. 43) se concluye que X ξ

es variable aleatoria en (Ω,F ) con valores en(RS ,B

(RS

)).

Planteamiento recíproco: Sean (Ω,F ) un espacio medible, S ⊂ R, y el es-pacio medible

(RS ,B

(RS

))considerado anteriormente, y X : Ω→ RS una

variable aleatoria en (Ω,F ) con valores en(RS ,B

(RS

)), (V. 2, pág. 149). En-

tonces, ps X (= ξs ) es variable aleatoria en (Ω,F ) para todo s ∈ S, dondeps : RS → R, como se ha dicho, es la proyección natural ps (x) = xs , x ∈ RS .Además, ξ= ξss∈S es un proceso estocástico real tal que X ξ = X .

Sean (Ω,F ,P ) un espacio de probabilidad, S una parte infinita de R yξ= ξs : Ω→Rs∈S un proceso estocástico real en el espacio medible (Ω,F ).Consideramos el espacio medible

(RS ,B

(RS

))y

X ξ : Ω → RS ,ω 7→ X ξ(ω)

4.1. PROCESOS ESTOCÁSTICOS. TEOREMAS DE EXISTENCIA 5

que sabemos que es variable aleatoria en (Ω,F ) con valores en(RS ,B

(RS

)),

y sea PXξ(B) = P ((X ξ)−1(B)), B ∈B

(RS

). Entonces, PXξ

es una probabilidad

en el espacio medible(RS ,B

(RS

)), que se llama distribución de probabili-

dad de X ξ, (V. 2, pág. 151). Además, si (s1, ..., sn) es una n-tupla ordenadade elementos distintos dos a dos de S, entonces (ξs1 , ...,ξsn ) : Ω → Rn esvariable aleatoria en (Ω,F ) con valores en (Rn ,B(Rn)) y

(P ξ

(s1,...,sn )

(B n)

=)

P((ξs1 , ...,ξsn

)−1 (B n))

= PXξ

(J(s1,...,sn )

(B n))

=

= P(ξs1 ,...,ξsn

) (B n), B n ∈B

(Rn)

, (J(s1,...,sn )(B n)

=

x ∈RS : (xs1 , ..., xsn ) ∈B n,

J(s1,...,sn )(B n)

∈B(RS)

y X −1ξ

(J(s1,...,sn )

(B n))

=(ξs1 , ...,ξsn

)−1 (B n)

),

(V. 2, páginas 130 y 158), es una probabilidad en el espacio (Rn ,B(Rn)), lla-mada probabilidad finito-dimensional de ξ, y por último obtenemos que

P ξ(s1,...,sn )((−∞, x1]×·· ·× (−∞, xn]) = P

(ξs1 6 x1, ...,ξsn 6 xn

)=

= F(ξs1 ,...,ξsn ) (x1, ..., xn ) (= F ξ(s1,...,sn )(x1, ..., xn )), x1, ..., xn ∈R,

y F ξ(s1 ,...,sn )(x1, ..., xn) es función de distribución n-dimensional que se lla-

ma función de distribución finito-dimensional del proceso estocástico realdado ξ= ξs s∈S , (V. 2, pág.158).Estas funciones de distribución finito-dimensionales cumplen la siguientepropiedad muy importante (compatibilidad):(1). Simetría. Si τ : 1, ...,n → 1, ...,n es una permutación (aplicación bi-yectiva) y (s1, ..., sn) es una n-tupla ordenada de elementos distintos dos ados de S, entonces

F ξ(s1 ,...,sn )(x1, ..., xn) = F ξ

(sτ(1),...,sτ(n))(xτ(1), ..., xτ(n)),

ya que se tiene: F ξ(s1,...,sn )(x1, ..., xn) = PXξ

(J(s1 ,...,sn )((−∞, x1]×...×(−∞, xn ])) =

PXξ(J(sτ(1),...,sτ(n))((−∞, xτ(1)]× ...× (−∞, xτ(n)])) = F ξ

(sτ(1),...,sτ(n))(xτ(1), ..., xτ(n)).(2). Consistencia. Para toda n-tupla ordenada (s1, ..., sn) de elementos dis-

6 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

tintos dos a dos de S, n > 2, se verifica que

lımxn→+∞

F ξ(s1 ,...,sn−1 ,sn )(x1, ..., xn−1 , xn) = F ξ

(s1,...,sn−1)(x1, ..., xn−1),

(F ξ(s1 ,...,sn−1 ,sn )(x1, ..., xn−1,+∞) = F ξ

(s1,...,sn−1)(x1, ..., xn−1)).

(por el Teorema 3.1.10., (V. 2, pág. 11), aplicado a la probabilidad P ).

Todas estas distribuciones finito-dimensionales de ξ constituyen (de-finición) la ley de probabilidad del proceso estocástico dado ξ = ξs s∈S , yjuegan un papel esencial en el estudio de los procesos estocásticos comose pone de manifiesto a continuación.

Dos procesos estocásticos reales ξ= ξss∈S y η=ηs

s∈S , S subconjun-

to infinito de R, definidos sobre los espacios de probabilidad (Ω1,F1,P1) y(Ω2,F2,P2), respectivamente, se dice que son estocásticamente equivalen-tes en sentido amplio si sus funciones de distribución finito-dimensionalcoinciden, es decir,

F ξ(s1,...,sn )(x1, ..., xn ) = P1

(ξs1 6 x1, ...,ξsn 6 xn

)=

= P2(ηs1 6 x1, ...,ηsn 6 xn

)= F η

(s1,...,sn )(x1, ..., xn ),

para toda n-tupla ordenada (s1, ..., sn) de elementos distintos dos a dos delconjunto S y todo elemento (x1, ..., xn ) de Rn , n ∈N+, que es equivalente a

P1(ω : ξs1 (ω) ∈ A1, ...,ξsn (ω) ∈ An

)= P2

(ω : ηs1 (ω) ∈ A1, ...,ηsn (ω) ∈ An

),

para toda n-tupla ordenada (s1, ..., sn) de elementos distintos dos a dos deS y todo A1 ∈B(R),..., An ∈B(R), n ∈N+ (ver el Problema 1.2., pág. 19), locual es equivalente, a su vez, a que se cumpla que P1

((ξs1 , ...,ξsn )−1(B)

)=

P2((ηs1 , ...,ηsn )−1(B)

), para toda n-tupla ordenada (s1, ..., sn) de elementos

distintos dos a dos de S y todo B ∈B(Rn).Se tiene que si dos procesos estocásticos reales son estocásticamente equi-valentes, entonces son estocásticamente equivalentes en sentido amplio.

Vamos a ver, recíprocamente, que familias de funciones de distribu-ción finito-dimensional, con una condición de compatibilidad, determi-nan un proceso estocástico que induzca las distribuciones dadas.

4.1. PROCESOS ESTOCÁSTICOS. TEOREMAS DE EXISTENCIA 7

Teorema 4.1.3 (Kolmogorov). Sean S un subconjunto infinito no numera-ble de R y

F(s1 ,...,sn )(x1, ..., xn ) : (s1, ..., sn) n − tupla ordenada

de elementos distintos dos a dos de S, n ∈N+

una familia de funciones de distribución finito-dimensionales (Definición

3.2.24., (V. 2, pág. 109)). Supongamos que dicha familia cumple la propie-dad de compatibilidad:

(1). Simetría. Si τ : 1, ...,n → 1, ...,n es una permutación (aplicación bi-yectiva) y (s1, ..., sn) es una n-tupla ordenada de elementos distintos dos ados de S, entonces F(s1 ,...,sn )(x1, ..., xn ) = F(sτ(1),...,sτ(n))(xτ(1), ..., xτ(n)).

(2). Consistencia. Para toda n-tupla ordenada (s1, ..., sn), n > 2, de elemen-tos distintos dos a dos de S se verifica que

lımxn→+∞

F(s1 ,...,sn−1 ,sn )(x1, ..., xn−1 , xn) = F(s1,...,sn−1)(x1, ..., xn−1),

(F(s1 ,...,sn−1 ,sn )(x1, ..., xn−1,+∞) = F(s1,...,sn−1)(x1, ..., xn−1)),

es decir, para todo (x1, ..., xn−1) ∈Rn−1 y todo ε> 0 existe r > 0, que dependede (x1, ..., xn−1) y de ε, tal que para todo xn > r , |F(s1 ,...,sn )(x1, ..., xn−1 , xn)−F(s1,...,sn−1)(x1, ..., xn−1)| < ε.

Entonces, existen un espacio de probabilidad (Ω,F ,P ) y un proceso estocás-tico real ξ= ξs s∈S , en el espacio medible (Ω,F ), tal que

F ξ(s1,...,sn )(x1, ..., xn ) = F(ξs1 ,...,ξsn )(x1, ..., xn ) =

= F(s1 ,...,sn )(x1, ..., xn ) = P(ξs1 6 x1, ...,ξsn 6 xn

),

para toda n-tupla ordenada (s1, ..., sn) de elementos distintos dos a dos de Sy todo elemento (x1, ..., xn ) de Rn , n ∈N+.

Demostración. Tomamos Ω = RS y F = B(RS

), (pág. 4). Dada la n-tupla

ordenada de elementos distintos dos a dos de S, (s1, ..., sn ), se tiene la fun-ción de distribución n-dimensional F(s1,...,sn )(x1, ..., xn ) y por el Teorema

8 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

3.2.25. (V. 2, pág. 110), existe en (Rn,B(Rn)) una única probabilidad P(s1,...,sn )

tal que para todo (x1, ..., xn) ∈Rn ,

P(s1,...,sn ) ((−∞, x1]× ...× (−∞, xn ]) = F(s1,...,sn )(x1, ..., xn ).

Por la propiedad de compatibilidad de las distribuciones (hipótesis), se tie-ne la compatibilidad de las probabilidades

P(s1,...,sn )

, (véase la Definición

3.2.37. (V. 2, pág. 131)). En efecto: Es claro que esta familia de probabilida-des cumple la propiedad de simetría. Veamos que cumple la propiedad deconsistencia. Sea (s1, ..., sn), n > 2, una n-tupla de elementos distintos dosa dos de S. Entonces, P(s1,...,sn )(·×R) es una probabilidad en (Rn−1,B(Rn−1))y por la propiedad de consistencia de la familia de funciones de distribu-ción dada y el Teorema 3.1.10., (V. 2, pág. 11),

P(s1,...,sn )((−∞, x1]× ...× (−∞, xn−1]×R) == lım

m→+∞P(s1,...,sn )((−∞, x1]× ...× (−∞, xn−1]× (−∞,m]) =

= lımm→+∞

F(s1,...,sn )(x1, ..., xn−1 ,m)= F(s1 ,...,sn−1)(x1, ..., xn−1) =

= P(s1 ,...,sn−1)((−∞, x1]× ...× (−∞, xn−1]), (x1, ..., xn−1) ∈Rn−1.

Así, por la Proposición 3.2.27., (V. 2, pág. 111), las dos probabilidades enel espacio (Rn−1,B(Rn−1)), P(s1,...,sn )(·×R) y P(s1,...,sn−1), son iguales, es decir,P(s1,...,sn )(B×R) = P(s1,...,sn−1)(B), para todo B ∈B(Rn−1), y se tiene la propie-dad de consistencia de la familia de probabilidades. Luego por el Teorema3.2.38., (V. 2, pág. 132), existe una única probabilidad P en el espacio medi-ble

(RS ,B

(RS

))tal que para cada n-tupla ordenada (s1, ..., sn) de elemen-

tos distintos dos a dos de S, P(ω ∈RS :

(ωs1 , ...,ωsn

)∈ B

)= P(s1 ,...,sn )(B),

B ∈ B(Rn), y tomando B = (−∞, x1] × ... × (−∞, xn] se tiene el resultadodel enunciado con (Ω,F ,P ) =

(RS ,B

(RS

),P

)y ξs(ω) = ωs = ω(s), s ∈ S,

ω ∈RS .

La construcción del espacio (Ω,F ,P ) se llama construcción canónica y lade ξs se llama método de coordenadas.

El espacio de probabilidad (Ω,F ,P ) obtenido en la demostración delteorema anterior de Kolmogorov (Teorema 4.1.3.) es demasiado amplio enel sentido que el proceso estocástico construido, ξss∈S , no cumple ciertas

4.1. PROCESOS ESTOCÁSTICOS. TEOREMAS DE EXISTENCIA 9

condiciones de regularidad (continuidad, etc.). Se tiene el siguiente crite-rio de reducción del espacio (Ω,F ,P ), (del teorema de Kolmogorov): Seaξ= ξs s∈S el proceso estocástico en

(Ω=RS ,F =B

(RS

),P

), construido en

la demostración del teorema de Kolmogorov. Se considera el álgebra J3 enRS , (V. 2, pág. 68), y sea P∗ la medida exterior extensión de la medida P |J3

en(RS ,J3

), (Proposición 3.1.34., (V.2, pág. 33)). En la citada proposición

se ha demostrado que J3 ⊂σΩ(J3) =F ⊂MP∗ , donde MP∗ es el conjuntode partes de Ω que son P∗-medibles (Definición 3.1.32., (V. 2, pág. 31)), yque el espacio de probabilidad (Ω,MP∗ ,P∗|MP∗ ) es completo, (por la Pro-posición 3.1.40., (V. 2, pág. 37) este espacio es la compleción del espacio deprobabilidad (Ω,F ,P ), pues por el Lema 3.1.36., (V. 2, pág. 35), P = P∗|F ).Sea Ω

∗ un subconjunto P∗-medible de Ω con P∗(Ω∗) = 1 (por tanto, 1 =P (Ω) = P∗(Ω) = P∗(Ω∗)+P∗((Ω∗)c ) y P∗((Ω∗)c ) = 0), y sea ηs = ξs |Ω∗ paratodo s ∈ S. Entonces, η = ηs s∈S es un proceso estocástico definido sobreel espacio de probabilidad completo (Ω∗,MP∗ ∩Ω

∗,P∗) que es estocásti-camente equivalente en sentido amplio al proceso estocástico dado ξs s∈S

definido en el espacio de probabilidad (Ω,F ,P ). En efecto: Se tiene

F ξ(s1,...,sn )(x1, ..., xn ) = P (ξs1 6 x1, ...,ξsn 6 xn) =P∗(ξs1 6 x1, ...,ξsn 6 xn) = P∗(ω ∈Ω

∗ : ξs1 (ω) 6 x1, ...,ξsn (ω) 6 xn)++P∗(ω ∈ (Ω∗)c : ξs1 (ω) 6 x1, ...,ξsn (ω) 6 xn) =

= P∗(ω ∈Ω∗ : ηs1 (ω) 6 x1, ...,ηsn (ω) 6 xn) = F η

(s1,...,sn )(x1, ..., xn ),

para toda n-tupla ordenada (s1, ..., sn) de elementos distintos dos a dos delconjunto S y todo (x1, ..., xn ) ∈Rn , n ∈N+.

Criterio de continuidad de Kolmogorov. Para que el proceso estocásticoreal ξ = ξs s∈[a,b] en el espacio de probabilidad completo (Ω,F ,P ) admi-ta una modificación continua

ξ∗s

s∈[a,b], es suficiente que existan cons-

tantes d > 0, ε > 0 y C > 0 tales que E (|ξs+∆ − ξs |d ) 6 C |∆|1+ε para todos, s +∆∈ [a,b].

Otra versión del Teorema 4.1.3. (Kolmogorov) y, de hecho, otra manerade establecer toda la teoría de existencia y unicidad de procesos estocásti-cos consiste en trabajar con subconjuntos finitos, del conjunto de índices

10 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

S ⊂R, en lugar de las n-tuplas ordenadas de elementos distintos dos a dosde S como se hizo en el citado teorema. Este procedimiento, de los sub-conjuntos finitos de S, tiene la ventaja de utilizar menos elementos en lahipótesis del teorema y simplificar las condiciones de compatibilidad en-tre ellos.Sea S un subconjunto infinito de R. Adoptamos el siguiente criterio: Lanumeración de los elementos de un subconjunto finito de S será la inducidapor la ordenación usual de R.Por ejemplo, si a,b,c,e ∈ S son tales que c < a < e < b, el conjunto finitoa,b,c,e lo escribiremos [s1, s2, s3, s4] o s1, s2, s3, s4, donde s1 = c, s2 = a,s3 = e y s4 = b.

Teorema 4.1.4 (Kolmogorov). Sea S un subconjunto infinito no numerablede R. Con las notaciones anteriores, para cada subconjunto finito [s1, ..., sn]de S, n ∈ N+, sea F[s1,...,sn ](x1, ..., xn ), (x1, ..., xn ) ∈ Rn , una función de distri-bución n-dimensional, (Definición 3.2.24., (V. 2, pág. 109))Suponemos que esta familia de distribuciones cumple:

lımxk→+∞

F[s1,...,sn ](x1, ..., xk , ..., xn ) = F[s1,...,sk ,...,sn ](x1, ..., xk , ..., xn ),

(propiedad de consistencia). Entonces, existen un espacio de probabilidad(Ω,F ,P ) y un proceso estocástico real ξs s∈S , en el espacio medible (Ω,F ),tal que para todo [s1, ..., sn], subconjunto finito de S, y todo (x1, ..., xn ) ∈ Rn

se verifica que

Pξs1 6 x1, ...,ξsn 6 xn

= F[s1,...,sn ](x1, ...xn ).

Demostración. Tomamos el espacio medible (RS ,B(RS)), (página 4). Sean[s1, ..., sn], un subconjunto finito de S, y F[s1,...,sn ](x1, ..., xn ) la correspon-diente distribución. Por el Teorema 3.2.25., (V. 2, página 110), existe unaúnica probabilidad P[s1,...,sn ] en (Rn ,B(Rn)) tal que para todo (x1, ..., xn) ∈Rn ,

F[s1,...,sn ](x1, ..., xn ) = P[s1,...,sn ] ((−∞, x1]× ...× (−∞, xn ]) (∗).

Luego tenemos la colección de probabilidades

P =P[s1,...,sn ] : [s1, ..., sn] ⊂ S, n ∈N+

.

4.1. PROCESOS ESTOCÁSTICOS. TEOREMAS DE EXISTENCIA 11

Sean, ahora, [s1, ..., sn] y [s ′1, ..., s ′k ] dos subconjuntos finitos de S tales que[s ′1, ..., s ′k ] ⊂ [s1, ..., sn]. Si en la igualdad (∗) pasamos al límite +∞ las coor-denadas correspondientes a índices de [s1, ..., sn] que no están en [s ′1, ..., s ′k ]y se tiene en cuenta la propiedad de consistencia de la familia de distribu-ciones de la hipótesis del teorema, se obtiene:

P[s′1,...,s′k ] ((−∞, x1]× ...× (−∞, xk ]) = F[s′1,...,s′k ](x1, ..., xk ) =

= P[s1,...,sn ](

(y1, ..., yn ) ∈Rn : yi1 ∈ (−∞, x1], ..., yik ∈ (−∞, xk ])

,

donde si1 = s ′1 < ... < sik = s ′k .Por tanto, por la Proposición 3.2.27, (V. 2, pág. 111), se concluye que paratodo B ′ ∈B(Rk ),

P[s′1,...,s′k ](B ′) = P[s1,...,sn ]

((p[s1,...,sn ],[s′1,...,s′k ]

)−1(B ′)

),

donde p[s1,...,sn ],[s′1,...,s′k ](y1, ..., yn) = (yi1 , ..., yik ) ∈Rk , (y1, ..., yn) ∈Rn .Así, la familia de probabilidades P cumple la propiedad de consistenciadel Teorema 3.2.45., (V. 2, pág. 145), y en consecuencia, por el citado teo-rema, existe una única probabilidad P en el espacio medible (RS ,B(RS))tal que para todo subconjunto finito de elementos de S, [s1, ..., sn ], y todoB ∈B(Rn), se verifica que

P (J[s1,...,sn ](B)) = P[s1,...,sn ](B), donde J[s1,...,sn ](B) =

x ∈RS : (xs1 , ..., xsn ) ∈ B

.

Tenemos el espacio de probabilidad (RS ,B(RS),P ) y para cada s ∈ S la pro-yección natural ξs = ps , (ξs (x) = x(s) = xs ), es una variable aleatoria en eseespacio. Es fácil comprobar que estos elementos cumplen la conclusióndel teorema.

Corolario 4.1.5. Sea p(s, x; t ,B) una función no negativa definida para to-do s, t ∈ JT con t > s, todo x ∈R y todo B ∈B(R), y que verifica las siguientescondiciones:

(a) p(s, x; t , ·) es una probabilidad en (R,B(R)) para cada s, x y t fijados.

(b) Para s, t , B dados, p(s, x; t ,B) es función de Borel en x.

12 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

(c) Para 0 6 s < t < u y B ∈B(R) se cumple la ecuación

p(s, x;u,B) =∫

R

p(t , y ;u,B)p(s, x; t ,d y) (C hapman−K olmog or ov).

Seaπ(B) una probabilidad en (R,B(R)). Entonces existen un espacio de pro-babilidad (Ω,F ,P ) y un proceso estocástico ξ= ξss∈JT

en (Ω,F ) tal que:

∫x0

−∞π(d y0)

∫x1

−∞p(0, y0; s1,d y1) · · ·

∫xn−1

−∞p(sn−2, yn−2; sn−1,d yn−1)·

·∫xn

−∞p(sn−1, yn−1; sn ,d yn) = P

(ξs0 6 x0,ξs1 6 x1, ...,ξsn 6 xn

),

0= s0 < s1 < ... < sn , s1, ..., sn ∈ JT , x0, ..., xn ∈R.

(Para detalles de la demostración de este corolario véase el Teorema 4.4.12.,pág. 47).El proceso estocástico que se obtiene, en el corolario anterior, es un proce-so de Markov, ya que cumple la propiedad de Markov ((5) de la página 38)

respecto a la filtraciónF

ξs

s∈JT

, (pág. 23). La probabilidad dada por ξ0 es

π y la probabilidad de transición asociada a todo proceso de Markov (pá-ginas 42-48) es de hecho la p(s, x; t ,B) dada en las hipótesis del corolario.Estos procesos estocásticos se estudiarán con más amplitud y precisión enla sección 4.4 (páginas 37-58).

En el caso de sucesiones estocásticas (S subconjunto infinito nume-rable de R), se tiene el siguiente teorema análogo a los dos anteriores deKolmogorov:

Teorema 4.1.6 (Kolmogorov). Para cada n ∈N+ sea F(1,...,n)(x1, ..., xn) unafunción de distribución en Rn , (Definición 3.2.24., (V. 2, pág. 109)). Supon-gamos que esta sucesión de funciones de distribución cumple la siguientepropiedad de compatibilidad:

lımxn→+∞

F(1,...,n)(x1, ..., xn−1 , xn) = F(1,...,n−1)(x1, ..., xn−1), n ∈N+, n > 2.

Entonces, existe una probabilidad P en el espacio medible (R∞,B(R∞)) yexiste una sucesión estocástica ξ = ξnn∈N+ en el espacio de probabilidad

4.1. PROCESOS ESTOCÁSTICOS. TEOREMAS DE EXISTENCIA 13

(R∞,B(R∞),P ) tal que

F ξ(1,...,n)(x1, ..., xn ) = F(ξ1,...,ξn )(x1, ..., xn ) == F(1,...,n)(x1, ..., xn) = P (ξ1 6 x1, ...,ξn 6 xn) , n ∈N+, (x1, ..., xn ) ∈Rn .

Demostración. Para cada n ∈ N+ tenemos la función de distribución n-dimensional F(1,...,n)(x1, ..., xn) y, por el Teorema 3.2.25. (V. 2, pág. 110),existe en el espacio (Rn ,B(Rn)) una única probabilidad Pn tal que,

Pn ((−∞, x1]× ...× (−∞, xn ]) = F(1,...,n)(x1, ..., xn ), (x1, ..., xn ) ∈Rn .

De forma análoga a como se probó la propiedad de consistencia en el teo-rema anterior, se demuestra que la sucesión de probabilidades Pnn∈N+

tiene la siguiente propiedad:

Pn+1(B n ×R) = Pn(B n), n ∈N+, B n ∈B(Rn).

Entonces, por el Teorema 3.2.35., (V. 2, pág. 129), existe una única proba-bilidad P en el espacio medible (R∞,B(R∞)) tal que P (Jn(B)) = Pn(B) paratodo B ∈ B(Rn) y todo n ∈ N+, donde (recordamos) Jn(B) = (x1, x2, ...) ∈R∞ : (x1, ..., xn ) ∈ B.Por último, tomamos ξn : R∞ → R, ξn(ω) =ωn , n ∈N+. Por la construccióndel espacio medible (R∞,B(R∞)), (V. 2, pág. 61), es claro que ξn , n ∈N+, esuna variable aleatoria.Se verifica que

P (ω : ξ1(ω) 6 x1, ...,ξn (ω) 6 xn) = P (ω : ω1 6 x1, ...,ωn 6 xn) =Pn ((−∞, x1]× ...× (−∞, xn ]) = F(1,...,n)(x1, ..., xn ).

Así, F(ξ1,...,ξn )(x1, ..., xn) = F(1,...,n)(x1, ..., xn ) = P (ξ1 6 x1, ...,ξn 6 xn).

Corolario 4.1.7. Sean F1(x), F2(x),... funciones de distribución en R (en-tonces, el producto de cualquier número finito de ellas es una función dedistribución. Por ejemplo: F(1,2)(x1, x2) = F1(x1) ·F2(x2)). Para todo n ∈N+,ponemos

F(1,...,n) (x1, ..., xn ) = F1(x1) · ... ·Fn (xn), xi ∈R, 1 6 i 6 n.

14 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

Es claro que esta familia de funciones de distribución cumple la propie-dad de compatibilidad del teorema anterior, es decir, para todo n ∈N+ conn > 2, y todo (x1, ..., xn−1) ∈ Rn−1, se verifica que F(1,...,n)(x1, ..., xn−1 ,+∞) =F(1,...,n−1)(x1, ..., xn−1). Entonces, existe una probabilidad P en el espacio me-dible (R∞,B(R∞)) y existe una sucesión estocástica ξ1, ξ2,..., (ξn , n ∈ N+ ⊂R), definida en este último espacio, tal que

P (ξ1 6 x1, ...,ξn 6 xn) = F(1,...,n) (x1, ..., xn ) = F1(x1) · ... ·Fn (xn),

para todo n ∈ N+ y todo (x1, ..., xn) ∈ Rn . En particular, P (ξi 6 x) = Fi (x).Además, ξ1, ξ2,... son independientes (Teorema 3.3.12., (V. 2, pág. 160)).

Corolario 4.1.8. Sea pk (x;B) una función definida para todo k ∈N, x ∈ R,B ∈ B(R). Supongamos que pk (x; ·) es una probabilidad en (R,B(R)) pa-ra cada k y x fijadas, y pk (·;B) es una función de Borel, fijadas k y B. Sea,también, π(B) una probabilidad en (R,B(R)). Entonces, existe una proba-bilidad P en (R∞,B(R∞)) y existe un proceso estocástico en (R∞,B(R∞)),ξ0, ξ1,... tal que, (V. 2, páginas 168 y 169),

P (ξ0 6 x0,ξ1 6 x1, ...,ξn 6 xn) =∫x0

−∞π(d y0)

∫x1

−∞p0(y0;d y1)...

∫xn−1

−∞pn−2(yn−2;d yn−1)

∫xn

−∞pn−1(yn−1;d yn).

El proceso estocástico dado por este corolario es una cadena de Markov.Estos procesos se estudiarán en las páginas 51-56.

Teorema 4.1.9 (Ionescu Tulcea). Sea (Ωn ,Fn), n ∈ N+, espacios mediblesarbitrarios y

Ω=∏

n∈N+Ωn , F =

n∈N+Fn ,

(V. 2, pág. 41). Supongamos que P1 es una probabilidad en (Ω1,F1) y quepara cada (ω1, ...,ωn ) ∈Ω1 × ...×Ωn , n ∈N+, se tiene una probabilidad en elespacio (Ωn+1,Fn+1), P (ω1, ...,ωn ; ·). Supongamos que para cada B ∈Fn+1,la función en las variables (ω1, ...,ωn ), P (ω1, ...,ωn ;B), es medible del espacio(Ω1 × ...×Ωn ,F1

⊗...

⊗Fn) en (R,B(R)). Sea, para todo n ∈N+,

Pn(A1 ×·· ·× An) =∫

A1

P1(dω1)∫

A2

P (ω1;dω2)...

...∫

An−1

P (ω1, ...,ωn−2 ;dωn−1)∫

An

P (ω1, ...,ωn−1;dωn), Ai ∈Fi ,1 6 i 6 n.

4.1. PROCESOS ESTOCÁSTICOS. TEOREMAS DE EXISTENCIA 15

Entonces, existe una única probabilidad P en el espacio (Ω,F ) tal que

P (ω ∈Ω : ω1 ∈ A1, ...,ωn ∈ An) = Pn (A1 ×·· ·× An) , n ∈N+,

y existen variables aleatorias ξ1(ω), ξ2(ω),..., del espacio medible (Ω,F ) en(Ω1,F1), (Ω2,F2),..., respectivamente, tales que

P (ω ∈Ω : ξ1(ω) ∈ A1, ...,ξn(ω) ∈ An) = Pn (A1 ×·· ·× An) , Ai ∈Fi , n ∈N+.

Consecuencia: Existen un espacio de probabilidad (Ω,F ,P ) y una suce-sión de variables aleatorias, definidas sobre (Ω,F ,P ), que son de Bernoulli(Ejemplo 1., (V. 2, pág. 277)) e independientes. En efecto:Consideramos los espacios medibles (Ωn ,Fn), donde para todo n ∈ N+,Ωn = 0,1, Fn = ;, 0, 1,Ωn = P (Ωn). A partir de estos espacios seconstruye el espacio medible producto directo, (V. 2, pág. 41),

n∈N+(Ωn ,Fn) =

(0,1N

+,

n∈N+Fn

)= (Ω,F ).

Sea P1 la probabilidad en (Ω1,F1), dada por P1(0) = q , P1(1) = p, dondep > 0, q > 0 y p + q = 1. Para todo (ω1, ...,ωn ) ∈ Ω1 × ...×Ωn , n ∈ N+, to-mamos P (ω1, ...,ωn ; ·) = P1 que es una probabilidad en (Ωn+1,Fn+1). Paracada B ∈ Fn+1 la función P (ω1, ...,ωn ;B) es constante y, por tanto, es me-dible del espacio (Ω1 × ...×Ωn ,F1

⊗...

⊗Fn) en (R,B(R)).

Para todo n ∈N+, A1 ∈F1,..., An ∈Fn , tomamos

Pn(A1 ×·· ·× An) =∫

A1

P1(dω1)∫

A2

P (ω1;dω2)...

...∫

An−1

P (ω1, ...,ωn−2 ;dωn−1)∫

An

P (ω1, ...,ωn−1;dωn), Ai ∈Fi ,1 6 i 6 n,

que a su vez es igual a P1(A1) · ... ·P1(An).Entonces, por el teorema anterior de Ionescu Tulcea, existe una única pro-babilidad P en (Ω,F ) tal que

P (ω ∈Ω : ω1 ∈ A1, ...,ωn ∈ An) = P1(A1) · ... ·P1(An), n ∈N+,

y existen variables aleatorias ξ1(ω), ξ2(ω),..., (ξn(ω) = ωn , n ∈ N+, ω ∈ Ω),de (Ω,F ) en (Ω1,F1), (Ω2,F2),..., respectivamente, tales que

P (ω ∈Ω : ξ1(ω) ∈ A1, ...,ξn (ω) ∈ An) = P1(A1) · . . . ·P1(An), Ai ∈Fi , n ∈N+.

16 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

Así, ξ1, ξ2,... son variables aleatorias de Bernoulli independientes.Además, para Ai = ai = 0 o 1, se tiene

P (ξ1(ω) = a1, ...,ξn(ω) = an) = P1(a1) · ... ·P1(an) = p∑

ai qn−∑ai ,

con lo cual podemos poner

lımn→+∞

P

(∣∣∣∣ξ1 + ...+ξn

n−p

∣∣∣∣ > ε

)= 0

que en el V. 1, (pág. 33), no pudimos escribir pues P dependía de n, cosaque aquí no ocurre.

Corolario 4.1.10. Sean (En ,En ,Pn), n ∈ N+, espacios de probabilidad. En-tonces, existen un espacio de probabilidad (Ω,F ,P ) y una familia ξ1 : Ω→E1, ξ2 : Ω→ E2,... de funciones medibles e independientes tal que

P (ξn ∈B) = Pn(B), B ∈ En , n ∈N+.

Corolario 4.1.11. Sea E un conjunto numerable y

pk (x, y)

k∈N, pk (x, y) :E ×E →R, tal que pk (x, y) es función no negativa y

y∈Epk (x, y) = 1, x ∈ E , k ∈N.

Sea también π : E → R tal que π(x) > 0,∑

x∈E π(x) = 1. Entonces, existen(Ω,F ,P ) espacio de probabilidad y ξ0, ξ1,... variables aleatorias en (Ω,F )tal que para n ∈N+,

P (ξ0 = x0,ξ1 = x1, ...,ξn = xn) =π(x0)p0(x0, x1) · · ·pn−1(xn−1, xn), xi ∈ E ,

(se puede tomar Ω= ω : ω= (x0, x1, ...), xi ∈ E ).

Una sucesión ξ0, ξ1,... de variables aleatorias en un espacio de probabi-lidad (Ω,F ,P ) que cumple la igualdad precedente (del anterior corolario)se llama cadena de Markov con espacios de estados E , matriz de transición(pk (x, y)) y probabilidad inicial π, (véase la página 53).

Sea C el conjunto de las aplicaciones continuas de [0,1] en R, dotados(estos dos últimos) con la topología usual Tu|[0,1] y Tu , respectivamente,

4.1. PROCESOS ESTOCÁSTICOS. TEOREMAS DE EXISTENCIA 17

(C ⊂ R[0,1]). En C consideramos la métrica ρ(x, y) = supt∈[0,1] |xt − yt |, (co-mo los elementos de C son funciones continuas, ρ(x, y) = maxt∈[0,1] |xt −yt |), y sea Tρ la topología de esta métricaρ. Entonces, se verifica que (C ,Tρ)es un espacio topológico polaco, (V. 2, pág. 134), ya que por la Proposición7.1.23., pág. 360 de [29], (C ,ρ) es un espacio métrico completo y Tρ =Tc ,(Tc topología compacta-abierta), y por el Corolario 7.1.10., pág. 350 de[29], Tρ =Tc tiene una base numerable. Además, se tiene que la σ-álgebraen C , B(R[0,1])

⋂C (V. 2, páginas 14 y 65), coincide con laσ-álgebraσC (Tρ),

(Ejemplo 5., (V.2, pág. 15)). En efecto:(1). Para todo a ∈ R y todo t ∈ [0,1], x ∈C : xt < a ∈ Tρ =Tc . Así, se tienela inclusión B(R[0,1])

⋂C ⊂ σC (Tρ), ya que por la Proposición 3.1.43., (V.

2, pág. 42), σR[0,1] (x ∈R[0,1] : xt < a

: a ∈R, t ∈ [0,1]

)= B(R[0,1]), y por la

Proposición 3.1.4.(4*), (V. 2, pág. 16), B(R[0,1])∩C = σC x ∈ C : xt < a :a ∈R, t ∈ [0,1], (x ∈C : xt < a cilindro en C , (los cilindros en C se definende forma análoga a los de R[0,1], (V. 2, pág. 46))).(2). Para todo r > 0 y todo x0 ∈C ,

B=r (x0) = x ∈C : ρ(x, x0) 6 r =

⋂tk

x ∈C : |xtk −x0

tk|6 r

∈B(R[0,1])∩C ,

donde tk recorre todos los números racionales de [0,1]. Por consiguien-te, σC (Tρ) ⊂ B(R[0,1])

⋂C , ya que en espacios topológicos polacos, la σ-

álgebra generada por las bolas cerradas es igual a la σ-álgebra generadapor las bolas abiertas.La σ-álgebra B(R[0,1])

⋂C =σC (Tρ) la designaremos por B(C ).

Los conjuntos A1 = x ∈C ⊂ R[0,1] : supt xt < M y A2 = x ∈C ⊂ R[0,1] : xt =0, para al menos un t ∈ [0,1], no son elementos de la σ-álgebra B(R[0,1]),(V. 2, pág. 69), pero son elementos de B(C ), (A1 ∈Tρ =Tc , Ac

2 ∈Tρ =Tc ).

Sean (Ω,F ) un espacio medible, C el conjunto de aplicaciones con-tinuas de [0,1] en R y (C ,B(C )) el espacio medible definido más arriba.Entonces:

(1) Sea ξ : Ω→C una variable aleatoria de (Ω,F ) con valores en (C ,B(C )),(V. 2, pág. 149). Ponemos ξt = pt ξ, t ∈ [0,1], donde pt : C → R es laproyección pt (x) = xt , x ∈C . Entonces, ξt : Ω→R es variable aleato-

18 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

ria en (Ω,F ), t ∈ [0,1], y para todo ω ∈Ω,

ϕω : [0,1] → R

t 7→ ξt (ω)

es continua (Proposición 7.1.31., pág. 364 de [29]), (trayectoria delproceso estocástico real ξ= ξt t∈[0,1] respecto a ω, pág. 2), (Obsérve-se que ϕω = X ξ(ω)), (pág. 4).

(2) Sea ξ = ξt : Ω→Rt∈[0,1], un proceso estocástico real con trayectoriascontinuas (t 7→ ξt (ω) es continua para cada ω ∈Ω). Entonces,

ψξ : Ω → Cω 7→ ψξ(ω),

donde ψξ(ω)(t ) = ξt (ω), t ∈ [0,1], es variable aleatoria de (Ω,F ) convalores en (C ,B(C )).

Para este apartado (2) basta tener en cuenta que j ψξ : Ω→ R[0,1], donde

j : C ,→ R[0,1] es la aplicación inclusión, es variable aleatoria de (Ω,F ) convalores en (R[0,1],B(R[0,1])), (( j ψξ)(ω)(t ) = ξt (ω), ω ∈Ω, t ∈ [0,1], (pág. 4)),

y que B(R[0,1])⋂

C =σC (Tρ).

Sea D el conjunto de las funciones de [0,1] en R que son continuas porla derecha, para todo t < 1, y tienen límite por la izquierda, para todo t > 0(funciones cadlag (continue à droit limite à gauche)).Consideramos la métrica, (introducida por Skorohod en 1956), en D:

d(x, y) = ınf

ε> 0 : existeλ ∈Λ con sup

t|xt − yλ(t)|+ sup

t|t −λ(t )|6 ε

,

donde Λ es el conjunto de las funciones estrictamente crecientes λ=λ(t ),t ∈ [0,1], que son continuas en [0,1] y cumplen λ(0) = 0, λ(1) = 1, (λ ∈Λ siy sólo si λ es una función estrictamente creciente de [0,1] sobre [0,1]).Sea Td la topología de esta métrica. Entonces, se verifica que (D,Td ) esun espacio topológico polaco, (V. 2, pág. 134), y que la σ-álgebra en D,B(R[0,1])

⋂D (V. 2, páginas 64 y 16), coincide con la σ-álgebra σD (Td ),

(Ejemplo 5., (V. 2, pág. 15)). Esta σ-álgebra la designaremos por B(D).

4.1. PROCESOS ESTOCÁSTICOS. TEOREMAS DE EXISTENCIA 19

Sea ξ una variable aleatoria de (Ω,F ) en (D,B(D)), (V. 2, pág. 149). Enton-ces ξt = pt ξ, donde pt : D → R es la proyección pt (x) = xt , t ∈ [0,1], esvariable aleatoria para todo t , y ϕω : [0,1] → R, ϕω(t ) = ξt (ω), es continuapor la derecha y tiene límite por la izquierda, para todo ω ∈Ω.Recíproco: Sea ξ = ξt : Ω→Rt∈[0,1], un proceso estocástico real con tra-yectorias pertenecientes a D, es decir, t 7→ ξt (ω) es continua por la derechay tiene límite por la izquierda para cada ω ∈Ω. Entonces

ψξ : Ω → Dω 7→ ψξ(ω),

donde ψξ(ω)(t ) = ξt (ω), ω ∈Ω, t ∈ [0,1], es una variable aleatoria de (Ω,F )con valores en (D,B(D)).

Ejercicios y problemas

1.1. Sea ξ = ξs s∈S un proceso estocástico real, definido sobre el espa-cio de probabilidad (Ω,F ,P ), tal que existe un subconjunto numerablede R, F = x1, x2, ..., con ξs(ω) ∈ F para todo s ∈ S y todo ω ∈ Ω (al espa-cio medible (F,B(F )) se le llama espacio de estados de ξ, (pág. 1)). Pro-bar que todas las funciones de probabilidad P k1 ...kn

s1 ...sn= P (ξs1 = xk1 , ...,ξsn =

xkn ),n ∈N+, s1, ..., sn ∈ S, k1, ...,kn ∈N+, dan todas las distribuciones finito-dimensionales del proceso estocástico dado ξ, P (ξs1 6 y1, ...,ξsn 6 yn), n ∈N+, s1, ..., sn ∈ S, y1, ..., yn ∈ R, o bien P

(ξs1 ∈B1, ...,ξsn ∈ Bn

), s1, ..., sn ∈ S,

B1, ...,Bn ∈B(R).

1.2. Sean ξ = ξs s∈S y η =ηs

s∈S dos procesos estocásticos reales defini-

dos sobre los espacios de probabilidad (Ω1,F1,P1) y (Ω2,F2,P2), respec-tivamente. Probar que estos procesos son estocásticamente equivalentesen sentido amplio si y sólo si para toda n-tupla ordenada (s1, ..., sn) de ele-mentos distintos dos a dos de S, y todo A1,..., An ∈B(R), se verifica

P1(ξs1 ∈ A1, ...,ξsn ∈ An

)= P2

(ηs1 ∈ A1, ...,ηsn ∈ An

),

lo cual es equivalente a

P1

((ξs1 , ...,ξsn

)−1 (B))= P2

((ηs1 , ...,ηsn

)−1 (B))

, B ∈B(Rn).

20 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

Indicación. Una implicación es evidente. Supongamos, por tanto, que ξ y η

son equivalentes en sentido amplio, es decir, para toda n-tupla ordenada(s1, ..., sn) de elementos distintos dos a dos de S las funciones de distribu-

ción finito dimensionales, (pág. 5), F ξ(s1 ,...,sn )(x1, ..., xn) y F η

(s1,...,sn )(x1, ..., xn )son iguales. Entonces, por el Teorema 3.2.28., (V. 2, pág. 112), las dos pro-

babilidades P ξ(s1,...,sn ) y P η

(s1,...,sn ), en (Rn ,B(Rn)), coinciden. Así,

P1

((ξs1 , ...,ξsn

)−1 (G))= P2

((ηs1 , ...,ηsn

)−1 (G))

, G ∈B(Rn)

y en particular se tiene la igualdad del enunciado del problema.

1.3. Sean ξs s∈S yηs

s∈S dos procesos estocásticos reales estocásticamen-

te equivalentes, (pág. 2), en el espacio de probabilidad (Ω,F ,P ). Probarque dichos procesos son estocásticamente equivalentes en sentido am-plio, (pág. 6).Indicación. Sean s1,..., sn elementos de S con s1 < ... < sn ; A1,..., An elemen-tos B(R) y M =⋃

s1<...<sn Ms1...sn , donde Ms1...sn es el subconjunto P-cero deΩ dado por P

(ξsi 6= ηsi

), i = 1, ...,n. Entonces,

ξs1 ∈ A1, ...,ξsn ∈ An

r M =

ηs1 ∈ A1, ...,ηsn ∈ An

.

1.4. Sea ξ = ξss∈S un proceso estocástico real con E (ξ2s ) < +∞ para todo

s ∈ S, definido sobre el espacio de probabilidad (Ω,F ,P ). Para cada s1, s2 ∈S se define la función R(s1, s2) = cov(ξs1 ,ξs2 ) = E (ξs1ξs2 )−E (ξs1)E (ξs2 ) (aR se le llama función de covarianza de ξ). Probar que para s1, ..., sn ∈ S yλ1, ...,λn , números reales, se verifica que

Σi ,k R(si , sk )λiλk > 0.

1.5. Sea ξnn∈N una sucesión estocástica en el espacio de probabilidad(Ω,F ,P ), donde ξ0 = 0 y ξn es variable aleatoria estrictamente positivapara todo n ∈ N+. Se consideran las variables aleatorias η0 = ξ0 y ηn =ξ0 + ...+ξn para todo n ∈N+. Para todo t ∈ J∞ se define

ζt = maxn : n ∈N, ηn 6 t .

Probar que ζt t∈J∞ es un proceso estocástico (proceso de conteo) en el es-pacio de probabilidad dado y que sus trayectorias son funciones escalona-das no decrecientes con discontinuidades (de salto 1) en t = ηn(ω), ω ∈Ω.

4.2. PROCESOS ESTOCÁSTICOS MEDIBLES 21

4.2. Procesos estocásticos medibles

Observamos que un proceso estocástico es en realidad una función de dosvariables, unaωque varía en un espacio medible y otra paramétrica s, (esteparámetro s también se mueve en un espacio medible y, no siendo nece-sario, lo identificamos al tiempo (casi siempre)), y como tal función de dosvariables en espacios medibles es susceptible de ser medible o no.

Definición 4.2.1. Sea ξ= ξs s∈S , S subconjunto deR, un proceso estocásticoen el espacio medible (Ω,F ). Se consideran la función ξ∗ : S ×Ω→ R defi-nida por ξ∗(s,ω) = ξs(ω), s ∈ S, ω ∈ Ω, y la σ-álgebra de Borel de S, B(S),(es decir, B(S) = A ∩ S : A ∈ B(R), (V. 2, pág. 39)). Se dice que ξ es me-dible si la función ξ∗ es (B(S)⊗F )|B(R)-medible, (Definición 3.1.15., (V.

2, pág. 17)), lo que significa que para todo B ∈ B(R),⋃

s∈S(s×ξ−1

s (B))=

(s,ω) ∈ S ×Ω : ξs(ω) ∈B ∈B(S)⊗F .

Observaciones. (1) Sean ξ y η procesos estocásticos indistinguibles, (pág.2), en un espacio de probabilidad (Ω,F ,P ), y supongamos que ξ esmedible. Se considera el espacio de medida completo (S×Ω, (B(S)⊗F )µ, µ), compleción, (V. 2, página 24), del espacio de medida (S ×Ω,B(S)⊗F ,µ=λ|B(S)×P ), (λ medida de Lebesgue en R). Entonces,η∗ : S ×Ω→R, (s,ω) 7→ ηs(ω) es (B(S)⊗F )µ|B(R)-medible.

(2) Los procesos estocásticos ξ = ξs s∈S con S numerable, (V. 2, (2) de lapágina 2), son medibles. En efecto: En el caso de ser S infinito nume-rable (S ≡N) es evidente que para todo B ∈B(R),

(n,ω) : ξn(ω) ∈B =⋃

n∈N

(n×ξ−1

n (B))∈B(N)⊗F .

El caso S finito se prueba de forma análoga.

Si ξ= ξs s∈S , S subconjunto de R, es un proceso estocástico medible enel espacio medible (Ω,F ), entonces para todo ω ∈ Ω la trayectoria ξs (ω),s ∈ S, es función de Borel, es decir, B(S)|B(R)-medible, ya que por la Pro-posición 3.1.47, (V. 2, pág. 43): Para todo B ∈B(R),

HB = (s,ω) : ξs (ω) ∈B ∈B(S)⊗F ,

HB [ω0] = s : (s,ω0) ∈ HB = s : ξs(ω0) ∈ B ∈B(S),

22 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

para todo ω0 ∈Ω, y por tanto, (ξ∗(·,ω0))−1(B) = s : ξs (ω0) ∈B ∈B(S).Por la observación anterior y el resultado que se acaba de demostrar, setiene que si ξ = ξs s∈S es un proceso estocástico con S subconjunto nu-merable de R, entonces todas las trayectorias de ξ son funciones de Borel.Se observa que existen procesos estocásticos no medibles tales que todassus trayectorias son funciones de Borel.

Definición 4.2.2. Sea ξ= ξs s∈S , S intervalo de R, un proceso estocástico enel espacio de probabilidad (Ω,F ,P ). Se dice que ξ es un proceso estocásti-camente continuo o continuo en probabilidad en s0 ∈ S, si para todo ε> 0

lıms→s0

P(ω : |ξs (ω)−ξs0 (ω)| > ε

)= 0.

Se dice que ξ es estocásticamente continuo o continuo en probabilidad enS ′ ⊂ S, si es estocásticamente continuo en todo s0 ∈ S ′.

Se tiene que todo proceso estocástico continuo (página 3) es estocásti-camente continuo en S, (Teorema 3.9.7., (V. 2, pág. 267)). Sin embargo, elrecíproco no es cierto en general (véase el Problema 2.2., pág. 29).

Proposición 4.2.3. Sea ξ = ξs s∈S , S intervalo de R, un proceso estocásticoen el espacio de probabilidad (Ω,F ,P ). Entonces, si ξ es estocásticamen-te continuo (en particular, continuo) se verifica que existe un proceso esto-cástico medible η= ηs s∈S que es estocásticamente equivalente (Definición

4.1.1, pág. 2) al proceso ξ (es decir, ξ tiene una modificación medible).

Teorema 4.2.4 (Fubini). Sean (Ω,F ,P ) un espacio de probabilidad com-pleto y ξ= ξt t∈JT

un proceso estocástico medible en (Ω,F ). Entonces,

(a) Para todo B ∈B(JT ),∫

Ω

[∫

B|ξt (ω)|d t

]P (dω) =

B

[∫

Ω

|ξt (ω)|P (dω)

]d t =

=∫

BE (|ξt (ω)|)d t =

B×Ω|ξt (ω)|d(λT ×P ),

donde λT es la medida de Lebesgue en (JT ,B(JT )), (Teorema 3.4.36,(V. 2, pág. 202)).

(b) Todas las trayectorias del proceso estocástico dado son medibles (Borel)(JT ∋ t 7→ ξt (ω) ∈R, ω ∈Ω), (pág. 21).

4.2. PROCESOS ESTOCÁSTICOS MEDIBLES 23

(c) Si E (ξt ) existe y es finita para cada elemento t de JT , entonces la aplica-ción JT ∋ t 7→ E (ξt ) ∈R es medible.

(d) Si B ∈B(JT ) y∫

B E (|ξt |)d t <+∞, entonces

B|ξt (ω)|d t <+∞ (P −a.s.) y

BE (ξt )d t = E

(∫

Bξt (ω)d t

).

Filtraciones de espacios medibles

Sean (Ω,F ) un espacio medible, S un subconjunto deRy Fs s∈S una fami-lia de σ-álgebras de Ω con Fs1 ⊂Fs2 ⊂F , s1 6 s2, s1, s2 ∈ S. En lo sucesivoa una tal familia se la llamará filtración de (Ω,F ).

Observamos que si tenemos un experimento aleatorio modelado so-bre un espacio de probabilidad (Ω,F ,P ), entonces los elementos de F

pasan a ser los eventos del experimento. Si además tenemos una filtra-ción Fs s∈S en este espacio (es decir, en el espacio medible (Ω,F )), S ⊂R,entonces, para todo s ∈ S, Fs pasa a ser la familia de los eventos del expe-rimento que ocurren antes de s.

Un ejemplo importante de filtración es el que se obtiene por genera-ción deσ-álgebras a partir de un proceso estocástico. Sea ξ= ξs s∈S , S sub-conjunto de R, un proceso estocástico real en el espacio medible (Ω,F ).

Para cada s ∈ S se designa también por Fξs a la σ-álgebra en el conjunto Ω,

σ(Ω : ξt , t ∈ S, t 6 s) (la más pequeña σ-álgebra en Ω que hace medibles aξt , t 6 s, t ∈ S, es decir,

Fξs =

⋂E : E es σ−álgebra de Ω y hace medibles a ξt , t 6 s, t ∈ S

,

(véase la página 40 de V. 2)). Es claro queF

ξs

s∈S

es una filtración de

(Ω,F ). A dicha filtración se le llama filtración generada por ξ. (En el ca-so particular de S =N, cabe otra descripción de

Fξn =σ (Ω : ξt , t 6 n, t ∈N) (=σ (ξ0,ξ1, ...,ξn))

24 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

mediante la imagen inversa: Fξn =

(ξ0, ...,ξn)−1 (B n+1) : B n+1 ∈B(Rn+1)

.

Para probar esta afirmación basta observar que:

(ξ0, ...,ξn)−1 (B n+1) : B n+1 ∈B(Rn+1)

=

σΩ(

(ξ0, ...,ξn )−1(A0 × ...× An ) : A0, ..., An ∈B(R))

es una σ-álgebra en Ω, (Proposición 3.1.14., pág. 16 de V. 2), que hace me-dible a ξm para todo m ∈N con 0 6 m 6 n, (ξm = pm(ξ0, ...,ξn), pm proyec-ción) y (ξ0, ...,ξn )−1 (A0 × ...× An ) = ⋂n

i=0 ξ−1i (Ai ) ∈ σ(ξ0, ...,ξn), A0, ..., An ∈

B(R)).

Sean (Ω,F ) un espacio medible y Ft t∈J∞ una filtración de este espacio.Para cada t ∈ J∞ ponemos

F+t =

⋂s>t

Fs , F−t =σΩ

(⋃s<t

Fs

), F−

0 =F0, F+∞ =σΩ

(⋃s>0

Fs

).

Es claro queF+

t

t∈J∞

yF−

t

t∈J∞

son filtraciones de (Ω,F ).La filtración Ft t∈J∞ se dice que es continua por la derecha si Ft = F+

tpara todo t ∈ J∞, y que es continua por la izquierda si Ft = F−

t para todot ∈ J∞.Observamos: Si partimos de una filtración Ft t∈J∞ la filtración

F+

t

t∈J∞

es continua por la derecha yF−

t

t∈J∞

es continua por la izquierda, (F+t =

⋂s>t F+

s y F−t =σΩ

(⋃s<t F−

s

)).

Sean (Ω,F ,P ) un espacio de probabilidad completo, (V. 2, páginas 24 y25), y Fs s∈S , S ⊂R, una filtración del espacio medible (Ω,F ). Se dice queesta filtración es completa respecto a P , si para todo s ∈ S la σ-álgebra Fs

contiene a todos los elementos N de F tales que P (N ) = 0.Obsérvese que si Fs s∈S es una filtración completa respecto a P , entoncespara todo s ∈ S el espacio de probabilidad (Ω,Fs ,P |Fs ) es completo.

Proposición 4.2.5. Sean (Ω,F ,P ) un espacio de probabilidad, S un sub-conjunto de R y Fss∈S una filtración de (Ω,F ). Se considera el espacio deprobabilidad (Ω,F P ,P ) compleción de (Ω,F ,P ), (V. 2, pág. 24; recordamosque F P = B ⊂ Ω : Existen A, Z ∈ F , N ⊂ Z con B = A ∪ N , P (Z ) = 0, y siB = A∪N ∈F P , A ∈F , N ⊂ Z ∈F , P (Z ) = 0, entonces P (B) = P (A)).

4.2. PROCESOS ESTOCÁSTICOS MEDIBLES 25

Para s ∈ S se define F Ps =σΩ (Fs

⋃N ), donde N =

N ∈F P : P (N ) = 0

.

(Obsérvese que si existe N ∈ F con P (N ) = 0, no existe Z ∈ Fs con N ⊂ Z yP (Z ) = 0, y M 6∈Fs para todo M ⊂ N, M 6=∅, se verifica que F P

s no coincide

con la σ-álgebra FP |Fss compleción de Fs con respecto a la probabilidad

P |Fs ). Entonces,

(1)F P

s

s∈S es una filtración completa con respecto a P en (Ω,F P ).

(2)(

F Ps

)+s∈S

, donde(F P

s

)+ = ⋂t>s F P

t , s ∈ S es una filtración completa

respecto a P y continua por la derecha en el espacio medible (Ω,F P ).

Procesos estocásticos adaptados a una filtración

Se dice que un proceso estocástico real ξ = ξss∈S , S ⊂ R, definido en elespacio medible (Ω,F ), está adaptado a una filtración Fs s∈S de dichoespacio, si para todo s ∈ S la variable aleatoria ξs es Fs |B(R)-medible (quese abrevia por Fs -medible).Es claro que todo proceso estocástico real ξ= ξs s∈S , S ⊂R, en un espacio

medible (Ω,F ), esta adaptado a la filtraciónF

ξs

s∈S

generada por ξ.

Proposición 4.2.6. Sean (Ω,F ,P ) un espacio de probabilidad completo, Sun subconjunto de R y Fs s∈S una filtración completa respecto a P del espa-cio medible (Ω,F ). Sean ξ= ξs s∈S y η=

ηs

s∈S procesos estocásticos reales

en (Ω,F ) tales que η es una modificación de ξ. Entonces, si ξ está adapta-do a la filtración dada, η también lo está. (Basta observar que

ηs ∈ B

=(

ξs ∈ B∪ηs ∈ B ,ξs ∈ B c

)r

ηs ∈ B c ,ξs ∈ B

, s ∈ S, B ∈B(R).)

Advertencia. Como en la teoría de procesos estocásticos no se distinguenprocesos estocásticamente equivalentes en sentido estricto, (pág. 2), y sepretende que los distintos conceptos de la teoría, (por ejemplo, entre otros,el carácter medible y adaptación), perduren en esta igualdad (equivalen-cia), en lo sucesivo se entenderá que se trabaja en espacios de probabili-dad completos y con filtraciones completas respecto a la probabilidad deese espacio sin mencionarlos expresamente, aunque se resalta que algu-nos resultados son válidos sin estas exigencias. Por lo visto anteriormentepara filtraciones, esto no supone ninguna restricción en el desarrollo de lateoría de procesos estocásticos.

26 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

Procesos estocásticos progresivamente medibles

Definición 4.2.7. Sean (Ω,F ) un espacio medible y Fs s∈JT una filtraciónde (Ω,F ). Un proceso estocástico ξ= ξs s∈JT

, definido en (Ω,F ) se dice quees progresivamente medible respecto a Fs s∈JT si, para todo t ∈ JT y todoB ∈B(R), (s,ω) : 0 6 s 6 t ,ω ∈Ω,ξs (ω) ∈B ∈B([0, t ])⊗Ft .

El lema que sigue es un resultado auxiliar para demostrar que todo proce-so estocástico progresivamente medible, respecto a una filtración, es me-dible.

Lema 4.2.8. Sean (Ω,F ) un espacio medible y Ft t∈J∞ una filtración deeste espacio. Para tn ∈ J∞ se considera

An = A×F ⊂ [0, tn]×Ω : F ∈F , A ∈B([0, tn]).

Entonces,(1). La aplicación inclusión in : [0, tn] ×Ω ,→ J∞ ×Ω es una aplicación(B([0, tn])⊗F )|(B(J∞)⊗F )-medible.

(2). B([0, tn])⊗Ftn ⊂ B([0, tn])⊗F , σJ∞×Ω(An) ⊂ B(J∞)⊗F , (B(J∞)⊗F )∩([0, tn ]×Ω) ⊃σJ∞×Ω(An)∩([0, tn]×Ω) =σ[0,tn ]×Ω(An) =B([0, tn])⊗F .

Demostración. (1). Sea A = A×F ⊂ J∞×Ω : F ∈F , A ∈B(J∞). Entonces,se verifica la igualdad σJ∞×Ω(A ) =B(J∞)⊗F y para cada A×F ∈A ,

i−1n (A×F ) = (A×F )∩ ([0, tn ]×Ω) = (A∩ [0, tn])×F ∈An ⊂B([0, tn])⊗F .

Entonces, (1) sigue del Lema 3.1.16., (V. 2, pág. 17).(2). Por la Proposición 3.1.17., (V.2, pág. 17), tomando i = in y G =An , seconcluye que,

An ∩ ([0, tn]×Ω) =An ⊂B([0, tn])⊗F , B([0, tn ])⊗F ==σ[0,tn ]×Ω(An) =

(σJ∞×Ω(An)

)∩ ([0, tn]×Ω) ⊂ (B(J∞)⊗F )∩ ([0, tn ]×Ω),

σJ∞×Ω(An) ⊂B(J∞)⊗F .

4.2. PROCESOS ESTOCÁSTICOS MEDIBLES 27

Proposición 4.2.9. Sean (Ω,F ) un espacio medible y ξ= ξs s∈JTun proceso

estocástico, en este espacio, progresivamente medible respecto a la filtraciónFs s∈JT

de (Ω,F ). Entonces,

(1). ξ está adaptado a la filtración Fs s∈JT .

(2). ξ es medible.

Demostración. (1). Para todo t ∈ JT , la aplicación [0, t ]×Ω → R, (s,ω) 7→ξs (ω), es (B([0, t ])⊗Ft )|B(R)-medible, de donde, para todo B ∈B(R)

(Gt ,B =)(s,ω) ∈ [0, t ]×Ω : ξs (ω) ∈ B ∈B([0, t ])⊗Ft

y por la Proposición 3.1.47., (V. 2, pág. 43),

Gt ,B [t ] = ω ∈Ω : (t ,ω) ∈Gt ,B = ω ∈Ω : ξt (ω) ∈B = ξ−1t (B) ∈Ft ,

y por tanto, ξt es Ft -medible y ξ está adaptado a Fs s∈JT .(2). Si T es un número real, se tiene que T ∈ JT , (JT = [0,T ]). Así, comoξ es progresivamente medible respecto a la filtración Fs s∈JT , la aplica-ción [0, t ] ×Ω → R, (s,ω) 7→ ξs (ω), es (B(JT ) ⊗FT )|B(R)-medible y portanto, (B(JT )⊗F )|B(R)-medible, (B(JT )⊗FT ⊂B(JT )⊗F , (Proposición3.1.56., (V. 2, pág. 53))).Supongamos ahora que T = +∞. Tenemos que ver que la función ξ∗ :J∞×Ω→R, ξ∗(t ,ω) = ξt (ω), es (B(J∞)⊗F )|B(R)-medible.Sea tn ∈ J∞, n ∈N, tal que tn < tn+1 y lımn→+∞ tn =+∞. Es claro que

[0, tn]×Ω ∈B(J∞)⊗F , n ∈N, y [0, tn]×Ω ↑ J∞×Ω, n →+∞.

Por otro lado, de la hipótesis (progresivamente medible), se tiene que laaplicación ξ∗|[0,tn ]×Ω : [0, tn]×Ω→ R es ((B(J∞)⊗F )∩ ([0, tn]×Ω))|B(R)-medible, ya que para todo B ∈B(R),

(ξ∗|[0,tn ]×Ω

)−1(B) = (ξ∗)−1(B)∩ ([0, tn]×Ω) =

= (t ,ω) : t 6 tn , ξt (ω) ∈B ∈B([0, tn])⊗Ftn ⊂⊂B([0, tn])⊗F ⊂ (B(J∞)⊗F )∩ ([0, tn ]×Ω),

donde se ha utilizado la Proposición 3.1.56., (V. 2, pág. 53), para la pri-mera inclusión y el lema anterior para la segunda inclusión. Entonces porla Proposición 3.1.18., (V. 2, pág. 18), se concluye que la aplicación ξ∗ es(B(J∞)⊗F )|B(R)-medible, es decir, ξ es medible.

28 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

Teorema 4.2.10 (Chung-Doob (1964), Meyer (1966)). Sean (Ω,F ,P ) unespacio de probabilidad, Fs s∈JT una filtración de (Ω,F ) y ξ = ξs s∈JT

unproceso estocástico real en (Ω,F ) medible y adaptado a la filtración dada.Entonces, existe una modificación de ξ, (Definición 4.1.1., pág. 2), que esprogresivamente medible respecto a la filtración Fs s∈JT .

Corolario 4.2.11. Si el proceso estocástico ξ= ξs s∈JT, en el espacio de pro-

babilidad (Ω,F ,P ), está adaptado a la filtración Fs s∈JT de (Ω,F ) y es es-tocásticamente continuo (Definición 4.2.2., pág. 22), entonces existe unamodificación de ξ que es progresivamente medible respecto a Fs s∈JT .

Proposición 4.2.12. Sean (Ω,F ,P ) un espacio de probabilidad, Fs s∈JT

una filtración de (Ω,F ) y ξ= ξss∈JTun proceso estocástico sobre el espacio

medible (Ω,F ) adaptado a la filtración Fs s∈JT . Supongamos que ξ tienetodas sus trayectorias continuas (continuas por la derecha o continuas porla izquierda). Entonces, ξ es progresivamente medible respecto a la filtraciónFs s∈JT , y por tanto, es medible y adaptado a la filtración Fs s∈JT .Como consecuencia se tiene que si ξ está adaptado a la filtración Fs s∈JT

y es continuo, (pág. 3), (continuo por la derecha o continuo por la izquier-da), entonces existe un proceso estocástico η en (Ω,F ) indistinguible de ξ yprogresivamente medible respecto a Fs s∈JT .

Demostración. Supongamos que ξ es continuo por la derecha, y sea t ∈ JT .Para todo n ∈N+, se define la función ξ∗n : [0, t ]×Ω→R por

ξ∗n(s,ω) = ξ∗(0,ω) · I0(s)+2n−1∑

k=0

ξ∗(

(k +1)t

2n ,ω

)· I(kt2−n ,(k+1)t2−n ](s).

Es claro que todas estas funciones son (B([0, t ])⊗Ft )|B(R)-medibles, (V.2, páginas 149 y 154). Por la continuidad por la derecha de ξ, se deduce quelımn→+∞ ξ∗n(s,ω) = ξ∗(s,ω), y por Teorema 3.3.5. (V. 2, pág. 153) se conclu-ye que la restricción de ξ∗(s,ω) a [0, t ]×Ω es (B([0, t ])⊗Ft )|B(R)-medible,lo cual prueba que ξ es progresivamente medible respecto Fs s∈JT . La úl-tima parte de la proposición sigue de la Proposición 4.2.9., (pág. 27).Para la consecuencia basta aplicar la Proposición 4.1.2.(1), (pág. 3).El caso ξ continuo por la izquierda se prueba de forma análoga.

4.2. PROCESOS ESTOCÁSTICOS MEDIBLES 29

En la proposición que sigue se establece una de las propiedades mássignificativas de los procesos estocásticos reales medibles y de los progre-sivamente medibles.

Proposición 4.2.13. Sean (Ω,F ,P ) un espacio de probabilidad, Ft t∈JT

una filtración del espacio medible (Ω,F ) y ξ= ξt t∈JTun proceso estocásti-

co real en (Ω,F ). Entonces,

(1). Si ξ es medible y P(∫T

0 |ξs |d s <+∞)= 1, se verifica que para todo t ∈ JT

y todo ω ∈Ω existe la integral de Lebesgue∫t

0 ξs d s y es finita, y se tienedefinido el proceso estocástico real η=

ηt =

∫t0 ξs d s

t∈JT

, (es decir, ηt

es variable aleatoria, t ∈ JT , (Teorema 3.4.36., (V. 2, pág. 202))), quees medible.

(2). Si ξ es progresivamente medible respecto a Ft t∈JT (por tanto, medi-

ble y adaptado a esa filtración) y P(∫T

0 |ξs |d s <+∞)= 1, el proceso

estocástico real de (1), η =∫t

0 ξs d s

t∈JT, es progresivamente medible

respecto a Ft t∈JT.

Para un ejemplo de proceso estocástico real medible y adaptado a unafiltración, ξ = ξt t∈JT

, con η =ηt =

∫t0 ξs d s

no adaptado a esa filtración,

véase el ejemplo (2.2) de la página 251 de [26], (por la Proposición 4.2.9.,(pág. 27), η no es progresivamente medible respecto a la filtración consi-derada en el ejemplo).

Por último, destacamos el siguiente resultado: Sea ξ = ξss∈S un pro-ceso estocástico sobre el espacio de probabilidad (Ω,F ,P ), medible y talque E (|ξs |) < +∞, s ∈ S, y sea Fs s∈S una filtración de (Ω,F ). Entonces,E (ξs |Fs ) (= ηs) se puede escoger de tal forma que el proceso estocástico η =ηs

s∈S sea medible. Siempre se supondrá hecha esta elección.

Ejercicios y problemas

2.1. Probar que un proceso estocástico continuo con dominio del paráme-tro S, intervalo de R, (pág. 3), es estocásticamente continuo en S, (pág. 22).

2.2. En el espacio de probabilidad ([0,1],B([0,1]),λ), donde λ es la medi-da de Lebesgue en [0,1], se considera el proceso estocástico ξ = ξt t∈[0,1],

30 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

definido por ξt (ω) = 1 si t >ω, y ξt (ω) = 0 si t 6ω. Probar que ξ es estocás-ticamente continuo y que no es continuo.

2.3. Probar que los procesos estocásticos dados por el teorema de Kolmo-gorov (pág. 7) no son medibles.

4.3. Procesos estocásticos estacionarios. Proce-sos Gaussianos

Sucesiones estocásticas estacionarias

Una sucesión estocástica real ξ = ξnn∈N+ , en el espacio de probabilidad(Ω,F ,P ), es estacionaria en sentido estricto si para cada B ∈ B(R∞), (V. 2,pág. 62), y cada k ∈N+, se tiene P ((ξ1,ξ2, ...) ∈ B) = P ((ξk+1,ξk+2, ...) ∈ B),(Corolario 3.1.45., V. 2, pág. 43).Teniendo en cuenta las definiciones de la sección 4.1, el concepto anteriorse reformula de la siguiente manera:

Proposición 4.3.1. Sea ξ = ξnn∈N+ una sucesión estocástica real. Las si-guientes afirmaciones son equivalentes:

(1). ξ es estacionaria en sentido estricto.

(2). Para todo elemento k de N+, las sucesiones estocásticas ξ = ξnn∈N+

y ξ(k) = ξn+k n∈N+ tienen la misma distribución de probabilidad, esdecir, PXξ

= PXξ(k), (pág. 5).

(3). Para todo elemento k de N+, las sucesiones estocásticas ξ = ξnn∈N+

y ξ(k) = ξn+k n∈N+ tienen la misma ley de probabilidad (pág. 6), esdecir, para todo t1,...,tm ∈N+ distintos dos a dos, m ∈N+,

F ξ(t1 ,...,tm ) = F

ξ(k)

(t1 ,...,tm ) = F ξ

(t1+k,...,tm+k).

(4). Para todo k ∈N+, todo t1,...,tm ∈N+ distintos dos a dos, m ∈N+, y todo(x1, ..., xm ) ∈Rm ,

P(ξt1 6 x1, ...,ξtm 6 xm

)= P

(ξt1+k 6 x1, ...,ξtm+k 6 xm

).

4.3. PROCESOS ESTOCÁSTICOS ESTACIONARIOS. PROCESOS GAUSSIANOS 31

Se deduce del Corolario 3.4.29., (V. 2, pág.191), que: Si ξ = ξnn∈N+ esuna sucesión estocástica real estacionaria en sentido estricto con E

(ξ2

n

)<

+∞, n ∈N+, entonces E (ξn) = E (ξ1), (es decir, E (ξn) es independiente den) y E (ξn+mξn) = E (ξ1+mξ1), n,m ∈N+.Teniendo en cuenta la fórmula cov(ξ,η) = E (ξη)−E (ξ)E (η), (V. 2, pág. 249),las dos condiciones anteriores son equivalentes a:E (ξn) = E (ξ1) y cov (ξn+m ,ξn) = cov (ξ1+m ,ξ1), n,m ∈N+.Este resultado motiva la siguiente definición:Una sucesión estocástica real ξ = ξnn∈N+ es estacionaria en sentido am-plio si: E

(ξ2

n

)<+∞, E (ξn) = E (ξ1) y cov (ξn+m ,ξn) = cov (ξ1+m ,ξ1), n,m ∈

N+. Por lo dicho más arriba, estas condiciones son equivalentes a las si-guientes: E

(ξ2

n

)<+∞, E (ξn) = E (ξ1) y E (ξn+mξn) = E (ξ1+mξ1), n,m ∈N+.

Definición 4.3.2. Una sucesión ζ= ζnn∈Z de variables aleatorias comple-jas, (V. 2, pág. 273), definidas sobre el espacio de probabilidad (Ω,F ,P ), esestacionaria en sentido amplio si

E(|ζn |2

)<+∞, E (ζn) = E (ζ0) y cov (ζk+n ,ζk ) = cov (ζn ,ζ0) , n,k ∈Z.

Por comodidad suponemos E (ζ0) = 0. No se pierde generalidad y seobtiene poder identificar la covarianza con el producto escalar del espaciode Hilbert H2(Ω,F ,P ), (V. 2, pág. 274).

Ponemos R(n) = cov (ζn ,ζ0), n ∈ Z, y ρ(n) = R(n)/R(0), n ∈ Z, dondehemos supuesto que R(0) = cov (ζ0,ζ0) = (ζ0,ζ0) = ‖ζ0‖2 6= 0.Luego asociadas a una sucesión ζ estacionaria en sentido amplio tenemosR(n) (función de covarianza) y ρ(n) (función de correlación) que cumplen:

1. R(n) es semidefinida positiva, es decir, para a1,...,am , números com-plejos, y todo t1,...,tm , elementos de Z, m > 1, tenemos

m∑

i , j=1ai a j R(ti − t j ) es un número real no-negativo.

2. R(0) > 0, R(−n)= R(n), |R(n)|6 R(0),

|R(n)−R(m)|2 6 2R(0)[R(0)−ReR(n −m)].

Los resultados del apartado 2 son consecuencia del apartado 1, es decir,son propiedades generales de las funciones semidefinidas positivas.

32 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

Teorema 4.3.3 (Herglotz). Sea R : Z→ C una función. Entonces, R es fun-ción de covarianza de una sucesión estocástica estacionaria en sentido am-plio, ζ = ζnn∈Z, sobre el espacio de probabilidad (Ω,F ,P ) si y sólo si exis-te en el espacio medible ([−π,+π],B([−π,+π])) una medida finita µ(B),B ∈B([−π,+π]), tal que para cada n ∈Z

R(n) =∫+π

−πexp(iun)µ(du).

Si ζ = ζnn∈Z es una sucesión estocástica estacionaria en sentido am-plio sobre el espacio de probabilidad (Ω,F ,P ), a la medida µ, dada porel teorema anterior, que es única, se le llama medida espectral de ζ y aF (u) =µ([−π,u]) se le llama función espectral de ζ, (F es la función de dis-tribución generalizada determinada porµ, (Observación, (V. 2, pág. 103))).

Ejemplo 1. Sea ζn =∑+∞

k=−∞ zk · exp(iλk n), donde zk , k ∈ Z, son variablesaleatorias complejas con esperanza matemática 0 y tales que E (zi z j ) = 0,i 6= j , y E

(|zk |2

)=σ2

k > 0, −π6λk <π, k ∈Z, λi 6=λ j , i 6= j .Supongamos que

∑+∞k=−∞σ2

k <+∞. Entonces, la serie∑+∞

k=−∞ zk ·exp(iλk n)converge en media cuadrática, la sucesión de variables aleatorias comple-jas, ζ= ζnn∈Z, es estacionaria en sentido amplio y

R(n) = cov(ζn ,ζ0) =+∞∑

k=−∞σ2

k exp(iλk n).

Consideramos la función, F (λ) =∑

k : λk6λσ2k , con la cual se obtiene

R(n) =∫π

−πexp(iλn)F (dλ)

(integral de Lebesgue-Stieltjes; F (λ) es distribución generalizada y es lafunción espectral de ζ).La sucesión estacionaria en sentido amplio ζn =

∑+∞k=−∞ zk ·exp(iλk n), n ∈

Z, está representada como suma de armónicos exp(iλk n) con frecuenciasλk y amplitudes estocásticas zk de intensidades σ2

k = E(|zk |2

).

Los valores de F (λ) dan información completa sobre el espectro de ζ, esdecir, sobre la intensidad con la cual cada frecuencia aparece en ζn .

4.3. PROCESOS ESTOCÁSTICOS ESTACIONARIOS. PROCESOS GAUSSIANOS 33

Ejemplo 2. Sea ζ = ζnn∈Z una sucesión de variables aleatorias comple-jas ortonormal, (es decir, E (ζnζm) = (ζm ,ζn) = δn,m , (delta de Kronecker)),con E (ζn) = 0 para todo n ∈ Z. Es claro que esta sucesión estocástica ζ esestacionaria en sentido amplio y

R(n) = cov(ζn ,ζ0) =

cov(ζ0,ζ0) = (ζ0,ζ0) = |ζ0|2 = 1, para n = 0cov(ζn ,ζ0) = E (ζn ζ0) = 0, para n 6= 0.

Ponemos f (λ) = 1/2π, −π 6 λ < π y F (λ) =∫λ−π f (x)d x. Entonces, R(n) =∫+π

−π exp(iλn)F (dλ).Podemos decir que ζ consta de armónicos de intensidades iguales, ya quela densidad espectral f (λ) es constante. Esta propiedad llevó a que a ζ sellamase sucesión estocástica ruido blanco (white noise), por analogía conluz blanca (white light), que consiste en diferentes frecuencias con las mis-mas intensidades, (para procesos estocásticos con tiempo continuo (ruidoblanco), véase la sección 4.6).

Procesos estocásticos estacionarios

El proceso estocástico real ξ= ξss∈S , S ⊂R, definido en el espacio de pro-babilidad (Ω,F ,P ), se dice que es estacionario en sentido estricto si

F ξ(s1,...,sn )(x1, ..., xn ) = F ξ

(s1+h,...,sn+h)(x1, ..., xn ), (x1, ..., xn ) ∈Rn ,

para todo n ∈N+, toda n-tupla ordenada de elementos distintos dos a dosde S, (s1, ..., sn), y todo número real h tal que s1 +h, ..., sn +h ∈ S, (pág. 5).Obsérvese que por la Proposición 4.3.1., (pág. 30), toda sucesión estocás-tica real estacionaria en sentido estricto es un proceso estocástico real es-tacionario en sentido estricto según la definición anterior.

Si ξ = ξss∈S , S subconjunto de R, es un proceso estocástico real esta-cionario en sentido estricto y E (ξ2

s ) <+∞, (es decir, ξs ∈ L2, (V. 2, pág. 271)),para todo s ∈ S, entonces se tiene que:(1). Para todo s,h ∈R con s, s +h ∈ S, E (ξs) = E (ξs+h), es decir, E (ξs) = m =const ante .(2). Para todo t , s,h ∈R con t , s, t +h, s +h ∈ S, E (ξtξs ) = E (ξt+hξs+h).

34 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

Teniendo en cuenta la fórmula cov(ξt ,ξs ) = E (ξtξs )−E (ξt )E (ξs), (V. 2, pág.249), las dos afirmaciones (1). y (2). anteriores son equivalentes a las dossiguientes:(1∗). Para todo s,h ∈R con s, s+h ∈ S, E (ξs) = E (ξs+h), es decir, E (ξs) = m =const ante .(2∗). Para todo t , s,h ∈R con t , s, t+h, s+h ∈ S, cov(ξt ,ξs ) = cov(ξt+h ,ξs+h ).

El resultado anterior motiva la siguiente definición: El proceso estocás-tico ξ= ξs s∈S real o complejo, S subconjunto de R, definido en el espaciode probabilidad (Ω,F ,P ), se dice que es estacionario en sentido amplio si

E(ξ2

s

)<+∞, E (ξs) = E (ξs+h) , y cov (ξs ,ξt ) = cov (ξs+h ,ξt+h ) ,

para todo s, t ,h ∈ R con s, t , s + h, t + h ∈ S. Por lo dicho más arriba, es-tas condiciones son equivalentes a las siguientes: E

(ξ2

s

)< +∞, E (ξs ) =

E (ξs+h ) y E (ξtξs ) = E (ξt+hξs+h), para todo s, t ,h ∈R con s, t , s +h, t +h ∈ S.Obsérvese que toda sucesión estocástica real (o compleja) estacionaria ensentido amplio es un proceso estocástico real (o complejo) estacionario ensentido amplio según la definición anterior.

Sea ξ = ξt t∈R un proceso estocástico real o complejo estacionario ensentido amplio. A la función R : R → C definida por R(t ) = cov(ξt ,ξ0) =cov(ξs+t ,ξs ), t , s ∈R, se le llama función de covarianza de ξ. Es claro que siξ es un proceso estocástico real, entonces im(R) ⊂R⊂C.

Proposición 4.3.4. Sean (Ω,F ,P ) un espacio de probabilidad y ξ = ξt t∈Run proceso estocástico real o complejo estacionario en sentido amplio eneste espacio. Se considera la función de covarianza R : R→C de ξ. Entonces,las siguientes afirmaciones son equivalentes:

(1). R es una función continua.

(2). R es una función continua en 0.

(3). El proceso estocástico ξ es continuo en media cuadrática, es decir, paratodo t0 ∈ R, se verifica que lımt→t0 E ((ξt − ξt0 )2) = 0, (véase (3) de lapágina 265 de V. 2).

4.3. PROCESOS ESTOCÁSTICOS ESTACIONARIOS. PROCESOS GAUSSIANOS 35

Teorema 4.3.5 (Bochner-Khinchine). Sea R : R→R (o R : R→C) una fun-ción continua. Entonces, R es la función de covarianza de un proceso esto-cástico real (o complejo), ξ= ξt t∈R, estacionario en sentido amplio, (por laproposición anterior, ξ será continuo en media cuadrática), si y sólo si existeuna medida finita µ en (R,B(R)) tal que

R(t ) =∫+∞

−∞exp(i tu)µ(du), t ∈R (∗).

Además, si R es función de covarianza de un proceso estocástico estacionarioen sentido amplio ξ, la medida finita µ cumpliendo (∗) es única.

Sea ξ= ξt t∈R un proceso real o complejo, sobre el espacio de probabi-lidad (Ω,F ,P ), estacionario en sentido amplio y continuo en media cua-drática, ((3) de la proposición anterior), y R su función de covarianza. A laúnica medida µ en (R,B(R)) tal que R(t ) =

∫+∞−∞ exp(i tu)µ(du), t ∈ R, da-

da por el teorema anterior, se le llama medida espectral de ξ. Esta medidaµ determina una única distribución generalizada en R, F (u), mediante lafórmula F (u) = µ((−∞,u]), u ∈ R, (V. 2, pág. 103), que se llama función dedistribución espectral de ξ. Si F tiene densidad f , a f se le llama densidadespectral de ξ y se tiene la fórmula F (t ) =

∫+∞−∞ f (u) ·exp(i tu)du.

Si∫+∞−∞ |R(t )|d t < +∞, F tiene función de densidad, f , que se obtiene por

la fórmula de inversión:

f (u) =1

∫+∞

−∞R(t ) ·exp(−i tu)d t .

(Véase el Teorema 3.10.7, (V. 2, pág. 284)). Físicamente, la función espec-tral F se puede interpretar como una función de distribución acumulativadescribiendo la distribución de energía en términos de las distintas fre-cuencias de la que está formada, es decir, su espectro.

Procesos estocásticos Gaussianos

Definición 4.3.6. Sea ξ = ξuu∈U , U conjunto arbitrario, un proceso esto-cástico. Se dice que ξ es un proceso estocástico (o un sistema) Gaussiano onormal si

(ξu1 , ...,ξun

)es Gaussiana, (Definición 3.12.2., (V. 2, pág. 301))

para cada n ∈N+ e índices u1,...,un cualesquiera y distintos dos a dos de U .

36 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

Propiedades de los procesos estocásticos Gaussianos.

(1) Si ξ= ξuu∈U es un sistema Gaussiano, se verifica que cada subsistemaξuu∈U ′ , U ′ ⊂U , es un sistema Gaussiano.

(2) Si ξ = ξuu∈U es proceso estocástico con elementos independientes ycada ξu es Gaussiana, entonces ξ= ξuu∈U es sistema Gaussiano.

(3) Sea ξ= ξuu∈U un sistema Gaussiano. Sea L (ξ) la expansión lineal deeste sistema ξ en el espacio vectorial de las variables aleatorias. Sea

L (ξ) =L (ξ)⋃

η : ξnL2

→ η, ξn ∈L (ξ)

.

Entonces L (ξ) es un sistema Gaussiano.

(4) Todo proceso estocástico Gaussiano ξ = ξs s∈S , S ⊂ R, en un espaciode probabilidad (Ω,F ,P ), estacionario en sentido amplio es un pro-ceso estocástico estacionario en sentido estricto. (Dos variables alea-torias Gaussianas con los mismos dos primeros momentos, tienenla misma función característica, (V. 2, pág. 275), y por el Teorema3.10.8., (V. 2, pág. 285), tienen igual función de distribución).

Ejercicios y problemas3.1. Sean (Ω,F ,P ) un espacio de probabilidad, S un subconjunto de R yξ = ξss∈S un proceso estocástico estacionario en sentido estricto, en eseespacio, tal que E

(ξ2

s

)< +∞ para todo s ∈ S. Probar que ξ es un proceso

estocástico estacionario en sentido amplio.

3.2. Sean (Ω,F ,P ) un espacio de probabilidad, S un subconjunto de R y ξ,η dos variables aleatorias, en este espacio. Probar que el proceso estocás-tico

ζs = ξ+ sη

s∈S es Gaussiano en cada uno de los siguientes casos:

(1). (ξ,η) es un vector aleatorio Gaussiano.(2). ξ y η son variables aleatorias Gaussianas de esperanza 0, varianza 1 eincorreladas (cov(ξ,η) = 0).

3.3. Sean (Ω,F ,P ) un espacio de probabilidad, S un subconjunto de R yξ, η dos variables aleatorias, en este espacio, de esperanza 0, varianza 1 eincorreladas (cov(ξ,η) = 0). Probar que el proceso estocástico definido porζs = ξsen(2πs)+ηcos(2πs)

s∈S es estacionario en sentido amplio.

4.4. PROCESOS ESTOCÁSTICOS REALES DE MARKOV 37

3.4. Sean (Ω,F ,P ) un espacio de probabilidad y ξnn∈N una sucesión devariables aleatorias independientes y Gaussianas de este espacio. Probarque

ηn = ξ0 +ξ1 + ...+ξn

n∈N es un proceso estocástico Gaussiano.

4.4. Procesos estocásticos reales de Markov

Definición 4.4.1. Sean (Ω,F ,P ) un espacio de probabilidad y ξ = ξs s∈S

un proceso estocástico real definido sobre el espacio medible (Ω,F ) y condominio del parámetro S, donde S es un subconjunto no vacío y no puntualde R (mientras no se advierta lo contrario, S será de esta forma), (nótese quesi S es numerable, el proceso ξ es medible, (Observación (2), pág. 21)).

(1) Sea Fs s∈S una filtración de (Ω,F ). Se dice que ξ= ξss∈S es un procesode Markov respecto a Fs s∈S y a P si:

(a) ξ está adaptado a Fs s∈S , (pág. 25).

(b) Para todo s ∈ S, A ∈ Fs , B ∈ σ (Ω : ξt , t ∈ S, t > s)(=F

ξ>s

), (V. 2,

pág. 40),se verifica que P (A∩B | ξs) = P (A | ξs )P (B | ξs ), (P-a.s.).(Recordamos que P (C | ξs ) = P

(C | Gξs

)= E

(IC | Gξs

), C ∈F , ((4)

y (5), (V. 2, pág. 220)).

(2) Se dice que ξ= ξs s∈S es un proceso de Markov en (Ω,F ,P ) si es un pro-

ceso de Markov respecto a la filtraciónF

ξs

s∈S

generada por ξ, (pág.

23), y a P, (obsérvese que por construcción, ξ está siempre adaptado ala filtración que genera).

Sean (Ω,F ,P ) un espacio de probabilidad y ξ = ξs s∈S , donde S es unsubconjunto numerable de R, un proceso estocástico real en (Ω,F ). En-tonces, si ξ es un proceso de Markov respecto a una filtración Fs s∈S , de(Ω,F ), y a P , se dice que ξ es una cadena de Markov respecto a Fs s∈S y aP ; y si ξ= ξs s∈S es un proceso estocástico de Markov en (Ω,F ,P ), se diceque ξ= ξss∈S es una cadena de Markov en este espacio de probabilidad.(Usualmente, al considerar procesos de Markov, S será JT o N).

Teorema 4.4.2. Sean (Ω,F ,P ) un espacio de probabilidad, Fr r∈S , S sub-conjunto de R, una filtración de (Ω,F ) y ξ = ξr r∈S un proceso estocásticoreal, en (Ω,F ), adaptado a Fr r∈S . Entonces son equivalentes:

38 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

(1) ξ es un proceso de Markov respecto a Fr r∈S y a P.

(2) Para todo s ∈ S y todo B ∈σ(Ω : ξt , t ∈ S, t > s), se cumple que P (B |Fs ) =P (B |ξs ), (P-a.s.).

(3) Para todo elemento s ∈ S y toda variable aleatoria η en (Ω,F ), (V. 2,pág. 149), acotada y σ (Ω : ξt , t ∈ S, t > s)-medible, se tiene E

(η | Fs

)=

E(η | ξs

), (P-a.s.).

(4) Para todo s, t ∈ S con s < t y toda función f : R → R de Borel aco-tada (o E ( f (ξt )) existe y es finita, en vez de f acotada), se verificaE

(f (ξt ) | Fs

)= E

(f (ξt ) | ξs

), (P-a.s.).

(5) (Propiedad de Markov) Para todo t , s ∈ S con s < t y todo B ∈B(R),P (ξt ∈B |Fs ) = P (ξt ∈ B |ξs ), (P-a.s.).(Nótese que con las hipótesis generales del teorema se verifica que:P (ξs ∈B |Fs ) = P (ξs ∈B |ξs ) = Iξ−1

s (B) = IB (ξs), (P-a.s.), s ∈ S).

Observación. Con las hipótesis generales del Teorema 4.4.2. y supuestoque se cumple (1), se tiene que Gξs ⊂σ (Ω : ξu ,u ∈ S,u 6 s) ⊂Fs para todos ∈ S, y por (8) y (9), (V. 2, pág. 221) y la propiedad de Markov (5), se deduce

P (ξt ∈ B |ξs ) = E (P (ξt ∈B |ξs ) |σ(Ω : ξu ,u ∈ S,u 6 s))== E (P (ξt ∈ B |Fs ) |σ(Ω : ξu ,u ∈ S,u 6 s)) =

= P (ξt ∈ B |σ(Ω : ξu ,u ∈ S,u 6 s)) , (P −a.s.), s, t ∈ S, s < t , B ∈B(R).

Respecto a la propiedad de Markov cabe la siguiente interpretación (te-niendo en cuenta que Fs , de una filtración, significa los eventos anterioresal tiempo s, (pág. 23)), a saber, que el futuro sólo depende del presente y nodel pasado o dicho de otra forma el pasado y el futuro son independientes,conocido el presente. Decimos que el proceso no tiene memoria.El aserto que acabamos de establecer se ve con más claridad en su análogoen ecuaciones diferenciales ordinarias en el análisis de sistemas dinámicosdeterministas. La ecuación diferencial ordinaria

d x(t )

d t= f (t , x(t ))

4.4. PROCESOS ESTOCÁSTICOS REALES DE MARKOV 39

dice que la velocidad de cambio de x en el tiempo t depende sólo de x enel tiempo presente t y no de x(s), s < t . Como consecuencia, para t0 < t1,x(t1) = x(t1, x(t0), t0). Es decir, la solución de la ecuación dada en t1 es unafunción de la condición inicial x(t0) y no depende de x(s), s < t0.A continuación se precisa la afirmación que se ha comentado en la obser-vación anterior.Sean (Ω,F ,P ) un espacio de probabilidad y ξ = ξt t∈J∞ un proceso deMarkov respecto a una filtración Ft t∈J∞ , de (Ω,F ), y de P .(a). Para todo s ∈ J∞, n ∈N y toda n-tupla ordenada (t1, ..., tn ) de elemen-tos distintos dos a dos de [0, s], y B1, ...,Bn ∈ B(R), por la definición deP(ξt1 ,...,ξtn ), (pág. 5), se tiene que:

P((ξt1 , ...,ξtn

)−1(B1 × ...×Bn)

)= P(

ξt1 ,...,ξtn

) (B1 × ...×Bn ) ,(ξt1 , ...,ξtn

)−1(B1 × ...×Bn ) ∈σ (Ω : ξu ,0 6 u 6 s) .

Al elemento(ξt1 , ...,ξtn

)−1(B1 × ...×Bn) de la σ-álgebra σ (Ω : ξu ,0 6 u 6 s)

lo designaremos por Ast1 ...tn

(B1 × ...×Bn ).(b). En Mecánica estadística la difusión de una partícula en un medio den-so se modela mediante un proceso de Markov como el descrito anterior-mente (ver (5) de teorema anterior). De manera aleatoria ξu da la posiciónde la partícula en el tiempo u, es decir, la probabilidad de que la partículaesté en B ∈ B(R) en el tiempo u es P (ξu ∈ B). Suponemos que s es el pre-sente. De forma aleatoria, ξu , u < s, es la trayectoria del pasado. ¿Cuál es laprobabilidad de que (la trayectoria del pasado) en t1 ∈ [0, s) haya entradoen B1 ∈B(R),..., en tn ∈ [0, s) haya entrado en Bn ∈B(R)?:

P(ω : ξt1 (ω) ∈ B1, ...,ξtn (ω) ∈ Bn

)= P

(As

t1 ...tn(B1 × ...×Bn)

),

Ast1 ...tn

(B1 × ...×Bn ) ∈σ (Ω : ξu ,0 6 u 6 s) .

Así, σ (Ω : ξu ,0 6 u 6 s) da noticias de la trayectoria del pasado ξu , u < s.En la Observación de la página 38, tenemos la propiedad de Markov

P (ξt ∈ B |ξs ) = P (ξt ∈B |σ (Ω : ξu ,0 6 u 6 s)), s < t , B ∈B(R),

que dice que la probabilidad de permanecer (la partícula) en B en el tiem-

po futuro t conocida la posición ξs en el tiempo presente s, es igual a la

40 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

probabilidad de permanecer en B en el tiempo futuro t , conocida la posi-ción de la trayectoria pasada (en el tiempo u 6 s). Luego dado un presentes, futuro t y pasado son independientes.

Proposición 4.4.3. Sea ξ = ξs s∈S un proceso de Markov en el espacio deprobabilidad (Ω,F ,P ). Entonces, para todo s1, s2, s3 ∈ S, con s1 < s2 < s3, ytodo B ∈B(R), se verifica

P(ξs3 ∈B |ξs1

)= E

(P

ξs3 ∈ B |ξs2

|ξs1

), (P −a.s.), (Chapman-Kolmogorov).

Demostración. Sea A =ξs3 ∈B

= ξ−1

s3(B), entonces por la propiedad de

Markov y (9) de la página 221 de V. 2, se tiene

E(P

[A|ξs2

]|ξs1

)= E

(P

[A|F ξ

s2

]|ξs1

)= E

(E

(I A|F ξ

s2

)|ξs1

)=

= E(I A|ξs1

)= P

(A|ξs1

)= P

(ξs3 ∈B |ξs1

), (P −a.s.).

Corolario 4.4.4. Sea ξ = ξs s∈S un proceso de Markov respecto a la filtra-ción Fs s∈S , en el espacio de probabilidad (Ω,F ,P ), y a P. Entonces,

(1). ξ es proceso de Markov, (véase la Proposición 4.4.7.).

(2). Para todo s1, s2, s3 ∈ S, con s1 < s2 < s3, y todo B ∈B(R), se verifica

P(ξs3 ∈B |ξs1

)= E

(P

ξs3 ∈ B |ξs2

|ξs1

), (P −a.s.), (Chapman-Kolmogorov).

A continuación se presenta un criterio útil para detectar los procesosde Markov:

Teorema 4.4.5. Sean (Ω,F ,P ) un espacio de probabilidad y ξ = ξs s∈S , Ssubconjunto de R, un proceso estocástico real definido sobre este espacio.

(a). Si ξ es un proceso de Markov, entonces para todo S ′ ⊂ S se verifica queξs s∈S ′ es un proceso de Markov.

(b). Si S es infinito y ξs s∈F es un proceso de Markov para todo subconjuntofinito no vacío F de S, entonces ξ= ξs s∈S es un proceso de Markov.

4.4. PROCESOS ESTOCÁSTICOS REALES DE MARKOV 41

Corolario 4.4.6. Sean (Ω,F ,P ) un espacio de probabilidad y ξ = ξs s∈S , Sparte infinita de R, un proceso estocástico real definido sobre (Ω,F ). Enton-ces ξ es un proceso de Markov si y sólo si para cada función f (x) medible yacotada, y todo s1, ..., sn , s ∈ S con s1 < ... < sn < s, se tiene:E

(f (ξs ) | ξs1 , ...,ξsn

)= E

(f (ξs ) | σ(ξs1 , ...,ξsn )

)= E

(f (ξs) | ξsn

), (P-a.s.).

Proposición 4.4.7. Sean (Ω,F ,P ) un espacio de probabilidad y ξ= ξss∈S ,S subconjunto de R, un proceso estocástico real definido sobre este espacio.Sean Fs s∈S y Gs s∈S filtraciones de (Ω,F ), tales que Gs ⊂ Fs para todos ∈ S. Entonces, si ξs es Gs -medible (por tanto, también es Fs-medible), s ∈S, y ξ = ξss∈S es proceso de Markov respecto a la filtración Fs s∈S y a P,también lo es respecto a la filtración Gs s∈S y a P.Caso particular: Si ξ = ξs s∈S es un proceso de Markov respecto a Fs s∈S y

a P, entonces ξ es un proceso de Markov respecto a la filtraciónF

ξs

s∈S

y a

P, es decir, es proceso de Markov.

Demostración El resultado sigue de (5) del Teorema 4.4.2 teniendo en cuen-ta las propiedades (8) y (9) de la página 221 de V. 2. En efecto:

P (ξt ∈ B |Gs ) = E(Iξ−1

t (B)|Gs

)= E

(E

(Iξ−1

t (B)|Fs

)|Gs

)= E

(E

(Iξ−1

t (B)|ξs

)|Gs

)

= E(Iξ−1

t (B)|ξs

)= P (ξt ∈B |ξs ), (P −a.s.), s, t ∈ S, s < t , B ∈B(R).

Ejemplo 1. Sean (Ω,F ,P ) un espacio de probabilidad y ξ= ξnn∈N una su-cesión de variables aleatorias independientes definidas sobre este espacio.Entonces, ξ es una cadena de Markov en (Ω,F ,P ), (la filtración de (Ω,F )

que se considera esF

ξn

n∈N

), pues para todo n ∈N y todo B ∈ B(R), por

(10) de la página 221 de V. 2, se verifica que

P (ξn ∈B |F ξn−1) = P (ξn ∈ B |ξ0, ...,ξn−1) =

= E(Iξ−1

n (B)|ξ0, ...,ξn−1

)= P (ξn ∈ B) = P (ξn ∈B |ξn−1), (P−a.s).

(Iξ−1n (B) y σ(ξn−1) son independientes; Iξ−1

n (B) y σ(ξ0, ...,ξn−1) son indepen-dientes). Se itera el proceso para n − 2 en vez de n − 1, etc. y se concluyeque ξ cumple la propiedad de Markov.

42 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

Ejemplo 2. Sean (Ω,F ,P ) espacio de probabilidad y ξ = ξnn∈N sucesiónde variables aleatorias independientes en este espacio. Entonces, η= ηn =ξ0 + ...+ξn n∈N es cadena de Markov en (Ω,F ,P ).En efecto. Para todo n ∈N y todo B ∈B(R), se verifica que:P (ηn ∈ B |F η

n−1) = P (ηn ∈B |ξ0, ...,ξn−1) = P ((ηn−1,ξn) ∈µ−1(B)|ξ0, ...,ξn−1)

= P (ηn−1 +ξn ∈ B |ηn−1), (P-a.s.), (µ((x, y)) = x + y)).En el caso particular de ser además las variables aleatorias ξnn∈N+ idén-ticamente distribuidas, (V. 2, pág. 290), y ξ0 = 0, se dice que la cadena deMarkov η es paseo aleatorio en R. En esta situación, a las variables aleato-rias ξn se les llama pasos del paseo aleatorio y las sumas ηn determinan laposición del paseo aleatorio en el instante n (realizados n pasos).De forma análoga se definen los paseos aleatorios enRn considerando vec-tores aleatorios n-dimensionales independientes e igualmente distribui-dos, (V. 2, pág. 157), en vez de variables aleatorias con esas propiedades.

Probabilidad de transición de un proceso de Markov

Sean (Ω,F ,P ) un espacio de probabilidad y ξ : Ω→R una variable aleato-ria en (Ω,F ).

(1). Se considera una σ-álgebra G en Ω con G ⊂F . Entonces, por el Teo-rema 3.5.11., (V. 2, pág. 243), existe una aplicación, (distribución con-dicionada regular de ξ con respecto a G , (V. 2, pág. 243)), QξG : Ω×B(R) →R que cumple las tres propiedades que siguen:

(1a). QξG (ω, ·) : B(R) → R es probabilidad en (R,B(R)), para todoω ∈Ω, (por tanto, im(QξG ) ⊂ [0,1]).

(1b). QξG (·,B) : Ω→R es función G -medible, para todo B ∈B(R).

(1c). Para cada B ∈B(R), QξG (ω,B) = P (ξ ∈B |G ) (ω), (P-a.s.).

Además, se prueba que QξG es única en el sentido que sigue:

(1d). Si la aplicación Q ′ : Ω×B(R) →R cumple las propiedades (1a),(1b) y (1c), entonces existe N ∈ G ⊂ F con P (N ) = 0 tal quepara todo ω ∈ N c , QξG (ω,B) =Q ′(ω,B) para todo B ∈B(R).

4.4. PROCESOS ESTOCÁSTICOS REALES DE MARKOV 43

(2). Agregamos, a la hipótesis general, η : Ω → R, variable aleatoria en(Ω,F ), y tomamos la σ-álgebra G =Gη de Ω. Con las notaciones de(1), tenemos la aplicación QξGη

cumpliendo además de las propie-dades (1a), (1b), (1c) y (1d), las dos siguientes:

(2a). Para todo B ∈ B(R) y todo C ∈ Gη, se verifica que P (C ∩ ξ ∈B) =

∫C QξGη

(ω,B)P (dω), (véase la página 245 de V. 2).

(2b) Si g : R→ R es una función de Borel tal que g (ξ) es integrable,entonces E (g (ξ)|η)(ω) =

∫R g (x)QξGη

(ω,d x), (P-a.s), (En efecto:Para g = IB , B ∈ B(R), la fórmula es cierta, ya que en este ca-so se convierte en P (ξ ∈ B |η)(ω) = QξGη

(ω,B), (P-a.s.) que secumple por (1c). Entonces, la fórmula es válida para funcionessimples y el caso general se obtiene aplicando la convergenciamonótona, (V. 2, pág. 171)).

(3). Sean de nuevo η : Ω → R variable aleatoria en (Ω,F ) y G = Gη. Paratodo B ∈B(R), por el Teorema 3.5.3, (V. 2, pág. 229), aplicado a lasvariables aleatorias Iξ−1(B),η : Ω→R, se tiene que existe una función

ϕIξ−1(B)η

: R→R, B(R)|B(R)-medible tal que:

(i).∫η−1(A) Iξ−1(B)dP =

∫A ϕIξ−1(B)η

dPη, A ∈B(R).

(ii). E (Iξ−1(B)|η) = P (ξ ∈ B |η) = P (ξ ∈B |Gη) =ϕIξ−1(B)ηη, (P-a.s.).

((ii), mediante cambio de variable, da (i)).Además, ϕIξ−1(B)η

es única cumpliendo (i), (Pη-a.s.).

Notación: ϕIξ−1(B)η

(y) = E (Iξ−1(B)|η= y) = P (ξ ∈B |η= y), y ∈R.

Se pone qξη(y,B) = P (ξ ∈ B |η= y) =ϕIξ−1(B)η(y), B ∈B(R), y ∈R, y se

tiene la función qξη : R×B(R) →R con las propiedades:

(3a). qξη(y, ·) : B(R) →R es una probabilidad en (R,B(R)), y ∈R

(3b). qξη(·,B) : R→R es una función de Borel para todo B ∈B(R).

(3c). qξη(η(ω),B) = P (ξ ∈ B |η)(ω) =QξGη(ω,B), ω ∈Ω, B ∈B(R).

(3d). Además, qξη es única en el sentido que se ha detallado en (1d)para QξG .

44 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

(3e). Si η = ξ, para todo B ∈ B(R), se tiene: ϕIξ−1(B)ξ= IB , (Pη-a.s.),

(basta tener en cuenta (i)).

Sean ahora (Ω,F ,P ) un espacio de probabilidad y ξ = ξuu∈S , S ⊂ R, unproceso estocástico real en dicho espacio. Entonces, con las notacionesanteriores (tomando ξ = ξt y η = ξs , s < t ), para cada s, t ∈ S con s < t ,B ∈ B(R) y x ∈ R, se tiene el número real qξt ξs (x,B) = P (ξt ∈ B |ξs = x) =ϕI

ξ−1t (B)

ξs (x)(= p(s, x; t ,B)).

La función p(s, x; t ,B) cumple las tres propiedades siguientes:

(a). Fijados s, t ,B , p(s, ·; t ,B) : R→R es una función de Borel.

(b). Fijados s, x, t , p(s, x; t , ·) : B(R) →R es una probabilidad en (R,B(R)).

(c). p(s,ξs ; t ,B) = P (ξt ∈ B |ξs ), s, t ∈ S con s < t , B ∈ B(R) y p(s, x; t ,B) =P (ξt ∈B |ξs = x), s, t ∈ S con s < t , B ∈B(R), x ∈R.

Observación 1. Para todo s ∈ S y todo B ∈B(R), por (3e) se tiene qξsξs (·,B) =IB , (Pξs -a.s.), lo que justifica que algunos autores tomen p(s, ·; s,B) = IB .

Proposición 4.4.8. Sean (Ω,F ,P ) un espacio de probabilidad y ξ= ξuu∈S ,S ⊂ R, un proceso estocástico de Markov en este espacio. Sea p(s, x; t ,B) =P (ξt ∈B |ξs = x), s, t ∈ S con s < t , x ∈R, B ∈B(R). Entonces,

(1). Para todo s1, s2, s3 ∈ S, con s1 < s2 < s3, y todo B ∈B(R),

p(s1,ξs1 ; s3,B) =∫

R

p(s2, y ; s3,B)p(s1,ξs1 ; s2,d y), (P −a.s.),

(Ecuación de Chapman-Kolmogorov).

(2). Para todo s1, s2, s3 ∈ S, con s1 < s2 < s3, todo x ∈R, y todo B ∈B(R),

p(s1, x; s3,B) =∫

R

p(s2, y ; s3,B)p(s1, x; s2,d y), (Pξs1−a.s.),

(Ecuación de Chapman-Kolmogorov),

es decir, la igualdad se cumple para todo x ∈ N c , donde N es un sub-conjunto de Borel de R, con P

(ξ−1

s1(N )

)= Pξs1

(N ) = 0.

4.4. PROCESOS ESTOCÁSTICOS REALES DE MARKOV 45

Demostración. (1). Por (c) anterior, la Proposición 4.4.3., (pág. 40), y (2b)de la página 43 con g (x) = p(s2, x; s3,B) y Qξs2Gξs1

, se tiene

p(s1,ξs1 ; s3,B

)= P

(ξs3 ∈B |ξs1

)= E

(p

(s2,ξs2 ; s3,B

)|ξs1

)=

=∫

R

p (s2, x; s3,B) p(s1,ξs1 ; s2,d x), (P −a.s.).

(2). Sigue de (1) y de la unicidad de las funciones qξt ξs ((3), pág. 43).

Observación 2. En el caso particular del fenómeno de difusión de una par-tícula en un medio denso, (pág. 39), de la definición de p(s, x; t ,B) se tieneque p(s, x; t ,B) = P (ξt ∈ B |ξs = x) es la probabilidad de que la partícula ob-servada esté en B en el tiempo t si en tiempo s estaba en x.Resaltamos que p está bien definida incluso cuando P (ξs = x) = 0.

Definición 4.4.9. Sea p(s, x; t ,B), s, t ∈ S ⊂ R, s < t , x ∈ R, B ∈ B(R), unafunción con valores reales.

(1) Se dice que p es una función de transición si verifica:

(1a) Fijados s, x, t , p(s, ·; t ,B) : R→R es una función de Borel.

(2a) Fijados s, x, t , p(s, x; t , ·) : B(R) →R es probabilidad en (R,B(R)).

(2) Se dice que p es una función de transición Markoviana si verifica:

(2a) Fijados s, x, t , p(s, ·; t ,B) : R→R es una función de Borel.

(2b) Fijados s, x, t , p(s, x; t , ·) : B(R) →R es probabilidad en (R,B(R)).

(2c) Para todo s1, s2, s3 ∈ S, s1 < s2 < s3, todo x ∈R y todo B ∈B(R),

p(s1, x; s3,B) =∫

R

p(s2, y ; s3,B)p(s1, x; s2,d y),

(Ecuación de Chapman-Kolmogorov),

Los resultados establecidos en las páginas 42, 43 y 44, prueban la pro-posición que sigue.

Proposición 4.4.10. Sean (Ω,F ,P ) un espacio de probabilidad y ξ= ξs s∈S

un proceso estocástico real en (Ω,F ). Entonces,

46 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

(a) La función p(s, x, t ,B) = P (ξt ∈ B |ξs = x) = ϕIξ−1

t (B)ξs (x) es una función

de transición que se llama probabilidad de transición de ξ.

(b) Si ξ es un proceso de Markov, la función p(s, x, t ,B) = P (ξt ∈B |ξs = x) =ϕI

ξ−1t (B)

ξs(x) es una función de transición Markoviana que se llama

probabilidad de transición Markoviana de ξ.

Las funciones de distribución finito-dimensionales de un proceso de Mar-kov ξ = ξss∈S están determinadas por la probabilidad de transición Mar-koviana y la distribución de probabilidad (π =)Pξ0 , (π(B) = P (ξ0 ∈ B), B ∈B(R)), que se llama distribución inicial del proceso de Markov ξ. Con másprecisión, se tiene el siguiente teorema:

Teorema 4.4.11. Sea S un subconjunto no puntual de [0,+∞) con 0 ∈ S.Sean ξ = ξs s∈S un proceso estocástico real en el espacio de probabilidad(Ω,F ,P ), y p(s, x; t ,B) una función de transición, (Definición 4.4.9.). En-tonces, las siguientes afirmaciones son equivalentes:

(1). La probabilidad de transición del proceso estocástico ξ, (Proposición

4.4.10.(a)), es la función p(s, x; t ,B) dada y ξ es un proceso de Markov.

(2). Para todo s1, ..., sn ∈ S con 0 = s0 < s1 < ... < sn ,∫x0

−∞Pξ0 (d y0)

∫x1

−∞p(s0, y0; s1,d y1) · · ·

· · ·∫xn−1

−∞p(sn−2, yn−2; sn−1,d yn−1) ·

∫xn

−∞p(sn−1, yn−1; sn ,d yn) =

= P(ξs0 6 x0,ξs1 6 x1, ...,ξsn 6 xn

), x0, ..., xn ∈R,

o de forma equivalente, para 0 = s0 < s1 < ... < sn y B0, ...,Bn ∈B(R),

P(ξs0 ∈B0, ...,ξsn ∈ Bn

)=

B0

B1

...∫

Bn

p(sn−1, xn−1; sn ,d xn)·

·p(sn−2, xn−2; sn−1,d xn−1)...p(s0, x0; s1,d x1)Pξ0 (d x0).

Con las hipótesis generales del teorema que precede, suponemos que secumple (1). Entonces: Para s0 = 0, s1 > 0, B1 ∈ B(R), B0 = R, se tiene queP (ξs1 ∈ B1) =

∫R p(0, x; s1,B1)Pξ0 (d x).

4.4. PROCESOS ESTOCÁSTICOS REALES DE MARKOV 47

De esta forma, si en dos procesos estocásticos de Markov, ξ y η, las dis-tribuciones iniciales Pξ0 y Pη0 son iguales, y las probabilidades de transi-ción Markovianas coinciden, también coinciden sus distribuciones finito-dimensionales y por tanto, en este caso, los dos procesos son estocástica-mente equivalentes en sentido amplio, (pág. 6).

Teorema 4.4.12. Sean S un subconjunto no puntual de [0,+∞) con 0 ∈ S,y p(s, x; t ,B), s, t ∈ S, s < t , x ∈ R, B ∈ B(R), una función de transiciónMarkoviana en el sentido de la definición anterior y π una probabilidaden (R,B(R)). Entonces, existen un espacio de probabilidad (Ω,F ,P ) y unproceso estocástico de Markov en dicho espacio, ξ= ξss∈S , tales que

(1). La probabilidad de transición de ξ es la función de transición Marko-viana dada.

(2). π(A) = P (ξ0 ∈ A), para todo A ∈B(R).

(3). Para todo s0, s1, ..., sn ∈ S con 0 = s0 < s1 < ... < sn y todo (x1, ..., xn) ∈Rn ,

∫x0

−∞π(d y0)

∫x1

−∞p(s0, y0; s1,d y1) · · ·

∫xn−1

−∞p(sn−2, yn−2; sn−1,d yn−1)·

·∫xn

−∞p(sn−1, yn−1; sn ,d yn) = P

(ξs0 6 x0,ξs1 6 x1, ...,ξsn 6 xn

).

Demostración. A partir de p(s, x; t ,B) y π (los datos del teorema) medianteintegración, (el primer miembro de la igualdad del enunciado del teore-ma), se obtiene una familia de distribuciones finito-dimensionales (abs-tractas) F[s0,...,sn ](x0, ..., xn), (siendo la unidimensional la dada por π), y poraplicación de forma iterada de la ecuación de Chapman-Kolmogorov, secomprueba que dichas distribuciones cumplen la condición de consisten-cia del teorema de Kolmogorov (Teorema 4.1.4., pág. 10), así, por el citadoteorema de Kolmogorov, existen un espacio de probabilidad (Ω= RS ,F =B(RS),P ) y un proceso estocástico ξ = ξs s∈S , (ξs = ps , s ∈ S), en dichoespacio tal que sus distribuciones finito-dimensionales son las obtenidasanteriormente por integración, es decir, para todo, s1 < ... < sn ,

P(ω ∈RS : (ω0,ωs1 , ...,ωsn ) ∈ (−∞, x0]× (−∞, x1]× ...× (−∞, xn ]

)=

= P(ξ0 6 x0,ξs1 6 x1, ...,ξsn 6 xn

)= F[0,s1 ,...,sn ](x0, x1, ..., xn), s1, ..., sn ∈ S,

48 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

que da la igualdad de (3) para la función p(s, x; t ,B) dada. Además, se tienePξ0 ((a,b]) = π((a,b]) = F0(b)−F0(a), π = Pξ0 , π(A) = Pξ0 (A) = P

(ξ−1

0 (A)),

A ∈B(R), lo cual prueba (2).Finalmente, (1) es consecuencia del teorema anterior.

(Véase el Corolario 4.1.5., (pág. 11)).

Procesos de Markov con densidad de transición. Ecuaciones de Kolmo-gorov

Definición 4.4.13. Sean (Ω,F ) un espacio medible y p(s, x; t ,B), s, t ∈ S ⊂R, s < t , x ∈ R, B ∈ B(R), una función de transición en (Ω,F ), (Definición

4.4.9., pág. 45). Se dice que p tiene función de densidad si existe una fun-ción p(s, x|t , y), x, y ∈ R, s, t ∈ S, s < t , con valores reales, tal que p(s, x|t , ·)es una función de Borel para todo s, x, t , dados y fijados, y

p(s, x; t ,B) =∫

Bp(s, x|t , y)d y, s, t ∈ S, s < t , B ∈B(R).

Si p es la probabilidad de transición de un proceso estocástico ξ, en un es-pacio de probabilidad (Ω,F ,P ), que tiene función de densidad, a ésta se lellamará densidad de transición de ξ.

Sean (Ω,F ,P ) un espacio de probabilidad, ξ = ξs s∈JTun proceso es-

tocástico de Markov en (Ω,F ) y p(s, x; t ,B) = P (ξt ∈ B |ξs = x) su probabili-dad de transición. Supongamos que el proceso ξ tiene densidad de transi-ción, p(s, x|t , y), s, t ∈ JT , s < t , x, y ∈R. Entonces,

(1). Para todo s1, s2, s3 ∈ JT con s1 < s2 < s3 y todo x, z ∈R, se verifica que

p(s1, x|s3, z) =∫+∞

−∞p(s2, y |s3, z)p(s1, x|s2, y)d y.

(La igualdad anterior, se obtiene fácilmente de la ecuación de Chapman-Kolmogorov correspondiente, (pág. 44).)

(2). Supongamos además que:

(2a). La función M1(y, t ,t ) = E((ξt+t−ξt )|ξt=y)t , y ∈ R, t , t +t ∈ JT , t 6=

0, está acotada y lımt→0 M1(y, t ,t ) = m(y, t ).

4.4. PROCESOS ESTOCÁSTICOS REALES DE MARKOV 49

(2b). La función M2(y, t ,t ) = E((ξt+t−ξt )2|ξt=y

)

t , y ∈R, t , t +t ∈ JT , t 6=0, está acotada y lımt→0 M2(y, t ,t ) =σ2(y, t ).

(2c). La función M3(y, t ,t ) = E((ξt+t−ξt )3|ξt=y

)

t , y ∈ R, t , t +t ∈ JT , t 6=0, está acotada y lımt→0 M3(y, t ,t ) = 0.

(2d). Las derivadas parciales ∂p(s,x|t ,y)∂t , ∂p(s,x|t ,y)

∂y , ∂2p(s,x|t ,y)∂y2 existen, son con-

tinuas y acotadas en (t , y) para cada (s, x) dado y fijado. Además,∣∣∣∂p(s,x|t ,y)∂t

∣∣∣ está acotada por una función integrable Lebesgue g (y)

para cada (s, x) dado y fijado.

Con estas hipótesis, se verifica que p(s, x|t , y) cumple la ecuación

∂p(s, x|t , y)

∂t=−

∂(m(y, t )p(s, x|t , y))

∂y+

1

2

∂2(σ2(y, t )p(s, x|t , y))

∂y2 ,

que es una ecuación diferencial en derivadas parciales de tipo parabó-lico llamada ecuación forward (avanzada) de Kolmogorov o ecuación deFokker-Planck, (el término avanzada se utiliza para indicar que la derivadaparcial respecto al tiempo t se determina en el final del intervalo [s, t ]).(3). Supongamos además que:

(3a). La función M1(x, s,s) = E((ξs+s−ξs )|ξs=x)s , s ∈R, s, s+s ∈ JT , s 6= 0,

está acotada y lıms→0 M1(x, s,s) = m(x, s).

(3b). La función M2(x, s,s) = E((ξs+s−ξs )2|ξs=x

)

s , x ∈R, s, s +s ∈ JT , s 6=0, está acotada y lıms→0 M2(x, s,s) =σ2(x, s).

(3c). La función M3(x, s,s) = E((ξs+s−ξs )3|ξs=x

)

s , x ∈ R, s, s +s ∈ JT , s 6=0, está acotada y lıms→0 M3(x, s,s) = 0.

(3d). Las derivadas parciales ∂p(s,x|t ,y)∂s , ∂p(s,x|t ,y)

∂x , ∂2p(s,x|t ,y)∂x2 existen, son con-

tinuas y acotadas en (s, x) para cada (t , y) dado y fijado. Además,∣∣∣∂p(s,x|t ,y)∂s

∣∣∣ está acotada por una función integrable Lebesgue g (x)

para cada (t , y) dado y fijado.

50 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

Con estas hipótesis, se verifica que p(s, x|t , y) cumple la ecuación

∂p(s, x|t , y)

∂s=−m(x, s)

∂p(s, x|t , y)

∂x−

1

2σ2(x, s)

∂2p(s, x|t , y)

∂x2,

que es una ecuación diferencial en derivadas parciales de tipo parabóli-co llamada ecuación backward (retardada) de Kolmogorov, (en este caso,el término retardada hace referencia a que la derivada parcial respecto altiempo s se determina en el extremo inicial del intervalo [s, t ]).

Procesos de Markov homogéneos

Un proceso de Markov ξ= ξt t∈J∞ , en el espacio de probabilidad (Ω,F ,P ),se dice que es homogéneo si su probabilidad de transición p(s, x; t ,B) cum-ple: p(s +u, x; t +u,B) = p(s, x; t ,B), s, t ,u ∈ J∞, s < t , x ∈R, B ∈B(R).En este caso para r ∈ J∞ con r > 0, x ∈ R y B ∈ B(R), p(s, x; s + r,B) nodepende de s ∈ J∞, es decir, p(s1, x; s1 + r,B) = p(s2, x; s2 + r,B), s1, s2 ∈ J∞,y la probabilidad de transición la podemos poner de la forma p(r, x,B) =p(0, x;r,B) = p(s, x; s + r,B), r, s ∈ J∞, x ∈ R, B ∈ B(R), (p(r, x,B) es la pro-babilidad de transición de x a B en el tiempo r ).Dado un proceso de Markov, ξ= ξt t∈J∞ , se tiene:(1). Supongamos que ξes homogéneo. Entonces, la ecuación de Chapman-Kolmogorov, (Proposición 4.4.8.(2), pág. 44), se convierte en:

p(t+s, x,B) =∫

R

p(s, y,B)p(t , x,d y), (Pξ0 −a.s), s > 0, t > 0, x ∈R,B ∈B(R).

(2). Supongamos que ξes homogéneo y queπ asociada a ξ0 cumple:π(B)=∫R p(t , x,B)π(d x), B ∈ B(R), t ∈ J∞, lo cual equivale a que las variables

aleatorias ξt , t ∈ J∞, estén idénticamente distribuidas, (por la observaciónque sigue al Teorema 4.4.11., (pág. 46), se deduce que para todo s ∈ S,P (ξs ∈ B) =

∫R p(0, x; s,B)Pξ0 (d x) =

∫R p(s, x,B)π(d x) = π(B), B ∈ B(R)).

Entonces, por el Teorema 4.4.11. (pág. 46), se tiene que para cualesquierat1, ..., tn ,δ ∈ J∞ con t1 < ... < tn y B1, ...,Bn ∈ B(R), P

(ξt1 ∈ B1, ...,ξtn ∈Bn

)=

P(ξt1+δ ∈ B1, ...,ξtn+δ ∈ Bn

), y así ξ es un proceso estocástico estacionario

en sentido estricto (página 33), y por tanto, P(ξt1 ,...,ξtn ) = P(ξt1+δ,...,ξtn+δ).(3). Con las hipótesis de (2) se tiene la fórmula P (ξt − ξs ∈ A) = P (ξt+u −

4.4. PROCESOS ESTOCÁSTICOS REALES DE MARKOV 51

ξs+u ∈ A), s, t ,u ∈ J∞, A ∈ B(R), ya que ξt −ξs =ψ (ξt ,ξs ) y ξt+u −ξs+u =ψ (ξt+u ,ξs+u), donde ψ(x, y) = x − y , (x, y) ∈R2.

Probabilidad de transición de una cadena de Markov

(i). De la Definición 4.4.1. (pág. 37) y el Teorema 4.4.2., (pág. 37), se tiene:Sea ξ = ξnn∈N una sucesión estocástica en un espacio de probabilidad(Ω,F ,P ). Entonces, ξ es una cadena de Markov si y sólo si

P (ξn ∈ B |ξ0,ξ1, ...,ξm ) = P (ξn ∈ B |ξm) , (P−a.s.), m,n ∈N, n > m, B ∈B(R).

(En la Proposición 4.4.7., (pág. 41), se probó que si ξ = ξnn∈N es cadenade Markov respecto a una filtración Fnn∈N, entonces ξ es una cadena de

Markov, es decir, es cadena de Markov respecto a la filtraciónF

ξn

n∈N

.)

(ii). Sean ξ= ξnn∈N una cadena de Markov en el espacio de probabilidad(Ω,F ,P ) y p(m, x;n,B), m,n ∈N con m < n, x ∈R, B ∈B(R), su probabili-dad de transición. Entonces, por (c) de la página 44, p(m, x;n,B) = P (ξn ∈B |ξm = x) y p(m,ξm(ω);n,B) = P (ξn ∈B |ξm) (ω), m,n ∈N con m < n, x ∈R,ω ∈Ω, y por (2) de la Proposición 4.4.8., (pág. 44), se tiene la ecuación deChapman-Kolmogorov:

(*) p(k, x;n,B) =∫

R

p(m, y ;n,B) ·p(k, x;m,d y), (Pξk−a.s.),

para todo k,m,n ∈N con k < m < n, todo B ∈B(R) y todo x ∈R.

Para todo n ∈ N, B ∈ B(R) y x ∈ R, ponemos (Pn(x,B) =)p(n, x;n + 1,B)y a la función Pn(x,B), n ∈ N, x ∈ R, B ∈ B(R), se le llama probabilidadde transición de ξ de paso 1. Entonces, se tiene la igualdad Pn(ξn(ω),B) =p(n,ξn(ω);n +1,B) = P (ξn+1 ∈ B |ξn)(ω), n ∈N, B ∈B(R), ω ∈Ω.Por otro lado, π(B) = P (ξ0 ∈B), B ∈B(R), es probabilidad en (R,B(R)).

La ecuación de Chapman-Kolmogorov (*) permite obtener p(m, x;n,B)a partir de Pk (y,B).En efecto: Se tiene, (por definición), p(m, x;m+1,B) = Pm(x,B), m ∈N, x ∈R, B ∈B(R); p(m, x;m+2,B)=

∫R p(m+1, x1;m+2,B)p(m, x;m+1,d x1) =∫

R Pm+1(x1,B)Pm (x,d x1), m ∈ N, x ∈ R, B ∈ B(R); del último resultado se

52 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

sigue que p(m, x;m + 3,B) =∫R p(m + 2, x2;m + 3,B)p(m, x;m + 2,d x2) =∫

R Pm+2(x2,B)∫RPm+1(x1,d x2)Pm(x,d x1), m ∈ N, x ∈ R, B ∈ B(R); y reite-

rando el proceso se llega a la fórmula

p(m, x;m +k,B) =∫

R

Pm−(k−1)(xk−1,B)∫

R

Pm−(k−2)(xk−2,d xk−1)...

...∫

R

Pm+1(x1,d x2)Pm(x,d x1), m ∈N, x ∈R, B ∈B(R), k > 2.

Por otro lado, por el Teorema 4.4.11., (pág. 46), se tiene que

∫x0

−∞Pξ0 (d y0)

∫x1

−∞P0(y0,d y1) · · ·

· · ·∫xn−1

−∞Pn−2(yn−2,d yn−1) ·

∫xn

−∞Pn−1(yn−1,d yn) =

= P (ξ0 6 x0,ξ1 6 x1, ...,ξn 6 xn) , n ∈N, x0, ..., xn ∈R.

(iii). Sea ahora una función pk(x,B) definida para todo k ∈ N, x ∈ R y B ∈B(R), tal que:

(a). pk (x, ·) : B(R) →R es una probabilidad en (R,B(R))) fijados k y x.

(b) pk (·,B) : R→R es una función de Borel fijados k y B .

Se definen (p(m, x;m +1,B) =)pm(x,B), m ∈N, x ∈R y B ∈B(R), y

p(m, x;m +k,B) =∫

R

Pm−(k−1)(xk−1,B)∫

R

Pm−(k−2)(xk−2,d xk−1)...

...∫

R

Pm+1(x1,d x2)Pm(x,d x1), m ∈N, x ∈R, B ∈B(R), k > 2.

Se comprueba que p(m, x;n,B), m,n ∈ N con m < n, x ∈ R, B ∈ B(R) esuna función de transición Markoviana, (Definición 4.4.9., pág. 45).Sea π una probabilidad en (R,B(R)).Entonces, por el Teorema 4.4.12., (pág. 47), existen una probabilidad P en(R∞,B(R∞)) (véase la demostración de dicho teorema) y una cadena deMarkov ξ = ξnn∈N en (R∞,B(R∞)) cuya probabilidad de transición es lafunción p(m, x;n,B) construida anteriormente, por tanto, la probabilidad

4.4. PROCESOS ESTOCÁSTICOS REALES DE MARKOV 53

de transición de paso 1 de ξ es la función dada pk(x,B). Además, π(A) =P (ξ0 ∈ A), para todo A ∈B(R), y

P (ξ0 6 x0,ξ1 6 x1, ...,ξn 6 xn) =∫x0

−∞π(d y0) ·

∫x1

−∞p(0, y0;1,d y1)...

...∫xn−1

−∞p(n −2, yn−2;n −1,d yn−1)

∫xn

−∞p(n −1, yn−1;n,d yn) =

∫x0

−∞π(d y0)

∫x1

−∞p0(y0;d y1)...

∫xn−1

−∞pn−2(yn−2;d yn−1)

∫xn

−∞pn−1(yn−1;d yn).

(Obsérvese que en este resultado de existencia de una cadena de Markov apartir de la función pk (x,B) verificando (a) y (b) de la página 52, estableci-do en (iii), no se necesita la ecuación de Chapman-Kolmogorov, ((*) de lapágina 51). Compárese esto con el Teorema 4.4.12., (pág. 47).)Lo expuesto en (iii) da una demostración del Corolario 4.1.8., (pág.14).

(iv). Supongamos ahora que ξ = ξnn∈N es una cadena de Markov en elespacio de probabilidad (Ω,F ,P ) y con espacio de estados (E ,E ), (pág. 1),con E conjunto numerable y x ∈ E para todo x ∈ E , (por tanto, podemossuponer que E ⊂ R y E = B(R)|E ). En este caso la probabilidad de transi-ción de paso 1, Pn(x,B), n ∈N, x ∈ E , B ∈ E , queda determinada por

(pk (x, y) =)Pk (x, y) = P (ξk+1 = y |ξk = x).

Para cada k ∈N, P(k) = (pk (x, y))x,y∈E es una matriz estocástica, con lo quese expresa que pk (x, y) > 0, x, y ∈ E , y

∑y pk (x, y) = 1, x ∈ E .

Para todo x0, x1, ..., xn ∈ E se verifica que

P (ξ0 = x0,ξ1 = x1, ...,ξn = xn) == P (ξ0 = x0)P (ξ1 = x1|ξ0 = x0)P (ξ2 = x2|ξ1 = x1) · · ·P (ξn = xn |ξn−1 = xn−1) =

=π(x0)p0(x0, x1)p1(x1, x2) · · ·pn−1(xn−1, xn),

con π probabilidad en (E ,E ) definida por ξ0, (probabilidad inicial de ξ).Recíprocamente, en el Corolario 4.1.11., (pág. 16), a partir de un conjun-to numerable E , una matriz estocástica P(k) = (pk (x, y))x,y∈E para todok ∈ N, y una probabilidad inicial (π) se construye una cadena de Markovξ = ξnn∈N, en un espacio de probabilidad (Ω,F ,P ), con espacio de esta-dos (E ,P (E )) tal que pk (x, y) = P (ξk+1 = y |ξk = x), k ∈N, x, y ∈ E .

54 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

Cadenas de Markov homogéneas

Se dice que una cadena de Markov ξ= ξnn∈N es homogénea si es homogé-nea como proceso de Markov general, es decir, para todo x ∈ R, B ∈ B(R),m,n ∈N con m < n, se verifica que p(m, x;n,B) = p(m + r, x;n + r,B), paratodo r con m + r,n + r ∈N.

Proposición 4.4.14. Una cadena de Markov ξ = ξnn∈N es homogénea si ysólo si P0(x,B) = P1(x,B) = P2(x,B) = ..., ((ii), pág. 51), para todo x ∈ R yB ∈B(R).

Demostración. Si la cadena de Markov ξ es homogénea es evidente queP0(x,B) = P1(x,B) = ..., x ∈R, B ∈B(R).Recíproco: Supongamos ahora que la cadena de Markov ξ cumple queP0(x,B) = P1(x,B) = ..., x ∈ R, B ∈ B(R). Entonces para r,m ∈ N, x ∈ R,B ∈B(R), por la ecuación de Chapman-Kolmogorov (*), se tiene que

p(m, x;m +1,B) = Pm(x,B) = P0(x,B) = p(0, x;1,B);

p(m, x;m +2,B) =∫

R

p(m +1, y ;m +2,B) ·p(m, x;m +1,d y) =

=∫

R

p(m, y ;m +1,B) ·p(m −1, x;m,d y) = p(m −1, x;m +1,B),

y por inducción p(m, x;m +2,B) = p(0, x;2,B). Procediendo de nuevo porinducción, se concluye que p(m, x;m + r,B) = p(0, x;r,B), lo que pruebaque la cadena de Markov ξ es homogénea.

Sea ξ = ξnn∈N una cadena de Markov homogénea en el espacio deprobabilidad (Ω,F ,P ). Ponemos P (x,B) = P0(x,B). De ξ0 obtenemos π,probabilidad en (R,B(R), mediante la fórmulaπ(A) = P (ξ−1

0 (A)), A ∈B(R).Se tienen las siguientes propiedades:

(1) P (x,B) = p(0, x;1,B), P (x, ·) es una probabilidad en (R,B(R)), x ∈R.

(2) Para todo B ∈B(R), fijo, P (·,B) es una función de Borel.

4.4. PROCESOS ESTOCÁSTICOS REALES DE MARKOV 55

(3) Para n > 0 y A ∈B(Rn+1),

P((ξ0,ξ1, ...,ξn)−1 (A)

)=

R

π(d x0)·

·∫

R

P (x0,d x1)...∫

R

P (xn−2,d xn−1)∫

R

I A(x0, ..., xn )P (xn−1,d xn),

(P((ξ0,ξ1, ...,ξn)−1 (A)

), A ∈B(Rn+1), es una probabilidad en el espa-

cio medible(Rn+1,B

(Rn+1

))).

(4) Si g (x0, ..., xn) es B(Rn+1)-medible y es de signo constante o acotada,

E(g (ξ0, ...,ξn )

)=

=∫

R

π(d x0)∫

R

P (x0,d x1)...∫

R

g (x0, ..., xn )P (xn−1,d xn).

(5) Tomamos Iξn∈B, ξ0, B ∈B(R). Entonces, E(Iξn∈B|ξ0 = x

), que hemos

designado anteriormente por qξnξ0(x,B), es tal que

P(ξ−1

0 (A)∩ξ−1n (B)

)=

ξ−10 (A)

Iξn∈BdP =∫

Aqξnξ0 (x,B)dPξ0 , A ∈B(R),

además, qξnξ0 (·,B)ξ0 = E(Iξn∈B|ξ0

)= P (ξn ∈ B |ξ0).

Ponemos P n(x;B) = qξnξ0 (x,B) = P (ξn ∈B |ξ0 = x) = p(0, x;n,B). Así, se tie-ne P n(ξ0(ω);B) = P (ξn ∈ B |ξ0)(ω), (P-a.s.).De la propiedad de Markov y la fórmula de Chapman-Kolmogorov, se de-duce que para todo k, l > 1:P k+l (ξ0;B) = P (ξk+l ∈B |ξ0),P (ξk+l ∈B |ξk ) = P (ξk+l ∈ B |ξ0, ...,ξk ), (P-a.s.),(propiedad de Markov)

P k+l (ξ0;B) =∫R P l (y ;B)P k (ξ0;d y), (P-a.s.), (Chapman-Kolmogorov).

Se prueba la fórmula general de Chapman-Kolmogorov:

(**) P k+l (x;B) =∫

R

P l (y,B)P k (x;d y), x ∈R,

para las funciones P n(x;B).

56 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

Partimos de la situación general siguiente: π(A) probabilidad en (R,B(R)),

y P (x,B), x ∈ R, B ∈ B(R), tal que P (x, ·) es probabilidad en (R,B(R)), x ∈R, P (·,B), B ∈ B(R), es aplicación de Borel en R. Entonces, tomamos elespacio medible (Ω,F ) = (R∞,B(R∞)).Para cada A ∈B(Rn+1) ponemos

Pn+1(A) =

=∫

R

π(d x0)∫

R

P (x0,d x1)...∫

R

P (xn−2,d xn−1)∫

R

I A(x0, ..., xn )P (xn−1,d xn).

Se prueba directamente que Pn+1(A), A ∈B(Rn+1

)es σ-aditiva, Pn+1(A) >

0 y Pn+1(Rn+1

)= 1. Así, Pn+1 es una probabilidad en (Rn+1,B(Rn+1)).

Se comprueba la propiedad de consistencia de esta familia de probabili-dades Pn+1, es decir, Pn+1(B ×R) = Pn(B) para todo B ∈B (Rn).Entonces, por el Teorema 3.2.35. (V. 2, pág. 129), se tiene que existe unaúnica probabilidad P en (R∞,B(R∞)) tal que para todo A ∈B(Rn+1), n ∈N,

P ω ∈R∞ : (x0, ..., xn ) ∈ A = Pn+1(A) =

=∫

R

π(d x0)∫

R

P (x0,d x1)...∫

R

P (xn−2,d xn−1)∫

R

I A(x0, ..., xn )P (xn−1,d xn).

Ponemos ξn(ω) = xn , ω = (x0, x1, ...), n ∈ N. Entonces, ξnn∈N es una ca-dena de Markov en el espacio de probabilidad (R∞,B(R∞),P ), (efectiva-mente se cumple: P (ξm+k ∈B |ξ0, ...,ξm ) = P (ξm+k ∈B |ξm), (P-a.s.), k > 1,B ∈B(R)). Con esta cadena de Markov tenemos las funciones:

Pn(x,B) = P (ξn+1 ∈B |ξn = x) , Pn(ξn(ω),B) = P (ξn+1 ∈ B |ξn) (ω).

La cadena de Markov obtenida cumple: P0(x,B) = P1(x,B) = P2(x,B) = ...,

y P (x,B) = P0(x,B), x ∈R, B ∈B(R), y por tanto, es cadena de Markov ho-mogénea (Proposición 4.4.14., pág. 54).

Otro tipo especial de procesos de Markov (procesos de Markov con do-minio finito de parámetro y espacio de estados finito) se ha estudiado enla sección 1.8., (V. 1., páginas 62-72).

4.4. PROCESOS ESTOCÁSTICOS REALES DE MARKOV 57

Procesos estocásticos con incrementos independientes

Un proceso estocástico ξs s∈S , (S subconjunto de R), en el espacio de pro-babilidad (Ω,F ,P ), (definición) es un proceso estocástico con incrementosindependientes si para toda serie finita sn > sn−1 > ... > s1 de elementos deS, las variables aleatorias ξs2 −ξs1 , ξs3 −ξs2 ,..., ξsn −ξsn−1 , constituyen un sis-tema de variables aleatorias independientes.En el teorema que sigue, se establece que estos procesos estocásticos cons-tituyen un tipo especial de procesos estocásticos de Markov.

Teorema 4.4.15. Sean (Ω,F ,P ) un espacio de probabilidad y ξ = ξss∈S ,S ⊂ R, un proceso estocástico real definido sobre este espacio. Entonces, si ξes un proceso estocástico con incrementos independientes, se verifica que ξ

es un proceso de Markov.

Un proceso estocástico real ξs s∈S con incrementos independientes se di-ce que tiene incrementos estacionarios si: P (ξt −ξs ∈ A) = P (ξt+δ−ξs+δ ∈ A)para todo s, t ,δ con s, t , s +δ, t +δ ∈ S, s < t , δ> 0, y todo A ∈B(R).

Proposición 4.4.16. Sea ξ= ξt t∈J∞ un proceso estocástico continuo (o me-dible), con incrementos independientes y estacionarios, y tal que E (|ξt |) <+∞ para todo t ∈ J∞. Entonces,

1. E (ξt −ξ0) = (E (ξ1 −ξ0))t , t ∈ J∞.

2. V (ξt −ξ0) = (V (ξ1 −ξ0))t , t ∈ J∞.

La proposición anterior prueba que los procesos estocásticos con incre-mentos independientes y estacionarios no son siempre procesos estocás-ticos estacionarios en sentido estricto ni en sentido amplio (ver pág. 33).

Sea ξ = ξt t∈S un proceso estocástico con incrementos independien-tes y variables aleatorias idénticamente distribuidas. Supongamos que ξ

es homogéneo como proceso de Markov (véase el teorema anterior y lapágina 50). Entonces por (3) de la página 50, se tiene que ξ es un procesoestocástico con incrementos independientes y estacionarios.

58 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

Ejercicios y problemas

4.1. Sean ξ0, ξ1,... variables aleatorias en (Ω,F ,P ), espacio de probabili-dad, con valores en un conjunto I finito o infinito numerable de R (es-pacio de estados). Probar que dicha sucesión de variables aleatorias es ca-dena de Markov si y sólo si para todo n ∈ N+ y cualquier sucesión de es-tados i0,...,in+1 tales que P (ξ0 = i0, ...,ξn = in) > 0 se verifica que P (ξn+1 =in+1|ξn = in , ...,ξ0 = i0) = P (ξn+1 = in+1|ξn = in), (propiedad de Markov).

4.2. Consideramos un proceso estocástico ξ= ξt t∈JTestacionario con in-

crementos independientes para el cual existe E (ξ1). Probar que:

(1) Existe E(ξq

)para todo número racional q ∈ JT .

(2) Si T =+∞ y para todo t ∈ J∞ existe E (ξt ), entonces lımn→+∞ 1

n ξnt=

E (ξt ), (P-a.s.).4.3. En el espacio de probabilidad (Ω,F ,P ) consideramos un proceso es-tocástico ξ = ξt t∈J∞ estacionario con incrementos independientes parael cual existe E

(ξt0

)para algún t0 > 0. Probar que existen dos sucesiones

de números reales an y bn tales que para todo x ∈R,

lımn→+∞

P

(ξnt0 −an

bn6 x

)=Φ(x),

donde Φ(x) es la distribución normal estándar (V. 2, pág. 90).

4.4. En el espacio de probabilidad (Ω,F ,P ) se considera un proceso deMarkov ξ= ξt t∈JT

respecto a una filtración Ft t∈JT y a P . Probar que para

todo s ∈ JT y todo A ∈Fξ>s se verifica que P (A|Fs ) = P (A|ξs ), (P-a.s.).

Indicación: Probar que G = A ∈ Fξ>s : P (A|Fs ) = P (A|ξs ) es una álgebra

monotónica que contiene aξ−1

t (B) : t > s, B ∈B(R).

4.5. Martingalas

Sean (Ω,F ,P ) un espacio de probabilidad, S ⊂ R, y Fs s∈S una filtraciónde (Ω,F ). El proceso estocástico ξ = ξss∈S , en (Ω,F ), medible y adapta-do a la filtración Fs s∈S , (páginas 21 y 25; por (2) de la página 21, si S esnumerable la condición ξ medible ya se tiene), se llama:

4.5. MARTINGALAS 59

(a) martingala respecto a Fs s∈S y a P si

E (|ξs |) <+∞, s ∈ S, y E(ξs2 | Fs1

)= ξs1 , (P −a.s.), s1 < s2, s1, s2 ∈ S. (m)

(b) submartingala respecto a Fss∈S y a P si

E (|ξs |) <+∞, s ∈ S, y E(ξs2 |Fs1

)> ξs1 , (P −a.s.), s1 < s2, s1, s2 ∈ S. (sbm)

(c) supermartingala respecto a Fss∈S y a P si

E (|ξs |) <+∞, s ∈ S, y E(ξs2 |Fs1

)6 ξs1 , (P −a.s.), s1 < s2, s1, s2 ∈ S. (spm)

Observación 1. Si ξ= ξss∈S es supermartingala (submartingala) respectoa Fs s∈S y a P , el proceso estocástico −ξ= −ξss∈S es submartingala (su-permartingala) respecto a Fss∈S y a P .

De la definición de esperanza condicionada es claro que las condicio-nes (m) de martingala, (sbm) de submartingala y (spm) de supermartinga-la se pueden escribir de la siguiente forma equivalente que designaremospor (m’), (sbm’) y (spm’), respectivamente:

E (|ξs |) <+∞, s ∈ S, y∫

Aξs2 dP =

Aξs1 dP, s1 < s2, s1, s2 ∈ S; A ∈Fs1 (m’)

E (|ξs |) <+∞, s ∈ S, y∫

Aξs2 dP >

Aξs1 dP, s1 < s2, s1, s2 ∈ S; A ∈Fs1 (sbm’)

E (|ξs |) <+∞, s ∈ S, y∫

Aξs2 dP 6

Aξs1 dP, s1 < s2, s1, s2 ∈ S; A ∈Fs1 (spm’)

Por otro lado, en el caso de sucesiones estocásticas (S =N), por las propie-dades (2) y (8), de la página 221 de V. 2, de la esperanza condicionada, esasmismas condiciones (m), (sbm) y (spm) son equivalentes a:E (|ξn|) <+∞, n ∈N, y E (ξn+1 | Fn) = ξn , (P-a.s.), n ∈N (m”)E (|ξn|) <+∞, n ∈N, y E (ξn+1|Fn) > ξn , (P-a.s.), n ∈N (sbm”)E (|ξn|) <+∞, n ∈N, y E (ξn+1|Fn) 6 ξn , (P-a.s.), n ∈N (spm”),respectivamente.Como en el caso de tiempo continuo, las condiciones (m”), (sbm”) y (spm”)se pueden reformular equivalentemente en términos de integrales.

60 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

Sean (Ω,F ,P ) un espacio de probabilidad, S ⊂R, y ξ= ξs s∈S un proce-

so estocástico medible en dicho espacio. Se considera la filtraciónF

ξs

s∈S

generada por ξ, (pág. 23). Entonces se tiene que ξ está adaptado a es-ta filtración, (pág. 25). Si dicho proceso ξ es martingala (o submartinga-

la o supermartingala) respecto aF

ξs

s∈S

y a P , diremos simplemente que

ξ= ξs s∈S es martingala (o submartingala o supermartingala) en (Ω,F ,P ).

Observación 2. De la definición de martingala y la propiedad (7) de la pági-na 221 de V. 2, se deduce que si ξss∈S es una martingala respecto a Fs s∈S

y a P , entonces la función E (ξs), s ∈ S, es constante.En el caso de submartingala la función E (ξs), s ∈ S, es monótona no decre-ciente y en el caso de supermartingala es monótona no creciente.

Proposición 4.5.1. Sean (Ω,F ,P ) espacio de probabilidad, Ft t∈JTfiltra-

ción de (Ω,F ) y ξ = ξt t∈JTuna supermartingala respecto a Ft t∈JT y a P

tal que E (ξ0) = E (ξT ). Entonces, ξ es martingala respecto a Ft t∈JT y a P.

Demostración. Se tiene que E (ξT ) 6 E (ξt ) 6 E (ξ0), (Observación 2 ante-rior), y por tanto, E (ξt ) es constante, t ∈ JT . Sea

A = ω : E (ξt | Fs ) < ξs , donde 0 6 s < t 6 T.

Supongamos que P (A) > 0. Entonces,

E (ξt ) = E (E (ξt | Fs )) = E [I AE (ξt | Fs )+ (I − I A)E (ξt | Fs )] == E (I AE (ξt | Fs ))+E ((I − I A)E (ξt | Fs )) < E (I Aξs)+E ((I − I A)ξs ) = E (ξs) ,

(ya que E (I AE (ξt | Fs )) < E (I Aξs ), por ser P (A) > 0; recordamos que lascondiciones ξ > 0 y E (ξ) = 0 implican que ξ = 0, (P-a.s.)), lo que es unacontradicción. Así, P (A) = 0 y ξ es martingala respecto a Ft t∈JT

y a P .

Ejemplo 1. Sean (Ω,F ,P ) un espacio de probabilidad y ξ = ξnn∈N unasucesión de variables aleatorias independientes con E (ξn) = 0, n ∈N. Sean

ηn = ξ0 + ...+ξn y Fξn =σξ0, ...,ξn , n ∈N, (pág. 23). Entonces η=

ηn

n∈N

es una martingala respecto aF

ξn

n∈N

y a P . En efecto:

4.5. MARTINGALAS 61

(a). Es claro que η es una sucesión estocástica medible y adaptada a la fil-

traciónF

ξn

n∈N

de (Ω,F ).

(b). E (ηn) = 0, n ∈N.(c). Las variables aleatorias ξn+1, Iω:ξ0(ω)∈A0,...,ξn (ω)∈An , Ai ∈ B(R) son in-dependientes, (Proposición 3.3.11., (V. 2, pág. 159)).

(d). Las variables aleatorias ξn+1, I A (A ∈ Fξn ) son independientes, (luego

ξn+1 y σ(ξ0, ...,ξn) = Fξn son independientes, y E

(ξn+1|F ξ

n

)= E (ξn+1) = 0,

(P-a.s.), (V. 2, (10) de la página 221).(e). Por (d) y las propiedades de la esperanza condicionada, (V. 2, pág. 221),se tiene: Para todo n ∈N

E(ηn+1|F ξ

n

)= E

(ξn+1 +ηn |F ξ

n

)=

= E(ξn+1|F ξ

n

)+E

(ηn |F ξ

n

)= E (ξn+1)+ηn = ηn , (P −a.s.).

Observación 3. Sean (Ω,F ,P ) un espacio de probabilidad, ξ : Ω→ R unavariable aleatoria y E ⊂B(R). Entonces, σΩ(ξ−1(E ))= ξ−1(σR(E )).Análogo para el vector aleatorio (ξ0, ...,ξn ) : Ω→ Rn+1 y para E ⊂B(Rn+1):σΩ((ξ0, ...,ξn)−1(E ))= (ξ0, ...,ξn)−1(σRn+1

(E )).

Para probar (d) del ejemplo precedente tenemos en cuenta que:(ξ0, ...,ξn)−1 (A0 × . . .× An) : Ai ∈B(R)

A : A ∈Fξn ;ξn+1, I A son independientes

⊂F

ξn

y tomando σΩ se obtiene

Fξn =σΩ

(A : A ∈F

ξn ;ξn+1, I A son independientes

)=F

ξn .

Por último se prueba que

A : A ∈Fξn ;ξn+1, I A son independientes

es σ-

álgebra, para lo cual sólo hay que ver que es álgebra, pues es claro que esmonotónica (Teorema 3.1.21., (V. 2, pág. 20)).

Ejemplo 2. Sean ξ una variable aleatoria, en el espacio de probabilidad(Ω,F ,P ), con E (|ξ|) < +∞ y Fs s∈S una filtración de (Ω,F ), con S sub-conjunto de R. Entonces η =

ηs

s∈S , donde ηs = E (ξ|Fs ), s ∈ S, es una

martingala en (Ω,F ,P ) respecto a Fs s∈S y a P . En efecto:

62 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

(a) Es claro que η es un proceso estocástico medible y adaptado a Fs s∈S .

(b) Para todo s ∈ S, E (ηs) = E (ξ).

(c) Por (8) de la página 221 de V. 2, para todo s1, s2 ∈ S con s1 < s2, se tieneE (ηs2 |Fs1 ) = E (E (ξ|Fs2 )|Fs1 ) = E (ξ|Fs1 ) = ηs1 .

Observamos que la condición E (|ξs |) <+∞, s ∈ S, (en la definición de mar-tingala) garantiza la existencia de E

(ξs2 |Fs1

), s1 < s2, s1, s2 ∈ S. Sin em-

bargo, E(ξs2 |Fs1

)puede también existir sin suponer la condición E (|ξs |) <

+∞, s ∈ S (V. 2, pág. 219, Observaciones. (1)). Lo cual motiva la siguientedefinición de martingala generalizada.

Definición 4.5.2. Sean (Ω,F ,P ) un espacio de probabilidad, Fs s∈S unafiltración del espacio medible (Ω,F ) y ξ= ξs s∈S un proceso estocástico realen (Ω,F ). Se dice que ξ es una martingala generalizada (submartingala ge-neralizada) en (Ω,F ,P ) respecto a Fs s∈S y a P, si ξ es un proceso estocásti-co medible y adaptado a Fs s∈S tal que E

(ξs2 |Fs1

), s1 < s2, s1, s2 ∈ S, existe

y se cumple:

E(ξs2 |Fs1

)= ξs1 (P −a.s.), s1 < s2, s1, s2 ∈ S

(E(ξs2 |Fs1

), existe y E

(ξs2 |Fs1

)> ξs1 (P −a.s.), s1 < s2, s1, s2 ∈ S).

Un proceso estocástico ξ = ξs s∈S es una supermartingala generalizada en(Ω,F ,P ) respecto a Fs s∈S y a P, si −ξ= −ξs s∈S es submartingala genera-lizada en (Ω,F ,P ) respecto a Fs s∈S y a P, lo cual equivale a que E

(ξs2 |Fs1

),

s1 < s2, s1, s2 ∈ S, exista y se cumpla: E(ξs2 |Fs1

)6 ξs1 , (P-a.s.), s1 < s2,

s1, s2 ∈ S.

Consecuencias de esta definición:

(1) Si ξs s∈S es submartingala generalizada (supermartingala generaliza-da) en (Ω,F ,P ) respecto a la filtración Fs s∈S y a P , entonces se tie-ne que E

(ξ−s2

|Fs1

)< +∞ (P-a.s.), s1 < s2, s1, s2 ∈ S (E

(ξ+s2

|Fs1

)< +∞

(P-a.s.), s1 < s2, s1, s2 ∈ S), ((−ξs2 )− = ξ+s2).

(2) Si ξss∈S es martingala generalizada en (Ω,F ,P ) respecto a Fs s∈S y aP , entonces

E(|ξs2 ||Fs1

)<+∞, (P.a.s.), s1 < s2 s1, s2 ∈ S, (|ξs2 | = ξ+s2

+ξ−s2).

4.5. MARTINGALAS 63

Si ξnn∈N es sucesión estocástica, en un espacio medible (Ω,F ) conuna filtración Fnn∈N , que cumple ξn es Fn−1-medible, n ∈N+, entoncesa ξnn∈N se le llama sucesión previsible (o predecible) respecto a Fnn∈N,(donde se toma F−1 =F0 por convenio).Si ξ = ξnn∈N es una sucesión estocástica, en el espacio de probabilidad(Ω,F ,P ), que cumple ξ0 = 0 y ξn 6 ξn+1 (P-a.s.) para todo n ∈N, entoncesse dice que ξ es creciente.

Proposición 4.5.3. Sean (Ω,F ,P ) un espacio de probabilidad y Fnn∈Nuna filtración de (Ω,F ). Sean ς = ςnn∈N una sucesión estocástica adap-tada a Fnn∈N y υ = υnn∈N una sucesión estocástica previsible respecto aFnn∈N. Para cada n ∈N se define

(υ.ς)n = υ0ς0 +n∑

i=1υi∆ςi , donde∆ςi = ςi −ςi−1 y υ.ς= (υ.ς)nn∈N.

Entonces,(υ.ς)n

n∈N es una sucesión estocástica medible y adaptada a la

filtración Fnn∈N, llamada transformada de ς mediante υ. Si además ς esmartingala respecto a la filtración Fnn∈N y a P, entonces υ.ς es martingalarespecto a Fnn∈N y a P, y se dice que υ.ς es la martingala transformada deς mediante υ.

Definición 4.5.4 (Martingala diferencia). Sea ξ= ξnn∈N una sucesión es-tocástica en el espacio de probabilidad (Ω,F ,P ) adaptada a la filtraciónFnn∈N de (Ω,F ). Se dice que ξ es una martingala-diferencia respecto a lasucesión Fnn∈N y a P, si:E (|ξn|) <+∞ y E (ξn+1|Fn) = 0 (P-a.s.), n ∈N.

Relaciones entre martingalas y martingalas-diferencia

Sea η =ηn

n∈N una martingala en el espacio de probabilidad (Ω,F ,P )

respecto a la filtración Fnn∈N de (Ω,F ) y a P . Entonces, ξ= ξnn∈N, don-de ξ0 = η0 y ξn =∆ηn = ηn −ηn−1, n ∈N+, es una martingala-diferencia en(Ω,F ,P ) respecto a Fnn∈N y a P , ((4) y (6) de la página 221 de V. 2).Recíprocamente, si ξ = ξnn∈N es una martingala-diferencia en (Ω,F ,P )respecto a Fnn∈N y a P , entonces se verifica que η =

ηn

n∈N, donde

ηn = ξ0 + ...+ξn , n ∈N, es una martingala en (Ω,F ,P ) respecto a Fnn∈Ny a P .

64 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

Sea (Ω,F ,P ) un espacio de probabilidad y ξ= ξnn∈N una sucesión devariables aleatorias independientes en dicho espacio con E (ξn) = 0, n ∈N.Entonces, η=

ηn

n∈N, donde ηn = ξ0+ ...+ξn , n ∈N, es una martingala en

(Ω,F ,P ) respecto a la filtración Fnn∈N, donde Fn =σξ0, ...,ξn , n ∈N, ya P (Ejemplo 1., pág. 60). Así, por lo visto más arriba, ξ es una martingala-diferencia respecto a Fnn∈N y a P .Se aclara a continuación la estructura de submartingala.

Teorema 4.5.5 (Doob). Sean (Ω,F ,P ) un espacio de probabilidad y ξnn∈Nuna submartingala en este espacio respecto a la filtración Fnn∈N, del es-pacio medible (Ω,F ), y a P. Entonces, existe una martingala µ =

µn

n∈N

en (Ω,F ,P ) respecto a Fnn∈N y a P y existe π= πnn∈N sucesión estocásti-ca en (Ω,F ,P ) creciente y previsible respecto a Fnn∈N y a P (pág. 63) talesque ξn =µn +πn , (P-a.s.), para cada n ∈N.Una descomposición de este tipo es única.

Demostración. Tomamosµ0 = ξ0, µn =µ0+∑n−1

j=0

[ξ j+1 −E

(ξ j+1|F j

)], π0 =

0, πn =∑n−1

j=0

[E

(ξ j+1|F j

)−ξ j

], n ∈N+.

Es claro que µn y πn , así definidos, cumplen lo exigido en el teorema.Sea ξn = µ′

n +π′n , (P-a.s.), donde

µ′

n

n∈N es martingala en (Ω,F ,P ) res-

pecto a Fnn∈N y a P , yπ′

n

n∈N es sucesión estocástica en (Ω,F ,P ) cre-

ciente y predecible respecto a Fnn∈N y a P . Entonces, π′n+1 −π′

n =πn+1 −πn +µn+1 −µn −µ′

n+1 +µ′n y tomando esperanzas condicionadas se tiene

π′n+1 −π′

n = πn+1 −πn (P-a.s.). Pero π0 = π′0 = 0, y por tanto, πn = π′

n yµn =µ′

n , (P-a.s.), n ∈N.

Definición 4.5.6. A la sucesión estocástica previsible πnn∈N del teoremaanterior, se le llama compensador de ξ.

Tiempo de Markov

Un tiempo de Markov es una variable aleatoria extendida cuyos valores seinterpretan como los instantes de tiempo para los cuales un proceso esto-cástico dado exhibe un cierto comportamiento de interés, asociado a unaσ-álgebra de sucesos. De estas variables aleatorias es importante consi-derar aquéllas que determinan la aparición de un determinado suceso enbase al tiempo presente y pasado, lo que suministra un mecanismo pa-ra decidir si parar o no un proceso estocástico real, en un tiempo finito,

4.5. MARTINGALAS 65

teniendo en cuenta la información obtenida a partir de estos sucesos entiempo presente y pasado.

Definición 4.5.7. Sean (Ω,F ) un espacio medible y Ft t∈JT una filtraciónde (Ω,F ). Sea τ : Ω→ R una variable aleatoria extendida tal que im(τ) ⊂[0,+∞], (Definición 3.3.1., (V. 2, pág. 149)). Entonces,

(a). Se dice que τ es un tiempo de Markov respecto a Ft t∈JT, si para cada

t ∈ JT , ω : ω ∈Ω, τ(ω) 6 t ∈Ft , (lo que equivale a ω : ω ∈Ω, τ(ω) >t ∈Ft para todo t ∈ JT ).

(b). Sea P una probabilidad en (Ω,F ). Si τ es un tiempo de Markov respectoa Ft t∈JT

tal que P (τ<+∞) = 1, (lo que equivale a P (τ=+∞)= 0), sedice que τ es tiempo de parada en el espacio de probabilidad (Ω,F ,P )respecto a la filtración Ft t∈JT .

Toda aplicación constante de Ω en [0,+∞] es tiempo de Markov respectoa Ft t∈JT , y es tiempo de parada si la constante es distinta de +∞.

Lema 4.5.8. (1) Si τ es un tiempo de Markov respecto a Ft t∈JT , entoncesτ< t y τ= t son elementos de Ft , para todo t ∈ JT .

(2) Sea τ un tiempo de Markov respecto a Ft t∈J∞ con im(τ) ⊂N∪ +∞ ⊂[0,+∞]. Entonces, queda inducida una filtración Fnn∈N y natural-mente τ6 n, τ< n y τ= n son elementos de Fn para todo n ∈N.

Demostración. (1) Basta observar que τ< t =⋃k∈N+τ6 t − (1/k), y que

τ= t = τ6 t r τ< t .(2) Sigue de (1).

Observación 4. Sean (Ω,F ) un espacio medible, τ : Ω → R una variablealeatoria extendida con im(τ) ⊂ [0,+∞] y Ft t∈JT

una filtración de (Ω,F ).La propiedad [para todo t ∈ JT , τ < t ∈ Ft ] no implica que τ sea tiempode Markov respecto a Ft t∈JT , (véase (c) de página 68).

A la vista de (2) del lema que precede cabe la definición que sigue.

Definición 4.5.9. Sean (Ω,F ) un espacio medible y Fnn∈N una filtraciónde (Ω,F ). Sea τ : Ω→ R una variable aleatoria extendida tal que im(τ) ⊂N∪ +∞ ⊂ [0,+∞]. Entonces,

66 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

(a). Se dice que τ es un tiempo de Markov respecto a Fnn∈N si τ= n ∈Fn

para todo n ∈N.

(b). Si P es una probabilidad en (Ω,F ) y τ es tiempo de Markov respectoa Fnn∈N con P (τ < +∞) = 1, (lo que equivale a P (τ = +∞) = 0), sedice que τ es tiempo de parada en el espacio de probabilidad (Ω,F ,P )respecto a la filtración Fnn∈N.

Lema 4.5.10. Sean (Ω,F ) un espacio medible, τ : Ω→R una variable alea-toria extendida con im(τ) ⊂N∪ +∞, y Fnn∈N una filtración del espaciodado. Entonces, τ es un tiempo de Markov respecto a Fnn∈N si y sólo siτ6 n ∈Fn para todo n ∈N.

Demostración. Basta observar que τ6 n =n⋃

k=0τ= k, n ∈N.

Sean (Ω,F ) un espacio medible, τ : Ω → R una variable aleatoria ex-tendida con im(τ) ⊂ N∪ +∞, y Fnn∈N una filtración del espacio dado.Supongamos que τ es tiempo de Markov respecto a la filtración Fnn∈N(definición anterior). Ampliamos la filtración dada Fnn∈N a una filtraciónFt t∈J∞ , (n 6 t < n +1, Ft =Fn , n ∈N). Entonces,

τ6 t = τ= n∪ τ= n −1∪ ...∪ τ= 0 ∈Fn =Ft , n 6 t < n +1,n ∈N,

ya que τ = 0 ∈ F0, τ= 1 ∈ F1,..., τ= n ∈ Fn . Por tanto, τ es tiempo deMarkov respecto a la filtración Ft t∈J∞ según la Definición 4.5.7..

Sea τ : Ω→ R con im(τ) ⊂ [0,+∞] un tiempo de Markov respecto a lafiltración Ft t∈JT , (Definición 4.5.7.). Consideramos el conjunto

Fτ =

A ∈F : A∩ τ6 t ∈Ft para todo t ∈ JT⊂F .

Entonces Fτ es una σ-álgebra de Ω, (para probar la propiedad del com-plementario, téngase en cuenta que Ac ∩τ6 t = τ6 t r A∩τ6 t ), quese llama σ-álgebra asociada a τ.

Si τ es tiempo de Markov constante de valor u ∈ JT , se verifica que Fτ =Fu .

4.5. MARTINGALAS 67

Se prueba fácilmente que si τ : Ω → [0,+∞] es un tiempo de Markovrespecto a la filtración Ft t∈JT , entonces τ es Fτ|B(R)-medible, (para to-do r ∈ [0,+∞] y todo t ∈ JT , se tiene que τ 6 r ∩ τ 6 t = τ 6 t ∈ Ft sit 6 r , y si r < t se verifica que τ 6 r ∩ τ 6 t = τ6 r ∈ Ft , ya que r < timplica que r ∈ JT y Fr ⊂Ft . Así, τ6 r ∈Fτ).

Sean ξ= ξt t∈JT un proceso estocástico en el espacio medible (Ω,F ) yτ : Ω→ [0,+∞] un tiempo de Markov respecto a una filtración Ft t∈JT deese espacio. Se designa por ξτ a la aplicación del conjunto (Ωτ =)ω : ω ∈Ω, τ(ω) ∈ JT ∈F y con valores en R, definida por ξτ(ω) = (ξτ(ω))(ω), ω ∈Ωτ

(si im(τ) ⊂ JT , entonces Ωτ =Ω y ξτ está definida sobre todo Ω).

Sean (Ω,F ) un espacio medible y Fnn∈N una filtración de este espa-cio. Sea τ : Ω→ R con im(τ) ⊂ N∪ +∞ un tiempo de Markov respecto aFnn∈N. Entonces,

Fτ = A ∈F : A∩ τ= n ∈Fn para todo n ∈N

es una σ-álgebra que coincide con la construida en la página 66 cuandoim(τ) ⊂N∪ +∞ y se considera la filtración Fnn∈N.En efecto: Ω ∈Fτ; si An ∈Fτ, n ∈N, se tiene que

⋃n∈N An ∈Fτ. Por último,

sea A ∈Fτ. Entonces,

Ac ∩ τ= n = τ= nr τ= n∩ A ∈Fn ,

lo que prueba que Ac ∈Fτ. Luego efectivamente Fτ es σ-álgebra.Finalmente, la igualdad de esta σ-álgebra con la construida en la página66, cuando S = N, im(τ) ⊂ N∪ +∞ y se tiene la filtración Fnn∈N, siguede las igualdades: para todo n ∈ N, τ 6 n = ⋃n

k=0τ = k y τ = n = τ 6

nr τ6 n −1.Como se ha dicho más arriba, τ es Fτ|B(R)-medible.

Propiedades de los tiempos de Markov

Sean (Ω,F ) un espacio medible, Ft t∈JT una filtración de este espacio, yτ, τ1, τ2 : Ω→ [0,+∞] tiempos de Markov respecto a Ft t∈JT . Entonces,

68 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

(a) τ es un tiempo de Markov respecto aF+

t

t∈J∞

, (pág. 24), es decir,τ6

t ∈F+t , t ∈ J∞.

(b) τ< t ∈Ft y por tanto, τ= t ∈Ft , t ∈ JT . (Lema 4.5.8.(1), pág. 65).

(c) Sea σ : Ω→ R una función F |B(R)-medible con im(σ) ⊂ [0,+∞]. En-tonces, σ es un tiempo de Markov respecto a

F+

t

t∈J∞

si y sólo sipara todo t ∈ J∞, σ< t ∈Ft .Como consecuencia, si Ft t∈J∞ es continua por la derecha, (pág.24), y σ< t ∈ Ft , t ∈ J∞, entonces σ es tiempo de Markov respectoa Ft t∈J∞ .En efecto: Si σ es tiempo de Markov respecto a

F+

t

t∈J∞

, enton-ces para todo t ∈ J∞ con t > 0 elegimos una sucesión snn∈N+ es-trictamente creciente de números reales positivos que converge a t ,(sn < t ). Así, σ< t =⋃

nσ6 sn ∈Ft .Reciprocamente, para todo t , s ∈ J∞ con t < s, consideramos unasucesión de números reales estrictamente decreciente snn∈N+ queconverge a t y tal que t < sn < s. Entonces,σ6 t =⋂

n σ< sn ∈Fs

y así σ6 t ∈F+t .

(d) mınτ1,τ2(= τ1∧τ2), maxτ1,τ2 (= τ1∨τ2) y τ1+τ2 son también tiem-pos de Markov respecto a Ft t∈JT

. En particular, τ1 ∧ t es tiempo deMarkov para todo t ∈ JT . (Para el caso τ1+τ2, téngase en cuenta que:

τ1+τ2 6 t = τ1 = t ,τ2 = 0⋃

(⋃

q∈Q∩[0,t]τ1 6 q∩ τ2 6 t −q

), t ∈ JT )

(e) τ es Fτ|B(R)-medible, (pág. 67). Lo mismo ocurre cuando τ es untiempo de Markov respecto a la filtración Fnn∈N, (pág. 67).

(f ) Si F0 contiene a todos los P −0-conjuntos, y τ1 6 τ2 (P-a.s.), entoncesFτ1 ⊂Fτ2 .En efecto,Sea A ∈ Fτ1 . Para todo t ∈ JT , como P (τ1 6 τ2) = 1, A ∩ τ2 6 t yA∩ τ1 6 t ∩ τ2 6 t , el cual pertenece a Ft , son dos conjuntos quedifieren en un P −0-conjunto. Por tanto, A∩ τ2 6 t ∈Ft y A ∈Fτ2 .

4.5. MARTINGALAS 69

(g) Si ξ = ξt t∈JTes un proceso estocástico en (Ω,F ) e im(τ)∩ JT es nu-

merable, entonces, se verifica que ξτ es una variable aleatoria en elespacio medible

(Ωτ,F |Ωτ

)), (pág. 67).

(h) Sea ξ = ξt t∈J∞ un proceso estocástico real y progresivamente me-dible respecto a Ft t∈J∞ . Entonces ξτ : Ωτ → R, es Fτ|Ωτ-medible,(recordamos que si +∞ 6∈ im(τ), entonces Ωτ = Ω, (pág. 67)). Portanto, la aplicación ξ∗τ : Ω → R definida por ξ∗τ (ω) = ξτ(ω) si τ(ω) <+∞, y ξ∗τ (ω) = 0, si τ(ω) =+∞, es Fτ-medible, (véase la Proposición3.4.6.(1), (V. 2, pág. 167)).

(k) Sean (Ω,F ) un espacio medible y ξ = ξnn∈N una sucesión estocásti-ca en (Ω,F ) adaptada a una filtración Fnn∈N de ese espacio. Seaτ : Ω→ R con im(τ) ⊂N∪ +∞ ⊂ [0,+∞] un tiempo de Markov res-pecto a Fnn∈N. Entonces,

(k1) ξ∗τ (ω) =∑

n∈Nξn(ω) · Iτ=n(ω), ω ∈Ω, (ξ∗τ (ω) = 0 si ω ∈ τ=+∞,y ξ∗τ (ω) = ξτ(ω) siω 6∈ τ=+∞), y es variable aleatoria en (Ω,F ).En efecto, para todo B ∈B(R),

ω : ξ∗τ (ω) ∈B =∑

n∈Nω : ξn(ω) ∈ B

⋂ω : τ(ω) = n ∈F

si 0 6∈ B , y si 0 ∈B , ξ∗τ ∈B =

=(

n∈Nω : ξn(ω) ∈B

⋂ω : τ(ω) = n

)⋃

ω : τ(ω) =+∞∈F .

(k2) ξ∗τ : Ω→R es Fτ-medible.Este resultado es un caso particular de (h), pues toda sucesiónestocástica es progresivamente medible respecto a la filtraciónFnn∈N, (pág. 21).

Ejemplo 3. Sean ξnn∈N una sucesión estocástica en el espacio de proba-bilidad (Ω,F ,P ) adaptada a la filtración Fnn∈N de (Ω,F ), y B ∈B(R). En-tonces, τB (ω) = ınfn > 0 : ξn(ω) ∈B con τB (ω) =+∞ si n > 0 : ξn(ω) ∈B=;, es tiempo de Markov respecto a Fnn∈N (tiempo de primera visita). Enefecto: ω : τB (ω) = n = ω : ξn(ω) ∈ B ,ξn−1(ω) 6∈B , ...,ξ0(ω) 6∈B ∈ Fn , n ∈N. Por otro lado, ω : τB (ω) =+∞ = ω : ξn(ω) 6∈ B , n ∈N ∈F .

70 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

Ejemplo 4. En el párrafo 7 del capítulo 1 (V.1, pág. 55) se ha comentado queel término matemático martingala procede de los juegos reales en los queel citado término se utiliza para referirse a la estrategia: doblar la apuestadespués de perder y retirarse después de ganar. Analizamos esta estrategia.

Sean (Ω,F ,P ) un espacio de probabilidad y η=ηn

n∈N+ una sucesión de

variables aleatorias de Bernoulli independientes con P (ηn = 1) = p, P (ηn =−1) = q , p +q = 1, (véase página 15).Consideramos las σ-álgebras F0 = ;,Ω, Fn = F

ηn = ση1, ...,ηn , n ∈N+,

(pág. 23). Sea υnn∈N+ una sucesión de variables aleatorias tal que υn esFn−1-medible (υnn∈N+ es previsible respecto a Fnn∈N). Ponemos

ξn =n∑

i=1υiηi , ξ0 = 0, y ςn = η1 + ...+ηn , ς0 = 0.

Entonces,

ξn =n∑

i=1υi∆ςi =

n∑

i=1υi (ςi −ςi−1)

y ξ = ξnn∈N es una sucesión de variables aleatorias adaptada a la filtra-ción Fnn∈N de (Ω,F ). Además ξnn∈N es la transformada de ςnn∈N me-diante υnn∈N. Sabemos que si ςnn∈N es martingala, ξnn∈N es tambiénmartingala, (Proposición 4.5.3., pág. 63).

(1) Si p = q = 12 , entonces E (ηn) = 0, y ςnn∈N,(ς0 = 0), y ξnn∈N son mar-

tingalas respecto a Fnn∈N y a P .

(2) Si p > q , entonces ξ es submartingala respecto a Fnn∈N y a P .

(3) Si p < q , entonces ξ es supermartingala respecto a Fnn∈N y a P .

Para demostrar (2) y (3) recordamos: Sea ζ una variable aleatoria tal queexiste E (ζ). Supongamos que ζ es independiente de G . Entonces, se verifi-ca que E (ζ|G ) = E (ζ), (P .a.s.), (V. 2, (10) de la página 221).En nuestro caso (2), por lo dicho y (11) de la página 221 de V. 2:

E (ξn+1 −ξn |Fn) = E(υn+1ηn+1|Fn

)=

= υn+1E(ηn+1|Fn

)= υn+1E

(ηn+1

)= υn+1(p −q) > 0,

4.5. MARTINGALAS 71

de donde E (ξn+1|Fn) > ξn (submartingala).El caso (3) se prueba de forma análoga.

Caso particular: υ1 = 1 y para n > 1,

(*) υn(ω) =

2n−1, η1(ω) =−1, ...,ηn−1(ω) =−10, en el resto de casos

Entonces υn es Fn−1-medible, y

ξn(ω) =−(2n −1) =n∑

i=1υi (ω)ηi (ω), si η1(ω) =−1, ...,ηn(ω) =−1, y

ξn+1(ω) = ξn(ω)+υn+1(ω)ηn+1(ω) =−(2n −1)+2n = 1, si

η1(ω) =−1, ...,ηn(ω) =−1,ηn+1(ω) = 1.

Sea τ= ınf

n ∈N+ : ξn = 1. Entonces, si p = q = 1

2 , P (τ= n) = (1/2)n , P (τ<+∞) = 1, y por tanto, por el ejemplo anterior, τ es tiempo de parada res-pecto a la filtración Fnn∈N. Además, P (ξτ = 1) = 1, y E

(ξτ

)= 1, (obsérvese

que E (ξτ) 6= E (ξ0) = 0).

Interpretamos el sucesoηn = 1

como éxito y

ηn =−1

como no éxito

de un jugador en la jugada n. Sea υn la apuesta del jugador en la jugadan. Entonces la ganancia total en la jugada n (de 0 a n) del jugador es ξn .La sucesión estocástica υnn∈N previsible respecto a Fnn∈N se interpre-ta como la estrategia del jugador (la condición previsible significa que laapuesta υn depende de υ1,...,υn−1 y de η1,...,ηn−1).Desde el punto de vista del jugador el juego es justo (o favorable o desfa-vorable) si en cada etapa E (ξn+1 −ξn |Fn) = 0 (o, > 0, o, 6 0).Entonces, si p = q = 1/2, el juego es justo, si p > q , el juego es favorable, ysi p < q , el juego es desfavorable.Es interesante destacar que en un juego justo la elección de las apuestasno permite incrementar o disminuir la ganancia esperada (si p = q = 1

2 ,por (1) de la página 70 se tiene que ξ es una martingala respecto a Fnn∈Ny a P , y por tanto, E (ξn) = E (ξ0) = 0, para todo n ∈N).Con la estrategia (*), (que expresa formalmente la estrategia del comienzodel ejemplo), y p = q = 1/2 un jugador puede en un tiempo finito (P (τ <

72 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

+∞) = 1) terminar el juego con éxito incrementando su capital en una uni-dad (E (ξτ) = 1> ξ0 = 0).

Martingalas y tiempos de Markov

Ejemplo 5. Sean ξ= ξnn∈N una martingala (submartingala), en el espaciode probabilidad (Ω,F ,P ), respecto a la filtración Fnn∈N (del espacio me-dible (Ω,F )) y a P , y τ : Ω→N=N∪+∞ un tiempo de Markov respecto aFnn∈N. Entonces, ξn∧τ(ω) = ξn∧τ(ω)(ω) = ξmın(n,τ(ω))(ω) se puede escribir:

ξn∧τ(ω) = ξ0I(τ=0)(ω)+ξ1I(τ=1)(ω)+ ...+ξn−1 I(τ=n−1)(ω)+ξn I(τ>n)(ω),

lo que implica que ξn∧τ es Fn-medible. Luego ξn∧τn∈N es una sucesiónestocástica adaptada a Fnn∈N. Además, ξn∧τ, n ∈ N, son integrables, esdecir, E (|ξn∧τ|) < +∞, n ∈ N, y cumplen que ξ(n+1)∧τ −ξn∧τ = (ξn+1 −ξn) ·I(τ>n). Así, E

(ξ(n+1)∧τ−ξn∧τ|Fn

)= I(τ>n)E (ξn+1 −ξn |Fn),(P-a.s.).

Por tanto, como

E (ξn+1 −ξn |Fn) = E (ξn+1|Fn)−E (ξn|Fn) , (P −a.s.), (> 0,(P −a.s.)),

se concluye que E(ξ(n+1)∧τ−ξn∧τ|Fn

)= 0, (P-a.s.), (> 0,(P-a.s.)) y por con-

siguienre ξn∧τn∈N es una martingala (submartingala) respecto a la filtra-ción Fnn∈N y a P .

Definición 4.5.11. Sea ξ = ξs s∈S , S ⊂ R, una martingala en el espacio deprobabilidad (Ω,F ,P ) respecto a la filtración Fs s∈S (del espacio medible(Ω,F )) y a P. Se dice que ξ es regular si existe una variable aleatoria inte-grable η : Ω→R tal que ξs = E

(η | Fs

), (P-a.s.), s ∈ S.

Este concepto es equivalente a: ξs s∈S es uniformemente integrable (esdecir, para todo ε> 0 existe M > 0 tal que

sups∈S

|ξs |>c|ξs |dP < ε, si c > M ,

(Definición 3.4.14., (V. 2, pág. 173)).

4.5. MARTINGALAS 73

Teorema 4.5.12. Sea ξ= ξt t∈J∞ una martingala, en el espacio de probabi-lidad (Ω,F ,P ), respecto a la filtración Ft t∈J∞ (del espacio medible (Ω,F ))y a P. Supongamos que ξ es regular y tiene trayectorias continuas por la de-recha. Sean τ y σ tiempos de Markov respecto a Ft t∈J∞ , con P (σ6 τ) = 1.Entonces, ξσ = E

(ξτ|Fσ

), (P-a.s.).

Definición 4.5.13. Sean (Ω,F ,P ) un espacio de probabilidad y ξ= ξnn∈Nuna sucesión estocástica adaptada a la filtración Fnn∈N del espacio medi-ble (Ω,F ). Se dice dice ξ es una martingala local (submartingala local) res-pecto a Fnn∈N y a P si existe una sucesión τk k∈N+ de tiempos de Markovrespecto a Fnn∈N tal que τk 6 τk+1, (P-a.s.), τk ↑ +∞, (P-a.s.), k →+∞ y,por último para todo k ∈N+,

ξn∧τk · Iτk>0

n∈N, (que ya es sucesión estocás-

tica adaptada a Fnn∈N) es martingala (submartingala) respecto a Fnn∈Ny a P.

Definición 4.5.14. Sean (Ω,F ,P ) un espacio de probabilidad y ξ= ξt t∈JT

un proceso estocástico medible y adaptado a la filtración Ft t∈JT del espa-cio medible (Ω,F ). Se dice que ξ es una martingala local respecto a Ft t∈JT

y a P si existe una sucesión creciente τnn∈N de tiempos de Markov respectoa Ft t∈JT

tal que:

(1) P (τn 6 n) = 1, P (lımτn =+∞) = 1.

(2) Para todo n ∈ N,ξt∧τn

t∈JT

es una martingala en (Ω,F ,P ) respectoa Ft t∈JT y a P que es uniformemente integrable (observación quesigue a la Definición 4.5.11.).

Proposición 4.5.15. Sean (Ω,F ,P ) un espacio de probabilidad, Ft t∈JT

una filtración del espacio medible (Ω,F ) y ξ = ξt t∈JTuna martingala lo-

cal no negativa, en (Ω,F ,P ), respecto a Ft t∈JT y a P. Entonces, ξ es unasupermartingala respecto a Ft t∈JT y a P.

Demostración. Como ξ es una martingala local, existe τnn∈N sucesióncreciente de tiempos de Markov respecto a Ft t∈JT tal que P (τn 6 n) = 1,P (lımτn =+∞) = 1 y para todo n ∈ N,

ξt∧τn

t∈JT

es una martingala en(Ω,F ,P ) respecto a Ft t∈JT y a P . Entonces por el Teorema 3.5.2. del V. 2,(pág. 224), teniendo en cuenta que ξ es no negativa, para todo s, t ∈ JT cons < t se tiene que

E (ξt |Fs ) = E(lımξt∧τn |Fs

)6 lımE

(ξt∧τn |Fs

)= lımξs∧τn = ξs ,

74 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

lo cual prueba que ξ es una supermartingala respecto a Ft t∈JT y a P

El siguiente teorema unifica, en el caso de sucesiones estocásticas, losconceptos de martingala local, martingala generalizada y martingala trans-formada.

Teorema 4.5.16. Sea ξ = ξnn∈N una sucesión estocástica, en el espacio deprobabilidad (Ω,F ,P ), adaptada a la filtración Fnn∈N (del espacio medi-ble (Ω,F )) con ξ0 = 0 (P-a.s.). Las siguientes afirmaciones son equivalentes:

(a) ξ es martingala local respecto a Fnn∈N y a P (Definición 4.5.13.).

(b) ξ es martingala generalizada respecto a Fnn∈N y a P (Definición 4.5.2.).

(c) Existe υ = υnn∈N sucesión estocástica predecible respecto a Fnn∈N,(pág. 63), con υ0 = 0 y existe ς = ςnn∈N martingala con respecto aFnn∈N y a P con ς0 = 0 tales que ξ= υ.ς, es decir, ξ es la martingalatransformada de ς mediante υ (Proposición 4.5.3., pág. 63).

Demostración. Veamos sólo (a)=⇒ (b). Para todo m ∈ N, por la hipótesis(a), E

[|ξm∧τk | · Iτk>0

]<+∞ y por consiguiente,

E[|ξ(n+1)∧τk | · Iτk>n

]= E

[|ξn+1| · Iτk>n

]<+∞ (1)

La variable aleatoria Iτk>n es Fn-medible. Así de (1) y (11) de la página221 de V. 2,

E[|ξn+1| · Iτk>n|Fn

]= Iτk>n ·E [|ξn+1||Fn ] <+∞ (P −a.s.)

Es claro que Iτk>n → 1 (P-a.s.), k →+∞. Por tanto, E (|ξn+1||Fn) <+∞ (P-a.s.). Bajo esta condición, E (ξn+1|Fn) existe. Veamos que se cumple queE (ξn+1|Fn) = ξn (P-a.s.), n ∈N, lo que terminará la prueba de (a)=⇒(b).De E (|ξn||Fn ) <+∞ (P-a.s.). deducimos que la medida en (Ω,Fn)

Q(A) =∫

A|ξn+1|dP, A ∈Fn ,

es σ-finita, (Teorema 3.4.20., (V. 2, pág. 183)), de hecho son situacionesequivalentes.Como

ξn∧τk · Iτk>0

n∈N es una martingala respecto a la filtración Fnn∈N

4.5. MARTINGALAS 75

y a P ,|ξn∧τk | · Iτk>0

n∈N es una submartingala respecto a Fnn∈N y a P .

Entonces, ya que τk > n∈Fn , para todo B ∈Fn

B∩τk>n|ξn |dP =

B∩τk>n|ξn∧τk | · Iτk>0dP 6

6

B∩τk>n|ξ(n+1)∧τk | · Iτk>0dP =

B∩τk>n|ξn+1|dP.

Pasando al límite, k →+∞, tenemos (pág. 74)∫

B|ξn |dP 6

B|ξn+1|dP, B ∈Fn .

Luego la medida en (Ω,Fn)

Q(A) =∫

A|ξn |dP, A ∈Fn ,

es también σ-finita.

Sea B ∈ Fn tal que∫

B |ξn+1|dP < +∞. Entonces tenemos la ecuaciónde la martingala (operando como antes en la submartingala)

B∩τk>nξndP =

B∩τk>nξn+1dP.

Por el Teorema 3.4.10. (V. 2, pág. 172) de la convergencia dominada, setiene ∫

BξndP =

Bξn+1dP, B ∈Fn con

B|ξn+1|dP <+∞.

Luego ∫

BξndP =

Bξn+1dP, B ∈Fn ,

en particular E (ξn) = E (ξn+1).Luego hemos probado que E (ξn+1|Fn) = ξn (P-a.s.), n ∈ N (por la unici-dad).

Si ξnn∈N es una martingala definida en el espacio de probabilidad (Ω,F ,P )respecto a la filtración Fnn∈N (del espacio medible (Ω,P )) y a P , sabemos

76 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

que E (ξn) = E (ξ0) (pág. 60), n ∈ N+. Sin embargo, en el Ejemplo 4., (pági-nas 70, 71 y 72), se han construido una martingala ξnn∈N y un tiempo deMarkov τ tales que E (ξτ) 6= E (ξ0), (ξ= ξnn∈N).

A continuación se estudian situaciones en las que se da la igualdadE (ξτ) = E (ξ0).

Teorema 4.5.17. Sea ξ= ξt t∈J∞ una martingala en el espacio de probabi-lidad (Ω,F ,P ) respecto a la filtración Ft t∈J∞ (del espacio medible (Ω,F ))y a P. Supongamos que el proceso estocástico ξ es continuo. Entonces,

(1) Si τ es un tiempo de Markov respecto a Ft t∈J∞ acotado, E (ξτ) = E (ξ0).

(2) Si τ1, τ2 son dos tiempos de Markov respecto a Ft t∈J∞ con τ1 6 τ2 6 K(K ∈ R constante), se verifica que E

(| ξτ2 |

)< +∞ y E

(ξτ2 | Fτ1

)= ξτ1 ,

(P-a.s.).

Teorema 4.5.18 (Doob). Sea ξ= ξnn∈N una martingala (o submartingala)en el espacio de probabilidad (Ω,F ,P ) respecto a la filtración Fnn∈N (delespacio medible (Ω,F )) y a P, y sean τ1, τ2 tiempos de Markov respecto aFnn∈N, que sean a su vez tiempos de parada, con E

(|ξτi |

)<+∞, i = 1,2 y

lımn→+∞∫

τi>n |ξn |dP = 0, i = 1,2. Entonces,

E(ξτ2 |Fτ1

) =(>)ξτ1 en ω : τ2(ω) > τ1(ω) (P −a.s.).

Si se tiene también P (τ1 6 τ2) = 1, entonces E(ξτ2

) =(>)E

(ξτ1

).

(Recordamos que Fτ1 = A ∈F : A∩ τ1 = n ∈Fn para todo n ∈N).

Demostración. Es suficiente probar que para cada A ∈Fτ1 ,∫

A∩τ2>τ1ξτ2 dP =

(>)

A∩τ2>τ1ξτ1 dP (∗)

Para esto ((∗)), es suficiente probar a su vez:∫

A∩τ2>τ1∩τ1=nξτ2 dP =

(>)

A∩τ2>τ1∩τ1=nξτ1 dP

para todo n ∈N, o lo que es lo mismo∫

B∩τ2>nξτ2dP =

(>)

B∩τ2>nξndP, B = A∩ τ1 = n ∈Fn .

4.5. MARTINGALAS 77

Teorema 4.5.19. Sean (Ω,F ,P ) un espacio de probabilidad y ξ0, ξ1,... va-

riables aleatorias en (Ω,F ). Tomamos, (pág. 23), Fξn = σξ0, ...,ξn, (ξ =

ξnn∈N), n ∈N. (Sabemos que ξnn∈N es una sucesión estocástica adaptada

a la filtraciónF

ξn

n∈N

). Supongamos que ξnn∈N es una martingala (sub-

martingala) respecto aF

ξn

n∈N

y a P . Sea τ un tiempo de Markov respecto

aF

ξn

n∈N

, que sea también tiempo de parada (pág. 66).

Supongamos que E (τ)<+∞ y que para algún n ∈N y alguna constante M

E|ξn+1 −ξn||F ξ

n

6 M en ω : τ(ω) > n, (P −a.s.).

Entonces, E(|ξτ|

)<+∞ y E

(ξτ

) =(>)E (ξ0).

Ejercicios y problemas5.1. Probar las relaciones entre martingalas y martingalas-diferencia esta-blecidas en las páginas 63 y 64.

5.2. Sea (Ω,F ,P ) un espacio de probabilidad y ξ = ξnn∈N una sucesiónde variables aleatorias independientes tal que E (ξn) > 0 (respectivamente,

E (ξn) 6 0), n ∈N. Sean ηn = ξ0+ ...+ξn y Fξn =σ (ξ0, ...,ξn ), n ∈N, (pág. 23).

Probar queηn

n∈N es una submartingala (respectivamente, supermartin-

gala) respecto a Fnn∈N y a P .

5.3. Sea ξ= ξnn∈N una sucesión estocástica en el espacio de probabilidad(Ω,F ,P ) adaptada a la filtración Fnn∈N (del espacio medible (Ω,F )) y talque E (|ξn|) < +∞ para todo n ∈ N. Probar que el proceso estocástico ξ esuna martingala respecto a Fnn∈N y a P si y sólo si E (ξn+m |Fn) = ξn paratodo n ∈N y todo m ∈N+.

5.4. Sea ξs s∈S, una martingala en el espacio de probabilidad (Ω,F ,P ) res-pecto a la filtración Fs s∈S de (Ω,F ) y a P . Probar que E (ξs) = E (ξ0), s ∈ S.

5.5. Probar (a), (b) y (c) de la página 61.

5.6. Sea ξ= ξt )t∈JTuna martingala respecto a Ft t∈JT y a P en el espacio

de probabilidad (Ω,F ,P )(pág. 58), tal que E(ξ2

t

)< +∞ para todo t ∈ JT .

Demostrar que E((ξt −ξs)2 | Fs

)= E

(ξ2

t −ξ2s | Fs

), s 6 t .

Indicación: (ξt −ξs )2 = ξ2t −ξ2

s +2ξ2s −2ξtξs .

78 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

4.6. Movimiento Browniano. Procesos estocásti-cos de Wiener.

Sean β=βt

t∈JT

un proceso estocástico real y medible, (pág. 21), definido

en el espacio de probabilidad (Ω,F ,P ), y r un número real. Se dice que β

es un movimiento Browniano (o proceso estocástico Browniano) con origenen r si:

(1) β0 = r , (P-a.s.).

(2) β es un proceso estocástico con incrementos independientes y esta-cionarios (véase la página 57).

(3) Los incrementos βt −βs son variables aleatorias Gaussianas, (V. 2, pág.300), y E

(βt −βs

)= 0, V

(βt −βs

)=σ2|t − s|, σ2 > 0.

(4) β es un proceso estocástico continuo, (pág. 3).

Si r = 0 y σ2 = 1, se dice que β es un movimiento Browniano estándar.

Observamos que si β = βt t∈JT es un movimiento Browniano con ori-gen en 0 y r es un número real, entonces βr = βt +r t∈JT es un movimientoBrowniano con origen en r .

En algunos libros y artículos, a un proceso estocástico real y medible β =βt t∈JT con las propiedades (2) y (4) ya se le llama movimiento Brownianocon origen en r . Con estas dos hipótesis se tiene que βt −β0 es variablealeatoria Gaussiana y E

(βt −β0

)= (E (β1−β0))t , V

(βt −β0

)= (V (β1−β0))t ,

t ∈ JT , (Proposición 4.4.16., pág. 57).

Teorema 4.6.1 (Existencia). Sea η1, η2,... una sucesión de variables aleato-rias independientes y Gaussianas N (0,1), (V. 2, pág. 299). Seaϕ1(t ), ϕ2(t ),...,t ∈ JT , T ∈R, una sucesión arbitraria de elementos de L2(JT ) que constituyeun conjunto ortonormal y completo. Entonces, para cada t ∈ JT ,

βt =+∞∑

j=1η j

∫t

0ϕ j (s)d s

converge (P-a.s.). Además,βt

t∈JT

es un movimiento Browniano estándar.

4.6. MOVIMIENTO BROWNIANO. PROCESOS ESTOCÁSTICOS DE WIENER. 79

Nota. El movimiento Browniano estándar se obtiene como límite de pa-seos aleatorios, (pág. 42), lo cual justifica de alguna forma que dicho movi-miento Browniano se tome para modelar el desplazamiento de partículassuspendidas en un fluido (un líquido o un gas).Sea ξ= ξnn∈N una sucesión de variables aleatorias independientes e idén-ticamente distribuidas en un espacio de probabilidad (Ω,F ,P ). Supon-gamos que E (ξn) = 0 y V (ξn) = 1 para todo n ∈ N, (observamos que siµ = µnn∈N es una sucesión de variables aleatorias independientes, idén-ticamente distribuidas y con varianza finita y no nula, entonces ξ = ξn =(µn−E (µn))/

√V (µn)n∈N es una sucesión de variables aleatorias indepen-

dientes e idénticamente distribuidas tal que E (ξn) = 0 y V (ξn) = 1, n ∈N).Consideramos el paseo aleatorio generado por la sucesión de variablesaleatorias dada (Ejemplo 2., pág. 42), ηn =

∑nk=0 ξk , n ∈N, e interpolamos

linealmente entre los puntos enteros de R, es decir,

ηt = η[t] + (t − [t ])(η[t]+1 −η[t]), t ∈ J∞,

(donde [t ] es la parte entera de t ). De esta forma se obtiene un procesoestocástico con trayectorias continuas, ηt t∈J∞ .Ahora consideramos la sucesión de procesos estocásticos, ηnn∈N+ , dondeηn = ηnt /

pnt∈[0,1].

Por lo dicho en (2) de la página 18, ψηn , n ∈ N+, es una variable aleatoriade (Ω,F ) con valores en (C ,B(C )).Con las notaciones anteriores y lo establecido en páginas 17 y 18, tenemos:

Teorema 4.6.2 (Principio de invariancia de Donsker). La sucesión de va-riables aleatorias del espacio de probabilidad (Ω,F ,P ) con valores en el es-pacio medible (C ,B(C )), ψηn n∈N+ , converge en distribución a una varia-ble aleatoria β de (Ω,F ,P ) con valores en (C ,B(C )), (es decir, para todafunción continua y acotada g de (C ,Tρ) en (R,Tu), se verifica que E (g (β))=lımn→+∞ E (g (ψηn )), (véase la Definición 3.9.1., (V. 2, pág. 264))), tal queel proceso estocástico, β = βt = pt βt∈[0,1] (pt (x) = x(t ), t ∈ [0,1], x ∈ C ,(véase (1) de la página 17)), es un movimiento Browniano estándar.

Para los movimientos Brownianos se tiene un comportamiento muyirregular de sus trayectorias: Con probabilidad 1 las trayectorias son nodiferenciables para cada t > 0 y de variación no acotada en todo intervalo(véase el Lema 4.6.6., pág. 84).

80 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

Propiedades de los procesos estocásticos Brownianos estándar

Sean (Ω,F ,P ) un espacio de probabilidad y β=βt

t∈JT

, un proceso esto-cástico Browniano estándar en este espacio. Entonces:

(1) Para todo t ∈ JT , βt es una variable aleatoria Gaussiana con E(βt

)= 0

y V(βt

)= t . Por tanto,

P(βt 6 x

)= Fβt (x) =

1p

2πt

∫x

−∞exp

(−

y2

2t

)d y, x ∈R y E

(|βt |

)=

√2t

π.

(2) cov(βs ,βt ) = E (βsβt ) = mıns, t , s, t ∈ JT .

(3) Propiedad de invariancia de escala: Para todo a > 0, el proceso esto-cástico βa = a−1βa2t t∈JT /a2 es un proceso estocástico Brownianoestándar.

(4) Si 0 6 t1 < ... < tn 6 T ,(βt1 , ...,βtn

)es un vector Gaussiano, (Definición

3.12.2., (V. 2, pág. 301)) y por tanto, βes un proceso estocástico Gaus-siano, (Definición 4.3.6., pág. 35).

(5) Propiedad de inversión del tiempo: Si T = +∞, entonces η = ηt t∈J∞ ,donde η0 = 0 y ηt = tβ1/t para t > 0 es un proceso estocástico Brow-niano estándar.

(6) Teorema central del límite: lımt→+∞βt /t = 0, (P-a.s.).

(7) Sean Fβt =σ

(Ω : βs , s ∈ JT , s 6 t

), t ∈ JT , (pág. 23), y

(F

βt

)+=⋂

h>t Fβ

h ,

t ∈ JT , (pág. 24). Entonces, para todo s con 0 < s < T , βt+s −βs t∈JT−s

es un proceso estocástico Browniano estándar que es independiente

de(F

βs

)+, y por tanto, independiente de F

βs ⊂

(F

βs

)+.

(8) β es una martingala respecto a la filtraciónF

βt

t∈JT

de (Ω,F ) y a P ,

(páginas 58 y 59), es decir, si s < t , s, t ∈ JT ,

E(βt | F

βs

)=βs , (P −a.s.).

4.6. MOVIMIENTO BROWNIANO. PROCESOS ESTOCÁSTICOS DE WIENER. 81

(9) E[(βt −βs

)2 | F βs

]= t − s, (P-a.s.), s < t , s, t ∈ JT , (véase 5.6, pág. 77).

(10) β=βt

t∈JT

es un proceso de Markov, (pág. 37), y su probabilidad detransición Markoviana, ((b) de la página 46), está dada explícitamen-te por la fórmula:

p(s, x; t , A) = P (ξt ∈ A|ξs = x) =1

p2π(t − s)

Aexp

(−

(x − y)2

2(t − s)

)d y,

donde x ∈R, A ∈B(R), s < t , s, t ∈ JT .Si T = +∞, como p(s + u, x; t + u, A) = p(s, x; t , A), s, t ,u ∈ J∞, s <t , se tiene que ξ es un proceso de Markov homogéneo, (pág. 50), y

p(r, x, A) = p(0, x;r, A) = 1p2πr

∫A exp

(− (x−y)2

2r

)d y , r ∈ J∞, r > 0, x ∈R,

A ∈B(R).

(11) Sea τ = τ(ω) un tiempo de Markov respecto aF

βt

t∈JT

, (Definición

4.5.7., pág. 65). Supongamos que P (τ(ω) 6 T ) = 1. Entonces,

E(

f (βs+τ)|F βτ

)= E

(f (βs+τ)|βτ

), (P −a.s.),

donde s es tal que P (s +τ6 T ) = 1 y f es cualquier función medibley acotada, (recordamos que βτ(ω) =βτ(ω)(ω), βs+τ(ω) =βs+τ(ω)(ω)).

Ecuación de Fokker-Planck de un proceso Browniano estándar

Sean (Ω,F ,P ) un espacio de probabilidad y β=βt

t∈JT

un proceso Brow-niano (o movimiento Browniano) estándar en este espacio (pág. 78). Por lapropiedad (10) anterior se tiene que β es un proceso de Markov con den-sidad transición, (Definición 4.4.13., pág. 48),

p(s, x|t , y) =1

p2π(t − s)

exp

(−

(x − y)2

2(t − s)

), x, y ∈R, s, t ∈ JT , s < t .

Por lo expuesto en las páginas 48, 49 y 50, p(s, x|t , y) verifica a las ecuacio-nes forward y backward de Kolmogorov, que en este caso, se determinande la siguiente manera: Por la propiedad (13)(b) de la página 231 de V. 2,tomando ϕ(i )(x1, x2) = xi

1, (ϕ(i ) : R2 → R), i = 1,2,3, y teniendo en cuen-ta que β es proceso estocástico de incrementos independientes, ((2) de la

82 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

página 78), se deduce que E((βs+s −βs

)i |βs = x)= E

((βs+s −βs

)i), i =

1,2,3. Entonces, por (3) de la página 78, se tiene: E((βs+s −βs

)|βs = x

)=

0, E((βs+s −βs

)2 |βs = x)= s, y por la propiedad (5) de la página 280

de V. 2, E((βs+s −βs

)3 |βs = x)= 0. Así, con notación de páginas 48 y 49,

m(x, s) = 0, σ2(x, s) = 1 y lıms→0 M3(x, s,s) = 0, y por tanto, las ecuacio-nes de Kolmogorov buscadas son las siguientes:

∂p(s, , x|t , y)

∂s= −

1

2

∂2p(s, x|t , y)

∂x2, s < t (∗)

∂p(s, x|t , y)

∂t=

1

2

∂2p(s, x|t , y)

∂y2, s < t (∗∗)

La ecuación (∗) es la ecuación backward de Kolmogorov y la ecuación (∗∗)la ecuación forward de Kolmogorov o ecuación Fokker-Planck del movi-miento Browniano β.

Seguimos con este movimiento Browniano estándar. Se prueba que

P

(max

06s6tβs > x

)= 2P

(βt > x

)=

2p

2πt

∫+∞

xexp

(−

y2

2t

)d y.

Ponemos τa = ınft > 0 : βt = a, a > 0. Entonces, τa es un tiempo de Mar-

kov respecto a Fβt = σΩ : βs , s ∈ JT , s 6 t , t ∈ JT , (Definición 4.5.7., pág.

65). Puesto que P (τa 6 t ) = P(max06s6t βs > a

), entonces,

P (τa 6 t ) =2

p2πt

·∫+∞

aexp

(−

y2

2t

)d y =

√2

π

∫+∞

a/p

texp

(−

y2

2

)d y,

de donde∂P (τa 6 t )

∂t=

a

t 3/2p

2π·exp

(−

a2

2t

),

expresión que denotamos por pτa (t ). Si a > 0, entonces E (τa) =+∞.Ponemos, ahora, τ= ınft > 0 : βt = a−bt , a > 0, 0 6 b <+∞. En este casose tiene

∂P (τ6 t )

∂t=

a

t 3/2p

2π·exp

(−

(bt −a)2

2t

)(= pτ(t )).

4.6. MOVIMIENTO BROWNIANO. PROCESOS ESTOCÁSTICOS DE WIENER. 83

Procesos de Wiener

Sean (Ω,F ,P ) un espacio de probabilidad y β =βt

t∈JT

un proceso es-tocástico Browniano estándar en este espacio, (pág. 78). Consideramos la

filtración en (Ω,F ),F

βt

t∈JT

, generada por β, (pág. 23).

Entonces, por (8) de la página 80 y (9) de la página 81, β es una martingala

respecto aF

βt

t∈JT

y a P , tal que E(β2

t

)<+∞, t ∈ JT , E

[(βt −βs

)2 |F βs

]=

t − s, (P-a.s.), s < t , s, t ∈ JT , β0 = 0, (P-a.s.), y (P-a.s.) sus trayectorias soncontinuas (pág. 2). Veremos a continuación que se tiene un cierto recípro-co.

Definición 4.6.3. Sean (Ω,F ,P ) un espacio de probabilidad, Ft t∈JT unafiltración del espacio medible (Ω,F ), (véase la Advertencia de la página 25),y W = Wt t∈JT un proceso estocástico real en (Ω,F ,P ), medible y adaptadoa Ft t∈JT

. Se dice que W es un proceso estocástico de Wiener respecto aFt t∈JT y a P si:

(a) Las trayectorias (JT ∋ t 7→Wt (ω) ∈R) son continuas (P-a.s.), es decir, Wes un proceso estocástico continuo, (pág. 3).

(b) W es una martingala respecto a Ft t∈JT y a P, (E (|Wt |) < +∞, t ∈ JT ,E (Wt |Fs ) = Ws (P-a.s.) t > s), tal que E

(W 2

t

)< +∞, t ∈ JT , W0 = 0

(P-a.s.) yE

[(Wt −Ws )2 |Fs

]= t − s, t > s, (P −a.s.).

Teorema 4.6.4 (Lévy). Sean (Ω,F ,P ) un espacio de probabilidad, Ft t∈JT

una filtración del espacio medible (Ω,F ) y W = Wt t∈JT un proceso de Wie-ner respecto a Ft t∈JT y a P. Entonces, W es un proceso Browniano están-dar.

Observación. Sean (Ω,F ,P ) un espacio de probabilidad y β=βt

t∈JT

un

proceso Browniano estándar. Se considera la filtraciónF

βt

t∈JT

generada

por β. Entonces, β es un proceso de Wiener respecto aF

βt

t∈JT

y a P .

Después del teorema de Lévy y de la observación anterior, no distin-guiremos entre movimientos (procesos) Brownianos estándar y procesosde Wiener.

84 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

Lema 4.6.5. En el espacio de probabilidad (Ω,F ,P ), sean W = Wt t∈J∞un proceso de Wiener, en este espacio, respecto a la filtración Ft t∈J∞ (delespacio medible (Ω,F )) y a P, y σ un tiempo de Markov respecto a Ft t∈J∞con P (σ6 K ) = 1, K <+∞. Ponemos W ∗

t = Wt∧σ y F∗t =Ft∧σ, (t ∧σ es de

nuevo tiempo de Markov). Entonces,(W ∗ =

)W ∗

t

t∈J∞

es una martingala,

en (Ω,F ,P ), respecto a la filtraciónF∗

t

t∈J∞

(del espacio medible (Ω,F ))y a P, tal que E (W ∗

t −W ∗s |F∗

s ) = 0, y

E[(

W ∗t −W ∗

s

)2 | F∗s

]= E

[(t ∧σ)− (s ∧σ) |F∗

s

], t > s.

Demostración. Basta aplicar el Teorema 4.5.12. (pág. 73) a las martingalasWt t∈J∞ y

W 2

t − t

t∈J∞, en (Ω,F ,P ), respecto a la filtración Ft t∈J∞ y a P

(Problema 6.2, pág. 96).

Propiedades de las trayectorias de los procesos de Wiener

Sean (Ω,F ,P ) un espacio de probabilidad y Ft t∈JT una filtración del es-pacio medible (Ω,F ), (véase la Advertencia de la página 25). Sea W =Wt t∈JT un proceso de Wiener, en (Ω,F ,P ), respecto a Ft t∈JT y a P .

Lema 4.6.6. Con los datos anteriores, consideramos un intervalo [0, t ] con-tenido en JT y una sucesión de subdivisiones

σ(n) =

0 = t (n)0 < t (n)

1 < ... < t (n)k(n) = t

, n ∈N+,

del intervalo [0, t ] tal que k(n)< k(n +1), σ(n) ⊂σ(n+1), n ∈N+, y

lımn→+∞

δ(n) = max

16i6k(n)

[t (n)

i − t (n)i−1

]= 0.

Entonces,(1). (P-a.s.),

lımn→+∞

W (n) =

k(n)∑

i=1

∣∣∣Wt (n)i

−Wt (n)i−1

∣∣∣=+∞,

4.6. MOVIMIENTO BROWNIANO. PROCESOS ESTOCÁSTICOS DE WIENER. 85

es decir,P

ω : lım

n→+∞W (n)(ω) =+∞

= 1.

(2). En media cuadrática

l .i .m.n

Qn =

k(n)∑

i=1

(Wt (n)

i−Wt (n)

i−1

)2= t , (∗)

es decir,

lımn→+∞

E

(∣∣∣∣∣k(n)∑

i=1

[Wt (n)

i−Wt (n)

i−1

]2− t

∣∣∣∣∣

2)= 0.

(3). Si+∞∑

n=1δ(n) <+∞,

se tiene que

lımn→+∞

k(n)∑

i=1

[Wt (n)

i−Wt (n)

i−1

]2= t , (P −a.s).

En particular se tiene (1), (2) y (3) para k(n)= n.

Demostración. (1). De σ(n) ⊂ σ(n+1) y la desigualdad triangular del valorabsoluto en R, se deduce que W (n) 6 W (n+1), n ∈N+. Razonando como enla demostración de (a) del Teorema 3.9.3. (V. 2, pág. 265), para probar (1)es suficiente ver que dado M > 0 se verifica que

lımn→+∞

P (W (n) > M)

= 1, o lım

n→+∞

P (W (n)

6 M)= 0.

Como W es un proceso de incrementos independientes y estos incremen-tos tienen distribución normal con esperanza matemática nula y varianzaigual a la amplitud temporal del incremento, tenemos (V. 2, pág. 249)

V(W (n))=

k(n)∑

i=1V

(∣∣∣Wt (n)i

−Wt (n)i−1

∣∣∣)6

k(n)∑

i=1E

(∣∣∣Wt (n)i

−Wt (n)i−1

∣∣∣2)= t .

(Se ha utilizado también que si ξ1,...,ξm son variables aleatorias indepen-dientes dos a dos y existen sus esperanzas y son finitas, entonces V (ξ1+...+ξm) = V (ξ1)+ ...+V (ξm) y, en general, V (ξi ) = E

(ξ2

i

)− (E (ξi ))2, i = 1, ...,m,

(V. 2, pág. 249)).

86 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

Por otro lado,(pág. 83), existen η, variable aleatoria con distribución nor-mal estándar, y a número real no nulo tal que

Wt (n)i

−Wt (n)i−1

= aη, a2 = t (n)i − t (n)

i−1,∣∣∣Wt (n)

i−Wt (n)

i−1

∣∣∣= |η|√

t (n)i − t (n)

i−1,

y por consiguiente,

E(∣∣∣Wt (n)

i−Wt (n)

i−1

∣∣∣)= E (|η|)

√t (n)

i − t (n)i−1,

y por tanto, (V. 2, pág. 191)

E (|η|) =∫+∞

−∞|x| fη(x)d x =

p2/π.

Así, puesto que √t (n)

i − t (n)i−1 >

(t (n)

i − t (n)i−1

) 1pδ(n)

,

se concluye que

E(W (n))=

k(n)∑

i=1E

(∣∣∣Wt (n)i

−Wt (n)i−1

∣∣∣)= E (|η|)

k(n)∑

i=1

√t (n)

i − t (n)i−1 >

tE (|η|)pδ(n)

.

Por tanto, lımn→+∞E (W (n))

=+∞, y, así, para n suficientemente grande,

E(W (n)

)> M , es decir, existe n0 tal que para todo n > n0, P

(W (n)

)> M .

Ahora aplicando la desigualdad de Chébyshev (V. 2, pág. 179),

P(W (n)

6 M)6 P

(∣∣W (n) −E(W (n))∣∣ > E

(W (n))−M

)6

6E

(∣∣W (n) −E(W (n)

)∣∣2)

(E

(W (n)

)−M

)2 =V

(W (n)

)(E

(W (n)

)−M

)2 6t

(E

(W (n)

)−M

)2 ,

que permite concluir que

lımn→+∞

P(W (n) 6 M

)= 0.

(2). Consideramos las variables aleatorias

η(n)i =

(Wt (n)

i−Wt (n)

i−1

)2−

(t (n)

i − t (n)i−1

), n = 1,2, ..., i = 1, ...,k(n),

4.6. MOVIMIENTO BROWNIANO. PROCESOS ESTOCÁSTICOS DE WIENER. 87

las cuales son independientes, y cumplen E(η(n)

i

)= 0 y

V(ηn

i

)= E

(ηn

i

)2 =(t (n)

i − t (n)i−1

)2E

((ν)2 −1

)2,

ν designa la variable aleatoria con distribución normal estándar

ν=1

√t (n)

i − t (n)i−1

(Wt (n)

i−Wt (n)

i−1

).

Tenemos, por los cálculos realizados en (1), que

E

(k(n)∑

i=1

(Wt (n)

i−Wt (n)

i−1

)2− t

)2

= E

(k(n)∑

i=1η(n)

i

)2

=k(n)∑

i=1E

(η(n)

i

)2=

=k(n)∑

i=1

(t (n)

i − t (n)i−1

)2E

((ν)2 −1

)26 tδ(n)E

((ν)2 −1

)2,

lo que prueba que

lımn→+∞

E

(k(n)∑

i=1

(Wt (n)

i−Wt (n)

i−1

)2− t

)2= 0,

y por tanto, se tiene (∗).(3). Tenemos, por la desigualdad de Chébyshev ((2) de la página 179 de V.2) y las acotaciones obtenidas en (2), que

+∞∑

n=1P

(∣∣∣∣∣k(n)∑

i=1

(Wt (n)

i−Wt (n)

i−1

)2− t

∣∣∣∣∣ > M

)6

61

M2

+∞∑

n=1E

(∣∣∣∣∣k(n)∑

i=1

(Wt (n)

i−Wt (n)

i−1

)2− t

∣∣∣∣∣

)2

6

61

M2tE

(ν2 −1

)2+∞∑

n=1δ(n) <+∞,

y por el Corolario 3.9.4. (V. 2, pág. 266) se concluye la prueba de (3).

88 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

Proceso estocástico ruido blanco. Derivada de un proceso de Wiener.

Usualmente en ingeniería, se considera ruido a todas las perturbacioneseléctricas que interfieren sobre las señales de transmisión. En un senti-do más general, también se asocia a un sonido molesto que distorsiona laseñal acústica (la radio, por ejemplo). En muchos casos un buen modelopara el estudio del ruido es el denominado ruido blanco que se define acontinuación. Durante mucho tiempo este proceso se manejó sin el rigormatemático adecuado, hasta que en el año 1964 I.M. Gel’fand y N. Ya. Vi-lenkin establecieron, por primera vez, los fundamentos matemáticos de lateoría de los procesos estocásticos generalizados en el libro [11].

Por ruido blanco se entiende un proceso estocástico Gaussiano y esta-cionario en sentido amplio ξ = ξt t∈R, con E (ξt ) = 0, t ∈ R, (en este casoexiste densidad espectral de ξ, f (u) = 1

∫+∞−∞ exp(−i tu)R(t )d t , (Teorema

4.3.5., pág. 35)), y con densidad espectral f (u) constante.De la definición dada se obtiene: Para todo u ∈R,

(*) f (u) =1

∫+∞

−∞exp(−i tu)R(t )d t =

c

2π, donde

R(t ) = cov(ξt ,ξ0) = cov(ξt+s ,ξs ) = E (ξsξt+s ), t , s ∈R.

Observamos que c es una constante positiva que podemos suponer 1 sinpérdida de generalidad.La fórmula (*) es compatible sólo con R(t ) = δ(t ), función delta de Dirac(de manera intuitiva, que será formalizada posteriormente en la página90). En particular, de la fórmula

R(t ) =∫+∞

−∞f (u) ·exp(i tu)du,

obtenida por inversión, se deduce que

R(0)= E(ξ2

s

)=

∫+∞

−∞f (u)du =

1

∫+∞

−∞du =+∞.

Además, como f (u) = 1/(2π),

R(t ) =∫+∞

−∞

1

2πexp(i tu)du = 0, para todo t 6= 0.

4.6. MOVIMIENTO BROWNIANO. PROCESOS ESTOCÁSTICOS DE WIENER. 89

Por otro lado, se tiene que∫+∞−∞ R(t )d t = 1, y por tanto, la función de Dirac

no es una función en el sentido usual, sino que corresponde al conceptode función generalizada que pasamos a describir brevemente.

Procesos estocásticos generalizados de Gel’fand-Vilenkin

Sea K el conjunto de todas las funciones ϕ(t ), t ∈R, con valores reales, declase ∞ que se anulan idénticamente fuera de un intervalo finito que engeneral depende de la función ϕ(t ) que se considere. Es claro que K esun espacio vectorial real con la suma usual de funciones y el producto deestas por escalares.Una sucesión ϕ1(t ), ϕ2(t ),... de funciones de K se dice que converge aϕ(t ) ≡ 0, si todas estas funciones se anulan fuera de una sola región aco-tada y si todas ellas y todas sus derivadas convergen uniformemente a 0.Esta convergencia determina una topología en K que le convierte en unespacio vectorial topológico.A cada función Φ:K → R continua y lineal se le llama función generaliza-da o distribución (no confundir con el concepto de distribución introduci-do anteriormente en la teoría de probabilidades). (Las funciones generali-zadas fueron introducidas por S. Sobolev en 1935 y redescubiertas por L.Schwartz en 1945, que sistematizó su teoría en un libro publicado en dosvolúmenes en 1950, [38]). Al conjunto de todas estas funciones generaliza-das lo designaremos por D (es el espacio vectorial dual topológico de K ).Las siguientes funciones son elementos de K :

ϕε(t ) =

1cε exp

(ε2

t2−ε2

)|t | < ε

0 |t |> ε,

donde ε es un número real positivo y c es la constante positiva∫+∞−∞ ϕ1(t )d t .

Estas funciones cumplen que:∫+∞−∞ ϕε(t )d t = 1.

Recordamos que las funciones generalizadas extienden, en este caso, a lasfunciones de R en R que son localmente integrables Lebesgue, es decir, alas funciones que son integrables Lebesgue sobre cualquier intervalo aco-tado de R. Caso particular importante de este tipo de funciones son lasfunciones continuas.Toda función f : R → R localmente integrable Lebesgue determina una

90 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

función generalizada, Ψ f , mediante la fórmula

Ψf : K →R, ϕ(t ) 7→Ψ

f (ϕ(t )) =∫+∞

−∞f (t ) ·ϕ(t )d t ,

(se prueba que Ψf es lineal y continua en el espacio K ).

Por otro lado si f es una función localmente integrable Lebesgue, entoncesla función generalizada Ψ

f cumple que:

f (x) = lımε→0

Ψf (ϕε(t −x)) = lım

ε→0

∫+∞

−∞f (t ) ·ϕε(t −x)d t .

Por las propiedades de la integral de Lebesgue es claro que si f y g son dosfunciones localmente integrables Lebesgue que toman los mismos valoressalvo en un conjunto de medida de Lebesgue nula, entonces Ψ f =Ψ

g .

Como caso particular importante, que nos interesa destacar, tenemosla función de Heaviside:

h(t − t0) =

1, t > t0

0 t < t0,

(t0 número real dado), que es localmente integrable Lebesgue y determinala función generalizada Ψ

h(t−t0 ). Destacamos que la función h(t − t0) no esderivable en t0.

La función generalizada φ : K → R, φ(ϕ) = ϕ(t0), para todo ϕ ∈K , yt0 ∈ R fijo, se llama función delta de Dirac y se denota por δ(t − t0), (δ(t −t0)(ϕ) =ϕ(t0)).

4.6. MOVIMIENTO BROWNIANO. PROCESOS ESTOCÁSTICOS DE WIENER. 91

Sea φ : K →R una función generalizada, φ(ϕ), ϕ∈K . La derivada de φ es(definición) φ : K → R, φ(ϕ) = −φ(ϕ), ϕ ∈ K , la cual (φ) es de nuevo unafunción generalizada, (φ : K →R es lineal y continua).

Observación. Si f : R→ R es una función con derivada f ′ localmente in-tegrable Lebesgue, entonces la derivada de la función generalizada Ψ

f esΨ

f ′. En efecto, para todo ϕ ∈K , se tiene por la fórmula de integración por

partes que:

0 =∫+∞

−∞( f (t ) ·ϕ(t ))′d t =

∫+∞

−∞f ′(t ) ·ϕ(t )d t +

∫+∞

−∞f (t ) ·ϕ′(t )d t ,

de donde se deduce que −Ψ f (ϕ′) =Ψf ′

(ϕ), y por tanto, Ψ f =Ψf ′

.

Se verifica que la derivada de la función generalizada (de Heaviside)Ψ

h(t−t0 ) : K →R es la función delta de Dirac δ(t − t0). En efecto: Para todoϕ ∈K , se tiene que

Ψh(t−t0 )(ϕ) =−Ψh(t−t0 )(ϕ) =−

∫+∞

t0

ϕ(t )d t =

=− lıms→+∞

(ϕ(s)−ϕ(t0)) =ϕ(t0) = δ(t − t0)(ϕ),

lo que prueba que Ψh(t−t0 ) = δ(t − t0).

A cada ϕ ∈ K le asignamos una variable aleatoria Φϕ, (Φϕ(ω)), o Φ(ϕ),(Φ(ϕ)(ω)), en el espacio de probabilidad (Ω,F ,P ) (de momento tenemosun proceso estocástico ordinario con parámetro ϕ∈K ) tal que:

(1) Φαϕ+βψ =αΦϕ+βΦψ con probabilidad 1, donde ϕ,ψ ∈K , α,β ∈R.

(2) La convergencia de las funciones ϕk j ∈K a ϕk ∈K en el espacio K ,para k = 1,2, ...,n, cuando j → +∞, implica la convergencia de ladistribución del vector aleatorio (Φϕ1 j , ...,Φϕn j ) a la distribución de(Φϕ1 , ...,Φϕn ) en el sentido:

Fϕ1 j ,...,ϕn j (x1, ..., xn ) =P (Φϕ1 j 6 x1, ...,Φϕn j 6 xn) → Fϕ1,...,ϕn (x1, ..., xn ) =

= P (Φϕ1 6 x1, ...,Φϕn 6 xn),

converge puntualmente en cada punto donde Fϕ1 ,...,ϕn (x1, ..., xn ) escontinua, (V. 2, pág. 287).

92 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

Esta descripción corresponde a lo que entendemos por proceso estocásticogeneralizado, Φϕ, ϕ ∈K .

Es muy importante tener presente el siguiente ejemplo.

Ejemplo 3. Sea ξ = ξt t∈R, un proceso estocástico (ordinario) con trayec-torias continuas en el espacio de probabilidad (Ω,F ,P ). Entonces,

Φϕ =∫+∞

−∞ϕ(t )ξt d t , ϕ ∈K ,

(variable aleatoria en (Ω,F ,P )), es un proceso estocástico generalizado enel espacio de probabilidad (Ω,F ,P ), es decir, satisface las condiciones (1)y (2) anteriores.A veces para Φ pondremos la notación Φξ,

Φξ(ϕ) =∫+∞

−∞ϕ(t )ξt d t , ϕ ∈K .

Un proceso estocástico generalizado Φϕ, ϕ ∈K , se dice que es Gaussianosi cumple:Para ϕ1,...,ϕn , elementos arbitrarios de K linealmente independientes, lavariable aleatoria vectorial (Φϕ1 , ...,Φϕn ) es normal (normalmente distri-buida, (V. 2, pág. 301):

ϕ(Φϕ1 ,...,Φϕn )(t ) = E (exp(i (t1Φϕ1 + ...+ tnΦϕn ))) =

= exp

(i (t ,m)−

1

2(Rt , t )

), m = (m1, ...,mn), |mk | < +∞, R = (rkl )),

donde por sencillos cálculos se tiene mi = E (Φϕi ) y rkl = cov(Φϕk ,Φϕl

)=

E [(Φϕk −mk)(Φϕl −ml )].Como en el caso ordinario un proceso estocástico generalizado GaussianoΦϕ, ϕ ∈K , queda determinado por:

1. E (Φϕ) = m(ϕ), ϕ ∈ K , lineal continua y por tanto, m(ϕ) es funcióngeneralizada.

2. E [(Φϕ−m(ϕ))(Φψ−m(ψ))](= C (ϕ,ψ)), bilineal continua, en el pro-ducto, > 0.

4.6. MOVIMIENTO BROWNIANO. PROCESOS ESTOCÁSTICOS DE WIENER. 93

Sea Φϕ, ϕ ∈ K , un proceso estocástico generalizado, (es decir, Φϕ es va-riable aleatoria en (Ω,F ,P ), ϕ ∈ K , y cumple (1) y (2) de la página 91).Se define la derivada Φϕ de Φϕ, (o la derivada Φϕ(ω) de Φϕ(ω)), mediantela fórmula Φϕ = −Φϕ. Se prueba que Φϕ, ϕ ∈ K , es de nuevo un procesoestocástico generalizado, (Φ, ϕ 7→ Φϕ =−Φϕ es variable aleatoria en el es-pacio de probabilidad (Ω,F ,P ) y se cumplen (1) y (2) de la página 91).

SeaΦϕ,ϕ ∈K , un proceso estocástico generalizado y Gaussiano y seanE (Φϕ) = m(ϕ), E [(Φϕ−m(ϕ))(Φψ−m(ψ))](= C (ϕ,ψ)) su media y su cova-rianza respectivamente. La derivada Φ de este proceso estocástico gene-ralizado Gaussiano Φϕ = −Φϕ, ϕ ∈ K , es de nuevo proceso estocásticogeneralizado Gaussiano y su media y su varianza son

E (Φϕ) =−m(ϕ) = m(ϕ) y

E [(Φϕ−m(ϕ))(Φψ−m(ψ))] =C (ϕ,ψ), respectivamente.

Ejemplo 4. Sean (Ω,F ,P ) un espacio de probabilidad, Ft t∈J∞ una filtra-ción del espacio medible (Ω,F ) y W = Wt t∈J∞ un proceso de Wiener, eneste espacio, respecto a Ft t∈J∞ y a P , (Definición 4.6.3., pág. 83). Pone-mos Wt ≡ 0 para t < 0. A cada ϕ ∈ K se le hace corresponder la variablealeatoria

Φϕ =∫+∞

−∞ϕ(t )Wt d t

y se obtiene el proceso estocástico generalizadoΦϕ, ϕ ∈K , que se designatambién por ΦW (ϕ), ϕ ∈K .Se comprueba que Φϕ =ΦW (ϕ), ϕ ∈K es Gaussiano y cumple las propie-dades siguientes:(a). E (Φϕ) = m(ϕ) ≡ 0.(b). E (Φϕ ·Φψ) =C (ϕ,ψ)=

∫+∞0

∫+∞0 mın(t , s)ϕ(t )ψ(s)d td s.

De donde, integrando por partes,

C (ϕ,ψ) =∫+∞

0(ϕ(t )− ϕ(+∞))(ψ(t )− ψ(+∞))d t ,

donde ϕ(t ) =∫t

0ϕ(s)d s, ψ(t ) =

∫t

0ψ(s)d s.

94 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

(c). Φϕ =−Φϕ =−∫+∞−∞ ϕ(t )Wt d t ,

E (Φϕ) =−E (Φϕ) =−m(ϕ) = m(ϕ) ≡ 0,

E (ΦϕΦψ) =C (ϕ,ψ) =∫+∞

0ϕ(t )ψ(t )d t .

(Φϕ =ϕ(t0), ϕ ∈K , t0 elemento fijo de R, función delta de Dirac δ(t − t0)).

(d). Tenemos Φϕ =∫+∞−∞ ϕ(t )Wt d t , ϕ ∈K , proceso estocástico generaliza-

do Gaussiano y tenemos Φϕ =−Φϕ, ϕ ∈ K , que también es proceso esto-cástico generalizado Gaussiano.

Lo expuesto en los dos ejemplos anteriores da consistencia a la defini-ción que sigue.

Definición 4.6.7. Sean (Ω,F ,P ) un espacio de probabilidad, Ft t∈J∞ unafiltración del espacio medible (Ω,F ) y W = Wt t∈J∞ un proceso de Wiener,en (Ω,F ,P ) respecto a Ft t∈J∞ y a P, (pág. 83). Ponemos Wt ≡ 0 para t < 0.Consideramos

ΦW (ϕ) =∫+∞

−∞ϕ(t )Wt d t , ϕ ∈K , (W = Wt t∈J∞).

Sabemos que ΦW (ϕ), ϕ ∈ K , es un proceso estocástico generalizado Gaus-siano y

E(ΦW (ϕ)

)= mW (ϕ) ≡ 0,

E(ΦW (ϕ)ΦW (ψ)

)=C (ϕ,ψ)=

∫+∞

0

∫+∞

0mın(t , s)ϕ(t )ψ(s)d td s.

Tomamos la derivada ΦW de ΦW , ΦW (ϕ) = −ΦW (ϕ), ϕ ∈ K . Sabemos queΦW (ϕ), ϕ∈K , es un proceso estocástico generalizado y Gaussiano y

E(ΦW (ϕ)

)=−mW (ϕ) = mW (ϕ) ≡ 0 y

E(ΦW (ϕ)ΦW (ψ)

)=C (ϕ,ψ) =

∫+∞

0ϕ(t )ψ(t )d t .

4.6. MOVIMIENTO BROWNIANO. PROCESOS ESTOCÁSTICOS DE WIENER. 95

(1). Al proceso estocástico generalizado Gaussiano ΦW (ϕ), ϕ ∈ K , se le lla-ma ruido blanco (White noise) Gaussiano. A veces se pone (si no hay con-fusión), ΦW (ϕ) = Wϕ, ϕ ∈ K , (se tiene así la formalización de la expresiónsimplificada: un proceso estocástico ruido blanco Gaussiano es la deriva-da de un proceso estocástico de Wiener).

(2). Sea ξ= ξt t∈R un proceso estocástico con trayectorias continuas. Sea

Φξ(ϕ) =∫+∞

−∞ϕ(t )ξt d t , ϕ ∈K ,

que sabemos que es un proceso estocástico generalizado. Se dice que Φξ(ϕ),ϕ ∈ K , es un proceso Gaussiano ruido blanco (White noise) si Φξ(ϕ), ϕ ∈K , es Gaussiano y

E(Φξ(ϕ)

)≡ 0, E

(Φξ(ϕ)Φξ(ψ)

)=C ξ(ϕ,ψ) =

∫+∞

0ϕ(t )ψ(t )d t .

La relación entre las descripciones (1) y (2) es consecuencia que al ser pro-cesos Gaussianos, y vistas sus respectivas definiciones, tienen la misma fun-ción característica y por tanto, por el teorema de unicidad, la misma fun-ción de distribución.

De (2), de la definición anterior, se deduce que para funciones arbitra-riasϕ1,...,ϕn de K , la variable aleatoria vectorial (Φξ(ϕ1(t+h)), ...,Φξ(ϕn(t+h))) tiene la misma distribución para todo h, y por tanto, Φξ(ϕ), ϕ ∈K , esun proceso estocástico generalizado y estacionario.

Ejercicios y problemas

6.1. Sea W = Wt t∈JTun proceso estocástico de Wiener, en el espacio de

probabilidad (Ω,F ,P ), respecto a la filtración Ft t∈JT (del espacio medi-ble (Ω,F )) y a P . Demostrar que los siguientes procesos estocásticos tam-bién son de Wiener, en (Ω,F ,P ), respecto a Ft t∈JT y a P :

(1) (−W =) −Wt t∈JT .

(2)p

aWt/a

t∈JaT, donde a > 0.

(3)Wt+t0 −Wt0

t∈[t0 ,t0+T ], donde t0 > 0.

96 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

6.2. Sean W = Wt t∈JT un proceso estocástico de Wiener, en el espacio deprobabilidad (Ω,F ,P ), respecto a la filtración Ft t∈JT (del espacio medi-ble (Ω,F )) y a P , y s, t ∈ JT con 0 6 s < t . Demostrar que:

(1) E (Wt | Fs ) =Ws . Por tanto, Wt t∈JTes una martingala respecto a Ft t∈JT

y a P .

(2) E(W 2

t − t | Fs)= W 2

s − s, s 6 t , s, t ∈ JT . Por tanto,W 2

t − t

t∈JTes una

martingala respecto a Ft t∈JT y a P .

(3) Si σ es una constante real,

E

(exp

(σWt −

σ2

2t

)| Fs

)= exp

(σWs −

σ2

2s

), s 6 t , s, t ∈ JT .

Así,

exp(σWt − σ2

2 t)

t∈JTes martingala respecto a Ft t∈JT y a P .

4.7. Integrales estocásticas

La propiedad (1) del Lema 4.6.6., (pág. 84), impide construir la integral es-tocástica a la manera de las integrales L-S o R-S, ya que las trayectorias deun proceso de Wiener son de variación no acotada en cualquier pequeñointervalo.

Definición 4.7.1. Sean (Ω,F ) un espacio medible y f (t ,ω), t ∈ JT , ω ∈ Ω,una función con valores reales. Supongamos que f (t ,ω) es medible respecto(t ,ω), (es decir, para todo subconjunto de Borel B de R,

(t ,ω) : f (t ,ω) ∈B ∈B(JT )⊗F ).

Se dice que f es no anticipativa respecto a la filtración Ft t∈JT del espa-cio medible (Ω,F ), si para todo t ∈ JT , la función f (t , ·) es Ft -medible (dehecho, en tal caso, f (t , ·)(= ft )t∈JT , ( ft (ω) = f (t ,ω), ω ∈ Ω, t ∈ JT ), es unproceso estocástico real medible y adaptado a la filtración Ft t∈JT , (pági-nas 21 y 25)).

4.7. INTEGRALES ESTOCÁSTICAS 97

Definición 4.7.2. Sean (Ω,F ,P ) espacio de probabilidad, Ft t∈JT , (0< T <+∞), filtración de (Ω,F ) y f : JT ×Ω→R una función. Se dice que f es unafunción de clase PT respecto a Ft t∈JT

y a P si: f es no anticipativa respectoa Ft t∈JT y

P

(ω ∈Ω :

∫T

0f 2(t ,ω)d t <+∞

)= 1.

Definición 4.7.3. Sean (Ω,F ,P ) espacio de probabilidad, Ft t∈JT , (0< T <+∞), filtración de (Ω,F ) y f : JT ×Ω→R una función. Se dice que f es unafunción de clase ET respecto a Ft t∈JT y a P si: f es no anticipativa respectoa Ft t∈JT

y

E

(∫T

0f 2(t ,ω)d t

)<+∞.

Observamos que por el Teorema 3.4.36.(Fubini), (V. 2, pág. 202)),∫

JT ×Ωf 2(t ,ω)d(λT ×P ) = E

(∫T

0f 2(t ,ω)d t

)=

∫T

0E

(f 2(t ,ω)

)d t .

Así, si f es una función no anticipativa respecto a Ft t∈JT se tiene que f esfunción de clase ET respecto a Ft t∈JT

y a P si y sólo si∫

JT ×Ω f 2(t ,ω)d(λT ×P ) <+∞, y esta última expresión significa que f es un elemento del espa-cio de Banach L2(JT ×Ω,B(JT ) ⊗F ,λT × P ), donde λT es la medida deLebesgue en JT , (Definición 3.9.12., (V. 2, pág. 270)). Por último, se llegade nuevo a: Una función f no anticipativa respecto a Ft t∈JT es de clase

ET respecto a Ft t∈JT y a P si y sólo si∫T

0 E(

f 2(t ,ω))

d t <+∞.

Es claro que toda función de clase ET respecto a Ft t∈JTy a P es de

clase PT respecto a Ft t∈JT y a P , (0< T <+∞)), ((10), (V. 2, pág. 170).

Definición 4.7.4. Sean (Ω,F ,P ) un espacio de probabilidad, e = e(t ,ω),t ∈ JT , 0< T <+∞, ω ∈Ω, una función y Ft t∈JT una filtración del espaciomedible (Ω,F ). Supongamos que e es de clase ET respecto a Ft t∈JT y a P.Se dice que e es simple respecto a Ft t∈JT y a P si existe una subdivisiónfinita 0 = t0 < t1 < ... < tn = T del intervalo [0,T ] y existen variables alea-torias en (Ω,F ), α, α0,...,αn−1 , donde α es F0-medible y αi es Fti -medible,i = 0,1, ...,n −1, tales que

e(t ,ω) =α(ω)I0(t )+n−1∑

i=0αi (ω)I(ti ,ti+1](t ), (∗)

98 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

donde I0, I(ti ,ti+1] son los correspondientes indicadores en el conjunto [0,T ],(V. 2, pág. 149). (De (∗) se deduce que E

(|αi |2

)<+∞, i = 0,1, ...,n −1).

Obsérvese que si la función e es simple respecto a Ft t∈JTy a P , e(·,ω),

ω ∈Ω, es continua por la izquierda.

Definición 4.7.5. Sean (Ω,F ,P ) un espacio de probabilidad, e = e(t ,ω),t ∈ JT , 0 < T <+∞, ω ∈Ω, una función, y Ft t∈JT una filtración de (Ω,F ).Supongamos que e es simple respecto a Ft t∈JT

y a P, y sea W = Wt t∈JT

un proceso de Wiener, en (Ω,F ,P ), respecto a Ft t∈JT y a P. Se define It (e)por:

It (e)=

αW0 t = 0αW0 +α0 (Wt −W0) 0< t 6 t1

αW0 +∑m

i=0αi(Wti+1 −Wti

)+αm+1

(Wt −Wtm+1

)tm+1 < t 6 tm+2

donde m = 0,1, ...,n − 2. Al proceso estocástico real It (e)t∈JT se le llamaintegral estocástica de e respecto a W (es claro que It (e) no depende de larepresentación que se haya escogido de e). Se adopta la notación

It (e)=∫t

0e(s,ω)dWs o It (e)(ω) =

(∫t

0e(s,ω)dWs

)(ω), ω ∈Ω o

It (e)=∫t

0esdWs o It (e)(ω) =

(∫t

0esdWs

)(ω), ω ∈Ω.

(En la definición anterior se podría haber utilizado funciones simplescontinuas por la derecha.)

Observación. Con las notaciones de la definición anterior, se tiene:

(a) P (W0 = 0) = 1.

(b) I0(e) =αW0.

4.7. INTEGRALES ESTOCÁSTICAS 99

(c) It (e)=αW0 +α0 (Wt −W0), 0 < t 6 t1.

(d) Itn (e) = IT (e)=αW0 +α0(Wt1 −Wt0

)+ ...+αn−1

(WT −Wtn−1

).

(e) Itm+1 (e)=αW0 +∑m

i=0αi(Wti+1 −Wti

), m = 0,1, ...,n −2.

Sea e una función simple respecto a Ft t∈JTy a P . Para todo s ∈ JT se

considera la función

(e s(u,ω) =)e(u,ω)It>s(u).

Entonces, e s(u,ω) es de nuevo una función simple respecto a Ft t∈JT y aP , y la integral It (e s) =

∫t0 e s(u,ω)dWu se designa por

∫t

se(u,ω)dWu.

Propiedades de la integral estocástica de funciones simples

(1) Si a y b son constantes y e1, e2 son funciones simples respecto a lafiltración Ft t∈JT

y a P , entonces ae1 +be2 es simple respecto a esafiltración y a P , y It (ae1 +be2) = aIt (e1)+bIt (e2).

(2) Para todo u, t ∈ JT , con u 6 t , se tiene:

∫t

0e(s,ω)dWs =

∫u

0e(s,ω)dWs +

∫t

ue(s,ω)dWs , (P −a.s.).

(3) It (e)t∈JT es un proceso estocástico real medible, (pág. 21), adaptadoa la filtración Ft t∈JT , (pág. 25), y continuo, (pág. 3).

(4) Para s 6 t , E(∫t

0 e(u,ω)dWu |Fs)=

∫s0 e(u,ω)dWu, (P-a.s.).

Por tanto, It (e)t∈JT es una martingala respecto a Ft t∈JT y a P ,(pág. 58), (ya que It (e) es integrable, t ∈ JT ).

(5) Se verifica:

E

((∫t

0e1(u,ω)dWu

)(∫t

0e2(u,ω)dWu

))= E

(∫t

0e1(u,ω)e2(u,ω)du

).

100 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

(6) Si e(s,ω)= 0 para todo s ∈ JT , y todo ω ∈ A ∈FT , entonces(∫t

0e(s,ω)dWs

)(ω) = 0, t ∈ JT , ω ∈ A.

(7) El proceso estocástico It (e)t∈JT es progresivamente medible respectoa Ft t∈JT , (pág. 26), por (3) ya que T <+∞.

(8) E(∫t

0 e(u,ω)dWu)= 0 (se deduce de (4)).

(9) Recordamos la desigualdad de Doob: Si(µt

)t∈JT

(0 < T < +∞) es unamartingala continua, entonces

E

(supt∈JT

|µt |2)6 4E

(|µT |2

).

De este resultado, y (3), (4) y (5) obtenemos:

E

(supt∈JT

∣∣∣∣∫t

0e(s,ω)dWs

∣∣∣∣2)6 4E

(∫T

0e(s,ω)2d s

).

(10) Si t ∈ JT y A ∈Ft , la función I A(ω) · I(t ,T ](s) ·e(s,ω) es simple respectoa Ft t∈JT

y a P , y

∫T

0I A(ω) · I(t ,T ](s) ·e(s,ω)dWs = I A

∫T

te(s,ω)dWs.

Lema 4.7.6. Sean (Ω,F ,P ) un espacio de probabilidad, Ft t∈JT , 0 < T <+∞, una filtración de (Ω,F ) y f (t ,ω), t ∈ JT , ω ∈ Ω, una función no an-ticipativa respecto a la filtración dada Ft t∈JT

. Supongamos que f es declase ET respecto Ft t∈JT y a P, (pág. 97). Entonces, existe una sucesión defunciones simples respecto a Ft t∈JT y a P, fnn∈N+ , tal que

lımn→+∞

E

(∫T

0

[f (t ,ω)− fn(t ,ω)

]2 d t

)= 0. (∗)

Sean (Ω,F ,P ) un espacio de probabilidad, Ft t∈JT , 0 < T < +∞, una fil-tración del espacio medible (Ω,F ) y f (t ,ω), t ∈ JT , ω ∈Ω, una función noanticipativa respecto a la filtración Ft t∈JT

.

4.7. INTEGRALES ESTOCÁSTICAS 101

Supongamos que f es de clase ET respecto Ft t∈JT y a P , (pág. 97). SeaW = Wt t∈JT un proceso de Wiener, en (Ω,F ,P ), respecto a Ft t∈JT y a P .Por el lema anterior existe una sucesión de funciones simples respecto aFt t∈JT y a P , fn(t ,ω)n∈N+ , tal que se cumple (∗). Por tanto, por la de-sigualdad triangular de la norma del espacio de Banach L2(JT ×Ω,B(JT )⊗F ,λT ×P ), (Teorema 3.4.32., (V. 2, pág. 194)),

lımn→+∞

m→+∞

E

(∫T

0

[fn(t ,ω)− fm(t ,ω)

]2 d t

)= 0.

Así, por (5) de la página 99,

lımn→+∞

m→+∞

E

([∫T

0fn(t ,ω)dWt −

∫T

0fm(t ,ω)dWt

]2)

=

= lımn→+∞

m→+∞

E

(∫T

0

[fn(t ,ω)− fm(t ,ω)

]2 d t

)= 0.

De esta forma la sucesión de variables aleatorias IT ( fn), que son elementosdel espacio de Hilbert L2(Ω,F ,P ), (V. 2, pág. 271), es fundamental en me-dia de orden 2 (o media cuadrática) (V. 2, pág. 265) y por tanto, (Teorema3.9.13., (V. 2, pág. 270)), IT ( fn) converge en media de orden 2 a un elemen-to de L2(Ω,F ,P ), que designaremos por IT ( f ) o por

∫T0 f (t ,ω)dWt :

Tenemos por tanto, l .i .m.n IT ( fn) = IT ( f ), (IT ( fn)L2

→ IT ( f )), que significalımn→+∞

E

(|IT ( fn)− IT ( f )|2

)= 0.

El límite obtenido, IT ( f ), no depende de la sucesión fnn∈N+ escogida pa-ra aproximar f , en el lema anterior. Por tanto, la integral estocástica IT ( f )está bien definida.Notamos que IT ( f ) pertenece a L2(Ω,F ,P ), (V. 2, pág. 270. Recordamosque dos variables aleatorias ξ y η en (Ω,F ,P ) definen el mismo elementode L2(Ω,F ,P ) si P (ξ 6= η) = 0).

Convenimos en que IT ( f )(ω) = 0 para todo ω tal que f (t ,ω) = 0 paratodo t ∈ JT .

Observamos que hay consistencia, en esta construcción, para el casoen que f sea simple.

102 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

Sea f función de clase ET respecto a Ft t∈JT y a P , (pág. 97). Entonces,la función f (s,ω) · I[0,t](s) es de clase ET respecto a Ft t∈JT y a P . Se defineIt ( f ), t ∈ JT , de la siguiente forma

It ( f ) =∫T

0f (s,ω)I[0,t](s)dWs

y el segundo miembro se denotará por∫t

0 f (s,ω)dWs , con lo cual

It ( f ) =∫t

0f (s,ω)dWs .

Ejemplo 1. Sean (Ω,F ,P ) espacio de probabilidad, Ft t∈JTfiltración de

(Ω,F ) y W = Wt t∈JT proceso de Wiener, en el espacio (Ω,F ,P ), respectoa Ft t∈JT y a P . Sea I[t1,t2] el indicador del intervalo [t1, t2] ⊂ JT . Entonces,I[t1,t2] p1, (p1(t ,ω) = t , t ∈ JT , ω ∈ Ω), es de clase ET respecto a Ft t∈JT

y a P , y IT (I[t1,t2] p1) = Wt2 −Wt1 . Además, para todo t con t1 6 t 6 t2,It (I[t1,t2] p1) =Wt −Wt1 .

Propiedades de la integral estocástica de funciones de clase ET

Sean (Ω,F ,P ) un espacio de probabilidad, Ft t∈JT, 0 < T < +∞, una fil-

tración de (Ω,F ) y W = Wt t∈JT un proceso de Wiener, en el espacio deprobabilidad (Ω,F ,P ) dado, respecto a Ft t∈JT y a P (pág. 83).

Sean f , f1, f2 : JT ×Ω→ R funciones de clase ET respecto a Ft t∈JT y aP . Entonces,

(1) Si a y b son constantes, a f1 +b f2 es de clase ET respecto a Ft t∈JTy a

P , y It (a f1 +b f2) = aIt ( f1)+bIt ( f2).

(2) Para todo u, t ∈ JT , con u 6 t , se tiene:

∫t

0f (s,ω)dWs =

∫u

0f (s,ω)dWs +

∫t

uf (s,ω)dWs ,

donde∫t

uf (s,ω)dWs =

∫T

0f (s,ω)I[u,t](s)dWs .

4.7. INTEGRALES ESTOCÁSTICAS 103

(3)

It ( f )

t∈JTes un proceso estocástico real medible, (pág. 21), adaptado

a la filtración Ft t∈JT , (pág. 25), y continuo, (pág. 3).

(4) Para s 6 t , E(∫t

0 f (u,ω)dWu|Fs)=

∫s0 f (u,ω)dWu . It ( f ) es cuadrado

integrable, t ∈ JT . Además, (ver (7)), It ( f )t∈JT es martingala respec-to a Ft t∈JT y a P .

(5) Se verifica:

E

((∫t

0f1(u,ω)dWu

)(∫t

0f2(u,ω)dWu

))= E

(∫t

0f1(u,ω) f2(u,ω)du

).

(6) Si f (s,ω) = 0 para todo s ∈ JT y ω ∈ A ∈FT , entonces(∫t

0f (s,ω)dWs

)(ω) = 0, t ∈ JT , ω ∈ A.

(7) El proceso estocástico It ( f )t∈JT , es progresivamente medible respec-to a Ft t∈JT , (Definición 4.2.7., pág. 26), por (3) ya que T <+∞.

(8) E(∫t

0 f (u,ω)dWu)= 0 (se deduce de (4)).

(9) El proceso estocástico

It ( f )

t∈JTes continuo, (pág. 3).

(10) E(supt∈JT

∣∣∫t0 f (s,ω)dWs

∣∣2)6 4E

(∫T0 f 2(s,ω)d s

).

(11) Sea una sucesión fnn∈N+ de funciones de clase ET respecto a Ft t∈JT

y a P tal que

lımn→+∞

E

(∫T

0

[f (t ,ω)− fn(t ,ω)

]2 d t

)= 0.

Entonces,

l .i .m.n

∫t

0fn(s,ω)dWs =

∫t

0f (s,ω)dWs ,

es decir,

lımt→+∞

E

(∣∣∣∣∫t

0fn(s,ω)dWs −

∫t

0f (s,ω)dWs

∣∣∣∣2)= 0.

104 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

(12) Si 0 = t0 < t1 < ... < tn = T es una partición Π de [0,T ], se tiene que

f = f (0,ω)I0(t )+n−1∑

i=0f (ti ,ω)I(ti ,ti+1](t )

es una función simple respecto a Ft t∈JT y a P . Además, se verifica:

(12a) lımδ(Π)→0

E

(∫T0

[f (t ,ω)−eΠ

f (t ,ω)]2

)= 0, donde designamos

por δ(Π) a mınti+1 − ti : i ∈ 0, ...,n −1.

(12b) l .i .m.δ(Π)→0IT

(eΠ

f

)=

∫T0 f (s,ω)dWs , lo cual equivale a

∫T

0f (s,ω)dWs = l .i .m.δ(Π)→0

n−1∑

i=0f (ti ,ω)(Wti+1 −Wti ).

La propiedad (12) anterior, sugiere la definición de otro tipo de integralestocástica de funciones f de clase ET respecto a Ft t∈JT y a P :

Proposición 4.7.7. Sean (Ω,F ,P ) espacio de probabilidad, Ft t∈JT , (0 <T <+∞), filtración de (Ω,F ), W = Wt t∈JT proceso de Wiener, en (Ω,F ,P ),respecto a Ft t∈JT

y a P, y f : JT ×Ω→ R una función de clase ET respectoa Ft t∈JT y a P. Para cada partición Π, 0 = t0 < t1 < ... < tn = T , de [0,T ] sedefine

f =n−1∑

i=0

1

2( f (ti+1,ω)+ f (ti ,ω))(Wti+1 −Wti ).

Entonces SΠ

f converge en media de orden 2 a una variable aleatoria en el

espacio (Ω,F ,P ) que se designa por∫T

0 f (t ,ω) dWt y se le llama integralde Fisk-Stratonovich de f .

Teorema 4.7.8. Con las notaciones anteriores, se tiene∫T

0f (t ,ω)dWt =

∫T

0f (t ,ω)dWt +

1

2⟨ f ,W ⟩T ,

donde ⟨ f ,W ⟩T = l .i .m.δ(Π)→0( f (ti+1,ω)− f (ti ,ω))(Wti+1−Wti ), (covariacióncuadrática de los procesos estocásticos f y W = Wt t∈JT ).

Corolario 4.7.9. La integral de Fisk-Stratonovich es lineal, tiene esperanzamatemática distinta de cero y determina un proceso estocástico continuoque no es martingala.

4.7. INTEGRALES ESTOCÁSTICAS 105

Ejemplo 2. Sea W = Wt t∈JT , (0 < T <+∞), un proceso de Wiener, en el es-pacio de probabilidad (Ω,F ,P ), respecto a la filtración Ft t∈JT (de (Ω,F ))

y a P . Entonces,∫T

0 Wt (ω)dWt = 12W 2

T − 12 T , (véase el Ejemplo 5 de la pá-

gina 143), y∫T

0 Wt (ω) dWt = 12W 2

T . Así, la integral estocástica de Itô y laintegral estocástica de Fisk-Stratonovich son distintas.

Luego a partir de (Ω,F ,P ) espacio de probabilidad, Ft t∈JT, 0 < T <

+∞, filtración del espacio medible (Ω,F ) y W = Wt t∈JT proceso de Wie-ner, en el espacio de probabilidad (Ω,F ,P ), respecto a Ft t∈JT

y a P , (pág.83), hemos construido las integrales estocásticas

∫t

0f (s,ω)dWs , t ∈ JT y

∫t

0f (s,ω)dWs , t ∈ JT

de Itô y de Fisk-Stratonovich, respectivamente, para cualquier función fde clase ET respecto a Ft t∈JT

y a P .

Vamos a construir la integral estocástica para funciones f de clase PT

respecto a Ft t∈JTy a P , 0< T <+∞, (pág. 97).

Lema 4.7.10. Sea f una función de clase PT respecto a Ft t∈JT y a P, 0 <T <+∞. Entonces, existe una sucesión fn de funciones de clase ET respectoa Ft t∈JT

y a P tal que

(∗) lımn→+∞

∫T

0

[f (t ,ω)− fn(t ,ω)

]2 d t

= 0, en probabilidad.

Además, existe una sucesión de funciones simples respecto a Ft t∈JT y a P(pág. 97), fn(t ,ω), tal que se cumple (∗) en probabilidad y en probabilidad1 (V. 2, pág. 265).

Demostración. Ponemos

τn(ω) =

T, si∫T

0 f 2(s,ω)d s < nınf

t 6 T :

∫t0 f 2(s,ω)d s > n

, en caso contrario

y fn(s,ω)= f (s,ω)Is6τn (ω). El proceso∫t

0f 2(s,ω)d s, t ∈ JT ,

106 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

es progresivamente medible respecto a Ft t∈JT , (pág. 26). Por tanto, lasvariables aleatorias τn(ω) son tiempos de Markov respecto a Ft t∈JT (pág.65). Así, fn(s,ω)n∈N+ es una sucesión de funciones de clase ET respec-

to a Ft t∈JTy a P pues E

(∫T0 f 2

n (s,ω)d s)6 n < +∞, y se comprueba que

cumple las condiciones de la primera parte del lema.

Lema 4.7.11. Sean (Ω,F ,P ) un espacio de probabilidad, Ft t∈JT , 0 < T <+∞, una filtración del espacio medible (Ω,F ) y W = Wt t∈JT un procesode Wiener, en el espacio de probabilidad (Ω,F ,P ), respecto a Ft t∈JT y a P,(pág. 83). Sean f una función de clase ET respecto a Ft t∈JT

y a P y A ∈FT .Entonces para cada n ∈N+, M > 0,

P

A

⋂(

supt∈JT

∣∣∣∣∫t

0f (s,ω)dWs

∣∣∣∣> M

)6

n

M2+P

A

⋂(∫T

0f 2(s,ω)d s > n

)

y en particular

P

sup

06t6T

∣∣∣∣∫t

0f (s,ω)dWs

∣∣∣∣> M

6

n

M2 +P

∫T

0f 2(s,ω)d s > n

.

Veamos la construcción de IT ( f ), f de clase PT respecto a Ft t∈JT ya P , 0 < T < +∞: Sean (Ω,F ,P ) un espacio de probabilidad, Ft t∈JT unafiltración del espacio medible (Ω,F ) y f una función de clase PT respec-to a Ft t∈JT

y a P . Por el Lema 4.7.10. (pág. 105), tenemos una sucesión fnn∈N+ de funciones de clase ET respecto a Ft t∈JT y a P tal que

lımn→+∞

∫T

0

[f (t ,ω)− fn(t ,ω)

]2 d t

= 0, en probabilidad.

Tomamos W = Wt t∈JT proceso de Wiener en (Ω,F ,P ) respecto a Ft t∈JT

y a P . Por la convergencia en probabilidad obtenemos que para todo ε> 0,

lımn→+∞

P

∫T

0

[f (t ,ω)− fn(t ,ω)

]2 d t > ε

= 0.

Por tanto, para todo ε> 0, (V. 2, pág. 269),

lımn→+∞

m→+∞P

∫T

0

[fn(t ,ω)− fm(t ,ω)

]2 d t > ε

= 0.

4.7. INTEGRALES ESTOCÁSTICAS 107

Aplicando el lema anterior a ε> 0, δ> 0, y fn − fm , obtenemos que

P

∣∣∣∣∫T

0( fn − fm)(s,ω)dWs

∣∣∣∣> δ

6

ε

δ2 +P

∫T

0

(fn − fm

)2 (s,ω)d s > ε

,

de donde

lımn→+∞

m→+∞P

∣∣∣∣∫T

0fn(s,ω)dWs −

∫T

0fm(s,ω)dWs

∣∣∣∣> δ

6

ε

δ2

y por consiguiente,

lımn→+∞

m→+∞P

∣∣∣∣∫T

0fn(s,ω)dWs −

∫T

0fm(s,ω)dWs

∣∣∣∣> δ

= 0.

Luego∫T

0 fn(s,ω)dWs , n ∈ N+, es fundamental en probabilidad (V. 2, pág.265) y por el Teorema 3.9.11, (V. 2, pág. 269) dicha sucesión converge enprobabilidad, es decir, la sucesión de variables aleatorias

∫T

0fn(t ,ω)dWt = IT ( fn)

converge en probabilidad a una variable aleatoria que designamos porIT ( f ) o

∫T0 f (t ,ω)dWt . La construcción de

IT ( f ) =∫T

0f (t ,ω)dWt

no depende de la sucesión fnn∈N+ de funciones de clase ET respecto aFt t∈JT y a P escogida, (pág. 97).Desde luego se tiene consistencia con la etapa anterior, ( f de clase ET res-pecto a Ft t∈JT

y a P ).

Se define It ( f ) =∫T

0 f (s,ω)I[0,t](s)dWs , t ∈ JT , y se adopta, de nuevo, lanotación It ( f ) =

∫t0 f (s,ω)dWs .

Al proceso estocástico It ( f )t∈JT le llamaremos integral estocástica def , (de clase PT respecto a Ft t∈JT y a P ), respecto al proceso de Wiener W .Este proceso es continuo y progresivamente medible respecto a Ft t∈JT .Por tanto, el proceso estocástico It ( f )t∈JT , es medible (en (t ,ω)) y adap-tado a Ft t∈JT .

108 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

Observación. Sean (Ω,F ,P ) un espacio de probabilidad, Ft t∈JT una fil-tración del espacio medible (Ω,F ) y W = Wt t∈JT un proceso de Wieneren (Ω,F ,P ) respecto a Ft t∈JT

y a P .Sea f una función de clase ET respecto a Ft t∈JT y a P , (pág. 97),(tenemos∫t

0 f (s,ω)dWs , t ∈ JT ). Entonces, existe una sucesión fnn∈N+ de funcionessimples respecto a Ft t∈JT y a P , (pág. 97), con

lımn→+∞

E

(∫T

0

[f (s,ω)− fn(s,ω)

]2 d s

)= 0

y, por tanto, con probabilidad 1

lımn→+∞

sup

06t6T

∣∣∣∣∫t

0f (s,ω)dWs −

∫t

0fn(s,ω)dWs

∣∣∣∣

= 0,

en otras palabras, uniformemente sobre t ∈ JT , con probabilidad 1

lımn→+∞

∫t

0fn(s,ω)dWs

=

∫t

0f (s,ω)dWs .

Se tiene un resultado análogo para funciones f de clase PT respecto Ft t∈JT

y a P , y el lema anterior, es válido también para este tipo de funciones.

Propiedades de la integral estocástica de funciones de clase PT

Sean (Ω,F ,P ) espacio de probabilidad, Ft t∈JT filtración del espacio me-dible (Ω,F ), W = Wt t∈JT proceso de Wiener, en el espacio de probabili-dad (Ω,F ,P ), respecto a Ft t∈JT

y a P , y sean f , f1, f2 : JT ×Ω→R funcio-nes de clase PT respecto a Ft t∈JT y a P . Entonces,

(a) Si fn(t ,ω)n∈N+ , t ∈ JT , ω ∈ Ω, es una sucesión de funciones de claseET respecto Ft t∈JT y a P tal que

∫T0

(f (t ,ω)− fn(t ,ω)

)2 d t conver-

ge a 0 en probabilidad, se verifica que∫T

0 fn(t ,ω)dWt converge en

probabilidad a∫T

0 f (t ,ω)dWt .

(b) Si a, b son números reales arbitrarios, entonces a f1 +b f2 es de clasePT respecto Ft t∈JT

y a P y

It (a f1 +b f2) = aIt ( f1)+bIt ( f2), t ∈ JT .

4.7. INTEGRALES ESTOCÁSTICAS 109

(c) Para todo u, t ∈ JT , con u 6 t , se tiene:∫t

0f (s,ω)dWs =

∫u

0f (s,ω)dWs +

∫t

uf (s,ω)dWs ,

donde∫t

uf (s,ω)dWs =

∫T

0f (s,ω)I[u,t](s)dWs .

(d) El proceso estocástico

It ( f )

t∈JTes continuo (pág. 3).

(e) El proceso estocástico It ( f )t∈JT , es progresivamente medible respec-to a la filtración Ft t∈JT , (Definición 4.2.7., pág. 26). En particu-lar, It ( f )t∈JT es medible y adaptado a Ft t∈JT , (Proposición 4.2.9.,pág. 27).

(f ) Para todo n ∈N+ y todo M > 0 se tiene

P

supt∈JT

∣∣∣∣∫t

0f (s,ω)dWs

∣∣∣∣> M

6 P

∫T

0f 2(s,ω)d s > n

+

n

M2 .

En particular,

P∣∣IT ( f )

∣∣> M6 P

∫T

0f 2(t ,ω)d t > n

+

n

M2,

(g) Se verifica que

E

[(∫T

0f (s,ω)dWs

)2]= E

(∫T

0f 2(s,ω)d s

).

(h)

It ( f )

t∈JTes una martingala local respecto a Ft t∈JT y a P , (Definición

4.5.14., pág. 73).

Teorema 4.7.12. Sean (Ω,F ,P ) un espacio de probabilidad, Ft t∈JT, (0 <

T < +∞), una filtración del espacio medible (Ω,F ), W = Wt t∈JT un pro-ceso de Wiener, en el espacio de probabilidad (Ω,F ,P ), respecto a Ft t∈JT

y a P. Sea f : JT ×Ω→R una función de clase PT respecto a Ft t∈JT y a P, ysupongamos que el proceso estocástico f es continuo (pág. 3). Entonces,

lımδ(Π)→0

n∑

i=0f (ti ,ω)

(Wti+1 (ω)−Wti

)=

∫t

0f (s,ω)dWs en probabilidad,

110 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

donde Π= t0 = 0, t1, ..., tn = T es una partición de JT y δ(Π) es el diámetrode Π.

Integrales estocásticas de procesos con dominio del parámetro J∞

Vamos a construir la integral estocástica de cierto tipo de procesos esto-cásticos reales con dominio del parámetro J∞.

Definición 4.7.13. Sean (Ω,F ,P ) un espacio de probabilidad y f : J∞×Ω→R una función no anticipativa respecto a una filtración Ft t∈J∞ del espaciomedible (Ω,F ), (Definición 4.7.1., pág. 96).

(1). Se dice que f es de clase E∞ respecto a Ft t∈JTy a P si

E

(∫∞

0f (t ,ω)2d t

)<+∞.

(2). Se dice que f es de clase P∞ respecto a Ft t∈JT y a P si

P

(ω ∈Ω :

∫∞

0f (t ,ω)2d t <+∞

)= 1.

Es claro que toda función de clase E∞ respecto a Ft t∈JT y a P es declase P∞ respecto a Ft t∈JT y a P.

Definición 4.7.14. Sean (Ω,F ,P ) un espacio de probabilidad, e = e(t ,ω),t ∈ J∞, ω ∈Ω, una función y Ft t∈J∞ una filtración de (Ω,F ). Supongamosque e es de clase E∞ respecto a P. Se dice que e es simple respecto a Ft t∈J∞y a P si existe una sucesión estrictamente creciente y no acotada tnn∈N, cont0 = 0, en J∞ y existe una sucesión de variables aleatorias, αnn∈N, tal queαn es Ftn -medible para todo n ∈N, y

e(t ,ω) =∑

n∈Nαi (ω)I[ti ,ti+1)(t ).

Proposición 4.7.15. Sean (Ω,F ,P ) un espacio de probabilidad, Ft t∈J∞una filtración de (Ω,F ), W = Wt t∈J∞ un proceso de Wiener en (Ω,F ,P )respecto a Ft t∈J∞ y a P, y sea e : J∞×Ω→R una función simple respecto aFt t∈J∞ y a P. Entonces, la serie

n∈Nαn

(Wtn+1 −Wtn

)

4.7. INTEGRALES ESTOCÁSTICAS 111

converge en el espacio de Hilbert L2(Ω,F ,P ) a un elemento que se designapor I∞(e) o por

∫∞0 e(t ,ω)dWt .

Lema 4.7.16. Sean (Ω,F ,P ) un espacio de probabilidad y f : J∞×Ω→ R

una función de clase E∞ respecto a una filtración Ft t∈J∞ , de (Ω,F ), y aP. Entonces, existe una sucesión de funciones simples

fn

n∈N+ respecto a

Ft t∈J∞ y a P tal que

lımn→+∞

E

(∫∞

0[ f (t ,ω)− fn(t ,ω)]2d t

)= 0. (∗)

Sean (Ω,F ,P ) un espacio de probabilidad, Ft t∈J∞ una filtración de(Ω,F ) y W = Wt t∈J∞ un proceso de Wiener en (Ω,F ,P ) respecto a Ft t∈J∞y a P .Sea f (t ,ω), t ∈ J∞,ω ∈Ω, una función de clase E∞ respecto a Ft t∈J∞ y a P ,(pág. 110). Entonces, por el lema anterior existe una sucesión de funcionessimples

fn

n∈N+ respecto a Ft t∈J∞ y a P que cumple (∗). Se comprueba,

(véanse las páginas 100 y 101), que la sucesión

I∞( fn)

n∈N+ , (Proposición4.7.15.), converge en media de orden 2 a un elemento del espacio de Hil-bert L2(Ω,F ,P ), (V. 2, pág. 271), que no depende de la sucesión elegida yque se designa por I∞( f ) (o por

∫∞0 f (s,ω)dWs), es decir,

(I∞( f ) =

)= l .i .mn I∞( fn) =

∫∞

0f (s,ω)dWs .

Finalmente, para todo s, t ∈ J∞ con s 6 t de define(∫t

sf (u,ω)dWu =

)∫∞

0( f I[s,t])(u,ω)dWu .

Propiedades de las integrales estocásticas de funciones de clase E∞

Sean (Ω,F ,P ) un espacio de probabilidad y f , f1, f2 : J∞×Ω → R funcio-nes de clase E∞ respecto a una filtración Ft t∈J∞ , del espacio medible(Ω,F ), y a P . Sea W = Wt t∈J∞ un proceso de Wiener en (Ω,F ,P ) respectoa Ft t∈J∞ y a P . Entonces,

(1). Si a1, a2 son constantes, a1 f1+b2 f2 es de clase E∞ respecto a Ft t∈J∞y a P , y I∞(a1 f1 +a2 f2) = a1I∞( f1)+a2I∞( f2).

112 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

(2). E(∫∞

0 f (s,ω)dWs)= 0.

(3). E([∫∞

0 f (s,ω)dWs]2

)=

∫∞0 E

(f (t ,ω)2

)d t .

(4). E((∫∞

0 f1(s,ω)dWs)(∫∞

0 f2(s,ω)dWs))=

∫∞0 E ( f1(t ,ω) f2(t ,ω))d t .

(5). Para todo s, t ,u ∈ J∞, con s 6 t 6 u,∫u

s f (s,ω)dWs =∫t

s f (s,ω)dWs +∫ut f (s,ω)dWs .

(5). El proceso estocástico real

It ( f )

t∈J∞es una martingala continua res-

pecto a Ft t∈J∞ y a P .

(Obsérvese que las propiedades (1), (2), (3) y (4) son válidas sustituyendo∞ por cualquier t de J∞).

A continuación se construye la integral estocástica∫∞

0 f (s,ω)dWs parafunciones f de clase P∞.

Sean (Ω,F ,P ) espacio de probabilidad, Ft t∈J∞ filtración de (Ω,F ),W = Wt t∈J∞ proceso estocástico de Wiener respecto a Ft t∈J∞ y a P . Seaf (t ,ω), t ∈ J∞, ω ∈Ω una función de clase P∞ respecto a Ft t∈J∞ y a P .Es claro que f es de clase PT respecto a Ft t∈J∞ y a P para todo T con 0<T < +∞. Para cada n ∈ N+ se considera la aplicación τn : Ω→ R definidapor

τn(ω) = ınf

T > 0 :

∫T

0f (t ,ω)2d t > n

,

(véase el Lema 4.7.10., pág. 105). Entonces, τn es tiempo de Markov res-pecto a Ft t∈J∞ y f · It6τn es una función de clase E∞ respecto a Ft t∈J∞y a P . Así, se tiene la integral estocástica

(∫τn

0f (t ,ω)dWt =

)∫∞

0( f · It6τn )(t ,ω)dWt .

Se prueba que∫τn

0 f (t ,ω)dWt

n∈N+ es una sucesión fundamental en pro-babilidad de variables aleatorias en (Ω,F ,P ), (Definición 3.9.2., (V. 2, pág.265), y por el Teorema 3.9.11, (V. 2, pág. 269), converge en probabilidad a

4.7. INTEGRALES ESTOCÁSTICAS 113

una variable aleatoria en (Ω,F ,P ) que se designa por∫∞

0 f (t ,ω) (o I∞( f )),es decir, con notación de V. 2

∫τn

0f (t ,ω)

P→∫∞

0f (s,ω)dWs .

Por último, para todo s, t ∈ J∞ con s 6 t de define

(∫t

sf (u,ω)dWu =

)∫∞

0( f I[s,t])(u,ω)dWu .

Propiedades de la integral estocástica de funciones de clase P∞

Sean (Ω,F ,P ) un espacio de probabilidad y f , f1, f2 : J∞×Ω → R funcio-nes de clase P∞ respecto a una filtración Ft t∈J∞ , del espacio medible(Ω,F ), y a P . Sea W = Wt t∈J∞ un proceso de Wiener en (Ω,F ,P ) respectoa Ft t∈J∞ y a P . Entonces,

(1). Si a1, a2 son constantes, a1 f1+b2 f2 es de clase P∞ respecto a Ft t∈J∞y a P , y I∞(a1 f1 +a2 f2) = a1I∞( f1)+a2I∞( f2).

(2). Para todo s, t ,u ∈ J∞, con s 6 t 6 u,∫u

s f (s,ω)dWs =∫t

s f (s,ω)dWs +∫ut f (s,ω)dWs .

(3). El proceso estocástico real

It ( f )

t∈J∞está adaptado a la filtración

Ft t∈J∞ y es continuo. Por tanto, por la Proposición 4.2.12., (pág.28) tiene una modificación progresivamente medible.

(4). El proceso estocástico real

It ( f )

t∈J∞es una martingala local respec-

to a la filtración Ft t∈J∞ y a P , (Definición 4.5.14., pág. 73).

(5). Para todo t ∈ J∞ con 0< t , se verifica que

lımδ(Π)→0

n∑

i=0f (ti ,ω)

(Wti+1 (ω)−Wti

)=

∫t

0f (s,ω)dWs en probabilidad,

donde Π = t0 = 0, t1, ..., tn = t es una partición de [0, t ] y δ(Π) es eldiámetro de Π.

114 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

Para un tipo de funciones, f (t ,ω) sobre J∞×R, más general que las de claseE∞ y de clase P∞ se pueden construir, a través de integrales estocásticas,procesos estocástico con dominio del parámetro J∞, sin que exista la inte-gral

∫∞0 f (t ,ω)dWt .

Definición 4.7.17. Sean (Ω,F ,P ) un espacio de probabilidad y f : J∞×Ω→R una función no anticipativa respecto a una filtración Ft t∈J∞ del espaciomedible (Ω,F ), (Definición 4.7.1., pág. 96).

(1) Se dice que f es de clase E J∞ respecto a Ft t∈J∞ y a P si para todo T ∈(0,+∞) se verifica que

E

(∫T

0f (t ,ω)2d t

)<+∞,

es decir, f |JT ×Ω es de clase ET respecto a Ft t∈JT y a P, (Definición

4.7.3., pág. 97).

(2) Se dice que f es de clase P J∞ respecto a Ft t∈J∞ y a P si

P

(ω ∈Ω :

∫T

0f (t ,ω)2d t <+∞

)= 1, para todo T ∈ (0,+∞).

Es claro que toda función de clase E J∞ respecto a Ft t∈J∞ y a P es declase P J∞ respecto a Ft t∈J∞ y a P , (pág. 97); toda función de clase E∞respecto a Ft t∈J∞ y a P es de clase E J∞ respecto a Ft t∈J∞ y a P ; y todafunción de clase P∞ respecto a P es de clase P J∞ respecto a Ft t∈J∞ y a P .

La integral estocástica de funciones de clase E J∞ respecto a Ft t∈J∞ y a Pse define mediante la técnica de localización que se detalla en la proposi-ción que sigue.

Proposición 4.7.18. Sean (Ω,F ,P ) un espacio de probabilidad, Ft t∈J∞una filtración del espacio medible (Ω,F ), W = Wt t∈J∞ un proceso de Wie-ner en (Ω,F ,P ) respecto a Ft t∈J∞ y a P, y f : J∞×Ω→ R una función declase E J∞ respecto a Ft t∈J∞ y a P. Entonces,

(a) Para todo T ∈ (0,+∞), como f |JT ×Ω es de clase ET respecto a E J∞ y a P, setiene la integral estocástica It ( f |JT ×Ω)t∈[0,T ] de esta función respectoa W , (páginas 101 y 102).

4.7. INTEGRALES ESTOCÁSTICAS 115

(b) Para todo T ∈ J∞, se verifica que

P(ω ∈Ω : It ( f |JT ×Ω)(ω) = It ( f |JT ×Ω)(ω), 0 6 t 6 S 6 T

)= 1,

(es claro que el resultado es cierto para funciones no anticipativassimples y el caso general se obtiene observando que se puede consi-derar la misma sucesión de funciones simples para definir ambas in-tegrales).

(c) Se tiene el proceso estocástico real continuo y progresivamente mediblerespecto a Ft t∈J∞ , definido por (It ( f ) =)It ( f |JT ×Ω), donde t 6 T , t ∈J∞, T ∈ (0,+∞). Se adopta también la notación It ( f ) =

∫t0 f (s,ω)dWs .

Al proceso estocástico real construido, It ( f )t∈J∞ , se le llama integralestocástica (de Itô) de f respecto al proceso de Wiener W .

Propiedades de la integral estocástica de funciones de clase E J∞

Sean (Ω,F ,P ) un espacio de probabilidad, Ft t∈J∞ una filtración del es-pacio medible (Ω,F ) y W = Wt t∈J∞ un proceso de Wiener en (Ω,F ,P )respecto a Ft t∈J∞ y a P .Sean f , f1, f2 : J∞×Ω→R funciones de clase E J∞ respecto a Ft t∈J∞ y a P .Entonces,

(1) Si a y b son constantes, a f1 +b f2 es de clase E J∞ respecto a Ft t∈J∞ ya P , y It (a f1 +b f2) = aIt ( f1)+bIt ( f2), t ∈ J∞.

(2) It ( f )t∈J∞ es una martingala en (Ω,F ,P ) respecto a Ft t∈J∞ y a P .

(3) Se verifica que

E

((∫t

0f (s,ω)dWs

)2)= E

(∫t

0f (s,ω)2d s

), t ∈ J∞.

(4) Si τ : Ω→ [0,+∞] es un tiempo de Markov respecto a Ft t∈J∞ tal quef1(t ,ω) = f2(t ,ω) para todo (t ,ω) ∈ J∞×Ω con t 6 τ(ω), se verifica

P

(ω ∈Ω :

∫t

0f1(s,ω)dWs =

∫t

0f2(s,ω)dWs , t 6 τ(ω)

)= 1.

116 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

La integral estocástica de una función de clase P J∞ se construye por la de-nominada técnica de la sucesión de localización.Sean (Ω,F ,P ) un espacio de probabilidad, Ft t∈J∞ una filtración del es-pacio medible (Ω,F ) y τ : Ω → [0,+∞] un tiempo de Markov respecto aFt t∈J∞ . Se considera ([0,τ] =)(t ,ω) ∈ J∞×Ω : t 6 τ(ω) = t 6 τ. Enton-ces, [0,τ] es un subconjunto de J∞ ×Ω que es (B(J∞)⊗F )-medible y lafunción I[0,τ] es no anticipativa respecto a Ft t∈J∞ .Es claro que siσ : Ω→ [0,+∞] es otro tiempo de Markov respecto a Ftt∈J∞con τ6σ, se tiene que [0,τ]∩ [0,σ] = [0,τ] y I[0,τ] · I[0,σ] = I[0,τ].

Definición 4.7.19. Sean (Ω,F ,P ) un espacio de probabilidad y f : J∞×Ω→R una función no anticipativa respecto a la filtración Ft t∈J∞ del espaciomedible (Ω,F ). Para cada n ∈N+ sea τn : Ω→ [0,+∞] un tiempo de Markovrespecto a Ft t∈J∞ tal que:

(1) τn 6 τm para todo m,n ∈N+ con n 6 m.

(2) P (ω ∈Ω : lımn→+∞τn(ω) =+∞) = 1

(3) La función no anticipativa f · I[0,τn ] es de clase E J∞ respecto a Ft t∈J∞y a P para todo n ∈N+.

A la sucesión τnn∈N+ se le llama sucesión de localización para f .

Obsérvese que si τnn∈N+ y σnn∈N+ son sucesiones de localizaciónpara f , entonces τn ∧σnn∈N+ también es una sucesión de localizaciónpara f , (véase (d) de la página 68).

Lema 4.7.20. Sean (Ω,F ,P ) un espacio de probabilidad, Ft t∈J∞ una fil-tración del espacio medible (Ω,F ) y f : J∞×Ω→ R una función no antici-pativa respecto a Ft t∈J∞ . Las siguientes afirmaciones son equivalentes:

(a) f es una función de clase P J∞ respecto a Ft t∈J∞ y a P.

(b) Para todo T ∈ (0,+∞), se verifica

P

(ω ∈Ω :

∫T

0f (t ,ω)2d t <+∞

)= 1.

(c) Existe una sucesión de localización τnn∈N+ para f .

4.7. INTEGRALES ESTOCÁSTICAS 117

(La equivalencia entre (a) y (b) es consecuencia del Teorema 3.1.11.,(V. 2, pág. 12). Para probar que (b) implica (c) basta tomar

τn(ω) = ınft ∈ J∞ :∫t

0f (s,ω)2d s > n, n ∈N+,

(véase el Lema 4.7.10., (pág. 105), y téngase en cuenta que ınf(;) =+∞).

Proposición 4.7.21. Sean (Ω,F ,P ) un espacio de probabilidad, Ft t∈J∞una filtración del espacio medible (Ω,F ), W = Wt t∈J∞ un proceso de Wie-ner en (Ω,F ,P ) respecto a Ft t∈J∞ y a P, y f : J∞×Ω→ R una función declase P J∞ respecto a Ft t∈J∞ y a P. Entonces,

(1) Si τ = τnn∈N+ es una sucesión de localización para f , se verifica quepara todo m,n ∈N+

P(ω : (It ( f · I[0,τn ]))(ω) = (It ( f · I[0,τm ]))(ω), t 6 τm(ω)∧τn(ω)

)= 1,

(La existencia de τ sigue del Lema 4.7.20.). Por tanto, como τn ր+∞,n →+∞, ((1) y (2) de la Definición 4.7.19.), existe un subconjunto Ωτ

de Ω tal que P (Ωτ) = 1, lımn→+∞τn(ω) =+∞ y(∫t

0f · I[0,τn ](s,ω)dWs

)(ω) =

(∫t

0f · I[0,τm ](s,ω)dWs

)(ω),

para todo ω ∈Ωτ y todo m,n ∈N+ con t 6 τm(ω)∧τn(ω).

(2) Para todo t ∈ J∞ se define

It ( f )(ω) =

It ( f · I[0,τn ]), ω ∈Ωτ, t 6 τn(ω)0, ω 6∈Ωτ.

Se verifica que el proceso estocástico real construido, It ( f )t∈J∞ escontinuo y progresivamente medible respecto a Ft t∈J∞ , (por tanto,es medible y adaptado a dicha filtración).

(3) El proceso estocástico real It ( f )t∈J∞ construido en (1) y (2) no dependede la sucesión de localización para f que se elija y se le llama Integralestocástica (de Itô) de f respecto al proceso de Wiener W . La variablealeatoria It ( f ), t ∈ J∞, se designará también por

∫t0 f (s,ω)dWs .

118 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

Propiedades de la integral estocástica de funciones de clase P J∞

Sean (Ω,F ,P ) un espacio de probabilidad, Ft t∈J∞ una filtración del es-pacio medible (Ω,F ) y W = Wt t∈J∞ un proceso de Wiener en (Ω,F ,P )respecto a Ft t∈J∞ y a P . Sean f , f1, f2 : J∞×Ω→R funciones de clase P J∞respecto a Ft t∈J∞ y a P . Entonces,

(1) Si a1 y a2 son constantes, a1 f1+a2 f2 es de clase P J∞ respecto a Ft t∈J∞y a P , y It (a1 f1 +a2 f2) = a1It ( f1)+a2It ( f2), t ∈ J∞.

(2) El proceso estocástico real It ( f )t∈J∞ es progresivamente medible res-pecto a Ft t∈J∞ , (en particular, es medible y adaptado a la filtraciónFt t∈J∞), y es una martingala local, (Definición 4.5.14., pág. 73).

Integrales estocásticas y tiempos de Markov

Sean (Ω,F ,P ) un espacio de probabilidad, Ft t∈JT una filtración del es-pacio medible (Ω,F ) y W = Wt t∈JT un proceso de Wiener en el espacio(Ω,F ,P ) respecto a Ft t∈JT y a P . Sean f : J∞×Ω→R una función de cla-se P J∞ respecto a Ft t∈J∞ y a P y τ : Ω→R un tiempo de Markov respectoa Ft t∈JT

, (pág. 65), tal que P (τ<+∞)= 1, (τ es tiempo de parada).Consideramos la integral estocástica It ( f )t∈J∞ de f respecto al procesode Wiener W . Como It ( f )t∈J∞ es un proceso estocástico real progresiva-mente medible respecto a Ft t∈JT , por (h) de la página 69, se tiene queIτ( f ) : Ω→R, definida por

Iτ( f )(ω) =

Iτ(ω)( f )(ω), si τ(ω) <+∞0, si τ(ω) =+∞,

(véase la página 69), es una variable aleatoria que es Fτ-medible, (pág. 67).Se adopta la notación Iτ( f ) =

∫τ0 fsdWs .

Se tienen las siguientes propiedades:

(1) It∧τ( f ) = It ( f · I[0,T ]), t ∈ J∞.

(2) Iτ(I[0,τ]) =∫τ

0 I[0,τ](s,ω)dWs = Wτ, (P-a.s.).

(3) E (Iτ( f )) = 0.

4.7. INTEGRALES ESTOCÁSTICAS 119

(4) E ((Iτ( f )2) = E (Iτ( f 2)).

(5) Sea σnn∈N+ una sucesión no decreciente de tiempos de Markov res-pecto a Ft t∈J∞ tal que para cada n ∈N+

P

(∫σn

0f 2(s,ω)d s <+∞

)= 1.

Entonces para cada A ∈ Fσ, (σ = lımn→+∞σn) y m > 0, M > 0 setiene

P

A

⋂(sup

n

∣∣∣∣∫σn

0f (s,ω)dWs

∣∣∣∣> M

)6

6m

M2+P

A

⋂(∫σ

0f 2(s,ω)d s > m

).

En particular, si A =ω :

∫σ0 f 2(s,ω)d s <+∞

, entonces,

P

A

⋂(sup

n

∣∣∣∣∫σn

0f (s,ω)dWs

∣∣∣∣=+∞)

= 0.

De las propiedades anteriores se deduce el siguiente:

Lema 4.7.22 (Wald). Sean (Ω,F ,P ) un espacio de probabilidad, Ft t∈J∞una filtración del espacio medible (Ω,F ) y W = Wt t∈J∞ un proceso de Wie-ner en (Ω,F ,P ) respecto a Ft t∈J∞ y a P, (pág. 83). Sea τ= τ(ω) un tiempode Markov respecto a Ft t∈J∞ (65) tal que E (τ) <+∞. Entonces, Wτ es Fτ-medible ((h) de la página 69), E (Wτ) = 0, E

(W 2

τ

)= E (τ).

Ejercicios y problemas

7.1. Sean (Ω,F ,P ) un espacio de probabilidad y f (t ,ω), t ∈ JT , 0 < T <+∞,ω ∈Ω, una función de clase PT respecto a Ft t∈JT y a P que es un procesoestocástico continuo, (pág. 3). Probar que

∫T

0f (s,ω)dWs = lım

maxh ∆tk→0

n−1∑

h=0

f (tk , ·)[Wtk+1 −Wtk

],

donde 0= t0 < t1 < ... < tn = T , ∆tk = tk+1 − tk , (Teorema 4.7.12., pág. 109).

120 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

7.2. Probar los resultados del Ejemplo 1 de la página 102.Indicación: ( f =)I[t1,t2] p1 es función de clase ET respecto a Ft t∈JT y a Py ( fn =)I(t1−1/n,t2] p1 es simple.

lımn→+∞

E

(∫T

0

(f (t ,ω)− fn(t ,ω)

)2 d t

)= 0, y por tanto,

IT ( f ) = l .i .mn→+∞ IT ( fn) =Wt2 −Wt1 , (IT ( fn) =Wt2 −Wt1− 1n

y

lımn→+∞

E

(|(Wt2 −Wt1−1/n

)−

(Wt2 −Wt1

)|2

)=

= lımn→+∞

E

(|Wt1 −Wt1−1/n|2

)= lım

n→+∞

1

n

= 0).

7.3. Sean (Ω,F ,P ) un espacio de probabilidad, Ft t∈JT una filtración delespacio medible (Ω,F ), W = Wt t∈JT un proceso de Wiener en (Ω,F ,P )respecto a Ft t∈Jt

y a P , (pág. 83) y f una función de clase ET respecto aFt t∈J∞ y a P . Se consideran s, t ∈ JT con 0 6 s 6 t 6 T . Probar que:

E

[(∫t

sf (u,ω)dWu

)|Fs

]= 0, y

E

[(∫t

sf (u,ω)dWu

)2

|Fs

]=

∫t

sE

(f 2

u |Fs)

du.

4.8. Procesos estocásticos de Itô

Procesos de Itô unidimensionales

Definición 4.8.1. Sean (Ω,F ,P ) un espacio de probabilidad, Ft t∈JT , (0 <T <+∞), una filtración del espacio medible (Ω,F ) y W = Wt t∈JT un pro-ceso de Wiener en (Ω,F ,P ) respecto a Ft t∈JT

y a P. Sea ξ= ξt t∈JTun pro-

ceso estocástico adaptado a Ft t∈JT y continuo (pág. 3) (por tanto, podemossuponer que ξ es progresivamente medible, ya que existe un proceso estocás-tico indistinguible del dado que es progresivamente medible, (Proposición

4.2.12., pág. 28)). Se dice que ξ es un proceso de Itô respecto al proceso deWiener W , si existen at t∈JT

y bt t∈JTfunciones no anticipativas (pág. 96)

respecto a Ft t∈JT tales que

P

∫T

0|at |d t <+∞

= 1, P

∫T

0b2

t d t <+∞= 1

4.8. PROCESOS ESTOCÁSTICOS DE ITÔ 121

(por tanto, b(t ,ω) es de clase PT respecto a Ft t∈JT y a P (Definición 4.7.2.,pág. 97) y se tiene definida la integral estocástica

∫t0 b(s,ω)dWs respecto al

proceso de Wiener W (páginas 105, 106 y 107)),y con probabilidad 1, paratodo t ∈ JT ,

ξt (ω) = ξ0(ω)+∫t

0a(s,ω)d s +

(∫t

0b(s,ω)dWs

)(ω), ω ∈Ω.

(a(s,ω) = as (ω) y b(s,ω) = bs (ω)). La igualdad anterior la escribiremos tam-bién:

ξt = ξ0 +∫t

0as d s +

∫t

0bs dWs (∗).

o de forma más abreviada,

dξt = at d t +bt dWt , con condición inicial ξ0, (∗∗).

Podemos resumir la definición anterior diciendo que ξ = ξt t∈JTtiene

diferencial estocástica dξt = at d t +bt dWt , con condición inicial ξ0.

Supongamos que estamos en las condiciones de la definición anterior,es decir, ξ = ξt t∈JT

tiene diferencial estocástica dξt = at d t +bt dWt , concondición inicial ξ0. Sea f (t ,ω), t ∈ JT , ω ∈Ω, una función no anticipativarespecto a Ft t∈JT

. Se define la integral estocástica∫t

0f (s,ω)dξs

de la siguiente forma:∫t

0f (s,ω)dξs =

∫t

0f (s,ω)a(s,ω)d s +

∫t

0f (s,ω)b(s,ω)dWs , t ∈ JT ,

siempre que las dos últimas integrales existan, para lo cual es suficienteque

P

∫T

0

∣∣ f (s,ω)a(s,ω)∣∣d s <+∞

= 1, P

∫T

0f 2(s,ω)b2(s,ω)d s <+∞

= 1,

(con lo cual f ·b es de clase PT respecto a Ft t∈JT y a P , y existe la integralestocástica de f ·b respecto a W ).

Observación 1. Sean (Ω,F ,P ) un espacio de probabilidad y Ft t∈JTuna

filtración del espacio medible (Ω,F ).

122 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

(a) Sea ξ= ξt t∈JTuna martingala continua, (páginas 58 y 3), en (Ω,F ,P )

respecto a Ft t∈JT y a P tal que existe at t∈JT , proceso estocástico

adaptado a Ft t∈JT cumpliendo que∫T

0 |as |d s < +∞, (P-a.s.), y (P-a.s.) para todo t ∈ JT , ξt =

∫t0 as d s. Entonces (P-a.s.), para todo t ∈ JT ,

ξt = 0.

(b) Sea además W = Wt t∈JT un proceso de Wiener en (Ω,F ,P ) respectoa Ft t∈JT y a P . Entonces,

(b1). Sea ξ = ξt t∈JT, un proceso de Itô con diferencial estocásti-

ca dξt = at d t +bt dWt , con condición inicial ξ0. Por tanto, conprobabilidad 1, para todo t ∈ JT ,

ξt = ξ0 +∫t

0as d s +

∫t

0bs dWs .

Si hay otra descripción de dξt mediante a′s , b′

s (cumpliendo lomismo que as y bs ), entonces as = a′

s , ((λ×P )-a.s.), bs = b′s , ((λ×

P )-a.s.).

(b2). Si ξ= ξt t∈JTes una martingala continua, (páginas 58 y 3), en

(Ω,F ,P ) respecto a Ft t∈JTy a P tal que ξ tiene diferencial es-

tocástica dξt = at d t+bt dWt con condición inicial ξ0, entoncesas = 0, ((λ×P )-a.s.).

Procesos estocásticos de difusión

Sean (Ω,F ,P ) espacio de probabilidad, Ft t∈JTfiltración de (Ω,F ), W =

Wt t∈JT proceso de Wiener, en (Ω,F ,P ), respecto a Ft t∈JT y a P , y ξ =ξt t∈JT

un proceso estocástico adaptado a Ft t∈JT y continuo. Suponga-mos que ξ es un proceso de Itô respecto a W con diferencial estocásticadξt = at d t +bt dWt , con condición inicial ξ0. Se dice que ξ es un proceso

estocástico de difusión respecto a W , si a(s,ω), b(s,ω) son Fξs -medibles pa-

ra casi todo s ∈ JT (es decir, (λ-a.s.) (λ medida de Lebesgue)), donde porF

ξt

t∈JT

designamos la filtración en (Ω,F ) generada por ξ, (pág. 23).

Obsérvese que W es un proceso de difusión respecto a W , ya que W es unproceso estocástico de Itô con a(t ,ω) = 0 y b(t ,ω) = 1.

4.8. PROCESOS ESTOCÁSTICOS DE ITÔ 123

Sean CT el espacio de las funciones x continuas de JT con valores enR y BT la σ-álgebra, en CT , mínima tal que las funciones x 7→ x(t ), t ∈ JT ,son medibles. De otra forma, BT es la mínima σ-álgebra en CT que hacemedibles las proyecciones: σ

(CT : pt , t ∈ JT

). Se observa que si T = 1, C1 es

el conjunto que en la página 16 se ha designado por C y B1 es la σ-álgebraque en la página 17 se ha designado por B(C ).Para todo t ∈ JT , sea Bt la σ-álgebra, en CT , mínima tal que las funcionesx 7→ x(s), 0 6 s 6 t , son medibles. Es decir, Bt es la mínima σ-álgebra enCT que hace medibles las proyecciones ps , s 6 t : σ

(CT : ps , s ∈ [0, t ]

).

Sea, por último, BJt la σ-álgebra, en JT , mínima que contiene a los con-juntos de Borel de [0, t ]. Es decir, (V. 2, pág. 15),

BJt =σJT (B([0, t ])) =σJT B ∈B(R) : B ⊂ [0, t ] == B ∪ (JT r A) : B , A ∈B(R), B ⊂ [0, t ], A ⊂ [0, t ].

Lema 4.8.2. Con las notaciones anteriores, sean (Ω,F ,P ) un espacio deprobabilidad (completo) y ξ= ξt t∈JT

un proceso estocástico continuo (porla Proposición 4.2.3., (pág. 22), ξ tiene una modificación medible). Sea ζ=ζt t∈JT

un proceso estocástico medible (pág. 21) y adaptado a la filtraciónF

ξt

t∈JT

en (Ω,F ) generada por ξ, (pág. 23). Entonces, existe una aplica-

ciónϕ : JT ×CT →R, (t , x) 7→ϕ(t , x),

(BJT

⊗BT )|B(R)-medible (BJT =B(JT )) tal queϕt , t ∈ JT , es Bt+-medible

(Bt+ =⋂s>t Bs . Por convenio BT+ =BT ) y

(λ×P )

(t ,ω) : ζt (ω) 6=ϕ(t , X ξ(ω))= 0,

(pág. 4), dondeλ es la medida de Lebesgue de JT yλ×P es el producto directode las medidas λ y P, (Teorema 3.4.32., (V. 2, pág. 194)).

Sean (Ω,F ,P ) un espacio de probabilidad, Ft t∈JTuna filtración del

espacio medible (Ω,F ), W = Wt t∈JT un proceso de Wiener en (Ω,F ,P )respecto a Ft t∈JT y a P , y ξ = ξt t∈JT

un proceso de difusión respecto aW (por tanto, ξ es un proceso de Itô respecto a W y tenemos la ecuacióndiferencial estocástica dξt = at d t +bt dWt , con condición inicial ξ0 o bien

124 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

con probabilidad 1, para todo t ∈ JT

ξt = ξ0 +∫t

0as d s +

∫t

0bsdWs ).

Por el lema anterior, existen A(t , x), B(t , x) funciones de JT ×CT con valoresen R, (BJT ⊗BT )|B(R)-medibles, tales que A(t , ·), B(t , ·), t ∈ JT , son Bt+-medibles y

a(t ,ω) = A(t , X ξ(ω)), b(t ,ω) = B(t , X ξ(ω)), ((λ×P )−a.s.)

o bien, para casi todo s, s ∈ JT ,

a(s,ω) = A(s, X ξ(ω)), b(s,ω) = B(s, X ξ(ω)), (P −a.s).

Luego para el proceso de difusión dado ξ= ξt t∈JT, tenemos

ξt = ξ0 +∫t

0as d s +

∫t

0bs dWs , (P −a.s.), t ∈ JT , y

ξt (ω) = ξ0(ω)+∫t

0A(s, X ξ(ω))d s+

(∫t

0B(s, X ξ(ω))dWs

)(ω), (P−a.s.), t ∈ JT .

Procesos de Itô k-dimensionales

Se necesita manejar, también, los procesos de Itô respecto a procesos es-tocásticos de Wiener k-dimensionales.

Definición 4.8.3. Sean (Ω,F ,P ) un espacio de probabilidad, Ft t∈JT una

filtración de este espacio y W i =W i

t

t∈JT

un proceso estocástico de Wiener

respecto a Ft t∈JT y a P, i = 1,2, ...,k (pág. 83). Supongamos que W 1t ,...,W k

tson independientes para todo t ∈ JT , (V. 2, pág. 159). Ponemos la notaciónWt =

(W 1

t , ...,W kt

), t ∈ JT , y W = Wt t∈JT

.En estas condiciones se dice que W es un proceso estocástico de Wiener k-dimensional respecto a Ft t∈JT

y a P.

Sean ξ = ξt t∈JTun proceso estocástico real, adaptado a la filtración

Ft t∈JTy continuo (pág. 3) (por tanto, progresivamente medible, (pág. 120)),

a(t ,ω) una función de JT ×Ω en R y b(t ,ω) = (b1(t ,ω), ...,bk (t ,ω)), donde

4.8. PROCESOS ESTOCÁSTICOS DE ITÔ 125

bi (t ,ω) es una función de JT ×Ω en R, i = 1, ...,k. Supongamos que a(t ,ω),bi (t ,ω) son funciones no anticipativas respecto a Ft t∈JT , (i = 1, ...,k), y

P

(∫T

0|a(t ,ω)|d t <+∞

)= 1, P

(∫T

0b2

i (t ,ω)d t <+∞)= 1, i = 1, ...,k,

(por tanto, bi es de clase PT respecto a Ft t∈JT y a P, y se tiene la integral

estocástica de bi respecto al proceso de Wiener W i ), y con probabilidad 1,para todo t ∈ JT

ξt = ξ0 +∫t

0as d s +

k∑

i=1

∫t

0(bi )s dW i

s (∗).

En estas condiciones se dice que ξ es un proceso de Itô respecto al proceso deWiener k-dimensional W .La igualdad estocástica (∗), a veces, la escribiremos brevemente así:

dξt = at d t +k∑

i=1(bi )t dW i

t con condición inicial ξ0 (∗∗)

o bien dξt = at d t +bt dW ∗t con condición inicial ξ0, donde

dW ∗t =

dW 1t

...dW k

t

.

La definición anterior se resume diciendo: ξt t∈JT, tiene diferencial es-

tocástica (∗∗).

Observación 2. Sean (Ω,F ,P ) un espacio de probabilidad, Ft t∈JT unafiltración del espacio medible (Ω,F ) y W = Wt t∈JT un proceso de Wienerrespecto a Ft t∈JT

y a P , (pág. 83). Entonces

E

(∫t

0W 2

s d s

)<+∞, t ∈ JT ,

(para justificar esta afirmación basta aplicar el Teorema 4.2.4. (Fubini),pág. 22, a

W 2

t

t∈JT

y a S = [0, t ], entonces teniendo en cuenta la igualdad

E(W 2

t

)= t , se obtiene que:

126 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

E

(∫t

0W 2

s d s

)=

∫t

0E

(W 2

s

)d s =

∫t

0sd s =

t 2

2<+∞),

y en particular

E

(∫T

0W 2

s d s

)<+∞

y Wt es de clase ET respecto a Ft t∈JT y a P (pág. 97), y tenemos la integralestocástica

∫t0 Ws dWs , t ∈ JT , que es una martingala respecto a Ft t∈JT y a

P (propiedades (4), (7) y (8) de la página 103).Nos preguntamos si es cierta la fórmula

W 2t = 2

∫t

0Ws dWs ,

(como en el cálculo diferencial ordinario: f (0) = 0, f (t )2 = 2∫t

0 f (x) f ′(x)d x).Supongamos que fuera cierta. En este caso la martingala

∫t0 Ws dWs , t ∈ JT ,

es nula en 0 y positiva (E(∫t

0 WsdWs)= 0). Luego la martingala es nula y

el proceso de Wiener es nulo, lo cual es absurdo. Luego la igualdad W 2t =

2∫t

0 WsdWs no es cierta. En el Ejemplo 5. de la página 143, se ha estableci-do que

∫t0 WsdWs = 1/2(W 2

t − t ).

Procesos de Itô multidimensionales

Definición 4.8.4. Sean (Ω,F ,P ) un espacio de probabilidad, Ft t∈JTuna

filtración del espacio medible (Ω,F ) y W =Wt =

(W 1

t , ...,W kt

)t∈JT

un pro-ceso estocástico de Wiener k-dimensional respecto a Ft t∈JT y a P, (pág.

124; por tanto, W i =W i

t

t∈JT

es un proceso estocástico de Wiener respec-

to a Ft t∈JT y a P, i = 1, ...,k). Sea ξ =ξt = (ξ1

t , ...,ξmt )

t∈JT

, donde pa-

ra i = 1, ...,m, ξi =ξi

t

t∈JT

es un proceso estocástico real adaptado a lafiltración Ft t∈JT , y continuo (por tanto, progresivamente medible (pág.120)). Sean a(t ,ω) = (a1(t ,ω), ..., am (t ,ω)) y b(t ,ω) =

(bi j (t ,ω)

)una matriz

m ×k tales que ai (t ,ω), bi j (t ,ω) son funciones no anticipativas respecto aFt t∈JT

, definidas en JT ×Ω y con valores en R, y

P

(∫T

0|ai (t ,ω)|d t <+∞

)= 1, P

(∫T

0b2

i j (t ,ω)d t <+∞)= 1,

4.8. PROCESOS ESTOCÁSTICOS DE ITÔ 127

i = 1, ...,m, j = 1, ...,k, (por tanto, bi j es de clase PT respecto a Ft t∈JT y aP, y está definida la integral estocástica de bi j respecto al proceso de Wiener

W j ), y con probabilidad 1, para todo t ∈ JT ,

ξit = ξi

0 +∫t

0(ai )s d s +

k∑

j=1

∫t

0(bi j )s dW j

s , i = 1, ...,m (∗).

En estas condiciones se dice que ξ es un proceso de Itô, m-dimensional, res-pecto al proceso de Wiener k-dimensional W .

La igualdad (∗) de la definición anterior, a veces, la escribiremos bre-vemente así:

dξit = (ai )t d t +

k∑

j=1(bi j )t dW j

t , con condición inicial ξi0, i = 1, ...,m, (∗∗),

(bi j )t (ω) = bi j (t ,ω), (ai )t (ω) = ai (t ,ω),

o bien, en forma matricial,

dξ⋆t = a⋆

t d t +bt dW ⋆

t , con condición inicial

ξ10...

ξm0

,

donde

dξ⋆t =

dξ1t

...dξm

t

, a⋆

t =

(a1)t...

(am)t

y dW ⋆

t =

dW 1t

...dW k

t

.

Si queremos resumir la definición anterior diremos que:ξ=

ξt =

(ξ1

t , ...,ξmt

)t∈JT

tiene diferencial estocástica (∗∗).

A continuación se dan condiciones para que un proceso estocásticodel tipo f (t ,ξt ), ξ = ξt t∈JT , f (t , x), (t , x) ∈ JT ×R, admita una diferencialestocástica y se establece una fórmula que permite calcular la diferencialestocástica de esa función compuesta. La fórmula fue obtenida por K. Itôy se llama fórmula de Itô.

128 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

Fórmula de Itô

Teorema 4.8.5. Sean (Ω,F ,P ) un espacio de probabilidad, T ∈ R con 0 <T , Ft t∈JT

una filtración de (Ω,F ) y W = Wt t∈JTun proceso de Wiener

respecto a Ft t∈JT y a P, (pág. 83). Sea ξ = ξt t∈JTun proceso estocástico

real, adaptado a Ft t∈JT y continuo (por tanto, progresivamente medible(pág. 120)), que tiene diferencial estocástica

dξt = at d t +bt dWt , con condición inicial ξ0,

(P

(∫T

0|at |d t <+∞

)= 1, P

(∫T

0b2(t ,ω)d t <+∞

)= 1).

Sea f (t , x) una función definida en JT ×R y con valores en R. Supongamosque f (t , x) es continua (de hecho se deduce de las demás condiciones) y tienederivadas parciales f ′

t (t , x), f ′x (t , x), f ′′

xx (t , x) continuas. Entonces el procesoestocástico

f (t ,ξt )

t∈JT

cumple que:Con probabilidad 1, para todo s ∈ JT ,

f (s,ξs) = f (0,ξ0)+∫s

0

[f ′

t (t ,ξt )+ f ′x (t ,ξt )at +

1

2f ′′

xx (t ,ξt )b2t

]d t+

+∫s

0f ′

x(t ,ξt )bt dWt ,

y por consiguiente,

f (t ,ξt )

t∈JTes un proceso de Itô respecto a W .

La igualdad establecida en el teorema anterior, conocida como fórmula deItô, se puede escribir también de la siguiente forma:

d f (t ,ξt ) =[

f ′t (t ,ξt )+ f ′

x (t ,ξt )at +1

2f ′′

xx (t ,ξt )b2t

]d t+

+ f ′x (t ,ξt )bt dWt = at d t + bt dWt , con condición inicial f (0,ξ0),

P

(∫T

0|at |d t <+∞

)= 1, P

(∫T

0b2

t d t <+∞)= 1.

Versión multidimensional de la fórmula de Itô

Teorema 4.8.6. Sean (Ω,F ,P ) un espacio de probabilidad, Ft t∈JT una fil-tración del espacio medible (Ω,F ) y W =

Wt =

(W 1

t , ...,W kt

)t∈JT

un proce-so de Wiener k-dimensional, en (Ω,F ,P ), respecto a la filtración Ft t∈JT y

4.8. PROCESOS ESTOCÁSTICOS DE ITÔ 129

a P, (pág. 124; por tanto, W i =W i

t

t∈JT

, i = 1,2, ...,k, es un proceso de Wie-

ner respecto a Ft t∈JTy a P). Sea ξ =

(ξ1

t , ...,ξmt )

t∈JT

, donde ξi =ξi

t

t∈JT

es un proceso estocástico real, adaptado a Ft t∈JT , y continuo, (por tanto,

progresivamente medible, (pág. 120)), i = 1,2, ...,m. Supongamos que ξi tie-ne diferencial estocástica

dξit = (ai )t d t +

k∑

j=1(bi j )t dW j

t , con condición inicial ξi0, i = 1, ...,m.

Sea f (t , x1, ..., xm ) una función definida en JT ×Rm y con valores en R. Su-pongamos que f (t , x1, ..., xm ) es continua (de hecho se deduce de las demáscondiciones) y tiene derivadas parciales f ′

t , f ′xi

, f ′′xi x j

continuas. Entonces el

proceso estocástico

f (t ,ξ1t , ...,ξm

t )

t∈JTcumple que:

Con probabilidad 1, para todo s ∈ JT ,

(*) f (s,ξ1s , ...,ξm

s ) = f (0,ξ10, ...,ξm

0 )+∫s

0

[f ′

t (t ,ξ1t , ...,ξm

t )+

+m∑

i=1f ′

xi(t ,ξ1

t , ...,ξmt )(ai )t +

1

2

m∑

i , j=1f ′′

xi x j(t ,ξ1

t , ...,ξmt )

k∑

l=1(bi l )t (b j l )t

]d t+

+m∑

i=1

k∑

j=1

∫s

0f ′

xi(t ,ξ1

t , ...,ξmt )(bi j )t dW j

t ,

(el último sumando de la fórmula anterior se puede escribir de la forma:

m∑

i=1

k∑

j=1

∫s

0f ′

xi(t ,ξ1

t , ...,ξmt )(bi j )t dW j

t =

=k∑

j=1

∫s

0

(m∑

i=1f ′

xi(t ,ξ1

t , ...,ξmt )(bi j )t

)dW j

t ).

Por consiguiente,

f (t ,ξ1t , ...,ξm

t )

t∈JTes un proceso de Itô respecto al proceso

de Wiener k-dimensional W .

La igualdad (*) establecida más arriba, conocida como fórmula de Itô mul-

130 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

tidimensional, se puede escribir también de la siguiente forma:

d f (t ,ξ1t , ...,ξm

t ) =[

f ′t (t ,ξ1

t , ...,ξmt )+

m∑

i=1f ′

xi(t ,ξ1

t , ...,ξmt )(ai )t+

+1

2

m∑

i , j=1f ′′

xi x j(t ,ξ1

t , ...,ξmt )

k∑

l=1

(bi l )t (b j l )t

]d t+

+k∑

j=1

(m∑

i=1f ′

xi(t ,ξ1

t , ...,ξmt )(bi j )t

)dW j

t ,

con condición inicial f (0,ξ10, ...,ξm

0 ).

Fórmula de Itô y tiempos de Markov

Sean (Ω,F ,P ) un espacio de probabilidad y Ft t∈J∞ (J∞ = [0,+∞)) unafiltración de este espacio. Sea τ un tiempo de Markov respecto a Ft t∈J∞(Definición 4.5.7., pág. 65) que es tiempo de parada, es decir, tal que P (τ<+∞) = 1. Sea f (t ,ω), t ∈ J∞, ω ∈Ω, una función de clase P J∞ respecto a lafiltración Ft t∈J∞ y a P , (pág. 114). Sea, por último, un proceso de Wieneren (Ω,F ,P ), W = Wt t∈J∞ , respecto a Ft t∈J∞ y a P . Tenemos la integralestocástica ∫t

0fs dWs , t ∈ J∞,

y este proceso estocástico es progresivamente medible respecto a Ft t∈J∞y por tanto, medible y adaptado a Ft t∈J∞ , (páginas 116-118). Además, elproceso estocástico

It ( f ) =∫t

0fs dWs , t ∈ J∞,

cumple que Iτ( f ), definido por

Iτ( f )(ω) = Iτ(ω)( f )(ω), ω ∈Ω,

es Fτ-medible. Para la variable aleatoria Iτ( f ), se ha introducido la nota-ción, (pág. 118),

Iτ( f ) =∫τ

0ft dWt .

4.8. PROCESOS ESTOCÁSTICOS DE ITÔ 131

Nos situamos en las hipótesis del Teorema 4.8.5. (pág. 128). Sea τ un tiem-po de Markov respecto a Ft t>0 (Definición 4.5.7., pág. 65) que es tiempode parada, es decir, tal que P (τ<+∞) = 1. Supongamos que

P

(∫τ

0|a(s,ω)|d s <+∞

)= 1, P

(∫τ

0b2(s,ω)d s <+∞

)= 1.

Entonces, con probabilidad 1,

f (τ,ξτ) = f (0,ξ0)+∫τ

0

[f ′

t (t ,ξt )+ f ′x (t ,ξt )at +

1

2f ′′

xx (t ,ξt )b2t

]d t+

+∫τ

0f ′

x(t ,ξt )bt dWt .

Aplicaciones de la fórmula de Itô

A continuación se establecen importantes aplicaciones de la fórmula deItô que se utilizarán con frecuencia más adelante.

Lema 4.8.7. Sean (Ω,F ,P ) un espacio de probabilidad, Ft t∈JT una filtra-ción de (Ω,F ) y W = Wt t∈JT un proceso de Wiener, en (Ω,F ,P ), respectoa Ft t∈JT

y a P, (pág. 83). Sea f (t ,ω) una función acotada (| f (t ,ω)| 6 K ,t ∈ JT , ω ∈Ω) y no anticipativa respecto a Ft t∈JT , (pág. 96). Entonces,

E

(∫t

0fsdWs

)2m

6 K 2m t m(2m −1)!!, m ∈N.

Demostración. Ponemos ξt =∫t

0 fsdWs y

τn =

ınf

t : sups6t |ξs |> n)

, si sups6T |ξs |> nT, si sups6T |ξs | < n.

Consideramos la función g (t , x) = x2m . Entonces, por la fórmula de Itô contiempo de Markov, obtenida anteriormente, aplicada a ξt y g y al tiempode Markov t ∧τn , se tiene, (P-a.s.)

ξ2mt∧τn

=∫t∧τn

0

1

22m(2m −1)ξ2m−2

s f 2s d s +

∫t∧τn

02mξ2m−1

s fs dWs .

132 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

Se deduce que

E

(∫t∧τn

0ξ2m−1

s fs dWs

)= 0.

Por tanto,

E(ξ2m

t∧τn

)= m(2m −1)E

(∫t∧τn

0ξ2m−2

s f 2s d s

)6

6 K 2m(2m −1) ·E(∫t∧τn

0ξ2m−2

s d s

)6 K 2m(2m −1)E

(∫t

0ξ2m−2

s

)d s.

De donde, por el lema de Fatou (V. 2, pág. 172),

E(ξ2m

t

)6 K 2m(2m −1)E

(∫t

0ξ2m−2

s d s

).

Se concluye la demostración por inducción.

Lema 4.8.8. Sean (Ω,F ,P ) un espacio de probabilidad, Ft t∈JT una filtra-ción de (Ω,F ) y W = Wt t∈JT

un proceso de Wiener, en (Ω,F ,P ), respecto aFt t∈JT y a P (pág. 83). Sea f (t ,ω) una función no anticipativa respecto aFt t∈JT (pág. 96) tal que

∫T

0E

(f 2m(t ,ω)

)d t <+∞.

Entonces,

E

(∫t

0fs dWs

)2m

6 [m(2m −1)]m t m−1∫t

0E

(f 2m

s

)d s, m ∈N.

Ejemplo 1. Sean (Ω,F ,P ) un espacio de probabilidad, Ft t∈JTuna fil-

tración de (Ω,F ) y W =Wt =

(W 1

t , ...,W kt

)t∈JT

un proceso de Wiener k-dimensional, en (Ω,F ,P ), respecto a Ft t∈JT y a P , (pág. 124; por tanto,

W i =W i

t

t∈JT

, i = 1,2, ...,k es un proceso estocástico de Wiener respec-

to a Ft t∈JT y a P ). Sean ξ1t =

(ξ11

t , ...,ξ1nt

), t ∈ JT , ξ2

t =(ξ21

t , ...,ξ2mt

), t ∈ JT ,

donde

ξ1i =ξ1i

t

t∈JT

, ξ2 j =ξ

2 jt

t∈JT

, i = 1, ...,n, j = 1, ...,m,

4.8. PROCESOS ESTOCÁSTICOS DE ITÔ 133

son procesos estocásticos reales adaptados a Ft t∈JT , medibles y conti-nuos. Sean, para todo t ∈ JT ,

a1,t =(a11,t , ..., a1n,t

), a2,t =

(a21,t , ..., a2m,t

),

b1,t =(b(1)

i j ,t

), n ×k −matr i z, b2,t =

(b(2)

i j ,t

), m ×k −matr i z,

tales que a1i ,t , a2i ,t , b(1)i j ,t , b(2)

i j ,t son funciones no anticipativas respecto aFt t∈JT , definidas en JT ×Ω y con valores en R, y

P

(∫T

0

∣∣a1i ,t∣∣d t <+∞

)= 1, i = 1, ...,n, P

(∫T

0

∣∣a2i ,t∣∣d t <+∞

)= 1,

i = 1, ...,m, P

(∫T

0

(b(1)

i j ,t

)2d t <+∞

)= 1, i = 1, ...,n, j = 1, ...,k,

P

(∫T

0

(b(2)

i j ,t

)2d t <+∞

)= 1, i = 1, ...,m, j = 1, ...,k

(por tanto, b(1)i j ,t es de clase PT respecto a Ft t∈JT y a P , y existe la integral

estocástica∫t

0 b(1)i j ,s dW j

s y b(2)i j ,t es de clase PT respecto a Ft t∈JT

y a P , y

existe la integral estocástica∫t

0 b(2)i j ,s dW j

s ) y con probabilidad 1, para todot ∈ JT ,

ξ1it = ξ1i

0 +∫t

0a1i ,s d s +

k∑

j=1

∫t

0b(1)

i j ,s dW js , i = 1, ...,n

ξ2it = ξ2i

0 +∫t

0a2i ,s d s +

k∑

j=1

∫t

0b(2)

i j ,s dW js , i = 1, ...,m.

Hemos reflejado la Definición 4.8.4. para los procesos

ξ1 =ξ1

t

t∈JT

, ξ2 =ξ2

t

t∈JT

.

Es decir, hemos expresado que ξ1 (respectivamente ξ2)) es un proceso es-tocástico de Itô n-dimensional (respectivamente, un proceso estocásticode Itô m-dimensional) respecto al proceso de Wiener k-dimensional W , o

134 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

de forma abreviada, hemos expresado que el proceso estocástico ξ1 (res-pectivamente ξ2)) tiene diferencial estocástica:

dξ1it = a1i ,t d t +

k∑

j=1b(1)

i j ,t dW jt , i = 1, ...,n

(respectivamente: dξ2it = a2i ,t d t +

k∑

j=1b(2)

i j ,t dW jt , i = 1, ...,m).

Consideramos la matriz n ×m

Y (t ) =

ξ11t...

ξ1nt

(ξ21

t , ...,ξ2mt

).

Aplicamos el Teorema 4.8.6. (pág. 128) a,

(ξ11

t , ...,ξ1nt ,ξ21

t , ...,ξ2mt

),(a11,t , ..., a1n,t , a21,t , ..., a2m,t

), t ∈ JT ,

la matriz(n +m)×k,

b(1)11,t . . . b(1)

1k,t...

. . ....

b(1)n1,t . . . b(1)

nk,t

b(2)11,t . . . b(2)

nk,t...

. . ....

b(2)m1,t . . . b(2)

mk,t

, t ∈ JT ,

y la función fi j (t , x1, ..., xn , y1, ..., ym) = xi y j , (i = 1, ...,n; j = 1, ...,m),

y se obtiene, con probabilidad 1, que para todo s ∈ JT

ξ1is ·ξ2 j

s = ξ1i0 ·ξ2 j

0 +∫s

0

2 jt ·a1i

t +ξ1it ·a2 j ,t+

k∑

l=1b(1)

i l ,t ·b(2)j l ,t

]d t +

k∑

l=1

∫s

0

2 jt ·b(1)

i l ,t +ξ1it ·b(2)

j l ,t

)dW l

t .

Por consiguiente,ξ1i

t ·ξ2 jt

t∈JT

, es un proceso estocástico de Itô respecto

al proceso de Wiener k-dimensional W , (página 124), y la fórmula integral

4.8. PROCESOS ESTOCÁSTICOS DE ITÔ 135

que representa dicho proceso estocástico se puede escribir:

d(ξ1i

t ·ξ2 jt

)=

2 jt ·a1i ,t +ξ1i

t ·a2 j ,t +k∑

l=1

b(1)i l ,t ·b

(2)j l ,t

]d t+

+k∑

l=1

2 jt ·b(1)

i l ,t +ξ1it ·b(2)

j l ,t

)dW l

t , con condición inicial ξ1i0 ·ξ2 j

0 .

Variando i , j , i = 1, ...,n, j = 1, ...,m, se obtiene la fórmula matricial

dY (t ) =

ξ11t...

ξ1nt

(a21,t , .., a2m,t

)+

+

a11,t...

a1n,t

(ξ21

t , ..,ξ2mt

)+b1,t b⋆

2,t

·d t+

+b1t

dW 1t

...dW k

t

(ξ21

t , ...,ξ2mt

)+

ξ11t...

ξ1nt

(dW 1

t , ...,dW kt

)b⋆

2,t ,

donde b⋆

2,t es la matriz traspuesta de b2,t , (cálculo formal).En particular, para n = m = k = 1

ξ11s ·ξ21

s = ξ110 ·ξ21

0 +∫s

0

[ξ21

t ·a11,t +ξ11t ·a21,t +b(1)

11,t ·b(2)11,t

]d t+

+∫s

0

(ξ21

t ·b(1)11,t +ξ11

t ·b(2)11,t

)dW 1

t ,

con probabilidad 1, para todo s ∈ JT , o bien

d(ξ11

s ·ξ21s

)=

[ξ21

s ·a11,s +ξ11s ·a21,s +b(1)

11,s ·b(2)11,s

]d s+

+(ξ21

s ·b(1)11,s +ξ11

s ·b(2)11,s

)dW 1

s , con condición inicial ξ110 ξ21

0 .

Observamos que (para n = m = k = 1) la última ecuación se puede escribir,

136 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

también, de la siguiente forma:

d(ξ11t ) = a11,t d t +b(1)

11,t dW 1t

d(ξ21t ) = a21,t d t +b(2)

11,t dW 1t , y

d(ξ11

s ·ξ21s

)= ξ11

s d(ξ21

s

)+ξ21

s d(ξ11

s

)+b(1)

11,s ·b(2)11,s d s.

Ejemplo 2. Sean (Ω,F ,P ) un espacio de probabilidad, Ft t∈JTuna filtra-

ción de (Ω,F ) y W =Wt =

(W 1

t , ...,W mt

)t∈JT

un proceso de Wiener m-dimensional en (Ω,F ,P ), respecto a Ft t∈JT y a P , (pág. 124; por tan-

to, W i =W i

t

t∈JT

, i = 1,2, ...,m, es un proceso estocástico de Wiener, en(Ω,F ,P ), respecto a Ft t∈JT

y a P ).Sea la función f (t , x1, ..., xm ) = (x,B(t )x∗), donde

x = (x1, ..., xm ), x∗ =

x1...

xm

,

B(t ) es una matriz (no estocástica) m ×m, de elementos diferenciables y( , ) significa

(a1, ..., am ),

b1...

bm

= a1b1 + ...+am bm .

Sea(ξ1

t , ...,ξmt

)t∈JT

un proceso estocástico m-dimensional que tiene di-ferencial estocástica

dξit = ai ,t d t +

m∑

j=1bi j ,t dW j

t , con condición inicial ξi0, i = 1, ...,m.

Para r = 1, ...,m, se consideran las funciones

yr (t , x1, ..., xm ) =αr 1(t ) ·x1 + ...+αr m(t ) ·xm , donde B(t ) =(αi j (t )

).

Aplicamos el Teorema 4.8.6. (pág. 128) a la función yr (t , x1, ..., xm) yobtenemos:

4.8. PROCESOS ESTOCÁSTICOS DE ITÔ 137

Con probabilidad 1, para todo s ∈ JT ,

yr(s,ξ1

s , ...,ξms

)= yr (0,ξ1

0, ...,ξm0 )+

+∫s

0

[α′

r 1(t )ξ1t + ...+α′

r m (t )ξmt +αr 1(t )a1,t + ...+αr m(t )am,t

]d t+

+m∑

j=1

∫s

0

(αr 1(t )b1 j ,t + ...+αr m (t )bm j ,t

)dW j

t .

Por tanto, yr(s,ξ1

s , ...,ξms

), s ∈ JT , es un proceso de Itô respecto al proceso

de Wiener m-dimensional W , y la fórmula integral que representa dichoproceso se puede escribir:

d yr(t ,ξ1

t , ...,ξmt

)=

[α′

r 1(t )ξ1t + ...+α′

r m(t )ξmt +αr 1(t )a1,t + ...+αr m(t )am,t

]d t+

+m∑

j=1

(αr 1(t )b1 j ,t + ...+αr m(t )bm j ,t

)dW j

t ,

con condición inicialyr (0,ξ10, ...,ξm

0 ).

Variando r , r = 1, ...,m, se obtiene la ecuación estocástica matricial:

d y1(t ,ξ1

t , ...,ξmt

)

...d ym

(t ,ξ1

t , ...,ξmt

)

=

[B ′(t )

(ξ1

t , ...,ξmt

)∗+B(t )(a1,t , ..., am,t

)∗]d t+

+B(t )bt

dW 1t

...dW m

i

, donde bt =

(bi j ,t

), matriz m ×m.

(B ′(t ) matriz derivada).

Observamos que yr(s,ξ1

s , ...,ξms

), s ∈ JT , r = 1, ...,m es un proceso esto-

cástico de Itô, m-dimensional, respecto al proceso estocástico de Wienerm-dimensional W , (Definición 4.8.4., pág. 126) y por consiguiente, pode-mos aplicar el Ejemplo 1 precedente a

ξ1t , ...,ξm

t , t ∈ JT , y1(s,ξ1

s , ...,ξms

), ..., ym

(s,ξ1

s , ...,ξms

), s ∈ JT ,

138 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

obteniéndose que con probabilidad 1, para todo s ∈ JT ,

ξis y j

(s,ξ1

s , ...,ξms

)= ξi

0 y j(0,ξ1

0, ...,ξm0

)+

+∫s

0

[y j

(t ,ξ1

t , ...,ξmt

)ai ,t +ξi

t

(α′

j 1(t )ξ1t + ...+α′

j m (t )ξmt +α j 1(t )a1,t + ...+

α j m(t )am,t)+

m∑

l=1

bi l ,t(α j 1(t )b1l ,t + ...+α j m (t )bml ,t

)]

d t

+m∑

l=1

∫s

0

[y j

(t ,ξ1

t , ...,ξmt

)·bi l ,t +ξi

t

(α j 1(t )b1l ,t + ...+α j m (t )bml ,t

)]dW l

t .

Por tanto,ξi

s y j(s,ξ1

s , ...,ξms

)s∈JT

, es un proceso de Itô respecto al proceso

de Wiener m-dimensional W = Wt t∈JT , y la fórmula integral que repre-senta dicho proceso estocástico se puede escribir:

d(ξi

s y j(s,ξ1

s , ...,ξms

))=

=[

y j(s,ξ1

s , ..,ξms

)ai ,s +ξi

s

(α′

j 1(s)ξ1s + ..+α′

j m (s)ξms +α j 1(s)a1,s + ..+

+α j m(s)am,s)+

m∑

l=1

bi l ,s(α j 1(s)b1l ,s + ...+α j m (s)bml ,s

)]

d s+

+m∑

l=1

[y j

(s,ξ1

s , ...ξms

)·bi l ,s +ξi

s

(α j 1(s)b1l ,s + ...+α j m (s)bml ,s

)]dW l

s ,

con condición inicial ξi0 y j

(0,ξ1

0, ...,ξm0

).

Variando i , j , donde i = 1, ...,m, j = 1, ...,m, (seguimos con el estudio dela aplicación del Ejemplo 1 precedente (pág. 132)), nos queda la fórmulamatricial:

d(ξ∗t ξt B(t )∗

)=

[ξ∗t ξt B ′(t )∗+ξ∗t at B(t )∗+a∗

t ξt B(t )∗+bt b∗t B(t )∗

]d t+

bt dW ∗t ξt B(t )∗+ξ∗t dWt b∗

t B(t )∗,

donde

ξt =(ξ1

t , ...,ξmt

), at =

(a1,t , ..., am,t

), bt =

(bi j ,t

), dWt =

(dW 1

t , ...,dW mt

),

4.8. PROCESOS ESTOCÁSTICOS DE ITÔ 139

(cálculo formal). En particular, para m = 1,

ξ1sα11(s)ξ1

s = ξ10α11(0)ξ1

0 +∫s

0

[α11(t )ξ1

t a1,t +ξ1t α

′11(t )ξ1

t +α11(t )a1,t+

+b11,tα11(t )b11,t]

d t +∫s

0

[α11(t )ξ1

t b11,t +ξ1t α11(t )b11,t

]dW 1

t ,

con probabilidad 1, para todo s ∈ JT , y si α11 = 1, entonces

(ξ1

s

)2 =(ξ1

0

)2 +∫s

0

[ξ1

t a1,t +a1,t +b211,t

]d t +

∫s

02ξ1

t b11,t dW 1t .

Por último aplicamos el Teorema 4.8.6. (pág. 128) aξt =

(ξ1

t , ...,ξmt

)t∈JT

, y f (s,ξ1s , ...,ξm

s ) = (x,B(t )x∗)

y obtenemos que: Con probabilidad 1, para todo s ∈ JT ,

f (s,ξ1s , ...,ξm

s ) =

f (0,ξ10, ...,ξm

0 )+∫s

0

[(ξt ,B ′(t )ξ∗t

)+

(ξt ,

[B(t )+B(t )∗

]a∗

t

)+

+Tr aza(bt b∗

t B(t ))]

d t +∫s

0ξt

[B(t )+B(t )∗

]bt dW ∗

t ,

donde el último sumando significa

m∑

j=1

∫s

0ξt

[B(t )+B(t )∗

](b1 j ,t , ...,bm j ,t

)∗ dW jt .

Por tanto,

f (s,ξ1s , ...,ξm

s )

t∈JT, es un proceso de Itô respecto al proceso de

Wiener m-dimensional W = Wt t∈JT y la fórmula integral que representadicho proceso se puede escribir también:

d f (s,ξ1s , ...,ξm

s ) =[(ξs ,B ′(s)ξ∗s

)+

(ξs ,

[B(s)+B(s)∗

]a∗

s

)+

+Tr aza(bs b∗

s B(s))]

d s +m∑

j=1ξs

[B(s)+B(s)∗

](b1 j ,s , ...,bm j ,s

)∗ dW js ,

con condición inicial f (0,ξ10, ...,ξm

0 ).

140 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

En particular, si ξt = Wt , es decir, ξit = W i

t , i = 1, ...,m, t ∈ JT , (en estecaso ai t = 0, i = 1, ...,m, t ∈ JT , y

(bi j ,t

)es la matriz unidad m×m) y B(t ) es

simétrica, entonces

WsB(s)W ∗s =

∫s

0

[Wt B ′(t )W ∗

t +Tr aza(B(t ))]

d t+

+∫s

0Wt 2B(t )(1,0, ...,0)∗dW 1

t + ...+∫s

0Wt 2B(t )(0,0, ...,0,1)∗dW m

t ,

con probabilidad 1, para todo s ∈ JT .Naturalmente,

∫s

0Wt 2B(t )(0, ...,1( j ,0, ...,0)∗dW j

t = 2∫s

0Wt

α1 j...

αm j

dW j

t .

En forma diferencial,

d(Ws B(s)W ∗

s

)=

[WsB ′(s)W ∗

s +Tr aza(B(s))]

d s++2WsB(s)(1,0, ...,0)∗dW 1

s + ...+2Ws B(s)(0,0, ...,0,1)∗dW ms ,

con condición inicial 0.

Ejemplo 3. Sean (Ω,F ,P ) un espacio de probabilidad, Ft t∈JT una filtra-ción de (Ω,F ) y W = Wt t∈JT , un proceso de Wiener, en (Ω,F ,P ), respectoa Ft t∈JT y a P , (pág. 83). Sea a(t ,ω) una función de clase PT respecto aFt t∈JT

y a P , (pág. 97), y sea

κt = exp

∫t

0as dWs −

1

2

∫t

0a2

s d s

, t ∈ JT .

Para todo t ∈ JT se considera

ξt =∫t

0as dWs −

1

2

∫t

0a2

s d s (∗).

Entonces, ξ = ξt t∈JTes un proceso estocástico de Itô respecto a W y (∗)

la podemos escribir

dξt = at dWt −1

2a2

t d t , con condición inicial 0.

4.8. PROCESOS ESTOCÁSTICOS DE ITÔ 141

(Recordamos que∫t

0 as dWs , t ∈ JT , es un proceso estocástico medible, adap-tado a Ft t∈JT y continuo, y

E

[(∫T

0as dWs

)2]= E

(∫T

0a2

s d s

)).

Consideramos la función f (x, t ) = exp(x). Entonces, por el Teorema4.8.5. (pág. 128),

κs = exp(ξs) = exp(ξ0)+∫s

0

[exp(ξt )

(−

1

2a2

t

)+

1

2exp(ξt )a2

t

]d t+

+∫s

0exp(ξt )at dWt ,

con probabilidad 1, para todo s ∈ JT , de donde

κs = 1+∫s

0exp(ξt )at dWt (∗∗),

con probabilidad 1 para todo s ∈ JT . Por consiguiente,κt = exp(ξt )

t∈JT

es un proceso de Itô respecto a W y la igualdad anterior, (∗∗), la podemosescribir así:

dκs = exp(ξs)as dWs , con condición inicial 1,

o biendκs = κs as dWs con condición inicial 1.

Sea g (t , x) = 1/exp(x). Entonces, de nuevo por el Teorema 4.8.5. (pág.128), el proceso estocástico

1/exp(ξs ) = 1/κs

s∈JT

cumple que: con pro-babilidad 1, para todo s ∈ JT

1

κs=

1

κ0+

∫s

0

[−

1

exp(ξt )

(−

1

2a2

t

)+

1

2

1

exp(ξt )a2

t

]d t+

+∫s

0

1

exp(ξt )at dWt ,

o bien, con probabilidad 1, para todo s ∈ JT ,

1

κs= 1+

∫s

0

1

κt·a2

t d t −∫s

0

1

κt·at dWt .

142 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

Por consiguiente, 1/κt t∈JT , es un proceso de Itô respecto a W y la igual-dad anterior la podemos escribir también

d

(1

κs

)=

1

κs·a2

s d s −1

κs·as dWs , con condición inicial 1.

Observación. Se tiene que P(ınft∈JT κt > 0

)= 1, pues a(t ,ω) es de clase PT

respecto a Ft t∈JTy a P .

Ejemplo 4. Sean (Ω,F ,P ) espacio de probabilidad, Ft t∈JT filtración de(Ω,F ) y W = Wt t∈JT , proceso de Wiener, en (Ω,F ,P ), respecto a Ft t∈JT

y a P , (pág. 83). Sean a(t ), b(t ), t ∈ JT , funciones no estocásticas tales que∫T

0|a(t )|d t <+∞,

∫T

0b2(t )d t <+∞.

Consideramos el proceso estocástico

κt = exp

(∫t

0a(s)d s

)·(ξ+

∫t

0exp

(−

∫s

0a(u)du

)·b(s)dWs

), t ∈ JT ,

donde ξ es una variable aleatoria F0-medible. Ponemos

ξt = ξ+∫t

0exp

(−

∫s

0a(u)du

)b(s)dWs , t ∈ JT .

Entonces ξ = ξt t∈JT, (ξ0 = ξ) es un proceso estocástico de Itô respecto a

W y la igualdad anterior la podemos escribir

dξt = exp

(−

∫t

0a(u)du

)·b(t )dWt , con condición inicial ξ.

Consideramos la función f (t , x) = exp(∫t

0 a(s)d s)· x. Entonces, por el

Teorema 4.8.5. (pág. 128), el proceso estocástico

f (t ,ξt )

t∈JT, cumple que:

con probabilidad 1, para todo s ∈ JT ,

κs = f (s,ξs ) = ξ+∫s

0

[ξt a(t ) ·exp

(∫t

0a(u)du

)]d t+

+∫s

0exp

(∫t

0a(u)du

)exp

(−

∫t

0a(u)du

)b(t )dWt ,

4.8. PROCESOS ESTOCÁSTICOS DE ITÔ 143

o bien

exp

(∫s

0a(u)du

)·ξs = ξ+

∫s

0

[ξt a(t ) ·exp

(∫t

0a(u)du

)]d t +

∫s

0b(t )dWt ,

con probabilidad 1, para todo s ∈ JT . Por tanto,κs = f (s,ξs)

s∈JT

, es un

proceso de Itô respecto a W y la igualdad anterior la podemos escribir así:

d f (t ,ξt ) =[ξt a(t )exp

(∫t

0a(u)du

)]d t +b(t )dWt con condición inicial ξ,

o bien

d

[exp

(∫t

0a(u)du

)·ξt

]= dκt = a(t )κt d t +b(t )dWt ,

con condición inicial ξ.

Ejemplo 5. Sean (Ω,F ,P ) un espacio de probabilidad, Ft t∈JT una filtra-ción de (Ω,F ) y W = Wt t∈JT , un proceso de Wiener, en (Ω,F ;P ), respectoa Ft t∈JT y a P , (pág. 83). Consideramos ξt =Wt , t ∈ JT , (naturalmente esun proceso de Itô respecto a W con at = 0, bt = 1) y f (t , x) = x2. Aplican-do el Teorema 4.8.5. (pág. 128), tenemos: con probabilidad 1, para todos ∈ JT ,

W 2s =

∫s

0d t +

∫s

02Wt dWt , (∗),

de donde

W 2s − s = 2

∫s

0Wt dWt .

Por tanto,W 2

t

t∈JT

, es un proceso de Itô respecto a W y (∗) se puede es-cribir

d(W 2

s

)= d s +2WsdWs , con condición inicial 0.

Por otra parte, como E(∫t

0 W 2s d s

)<+∞, el proceso estocástico

∫t0 WsdWs ,

s ∈ JT , es una martingala respecto a Ft t∈JT y a P yW 2

t − t

t∈JTes una

martingala respecto a Ft t∈JTy a P .

144 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

Observación. Para probar que E(∫t

0 W 2s d s

)<+∞, se puede recurrir al teo-

rema de Fubini (pág. 22). Efectivamente, al aplicar este teorema a W 2s ,

s ∈ JT , se tiene quet 2

2=

∫t

0sd s = E

(∫t

0W 2

s d s

).

Por consiguiente, E(∫t

0 W 2s d s

)< +∞ y Ws(ω) es una función de clase ET

respecto a Ft t∈JT y a P , (pág. 97), y∫t

0 WsdWs , s ∈ JT , es una martingalarespecto a Ft t∈JT

y a P , ((4) de la página 103).

Ejemplo 6. Sean (Ω,F ,P ) un espacio de probabilidad, Ft t∈JT una filtra-ción de (Ω,F ) y W = (Wt )t∈JT

un proceso de Wiener, en (Ω,F ,P ), respectoa Ft t∈JT y a P , (pág. 83). Sean ξ = ξt t∈JT

, η =ηt

t∈JT

procesos de Itô

respecto a W : Con probabilidad 1

ξt = ξ0 +∫t

0as d s +

∫t

0bs dWs

ηt = η0 +∫t

0a⋆

s d s +∫t

0b⋆

s dWs

Entonces, por el Teorema 4.8.5. (pág. 128),

ξs ·ηs = ξ0 ·η0 +∫s

0

[ξt ·a⋆

t +ηt ·at +bt ·b⋆

t

]d t+

+∫s

0

(ξt ·b⋆

t +ηt ·bt)

dWt ,

con probabilidad 1, t ∈ JT . Por consiguiente,ξt ·ηt

t∈JT

es un proceso de

Itô respecto a W y la igualdad anterior se puede escribir

d(ξt ·ηt ) =[ξt ·a⋆

t +ηt ·at +bt ·b⋆

t

]d t +

[ξt ·b⋆

t +ηt ·bt]

dWt ,

con condición inicial ξ0 ·η0. Este ejemplo es el caso particular del Ejemplo1 (pág. 132). A esta fórmula, se la llama fórmula de integración por partes yserá ampliamente utilizada.

Ejercicios y problemas

8.1. Sean (Ω,F ,P ) un espacio de probabilidad, Ft t∈JTuna filtración de

(Ω,F ) y W = Wt t∈JT un proceso de Wiener en (Ω,F ,P ) respecto a Ft t∈JT

y a P , (pág. 83).

4.9. ECUACIONES DIFERENCIALES ESTOCÁSTICAS. SOLUCIÓN FUERTE 145

Sean ξt t∈JT,ηt

t∈JT

procesos de Itô respecto a W y a,b números reales.

Probar que

aξt +bηt

t∈JTes un proceso de Itô respecto a W y que, para

todo t ∈ JT ,d(aξt +bηt ) = ad(ξt )+bd(ηt ).

8.2. Probar el resultado de la observación de la página 142.

8.3. En las hipótesis del Ejemplo 5, (pág. 143), probar que para todo s, t ∈JT , con s 6 t , se verifica que

∫t

sWudWu =

1

2W 2

t −1

2W 2

s −1

2(t − s).

8.4. Supongamos que en el Ejemplo 5, (pág. 143), f (t , x) = g (x), dondeg : R → R tiene derivada segunda continua. Probar que con probabilidad1, ∫t

0g ′(Ws)dWs = g (Wt )−

1

2

∫t

0g ′′(Ws)d s.

4.9. Ecuaciones diferenciales estocásticas. Solu-ción fuerte

Versión unidimensional de solución fuerte

Sean (Ω,F ,P ) un espacio de probabilidad, Ft t∈J1 , (recordamos que, deacuerdo con la notación fijada al principio del capítulo, J1 = [0,1]), una fil-tración de (Ω,F ) y W = Wt t∈J1 un proceso de Wiener respecto a Ft t∈J1

y a P .Sean C el conjunto de funciones continuas de [0,1] en R, (por tanto, C ⊂R[0,1]), B1 la σ-álgebra en C definida por B1 = σ(C : ts , s ∈ J1), (es decir,B1 es la más pequeña σ-álgebra en C que hace medibles a las funcionests : C → R, 0 6 s 6 1, donde ts (x) = xs = x(s) para todo x ∈ C , y por tanto,B1 =B(R[0,1])

⋂C =B(C ), (véanse las páginas 16, 17 y 18)), y la σ-álgebra

en C , Bt = σ(C : ts , s ∈ [0, t ]), 0 6 t 6 1, (es decir, Bt es la más pequeñaσ-álgebra en C que hace medible a las funciones ts : C →R, 0 6 s 6 t ).

146 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

Sean a,b : [0,1]×C → R funciones no anticipativas respecto a la filtraciónBt t∈J1 del espacio medible (C ,B1), (Definición 4.7.1., pág. 96).

Sea ξ= ξt t∈J1un proceso estocástico en (Ω,F ,P ), real, medible, adap-

tado a Ft t∈J1 y continuo, (con lo dicho hasta aquí, las funciones

a(·, ξ),b(·, ξ) : [0,1]×Ω→R definidas por

(s,ω) 7→ a(s, X ξ(ω)), (s,ω) 7→ b(s, X ξ(ω)),

donde X ξ : Ω → C está definida por X ξ(ω)(t ) = ξt (ω), t ∈ J1, (pág. 4), sonfunciones no anticipativas respecto a Ft t∈J1 , es decir, son medibles yadaptadas a Ft t∈J1 ).

Sea por último, η una variable aleatoria en (Ω,F ,P ), F0-medible.Supongamos que:

(1) ξ0 = η.

(2) P(ω ∈Ω :

∫10 |a(t , X ξ(ω))|d t <+∞

)= 1.

(3) P(ω ∈Ω :

∫10 b2(t , X ξ(ω))d t <+∞

)= 1.

(4) Con probabilidad 1, para todo t ∈ J1

ξt = η+∫t

0a(·, ξ)s d s +

∫t

0b(·, ξ)s dWs .

Por tanto, ξ es un proceso estocástico de Itô respecto a W , y la ecua-ción de (4) se puede escribir de la forma (Definición 4.8.1. (pág.120)):

dξt = a(·, ξ)t d t +b(·, ξ)t dWt con condición inicial η.

Definición 4.9.1. En esta situación, se dice que ξ es solución fuerte (o sim-plemente solución) de la ecuación diferencial estocástica

dξt = a(·, ξ)t d t +b(·, ξ)t dWt con condición inicial η.

4.9. ECUACIONES DIFERENCIALES ESTOCÁSTICAS. SOLUCIÓN FUERTE 147

Observamos que si Ft = F Wt , t ∈ J1, donde

F W

t

t∈J1

es la filtración en

(Ω,F ) generada por W , entonces Fξt ⊂F W

t , t ∈ J1.

Versión multidimensional de solución fuerte

En la definición que sigue, Cn es el conjunto de aplicaciones continuas de[0,1] en Rn , (C1 = C , pág. 145) y B(n)

t , t ∈ J1, es la más pequeña σ-álgebraen Cn que hace medibles a las funciones ts : Cn → Rn , s 6 t , donde ts (x) =xs ∈Rn , para todo x ∈Cn , (B(1)

t =Bt , pág. 145).

Definición 4.9.2. Sean (Ω,F ,P ) un espacio de probabilidad, Ft t∈J1 , unafiltración de (Ω,F ) y W =

Wt =

(W 1

t , ...,W nt

)t∈J1

un proceso estocástico deWiener n-dimensional, en (Ω,F ,P ), respecto a Ft t∈J1 y a P, (pág. 124).

Sean a(t , x) = (a1(t , x), ..., an (t , x)), b(t , x) =(bi j (t , x)

)matriz n×n tales

queai ,bi j : [0,1]×Cn →R

son funciones no anticipativas respecto a la filtraciónB(n)

t

t∈J1

del espacio

medible (Cn ,B(n)1 )), (pág. 96).

Sea ξ=(ξ1

t , ...,ξnt

)t∈J1

tal que ξi =ξi

t

t∈J1

es un proceso estocástico en(Ω,F ,P ), real, medible, adaptado a Ft t∈J1 y continuo, i = 1, ...,n.

Sea por último, η=(η1, ...,ηn

)una variable aleatoria n-dimensional, en

(Ω,F ,P ), F0-medible.

Supongamos que

(1) ξ10 = η1,...,ξn

0 = ηn .

(2) P(ω ∈Ω :

∫10 |ai (t , X ξ(ω))|d t <+∞

)= 1, i = 1, ...,n,

(ai (·, ξ)(s,ω) = ai (s, X ξ(ω)), X ξ(ω)(t ) = (ξ1t (ω), ...,ξn

t (ω))).

(3) P(ω ∈Ω :

∫10 b2

i j (t , X ξ(ω))d t <+∞)

= 1, i , j = 1, ...,n,

(bi j (·, ξ)(s,ω) = bi j (s, X ξ(ω)), X ξ(ω)(t ) = (ξ1t (ω), ...,ξn

t (ω))).

148 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

(4) Con probabilidad 1, para todo t ∈ J1

ξit = ηi +

∫t

0ai (·, ξ)sd s +

n∑

j=1

∫t

0bi j (·, ξ)sdW j

s , i = 1, ...,n.

Por tanto, ξ es un proceso de Itô n-dimensional respecto al proceso deWiener n-dimensional W = Wt t∈J1 , y las ecuaciones de (4) se puedenescribir de la forma (Definición 4.8.3. (pág. 124)), para i = 1, ...,n:

dξit = ai (·, ξ)t d t +

n∑

j=1bi j (·, ξ)t dW j

t con condición inicial ηi .

En estas condiciones diremos que ξ es solución fuerte (o solución) de

dξit = ai (·, ξ)t d t +

n∑

j=1bi j (·, ξ)t dW j

t con condición inicial ηi , i = 1, ...,n.

Versión de solución fuerte con valores vectoriales

Definición 4.9.3. Sean (Ω,F ,P ) un espacio de probabilidad, Ft t∈JT , unafiltración de (Ω,F ) y W =

Wt =

(W 1

t , ...,W pt

)t∈JT

un proceso de Wiener p-dimensional, en (Ω,F ,P ), respecto a Ft t∈JT y a P, (pág. 124).

Sean la aplicación b : JT ×Rn →Rn , b(s, x) = (b1(s, x), ...,bn (s, x)), s ∈ JT ,x ∈ Rn , y σ(s, x) =

(σi j (s, x)

), matriz n ×p, σi j : JT ×Rn → R, s ∈ JT , x ∈ Rn ,

tales que bi , σi j son medibles.

Sea η=(η1, ...,ηn

)variable aleatoria n-dimensional (con valores en Rn),

en (Ω,F ,P ), F0-medible.

Sea, por último, ξ =(ξ1

t , ...,ξnt

)t∈JT

un proceso estocástico n-dimensional,en (Ω,F ,P ), medible, adaptado a Ft t∈JT

y continuo. Supongamos que:

(1) ξ10 = η1,...,ξn

0 = ηn .

(2) P(∫T

0

∣∣bi(t ,ξ1

t , ...,ξnt

)∣∣d t <+∞)= 1, i = 1, ...,n.

(3) P(∫T

0 σ2i j

(t ,ξ1

t , ...,ξnt

)d t <+∞

)= 1, i = 1, ...,n, j = 1, ..., p.

4.9. ECUACIONES DIFERENCIALES ESTOCÁSTICAS. SOLUCIÓN FUERTE 149

(4) Con probabilidad 1, para todo t ∈ JT y para i = 1, ...,n,

ξit = ηi +

∫t

0bi (

s,ξ1s , ...,ξn

s

)d s +

p∑

j=1

∫t

0σi j

(s,ξ1

s , ...,ξns

)dW j

s .

Por tanto, con estos supuestos, ξ es un proceso de Itô, n-dimensional respectoal proceso de Wiener W y la igualdad de (4) se puede escribir de la siguienteforma:

dξit = bi (

t ,ξ1t , ...,ξn

t

)d t +

p∑

j=1σi j

(t ,ξ1

t , ...,ξnt

)dW j

t

con condición inicial ηi , i = 1, ...,n, t ∈ JT (∗).

En estas condiciones diremos que ξ es solución fuerte (o solución) de (∗).

Existencia y unicidad de la solución fuerte

Caso unidimensional

Teorema 4.9.4. Sean (Ω,F ,P ) un espacio de probabilidad, Ft t∈J1 , (recor-damos que según la notación fijada al principio del capítulo, J1 = [0,1]),una filtración de (Ω,F ), W = Wt t∈J1

un proceso de Wiener, en (Ω,F ,P ),respecto a Ft t∈J1 y a P, y

a,b : [0,1]×C →R

funciones no anticipativas respecto a Bt t∈J1 (pág. 96). (El espacio C y Bt ,t ∈ J1, son los definidos en la página 145), y sea η una variable aleatoria, en(Ω,F ,P ), F0-medible y tal que P (ω : |η(ω)| < +∞) = 1.

Supongamos que (condiciones de Lipschitz):

|a(t , x)−a(t , y)|2 +|b(t , x)−b(t , y)|2 6 L1

∫t

0|xs − ys |2dK (s)+L2|xt − yt |2,

a2(t , x)+b2(t , x) 6 L1

∫t

0(1+x2

s )dK (s)+L2(1+x2t ),

donde L1 y L2 son constantes, K (s) es una función no decreciente, continuapor la derecha y 0 6 K (s) 6 1, x, y ∈C y t ∈ J1. Entonces:

150 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

(1) Existe ξ= ξt t∈J1proceso estocástico, en (Ω,F ,P ), real, medible, adap-

tado a Ft t∈J1 y continuo, solución de

dξt = a(·, ξ)t d t +b(·, ξ)t dWt con condición inicial η,

(es decir, cumple (1), (2), (3) y (4) de la página 146).Además esta solución es única en el siguiente sentido: Si ξ′ =

ξ′t

t∈J1

es también solución, (es decir, se cumplen (1), (2), (3) y (4) de la página146 (Definición 4.9.1.) para ξ′, entonces

P

(supt∈J1

∣∣ξt −ξ′t∣∣> 0

)= 0.

(2) Si E(η2m

)<+∞, m > 1, entonces existe una constante Mm tal que

E(ξ2m

t

)6

(1+E

(η2m))

·exp(Mm t )−1.

Corolario 4.9.5. Sean (Ω,F ,P ) un espacio de probabilidad, Ft t∈J1 , unafiltración de (Ω,F ), W = Wt t∈J1

un proceso de Wiener, en (Ω,F ,P ), res-pecto a Ft t∈J1 y a P, y

a,b : [0,1]×R→R

funciones medibles y sea η una variable aleatoria, en (Ω,F ,P ), F0-medibley tal que P (ω : |η(ω)| < +∞) = 1.Supongamos que (condiciones de Lipschitz):

|a(t , y)−a(t , y ′)|2 +|b(t , y)−b(t , y ′)|2 6 L(y − y ′)2,

a2(t , y)+b2(t , y) 6 L(1+ y2),

donde L es una constante. Entonces, existe ξ = ξt t∈J1proceso estocástico,

en (Ω,F ,P ), real, medible, adaptado a Ft t∈J1 y continuo, tal que:

(1) ξ0 = η.

(2) P(∫1

0 |a(t ,ξt )|d t <+∞)= 1.

(3) P(∫1

0 b2(t ,ξt )d t <+∞)= 1.

4.9. ECUACIONES DIFERENCIALES ESTOCÁSTICAS. SOLUCIÓN FUERTE 151

(4) Con probabilidad 1, para todo t ∈ J1

ξt = η+∫t

0a(s,ξs )d s +

∫t

0b(s,ξs )dWs .

(Por tanto, ξ es un proceso de Itô respecto a W y la igualdad de (4) se puedeescribir de la forma (Definición 4.8.1. (pág. 120)):

dξt = a(t ,ξt )d t +b(t ,ξt )dWt con condición inicial η, t ∈ J1).

Por consiguiente, ξ es solución de

dξt = a(t ,ξt )d t +b(t ,ξt )dWt con condición inicial η, t ∈ J1.

Además la solución ξ es única, en el sentido del teorema anterior.

Caso multidimensional

Teorema 4.9.6. Sean (Ω,F ,P ) un espacio de probabilidad, Ft t∈J1 , (J1 =[0,1]), una filtración de (Ω,F ), W =

Wt =

(W 1

t , ...W nt

)t∈J1

un proceso deWiener n-dimensional, en (Ω,F ,P ), respecto a Ft t∈J1

y a P,

a(t , x) = (a1(t , x), ..., an (t , x)) , b(t , x) =(bi j (t , x)

),

matriz n ×n, tal que las funciones

ai ,bi j : [0,1]×Cn →R

son no anticipativas respecto aB(n)

t

t∈J1

(es decir, ai (t , x), bi j (t , x) son me-

dibles y adaptadas a esta filtración; el espacio Cn es el conjunto de aplica-ciones continuas de [0,1] en Rn y B(n)

t , t ∈ J1, están definidas como en lapágina 147), y sea η=

(η1, ...,ηn

)una variable aleatoria n-dimensional, en

(Ω,F ,P ), F0-medible y tal que P (ω :∑n

i=1 |ηi (ω)| < +∞) = 1.Supongamos que (condiciones de Lipschitz):

|ai (t , x)−ai (t , y)|2 +n∑

j=1|bi j (t , x)−bi j (t , y)|2 6

L1

∫t

0

n∑

i=1|xi

s − y is |2dK (s)+L2

n∑

i=1|xi

t − y it |2, a2

i (t , x)+n∑

j=1b2

i j (t , x) 6

L1

∫t

0

(1+

n∑

i=1

(xi

s

)2)

dK (s)+L2

(1+

n∑

i=1

(xi

s

)2)

,

152 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

donde L1 y L2 son constantes, K (s) es una función no decreciente, continuapor la derecha y 0 6 K (s) 6 1, x, y ∈Cn , t ∈ J1, i = 1, ...,n. Entonces:

(1) Existeξ=

ξ1

t , ...,ξnt

t∈J1

tal que ξi =ξi

t

t∈J1

es un proceso estocástico, en (Ω,F ,P ), real, medible, adaptado a lafiltración Ft t∈J1 y continuo, i = 1...,n, y se cumplen (1), (2), (3) y (4)

de la Definición 4.9.2 (pág. 147), (por tanto, ξ es un proceso de Itô, n-dimensional respecto a W , y la igualdad de (4) se puede escribir parai = 1, ...,n,

dξit = ai (·, ξ)t d t +

n∑

j=1bi j (·, ξ)t dW j

t con condición inicial ηi ).

Así ξ es solución (solución fuerte) de esta última ecuación. Además es-ta solución es única en el siguiente sentido: Si ξ′ es también solución,(es decir, se cumplen (1), (2), (3) y (4) de las páginas 147 y 148 (Defini-

ción 4.9.2.) para ξ′, entonces

P

(supt∈J1

∣∣∣ξit − (ξ′)i

t

∣∣∣> 0

)= 0, i = 1, ...,n.

(2) Si E(∑n

i=1η2mi

)<+∞, m > 1, entonces existe una constante Mm tal que

E

(n∑

i=1(ξi

t )2m

)6

(1+E

(n∑

i=1η2m

i

))·exp(Mm t )−1.

Caso vectorial

Sean (Ω,F ,P ) un espacio de probabilidad, Ft t∈JT , una filtración del es-pacio medible (Ω,F ) y W =

Wt =

(W 1

t , ...,W pt

)t∈JT

un proceso estocásti-co de Wiener p-dimensional, en (Ω,F ,P ), respecto a Ft t∈JT

y a P .

Sean

b : JT ×Rn →Rn , b(s, x) = (b1(s, x), ...,bn (s, x)), s ∈ JT , x ∈Rn ,

4.9. ECUACIONES DIFERENCIALES ESTOCÁSTICAS. SOLUCIÓN FUERTE 153

σ(s, x) =(σi j (s, x)

), matriz n ×p, σi j : JT ×Rn → R, s ∈ JT , x ∈Rn , tales que

bi , σi j son medibles.

Sea η=(η1, ...,ηn

)variable aleatoria n-dimensional (con valores enRn),

en (Ω,F ,P ), F0-medible. Supongamos que se cumple lo siguiente:

(1) |b(t , x)−b(t , y)|+|σ(t , x)−σ(t , y)| 6 K |x− y |, donde la norma en Rn esla euclídea y la norma en las matrices n ×p es,

|σ|2 =∑

16i6n16 j6p

σ2i j .

(2) |b(t , x)|+ |σ(t , x)| 6 K (1+|x|).

(3) E(|η|2

)<+∞.

Entonces existe ξ=ξt =

(ξ1

t , ...,ξnt

)t∈JT

proceso estocástico n-dimensional,en (Ω,F ,P ), medible, adaptado a Ft t∈JT

y continuo, cumpliendo (1), (2),(3) y (4) de la Definición 4.9.3. (pág. 148), (por tanto, ξes un proceso de Itô,n-dimensional, respecto a W , y la igualdad de (4) se puede escribir

dξit = bi (

t ,ξ1t , ...,ξn

t

)d t +

p∑

j=1σi j

(t ,ξ1

t , ...,ξnt

)dW j

t

con condición inicial ηi , i = 1, ...,n, t ∈ JT (∗).

Así, ξ es solución (solución fuerte) de (∗). Además ξ es única.Por último, ξ cumple que

E

(supt∈JT

|ξt |2)<+∞.

Acotación de los momentos exponenciales

Sean (Ω,F ,P ) un espacio de probabilidad, Ft t∈JT, una filtración de (Ω,F ),

W = Wt t∈JT un proceso de Wiener, en (Ω,F ,P ), respecto a Ft t∈JT y a P ,

a,b : JT ×R→R

154 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

funciones medibles y η una variable aleatoria, en (Ω,F ,P ), F0-mediblecumpliendo P (|η| < +∞) = 1. Sea ξ = ξt t∈JT

un proceso estocástico, en(Ω,F ,P ), real, medible, adaptado a Ft t∈JT

y continuo tal que se cumplen(1), (2), (3) y (4) de la Definición 4.9.3 (pág. 148), (n = p = 1), (por tanto,ξ es un proceso de Itô respecto a W , y la igualdad de (4) se puede escribirasí:

dξt = a(t ,ξt )d t +b(t ,ξt )dWt con condición inicial η, t ∈ JT (1)).

Por tanto, ξ es solución de (1). Supongamos que existe ε> 0 tal que

E(exp

(εη2))<+∞

y que existe una constante K tal que

a(t , y)2 6 K 2(1+ y2), |b(t , y)|6 K .

Entonces existe δ> 0 tal que

supt∈JT

E(exp

(δξ2

t

))<+∞.

Otros tipos de ecuaciones diferenciales estocásticas

Teorema 4.9.7. Sean (Ω,F ,P ) un espacio de probabilidad, Ft t∈J1 , unafiltración de (Ω,F ), W = Wt t∈J1

un proceso de Wiener respecto a Ft t∈J1

y a P, y a,b : J1 ×C → R funciones no anticipativas respecto a Bt t∈J1 (C yBt , t ∈ J1, como en la página 145), tales que se cumplen las condiciones deLipschitz como en el Teorema 4.9.4. (pág. 149).

Seanϕt

t∈J1

un proceso estocástico medible, continuo y adaptado a

Ft t∈J1 yλ1

t

t∈J1

,λ2

t

t∈J1

procesos estocásticos medibles y adaptados a

Ft t∈J1 tales que |λit |6 1, i = 1,2, t ∈ J1.

Entonces, existe ξ= ξt t∈J1proceso estocástico, en (Ω,F ,P ), real, medi-

ble, adaptado a Ft t∈J1y continuo tal que se cumplen:

(1) ξ0 =ϕ0.

4.9. ECUACIONES DIFERENCIALES ESTOCÁSTICAS. SOLUCIÓN FUERTE 155

(2) P(ω ∈Ω :

∫10

∣∣∣λ1s (ω)a(s, X ξ(ω))

∣∣∣d s <+∞)

= 1.

((s,ω) 7→λ1s (ω)a(s, X ξ(ω)), X ξ(ω)(t ) = ξt (ω)).

(3) P(ω ∈Ω :

∫10 λ2

s (ω)b2(s, X ξ(ω))d s <+∞)

= 1.

((s,ω) 7→λ2s (ω)b(s, X ξ(ω)), X ξ(ω)(t ) = ξt (ω)).

(4) Con probabilidad 1, para todo t ∈ J1,

ξt =ϕt +∫t

0λ1

s a(·, ξ)s d s +∫t

0λ2

s b(·, ξ)sdWs .

y ξ es único en el sentido del Teorema 4.9.4. (pág. 149).Podemos resumir diciendo que

ξt =ϕt +∫t

0λ1

s a(·, ξ)sd s +∫t

0λ2

s b(·, ξ)sdWs , t ∈ J1,

(o bien

ηt =ϕt +∫t

0λ1

s a(·, η)s d s +∫t

0λ2

s b(·, η)s dWs , t ∈ J1),

tiene solución (o solución fuerte) única.

Teorema 4.9.8. Sean (Ω,F ,P ) un espacio de probabilidad, Ft t∈J1 , unafiltración de (Ω,F ), W = Wt t∈J1

un proceso de Wiener respecto a Ft t∈J1y

a P, a0, a1,b : J1×C →R funciones no anticipativas respecto a Bt , t ∈ J1 (C yBt , t ∈ J1, como en la página 145), tales que a0(t , x), b(t , x) y a1(t , x), b(t , x)cumplen las condiciones de Lipschitz como en el Teorema 4.9.4. (pág. 149),y |a1(t , x)|6 c <+∞.

Sea η una variable aleatoria, en (Ω,F ,P ), F0-medible tal que E(η2

)<

+∞.Entonces:

(I) existe ξ = ξt t∈J1proceso estocástico, en (Ω,F ,P ), real, medible, adap-

tado a Ft t∈J1y continuo (P-a.s.) tal que se cumplen:

156 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

(1) ξ0 = η.

(2) P(ω ∈Ω :

∫10

∣∣∣a0(t , X ξ(ω))+a1(t , X ξ(ω))ξt (ω)∣∣∣d t <+∞

)= 1.

(3) P(ω ∈Ω :

∫10 b2(t , X ξ(ω))d t <+∞

)= 1.

(4) Con probabilidad 1, para todo t ∈ J1,

ξt = η+∫t

0

[a0(·, ξ)s +a1(·, ξ)sξs

]d s +

∫t

0b(·, ξ)s dWs .

Por consiguiente, ξ es un proceso de Itô respecto a W y la igualdad de(4) la podemos escribir

dξt =[a0(·, ξ)t +a1(·, ξ)tξt

]d t +b(·, ξ)t dWt

con condición inicial η, t ∈ J1, (∗).

Por tanto, ξ es solución fuerte (solución) de (∗), además es única en elsentido del Teorema 4.9.4. (pág. 149).(Luego existe una única solución fuerte de

dξt = [a0(·, ξ)t +a1(·, ξ)tξt ]d t +b(·, ξ)t dWt , ξ0 = η).

(II) Si E(η2m

)<+∞, m > 1, entonces existe una constante Mm > 0 tal que

E(ξ2m

t

)6

(1+E

(η2m))

·exp(Mm t )−1.

Ejemplo 1. Sean (Ω,F ,P ) un espacio de probabilidad, Ft t∈J1, una filtra-

ción de (Ω,F ), W = Wt t∈J1 un proceso de Wiener respecto a Ft t∈J1 y aP , a(t , x) = 0 y b(t , x) = x, t ∈ J1, x ∈ R. Entonces, por el Corolario 4.9.5.(pág. 150), se tiene que existe ξ= ξt t∈J1

proceso estocástico, en (Ω,F ,P ),real, medible, adaptado a Ft t∈J1 y, continuo, tal que:

(1) ξ0 = η= 1.

(2) P(∫1

0 |a(t ,ξt )|d t <+∞)= 1, ya que a = 0.

(3) P(∫1

0 ξ2t d t <+∞

)= 1.

4.9. ECUACIONES DIFERENCIALES ESTOCÁSTICAS. SOLUCIÓN FUERTE 157

(4) Con probabilidad 1, para todo t ∈ J1

ξt = 1+∫t

0ξs dWs .

(Por tanto, ξ es un proceso de Itô respecto a W y la igualdad de (4) se puedeescribir de la forma (Definición 4.8.1. (pág. 120)):

dξt = ξt dWt con condición inicial 1, t ∈ J1.

Por consiguiente, ξ es solución fuerte (solución) de

dξt = ξt dWt con condición inicial 1, t ∈ J1,

(o bien dedηt = ηt dWt , η0 = 1).

Además la solución ξ es única, en el sentido mencionado en el Teorema4.9.4., (pág. 149).

Calculemos ξ: Sabemos que Wt t∈J1 , es un proceso de Itô respecto aW , Wt =

∫t0 dWs , t ∈ J1 (Ejemplo 5. (pág. 143)). Tomamos la función

f (t , x) = exp

(x −

1

2t

), t ∈ J1, x ∈R.

Por el Teorema 4.8.5. (pág. 128), aplicado aWt =

∫t0 dWs

t∈J1

, con proba-bilidad 1, para todo s ∈ J1

exp

(Ws −

1

2s

)= 1+

∫s

0

[−

1

2exp

(Wt −

1

2t

)+

1

2exp

(Wt −

1

2t

)]d t+

+∫s

0exp

(Wt −

1

2t

)dWt = 1+

∫s

0exp

(Wt −

1

2t

)dWt .

Por tanto,

exp

(Ws −

1

2s

), s ∈ J1,

es un proceso de Itô respecto a W y

d

(exp

(Ws −

1

2s

))= exp

(Ws −

1

2s

)dWs , con condición inicial 1.

158 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

Así, por la unicidad de la solución,

ξt = exp

(Wt −

1

2t

), t ∈ J1.

Además, se tiene que E(exp

(ξ2

0

))= e <+∞ y para todo δ> 0,

supt∈J1

E(exp

(δξ2

t

))= sup

t∈J1

E(exp

(δexp(2Wt − t )

))=+∞.

Luego en el resultado sobre acotación de los momentos exponenciales(páginas 153 y 154), no se puede sustituir la condición

|b(t , y)|6 K por |b(t , y)|6 K (1+|y |).

Ecuaciones diferenciales estocásticas lineales

Teorema 4.9.9. Sean (Ω,F ,P ) un espacio de probabilidad, Ft t∈J1 una fil-tración de (Ω,F ) y W =

Wt =

(W 1

t , ...,W nt

)t∈J1

un proceso de Wiener n-dimensional respecto a Ft t∈J1 y a P, (pág. 124).

Sean a0(t ) = (a01(t ), ..., a0n (t )), a1(t ) =(a1

i j (t )), matriz n×n, b(t ) =

(bi j (t )

),

matriz n ×n, t ∈ J1, donde a0 j (t ), a1i j (t ), bi j (t ), t ∈ J1, son funciones medi-

bles (no estocásticas) tales que

∫1

0

∣∣a0 j (t )∣∣d t <+∞,

∫1

0

∣∣∣a1i j (t )

∣∣∣d t <+∞,∫1

0b2

i j (t )d t <+∞.

Entonces:(1). La ecuación

Φ(t ) = I +∫t

0a1(s)Φ(s)d s,

donde I es la matriz unidad n ×n, t ∈ J1, tiene solución Φ(t ), t ∈ J1, siendoΦ(t ) una matriz n ×n cuyos elementos son continuos. Además Φ(t ), t ∈ J1,es (P-a.s.) diferenciable y

d |Φ(t )|d t

= Tr aza(a1(t )) · |Φ(t )|, |Φ(0)| = 1, (P −a.s.), t ∈ J1,

4.9. ECUACIONES DIFERENCIALES ESTOCÁSTICAS. SOLUCIÓN FUERTE 159

donde |Φ(t )| es el determinante de Φ(t ). Por tanto,

|Φ(t )| = exp

(∫t

0Tr aza(a1(s))d s

), t ∈ J1,

y Φ(t ) es no singular y (P-a.s.), t ∈ J1

dΦ(t )−1

d t=−Φ(t )−1a1(t ).

Por último si Φ(t ), Φ(0)= I es otra solución de

Φ(t ) = I +∫t

0a1(s)Φ(s)d s,

entonces, (P-a.s.), t ∈ J1,

dΦ(t )−1Φ(t )

d t= 0 y Φ(t ) =Φ(t ) (P −a.s.), t ∈ J1.

(2). Consideramos la expresión, t ∈ J1,

ξ∗t =Φ(t )

[η∗+

∫t

0Φ(s)−1a0(s)∗d s +

∫t

0Φ(s)−1b(s)dW ∗

s

],

donde η = (η1, ...,ηn ) es una variable aleatoria n-dimensional F0-medibletal que P

(∑ni=1

∣∣ηi∣∣<+∞

)= 1 y ξt = (ξ1

t , ..., xnt ) y si Φ(s)−1b(s) =

(hi j (s)

),

entonces, Ws =

(W 1

s , ...,W ns

), dW ∗

s =

dW 1s

...dW n

s

∫t

0

(hi 1(s)dW 1

s + ...+hi n(s)dW ns

)=

∫t

0

n∑

j=1hi j (s)dW j

s , i = 1, ...,n.

Entonces, el proceso estocásticoξ∗t

t∈J1

, es solución fuerte, (única), de

y∗t =

y1,t...

yn,t

= η∗+

∫t

0

[a0(s)∗+a1(s)y∗

s

]d s +

∫t

0b(s)dW ∗

s , t ∈ J1,

160 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

∫t

0b(s)dW ∗

s =

∫t0 b1,1dW 1

s + ...+∫t

0 b1,ndW ns

......................................................∫t0 bn,1dW 1

s + ...+∫t

0 bn,n dW ns

=

∑nj=1

∫t0 b1, j dW j

s

................................∑n

j=1

∫t0 bn, j dW j

s

.

Ejemplo 2. Sean (Ω,F ,P ) un espacio de probabilidad, Ft t∈J1una filtra-

ción de (Ω,F ) y W = Wt t∈J1 un proceso de Wiener respecto a Ft t∈J1 y aP , y sean a > 0, b > 0 constantes.Entonces por el Teorema 4.9.9. (pág. 158), Φ(t ) = exp(at ) y

ξt = exp(at )

[η+

∫t

0exp(−as)bWs

], t ∈ J1,

donde η es una variable aleatoria, en (Ω,F ,P ), F0-medible con P (|η| <+∞) = 1, es la única solución de

ξt = η+∫t

0aξs d s +

∫t

0bdWs , t ∈ J1.

Se prueba, en general, que si f (t ), t > 0, (no estocástica) es medible y∫+∞0 f 2(t )d t <+∞, entonces

∫t0 f (s)dWs , t > 0, es Gaussiana de media 0 y

varianza∫t

0 f 2(s)d s, de hecho, se tiene también que si∫t

0f 2(s)d s <+∞,

entonces∫t

0 f (s)dWs es Gaussiana de media 0 y varianza∫t

0 f 2(s)d s. Enparticular ∫t

0b exp(−as)dWs

es Gaussiana de media 0 y varianza∫t

0 b2 exp(−2as)d s.(Véase el párrafo3.12 de V. 2).

Ejemplo 3. Sean (Ω,F ,P ) un espacio de probabilidad, Ft t∈JT una filtra-ción de (Ω,F ), W = Wt t∈JT un proceso de Wiener respecto a Ft t∈JT

y a P , y µ, σ, x0 6= 0 constantes reales. Entonces por el Corolario 4.9.5.(pág. 150), existe ξ = ξt t∈JT

proceso estocástico, en (Ω,F ,P ), real, medi-ble, adaptado a Ft t∈JT

y continuo tal que

4.9. ECUACIONES DIFERENCIALES ESTOCÁSTICAS. SOLUCIÓN FUERTE 161

(1) ξ0 = x0.

(2) P(∫T

0 |µξt |d t <+∞)= 1, ((t , x) 7→µx, t ∈ JT , x ∈R).

(3) P(∫T

0 σ2ξ2t d t <+∞

)= 1, ((t , x) 7→σ(x), t ∈ JT , x ∈R.

(4) Con probabilidad 1, para todo t ∈ JT

ξt = x0 +∫t

0µξsd s +

∫t

0σξsdWs .

(Por tanto, ξ es un proceso de Itô respecto a W y la igualdad de (4) se puedeescribir de la forma (Definición 4.8.1. (pág. 120)):

dξt =µξt d t +σξt dWt con condición inicial x0, t ∈ JT ).

Por consiguiente, ξ es solución de

dξt =µξt d t +σξt dWt con condición inicial x0, t ∈ JT .

Además la solución ξ es única, en el sentido mencionado en el Teorema4.9.4, (pág. 149).Calculemos efectivamente ξ: Consideramos el proceso de Itô respecto aW = Wt t∈JT

, (Wt =∫t

0 dWs) (Ejemplo 5. (pág. 143), y la función

f (t , x) = x0 exp

((µ−

σ2

2

)· t +σx

).

Entonces, por el Teorema 4.8.5. (pág. 128), con probabilidad 1, para todo

162 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

s ∈ JT ,

f (s,Ws) = x0 exp

[(µ−

σ2

2

)s +σWs

]=

= x0 +∫s

0

[(µ−

σ2

2

)x0 exp

((µ−

σ2

2

)t +σWt

)+

1

2σ2x0 exp

((µ−

σ2

2

)t +σWt

)]d t +

∫s

0σx0 exp

((µ−

σ2

2

)t +σWt

)dWt =

= x0 +∫s

0µx0 exp

[(µ−

σ2

2

)t +σWt

]d t+

+∫s

0σx0 exp

[(µ−

σ2

2

)t +σWt

]dWt = x0 +

∫s

0µ f (t ,Wt )d t+

+∫s

0σ f (t ,Wt )dWt .

Por consiguiente,

f (t ,Wt )

t∈JTes un proceso estocástico de Itô respecto

a W y la igualdad anterior la podemos escribir, t ∈ JT

d f (t ,Wt ) =µ f (t ,Wt )d t +σ f (t ,Wt )dWt , con condición inicial x0 (∗).

De esta forma

f (t ,Wt )

t∈JT, es solución de (∗) anterior (Definición 4.9.1.

(pág. 146)), o bien,

f (t ,Wt )

t∈JT, es solución de

dξt =µξt d t +σξt dWt , ξ0 = x0, t ∈ JT .

Luego hemos calculado una solución fuerte (solución) de

dξt =µξt d t +σξt dWt , ξ0 = x0,

que sabemos que es única.

En el ejemplo anterior se ha probado el siguiente teorema:

Teorema 4.9.10 (Movimiento Browniano geométrico). Sean (Ω,F ,P ) unespacio de probabilidad, Ft t∈JT una filtración de (Ω,F ), W = Wt t∈JT

un proceso de Wiener respecto a la filtración Ft t∈JT y a P, y µ, σ, x0 6= 0constantes reales. Entonces,

ξt = x0 exp

((µ−

σ2

2

)· t +σWt

), t ∈ JT ,

4.9. ECUACIONES DIFERENCIALES ESTOCÁSTICAS. SOLUCIÓN FUERTE 163

es solución (única) de

dξt =µξt d t +σξt dWt , ξ0 = x0, t ∈ JT ,

por tanto,

x0 exp[(µ− σ2

2

)· t +σWt

]t∈JT

, es un proceso de Itô respecto a

W , (este proceso nos servirá de modelo para los precios de los activos finan-cieros (las acciones), y se llama modelo de Black-Scholes-Merton).

Si µ = 0, entonces x0 exp[−σ2

2 · t +σWt

], t ∈ JT , es una martingala res-

pecto a Ft t∈J1y a P (véase el Problema 6.2 (pág. 96)).

Veamos una variante del Corolario 4.9.5. (pág. 150).

Proposición 4.9.11. Sean (Ω,F ,P ) un espacio de probabilidad, Ft t∈J∞una filtración de (Ω,F ), W = Wt t∈J∞ un proceso de Wiener respecto aFt t∈J∞ y a P,

a,b : J∞×R→R

aplicaciones continuas y η una variable aleatoria F0-medible.Supongamos que existe K <+∞ tal que:

(1) |a(t , x)−a(t , y)|+ |b(t , x)−b(t , y)| 6 K |x − y |, t ∈ J∞, x, y ∈R.

(2) |a(t , x)|+ |b(t , x)| 6 K (1+|x|), t ∈ J∞, x ∈R.

(3) E(η2

)<+∞.

Entonces para todo T > 0, existe ξ= ξt t∈JTproceso estocástico, en el espacio

de probabilidad (Ω,F ,P ), real, medible, adaptado a Ft t∈JT y continuo talque:

(1) ξ0 = η.

(2) P(∫T

0 |a(t ,ξt )|d t <+∞)= 1.

(3) P(∫T

0 b2(t ,ξt )d t <+∞)= 1.

(4) Con probabilidad 1, para todo t ∈ JT

ξt = η+∫t

0a(s,ξs )d s +

∫t

0b(s,ξs )dWs .

164 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

(Por tanto, ξ es un proceso de Itô respecto a W y la igualdad de (4) se puedeescribir de la forma (Definición 4.8.1. (pág. 120)):

dξt = a(t ,ξt )d t +b(t ,ξt )dWt con condición inicial ξ0 = η, t ∈ JT .

Por consiguiente, ξ es solución fuerte (solución) de

dξt = a(t ,ξt )d t +b(t ,ξt )dWt con condición inicial ξ0 = η, t ∈ JT ).

Además esta solución, ξ, es única y cumple que

E

(sups∈JT

|ξs |2)<+∞.

(La unicidad significa: si ξ′ =ξ′t

t∈JT

, ξ′′ =ξ′′t

t∈JT

son soluciones de

dξt = a(t ,ξt )d t +b(t ,ξt )dWt con condición inicial ξ0 = η, t ∈ JT ,

entonces (P-a.s.) para todo t ∈ JT , ξ′t = ξ′′t .)

Indicación de la demostración: Sea

E =ξ= (ξs)s∈JT

: ξ es un proceso estocástico real, medible, continuo y

adoptado aFt t∈JT tal queE

(sups∈JT

|ξs |2)<+∞

.

Entonces E es un espacio vectorial real. Para cada ξ ∈ E , ponemos

‖ξ‖ =

√√√√E

(sups∈JT

|ξs |2)

.

Entonces, (E ,‖ · ‖) es un espacio vectorial real normado y completo. Seconstruye la aplicación Φ : E → E de la siguiente forma: Para todo ξ ∈ E ,

Φ(ξ)t = η+∫t

0a(s,ξs )d s +

∫t

0b(s,ξs )dWs , t ∈ JT .

4.9. ECUACIONES DIFERENCIALES ESTOCÁSTICAS. SOLUCIÓN FUERTE 165

Se prueba que Φ está bien definida, ya que si ξ, η ∈ E , entonces

E

(supt∈JT

∣∣Φ(ξ)t −Φ(η)t∣∣2

)6 2

(K 2T 2 +4K 2T

)E

(supt∈JT

∣∣ξt −ηt∣∣2

), (I )

(y por tanto, Φ(ξ)−Φ(η) ∈ E ), y

E

(supt∈JT

|Φ(0)t |2)<+∞,

(y así Φ(0) ∈ E ). Además de la desigualdad (I),

‖Φ(ξ)−Φ(η)‖6

√2(K 2T 2 +4K 2T

)· ‖ξ− η‖ = k(T ) · ‖ξ− η‖,

donde k(T ) =√

2(K 2T 2 +4K 2T

).

Si T es tal que k(T ) < 1, entonces Φ es aplicación contractiva de E en E ypor tanto, admite un único punto fijo en E , ξ. Por consiguiente,

ξt = η+∫t

0a(s, ξs )d s +

∫t

0b(s, ξs )dWs , t ∈ JT ,

y ξt , t ∈ JT , es solución de

dξt = a(t ,ξt )d t +b(t ,ξt )dWt , ξ0 = η, t ∈ JT .

Se prueba, por último, que una solución de

dξt = a(t ,ξt )d t +b(t ,ξt )dWt , ξ0 = η, t ∈ JT ,

debe pertenecer a E y ser un punto fijo de Φ.Cuando T es arbitrario, se toma n suficientemente grande y se razona co-mo antes, sucesivamente en los intervalos

[0,

T

n

],

[T

n,

2T

n

], ...,

[(n −1)T

n,T

].

Teorema 4.9.12 (Proceso estocástico continuo de Ornstein-Ulhenbeck).Sean (Ω,F ,P ) un espacio de probabilidad, Ft t∈J∞ una filtración de (Ω,F ),

166 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

W = Wt t∈J∞ un proceso de Wiener, en (Ω,F ,P ), respecto a Ft t∈J∞ y a P,a(t , x) =−cx, b(t , x) =σ, donde t ∈ J∞, x ∈ R y c, σ son constantes reales, ysea η una variable aleatoria F0-medible tal que E

(η2

)<+∞.

Entonces se cumplen (1), (2) y (3) de la proposición anterior, y por tanto,para todo T > 0 existe ξ= ξt t∈JT

proceso estocástico, en (Ω,F ,P ), real, me-dible, adaptado a Ft t∈JT

y continuo tal que ξ es solución fuerte de

dξt =−cξt d t +σdWt , ξ0 = η, t ∈ JT , (∗)

y dicha solución es única y se cumple que

E

(supt∈JT

|ξt |2)<+∞.

A esta solución ξ, ( que es un proceso de Itô respecto a W ), se le llama procesode Ornstein-Ulhenbeck y a (∗) se le llama ecuación de Langevin.Explicitemos esta solución ξ: Ponemos ζt = ξt exp(ct ) y aplicamos la fórmu-la del Ejemplo 6 (pág. 144). Entonces, (P-a.s.), t ∈ JT ,

ζt = ξt ·exp(ct ) = η+∫t

0

[ξs c exp(cs)+exp(cs)(−cξs )

]d s+

∫t

0exp(cs)σdWs ,

(exp(ct ) = 1+∫t

0 c exp(cs)d s (o bien d(exp(ct )) = c exp(ct )d t)), de donde

ξt = ηexp(−ct )+σexp(−ct )∫t

0exp(cs)dWs , (P −a.s.), t ∈ JT .

Calculemos la media y la varianza de ξt para el caso η constante:

E (ξt ) = ηexp(−ct )+σexp(−ct )E

(∫t

0exp(cs)dWs

)= ηexp(−ct ),

ya que

E

(∫t

0exp(2cs)d s

)<+∞,

(por tanto, exp(ct ), t ∈ JT , es de clase ET respecto a Ft t∈JTy a P, (pág. 97)),

y así∫t

0 exp(cs)dWs , t ∈ JT , es una martingala respecto a Ft t∈JT y a P quees nula en t = 0, de donde se deduce que E

(∫t0 exp(cs)dWs

)= 0.

4.9. ECUACIONES DIFERENCIALES ESTOCÁSTICAS. SOLUCIÓN FUERTE 167

Análogamente:

E (ξt −E (ξt ))2 =σ2 exp(−2ct )E

[(∫t

0exp(cs)dWs

)2]=

σ2 exp(−2ct )E

(∫t

0exp(2cs)d s

)=

σ2

2c· (1−exp(−2ct )),

ya que, en general, cuando f1(t ,ω), f2(t ,ω) son de clase ET respecto a lafiltración Ft t∈JT

y a P (pág. 97), entonces,

E

([∫t

0f1(s,ω)dWs

][∫t

0f2(s,ω)dWs

])= E

(∫t

0f1(s,ω) f2(s,ω)d s

).

Por último, teniendo en cuenta el Ejemplo 2. (pág. 160),

∫t

0σexp(−ct )exp(cs)dWs

es Gaussiana de media 0 y varianza (σ2/2c) · (1−exp(−2ct )), de donde

ξt = ηexp(−ct )+∫t

0σexp(−ct )exp(cs)dWs

es Gaussiana de media ηexp(−ct ), (η sigue considerándose constante) y va-rianza (σ2/2c) · (1−exp(−2ct )). Más aún, el proceso estocástico ξ, es Gaus-siano, es decir, si λ1,...,λn son números reales y 0 6 t1 < ... < tn , entoncesλ1ξt1 + ...+λnξtn es Gaussiana.

Para probar que ξ, es efectivamente Gaussiana (como proceso) se procedeasí:

ξti = ηexp(−cti )+∫T

0Is6ti σexp(−cti )exp(cs)dWs = mi +

∫T

0fi (s)dWs

y

λ1ξt1 + ...+λnξtn =n∑

i=1λi mi +

∫T

0

(n∑

i=1λi fi (s)

)dWs = m +

∫T

0f (s)dWs .

168 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

Observamos que la función f (s) es determinista y∫+∞

0 f 2(s)d s <+∞. Portanto, ∫T

0f (s)dWs

es Gaussiana de media 0 y varianza∫+∞

0 f 2(s)d s. Así, λ1ξt1 + ...+λnξtn esGaussiana de media m =

∑ni=1λi mi y varianza

∫+∞0 f 2(s)d s.

Finalmente, ξ= ξt t∈JTes un proceso de Markov respecto a Ft t∈JT y

a P , con probabilidad de transición

p(s, x; t , A) = P (ξt ∈ A|ξs = x) =1

√2πσ2(−2c)−1(exp(−2c(t − s))−1)

·

·∫

Aexp

( −(y −x exp(−c(t − s)))2

σ2(−c)−1(exp(−2c(t − s))−1)

)d y, s, t ∈ JT , s < t , x ∈R, A ∈B(R).

Por tanto, ξ es un proceso de Markov con densidad de transición, (véase laDefinición 4.4.13., pág. 48),

p(s, x|t , y) =1

√2πσ2(−2c)−1(exp(−2c(t − s))−1)

·

·exp

( −(y −x exp(−c(t − s)))2

σ2(−c)−1(exp(−2c(t − s))−1)

),

y se comprueba que p(s, x|t , y) satisface las ecuaciones

∂p(s,x|t ,y)∂t = c · ∂p(s,x|t ,y)

∂y + σ2

2∂2p(s,x|t ,y)

∂y2 (∗∗)∂p(s,x|t ,y)

∂s =−c · ∂p(s,x|t ,y)∂x − σ2

2∂2p(s,x|t ,y)

∂x2 (∗∗∗).

La ecuación (∗∗) es la ecuación forward de Kolmogorov o ecuación Fokker-Planck correspondiente a la ecuación de Langevin (∗), y la ecuación (∗∗∗) es ecuación backward de Kolmogorov correspondiente a (∗). Se puededemostrar que la ecuación de Fokker-Planck, (∗∗), determina la ecuaciónde Langevin (∗).Obsérvese que si c = 0 y σ= 1, (es decir, la ecuación de Langevin se reducea dξt = dWt , ξ0 = η, t ∈ JT ), se obtienen las ecuaciones de la página 82. Porotro lado, si σ = 0, la ecuación de Langevin se convierte en dξt = −cξt d t ,ξ0 = η, t ∈ JT , y la correspondiente ecuación de Fokker-Planck es, en este

caso, ∂p(s,x|t ,y)∂t = c · ∂p(s,x|t ,y)

∂y .

4.9. ECUACIONES DIFERENCIALES ESTOCÁSTICAS. SOLUCIÓN FUERTE 169

Flujo estocástico y Procesos de Markov

Sean (Ω,F ,P ) un espacio de probabilidad, Ft t∈J∞ una filtración de (Ω,F )y W = Wt t∈J∞ un proceso de Wiener respecto a Ft t∈J∞ y a P . Sean b,σ :J∞×R→R medibles y ζ una variable aleatoria F0-medible.Ya hemos dicho qué significa encontrar una solución de

ξt = ζ+∫t

0b(s,ξs)d s +

∫t

0σ(s,ξs)dWs , t > 0, (∗),

(o de

dξt = b(t ,ξt )d t +σ(t ,ξt )dWt , ξ0 = ζ, t ∈ J∞),

(Para todo T > 0, encontrar un proceso estocástico ξ = ξt t∈JT, en el es-

pacio (Ω,F ,P ), real, medible, continuo y adaptado a Ft t∈JTtal que las

integrales de (∗) tengan sentido para ξ y ξ satisfaga, (P-a.s.), a (∗)).

Lo que nos planteamos, ahora, es encontrar una solución de

ξt = x +∫t

sb(u,ξu)du +

∫t

sσ(u,ξu)dWu , t > s, x ∈R,

solución que designaremos porξs,x

t

t>s . Se prueba un resultado más ge-

neral:Con las hipótesis de la Proposición 4.9.11. (pág. 163), (allí eran a, b, aquíson b, σ), se prueba que existe un proceso estocástico ξs,x

t , que depende de(s, x, t ), que es continuo en las tres variables (s, x, t ) y

ξs,x

t

t>s es solución

(única) de

ξs,xt = x +

∫t

sb(u,ξs,x

u )du +∫t

sσ(u,ξs,x

u )dWu , t > s, x ∈R.

Además,

ξ0,xt = ξ

s,ξ0,xs

t , (P −a.s.), s 6 t .

(Es un teorema análogo al teorema del flujo de las ecuaciones diferencialesordinarias).

170 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

Teorema 4.9.13. Sean (Ω,F ;P ) un espacio de probabilidad, Ft t∈J∞ unafiltración de (Ω,F ) y W = Wt t∈J∞ un proceso de Wiener, en (Ω,F ,P ), res-pecto a Ft t∈J∞ y a P. Sean b,σ : J∞ ×R → R medibles y ζ una variablealeatoria F0-medible. Sea ξ= ξt t∈J∞ una solución de

ξt = ζ+∫t

0b(s,ξs)d s +

∫t

0σ(s,ξs)dWs , t > 0.

Supongamos que se cumplen las hipótesis de la Proposición 4.9.11. (pág.163) y sea

ξs,x

t

t>s , la solución de

ξs,xt = x +

∫t

sb(u,ξs,x

u )du +∫t

sσ(u,ξs,x

u )dWu , t > s, x ∈R.

Entonces para toda función medible y acotada f : R→R, se tiene:

(P −a.s.), E(

f (ξt ) | Fs)=Φ (ξs ) , dondeΦ(x) = E

(f(ξs,x

t

)), s 6 t ,

o bien, con otra notación,

(P −a.s.), E(

f (ξt ) | Fs)= E

(f(ξs,x

t

))|x=ξs , s 6 t ,

En particular, (por las propiedades de la esperanza condicionada, (V. 2, pág.221)), E ( f (ξt )|Fs ) = E ( f (ξt )|ξs ), s < t , y ξ es un proceso de Markov respectoa Ft t∈J∞ y a P.Además, si τ es un tiempo de parada respecto a Ft t∈J∞ , (pág. 65), paratoda función medible y acotada f : R→ R, se verifica que E

(f (ξτ+t ) |Fτ

)=

E(

f (ξτ+t ) |ξτ), (P-a.s.), t ∈ J∞, (es decir, ξ cumple la propiedad de Markov

fuerte).

Teorema 4.9.14. Tomamos las mismas hipótesis del teorema anterior. Sea,además, r (s, x) una función medible y positiva de R2 en R. Entonces se tiene:Si t > s, (P-a.s.),

E

(exp

(−

∫t

sr (u,ξu)du

)· f (ξt ) | Fs

)=

= E

(exp

(−

∫t

sr(u,ξs,x

u

)du

)· f

(ξs,x

t

))|x=ξs ,

para toda función f medible y acotada, f : R→R.

4.9. ECUACIONES DIFERENCIALES ESTOCÁSTICAS. SOLUCIÓN FUERTE 171

Observación 1. Si b y σ, introducidas anteriormente, sólo dependen dex ∈R, entonces para toda función f medible y acotada se tiene que:

E(

f(ξs,x

s+t

))= E

(f(ξ0,x

t

)), x ∈R.

Si b y σ sólo dependen de x ∈ R y r es una función que sólo depende dex ∈R, entonces se tiene que:

E

(exp

(−

∫s+t

sr(ξs,x

u

)du

)· f

(ξs,x

s+t

))= E

(exp

(−

∫t

0r(ξ0,x

u

)du

)· f

(ξ0,x

t

)),

para toda función f medible y acotada, y siguiendo en este caso se tieneque, para toda función f medible y acotada

E

(exp

(−

∫t

sr (ξu)du

)· f (ξt ) | Fs

)=

= E

(exp

(−

∫t−s

0r(ξ0,x

u

)du

)· f

(ξ0,x

t−s

))|x=ξs ,

Observación 2. Sean (Ω,F ,P ) un espacio de probabilidad, Ft t∈J∞ unafiltración de (Ω,F ) y W = Wt t∈J∞ un proceso de Wiener en (Ω,F ,P ) res-pecto a Ft t∈J∞ y a P . Entonces,

(1) Se tiene la fórmula∫T

0 Wt d t =∫T

0 (T − t )dWt .

(2) ξt = exp(Wt − 1

2 t)

es solución (única) de dξt = ξt dWt , ξ0 = 1.

(3) La ecuación diferencial estocástica

d X t = (AX t +a)d t + (B X t +b)dWt , X0 = c,

tiene la siguiente solución (única):

X t =Φt

(c +

∫t

−1s (a−Bb)d s +

∫t

−1s bdWs

),

donde

Φt = 1+∫t

0AΦs d s +

∫t

0BΦs dWs ,

es decir, (Problema 9.4),

Φt = exp

((A−

B 2

2

)· t +BWt

).

172 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

(4) W 2t = t + 2

∫t0 WsdWs , (por tanto, W 2

t − t es una martingala) (véase elProblema 6.2. (pág. 96)).

Ejercicios y problemas

9.1. Estudiar la equivalencia entre

P

(supt∈J1

| ξi ,t −ξ′i ,t | > 0

)= 0 y P

(supt∈J1

| ξt −ξ′t | > 0

)= 0,

donde

| ξt −ξ′t | =√

n∑

i=1| ξi ,t −ξ′i ,t |

2.

9.2. Probar las igualdades

supt∈J1

E(exp

(δξ2

t

))= sup

t∈J1

E(exp

(δexp(2Wt − t )

))=+∞.

del Ejemplo 1 (páginas 156, 157 y 158).

9.3. Pruébese la unicidad mencionada en el Ejemplo 3, (pág. 160), directa-mente.Indicación: Sea ηt , t ∈ JT , otra solución de

dξt =µξt d t +σξt dWt , ξ0 = x0, t ∈ JT .

Se pone

ζt =η0

f (t ,Wt ), µ′ =−µ+σ2 y σ′ =−σ.

Entonces,

ζt = exp

[(µ′−

σ′2

2

)· t +σ′Wt

], t ∈ JT .

Finalmente, se aplica el resultado del Ejemplo 6 (pág. 144) para calcularηt ·ζt

t∈JT

.

9.4. Probar que ξt , del Teorema 4.9.12. (pág. 165), es efectivamente Gaus-siana de media ηexp(−ct ) y varianza (σ2/2c)(1−exp(−2ct )).

4.9. ECUACIONES DIFERENCIALES ESTOCÁSTICAS. SOLUCIÓN FUERTE 173

Indicación: Se pone γt =∫t

0 σexp(−c t )exp(cs)dWs que sabemos que esGaussiana de media 0 y varianza (σ2/2c) · (1− exp(−2c t ). A continuaciónse calcula la característica de γt y la característica de ηexp(−c t )+γt .

9.5. Sabemos, del Teorema 4.9.10. (pág. 162), que

ξt = exp

((µ−

σ2

2

)· t +σWt

), t ∈ JT ,

es solución (única) de

dξt =µξt d t +σξt dWt , ξ0 = 1, t ∈ JT .

Hallar la ecuación diferencial estocástica de la cual ξ−1t es solución.

Indicación: Se tiene

ξ−1t = exp

((−µ+

σ2

2

)· t −σWt

)= exp

((−µ+σ2 −

σ2

2

)· t −σWt

).

9.6. (En relación con el problema anterior). Sea η=ηt

t∈JT

la solución dela ecuación diferencial estocástica

dηt =(µηt +µ′)d t +

(σηt +σ′)dWt , η0 = 0.

Probar que

ηtξ−1t =

∫t

0ξ−1

s (µ′−σσ′)d s +∫t

0ξ−1

s σ′dWs .

Indicación: Aplicar el Ejemplo 6 (pág. 144).

9.7. (En relación con los dos problemas anteriores). Hallar una expresiónde ηt en la que no figuren integrales estocásticas (

∫t0 ·dWs ).

Indicación: Sabemos que

ξ−1t = 1+

∫t

0(−µ+σ2)ξ−1

s d s −∫t

0σξ−1

s dWs .

9.8. Calcular∫t

0 exp(cs)dWs .Indicación: Se tiene que exp(ct ) = 1+

∫t0 c exp(cs)d s y Wt =

∫t0 dWs , y por

tanto,

exp(ct ) ·Wt =∫t

0c exp(cs) ·Ws d s +

∫t

0exp(cs)dWs ,

por el Ejemplo 6 (pág. 144).

174 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

4.10. Ecuaciones diferenciales estocásticas. Solu-ción débil

Versión unidimensional de solución débil

Recordamos las notaciones introducidas en la página 145: Sean C el con-junto de funciones continuas de [0,1] en R, (por tanto, C ⊂ R[0,1]), B1 laσ-álgebra en C definida por B1 = σ(x : ts , s 6 1), (es decir, B1 es la máspequeña σ-álgebra en C que hace medibles a las funciones ts : C → R,0 6 s 6 1, donde ts (x) = xs = x(s) para todo x ∈ C ), y la σ-álgebra en C ,Bt =σ(x : ts , s 6 t ), 0 6 t 6 1, (es decir, Bt es la más pequeña σ-álgebra enC que hace medible a las funciones ts : C →R, 0 6 s 6 t ).

Sean a,b : [0,1]×C → R funciones no anticipativas respecto a Bt t∈J1 ,(pág. 96). Sea F (x) una función de distribución en R (V. 2, pág. 78).

Si existen (Ω,F ,P ) espacio de probabilidad, Ft t∈J1 filtración de (Ω,F ),W = Wt t∈J1

proceso de Wiener respecto a Ft t∈J1y a P , ξ= ξt t∈J1

proce-so estocástico en (Ω,F ,P ), real, medible, adaptado a Ft t∈J1 y continuo,y una variable aleatoria η en (Ω,F ,P ) tales que:

(1) ξ0 = η.

(2) P(ω ∈Ω :

∫10 |a(t , X ξ(ω))|d t <+∞

)= 1, (pág. 4).

(3) P(ω ∈Ω :

∫10 b2(t , X ξ(ω))d t <+∞

)= 1, (pág. 4).

(4) Con probabilidad 1, para todo t ∈ J1

ξt = η+∫t

0a(·, ξ)s d s +

∫t

0b(·, ξ)s dWs .

(5) P ω : ξ0(ω) 6 x = F (x),

entonces, decimos que ξ es solución débil (o solución en sentido débil) de

dξt = a(·, ξ)t d t +b(·, ξ)t dWt con condición inicial η y distribución F (x).

4.11. REPRESENTACIÓN DE MARTINGALAS DE CUADRADO INTEGRABLE 175

(Por tanto, el proceso estocástico ξ es un proceso de Itô respecto al procesode Wiener W , tomando las funciones no anticipativas respecto a Ft t∈J1 ,a(·, ξ), b(·, ξ)) dadas por a(·, ξ)(t ,ω) = a(t , X ξ(ω)) y b(·, ξ)(t ,ω) = b(t , X ξ(ω)),t ∈ J1, ω ∈Ω.

Si ξ es solución débil de la ecuación diferencial estocástica anterior y

Ft =Fξt , t ∈ J1, entonces W es un proceso de Wiener respecto a

F

ξt

t∈J1

y a P , y por tanto, F Wt ⊂F

ξt , t ∈ J1.

Ejercicios y problemas

10.1. Probar que toda solución fuerte de la ecuación diferencial estocásticadξt = a(·, ξ)t d t+b(·, ξ)t dWt con condición inicial η, (pág. 146), es solucióndébil, y poner un ejemplo de una ecuación diferencial estocástica que ten-ga solución débil y no tenga solución fuerte.

4.11. Representación de martingalas de cuadra-do integrable

Sean (Ω,F ,P ) un espacio de probabilidad completo y Ft t∈J∞ una filtra-ción completa respecto a P de (Ω,F ) continua por la derecha (es decir,Ft =

⋂s>t Fs , t ∈ J∞). Recordamos (definición) que una martingala cua-

drado integrable, µ =µt

t∈JT

es una martingala respecto a Ft t∈JT y a P

(pág. 58), continua por la derecha, tal que supt∈JTE

(µ2

t

)<+∞. A la familia

de dichas martingalas cuadrado integrables la designaremos por MT . SiT = +∞, ponemos M+∞ = M (Obsérvese que si

µt

t∈JT

es un elemento

de MT , entoncesµ2

t

t∈JT

es submartingala respecto a Ft t∈JT y a P ).

Teorema 4.11.1. Sea µ =µt

t∈JT

un elemento de MT . Entonces existe unúnico (salvo equivalencia estocástica, (Definición 4.1.1.(1), pág 2), procesoestocástico creciente y predecible, que designaremos por< µ>=

< µ>t

t∈JT

,tal que para todo t ∈ JT

µ2t = νt+< µ>t , (P −a.s.) (∗)

176 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

donde ν = νt t∈JT es una martingala respecto a Ft t∈JT y a P. Además, sit > s, se tiene que

E[(µt −µs

)2 | Fs

]= E

[< µ>t −< µ>s | Fs

], (P −a.s.).

Recordemos la definición de proceso estocástico creciente y predecible:Un proceso estocástico α= αt t∈J∞ en el espacio de probabilidad (Ω,F ,P )se dice que es creciente respecto a la filtración Ft t∈J∞ , del espacio medi-ble (Ω,F ), si está adaptado a esa filtración, es continuo por la derecha,α0 = 0 (P-a.s.), y αs 6αt (P-a.s.), s 6 t , (véase la página 63).Un proceso estocástico α = αt t∈J∞ medible y creciente respecto a la fil-tración Ft t∈J∞ , se dice que es integrable si E (α+∞) <+∞.Sea α = αt t∈J∞ un proceso estocástico creciente respecto a la filtraciónFt t∈J∞ . Supongamos que para toda martingala ς = ςt t∈J∞ respecto aFt t∈J∞ y a P , acotada, positiva y continua por la derecha y con límite porla izquierda, se verifica que E

(∫+∞0 (ςs−)dαs

)= E (ς+∞α+∞). Con estas hi-

pótesis se dice que α es un proceso estocástico creciente y predecible.

Lema 4.11.2. Sea α= αt t∈J∞ un proceso estocástico, en el espacio de pro-babilidad (Ω,F ,P ), medible, adaptado a la filtración Ft t∈J∞ de (Ω,F ),creciente e integrable. Entonces, α es predecible si y sólo si para cualquiermartingala respecto a Ft t∈J∞ y a P, acotada, continua por la derecha ycon límite por la izquierda χ=

χt

t∈J∞

,

E

(∫T

0χs dαs

)= E

(∫T

0(χs−)dαs

), para todo T > 0.

Una supermartingala π= πt t∈J∞ respecto a Ft t∈J∞ y a P , no negativacon lımt→+∞ E (πt ) = 0, se llama un potencial.

Teorema 4.11.3 (Descomposición de Riesz). Sea χ =χt

t∈J∞

una super-martingala respecto a Ft t∈J∞ y a P, continua por la derecha, y tal quemayora a alguna submartingala ς= ςt t∈J∞ respecto a Ft t∈J∞ y a P. En-tonces, existen una martingala µ =

µt

t∈J∞

respecto Ft t∈J∞ y a P, y unpotencial π= πt t∈J∞ respecto a Ft t∈J∞ y a P, tales que para todo t ∈ J∞,χt = µt +πt (P-a.s.). Dicha descomposición es única salvo equivalencia es-tocástica, (Definición 4.1.1.(1), pág 2).

4.11. REPRESENTACIÓN DE MARTINGALAS DE CUADRADO INTEGRABLE 177

Teorema 4.11.4 (Descomposición de Doob-Meyer). Sea π = πt t∈J∞ unpotencial respecto a Ft t∈J∞ y a P, continuo por la derecha tal que πτ : τ ∈T, donde T es el conjunto de los tiempos de Markov respecto a (Ft )t∈J∞ , τ,con P (τ<+∞)= 1, es uniformemente integrable,

(lım

x→+∞supτ∈T

|πτ|>x|πτ|dP = 0

).

Entonces, existe un proceso estocástico creciente e integrable α = αt t∈J∞medible y adaptado a Ft t∈J∞ tal que

πt = E (α+∞ | Ft )−αt , (P −a.s.), t > 0 (∗)

Además,

(1) α puede tomarse predecible.

(2) La descomposición (∗), con α, creciente y predecible, es única.

Corolario 4.11.5. Sea χ=χt

t∈J∞

una supermartingala respecto a Ft t∈J∞

y a P, continua por la derecha tal queχτ : τ ∈ T

, (como en el teorema prece-

dente: T=τ : τ es tiempo de Markov respecto a Ft t∈J∞ con P (τ<+∞) = 1),es uniformemente integrable. Entonces existe una martingala µ =

µt

t∈J∞

respecto a Ft t∈J∞ y a P, continua por la derecha y uniformemente integra-ble, y existe α= αt t∈J∞ proceso estocástico creciente y predecible respecto aFt t∈J∞ y a P, e integrable tal que

χt =µt −αt , (P −a.s.), t ∈ J∞.

Esta descomposición es única (salvo equivalencia estocástica).

Observación. El proceso estocásticoχ2

t

t∈JT

, donde el proceso estocásti-

coχt

t∈JT

es una martingala de MT , es una submartingala no negativa y

se prueba que el proceso−χ2

t

t∈JT

pertenece a la clase DL, donde

DL = υt t∈JT : υt t∈JT es supermartingala respecto a Ft t∈JT y a P

con trayectorias continuas por la derecha, tal que para todo a, a ∈ JT ,

la familia υτ : τ ∈Ta , donde Ta es el conjunto de los tiempos de Markov

respecto a Ft t∈JT , τ, con P (τ6 a) = 1, es uniformemente integrable.

178 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

De hecho se tiene un resultado más completo:

(a) Cualquier martingala respecto a Ft t∈JTy a P continua por la derecha

pertenece a DL.

(b) Cualquier martingala respecto a Ft t∈JTy a P continua por la derecha

y uniformemente integrable pertenece a D, donde

D = υt t∈JT : υt t∈JT es supermartingala respecto a Ft t∈JT y a

P, continua por la derecha y υττ∈T, donde T es el conjunto de

tiempos de Markov respecto a Ft t∈JT , τ , con P (τ<+∞)= 1,

es uniformemente integrable.

(c) Cualquier supermartingala respecto a Ft t∈JT y a P negativa y conti-nua por la derecha pertenece a DL.

Proposición 4.11.6. Sea υt t∈J∞ una submartingala (o supermartingala),en el espacio de probabilidad (Ω,F ,P ), respecto a la filtación Ft t∈J∞ , de(Ω,F ), y a P, con trayectorias continuas por la derecha. Entonces, para todot > 0 (P-a.s.) existe límite por la izquierda lıms↑t υs(= υt−).

Teorema 4.11.7. Sea (υt )t∈J∞ una submartingala, en el espacio de probabi-lidad (Ω,F ,P ), respecto a la filtración Ft t∈J∞ , de (Ω,F ), y a P, con trayec-torias continuas por la derecha tal que sup

E

(υ+t

): t ∈ J∞

<+∞. Entonces,

se tiene con probabilidad 1 que

lımt→+∞

υt (= υ+∞) existe y E(υ++∞

)<+∞.

Respecto a la demostración del Teorema 4.11.1., se tiene que (∗) es con-secuencia del teorema de descomposición de Doob-Meyer (el corolariode dicho teorema aplicado a

−υ2

t

t∈J∞

, que es medible y está adaptadoa Ft t∈J∞). La segunda parte del teorema se prueba teniendo en cuenta(∗) y las fórmulas (Problema 5.6., pág. 77):

E[(µt −µs

)| Fs

]= 0, E

[υ2

t −υ2s | Fs

]= E

[(υt −υs )2 | Fs

], (P −a.s.).

Ejemplo 1. Sea W = Wt t∈JTun proceso de Wiener en un espacio de pro-

babilidad (Ω,F ,P ) respecto a una filtración Ft t∈JT de (Ω,F ) y a P , (pág.

4.11. REPRESENTACIÓN DE MARTINGALAS DE CUADRADO INTEGRABLE 179

83). Entonces, se tiene que W es un elemento de MT yW 2

t − t

t∈JT, es una

martingala respecto a la filtración Ft t∈JT y a P , (pág. 96), y < W >t= t , (P-a.s.), t ∈ JT .

Ejemplo 2. Sean (Ω,F ,P ) un espacio de probabilidad, Ft t∈JT una filtra-ción de (Ω,F ), a(t ,ω) una función de clase ET respecto a Ft t∈JT

y a P ,(pág. 97), W = Wt t∈JT un proceso de Wiener en (Ω,F ,P ) respecto a lafiltración dada y a P , (pág. 83), y υ = υt t∈JT

la martingala continua (pág.103)

υt =∫t

0a(s,ω)dWs , t ∈ JT ,

(la continuidad es una de las propiedades de la integral estocástica). En-tonces, por la fórmula de Itô, (Teorema 4.8.5., pág. 128), aplicada a υt yf (t , x) = x2, se tiene

υ2t =

∫t

0a2(s,ω)d s +2

∫t

0υs a(s,ω)dWs , (P −a.s.).

Además υ es un elemento de MT , ya que

E

[(∫t

0a(s,ω)dWs

)2]= E

(∫t

0a2(s,ω)d s

).

Por último

ςt = 2∫t

0υs a(s,ω)dWs = υ2

t −∫t

0a2(s,ω)d s, t ∈ JT

es una martingala respecto a la filtración Ft t∈JT y a P , (ya que se tiene la

condición E(∫T

0 υ2s a2(s,ω)d s

)<+∞), y

∫t

0a2(s,ω)d s, t ∈ JT ,

es un proceso estocástico creciente y predecible. Así,

∫t

0a2(s,ω)d s =< υ>t , t ∈ JT .

180 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

Teorema 4.11.8. Sean υ= υt t∈JT , ς= ςt t∈JTelementos de MT . Entonces

existe un único (salvo equivalencia estocástica) proceso estocástico < υ, ς>t ,t ∈ JT , que es la diferencia entre dos procesos estocásticos crecientes y pre-decibles, tal que para todo t , t ∈ JT , υtςt = µt+ < υ, ς >t , (P-a.s.), dondeµ=

µt

t∈JT

es una martingala respecto a Ft t∈JT y a P. Además, para todot > s,

E [(υt −υs ) (ςt −ςs) | Fs ] = E [< υ, ς>t −< υ, ς>s | Fs] , (P −a.s.).

Indicación de la demostración: Se comprueba que (υ− ς =) υt −ςt t∈JT, y

(υ+ ς =) υt +ςt t∈JT, son elementos de MT . Se aplica el Teorema 4.11.1.,

pág. 175, a estos elementos y tomamos

< υ, ς>t=1

4· [< υ+ ς>t −< υ− ς>t ] , µt = υtςt−< υ, ς>t .

Entonces,< υ, ς>t es la diferencia entre dos procesos estocásticos crecien-tes y predecibles, y

E [υtςt −υsςs |Fs ] = E [< υ, ς>t −< υ, ς>s |Fs ]

y de esta última igualdad se deduce que µ=µt

t∈JT

es martingala respec-to a Ft t∈JT

y a P .

Observación. En general < υ+ ς>t 6=< υ>t +< ς>t . Cuando < υ, ς>t= 0,t ∈ JT , entonces < υ+ ς >t=< υ >t + < ς >t , (P-a.s.), t ∈ JT . Además, setiene que: < υ, ς >t= 0, t ∈ JT , equivale a que υtςt t∈JT

es una martingalarespecto a Ft t∈JT

y a P .

Ejemplo 3. Sea W = Wt t∈JT un proceso de Wiener, en el espacio de proba-bilidad (Ω,F ,P ), respecto a la filtración Ft t∈JT

de (Ω,F ) y a P , y a(t ,ω),b(t ,ω) funciones de clase de ET respecto a Ft t∈JT y a P , (pág. 97), y

υt =∫t

0a(s,ω)dWs , ςt =

∫t

0b(s,ω)dWs .

Entonces,υt t∈JT , ςt t∈JT

4.11. REPRESENTACIÓN DE MARTINGALAS DE CUADRADO INTEGRABLE 181

son martingalas continuas que pertenecen a MT y por la fórmula de inte-gración por partes, (pág. 144)

υtςt =∫t

0a(s,ω)b(s,ω)d s +

∫t

0[υs b(s,ω)+ςs a(s,ω)] dWs , (P −a.s.).

Por último se tiene que

∫t

0[υs b(s,ω)+ςs a(s,ω)] dWs , t ∈ JT ,

es una martingala respecto a Ft t∈JT y a P , y

∫t

0a(s,ω)b(s,ω)d s, t ∈ JT ,

es la diferencia entre dos procesos estocásticos crecientes y predecibles.Así,

< υ, ς>t=∫t

0a(s,ω)b(s,ω)d s, t ∈ JT .

En particular, si b(s,ω) ≡ 1, entonces

ςt =Wt y < υ, ς>t=< υ,W >t=∫t

0a(s,ω)d s, (P −a.s.), t ∈ JT .

En el teorema que sigue, se establece una generalización de la últimafórmula, (υt será un elemento cualquiera de MT , no necesariamente υt =∫t

0 as dWs ).

Teorema 4.11.9. Sean W = Wt t∈JT un proceso de Wiener, en el espaciode probabilidad (Ω,F ,P ), respecto a la filtración Ft t∈JT de (Ω,F ) y a P,y υ = υt t∈JT un elemento de MT , (pág. 175). Supongamos que Ft t∈JT

es continua por la derecha. Entonces existe un proceso estocástico medibleadaptado a la filtración Ft t∈JT , a(t ,ω)t∈JT con:

E(∫T

0 a2(s,ω)d s)<+∞, (es decir, a(t ,ω) es una función de clase ET respecto

a Ft t∈JTy a P), tal que para todo t ∈ JT ,

< υ,W >t=∫t

0a(s,ω)d s, (P −a.s.).

182 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

Teorema fundamental de representación de martingalas cuadrado inte-grables

Teorema 4.11.10. Sean W = Wt t∈JT un proceso de Wiener en un espaciode probabilidad (Ω,F ,P ) respecto a una filtración continua por la derechaFt t∈JT , de (Ω,F ), y a P, y υ = υt t∈JT un elemento de MT , (pág. 175).Entonces,

υt =∫t

0a(s,ω)dWs +ςt , (P −a.s.), t ∈ JT ,

donde a(t ,ω), t ∈ JT , ω ∈Ω, es una función de clase ET respecto a Ft t∈JTy

a P, (pág. 97), tal que

< υ,W >t=∫t

0a(s,ω)d s

y ς= ςt t∈JTes un elemento de MT .

Además, si ponemos

χt =∫t

0a(s,ω)dWs ,

se tiene que χ=χt

t∈JT

es un elemento de MT tal que < ς, χ>t= 0, t ∈ JT .

Indicación de la demostración: Por el Teorema 4.11.9., (pág. 181), se ob-tiene una función a(t ,ω), t ∈ JT , ω ∈ Ω, como se requiere en el Teore-ma 4.11.10.. A continuación se toma ςt = υt −χt , t ∈ JT , y es claro queς= ςt t∈JT

es un elemento de MT . Se prueba que < υ, χ>t=∫t

0 a2(s,ω)d s,de donde (Ejemplo 2, pág. 179)

< ς, χ>t=< υ− χ, χ>t=< υ, χ>t −< χ>t= 0.

Observación. Se toman las hipótesis como en el Teoerema 4.11.10. Seaa(t ,ω) una función de clase ET respecto a Ft t∈JT y a P , (pág. 97), tal que

< υ,W >t=∫t

0as d s.

Entonces χt =∫t

0 as dWs es un elemento de MT y υt −χt (= ςt ), t ∈ JT , es unelemento de MT . Además, < ς, χ>t= 0, para todo t ∈ JT .

4.11. REPRESENTACIÓN DE MARTINGALAS DE CUADRADO INTEGRABLE 183

Ejemplo 4. Sean W = Wt t∈JT un proceso de Wiener en un espacio deprobabilidad (Ω,F ,P ) respecto a una filtración Ft t∈JT de (Ω,F ) y a P ,y υ= υt t∈JT

un elemento de MT , (pág. 175). Supongamos que

E(υ2

t

)= E

(∫t

0a2(s,ω)d s

),

donde a(s,ω) viene dada por el teorema anterior, (por tanto, se tiene queυt =

∫t0 a(s,ω)dWs +ςt , (P-a.s.)). Entonces ςt = 0, (P-a.s.), t ∈ JT , y por tan-

to,

υt =∫t

0a(s,ω)dWs .

En efecto:

E(υ2

t

)= E

(χt +ςt

)2 = E(χ2

t

)+E

(ς2

t

)+E

(2χtςt

),

donde χt =∫t

0 a(s,ω)dWs . Pero < ς, χ >t= 0, t ∈ JT , lo que equivale a queχtςt

t∈JT

es martingala respecto a Ft t∈JT y a P , (pág. 58). Así, E(2χtςt

)=

0 yE

(υ2

t

)= E

(χ2

t

)+E

(ς2

t

),

de donde E(ς2

t

)= 0 y ςt = 0, (P-a.s.), t ∈ JT , ya que por las propiedades de

las integrales estocásticas

E(χ2

t

)= E

(∫t

0a2(s,ω)d s

)= E

(υ2

t

).

Ejemplo 5. Sean W = Wt t∈JT un proceso de Wiener en un espacio deprobabilidad (Ω,F ,P ) respecto a una filtración Ft t∈JT

de (Ω,F ) y a P ,y a(t ,ω), t ∈ JT , ω ∈Ω, una función de clase ET respecto a Ft t∈JT y a P ,(pág. 97). Entonces, el proceso estocástico

∫t0 a(s,ω)dWs

t∈JT

es un ele-mento de MT .

El teorema que sigue, que es una suerte de recíproco del ejemplo ante-rior, se aplicará más adelante en los precios de los activos financieros.

Teorema 4.11.11. Sean W = Wt t∈JT un proceso de Wiener en un espacio

de probabilidad (Ω,F ,P ) respecto a la filtraciónF W

t

t∈JT

de (Ω,F ), ge-

nerada por W (pág. 23), y a P, y sea υ = υt t∈JT una martingala cuadrado

184 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

integrable (es decir, υ es una martingala respecto aF W

t

t∈JT

y a P, que es

continua por la derecha y supt∈JTE

(υ2

t

)<+∞). Entonces existe un proceso

estocástico a(s,ω)s∈JT medible y adaptado aF W

t

t∈JT

, con

E

(∫T

0a2(s,ω)d s

)<+∞,

(a es una función de clase ET respecto aF W

t

t∈JT

y a P), y tal que para

todo t ∈ JT ,

υt = υ0 +∫t

0a(s,ω)dWs , (P −a.s.).

Indicación de la demostración: Por el Teorema 4.11.9, (pág. 181), existe un

proceso estocástico a(t ,ω)t∈JT con E(∫T

0 a2(s,ω)d s)< +∞ (es decir, es

de clase ET respecto aF W

t

t∈JT

y a P ) tal que para todo t ∈ JT ,

< υ,W >t=∫t

0a(s,ω)d s, (P −a.s.).

Ponemos υ∗t = υt −υ0. Entoncesυ∗t

t∈JT

es de nuevo una martingala cua-drado integrable y

< υ∗,W >t=∫t

0a(s,ω)d s, (P −a.s.),

(ya que< υ0,W >t= 0, por ser υ0Wt , t ∈ JT , martingala respecto aF W

t

t∈JT

y a P , (pág. 58)). Así, por el Teorema 4.11.10., (Observación),

υ∗t =∫t

0a(s,ω)dWs +ςt , (P −a.s.), t ∈ JT ,

donde ς= ςt t∈JTes una martingala cuadrado integrable. Además, se tie-

ne que < ς, χ >t= 0, t ∈ JT , siendo χt =∫t

0 a(s,ω)dWs , lo que implica queςtχt

t∈JT

es martingala y por tanto,

E

(ςt ·

∫t

0a(s,ω)dWs

)= 0, t ∈ JT .

A partir de aquí se prueba que ςt = 0, (P-a.s.), t ∈ JT .

4.11. REPRESENTACIÓN DE MARTINGALAS DE CUADRADO INTEGRABLE 185

Teorema 4.11.12. Sea W = Wt t∈JT un proceso de Wiener en un espacio de

probabilidad (Ω,F ,P ) respecto a la filtraciónF W

t

t∈JT

de (Ω,F ), genera-

da por W (pág. 23), y a P, y sea ξ(ω) una variable aleatoria FT -medible conE

(ξ2

)< +∞. Entonces, existe un proceso estocástico a(t ,ω)t∈JT medible y

adaptado aF W

t

t∈JT

, y cumpliendo

E

(∫T

0a2(t ,ω)d t

)<+∞,

tal que

ξ= E (ξ)+∫T

0a(t ,ω)dWt , (P −a.s.).

Si, además, ξ y W constituyen un sistema Gaussiano, (pág. 35), entoncesexiste una función medible y determinística f (t ), t ∈ JT , verificando

∫T

0f 2(t )d t <+∞, tal que ξ= E (ξ)+

∫T

0f (t )dWt .

Indicación de la demostración: Se toma υt = E (ξ | Ft ), t ∈ JT , que sabemos

que es una martingala respecto aF W

t

t∈JT

y a P . De hecho se toma una

variante de esta martingala que sea continua por la derecha. Entonces, lamartingala υt t∈JT

es una martingala cuadrado integrable. Así, por el Teo-rema 4.11.11. (pág. 183), existe un proceso estocástico a(t ,ω)t∈JT , con

E(∫T

0 a2(t ,ω)d t)<+∞, y tal que para todo t , t ∈ JT ,

υt = υ0 +∫t

0a(s,ω)dWs , (P −a.s.).

En particular,

ξ= E (ξ)+∫T

0a(s,ω)dWs , (P −a.s.),

(F0 = ;,Ω), lo que prueba la primera parte del teorema.

Teorema 4.11.13. Sea W = Wt t∈JT un proceso de Wiener en un espacio

de probabilidad (Ω,F ,P ) respecto a la filtraciónF W

t

t∈JT

de (Ω,F ), ge-

nerada por W (pág. 23), y a P, y sea υ = υt t∈JT una martingala respec-

to aF W

t

t∈JT

y a P con trayectorias continuas por la derecha y tal que

186 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

supt∈JTE (|υt |) < +∞. Entonces, existe un proceso estocástico a(t ,ω)t∈JT

medible y adaptado aF W

t

t∈JT

tal que P(∫T

0 a2(t ,ω)d t <+∞)= 1, y para

todo t ∈ JT ,

υt = υ0 +∫t

0a(s,ω)dWs , (P −a.s.),

y esta representación es única, (en este caso a(t ,ω) es una función de clase

PT respecto aF W

t

t∈JT

y a P, (pág. 97)).

(Se prueba que υ tiene trayectorias continuas)

Teorema 4.11.14. Sea W = Wt t∈JT un proceso de Wiener en un espacio de

probabilidad (Ω,F ,P ) respecto a la filtraciónF W

t

t∈JT

de (Ω,F ), gene-

rada por W (pág. 23), y a P, y sea ξ(ω) una variable aleatoria FT -medible

tal que E (|ξ|) < +∞ y sea E(ξ|F W

t

), t ∈ JT una modificación continua por

la derecha de la esperanza condicionada. Entonces, se verifica que existe

un proceso estocástico a(t ,ω)t∈JT medible y adaptado aF W

t

t∈JT

con

P(∫T

0 a2(t ,ω)d t <+∞)= 1, (a es función de clase PT respecto a

F W

t

t∈JT

y a P), tal que para todo t ∈ JT ,

E(ξ | F W

t

)= E (ξ)+

∫t

0a(s,ω)dWs , (P −a.s.).

En particular,

ξ= E (ξ)+∫T

0a(s,ω)dWs , (P −a.s.).

Indicación de la demostración: Se toma υt = E(ξ|F W

t

), t ∈ JT , y se aplica el

teorema anterior.

Teorema 4.11.15. Sea W = Wt t∈JTun proceso de Wiener en un espacio

de probabilidad (Ω,F ,P ) respecto a la filtraciónF W

t

t∈JT

de (Ω,F ), ge-

nerada por W (pág. 23), y a P, y sea ξ una variable aleatoria FT -medibletal que P (ξ > 0) = 1 y E (ξ) < +∞. Entonces, existe un proceso estocástico

a(s,ω)s∈JT medible y adaptado aF W

t

t∈JT

con P(∫T

0 a2(t ,ω)d t <+∞)=

4.11. REPRESENTACIÓN DE MARTINGALAS DE CUADRADO INTEGRABLE 187

1, (a es una función de clase PT respecto aF W

t

t∈JT

y a P), tal que para

todo t ∈ JT , P-a.s.,

E(ξ | F W

t

)= exp

[∫t

0as dWs −

1

2

∫t

0a2

s d s

]·E (ξ).

En particular,

ξ= exp

[∫T

0as dWs −

1

2

∫T

0a2

s d s

]·E (ξ), (P −a.s.).

Indicación de la demostración: Se toma υt = E(ξ|F W

t

), t ∈ JT , una modi-

ficación continua por la derecha de la esperanza condicionada. Entonces,por el Teorema 4.11.14., existe un proceso estocástico f (t ,ω)t∈JT medi-

ble y adaptado aF W

t

t∈JT

tal que P(∫T

0 f 2(t ,ω)d t <+∞)= 1 y

υt = E(ξ | F W

t

)= E (ξ)+

∫t

0fs dWs , (P −a.s.), t ∈ JT .

Se prueba que P(ınft∈JT υt > 0

)= 1 y se tiene la función a(t ,ω) = f (t ,ω)/υt .

Entonces,

P

(∫T

0a2(t ,ω)d t <+∞

)= 1 y υt = E (ξ)+

∫t

0as xs dWs , (P −a.s.).

Sabemos que, (Ejemplo 3., pág. 140),

κt = E (ξ) ·exp

[∫t

0as dWs −

1

2

∫t

0a2

s d s

], t ∈ JT ,

cumple que

κs = E (ξ)+∫s

0kt ·at dWt , P −a.s. s ∈ JT (∗).

Por consiguiente, κ= κt t∈JT , es un proceso de Itô respecto a W y la igual-dad anterior la podemos escribir

dκs = κs as dWs con condición inicial E (ξ).

188 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

Así, κ es solución de dκs = κs as dWs con condición inicial E (ξ) y lo mismoocurre con υt , (en el sentido que κs , (lo mismo υs) es un proceso estocásti-co real, medible, continuo y adaptado que cumple (∗)).Se tiene también la unicidad de la solución de (∗). En efecto: Si χt es otrasolución de (∗), teniendo en cuenta los resultados de las páginas 141 y 142,se obtiene que χt · 1

κt= 1, (P-a.s.), de donde χt = κt , (P-a.s.). Luego en de-

finitiva υt = κt , (P-a.s.), t ∈ JT .

Ejercicios y problemas

11.1. Sean (Ω,F ,P ) un espacio de probabilidad, Ft t∈JTuna filtración

de (Ω,F ) y W = Wt t∈JT un proceso de Wiener, en (Ω,F ,P ), respectoa Ft t∈JT y a P . Sea a : JT ×Ω → R una función de clase PT respecto aFt t∈JT y a P . Probar que

E

(exp

(1

2

∫t

0as dWs

))6

√E

(exp

(1

2

∫t

0a2

s d s

)).

Indicación: Aplicar la desigualdad de Hölder, (V. 2, pág. 181), a la igualdadde variables aleatorias

exp

(1

2

∫t

0as dWs

)= exp

(1

2

∫t

0as dWs −

1

4

∫t

0a2

s d s

)·exp

(1

4

∫t

0a2

s d s

).

Aplicar la fórmula de Itô, (pág. 128), para probar que

(µt =)exp

(∫t

0as dWs −

1

2

∫t

0a2

s

)= 1+

∫t

0µs as dWs ,

y por tanto, que µ=µt

t∈JT

es una martingala local no negativa respectoa Ft t∈JT

y a P .

11.2. Sean (Ω,F ,P ) un espacio de probabilidad completo, Ft t∈JT una fil-tración en (Ω,F ) completa respecto a P , (pág. 24), W = Wt t∈JT un pro-ceso de Wiener respecto a Ft t∈JT y a P , y a : JT ×Ω→ R una función declase PT respecto a Ft t∈JT

y a P . Se define

ξt = exp

(∫t

0as dWs −

1

2

∫t

0a2

s d s

), t ∈ JT .

4.12. TEOREMA DE GIRSANOV 189

(1). Utilizar la fórmula de Itô para demostrar que ξ= ξt t∈JTes un proceso

de Itô con diferencial dξt = ξt at dWt y condición inicial ξ0 = 0, (véase elEjemplo 3 de la página 140).(2). Probar que si ξt at es una función de clase ET respecto a Ft t∈JT y a P ,entonces ξ es una martingala respecto a Ft t∈JT y a P .

(3). Utilizar el Problema 11.1 para probar que E(exp

(12

∫T0 a2

s d s))

< +∞,

(condición de Novikov), implica que E(exp

(12

∫t0 as dWs

))<+∞ para todo

t ∈ JT , (condición de Kazamaki), y que esta última condición implica queξ es martingala respecto a Ft t∈JT y a P .

4.12. Teorema de Girsanov

Sean (Ω,F ,P ) un espacio de probabilidad completo, Ft t∈JT una filtra-ción de (Ω,F ) completa respecto a P , (pág. 24), W = Wt t∈JT

un proce-so de Wiener en (Ω,F ,P ) respecto a esta filtración y a P , y γ =

γt

t∈JT

un proceso estocástico medible y adaptado a la filtración Ft t∈JTpara el

cual P(∫T

0 γ2s d s <+∞

)= 1. Sea κ = κt t∈JT

un proceso medible adaptado

a Ft t∈JT no negativo y continuo, (pág. 3), tal que κt = 1+∫t

0 γsdWs , t ∈ JT ,(¿Existen tales procesos estocásticos γ y κ?).

Lema 4.12.1. Con las notaciones que se han introducido, el proceso esto-cástico κ es supermartingala respecto a Ft t∈JT y a P, es decir, E (|κt |) <+∞y para s < t se tiene que E (κt | Fs ) 6 κs , (P-a.s.). En particular E (κt ) 6 1,t ∈ JT .

Demostración. Por (h) de la página 109, κ es una martingala local no ne-gativa respecto a Ft t∈JT y a P . Así, por la Proposición 4.5.15., (pág. 73), κes una supermartingala respecto a Ft t∈JT

y a P .

El ejemplo que sigue contesta a la pregunta formulada anteriormente.

Ejemplo 1. Sean (Ω,F ,P ) un espacio de probabilidad completo, Ft t∈JT

una filtración de (Ω,F ) completa respecto a P ,W = Wt t∈JTun proceso de

Wiener respecto a esta filtración y a P , y ξ= ξt t∈JTun proceso estocástico

190 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

medible y adaptado a Ft t∈JTcon P

(∫T0 ξ2

s d s <+∞)= 1. Tomamos

ϕt = exp

(∫t

0ξs dWs −

1

2

∫t

0ξ2

s d s

), t ∈ JT .

Entonces, el proceso estocástico ϕ =ϕt

t∈JT

es medible y adaptado aFt t∈JT

y por la fórmula de Itô, (pág. 128),

ϕt = 1+∫t

0ϕsξs dWs , (P −a.s.), t ∈ JT

y además P(∫T

0 γ2s d s <+∞

)= 1, donde γs =ϕsξs . Luego, por el lema ante-

rior, ϕ es supermartingala respecto a Ft t∈JT y a P no negativa y continua.En efecto, el proceso estocástico

υt =∫t

0ξs dWs −

1

2

∫t

0ξ2

s d s, t ∈ JT ,

es un proceso de Itô respecto a W y la igualdad anterior se puede escribir

dυt =−1

2ξ2

t d t +ξt dWt con condición inicial 0.

Así, ϕt = exp(υt ) y la fórmula de Itô se aplica a υ = υt t∈JT , y f (t , x) =exp(x); con lo cual

f (t ,υt ) = exp(υt ) =ϕt = 1+∫t

0ϕsξs dWs ,

(véase el Ejemplo 3 de la página 140).

Teorema 4.12.2. Sean (Ω,F ,P ) espacio de probabilidad completo, Ft t∈JT

una filtración completa respecto a P de (Ω,F ), W = Wt t∈JT un procesode Wiener respecto a Ft t∈JT

y a P, y ξ = ξt t∈JTun proceso estocástico

medible y adaptado a Ft t∈JT con P(∫T

0 ξ2s d s <+∞

)= 1. Supongamos que

E

(exp

(1

2

∫T

0ξ2

s d s

))<+∞, (condición de Novikov).

Entonces la supermartingala ϕ del Ejemplo 1 anterior,

ϕt = exp

[∫t

0ξs dWs −

1

2

∫t

0ξ2

s d s

],

4.12. TEOREMA DE GIRSANOV 191

es una martingala (no negativa y continua) respecto a Ft t∈JT y a P, (véaseel Problema 11.2, pág. 188). En particular, E

(ϕt

)= E

(ϕ0

)= 1, t ∈ JT .

(Si no se acota T , (T =+∞), el teorema anterior también es válido).

Si en el teorema precedente se cambia la condición de Novikov por

E

(exp

(1

2

∫τ

0ξ2

s d s

))<+∞,

donde τ es un tiempo de Markov, (pág. 65), respecto a la filtración Ft t∈JT

con P (τ<+∞) = 1, entonces E(ϕτ

)= 1.

Corolario 4.12.3. Sean (Ω,F ,P ) un espacio de probabilidad, Ft t∈JTuna

filtración del espacio medible (Ω,F ), W = Wt t∈JT un proceso de Wienerrespecto a esta filtración y a P, y τ un tiempo de Markov respecto a Ft t∈JT

con P (τ < +∞) = 1. Supongamos que E(exp

(12τ

))< +∞. Entonces, por el

teorema anterior (para ξs = 1, s > 0),

E

(exp

(Wτ−

1

))= 1.

Ejemplo 2. Sean (Ω,F ,P ), Ft t∈JT, W y ξ como en el teorema anterior.

Supongamos que |ξt |6 K <+∞, (P-a.s.), t ∈ JT . Entonces,

E

(exp

(1

2

∫T

0ξ2

s d s

))6 exp

(1

2T K 2

)<+∞,

y por tanto, ϕ =ϕt

t∈JT

es una martingala respecto a Ft t∈JT y a P , y

E(ϕt

)= 1, t ∈ JT ,

(ϕt = exp

(∫t

0ξsdWs −

1

2

∫t

0ξ2

s d s

), t ∈ JT ).

Ejemplo 3. Sean (Ω,F ,P ), Ft t∈JT , W y ξ, como en el teorema anterior. Seconsidera

τn = ınf

t 6 T :

∫t

0ξ2

s d s = n

y τn = T si

∫T

0ξ2

s d s < n.

192 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

Entonces,

E

(exp

(1

2

∫τn

0ξ2

s d s

))6 exp

(1

2n

)<+∞,

y por tanto, E(ϕτn

)= 1, (ϕt = exp

(∫t0 ξsdWs − 1

2

∫t0 ξ2

s d s), t ∈ JT ).

Sean (Ω,F ,P ) un espacio de probabilidad completo, Ft t∈JT una fil-tración completa respecto a P de (Ω,F ), W = Wt t∈JT un proceso de Wie-ner respecto a Ft t∈JT

y a P , y γ =γt

t∈JT

un proceso estocástico medi-

ble y adaptado a Ft t∈JT tal que P(∫T

0 γ2t d t <+∞

)= 1. Sea κ= κt t∈JT un

proceso estocástico medible, adaptado a Ft t∈JT , no negativo y continuo(P-a.s.) tal que κt = 1+

∫t0 γsdWs .

Por el Lema 4.12.1. (pág. 189), κes una supermartingala respecto a Ft t∈JT

no negativa y por tanto, E (κt ) 6 1. Sabemos, por la Proposición 4.5.1.(pág. 60), que si E (κT ) = 1, κ es una martingala respecto a Ft t∈JT y a P nonegativa. Por otro lado,

P (A) =∫

AκT dP, A ∈F ,

es una medida en (Ω,F ) que es absolutamente continua respecto a P ,(P ≪ P , es decir, P (A) = 0, A ∈F , implica que P (A) = 0; Definición 3.1.27.,(V. 2, pág. 26)). Si E (κT ) = 1, P (Ω) = 1.

Teorema 4.12.4. Con las notaciones que preceden, supongamos que se tieneE (κT ) = 1, (por tanto, κ es martingala respecto a Ft t∈JT y a P, y P es unaprobabilidad) y pongamos

W ∗t =Wt −

∫t

0κ+

s γs d s, dondeκ+s =

κ−1

s , si κs > 00 si κs = 0.

Entonces, W ∗ =W ∗

t

t∈JT

es un proceso de Wiener respecto a Ft t∈JTy a P ,

(pág. 83). Además

P

(ınf

t∈JTκt = 0

)= 0 y κ+

s = κ−1s , (P −a.s.).

Teorema 4.12.5 (Girsanov). Sean (Ω,F ,P ) un espacio de probabilidad com-pleto, Ft t∈JT

una filtración completa respecto a P de (Ω,F ), W = Wt t∈JT

un proceso de Wiener respecto a Ft t∈JT y a P, y ξ = ξt t∈JTun proceso

estocástico medible adaptado a Ft t∈JT tal que P(∫T

0 ξ2t d t <+∞

)= 1.

4.12. TEOREMA DE GIRSANOV 193

Tomamos para todo t ∈ JT ,

(ϕt (ξ) =

)ϕt = exp

(∫t

0ξs dWs −

1

2

∫t

0ξ2

s d s

).

Sabemos, por el Ejemplo 1 (pág. 189), que P(∫T

0 γ2s d s <+∞

)= 1, donde

γs = ϕsξs , y ϕt = 1+∫t

0 ϕsξsdWs , (P-a.s.), t ∈ JT , y ϕ =ϕt

t∈JT

es super-martingala respecto a Ft t∈JT

y a P, no negativa y continua (P.a.s). Supon-gamos que E

(ϕT

)= 1, (por tanto, ϕ es una martingala respecto a Ft t∈JT y

a P, y P es una probabilidad). Entonces, por el teorema anterior,

W ∗t =Wt −

∫t

0ξs d s, t ∈ JT ,

es un proceso de Wiener respecto a Ft t∈JT y a P , donde

P (A) =∫

AϕT dP, A ∈F ,

(lo que se indica también por dP =ϕT dP). Además,

P

(ınf

t∈JTϕt = 0

)= 0.

Invariancia de la integral estocástica

Teorema 4.12.6 (Variante del teorema de Girsanov). Sean (Ω,F ,P ) un es-pacio de probabilidad completo, Ft t∈JT

una filtración de (Ω,F ) completarespecto a P, W = Wt t∈JT un proceso de Wiener, en (Ω,F ,P ), respecto a

Ft t∈JT y a P, tal que Ft = F Wt , t ∈ JT , y θ = θt t∈JT un proceso estocásti-

co medible y adaptado a Ft t∈JT), con

∫T0 θ2

s d s < +∞, (P-a.s.), y tal que elproceso estocástico

ψt = exp

(−

∫t

0θsdWs −

1

2

∫t

0θ2

s d s

), t ∈ JT ,

es una martingala respecto a Ft t∈JT y respecto a P, (una condición sufi-

ciente para que ψ =ψt

t∈JT

sea martingala es que E[

exp(

12

∫T0 θ2

t d t)]

<+∞, (véase el Problema 11.2. (3), pág. 189)). Entonces E

(ψT

)= 1 y W ∗

t =Wt +

∫t0 θs d s, t ∈ JT , es un proceso de Wiener respecto a Ft t∈JT

y respecto aP∗, donde P∗(A) =

∫A ψT dP, A ∈F .

194 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

A veces utilizamos la notación PψT en vez de P∗, (ψT > 0). Por otro lado,es claro que P y P∗ son probabilidades equivalentes. A la transformaciónP → P∗ se le llama transformación de probabilidades de Girsanov.

Con las hipótesis del teorema anterior, se considera además un procesoestocástico η=

ηt

t∈JT

medible y adaptado a Ft t∈JTtal que

∫T

0η2

s d s <+∞, (P −a.s.),

y se toma el proceso estocástico

ξt =∫t

0ηs dWs +

∫t

0ηsθsd s,

(la integral∫T

0 ηs dWs está bien definida en el marco (Ω,F ,P ), Ft t∈JT,

W , ya que f (t ,ω) = ηt (ω) es una función de clase PT respecto a Ft t∈JT

y a P ). Como P∗ y P son equivalentes, se verifica que∫T

0 η2s d s < +∞, (P∗-

a.s), y por tanto, se tiene la integral χt =∫t

0 ηsdW ∗s en el marco dado por:

(Ω,F ,P∗), Ft t∈JT,W ∗

t

t∈JT

.Entonces se prueba que ξt =χt , t ∈ JT , (en este sentido decimos que la in-tegral estocástica es invariante por el cambio de probabilidad de Girsanovdado por θ).

Observación. (1) Nos situamos en las hipótesis del Teorema 4.12.6.. Seaηt

t∈JT

un proceso estocástico medible y adaptado a Ft t∈JT tal

que∫T

0 η2s d s < +∞, (P-a.s.). Entonces, W ∗

t = Wt +∫t

0 θsd s, t ∈ JT , esun proceso estocástico de Itô respecto a W y se tiene la integral

((I )=)∫t

0ηsθs d s +

∫t

0ηs dWs .

Por otra parte W ∗ =W ∗

t

t∈JT

es un proceso estocástico de Wiener

respecto a Ft t∈JT y respecto a P∗ y se tiene la integral∫t

0 ηs dW ∗s ,

(en el contexto de (Ω,F ,P∗), Ft t∈JT y W ∗t ), que coincide con (I).

(2) El proceso de Wiener está definido (ligado) a un marco: (Ω,F ,P ) es-pacio de probabilidad y Ft t∈JT filtración de este espacio, (pág. 83).

4.12. TEOREMA DE GIRSANOV 195

(3) La integral estocástica está definida (y ligada) en un marco constituidopor: (Ω,F ,P ) espacio de probabilidad, Ft t∈JT filtración de (Ω,F )y W = Wt t∈JT

proceso de Wiener respecto a Ft t∈JTy a P . Se inte-

gran los elementos de ET o PT , y en el caso de un elemento de ET

la integral es una martingala, cosa que no ocurre en general con loselementos de PT .

(4) El cambio de Girsanov (pág. 193), parte de un marco:[(Ω,F ,P ) espacio de probabilidad, Ft t∈JT

filtración de (Ω,F ) y W =Wt t∈JT proceso de Wiener respecto a la filtración Ft t∈JT y a P ], ymediante el proceso estocástico θ = θt t∈JT medible y adaptado aFt t∈JT

, se llega al marco:[(Ω,F ,P∗) espacio de probabilidad, Ft t∈JT filtración de (Ω,F ) yW ∗

t

t∈JT

proceso de Wiener respecto a la filtración Ft t∈JT y a P∗].

Ya se ha visto la invariancia de la integral estocástica al pasar de unescenario a otro.

Nota curiosa. Después del teorema de Girsanov (pág. 193) hemos obtenidola fórmula (que no se ha probado)

∫t

0ηs dWs +

∫t

0ηsθsd s =

∫t

0ηsdW ∗

s ,

para un proceso estocástico η =ηt

t∈JT

medible y adaptado a Ft t∈JT

con∫T

0 η2s d s <+∞, (P-a.s.).

Un cálculo formal (incorrecto) sería: Partimos de

W ∗t =Wt +

∫t

0θsd s.

De esta fórmula obtenemos (formalmente un resultado final correcto condemostración incorrecta), dW ∗

t = dWt +θt d t y ηt dW ∗t = ηt dWt +ηtθt d t ,

y ∫t

0ηs dW ∗

s =∫t

0ηsdWs +

∫t

0ηsθsd s.

196 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

Versión multidimensional del teorema de Girsanov

Lema 4.12.7. Sean (Ω,F ,P ) un espacio de probabilidad completo, Ft t∈JT

una filtración completa respecto a P de (Ω,F ), W =Wt =

(W 1

t , ...,W nt

)t∈JT

un proceso de Wiener, n-dimensional, respecto a Ft t∈JT y a P, y γi =γi

t

t∈JT

un proceso estocástico medible y adaptado a Ft t∈JT , i = 1, ...,n, tal que

P(∫T

0 (γit )2d t <+∞

)= 1, i = 1, ...,n. Consideramos el proceso estocástico

κt = 1+n∑

i=1

∫t

0γi

sdW is .

Entonces existe un proceso de Wiener W ∗ =W ∗

t

t∈JT

respecto a Ft t∈JTy

a P tal que para todo t ∈ JT , (P-a.s.),

κt = 1+∫t

0γ∗

s dW ∗s donde γ∗

s =√

n∑

i=1(γi

s)2.

Además, el proceso estocástico κ = κt t∈JT es medible, está adaptado a lafiltración Ft t∈JT y cumple:

(1) Si κt > 0, (P-a.s.), t ∈ JT , entonces el proceso κ es una supermartingalarespecto a Ft t∈JT y a P, E (κt | Fs ) 6 κs , (P-a.s.), t > s, y en particu-lar E (κt ) 6 1.

(2) Si P(ınft∈JT κt > 0

)= 1, entonces

κt = exp

(n∑

i=1

∫t

0ηi

sdW is −

1

2

n∑

i=1

∫t

0(ηi

s )2d s

),

donde ηit = κ−1

t γit .

Teorema 4.12.8. Sean (Ω,F ,P ) espacio de probabilidad completo, Ft t∈JT

una filtración completa respecto a P de (Ω,F ), W =Wt =

(W 1

t , ...,W nt

)t∈JT

un proceso de Wiener, n-dimensional, respecto a la filtración Ft t∈JTy a P

y sea γi =γi

t

t∈JT

un proceso estocástico medible y adaptado a Ft t∈JT ,

i = 1, ...,n, con P(∑n

i=1

∫T0 (γi

t )2d t <+∞)= 1. Ponemos

κt = 1+n∑

i=1

∫t

0γi

sdW is .

4.12. TEOREMA DE GIRSANOV 197

Supongamos que E (κT ) = 1. Entonces,

((W i

t )∗, ..., (W nt )∗

)=

(W 1

t , ...,W nt

)−

(∫t

0κ+

s γ1s d s, ...,

∫t

0κ+

s γns d s

)

es un proceso de Wiener n-dimensional respecto a Ft t∈JT y a P , donde

P (A) =∫

AκT dP, A ∈F , (dP = κT dP ).

Ejercicios y problemas

12.1. Sean (Ω,F ,P ) un espacio de probabilidad completo, Ft t∈JTuna

filtración completa respecto a P de (Ω,F ), W = Wt t∈JT un proceso deWiener respecto a Ft t∈JT y a P , y sea g : [0,T ] → R una función conti-nua. Se considera la función determinista a : [0,T ]×Ω → R definida pora(t ,ω) = g (t ). Probar que:

(1). E(exp

(12

∫T0 a2

s d s))

<+∞, (condición de Novikov).

(2). El proceso estocástico ϕt = exp(∫t

0 as dWs − 12

∫t0 a2

s d s), t ∈ JT , es una

martingala respecto a Ft t∈JT y a P .

(3). El proceso estocástico W ∗t = Wt −

∫t0 g (s)d s, t ∈ JT , es un proceso de

Wiener respecto a Ft t∈JT y a P , donde dP =ϕT dP .

12.2. Sean (Ω,F ,P ) un espacio de probabilidad completo, Ft t∈JT una fil-tración completa respecto a P de (Ω,F ), W = Wt t∈JT un proceso de Wie-ner respecto a Ft t∈JT

y a P .Sea ξ = ξt t∈JT

un proceso estocástico de Itô en (Ω,F ,P ) con diferencialestocástica

dξt = (z(t ,ω)u(t ,ω)+v(t ,ω))d t + z(t ,u)dWt y condición inicial ξ0 = 0.

Supongamos que el proceso estocástico

µt = exp

(∫t

0u(s,ω)dWs −

1

2

∫t

0u(s,ω)2d s

), t ∈ JT

198 CAPÍTULO 4. PROCESOS ESTOCÁSTICOS

es una martingala respecto a Ft t∈JT y a P , (por el Teorema 4.12.2., (pág.

190), es suficiente que E(exp

(∫T0 u(s,ω)2d s

))<+∞). Probar que:

(a). W ∗t = Wt −

∫t0 u(s,ω)d s, t ∈ JT es un proceso de Wiener respecto a

Ft t∈JT y a P∗, donde dP∗ =µT dP .

(b). dξt = v(t ,u)d t + z(t ,u)dW ∗t .

(Este problema es otra versión del Teorema de Girsanov.)

BIBLIOGRAFÍA 199

Bibliografía

[1] D. Applebaum, Lévy Processes and Stochastic Calculus, (Second Edi-tion). Cambridge University Press, Cambridge, 2009.

[2] L. Arnold, Stochastic Differential Equations: Theory and Applications.Wiley&Sons, New York, 1973.

[3] R. B. Ash; M. F. Gardner, Topics in Stochastic Processes. Academic Press,New York, 1975.

[4] A. J. Chorin; O. H. Hald, Stochastic Tools in Mathematics and Science,(Third Edition). Springer-Verlag, New York, 2013.

[5] D. Dacunha-Castelle; M. Duffo, Probabilités et statistique, Tome 1.Masson, París, 1982.

[6] C. Dellacherie, Un survol de la theorie de l’integrale stochastique. Stoch.Process Appl. 10 (1980), 115-144.

[7] J. L. Doob, Stochastic Processes. Wiley, 1953.

[8] E. B. Dynkin, Theory of Markov Processes. Dover, New York, 2006.

[9] A. Einstein, Ann. Phys. 17 (1905), 549; 19 (1906), 289; 19 (1906), 371.

[10] A. Friedman, Stochastic Differential Equations and Applications, V. 1.Academic Press, New York, 1975.

[11] I. M. Gel’fand; N. Ya. Vilenkin, Generalized Functions-V. 4: Applica-tions of Harmonic Analysis. Academic Press, 1964.

[12] I. I. Gihman; A. V. Skorohod, Stochastic Differential Equations. Sprin-ger, Berlin, 1972.

[13] I. V. Girsanov, Theory of Probability and its Applications, 5 (1962), 285-301.

200 BIBLIOGRAFÍA

[14] D. Gusak; A. Kukush; A. Kulik; Y. Mishura; A. Pilipenko, Theory ofStochastic Processes. Applications to Financial Mathematics and RiskTheory. Springer-Verlag, New York, 2010.

[15] J. M. Harrison; D. M. Kreps, Martingales and Arbitrage in MultiperiodSecurities Markets. J. Econom. Theory 20 (1979), 381-408.

[16] J. M. Harrison; S. R. Pliska, Martingales and Stochastic Integrals in theTheory of Continuum Trading. Stoch. Proc. Appl. 11 (1981), 215-260.

[17] P. Ibarrola; L. Pardo; V. Quesada, Teoría de la Probabilidad. EditorialSíntesis, Madrid, 1997.

[18] K. Itô, Stochastic Integral, Imperial Academy, Tokio. Proceedings 20(1944), 519-524.

[19] J. Jacod, Calcul stochastique et problèmes de martingales. Lecture No-tes Math. 714, Springer-Verlag, New York, 1979.

[20] J. Jacod; A. N. Shiryaev, Limit Theorems for Stochastic Processes.Springer-Verlag, Berlin, 1987.

[21] P. Jaillet; D. Lamberton; B. Lapeyre, Variational Inequalities and thePricing of American Options. Acta Applicandae Math. 21 (1990), 283-289.

[22] A. H. Jazwinski, Stochastic Processes and Filtering Theory. Dover Pu-blications, New York, 2007.

[23] A. N. Kolmogorov, Foundations of the Theory of Probability. Chelsea,New York, 1956.

[24] V. S. Koroliuk, Manual de la teoría de probabilidades y estadística ma-temática. Editorial Mir, Moscú, 1986.

[25] D. Lamberton; B. Lapeyre, Introduction to Stochastic Calculus Appliedto Finance, (second edition). Chapman-Hall, 2007.

[26] G. Letta, Un exemple de processus mesurable adapté non-progressif.Séminaire de probabilités (Strasbourg), tome 22, p. 449-453, 1988.

[27] R. S. Liptser; A. N. Shiryaev, Statistics of Random Processes I. Springer-Verlag, Berlin, 2001.

BIBLIOGRAFÍA 201

[28] J. Margalef-Roig; S. Miret-Artés, Cálculo estocástico aplicado a las fi-nanzas: Precio de las opciones según el modelo Black-Scholes-Mertony algunas generalizaciones, 281-313. En Contribuciones Matemáticas.Homenaje al profesor Enrique Outerelo Domínguez, Editorial Complu-tense, Madrid, 2004.

[29] J. Margalef; E. Padrón; E. Outerelo, Topología General. Sanz y Torres,Madrid, 2000.

[30] J. Margalef; E. Outerelo, Probabilidad y Economía 1. Mercados Finan-cieros Finitos. Sanz y Torres, Madrid, 2010.

[31] J. Margalef; E. Outerelo, Probabilidad y Economía 2. Espacios de Pro-babilidad Generales. Sanz y Torres, Madrid, 2013.

[32] J. Margalef; E. Outerelo, Introducción a la topología. Editorial Com-plutense, Madrid, 1993.

[33] P. A. Meyer, Un cours sur les integrales stochastiques. En Seminaire deProbabilité, X, Lecture Notes in Mathematics 511, 245-400. Springer-Verlag, New York, 1976.

[34] P. Mörters; Y. Peres, Brownian Motion. Cambridge Series in Statisticaland Probabilistic Mathematics, 2010.

[35] B. Øksendal, Stochastic Differential Equations. An Introduction withApplications. Springer-Verlag, Berlin, 2010.

[36] V. Petrov; E. Mordecki, Teoría de Probabilidades con más de 200 ejerci-cios. URSS, Moscú, 2003.

[37] P. Protter, Stochastic Integration and Differential Equations, (SecondEdition). Springer-Verlag, Berlín, 2004.

[38] L. Schwartz, Théorie des distributions, Vols. I y II. Hermann, Paris,1950-1951.

[39] A. N. Shiryaev, Optimal Stopping Rules. Springer-Verlag, Berlin, 1978.

[40] A. N. Shiryaev, Probability. Springer, New York, 1996.

[41] A. N. Shiryaev, Essentials of Stochastic Finance. Adv. Ser. StatisticalScience and Appl. Probability, Vol. 3, World Scientific, 2001.

[42] A. V. Skorohod, Random Processes with Independent Increments. Klu-wer, 1991.

202 BIBLIOGRAFÍA

[43] F. L. Spitzer, Principles of Random Walk. Springer-Verlag, Berlín, 2001.

[44] J. Swart; A. Winter, Markov Processes: Theory and Examples, [email protected], 2005.

[45] T. Seppäläinen, Basics of Stochastic Analysis. [email protected], 2010.

[46] R. Vélez Ibarrola, Procesos Estocásticos. UNED, Madrid, 1991.

[47] R. Vélez Ibarrola; T. Prieto Rumeau, Procesos Estocásticos. UNED, Ma-drid, 2013.

[48] P. Zoroa Terol; N. Zoroa Alonso, Elementos de Probabilidades. DiegoMarín (Librero Editor), Murcia, 2008.

ÍNDICE ALFABÉTICO 203

Índice alfabético

Acotación de momentos exponencia-les, 153

Álgebra(-σ) asociada a un tiempo deMarkov, 66

Amplitudes estocásticas, 32Aplicaciones de la fórmula de Itô, 131Apuesta de un jugador, 71Armónicos, 32, 33

Bernoulli, 15Bochner, 35Browniano, movimiento, 78

Cadena de Markov, 14, 16, 37homogénea, 54

Cadena estacionariaen sentido amplio, 31en sentido estricto, 30

Chapman-Kolmogorov, 12, 40, 44, 45,48, 51, 55

Compatibilidad de las distribucionesfinito-dimensionales de unproceso estocástico, 5

Compensador de una submartinga-la, 64

Condiciónde Kazamaki, 189

de Lipschitz, 149, 150, 151de Novikov, 189, 190, 191, 197inicial de ecuación diferencial es-

tocástica, 146, 148, 151, 152,156

Consistencia, Propiedad de, 5, 7, 10Construcción canónica, 8Conteo, proceso de, 20Criterio de

continuidad de Kolmogorov, 9numeración de elementos de una

parte de R, 10

Densidadde transición de un proceso es-

tocástico, 48espectral, 35

Derivadade un proceso de Wiener, 88, 94de un proceso estocástico gene-

ralizado, 93de una función generalizada, 91

Descomposiciónde Doob-Meyer, 177de Riesz, 176

Desigualdadde Doob, 100

204 ÍNDICE ALFABÉTICO

Dirac, 88Diferencial estocástica, 121, 122, 123,

127, 129, 134Distribución

de probabilidad de un procesoestocástico, 5

finito-dimensional de un proce-so estocástico, 5

inicial de proceso de Markov, 46Dominio del parámetro, 2Donsker, 79

Ecuaciónde Chapman-Kolmogorov, 12, 40,

44, 45, 48, 51, 55de Chapman-Kolmogorov de pro-

ceso de Markov homogéneo,50

de Fokker-Planck, 49, 81, 82, 168de Kolmogorov backward, 50, 81,

82, 168de Kolmogorov forward, 49, 81,

168de Langevin, 166diferencial estocástica lineal, 158

Ecuaciones de Kolmogorov, 48Espacio de estados, 1, 16, 19Estrategia de un jugador, 71

Filtracióncompleción, de una, 24, 25completa respecto a una proba-

bilidad, 24continua por la derecha, 24continua por la izquierda, 24de un espacio medible, 23

generada por un proceso esto-cástico, 23

Fisk, 104Flujo estocástico, 169, 170, 171Fórmula de Chapman-Kolmogorov,

40Fórmula de integración por partes,

144Fórmula de Itô, 128, 129

aplicaciones, de la, 131multidimensional, 128, 129y tiempos de Markov, 130, 131

Frecuencia, 32Función

cadlag, 18de clase ET , 97de clase ET simple, 97de clase E J∞ , 114de clase E∞, 110de clase PT , 97de clase P J∞ , 114de clase P∞, 110de correlación, 31de covarianza, 20, 31, 34de densidad de una función de

transición, 48de Dirac, 90de distribución espectral, 35de distribución finito-dimensional

de un proceso estocástico, 5de Heaviside, 90de transición, 45de transición Markoviana, 45espectral, 32, 35generalizada, 89localmente integrable de Lebes-

ÍNDICE ALFABÉTICO 205

gue, 89no anticipativa, 96no anticipativa simple, 97simple, de clase ET , 97

Gaussiano, proceso estocástico, 35Gel’fand, 88, 89Girsanov, 189, 192, 193, 198

Heaviside, 90Herglotz, 32

Igualdad de Wald, 119Integral estocástica, 96

de Fisk-Stratonovich, 104de función de clase ET , 101de función de clase E J∞, 114, 115de función de clase E∞, 111de función de clase PT , 105, 106,

107de función de clase P J∞, 116, 117de función de clase P∞, 112, 113de función simple, 98y tiempos de Markov, 118

Intensidad, 32Invariancia (por cambio de Girsanov)

de la integral estocástica, 193, 194Ionescu Tulcea, 14

Juegodesfavorable, 71favorable, 71justo, 71

Kazamaki, 189Khinchine, 35Kolmogorov, 7, 9, 10, 12

Kronecker, delta de, 33

Lema de Wald, 119Ley de probabilidad de un proceso

estocástico, 6Luz blanca, 33

Markov, 37Martingala, 58

cuadrado integrable, 175diferencia, 63generalizada, 62local, 73regular, 72transformada, 63uniformemente integrable, 72y juegos de azar, 70y tiempo de Markov, 72

Matrizde transición, 16estocástica, 53

Medida espectral, 32, 35Método de coordenadas, 8Métrica de Skorohod, 18Modelo de Black-Scholes-Merton, 163Modificación de un proceso estocás-

tico, 2Movimiento Browniano, 78

geométrico, 162estándar, 78

Novikov, 189, 190, 191, 197Numeración de los elementos de un

subconjunto finito de R, 10

Ornstein-Ulhenbeck, proceso, 165

Paseo aleatorio, 42

206 ÍNDICE ALFABÉTICO

Paso de un paseo aleatorio, 42Potencial, 176Principio de invariancia de Donsker,

79Probabilidad,

de transición de paso 1, 51de transición de un proceso es-

tocástico, 12, 42, 46de transición de una cadena de

Markov, 51de transición Markoviana, 46finito-dimensional de proceso es-

tocástico, 5inicial de cadena de Markov, 16,

52, 53inicial de proceso de Markov, 46

Proceso estocástico real, 2adaptado a una filtración, 25Browniano, 78Browniano estándar, 78con incrementos independien-

tes, 57con incrementos independien-

tes y estacionarios, 57con tiempo continuo, 2continuo, 3continuo de Ornstein-Ulhenbeck,

165continuo en probabilidad, 22continuo por la derecha, 3continuo por la derecha con lí-

mite por la izquierda, 3continuo por la izquierda, 3continuo por la izquierda con lí-

mite por la derecha, 3creciente, 176

creciente e integrable, 176creciente y predicible, 176de conteo, 20de difusión, 122de Itô, 120de Itô k-dimensional, 124de Itô multidimensional, 126de Itô unidimensional, 120de Markov, 12, 37, 38de Markov homogéneo, 50de Ornstein-Ulhenbeck, 165de tiempo discreto, 2de Wiener, 83de Wiener k-dimensional, 124discreto, 2estacionario, 33estacionario en sentido amplio,

34estacionario en sentido estricto,

33estocásticamente continuo, 22Gaussiano, 35generalizado de Gel’fand-Vilenkin,

89, 91, 92generalizado Gaussiano, 92medible, 21modificación de otro, 2normal, 35progresivamente medible, 26ruido blanco, 88, 95sin memoria, 38uniformemente integrable, 72

Procesos estocásticos realesestocásticamente equivalentes, 2estocásticamente equivalentes en

sentido amplio, 6

ÍNDICE ALFABÉTICO 207

estocásticamente equivalentesen sentido estricto, 2

indistinguibles, 2Propiedad

de compatibilidad, 5, 7, 12de consistencia, 5, 7, 10de Doob, 100de Markov, 12, 38, 55de Markov fuerte, 170de simetría, 5, 7

Propiedadesde la integral estocástica de fun-

ciones de clase ET , 102, 103de la integral estocástica de fun-

ciones de clase E J∞ , 115de la integral estocástica de fun-

ciones de clase E∞, 111, 112de la integral estocástica de fun-

ciones de clase PT , 108, 109de la integral estocástica de fun-

ciones de clase P J∞ , 118de la integral estocástica de fun-

ciones de clase P∞, 113de la integral estocástica de fun-

ciones simples, 99, 100de las trayectorias de los proce-

sos de Wiener, 84de los procesos Brownianos, 80,

81de los procesos estocásticos

Gaussianos, 36de los tiempos de Markov, 67, 68,

69

Realización de un proceso estocás-tico, 2

Relación entre martingalas y martingalas-diferencia, 63

Representación de martingalas, 175Ruido blanco

proceso estocástico, 88, 95sucesión estocástica, 33

Schwartz, L., 89σ-álgebra asociada a un tiempo de

Markov, 66Simetría, Propiedad de, 5, 7Sistema Gaussiano, 35Sistema normal, 35Skorohod, 18Sobolev, S., 89Solución fuerte de ecuación diferen-

cial estocástica, 145existencia y unicidad, 149, 150,

151, 152, 153versión con valores vectoriales,

148versión multidimensional, 147versión unidimensional, 145

Solución débil de ecuación diferen-cial estocástica, 174

Stratonovich, 104Submartingala, 58

generalizada, 62local, 73

Sucesión de localización, 116Sucesión estocástica, 2

compensadora de submartinga-la, 64

creciente, 63de variables aleatorias comple-

jas estacionarias en sentido

208 ÍNDICE ALFABÉTICO

amplio, 31estacionaria en sentido amplio,

31estacionaria en sentido estricto,

30martingala local, 73predecible, 63previsible, 63ruido blanco, 33transformada, 63

Supermartingala, 58generalizada, 62local, 73

Técnica dela sucesión de localización, 116localización, 114

Teoremade Bochner-Kinchine, 35de Chung-Doob, 28de Donsker, 79de Doob, 64, 76de Doob-Meyer, 177de existencia de movimiento Brow-

niano, 78de Fubini, 22de Girsanov, 189, 192, 193, 196,

198de Girsanov, versión multidimen-

sional, 196de Herglotz, 32de Ionescu-Tulcea, 14de Kolmogorov, 7, 9, 10, 12de Lévy, 83de Meyer, 28de Riesz, 176

fundamental de representaciónde martingalas, 182

Tiempo de Markov, 64, 65, 66de primera visita, 69

Tiempo de parada, 65, 66Transformación de probabilidades de

Girsanov, 194Trayectoria de un proceso estocásti-

co, 2

Variables aleatorias de Bernoulli in-dependientes, 15

Vilenkin, 88, 89

Wald, 119Wiener, proceso estocástico de, 83

ÍNDICE ALFABÉTICO 209

Símbolos

A rB = a ∈ A : a 6∈BDc = E rD, complementario de D subconjunto de EBT , 123B(R), σ-álgebra de Borel de R, (V. 2, pág. 32)B(R), σ-álgebra de Borel de R, (V. 2, pág. 40)B(Rn), σ-álgebra de Borel de Rn , (V. 2, pág. 40)B(RS), 4β=

βt

t∈JT

, proceso estocástico Browniano, 78C, conjunto de los números complejos(C), proceso estocástico continuo, 3Cadlag, proceso estocástico (CDLI), 18(CD), proceso estocástico continuo por la derecha, 3(CDLI), proceso estocástico continuo por la derecha con límite por la iz-

quierda, 3(CI), proceso estocástico continuo por la izquierda, 3(CILD), proceso estocástico continuo por la izquierda con límite por la de-

recha, 3CT , conjunto de aplicaciones continuas de [0,T ] en R, 123C =C1, 16, 123D, 178DL, 177ET , 97E J∞ , 114E∞, 110Fτ, σ-álgebra asociada a un tiempo de Markov, 66ϕω

ξ, trayectoria del proceso estocástico ξ en el punto ω, 2

210 ÍNDICE ALFABÉTICO

∫T0 ft dWt , integral estocástica de Itô, 96∫T0 ft dWt , integral estocástica de Fisk-Stratonovich, 104

JT = [0,T ] ⊂R, 1J∞ = [0,+∞)⊂R, 1λ, medida de Lebesgue en R, (V. 2, pág. 106)λT =λ|B(JT ), medida de Lebesgue en JT , 97MT , conjunto de martingalas cuadrado integrables con dominio del pará-

metro JT , 175M =M∞, conjunto de martingalas cuadrado integrables con dominio del

parámetro J∞, 175N, conjunto de los números naturales, 2N+ =Nr 0N=N∪ +∞, 72PT , 97P J∞ , 114P∞, 110PXξ

, distribución de probabilidad del proceso estocástico ξ, 5R, conjunto de los números realesR=R∪ −∞,+∞, recta real ampliadaRn =R× ...×R, espacio euclídeo n-dimensionalRS = x : x aplicación de S en RR∞ =RN+

σΩ, generador de σ-álgebras, (V. 2, pág. 15)W = Wt t∈Jt

, proceso estocástico de Wiener, 83W =

Wt =

(W 1

t , ...,W kt

)t∈Jt

, proceso estocástico de Wiener k-dimensional,124

X ξ, 4

ξτ, τ tiempo de Markov, 67Z, conjunto de los números enteros(Ω,F ), espacio medible, (V. 2, pág. 16)(Ω,F ,P ), espacio de probabilidad, (V. 2, pág. 22)