calculo de variaciones - departamento de …fbravo/libros/escuela_verano_2002.pdf · regularidad de...

36
UNIVERSIDAD DE CHILE facultad de ciencias fisicas y matematicas departamento de ingenieria matematica II ESCUELA DE VERANO MECESUP 2002 CALCULO DE VARIACIONES Felipe Alvarez (P ) ın T 0 L(x(t), ˙ x(t))dt, x(0) = x 0 ,x(T )= x 1 . Diciembre 2002

Upload: hoanghanh

Post on 20-Sep-2018

232 views

Category:

Documents


0 download

TRANSCRIPT

UNIVERSIDAD DE CHILE

facultad de ciencias fisicas y matematicas

departamento de ingenieria matematica

II ESCUELA DE VERANO MECESUP 2002

CALCULO DE VARIACIONES

Felipe Alvarez

(P)

mın

T∫

0

L(x(t), x(t))dt,

x(0) = x0, x(T ) = x1.

Diciembre 2002

2

Indice general

1. Introduccion 51.1. Funcionales y problemas variacionales . . . . . . . . . . . . . . . . . . 51.2. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61.3. Definicion de solucion optima . . . . . . . . . . . . . . . . . . . . . . 71.4. Problemas variacionales sin solucion . . . . . . . . . . . . . . . . . . . 8

2. El metodo directo del calculo de variaciones 132.1. Sucesiones minimizantes . . . . . . . . . . . . . . . . . . . . . . . . . 132.2. La condicion de crecimiento y compacidad . . . . . . . . . . . . . . . 132.3. Primer teorema de existencia: caso separable . . . . . . . . . . . . . . 162.4. Segundo teorema de existencia: caso regular . . . . . . . . . . . . . . 18

3. Ecuaciones de Euler-Lagrange: caso diferenciable 213.1. Condiciones necesarias de primer orden . . . . . . . . . . . . . . . . . 213.2. Resultados tecnicos . . . . . . . . . . . . . . . . . . . . . . . . . . . . 223.3. Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25

4. Regularidad de las soluciones optimas 274.1. Regularidad de tipo Lipschitz . . . . . . . . . . . . . . . . . . . . . . 274.2. Demostracion del resultado de regularidad . . . . . . . . . . . . . . . 28

5. Ecuaciones de Euler-Lagrange: caso Lipschitz 335.1. Ecuaciones de Euler-Lagrange generalizadas . . . . . . . . . . . . . . 335.2. Ejemplo: dinamica de una partıcula . . . . . . . . . . . . . . . . . . . 35

6. Ejercicios 37

Bibliografıa 39

3

4 INDICE GENERAL

Capıtulo 1

Introduccion

Estos apuntes tienen como objetivo introducir los conceptos y metodos basicos delcalculo de variaciones a traves del estudio de la siguiente clase particular de problemasvariacionales:

(P)

mın

T∫

0

L(x(t), x(t))dt

x(0) = x0, x(T ) = x1,

donde L : RN ×RN → R es una funcion suficientemente regular. Estudiaremos tantola existencia y regularidad de las soluciones de (P) como las condiciones necesariasde primer orden que estas soluciones deben satisfacer, con un enfasis especial en lasherramientas del analisis funcional que son utiles para un tratamiento riguroso de lateorıa.

1.1. Funcionales y problemas variacionales

Diversos problemas en matematicas puras y aplicadas consisten en determinaruna funcion que minimice algun criterio, costo o energıa, sujeto a ciertas restricciones.Tıpicamente, en estos problemas el criterio a optimizar viene dado por una corres-pondencia que a cada funcion perteneciente a alguna clase o conjunto de funcionesle asigna un unico numero real, el cual tiene alguna interpretacion geometrica, fısicao economica. Llamaremos funcional a toda correspondencia de este tipo y problema

variacional al problema de optimizacion asociado.

Para dar un contexto mas preciso a lo anterior, denotemos por C1(a, b;RN) laclase de todas las funciones x : [a, b] → RN que son continuamente diferenciables enel intervalo [a, b]. En todo lo que sigue, nos concentraremos en funcionales del tipo

J : C1(a, b;RN) → R

x 7→ J(x) =

b∫

a

L(x(t), x(t))dt,

5

6 CAPITULO 1. INTRODUCCION

para alguna funcion

L : RN ×RN → R

(x, y) 7→ L(x, y),

la que supondremos suficientemente regular (al menos continua).

1.2. Ejemplos

Ejemplo 1.2.1 (Camino mas corto) Encontrar la curva plana mas corta que unedos puntos A = (x0, y0) y B = (x1, y1), i.e. encontrar la curva y = y(x) que minimiceel funcional

J(y) =

x1∫

x0

√1 + y′(x)2dx

bajo la restricciony(x0) = y0, y(x1) = y1.

Ejemplo 1.2.2 (Braquistocrona) Partiendo de un punto A = (x0, y0), una partıcu-la con peso se desliza bajo la influencia de la gravedad sobre una curva que une Acon otro punto B = (x1, y1) tal que y0 > y1. El tiempo que le toma a la partıcularecorrer este camino depende de la curva recorrida y por lo tanto la correspondenciaque a cada curva regular le asocia el tiempo necesario para recorrerla es un funcional.La curva de tiempo mınimo se conoce como la braquistocrona. Para modelar este pro-blema, sea y ∈ C1(x0, x1) una funcion de modo tal que la trayectoria de la partıculasatisface y(t) = y(x(t)). Tenemos que la rapidez de la partıcula satisface

v(t) =ds

dt=ds

dx·dx

dt=

√1 + y′2

dx

dt.

Por otra parte, suponiendo que la partıcula inicia su movimiento desde el reposo(v(0) = 0) tenemos que por conservacion de la energıa:

1

2mv2 +mgy = mgy0 ⇒ v =

√2g(y0 − y)

Ası, al menos formalmente,

dt =

√1 + y′2√

2g(y0 − y)dx,

de modo que el tiempo de recorrido a minimizar esta dado por

T =

x1∫

x0

√1 + y′2√

2g(y0 − y)dx.

sujeto ay(x0) = y0, y(x1) = y1.

1.3. DEFINICION DE SOLUCION OPTIMA 7

Ejemplo 1.2.3 (El modelo de Ramsay) Se asume que un individuo tiene la op-cion, a cada instante t, de consumir o de invertir. Sean x(t) y c(t) el capital y elconsumo del individuo en el instante t respectivamente. Suponemos ademas que unafuncion f = f(x) representa la produccion de capital y una funcion u = u(c), llamadafuncion de utilidad, describe el beneficio instantaneo del individuo ante un consumodado por c. Luego, en un horizonte [0, T ], el individuo busca maximizar la utilidadesperada, esto es

max

T∫

0

u(c(t))dt

dx

dt(t) = f(x(t)) − c(t)

x(0) = x0 (capital inicial)

x(T ) = x1 (capital final)

o equivalentemente

mın

T∫

0

−u(f(x(t)) − x(t))dt

x(0) = x0, x(T ) = x1.

1.3. Definicion de solucion optima

Nos concentraremos en problemas variacionales autonomos, es decir, problemasdonde la variable independiente, digamos t, no aparece explıcitamente en el criterioa minimizar. Mas precisamente, consideraremos un problema del tipo

(P)

mın

T∫

0

L(x(t), x(t))dt

x(0) = x0, x(T ) = x1,

donde

L : RN × RN → R

es una funcion continua.

Para esta clase de problemas no siempre es posible asegurar la existencia de so-luciones en C1(0, T ;RN). Trabajaremos en la clase AC(0, T ;RN) de las funcionesabsolutamente continuas definidas en el intervalo [0, T ] y a valores en RN , es decir

AC(0, T ;RN) = {x : [0, T ] → RN |∃y ∈ L1(0, T ;RN), x(t) = x0 +∫ t

0y(s)ds}.

Dada x ∈ AC(0, T ;RN), denotamos simplemente por x a la funcion y ∈ L1(0, T ;RN)correspondiente. Evidentemente, C1(0, T ;RN) AC(0, T ;RN). Definamos

ınf(P) = ınf{∫ T

0L(x(t), x(t))dt|x ∈ AC(0, T ;RN), x(0) = x0, x(T ) = x1}.

8 CAPITULO 1. INTRODUCCION

Definicion 1.3.1 Toda funcion x ∈ AC(0, T ;RN) tal que x(0) = x0 y x(T ) = x1 se

dice que es factible para (P). Se dice que x ∈ AC(0, T ;RN) es una solucion de (P)si junto con ser factible satisface

T∫

0

L(x(t), ˙x(t))dt = ınf(P).

Si ademas x ∈ C1(0, T ;RN), diremos que x es una solucion regular de (P).

Se tiene que ınf(P) < +∞ y mas aun, tomando la funcion factible

x(t) = x0 +t

T(x1 − x0),

se deduce queınf(P) ≤ T sup

x∈[x0,x1]

L(x, (x1 − x0)/T ),

y este supremo no solo es finito sino que ademas se alcanza, de modo que se trata deun maximo, en virtud de la continuidad de x 7→ L(x, (x1 − x0)/T ).

Cuando ınf(P) ∈ R, sin condiciones adicionales sobre L, el problema (P) puedeno tener soluciones optimas. A continuacion veremos dos ejemplos en este sentido.

1.4. Problemas variacionales sin solucion

Ejemplo 1.4.1 Crecimiento lineal. Consideremos el problema variacional

(P1)

mın

1∫

0

[1

2x(t)2 + |x(t)|]dt

x(0) = 0, x(1) = 1

Aquı, N = 1 y

L(x, y) =1

2x2 + |y|.

Notemos que para cada funcion factible se tiene

1∫

0

x(t)dt = x(1) − x(0) = 1,

y en consecuencia1∫

0

|x(t)|dt ≥ 1.

Por otra parte,1∫0

x(t)2dt ≥ 0 y mas aun, dado que x es continua y x(1) = 1 > 0,

necesariamente1∫

0

x(t)2dt > 0.

1.4. PROBLEMAS VARIACIONALES SIN SOLUCION 9

En conclusion, para cada funcion factible,

1∫

0

[1

2x(t)2 + |x(t)|]dt > 1, (1.1)

y por lo tanto ınf(P1) ≥ 1. Veremos que ınf(P1) = 1, lo que junto con (1.1) pruebaque (P1) no admite solucion. Con este fin, consideremos la sucesion xn ∈ AC(0, 1;R)definida por

xn(t) =

0 si 0 ≤ t ≤ 1 − 1n,

n(t− 1 + 1n) si 1 − 1

n≤ t ≤ 1.

Tenemos que para todo n ≥ 1, xn(0) = 0 y xn(1) = 1. Mas aun,

1∫

0

L(xn(t), xn(t))dt =

1∫

1−1/n

1

2n2(t− 1 +

1

n)2dt+

1∫

1− 1

n

ndt

=n2

6(t− 1 +

1

n)3

∣∣∣∣t=1

t=1−1/n

+ 1

=1

6n+ 1 → 1

En conclusion, ınf(P1) = 1 y este valor no es alcanzado.

El ejemplo 1.4.1 es un caso tıpico de un fenomeno de concentracion: puntualmentela sucesion minimizante converge

xn(t) −−→n→∞

{0 si 0 ≤ t < 1,1 si t = 1,

pero el lımite no es continuo de modo que no pertenece a AC(0, 1). Finalmente,notemos que L(x, x) = 1

2x + |x| tiene un crecimiento lineal en x. Veremos que en

cierto sentido, esta es la razon por la cual (P1) no admite solucion.

Ejemplo 1.4.2 Falta de convexidad. Consideremos ahora el problema variacionaldado por

(P2)

mın

1∫

0

[1

2x(t)2 + (1 − x(t)2)2]dt

x(0) = 0 = x(1).

Nuevamente N = 1, y tenemos

L(x, y) =1

2x2 + (1 − y2)2.

Observemos que en este caso L(x, y) crece superlinealmente en y, mas precisamente,y 7→ L(x, y) se comporta como como y4 cuando |y| → +∞.

10 CAPITULO 1. INTRODUCCION

Obviamente, ınf(P2) ≥ 0. Dado n ≥ 1, consideremos la funcion definida por

xn(t) = (−1)k

(1

2n− |t−

(2k + 1)

2n|

)si |t−

2k + 1

2n| ≤

1

2n, 0 ≤ k ≤ n− 1.

Notemos que xn(0) = xn(1) = 0, xn(t) = ±1 y |xn(t)| ≤ 12n

. En particular, xn(t) → 0uniformemente en [0, 1]. Tenemos que

1∫

0

[1

2xn(t)2 + (1 − xn(t)2)2

︸ ︷︷ ︸0

]dt =

1∫

0

1

2xn(t)2dt

= n

∫ 1

2n

0

t2dt =n

3t3|

t= 1

2n

t=0

=n

1

8n3=

1

24n2→ 0.

Por lo tanto, ınf(P2) = 0. Si este valor fuese alcanzado por una funcion x en AC(0, 1)entonces se tendrıa

0 =

1∫

0

[1

2x(t)2 + (1 − ˙x(t)2)2]dt ⇒ x(t) = 0 c.t.p. t ∈ [0, 1]

| ˙x(t)| = 1 c.t.p. t ∈ [0, 1]

lo que es imposible. En consecuencia, (P2) no admite solucion.

El ejemplo 1.4.2 ilustra un fenomeno de oscilacion. Observemos que la funcionL(x, y) no es convexa en y; de hecho, y 7→ L(x, y) tiene dos mınimos locales estrictosen y = −1 e y = 1. Intuitivamente, la sucesion minimizante (ver la definicion 2.1.1)es tal que xn oscila entre ambos valores mınimos, lo que explicarıa la no existenciade soluciones.

En el siguiente capıtulo veremos que para asegurar la existencia de soluciones,junto con cierta regularidad de L(x, y), bastara con suponer sobre y 7→ L(x, y):

Una condicion de crecimiento.

Una condicion de convexidad.

Capıtulo 2

El metodo directo del calculo devariaciones

2.1. Sucesiones minimizantes

Definicion 2.1.1 Una sucesion (xn) ⊂ AC(0, T ;RN) se dice sucesion minimizantepara (P) si xn(0) = x0, xn(T ) = x1 y se tiene

lımn→+∞

T∫

0

L(xn(t), xn(t))dt = ınf(P).

Notemos que siempre existe una sucesion minimizante. Para establecer la existen-cia de soluciones consideraremos la siguiente estrategia: tomar una sucesion minimi-zante y probar que, pasando a una subsucesion, converge a una solucion.

Para poder extraer una subsucesion convergente de una sucesion minimizante,necesitamos una propiedad de compacidad.

2.2. La condicion de crecimiento y compacidad

Dada una constante p ∈ (1,+∞), supondremos que L(x, y) satisface la siguientecondicion de crecimiento:

(Cp) Existen constantes a ∈ R y b > 0 tales que

∀(x, y) ∈ RN × RN , L(x, y) ≥ a+ b‖y‖p.

Dado que p > 1, se dice que el crecimiento de y 7→ L(x, y) es superlineal. El ca-so p = +∞ puede permitirse, significando que existe una constante C > 0 tal que‖y‖ ≤ C, lo que se interpreta como una restriccion sobre x implıcita en la definicion deL. Sin embargo, para simplificar la exposicion nos restringiremos al caso p ∈ (1,+∞).

11

12 CAPITULO 2. EL METODO DIRECTO DEL CALCULO DE VARIACIONES

Notemos que la condicion de crecimiento (Cp) permite asegurar que ınf(P) ∈ Rpues de esta se deduce que

ınf(P) ≥ aT > −∞,

y ya sabıamos que ınf(P) < +∞.

Lema 2.2.1 Bajo (Cp), si (xn) es una sucesion minimizante para (P) entonces (xn)es acotada en Lp(0, T ;RN), es decir, existe una constante C ≥ 0 tal que ∀n ∈ N,

‖xn‖Lp ≤ C.

Demostracion. Sin perdida de generalidad podemos suponer que

∀n ≥ 1,

T∫

0

L(xn(t), xn(t))dt ≤ ınf(P) + 1.

Por (Cp), aT + b∫ T

0‖xn(t)‖pdt ≤ ınf(P) + 1. Ası

‖xn‖pLp ≤

ınf(P) + 1 − aT

b=: K

es decir ‖xn‖Lp ≤ K1/p.

Proposicion 2.2.1 Supongamos que se tiene (Cp). Si (xn) es una sucesion minimi-

zante para (P) entonces existe una funcion x ∈ AC(0, T ;RN), factible para (P), y

una subsucesion (xnk) tales que:

(i) xnk→ x uniformemente en [0, T ].

(ii) xnk⇀ ˙x debilmente en Lp(0, T ;RN).

Demostracion. Dividimos la demostracion en dos etapas.Etapa 1. Definicion de x. Como p ∈ (1,+∞), Lp(0, T ;RN) resulta ser una espaciode Banach reflexivo y por lo tanto la bola unitaria es debilmente compacta. Luego,por el lema 2.2.1, existe una subsucesion xnk

tal que xnk⇀ y cuando k → +∞ para

algun y ∈ Lp(0, T ;RN). Esto equivale a

∀ϕ ∈ Lq(0, T ;RN), 〈xk, ϕ〉Lp,Lq −−−→k→+∞

〈y, ϕ〉Lp,Lq en R,

donde q ∈ (1,+∞) satisface

1

p+

1

q= 1.

Mas explıcitamente, para todo ϕ ∈ Lq(0, T ;RN) se tiene

T∫

0

xnk(t)ϕ(t)dt→

T∫

0

y(t)ϕ(t)dt.

2.3. PRIMER TEOREMA DE EXISTENCIA: CASO SEPARABLE 13

Es natural definir x ∈ AC(0, T ;RN) por medio de

x(t) = x0 +

t∫

0

y(s)ds, (2.1)

de modo tal que y = ˙x c.t.p. en [0, T ].

Etapa 2. Convergencia uniforme. Comencemos por verificar la convergencia puntualde (xnk

) hacia la funcion x definida por (2.1). Dado t ∈ [0, T ] fijo, tenemos que

xnk(t) = x0 +

t∫

0

xnk(s)ds

= x0 +T∫0

xnk(s)1[0,t](s)ds

= x0 + 〈xnk, 1[0,t]〉Lp,Lq ,

lo que junto con la convergencia debil de (xnk) a y asegura que

xnk(t) → x0 + 〈y, 1[0,t]〉Lp,Lq

= x0 +t∫

0

y(s)ds

= x(t).

Para la convergencia uniforme, en virtud del teorema de Arzela-Ascoli basta probarque (xn) es equicontinua1. Sean t1, t2 ∈ [0, T ] con t1 > t2. Escribamos

xn(t2) − xn(t1) =

t2∫

t1

xn(s)ds =

T∫

0

1[t1,t2](s)xn(s)ds.

Por la desigualdad de Holder y el lema 2.2.1

‖xn(t2) − xn(t1)‖ ≤ ‖1[t1,t2]‖Lq‖xn‖Lp ≤ (t2 − t1)1/qC,

lo que prueba la equicontinuidad de la familia (xn).

2.3. Primer teorema de existencia: caso separable

En esta seccion suponemos que

L(x, y) = g(x) + f(y), x, y ∈ RN ,

donde

(a) f y g son continuas.

(b) L satisface (Cp).

1El teorema de Arzela-Ascoli junto con equicontinuidad tiene como consecuencia que la conver-

gencia simple o puntual implica la uniforme.

14 CAPITULO 2. EL METODO DIRECTO DEL CALCULO DE VARIACIONES

(c) f es convexa.

Observemos que asumir (b) equivale a suponer que g es acotada inferiormente, esdecir ınf

x∈RNg(x) > −∞, y que f satisface (Cp).

Teorema 2.3.1 Bajo las condiciones anteriores, (P) admite al menos una solucion.

Demostracion. Sea (xn) una sucesion minimizante para (P). Por la proposicion2.2.1, es posible extraer una subsucesion (xnk

) y encontrar x ∈ AC(0, T ;RN) talesque x(0) = x0, x(T ) = x1 y

xnk→ x uniformemente en [0, T ],

xnk→ ˙x debilmente en Lp(0, T ;RN).

Queremos probar que

T∫

0

L(x(t), ˙x(t))dt =

T∫

0

g(x(t))dt+

T∫

0

f( ˙x(t))dt = ınf(P).

Por la definicion de sucesion minimizante, sabemos que

T∫

0

g(xnk(t))dt+

T∫

0

f(xnk(t))dt =

T∫

0

L(xnk(t), xnk

(t))dt→ ınf(P).

De la convergencia uniforme de (xnk) y la continuidad de g deducimos que se tiene

lımk→∞

T∫

0

g(xnk(t))dt =

T∫

0

g(x(t))dt.

Para estudiar la convergencia del segundo termino, definamos

F (y) =

T∫

0

f(y(t))dt, y ∈ Lp(0, T ;RN). (2.2)

Notemos que por (Cp) necesariamente F (y) > −∞ para todo y ∈ Lp(0, T ;RN); sinembargo, podrıa tenerse F (y) = +∞ para algun y ∈ Lp(0, T ;RN) pues no hemossupuesto ningun tipo de comportamiento “por arriba”del integrando f(y).

Proposicion 2.3.1 Si f : RN → R es continua y acotada inferiormente (ınf f >−∞) entonces la funcion F : Lp(0, T ;RN) → R ∪ {+∞} definida por (2.2) es se-

micontinua inferiormente, es decir, para toda sucesion yn → y en Lp(0, T ;RN) se

tiene

F (y) ≤ lım infn→∞

F (yn).

2.3. PRIMER TEOREMA DE EXISTENCIA: CASO SEPARABLE 15

Posterguemos por un momento la demostracion de la proposicion 2.3.1. Notemosque no podemos aplicar directamente este resultado a nuestro caso pues solo tenemosxnk

→ ˙x debilmente en Lp(0, T ;RN). Sin embargo, de la convexidad de f se deduceque F es una funcion convexa. Recordando que en un espacio de Banach reflexivo, lasfunciones convexas y semicontinuas inferiormente para la topologıa fuerte tambien loson para la topologıa debil, deducimos que F es semicontinua inferiormente para latopologıa debil en Lp(0, T ;RN). Por lo tanto,

F ( ˙x) ≤ lım infk→∞

F (xnk),

y en consecuencia

T∫

0

g(x(t))dt+

T∫

0

f( ˙x(t))dt ≤ ınf(P).

Dado que x es factible para (P), la otra desigualdad siempre se tiene, y entonces xes solucion de (P).

Demostracion de la proposicion 2.3.1. Recordemos el siguiente resultado funda-mental de la teorıa de la medida:

Lema 2.3.1 (Fatou) Sea fn : [0, T ] → R una sucesion de funciones medibles tal que

fn ≥ 0 para todo n ≥ 0. Entonces

lım infn→∞

T∫

0

fn(t)dt ≥

T∫

0

lım infn→∞

fn(t)dt.

El lema de Fatou es valido si (fn) es acotada inferiormente de manera uniforme, i.e.∃α ∈ R, ∀n ≥ 0, fn ≥ −α, pues basta aplicar el resultado anterior a fn = fn + α.

Para probar la proposicion 2.3.1, razonemos por contradiccion. Supongamos que existeuna sucesion (yn) ⊆ Lp(0, T ;RN) que converge fuertemente a un y ∈ Lp(0, T ;RN) yque se tiene

lım infn→∞

F (yn) < F (y). (2.3)

Podemos extraer una subsucesion (ynk) tal que

lımk→∞

F (ynk) = lım inf

n→∞F (yn).

Dado que yn → y en Lp(0, T ;RN), podemos extraer a su vez una nueva subsucesion(ynkj

) tal que ynkj(t) → y(t) para c.t.p. t ∈ [0, T ]. Sea fj(t) = f(ynkj

(t)). Como

ınf f > −∞, (fj) es acotada inferiormente. Ademas, fj(t) → f(y(t)) c.t.p. en [0, T ]en virtud de la continuidad de f . Luego

F (y) =

T∫

0

f(y(t))dt =

T∫

0

lımj→∞

fj(t)dt ≤ lım infj→∞

T∫

0

fj(t)dt = lım infj→∞

F (ynkj)

= lımk→∞

F (ynk)

= lım infn→∞

F (yn),

donde la desigualdad se tiene por el lema de Fatou, contradiciendo ası (2.3).

16 CAPITULO 2. EL METODO DIRECTO DEL CALCULO DE VARIACIONES

2.4. Segundo teorema de existencia: caso regular

Teorema 2.4.1 Supongamos que

(a) L ∈ C(RN × RN ;R) y∂L

∂yi∈ C(RN × RN ;R).

(b) L satisface (Cp).

(c) y 7→ L(x, y) es convexa.

Entonces (P) admite al menos una solucion.

Demostracion. Por la proposicion 2.2.1, sabemos que existe una sucesion minimi-zante (xn) para (P) y una funcion x factible para (P) tales que

(i) lımn→∞

T∫0

L(xn, x) = ınf(P).

(ii) ∃C ≥ 0 tal que ∀n ∈ N, ‖xn‖Lp ≤ C.

(iii) xn → x uniformemente en [0, T ]

(iv) xn ⇀ ˙x debilmente en Lp(0, T ;RN)

Recordemos el siguiente resultado de la teorıa de la medida.

Teorema 2.4.2 (Lusin) Sea f ∈ L1(0, T ;RN). Entonces, ∀δ > 0, ∃K ⊆ [0, T ] com-

pacto tal que:

(1) L1([0, T ] \ K) ≤ δ, donde L1 es la medida de Lebesgue en R.

(2) f es continua en K.

Sin perdida de generalidad, podemos suponer que L(x, y) ≥ 0 (sino basta con reempla-zar L(x, y) por L(x, y)−a donde a es la constante que aparece en (Cp)). Supongamosque

T∫

0

L(x, ˙x)dt < +∞.

Luego,

µ(A) =

A

L(x, ˙x)dt

es una medida positiva y finita sobre los borelianos que resulta ser absolutamentecontinua con respecto a L1. Por el teorema de Lusin, dado ε > 0 existe un compactoK ⊆ [0, T ] tal que x y ˙x son continuas en K y ademas

K

L(x, ˙x)dt ≥

T∫

0

L(x, ˙x)dt− ε.

2.4. SEGUNDO TEOREMA DE EXISTENCIA: CASO REGULAR 17

(en el caso∫

K

L(x, ˙x)dt = +∞, para cada M > 0 podemos escoger K de modo tal que∫

K

L(x, ˙x)dt ≥ M).

Por convexidad de y 7→ L(x, y), tenemos que

K

L(xn, xn)dt ≥

K

[L(xn, ˙x) +∂L

∂y(xn, ˙x)(xn − ˙x)]dt

Luego

K

L(xn, xn)dt ≥

K

[L(xn, ˙x) +∂L

∂y(x, ˙x)(xn − ˙x) + (

∂L

∂y(xn, ˙x) −

∂L

∂y(x, ˙x))(xn − ˙x)]dt

Estudiemos la convergencia de cada uno de estos terminos. Como xn → x uniforme-mente y L es continuo, tenemos que

lımn→∞

K

L(xn, ˙x) =

K

L(x, ˙x).

Por otra parte, la convergencia debil xn ⇀ ˙x junto con la continuidad de ∂L∂y

y la de

x y ˙x en K permiten asegurar que

lımn→∞

K

∂L

∂y(x, ˙x)(xn − ˙x) = 0.

Finalmente, de la convergencia uniforme de xn → x junto con el acotamiento uniformede las normas Lp de xn y ˙x, y la continuidad de ∂L

∂y, se deduce que

lımn→∞

K

(∂L

∂y(xn, ˙x) −

∂L

∂y(x, ˙x))(xn − ˙x) = 0.

Luego

ınf(P) = lımn→∞

T∫

0

L(xn, xn)dt ≥ lım infn→∞

K

L(xn, xn)dt ≥

K

L(x, ˙x)dt

T∫

0

L(x, ˙x) − ε.

Como ε > 0 es arbitrario, se deduce el resultado.

18 CAPITULO 2. EL METODO DIRECTO DEL CALCULO DE VARIACIONES

Capıtulo 3

Ecuaciones de Euler-Lagrange:caso diferenciable

3.1. Condiciones necesarias de primer orden

Una vez demostrada la existencia de una solucion, nos interesa poder caracterizarlamediante una ecuacion, ya sea con el fin de obtener un metodo para calcularla o bienpara deducir mas propiedades sobre la solucion a partir de la ecuacion. El objetivode este capıtulo es probar el siguiente resultado:

Teorema 3.1.1 Supongamos que L ∈ C1(RN × RN ;R). Si x ∈ C1(0, T ;RN) es una

solucion regular de (P) entonces∂L

∂y(x(t), ˙x(t)) es diferenciable y mas aun

d

dt

∂L

∂y(x(t), ˙x(t)) =

∂L

∂x(x(t), ˙x(t)), t ∈ [0, T ]. (3.1)

Observemos que (3.1) es una ecuacion diferencial de segundo orden para x, la cualse conoce como la ecuacion de Euler-Lagrange de (P).

Para establecer este resultado, la idea es “perturbar” la solucion x. Consideremosuna funcion h ∈ C1(0, T,RN) tal que

h(0) = h(T ) = 0.

Definamos

Φ(λ) = J(x+ λh), λ ∈ R.

donde

J(x) =

T∫

0

L(x(t), x(t))dt.

Observemos que la funcion

xλ(t) = x(t) + λh(t)

19

20CAPITULO 3. ECUACIONES DE EULER-LAGRANGE: CASO DIFERENCIABLE

es factible para el problema (P) pues xλ ∈ C1(0, T ;RN), xλ(0) = x(0) = 0 y xλ(T ) =x(T ) = x1. De este modo, por optimalidad de x para (P), deducimos que

∀λ ∈ R, Φ(0) ≤ Φ(λ),

de modo que 0 es un mınimo de Φ. Si Φ es diferenciable entonces debe satisfacerse lacondicion necesaria de optimalidad

Φ′(0) = 0.

Como L, x y h son de clase C1, tenemos que

Φ′(0) =d

dλJ(x+ λh)|λ=0 =

d

T∫

0

L(xλ(t), xλ(t))dt|λ=0

=

T∫

0

d

dλ[L(x(t) + λh(t), ˙x(t) + λh(t))]|λ=0dt

=

T∫

0

[∂L

∂x(x(t), ˙x(t))h(t) +

∂L

∂y(x(t), ˙x(t))h(t)]dt.

Luego, para todo h ∈ C1(0, T ;RN) tal que h(0) = h(T ) = 0 se tiene

T∫

0

[∂L

∂x(x(t), ˙x(t))h(t) +

∂L

∂y(x(t), ˙x(t))h(t)]dt = 0 (3.2)

Para deducir de aquı la ecuacion de Euler-Lagrange (3.1), basta con justificar unaintegracion por partes mas un argumento de localizacion. Con este fin, necesitamosalgunos resultados tecnicos.

3.2. Resultados tecnicos

Lema 3.2.1 Sea c ∈ C(a, b) tal que

b∫

a

c(t)h(t)dt = 0

para toda funcion h ∈ C(a, b) con h(a) = h(b) = 0. Entonces, c ≡ 0 en [a, b].

Demostracion. Dado n ≥ 1, definamos la funcion

ϕn(t) =

n(t− a) si a ≤ t ≤ a+ 1/n,1 si a+ 1/n ≤ t ≤ b− 1/n,

n(b− t) si b− 1/n ≤ t ≤ b.

Tomando hn = ϕnc se tiene hn ∈ C(a, b) y hn(a) = hn(b) = 0. Luego

∀n ≥ 0,

b∫

a

c(t)hn(t)dt = 0

3.2. RESULTADOS TECNICOS 21

Por ota parte, chn = ϕnc2 ր c2 y, por el teorema de la convergencia dominada, se

obtiene

0 = lımn→∞

b∫

a

c(t)hn(t)dt =

b∫

a

c2(t)dt.

Por lo tanto, c = 0 para c.t.p. t ∈ [a, b], y como c es continua, c ≡ 0 en [a, b].

Lema 3.2.2 Sea c ∈ C(a, b) tal que

b∫

a

c(t)h(t)dt = 0

para toda funcion h ∈ C1(a, b) con h(a) = h(b) = 0. Entonces, existe una constante

c ∈ R tal que c ≡ c en [a, b].

Demostracion. Sea

c =1

b− a

b∫

a

c(t)dt

y consideremos

h(t) =

t∫

a

[c(ξ) − c]dξ,

funcion que satisface h(a) = h(b) = 0 y ademas h ∈ C1(a, b). En consecuencia

0 =

b∫

a

c(t)h(t)dt =

b∫

a

c(t)[c(t) − c]dt.

Comob∫

a

c[c(t) − c]dt = c(b− a)c− c2(b− a) = 0,

deducimos que

b∫

a

[c(t) − c]2dt = 0.

Luego, c(t) = c c.t.p. en [a, b], lo que junto con la continuidad de c asegura que c ≡ cen [a, b].

22CAPITULO 3. ECUACIONES DE EULER-LAGRANGE: CASO DIFERENCIABLE

Proposicion 3.2.1 Sean c, d ∈ C(a, b) tales que

b∫

a

[c(t)h(t)dt+ d(t)h(t)]dt = 0

para todo h ∈ C1(a, b) con h(a) = h(b) = 0. Entonces d ∈ C1(a, b) y mas aun d = c.

Demostracion. Aplicaremos integracion por partes. Sea

A(t) =

t∫

a

c(ξ)dξ.

Entonces, para todo h ∈ C1(a, b) con h(a) = h(b) = 0 se obtiene

b∫

a

c(t)h(t)dt = A(t)h(t)|ba −

b∫

a

A(t)h(t)dt = −

b∫

a

A(t)h(t)dt,

y en consecuencia

b∫

a

[−A(t) + d(t)]h(t)dt = 0.

Por el lema 3.2.2, existe c ∈ R tal que

d(t) = A(t) + c,

y en particular

d(t) = A(t) = c(t),

lo que prueba el resultado.

3.3. Conclusion

Aplicando la proposicion 3.2.1 a (3.2) se deduce la conclusion del teorema 3.1.1.

Notemos que tal como han sido expuestas, existe una brecha entre la teorıa deexistencia y la de condiciones necesarias. La primera solo proporciona solucionesx ∈ AC(0, T ;RN), de modo tal que solo podemos asegurar ˙x ∈ L1(0, T ;RN). Enrealidad, se tiene un poco mas: ˙x ∈ L1(0, T ;RN) con p > 1 asociado a la condicion decrecimiento (Cp). Por otra parte, para deducir las ecuaciones de Euler-Lagrange, asu-mimos que x ∈ C1(0, T ;RN), de modo tal que no podemos aplicar el ultimo teoremaa las soluciones que se obtienen a partir del metodo directo.

Para cerrar esta brecha, es necesario desarrollar una tercera teorıa concerniente ala regularidad de las soluciones de (P). Ese es el objetivo del siguiente capıtulo.

Capıtulo 4

Regularidad de las solucionesoptimas

4.1. Regularidad de tipo Lipschitz

Con el fin de cerrar la brecha entre la teorıa de existencia vıa el metodo directo y lade condiciones necesarias de tipo Euler-Lagrange probaremos el siguiente resultado:

Teorema 4.1.1 Supongamos que L ∈ C1(RN × RN ;R) y satisface (Cp) para algun

p > 1. Entonces toda solucion x de (P) es Lipschitz, es decir, existe una constante

M0 ≥ 0 tal que

‖ ˙x(t)‖ ≤ M0 c.t.p. t ∈ [a, b].

La idea de la demostracion es la siguiente: tomemos m < M dos constantes ydefinamos los conjuntos

ℓm = {t ∈ [0, T ] | ‖ ˙x(t)‖ ≤ m}

LM = {t ∈ [0, T ] | ‖ ˙x(t)‖ ≥M}.

Intuitivamente, en ℓm la trayectoria x(t) se mueve “lentamente”mientras que en LM

lo hace mas rapido. La idea es construir una trayectoria xM(t) que se mueva masrapido que x(t) en ℓm y mas lento que x(t) en LM , y que mas aun

T∫

0

L(xM (t), xM(t))dt <

T∫

0

L(x(t), ˙x(t))dt

para M suficientemente grande, siempre que L1(LM ) > 0, donde L1 es la medida deLebesgue en R. Esta ultima desigualdad contradice la optimalidad de x, por lo quenecesariamente se tendra L1(LM) = 0 para todo M ≥ M0 a partir de cierto M0, loque prueba el caracter Lipschitz de x.

4.2. Demostracion del resultado de regularidad

Procederemos por etapas. Para simplificar, supondremos sin perdida de generali-dad que la condicion de crecimiento (Cp) se tiene con a = 0 y b = 1.

23

24 CAPITULO 4. REGULARIDAD DE LAS SOLUCIONES OPTIMAS

Etapa 1. Escoger un valor para m.

Dado m > 0, tenemos que

mın(P) =

T∫

0

L(x, ˙x)dt =

ℓm

L(x, ˙x)dt+

[0,T ]\ℓm

L(x, ˙x)dt

[0,T ]\ℓm

‖ ˙x‖pdt ≥ L1([0, T ] \ ℓm)mp = (T − L1(ℓm))mp.

Luego

L1(ℓm) ≥ T −mın(P)

mp.

Tomando m suficientemente grande, podemos suponer que

L1(ℓm) ≥T

2. (4.1)

Etapa 2. Construccion de una reparametrizacion temporal.

Sea M > m, donde m es tal que se tiene (4.1). Definamos

σM : [0, T ] → [0, T ]

tal que σM(0) = 0 y ademas

dσM

dt(t) = ‖ ˙x(t)‖ en LM ,

dσM

dt(t) = 1 en [0, T ] \ (LM ∪ ℓm),

dσM

dt(t) = rM en ℓm,

donde rM > 0 se ajusta de modo tal que σM (T ) = T . Mas precisamente

T = σM(T ) = 0 +

T∫

0

dσM

dt(t)dt

=

LM

‖ ˙x(t)‖dt+

[0,T ]\(LM∩ℓm)

dt+ rM

ℓm

dt.

Como T =T∫0

1dt, deducimos que

LM

(‖ ˙x(t)‖ − 1)dt+

ℓm

(rM − 1)dt = 0,

4.2. DEMOSTRACION DEL RESULTADO DE REGULARIDAD 25

es decir∫

LM

(‖ ˙x(t)‖ − 1)dt = (1 − rM)L1(ℓm).

Podemos suponer queM > 1 y, como ‖ ˙x(t)‖ ≥M en LM tenemos que necesariamente,

rM < 1

Por otra parte, si M ր +∞ entonces∫

LM

(‖ ˙x(t)‖ − 1)dt ց 0 (de otra forma, ˙x /∈

L1(0, T ;RN)). Luego, tomando M > m suficientemente grande podemos suponer que

1

2≤ rM < 1.

Etapa 3. Definicion de xM y consecuencias.

Definamos

xM (s) = x(σ−1M (s)), s ∈ [0, T ].

Como x es optimo, sabemos que

T∫

0

L(xM , xM)ds ≥

T∫

0

L(x, ˙x)dt. (4.2)

Ahora bien

dxM

ds(s) =

dx

dt(σ−1

M (s))dσ−1

M

ds(s).

Sea el cambio de variables

σM (t) = s,

de modo tal que

dσ−1M

ds(s) =

1dσM

dt(t).

Ası

T∫

0

L(xM , xM)ds =

T∫

0

L(xM (s),dx

dt(σ−1

M (s))/dσM

dt(σ−1

M (s)))ds

=

T∫

0

L(x(t),dx

dt(t)/

dσM

dt(t))

dσM

dt(t)dt

=

ℓm

L(x,1

rM

˙x)rMdt+

LM

L(x,˙x

‖ ˙x‖)‖ ˙x‖dt+

[0,T ]\(LM∩ℓm)

L(x, ˙x)dt.

26 CAPITULO 4. REGULARIDAD DE LAS SOLUCIONES OPTIMAS

Usando (4.2), deducimos que

ℓm

[L(x,1

rM

˙x)rM − L(x, ˙x)]dt+

LM

[L(x,˙x

‖ ˙x‖)‖ ˙x‖ − L(x, ˙x)]dt ≥ 0.

Como x es acotada (por ser continua en [0, T ]) y ‖˙x

‖ ˙x‖‖ = 1, entonces L(x,

˙x‖ ˙x‖

) es aco-

tada superiormente (pues L es continua), lo que junto con la condicion de crecimientoL(x, y) ≥ ‖y‖p nos da

ℓm

[L(x,1

rM

˙x)rM − L(x, ˙x)]dt+

LM

[C‖ ˙x‖ − ‖ ˙x‖p]dt ≥ 0

para alguna constante C > 0. Por otra parte, como L es de clase C1 tenemosque es localmente Lipschitz, y en particular ∀R > 0, ∃KR, ∀(x, y) ∈ RN × RN ,max{‖x‖, ‖y‖, ‖y′‖} ≤ R ⇒ |L(x, y)−L(x, y′)| ≤ KR‖y− y′‖. Luego, como ‖ ˙x(t)‖ ≤m en ℓm, se tiene que tomando x = x(t) e y = ˙x(t) con t ∈ ℓm entonces

L(x,1

rMy)rM − L(x, y) ≤ L(x,

1

rMy) − L(x, y) ≤

KR

rM(1 − rM)‖y‖,

rM < 1

para R ≥ max{max{x(t) | t ∈ [0, T ]}, 2m}. Deducimos que∫

ℓm

D(1 − rM)dt+

LM

[C‖x‖ − ‖x‖p]dt ≥ 0

para algunas constantes C,D > 0. Pero de la etapa 2, sabemos que

(1 − rM)L1(ℓm) =

LM

(‖ ˙x‖ − 1)dt,

y en consecuencia, para todo M suficientemente grande,∫

LM

[D(‖ ˙x(t)‖ − 1) + C‖ ˙x(t)‖ − ‖ ˙x(t)‖p]dt ≥ 0. (4.3)

Etapa 4. Conclusion.

Como p > 1, la funcion

Φ(u) = (C +D)u−D − up, u ≥ 0,

satisfaceΦ(u) < 0

para todo u suficientemente grande, digamos

u ≥M0

4.2. DEMOSTRACION DEL RESULTADO DE REGULARIDAD 27

para una constante M0 ≥ 0, y dado que ‖ ˙x‖ ≥ M en LM , entonces

LM0

Φ(‖ ˙x(t)‖)dt < 0

siempre que L1(LM0) > 0, lo que contradecerıa la desigualdad (4.3). Por lo tanto,

∀M ≥M0,L1(LM) = 0 y en particular ‖ ˙x(t)‖ ≤M0 c.t.p. t ∈ [0, T ].

28 CAPITULO 4. REGULARIDAD DE LAS SOLUCIONES OPTIMAS

Capıtulo 5

Ecuaciones de Euler-Lagrange:caso Lipschitz

En virtud de la regularidad Lipschitz de las soluciones optimas de (P) establecidaen el capıtulo 4, es posible obtener la version generalizada de las ecuaciones de Euler-Lagrange.

5.1. Ecuaciones de Euler-Lagrange generalizadas

Teorema 5.1.1 Bajo las hipotesis del teorema 4.1.1, si x es una solucion de (P)entonces la funcion

[0, T ] ∋ t 7→∂L

∂y(x(t), ˙x(t))

es diferencible c.t.p. en [0, T ] y mas aun

d

dt

∂L

∂y(x, ˙x) =

∂L

∂x(x, ˙x) c.t.p. en [0, T ]

Demostracion. Definamos las funciones

f(t) =∂L

∂y(x(t), ˙x(t)),

g(t) =∂L

∂x(x(t), ˙x(t)).

Como L es de clase C1 y x es Lipschitz continua en virtud del teorema 4.1.1, dedu-cimos que f y g son funciones acotadas.

Consideremos una funcion lipschitziana h : [0, T ] → R de la forma

h(t) =

∫ t

0

ψ(t)dt

con ψ ∈ L∞(0, T ;RN) tal queT∫

0

ψ(t)dt = 0 (5.1)

29

30 CAPITULO 5. ECUACIONES DE EULER-LAGRANGE: CASO LIPSCHITZ

de modo tal que h(0) = h(T ) = 0. Razonando de manera analoga a lo realizado en laseccion 3.1 para obtener (3.2), pero ahora asumiendo solo lipschitzianidad de x y h,tenemos que

t∫

0

[f(t)h(t) + g(t)h(t)]dt = 0. (5.2)

Esto ultimo se puede justificar utilizando el siguiente lema tecnico de la teorıa de lamedida que enunciamos sin demostracion (se trata de una consecuencia relativamentesencilla del teorema de convergencia dominada):

Lema 5.1.1 Sea ϕ : Rk × R→ R una funcion tal que:

(i) ∀λ ∈ R, ϕ(·, λ) ∈ L1(Rk).(ii) ∀ξ ∈ Rk, ϕ(ξ, ·) ∈ C1(R).

(iii) ∃g ∈ L1(Rk), ∀λ ∈ R,

∣∣∣∣∂ϕ

∂λ(ξ, λ)

∣∣∣∣ ≤ g(x).

Entonces, la funcion

Φ(λ) =

Rk

ϕ(ξ, λ)dξ

es de clase C1 en R y mas aun

Φ′(λ) =

Rk

∂ϕ

∂λ(ξ, λ)dξ.

Definamos

A(t) = f(t) −

t∫

0

g(s)ds.

Una integracion por partes en (5.2) proporciona

t∫

0

A(t)h(t)dt = 0,

o equivalentemente, para todo ψ ∈ L∞(0, T ;RN) que satisface (5.1), se tiene

T∫

0

A(t)ψ(t)dt = 0.

Sean ahora ψ ∈ L2(0, T ;RN) y ψnL2

−→ψ con ψn ∈ L∞(0, T ;RN) tales que

T∫

0

ψn(t)dt = 0.

Entonces ψ satisface (5.1) y ademas, dado que A ∈ L∞(0, T ;RN) ⊆ L2(0, T ;RN), setiene

T∫

0

A(t)ψ(t)dt = 〈A,ψ〉L2 = lımn→∞

〈A,ψn〉L2 = lımn→∞

T∫

0

A(t)ψn(t)dt = 0.

5.2. EJEMPLO: DINAMICA DE UNA PARTICULA 31

Por densidad de L∞(0, T ;RN) en L2(0, T ;RN), deducimos facilmente que

∀ψ ∈ L2(0, T ;RN),

T∫

0

ψ(t)dt = 0 ⇒

T∫

0

A(t)ψ(t)dt = 0.

Es decir,

∀ψ ∈ L2(0, T ;RN), 〈1, ψ〉L2 = 0 ⇒ 〈A,ψ〉L2 = 0.

Esto significa que A ⊥ L2/R, es decir, existe c ∈ R tal que

A(t) = c c.t.p. t ∈ [0, T ],

que era exactamente lo que querıamos demostrar.

5.2. Ejemplo: dinamica de una partıcula

Dado m > 0, consideremos el problema

(Pm) mın

T∫

0

[m2‖x(t)‖2 − U(x(t))

]dt

∣∣∣ x ∈ AC(0, T ;R3), x(0) = x0, x(T ) = x1

.

Supongamos que U ∈ C1(R3) y que ademas

supx∈R

U(x) < +∞.

Ası,

L(x, y) =m

2‖y‖2 − U(x) ≥

m

2‖y‖2 − supU,

de modo que se satisface la condicion de crecimiento (Cp) con p = 2. Deducimos que(Pm) admite una solucion x ∈ AC(0, T ;R3) y, mas aun, esta solucion es Lipschitz ysatisface la ecuacion de Euler-Lagrange

md

dtx(t) = −∇U(x(t)) c.t.p. t ∈ [0, T ]

Como x es continua y U ∈ C1(R3), el lado derecho de esta ecuacion evaluado en xes continuo con respecto a t y en consecuencia x ∈ C2(0, T ;R3) y ademas satisface elproblema diferencial de segundo orden con condiciones de borde

{mx+ ∇U(x) = 0,x(0) = x0, x(T ) = x1.

Si U ∈ Ck(R3) entonces se deduce recursivamente que x ∈ Ck+1(0, T ;R3). El problemadiferencial correspondiente al movimiento de una partıcula de masa m sometida a uncampo de fuerzas F = −∇U asociado al potencial U . En este contexto, a la funcion

L(x, x) =m

2‖x(t)‖2 − U(x(t))

se le llama lagrangiano, y el hecho que la trayectoria de la partıcula sea una solucionde (Pm) se conoce como el principio de mınima accion, entendiendo por “accion” laintegral del lagrangiano.

32 CAPITULO 5. ECUACIONES DE EULER-LAGRANGE: CASO LIPSCHITZ

Capıtulo 6

Ejercicios

1. Convergencia variacional y el metodo directo. Sea (X, ‖ · ‖) un espacio de Ba-nach reflexivo. Diremos que una sucesion de funciones Fn : X → R converge

variacionalmente a una funcion F : X → R, lo que escribiremos F = V - lımn→∞

Fn,

si se satisfacen las dos condiciones siguientes:(V1) ∀x ∈ X, ∀xn ⇀ x, F (x) ≤ lım inf

n→∞Fn(xn).

(V2) ∀x ∈ X, lım supn→∞

Fn(x) ≤ F (x).

(a) Pruebe que (V2) implica que lım supn→∞

(ınfXFn) ≤ ınf

XF.

Considere la siguiente condicion de crecimiento uniforme para la sucesion (Fn):

∃α ∈ R, ∃β > 0, ∀n ∈ N, ∀x ∈ X,Fn(x) ≥ α + β‖x‖. (6.1)

(b) Pruebe que bajo (6.1), existe una sucesion acotada (xn) ⊂ X tal que

lım supn→∞

Fn(xn) ≤ lım supn→∞

(ınfXFn).

(c) Utilizando (a) y (b), pruebe que si se tiene (6.1) y F = V - lımn→∞

Fn entonces

existe x ∈ X tal que F (x) = mınX

F .

2. Un caso particular del modelo de Ramsay. Denotemos por x(t) y c(t) el capitaly el consumo de un individuo en el instante t respectivamente. Asuma que laproduccion de capital esta dada por la funcion f(x) = δx con δ > 0, mientrasque la funcion de utilidad del individuo esta dada por u(c) = −λ(c − c∗)2 conλ, c∗ > 0. Los parametros δ, λ, c∗ > 0 son conocidos. En un horizonte [0, T ], elindividuo busca maximizar la utilidad esperada, esto es

(P)

max

T∫

0

u(c(t))dt

x(t) = f(x(t)) − c(t)

x(0) = x0 > 0 (capital inicial), x(T ) = 0 (capital final nulo)

33

34 CAPITULO 6. EJERCICIOS

(a) Pruebe que (P) admite al menos una solucion x ∈ AC(0, T ;R). Ind.: puedesuponer que x(t) es acotado para toda funcion factible para (P).

(b) Deduzca que la solucion x es Lipschitz continua.

(c) Calcule x.

Bibliografıa

El lector interesado en profundizar los conceptos y metodos expuestos brevementeen estos apuntes puede consultar la amplia bibliografıa que existe al respecto.Son muchos los autores que han escrito libros sobre problemas variacionales delcalculo de variaciones, metodos directos para establecer existencia, problemas desemicontinuidad inferior, aplicaciones a ecuaciones diferenciales y a problemas decontrol optimo, etc. La siguiente es solo una lista parcial de textos recomendablesque abordan estos temas:

[Att84] Attouch, H., Variational Convergence for Functions and Operators, Applica-ble Mathematics Series, Pitman (Advanced Publishing Program), Boston, MA,1984.

[BrD98] Braides, A., Defrancheschi, A., Homogenization of Multiple Integrals, OxfordLecture Series in Mathematics and its Applications, 12, The Clarendon Press,Oxford University Press, New York, 1998.

[But89] Buttazzo, G., Semicontinuity, Relaxation and Integral Representation in the

Calculus of Variations, Pitman Research Notes in Mathematics Series, 207, Long-man Scientific & Technical, Harlow; John Wiley & Sons, Inc., New York, 1989.

[CaD02] Carbone, L., De Arcangelis, R., Unbounded Functionals in the Calculus

of Variations. Representation, Relaxation, and Homogenization. Chapman &Hall/CRC Monographs and Surveys in Pure and Applied Mathematics, 125.Chapman & Hall/CRC, Boca Raton, FL, 2002.

[Ces83] Cesari, L., Optimization - Theory and Applications. Problems with ordinary

differential equations, Applications of Mathematics, 17, Springer-Verlag, NewYork, 1983.

[Dac89] Dacorogna, B., Direct Methods in the Calculus of Variations, Applied Mat-hematical Sciences, 78, Springer-Verlag, Berlin, 1989.

[Dal93] Dal Maso, G., An Introduction to Γ-convergence, Birkhauser, Boston, 1993.

[Eke90] Ekeland, I., Convexity Methods in Hamiltonian Mechanics, Ergebnisse derMathematik und ihrer Grenzgebiete (3) [Results in Mathematics and RelatedAreas (3)], 19, Springer-Verlag, Berlin, 1990.

[EkT99] Ekeland, I., Temam, R., Convex Analysis and Variational Problems, (tra-duccion del frances), version corregida de la edicion en ingles de 1976, Classicsin Applied Mathematics, 28, Society for Industrial and Applied Mathematics(SIAM), Philadelphia, PA, 1999.

35

36 BIBLIOGRAFIA

[GeF63] Gelfand, I.M., Fomin, S. V., Calculus of Variations, Prentice-Hall, Inc., En-glewood Cliffs, N.J., 1963.

[GiH96] Giaquinta, M., Hildebrandt, S., Calculus of Variations. I. The Lagrangian

formalism. II. The Hamiltonian formalism, Grundlehren der MathematischenWissenschaften [Fundamental Principles of Mathematical Sciences], 310-311,Springer-Verlag, Berlin, 1996.

[Mor66] Morrey, C.B., Multiple Integrals in the Calculus of Variations, Die Grundleh-ren der mathematischen Wissenschaften, Band 130 Springer-Verlag New York,Inc., New York, 1966.

[Str00] Struwe, M., Variational Methods. Applications to nonlinear partial differential

equations and Hamiltonian systems. Third edition, Ergebnisse der Mathematikund ihrer Grenzgebiete, 3, Folge, A Series of Modern Surveys in Mathematics[Results in Mathematics and Related Areas. 3rd Series. A Series of Modern Sur-veys in Mathematics], 34, Springer-Verlag, Berlin, 2000.