capitulo 5 de mtdos numericos

30
5. M´ etodos Lineales Multipaso Eduardo S´ainz de la Maza 11 de mayo de 2011

Upload: jenniferperez

Post on 08-Dec-2015

212 views

Category:

Documents


0 download

DESCRIPTION

Capitulo 5 de Metodos numericos

TRANSCRIPT

Page 1: Capitulo 5 de Mtdos numericos

5. Metodos Lineales Multipaso

Eduardo Sainz de la Maza

11 de mayo de 2011

Page 2: Capitulo 5 de Mtdos numericos

Indice general

5. Metodos lineales multipaso 2

5.1. Forma general de un M.L.M. . . . . . . . . . . . . . . . . . . . 2

5.2. Deduccion de metodos lineales multipaso . . . . . . . . . . . . 3

5.2.1. Mediante expansiones de Taylor . . . . . . . . . . . . . 3

5.2.2. Mediante integracion numerica . . . . . . . . . . . . . 5

5.2.3. Mediante interpolacion . . . . . . . . . . . . . . . . . . 5

5.3. Convergencia, orden, consistencia y cero-estabilidad . . . . . 8

5.4. Orden alcanzable. Metodos optimales. . . . . . . . . . . . . . . 13

5.5. Metodos Adams . . . . . . . . . . . . . . . . . . . . . . . . . . 13

5.6. Estabilidad absoluta y relativa . . . . . . . . . . . . . . . . . . 15

5.7. Metodos para obtener intervalos de estabilidad absoluta y re-lativa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18

5.7.1. Metodo de representacion geometrica de las raıces . . . 18

5.7.2. Metodo de Schur . . . . . . . . . . . . . . . . . . . . . 19

5.7.3. Criterio de Routh-Hurwitz . . . . . . . . . . . . . . . . 20

5.7.4. Metodo de localizacion de la frontera . . . . . . . . . . 21

5.8. Metodos Predictor Corrector . . . . . . . . . . . . . . . . . . . 22

5.8.1. Error local de truncatura de los metodos P-C. Dispo-sitivo de Milne . . . . . . . . . . . . . . . . . . . . . . 24

5.9. Estabilidad absoluta de los metodos predictor corrector . . . . 27

1

Page 3: Capitulo 5 de Mtdos numericos

Capıtulo 5

Metodos lineales multipaso

5.1. Forma general de un M.L.M.

La estructura general de un metodo lineal multipaso de k pasos para apro-ximar la solucion del problema de valores iniciales{

y′(x) = f(x, y(x))y(a) = η

(5.1)

viene dada pork∑j=0

αjyn+j = hk∑j=0

βjfn+j, (5.2)

donde αj y βj son constantes y donde α0β0 6= 0, es decir no son ambosnulos. Ademas αk 6= 0. Como podemos escalar toda la ecuacion se normalizatomando αk = 1.

La ecuacion 5.2 es una ecuacion en diferencias finitas de orden k en la queaparecen k + 1 yj consecutivos relacionados. En general sera no lineal. Senecesitan k valores iniciales y0, y1, . . . , yk−1 para empezar a aplicar el metodo.

El MLM es explıcito si βk = 0 e implıcito si βk 6= 0. En el caso explıcitopodemos despejar yn+k en la ecuacion 5.2 en funcion de valores ya calculados,siendo solo necesarias k evaluaciones de la funcion f(x, y) por iteracion. Peroel el caso implıcito en cada iteracion hay que resolver una ecuacion no linealen yn+k de la forma

yn+k = hβkf(xn+k, yn+k) + g

donde g es una funcion conocida que depende de los valores ya calculados.En general esta es una ecuacion no lineal en yn+k que se puede resolver con

2

Page 4: Capitulo 5 de Mtdos numericos

la iteracion de punto fijo

y[s+1]n+k = hβkf(xn+k, y

[s]n+k) + g, y

[0]n+karbitrario. (5.3)

Sabemos que la iteracion de punto fijo converge si la funcion es contractiva.Si f(x, y) es Lipschitz en y con constante de Lipschitz L entonces necesitamosque Lh|βk| < 1, es decir que

h <1

L|βk|. (5.4)

Esta condicion puede ser muy restrictiva cuando L es muy grande, problemaque trataremos en el capıtulo de sistemas stiff.

5.2. Deduccion de metodos lineales multipa-

so

Vamos a ver tres tecnicas para obtener M.L.M que son el uso de expansionesde Taylor, el empleo de integracion numerica y el uso de la interpolacion.

5.2.1. Mediante expansiones de Taylor

Si consideramos la expansion de Taylor

y(xn + h) = y(xn) + hy′(xn) +h2

2!y′′(xn) + · · ·

truncando por los terminos de segundo orden obtenemos la relacion

y(xn + h) ≈ y(xn) + hf(xn, y(xn))

con un errorh2

2!y′′(xn) + · · ·

Esto nos permite definir yn como la solucion de la ecuacion

yn+1 = yn + hfn

que es el metodo de Euler. El caso mas sencillo de metodo lineal multipaso,en este caso de un paso. Con error local de truncatura O(h2) y orden uno.

3

Page 5: Capitulo 5 de Mtdos numericos

Si hacemos las expansiones

y(xn + h) = y(xn) + hy′(xn) +h2

2!y′′(xn) +

h3

3!y3(xn) + · · ·

y(xn − h) = y(xn)− hy′(xn) +h2

2!y′′(xn)− h3

3!y3(xn) + · · ·

obtenemos restandolas

y(xn + h)− y(xn − h) = 2hy′(xn) +h3

3y3(xn) + · · ·

lo que nos sugiere el metodo

yn+1 − yn−1 = 2hfn

que escrito en forma estandard nos da la regla del punto medio

yn+2 − yn = 2hfn+1

metodo explıcito de dos pasos y con error local 13y′′′(xn).

De forma similar podemos obtener metodos lineales multicaso con una es-tructura concreta, haciendo intervenir los puntos que deseemos. Por ejemplosi nos planteamos obtener el metodo implıcito de un paso mas preciso

yn+1 + α0yn = h(β1fn+1 + β0fn), (5.5)

harıamos expansiones de Taylor de los puntos que intervienen

y(xn+1) = y(xn) + hy′(xn) +h2

2!y′′(xn) + · · ·

y′(xn+1) = y′(xn) + hy′′(xn) +h2

2!y′′′(xn) + · · ·

sustituyendo en 5.5 y pasando todo a la izquierda de la igualdad se tiene

C0y(xn) + C1hy′(xn) + C2h

2y′′(xn) + C3h3y′′′(xn) + · · · ≈ 0,

donde

C0 = 1 + α0, C1 = 1− β1 − β0

C2 = 12− β1, C3 =

1

6− 1

2β1.

Para obtener el mayor orden posible tomaremos α0 = −1, β1 = β0 = 12.

Entonces C3 toma el valor − 112

obteniendo el MLM conocido como la regladel trapecio.

yn+1 − yn =h

2(fn+1 + fn),

con error local 112h3y′′′(xn).

4

Page 6: Capitulo 5 de Mtdos numericos

5.2.2. Mediante integracion numerica

Si consideramos la identidad

y(xn+2)− y(xn) ≡∫ xn+2

xn

y′(x)dx =

∫ xn+2

xn

f(x, y(x))dx

y aproximamos la integral por una formula de cuadratura, por ejemplo la in-tegral del polinomio de interpolacion de Lagrange de grado dos que interpolalos puntos (xn, fn), (xn+1, fn+1), (xn+2, fn+2)∫ xn+2

xn

y′(x)dx ≈∫ xn+2

xn

p2(x)dx =

∫ 2

0

[fn + r∆fn +

r(r − 1)

2!∆2fn

]hdr

= h(2fn + 2∆fn +1

3∆2fn)

de donde deducimos la expresion

yn+2 − yn =h

3(fn+2 + 4fn+1 + fn) ,

que es la regla de Simpson un metodo implıcito de dos pasos. Si tomamos

y(xn+2)− y(xn+1) ≡∫ xn+2

xn+1

y′(x)dx,

y utilizamos el mismo polinomio interpolador anterior obtenemos

yn+2 − yn+1 =h

12(5fn+2 + 8fn+1 − fn) ,

que es el metodo Adams-Moulton de dos pasos. Todos los metodos obtenidoscon esta tecnica solo tienen dos valores de yj.

5.2.3. Mediante interpolacion

Vamos a volver a obtener la regla de Simpson pero con la tercera tecnica ba-sada en la interpolacion numerica. Consideremos y(x) y la aproximamos porun polinomio de interpolacion I(x). Exigimos que I(x) interpole los puntos(xn+j, yn+j), j = 0, 1, 2 y tambien que su derivada I ′(x) tome los valores fn+j

para j = 0, 1, 2. Es decir I(x) es un polinomio de interpolacion de Hermiteque cumple las condiciones

I(xn+j) = yn+j, I ′(xn+j) = fn+j, j = 0, 1, 2.

5

Page 7: Capitulo 5 de Mtdos numericos

tenemos seis condiciones y en vez de elegir I(x) como el polinomio de Hermitede grado cinco, buscamos un polinomio de grado 4, sea

I(x) = ax4 + bx3 + cx2 + dx+ e

eliminando los cinco coeficientes a, b, c, d, e y relacionandolos con las seis ecua-ciones obtenemos de nuevo la identidad

yn+2 − yn =h

3(fn+2 + 4fn+1 + fn) .

Esta tecnica ilustra que una aplicacion de un metodo lineal multipaso puedeinterpretarse como representar localmente la solucion por un polinomio.

Cuando buscamos representar y(x) por un polinomio no localmente en [xn, xn+k],sino globalmente en [x0, xN ], para no utilizar un polinomio de grado alto po-demos usar como interpolante un spline. Recordemos que un spline Sm(x) degrado m en [a, b] es un polinomio de grado m en cada subintervalo [xj, xj+1],j = 0, 1, . . . , N − 1 y que Sm(x) ∈ Cm−1[a, b].

Consideremos en primer lugar el polinomio cuadratico

Ij(x) = aj2x2 + aj1x+ aj0

usado para aproximar y(x) en el intervalo [xj, xj+1]. Como hemos hecho antesle imponemos 4 condiciones

Ij(xj) = yj, Ij(xj+1) = yj+1

I ′j(xj) = fj, I ′j(xj+1) = fj+1.

obtenemos de nuevo la regla del trapecio

yj+1 − yj =h

2(fj+1 + fj).

Por tanto aplicar la regla del trapecio en los intervalo [xj, xj+1], [xj+1, xj+2],... es equivalente a representar y(x) por polinomios de grado dos en cadasubintervalo, pero ademas globalmente tenemos continuidad del aproximantey de su derivada, ya que en los nodos se verifica que

Ij(xj+1) = Ij+1(xj+1) = yj+1

I ′j(xj+1) = I ′j+1(xj+1) = fj+1.

por lo que es un spline cuadratico.

6

Page 8: Capitulo 5 de Mtdos numericos

Si hacemos un analisis parecido con la regla de Simpson podemos interpretarque una aplicacion de la regla de Simpson

yj+2 − yj =h

3(fj+2 + 4fj+1 + fj) .

es equivalente a representar y(x) en [xj, xj+2] por un polinomio de gradocuatro Ij(x). En el paso siguiente aplicar esta regla

yj+3 − yj+1 =h

3(fj+3 + 4fj+2 + fj+1)

equivale a representar y(x) en [xj+1, xj+3] por otro polinomio de grado cuatroIj+1(x), ası en el intervalo que se solapa [xj+1, xj+2] tenemos dos represen-taciones diferentes Ij(x) e Ij+1(x) de y(x), que no tienen por que coincidir.Estas deben cumplir las cuatro relaciones

Ij(xj+1) = Ij+1(xj+1) = yj+1

Ij(xj+2) = Ij+1(xj+2) = yj+2

I ′j(xj+1) = I ′j+1(xj+1) = fj+1

I ′j(xj+2) = I ′j+1(xj+2) = fj+2,

que no son suficientes para determinar la igualdad de ambos polinomios. Porlo que no podemos concluir nada sobre la aplicacion global de la regla deSimpson.

Sin embargo tambien es verdad que una aplicacion de la regla de Simpsonen [xj, xj+2] equivale a representar y(x) por un spline cubico que depende decinco parametros

Sj3(x) = aj3x3 + aj2x

2 + aj1x+ aj0 para x ∈ [xj, xj+1]

= aj3x3 + aj2x

2 + aj1x+ aj0 + cj+1(x− xj+1)3 para x ∈ [xj+1, xj+2].

analogamente en el siguiente paso aplicar la regla de Simpson equivale arepresentar y(x) en [xj+1, xj+3] por otro spline cubico Sj+1

3 (x). De nuevo enel intervalo que se solapa [xj+1, xj+2] tenemos dos representaciones diferentesSj3(x) y Sj+1

3 (x) de y(x). En dicho intervalo ambas representaciones son dospolinomios cubicos que cumplen las cuatro condiciones

Sj3(xj+1) = Sj+13 (xj+1) = yj+1

Sj3(xj+2) = Sj+13 (xj+2) = yj+2

Sj3′(xj+1) = Sj+1

3

′(xj+1) = fj+1

Sj3′(xj+2) = Sj+1

3

′(xj+2) = fj+2,

que son suficientes para implicar que coinciden. Por ello se puede interpre-tar que aplicar la regla de Simpson en todo el intervalo [x0, xN ] equivale arepresentar la solucion y(x) globalmente por un spline cubico.

7

Page 9: Capitulo 5 de Mtdos numericos

5.3. Convergencia, orden, consistencia y cero-

estabilidad

Vamos a ver las definiciones basicas asociadas a los metodos lineales multi-paso. Empezamos por la definicion de convergencia que indica que nuestrasaproximaciones numericas yn tienden a la solucion exacta y(xn) cuando setoman pasos h cada vez mas finos. En este caso el metodo de k pasos necesitak condiciones iniciales y0, y1, . . . , yk−1 para empezar a trabajar y exigiremosque todas ellas tiendan a y(a) = η puesto que los x0, x1, . . . , xk−1 tiendentodos ellos a x0 = a.

Definicion 5.3.1. El metodo lineal multipaso 5.2 se dice que es convergentepara todo problema de valores iniciales 5.1 si

lımn→∞

yn = y(x) ∀x ∈ [a, b]

con n → ∞, h → 0, xn = a + nh ≡ x fijo, supuesto que las condicionesiniciales yk = ηk(h) verifican limh→0ηk(h) = η, k = 0, 1, . . . , k − 1.

Definimos el operador L asociado al metodo por

L[y(x);h] =k∑j=0

[αj(y(x+ jh)− hβjy′(x+ jh)] , (5.6)

donde y(x) es una funcion arbitraria. Haciendo expansiones de Taylor pode-mos expresar este operador como

L[y(x);h] = C0y(x) + C1hy′(x) + · · ·+ Cqh

qy(q)(x) + · · · , (5.7)

donde las Cq son constantes.

Definicion 5.3.2 (Orden). El MLM 5.2 tiene orden p si en la ecuacion 5.5C0 = C1 = . . . = Cp = 0 y Cp+1 6= 0.

Estos Cq dependen de los coeficientes αj y βj del metodo

C0 = α0 + α1 + α2 + · · ·+ αk

C1 = α1 + 2α2 + · · ·+ kαk − (β0 + β1 + β2 + · · ·+ βk) (5.8)

Cq =1

q!(α1 + 2qα2 + · · ·+ kqαk)−

1

(q − 1)!

(β1 + 2q−1β2 + · · ·+ kq−1βk

)

8

Page 10: Capitulo 5 de Mtdos numericos

La constante Cp+1 se llama constante de error del metodo. Tambien sepodrıan haber realizado las expansiones de Taylor del operador L en unpunto x+ th en vez de en x, en cuyo caso obtendrıamos

L[y(x);h] = D0y(x+th)+D1hy′(x+th)+ · · ·+Dqh

qy(q)(x+th)+ · · · , (5.9)

expandiendo estas y comparando con 5.6 obtenemos

C0 = D0

C1 = D1 + tD0

C2 = D2 + tD1 +t2

2!D0

......

Cp = Dp + tDp−1 + · · ·+ tp

p!D0.

Se verifica que C0 = · · · = Cp = 0 si y solo si D0 = · · · = Dp = 0 y enese caso tambien Cp+1 = Dp+1. Analogamente podemos expresar los Dq enfuncion de los coeficientes del metodo

D0 = α0 + α1 + α2 + · · ·+ αk

D1 = −tα0 + (1− t)α1 + (2− t)α2 + · · ·+ (k − t)αk − (β0 + β1 + β2 + · · ·+ βk)

Dq =1

q![(−t)qα0 + (1− t)qα1 + (2− t)qα2 + · · ·+ (k − t)qαk] (5.10)

− 1

(q − 1)!

[(−t)q−1β0 + (1− t)q−1β1 + (2− t)q−1β2 + · · ·+ (k − t)q−1βk

]Definicion 5.3.3 (Error local de truncatura). Se define el error local de trun-catura del metodo 5.2 en el punto xn+k y se denota por Tn+k = L[y(xn);h],donde y(x) es la solucion teorica del problema de valores iniciales 5.1.

Analicemos si el error local de truncatura coincide con el error cometidoen un paso, es decir con el error global, cuando se hace la hipotesis de queno se han cometido errores previos. Si suponemos que yn+j = y(xn+j) paraj = 0, 1, . . . , k − 1. De 5.6 se tiene

k∑j=0

αjy(xn + jh) = hk∑j=0

βjy′(xn + jh) + L[y(xn);h] (5.11)

= h

k∑j=0

βjf(xn + jh, y(xn + jh)) + L[y(xn);h]

9

Page 11: Capitulo 5 de Mtdos numericos

por otra parte el metodo satisface

k∑j=0

αjyn+j = h

k∑j=0

βjf(xn+j, yn+j),

restando ambas y teniendo en cuenta la hipotesis de que no hay erroresprevios,

y(xn+k)− yn+k = hβk [f(xn+k, y(xn+k))− f(xn+k, yn+k)] + L[y(xn);h]

= hβk [y(xn+k)− yn+k]∂f(xn+k, ηn+k)

∂y+ L[y(xn);h]

por el teorema del valor medio, donde ηn+k es un punto entre yn+k e y(xn+k).Por consiguiente obtenemos que

Tn+k = L[y(xn);h] =

[1− hβk

∂f(xn+k, ηn+k)

∂y

](y(xn+k)− yn+k). (5.12)

Podemos por tanto concluir que si el metodo es explıcito (βk = 0) entoncesel error local de truncatura es el error cometido en un paso; pero si el metodoes implıcito (βk 6= 0) entonces ambos son magnitudes del mismo orden perono identicas. En todos los casos el error cometido en un paso es de la forma

y(xn+k)− yn+k = Cp+1hp+1y(p+1)(xn) +O(hp+2).

El termino Cp+1hp+1y(p+1)(xn) se llama parte principal del error local de

truncatura y la Cp+1 constante de error.

El error global en el punto xn+k sigue siendo la diferencia en+k = y(xn+k)−yn+k cuando no se hace ninguna hipotesis.

Definicion 5.3.4 (Consistencia). El MLM 5.2 se dice que es consistente sitiene orden p ≥ 1.

Es decir sera consistente si y solo si

k∑j=0

αj = 0 yk∑j=0

jαj =k∑j=0

βj. (5.13)

El significado de la consistencia lo podemos interpretar como condicionesnecesarias para que la sucesion yn generada por el metodo converja a unafuncion y(x) que cumple la ecuacion diferencial. En efecto, consideraremos

10

Page 12: Capitulo 5 de Mtdos numericos

los lımites en el sentido descrito en la convergencia. Es decir h → 0, x ≡xn = a+nh fijo. Como k es fijo los yn+j → y(x) para j = 0, 1, . . . , k, es decir

y(x) = yn+j + θj,n(h), j = 0, 1, . . . , k

donde lım θj,n(h) = 0, j = 0, 1, . . . , k. Multiplicando por los αj y sumando

k∑j=0

αjy(x) =k∑j=0

αjyn+j +k∑j=0

αjθj,n(h)

es decir, usando la definicion del metodo

y(x)k∑j=0

αj = h

k∑j=0

βjfn+j +k∑j=0

αjθj,n(h).

Tomando lımites, los terminos de la derecha de la igualdad se anulan, por loque si queremos que el metodo converja a una funcion y(x) no identicamentenula se ha de verificar que

∑kj=0 αj = 0, que es la primera condicion de la

definicion de consistencia.

Veamos que la segunda condicion asegura que y(x) satisface la ecuacion di-ferencial. Consideremos

yn+j − ynjh

→ y′(x) j = 1, 2, . . . , k

es deciryn+j − yn = jhy′(x) + jhθj,n(h), j = 1, 2, . . . , k

donde lım θj,n(h) = 0, j = 1, 2, . . . , k. Como antes, multiplicando por αj,sumando y utilizando el metodo

k∑j=0

αjyn+j −k∑j=0

αjyn = h

k∑j=0

jαjy′(x) + h

k∑j=0

jαjθj,n(h)

es decir

hk∑j=0

βjfn+j − ynk∑j=0

αj = hy′(x)k∑j=0

jαj + hk∑j=0

jαjθj,n(h).

Como∑k

j=0 αj = 0 por la primera condicion, dividiendo por h

k∑j=0

βjfn+j = y′(x)k∑j=0

jαj +k∑j=0

jαjθj,n(h).

11

Page 13: Capitulo 5 de Mtdos numericos

Tomando lımites, como fn+j → f(x, y(x)) se tiene

f(x, y(x))k∑j=0

βj = y′(x)k∑j=0

jαj,

luego, si y(x) satisface la ecuacion diferencial, necesariamente se ha de tenerque

∑kj=0 jαj =

∑kj=0 βj , que es la segunda condicion.

Definicion 5.3.5. Se definen el primer y segundo polinomio caracterısticodel MLM y se denotan por ρ(ξ) y σ(ξ) respectivamente como

ρ(ξ) =k∑j=0

αjξj

σ(ξ) =k∑j=0

βjξj.

Observamos que el metodo sera consistente si y solo si

ρ(1) = 0, ρ′(1) = σ(1).

Por tanto para un metodo consistente el primer polinomio caracterıstico tienesiempre la raız ξ1 = 1 que llamaremos raız principal del metodo. Las demasraices ξs, s = 2, 3, . . . , k son espureas y provienen de aproximar una ecuaciondiferencial de primer orden por una ecuacion en diferencias finitas de ordenk. Su control sera importante para la convergencia de estos metodos.

Consideremos el problema trivial y′(x) = 0 con la condicion inicial y(0) = 0,cuya solucion es y(x) ≡ 0. Cuando aplicamos un MLM 5.2 obtenemos laecuacion en diferencias finitas

∑kj=0 αjyn+j = 0, que tiene por raıces de su

ecuacion caracterıstica las raıces de ρ(ξ) = 0. Si suponemos que estas sondistintas la solucion es de la forma

yn = h(d1ξn1 + d2ξ

n2 + · · ·+ dkξ

nk ),

donde las ds son constantes arbitrarias. Si queremos que el metodo sea con-vergente, tambien debiera serlo en este ejemplo, y por tanto como ξ1 = 1 esnecesario que las demas raıces verifique

lımh→0

hξns = 0, es decir, |ξs| ≤ 1.

Si alguna raız fuese multiple aparecerıan terminos de tipo hnξn o hn(n−1)ξn

por lo que loslımh→0

hnqξns = 0, si y solo si, |ξs| < 1.

12

Page 14: Capitulo 5 de Mtdos numericos

Definicion 5.3.6 (Cero-estabilidad). El MLM 5.2 se dice que es cero establesi las raıces del primer polinomio caracterıstico ρ(ξ) tienen modulo menor oigual de uno y las de modulo uno son simples.

Teorema 5.3.1. Las condiciones necesarias y suficientes para que un metodolineal multipaso sea convergente son que sea consistente y cero estable.

5.4. Orden alcanzable. Metodos optimales.

Fijado el numero de pasos k podemos estar interesados en elegir los coefi-cientes αj y βj para que el metodo tenga un orden alto cuando no el mayorposible. La consistencia no es problema y la las limitaciones nos vienen dellado de la estabilidad. Buscamos el mayor orden pero sin perder la cero es-talibidad para que el metodo sea convergente.

Un MLM de k pasos tiene 2k + 2 coeficientes αj y βj, pero como fijamosαk = 1 en realidad son 2k + 1 parametros libres si el metodo es implıcito y2k si es explıcito. Por otro lado para que el metodo tenga orden p se debencumplir las p+1 ecuaciones lineales de la definicion 5.3.2. Por tanto el maximoorden alcanzable por un MLM de k pasos es 2k si el metodo es implıcito y2k − 1 si es explıcito. Sin embargo estos metodos maximales no son por logeneral cero estables como se indica en el siguiente

Teorema 5.4.1. No existen MLM de k pasos cero estables de orden mayorque k + 1 si k es impar ni de orden mayor que k + 2 si k es par.

Los de orden k + 2 se llaman optimales y tienen todas las raıces del primerpolinomio caracterıstico en la frontera del cırculo unidad.

5.5. Metodos Adams

Los MLM que se obtienen a partir de formulas de integracion numerica tie-nen siempre una estructura en la que solo aparecen dos yn+j. Cuando estanbasados en formulas de tipo interpolatorio, por ejemplo cuando se expresael polinomio de interpolacion en diferencias regresivas tienen una forma deltipo

yn+1 − yn = h

(1− 1

2∇− 1

12∇2 − 1

24∇3 − · · ·

)fn+1 (5.14)

Si truncamos tras los dos primeros terminos obtenemos

yn+1 − yn =1

2h(fn+1 + fn)

13

Page 15: Capitulo 5 de Mtdos numericos

que es la regla del trapecio. Si lo hacemos tras tres terminos nos da

yn+1 − yn =1

12h(5fn+1 + 8fn − fn−1)

que, una vez escrito en forma estandard, es el metodo Adams-Moulton vistoanteriormente

yn+2 − yn+1 =1

12h(5fn+2 + 8fn+1 − fn).

En este tipo de metodos se consigue automaticamente la cero estabilidad yno se desperdicia orden por tener menos coeficientes pues queremos meto-dos optimales mas que maximales, y para estos no necesitamos tantos loscoeficientes. Los MLM cuyo primer polinomio caracterıstico es de la formaρ(ξ) = ξk− ξk−1 se llaman Metodos Adams, en concreto Adams-Bashforth sison explıcitos y Adams-Moulton si son implıcitos. Los metodos explıcitos cu-yo primer polinomio caracterıstico es de la forma ρ(ξ) = ξk − ξk−2 se llamanMetodos Nystrom y los implıcitos Mine-Simpson. Claramente todos ellos soncero estables.

Daremos ahora un listado de metodos lineales multipaso, no necesariamentede tipo Adams.

Metodos Explıcitos

k=1:α1 = 1α0 = −1 β0 = 1p = 1 Cp+1 = 1

2.

k=2:α2 = 1α1 = −1− a β1 = 1

2(3− a)

α0 = a β0 = −12(1 + a)

p = 2 Cp+1 = 112

(5 + a).

k=3:α3 = 1α2 = −1− a β2 = 1

12(23− 5a− b)

α1 = a+ b β1 = 13(−4− 2a+ 2b)

α0 = −b β0 = 112

(5 + a+ 5b)p = 3 Cp+1 = 1

24(9 + a+ b).

Metodos Implıcitos

k=1:α1 = 1 β1 = 1

2

α0 = −1 β0 = 12

p = 2 Cp+1 = − 112.

14

Page 16: Capitulo 5 de Mtdos numericos

k=2:α2 = 1 β2 = 1

12(5 + a)

α1 = −1− a β1 = 23(1− a)

α0 = a β0 = 112

(−1− 5a).

Si a 6= −1, entonces p = 3 y Cp+1 = − 124

(1 + a).

Si a = −1, entonces p = 4 y Cp+1 = − 190

.

k=3:α3 = 1 β3 = 1

24(9 + a+ b)

α2 = −1− a β2 = 124

(19− 13a− 5b)α1 = a+ b β1 = 1

24(−5− 13a+ 19b)

α0 = −b β0 = 124

(1 + a+ 9b)p = 4 Cp+1 = − 1

720(19 + 11a+ 19b).

5.6. Estabilidad absoluta y relativa

Nos referimos a la estabilidad debil o estabilidad para h fijo. Queremos quelos errores no se disparen cuando aplicamos el metodo a la ecuacion testy′ = λy. Para un MLM consistente y cero estable la solucion teorica delproblema de valores iniciales verifica

k∑j=0

αjy(xn+j) = hk∑j=0

βjf(xn+j, y(xn+j)) + Tn+k

donde Tn+k = L[y(xn);h] es el error local de truncatura. Si denotamos poryn la solucion del MLM realmente calculada cuando de cometen errores deredondeo, es decir,

k∑j=0

αj yn+j = hk∑j=0

βjf(xn+j, yn+j) +Rn+k (5.15)

restando ambas ecuaciones y denotando por en = y(xn)− yn se tiene

k∑j=0

αj en+j = hk∑j=0

βj [f(xn+j, y(xn+j))− f(xn+j, yn+j)] + φn+k

donde φn+k = Tn+k − Rn+k. Aplicando el teorema del valor medio podemosescribir

f(xn+j, y(xn+j))− f(xn+j, yn+j) = [y(xn+j)− yn+j]∂f(xn+j, ξn+j)

∂y

= en+j∂f

∂y(xn+j, ξn+j).

15

Page 17: Capitulo 5 de Mtdos numericos

Luegok∑j=0

αj en+j = hk∑j=0

βj∂f(xn+j, ξn+j)

∂yen+j + φn+k.

Hacemos ahora dos hipotesis

∂f

∂y= λ, constante, φn = φ, constante.

La ecuacion para en se reduce a la ecuacion lineal

k∑j=0

(αj − hλβj)en+j = φ.

Cuya solucion general sabemos que es de la forma

en =k∑s=0

dsrns −

φ

hλk∑j=0

βj

,

donde las rs son las raıces, que suponemos distintas, del polinomio carac-terıstico

k∑j=0

(αj − hλβj)rj = 0.

Que podemos escribirlo de la forma

π(r, h) = ρ(r)− hσ(r) = 0, (5.16)

siendo h = hλ. Este polinomio π(r, h) se llama polinomio de estabilidad delmetodo.

Definicion 5.6.1 (Estabilidad absoluta). Un MLM se dice que es absolu-tamente estable para un valor dado de h si para dicho valor todas las raıcesrs de π(r, h) tienen modulo menor que uno. Estos h forman la region de es-tabilidad absoluta y los valores reales de esta region forman el intervalo deestabilidad absoluta.

Observemos que para h = 0 las raıces rs de π(r, h) coinciden con los ceros ξsdel primer polinomio caracterıstico ρ(ξ), que por la cero estabilidad, estantodas en el interior o frontera del cırculo unidad. Ademas por la consistenciaexiste la raız ξ1 = 1 simple. Denotemos por r1 la raız que tiende a ξ1 cuandoh → 0. Sabemos que las raices de un polinomio son funciones continuas de

16

Page 18: Capitulo 5 de Mtdos numericos

sus coeficientes por lo que todas las rs → ξs. Vamos a probar que para unmetodo de orden p

r1 = eh +O(hp+1) (5.17)

En efecto, por definicion de orden L[y(x);h] = O(hp+1), para cualquier fun-cion y(x). Eligiendo y(x) = eλx se tiene

k∑j=0

{αje

λ(xn+jh) − hλβjeλ(xn+jh)}

= O(hp+1)

es decir

eλxnk∑j=0

{αje

jh − hβjejh}

= O(hp+1)

dividiendo por eλxn se obtiene

π(eh, h) ≡ ρ(eh)− hσ(eh) = O(hp+1).

Escribiendo π(r, h) en funcion de sus raıces se tiene

π(r, h) ≡ ρ(r)− hσ(r) ≡ (αk − hβk)(r − r1)(r − r2) · · · (r − rk),

y poniendo r = eh se obtiene

(eh − r1)(eh − r2) · · · (eh − rk) = O(hp+1).

Cuando h → 0, eh → 1 y los rs → ξs, luego como el unico ξs = 1 es elξ1 se deduce que eh − r1 = O(hp+1). Lo que prueba 5.17. Esto muestra quecualquier MLM es absolutamente inestable para h pequeno y positivo.

En los casos en los que ∂f/∂y > 0 la solucion crece, por lo que se puedeadmitir crecimiento de los errores por lo que resulta mas apropiado mirar alos errores relativos.

Definicion 5.6.2 (Estabilidad relativa). Un metodo lineal multipaso de diceque es relativamente estable para un valor de h dado si, para dicho valor, lasraıces rs del polinomio de estabilidad π(r, h) satisfacen que |rs| < |r1|, s =2, 3, · · · , k. Estos forman la region de estabilidad relativa del metodo y losvalores reales de dicha region el intervalo de estabilidad relativa.

Desde el punto de vista practico se suele exigir que todas las raıces estenacotadas por eh.

17

Page 19: Capitulo 5 de Mtdos numericos

Ejemplo 5.1. Estudiemos el metodo explıcito de 2 pasos

yn+2 − yn =1

2h(fn+1 + 3fn). (5.18)

Es consistente y cero estable y su polinomio de estabilidad es

π(r, h) = r2 − 1

2hr − (1 +

3

2h) = 0 (5.19)

Como ξ1 = 1 y ξ2 = −1 podemos aproximar r1 = 1 + h + O(h2) y r2 =−1 + γh + O(h2). Comparando (r − r1)(r − r2) con 5.19, se obtiene quer1 = 1 + h+O(h2) y r2 = −1− 1

2h+O(h2).

Podemos por tanto observar que existe un intervalo de estabilidad absolutade la forma (α, 0) y un intervalo de estabilidad relativa (0, β).

5.7. Metodos para obtener intervalos de es-

tabilidad absoluta y relativa

Vamos a estudiar cuatro metodos para calcular intervalos o regiones de es-tabilidad absoluta y relativa.

5.7.1. Metodo de representacion geometrica de las raıces

Consiste en dar valores a h en un entorno del origen y representar o dibujarlos valores de |rs|, s = 1, 2, . . . , k con lo que podemos ver los intervalors deestabilidad absoluta y relativa mirando los valores de h que hacen que todosesten por debajo de 1 o por debajo de eh

Ejemplo 5.2. Consideremos el metodo explıcito de 2 pasos

yn+2 − yn+1 =1

2h(3fn+1 − fn). (5.20)

Es consistente y cero estable y su polinomio de estabilidad es

π(r, h) = r2 −(

1 +3

2h

)r +

1

2h = 0 (5.21)

Escribiendo las dos raıces r1 y r2 en funcion de h y dibujando un plot de susvalores absolutos, podemos observar que existe un intervalo de estabilidadabsoluta (−1, 0) y un intervalo de estabilidad relativa (0,∞) o (−0.6,∞),segun cual de las dos definiciones de estabilidad relativa empleemos.

18

Page 20: Capitulo 5 de Mtdos numericos

-3 -2 -1 1

1

2

3

4

¢r2HhL¦

¢r1HhL¦

eh

5.7.2. Metodo de Schur

Se basa en un teorema de Schur que caracteriza las condiciones para que lasraıces de polinomios tengan modulo menor de uno. Dado un polinomio degrado k con coeficientes complejos

p(r) = ckrk + ck−1r

k−1 + · · ·+ c1r + c0,

se dice que es de Schur si sus raıces rs satisfacen que tiene modulo inferior auno. Definimos el polinomio

p(r) = c∗0rk + c∗1r

k−1 + · · ·+ c∗k−1r + c∗k,

donde c∗j es el conjugado de cj y definimos

p1(r) =1

r(p(0)p(r)− p(0)p(r)) .

Este p1(r) es de grado k − 1. Entonces por el teorema de Schur p(r) es deSchur si y solo si |p(0)| > |p(0)| y p1(r) es de Schur.

En el caso de la estabilidad relativa podemos aprovechar este criterio haciendoun cambio de variable. Buscamos condiciones sobre h para que los |rs| < eh.Entonces llamando r = Reh bastara exigir que los |Rs| < 1. Las desigualdadesque quedan son mas complicadas de resolver.

Ejemplo 5.3. Apliquemos este criterio al mismo metodo anterior 5.20 paracalcular su intervalo de estabilidad absoluta. Su polinomio de estabilidad era

19

Page 21: Capitulo 5 de Mtdos numericos

5.21. Luego nos queda el π(r) y el π1(r) siguientes

π(r, h) = r2 −(

1 +3

2h

)r +

1

2h

π(r, h) =1

2hr2 −

(1 +

3

2h

)r + 1

π1(r, h) =

(1− 1

2h

)[(1 +

1

2h

)r −

(1 +

3

2h

)]Las dos condiciones son

1 >

∣∣∣∣12 h∣∣∣∣ ,

∣∣∣∣1 + 32h

1 + 12h

∣∣∣∣ < 1

que resolviendo nos da el intervalo de estabilidad absoluta (−1, 0).

5.7.3. Criterio de Routh-Hurwitz

Se basa en transformar el semi-plano complejo parte real negativa en el cırculounidad. Haciendo la transformacion r = (1 + z)/(1 − z) se transforma losvalores de |r| ≤ 1 en el semi-plano Rez ≤ 0. Esta transformacion aplica elpunto (0, 0) en el (−1, 0) y el (1, 0) en el (0, 0), los puntos que tienden al(−1, 0) van hacia (0,±∞). Con esta transformacion escribiendo

π

(1 + z

1− z

)= ρ

(1 + z

1− z

)− hσ

(1 + z

1− z

)= 0

y multiplicando por (1− z)k obtenemos una ecuacion polinomica de grado k

a0zk + a1z

k−1 + · · ·+ ak−1z + ak = 0,

donde supondremos sin perdida de generalidad que a0 > 0. La condicionnecesaria y suficiente para que las raıces de esta ecuacion tengan Rez < 0 esque los menores principales de la matriz Q sean definidos positivos, donde Qes la matriz k × k definida por

Q =

a1 a3 a5 · · · a2k−1

a0 a2 a4 · · · a2k−2

0 a1 a3 · · · a2k−3

0 a0 a2 · · · a2k−4...

......

. . ....

0 0 0 · · · ak

20

Page 22: Capitulo 5 de Mtdos numericos

donde suponemos que aj = 0 si j > k. En los casos k = 2, 3, 4 estas condi-ciones se reducen a

k = 2 : a0 > 0, a1 > 0, a2 > 0.

k = 3 : a0 > 0, a1 > 0, a2 > 0, a3 > 0, a1a2 − a3a0 > 0.

k = 4 : a0 > 0, . . . , a4 > 0, a1a2a3 − a0a23 − a4a

21 > 0.

Ejemplo 5.4. Con el mismo ejemplo anterior nos queda

a0z2 + a1z + a0 = (1 + z)2 −

(1 +

3

2h

)(1− z2) +

1

2h(1− z)2,

luego las condiciones son

a2 = −h > 0.

a1 = 2− h > 0.

a0 = 2 + 2h > 0.

que definen el intervalo (−1, 0). El mismo cambio anterior sigue siendo validopara analizar la estabilidad relativa.

5.7.4. Metodo de localizacion de la frontera

En este metodo, que es el mas util para calcular regiones de estabilidadabsoluta, se trata de identificar y dibujar los puntos de la frontera de laregion de estabilidad absoluta. Estos corresponden a valores de h para losque las raıces de π(r, h) tienen modulo |rs| = 1. Como los numeros complejosde modulo 1 son de la forma eiθ, buscaremos los h ∈ C que verifiquen laecuacion π(eiθ, h) = 0, es decir,

h(θ) =ρ(eiθ)

σ(eiθ)

que podemos dibujar dando valores a θ. En el caso de la estabilidad relativacon el mismo procedimiento indicado anteriormente nos quedarıa resolveruna ecuacion que ya no es lineal en h

ρ(eiθ|eh|)− hσ(eiθ|eh|) = 0

en ambos casos este metodo esta pensado para aplicarlo computacionalmente,con ayuda de ordenador.

21

Page 23: Capitulo 5 de Mtdos numericos

Ejemplo 5.5. En el ejemplo 5.20 anterior se tiene que

h(θ) = 2e2iθ − eiθ

3eiθ − 1

es la funcion a dibujar.

Si solo estuviesemos interesados en calcular el intervalo de estabilidad abso-luta podemos hacer algunos calculos a mano de la manera siguiente. Comobuscamos valores reales, miramos a los valores de θ que hacen que h(θ) seareal es decir a los valores de θ que hacen que la parte imaginaria de h(θ)sea cero. Luego, para estos valores evaluamos la parte real de h(θ). En es-te ejemplo los valores son θ = 0 y θ = π, para los que h(θ) vale 0 y −1respectivamente obteniendo de nuevo el intervalo (−1, 0).

5.8. Metodos Predictor Corrector

Cuando utilizamos un metodo lineal multipaso implıcito

yn+k +k−1∑j=0

αjyn+j = hβkf(xn+k, yn+k) + hk−1∑j=0

βjfn+j, (5.22)

vimos que una forma de aproximar la solucion yn+k era utilizar la iteracionde punto fijo

y[s+1]n+k +

k−1∑j=0

αjyn+j = hβkf(xn+k, y[s]n+k) + h

k−1∑j=0

βjfn+j, (5.23)

donde y[0]n+k es arbitraria. Sabemos que esta iteracion converge si h < 1

L|βk|.

En cada iteraccion hay que evaluar la funcion f(x, y) que, a veces, puede

ser costosa. Por ello es deseable tener una buena estimacion inicial y[0]n+k,

para que la iteracion de punto fijo converja mas rapidamente. Esta es lafilosofıa de los metodos predictor corrector. Se utiliza un metodo explıcito,que denominaremos predictor, para obtener una primera estimacion y

[0]n+k de

yn+k y despues se utiliza un metodo implıcito en el modo 5.23, que llamaremoscorrector, para mejorar la aproximacion. Este corrector se puede aplicar unnumero fijo m de veces o se puede aplicar en el modo iteracion hasta laconvergencia que quiere decir que la iteracion 5.23 se aplica hasta que ladiferencia entre dos aproximaciones sea suficientemente pequena, es decir,|y[s+1]n+k − y

[s]n+k| < ε , donde ε es una tolerancia preasignada. Las propiedades

22

Page 24: Capitulo 5 de Mtdos numericos

de estos metodos, en el modo iteracion hasta la convergencia, son similares alas del metodo implıcito o corrector. En la practica se aplican con un numerom de aplicaciones del corrector pequeno.

Denotemos por P una aplicacion del predictor, por C una aplicacion decorrector y por E una evaluacion de la funcion f(x, y). De esta manera si

aplicamos el predictor para obtener y[0]n+k y evaluamos la funcion para obtener

f[0]n+k ≡ f(xn+k, y

[0]n+k) y finalmente aplicamos el corrector para obtener y

[1]n+k

entonces denotaremos este proceso por PEC. De forma similar podemoshablar de PECEC o P (EC)2 o en general P (EC)m. Si tras haber calculado

y[m]n+k evaluamos la funcion para disponer de f

[m]n+k ≡ f(xn+k, y

[m]n+k), entonces

diremos que usamos un metodo predictor corrector con evaluacion final querepresentaremos por P (EC)mE.

El numero de pasos del predictor P y del corrector C no tienen por que seridenticos. Para no complicar la notacion usaremos un unico k que indique elmayor de los numeros de pasos de ambos metodos y relajaremos la condicion5.2 de que α0 y β0 no son ambos nulos. De esta manera la notacion sera comosi ambos metodos fueran de k pasos.

Sean los polinomios caracterısticos del predictor

ρ∗(ξ) =k∑j=0

α∗kξj, α∗k = 1, σ∗(ξ) =

k−1∑j=0

β∗kξj (5.24)

y los del corrector

ρ(ξ) =k∑j=0

αkξj, αk = 1, σ(ξ) =

k∑j=0

βkξj. (5.25)

Podemos escribir formalmente el modo P (EC)mE por

y[0]n+k +

k−1∑j=0

α∗jy[m]n+j = h

k−1∑j=0

β∗j f[m]n+j

f[s]n+k = f(xn+k, y

[s]n+k)

y[s+1]n+k +

k−1∑j=0

αjy[m]n+j = hβkf

[s]n+k + h

k−1∑j=0

βjf[m]n+j

s = 0, 1, . . . ,m− 1

f[m]n+k = f(xn+k, y

[m]n+k)

(5.26)

23

Page 25: Capitulo 5 de Mtdos numericos

Y el modo P (EC)m por

y[0]n+k +

k−1∑j=0

α∗jy[m]n+j = h

k−1∑j=0

β∗j f[m−1]n+j

f[s]n+k = f(xn+k, y

[s]n+k)

y[s+1]n+k +

k−1∑j=0

αjy[m]n+j = hβkf

[s]n+k + h

k−1∑j=0

βjf[m−1]n+j

s = 0, 1, . . . ,m− 1

(5.27)

5.8.1. Error local de truncatura de los metodos P-C.Dispositivo de Milne

Denotemos por L∗ y por L los operadores asociados a P y C de ordenes p∗ yp y con constantes de error C∗p∗+1 y Cp+1 respectivamente. Queremos estudiarla parte principal del error local de truncatura en xn+k de los metodos PCen los modos P (EC)mE y P (EC)m bajo las hipotesis habituales de que nose han cometido errores en los pasos anteriores xn+j, j = 0, 1, . . . , k − 1.

Se tienen las ecuaciones

L∗[y(x);h] = C∗p∗+1hp∗+1y(p∗+1)(x) +O(hp

∗+2) (5.28)

L[y(x);h] = Cp+1hp+1y(p+1)(x) +O(hp+2) (5.29)

para el predictor ya habıamos visto que

y(xn+k) + y[0]n+k = C∗p∗+1h

p∗+1y(p∗+1)(x) +O(hp∗+2) (5.30)

para el corrector el analisis que hicimos para los metodos implıcitos hay queadaptarlo pues aquı se aplican con la iteracion de punto fijo en vez de resolverde forma exacta la ecuacion no lineal. Es decir de la definicion de error localde truncatura

k∑j=0

αjy(xn + jh) = hk∑j=0

βjf(xn + jh, y(xn + jh)) + L[y(xn);h]

y del metodo corrector

y[s+1]n+k +

k−1∑j=0

αjy[m]n+j = hβkf(xn+k, y

[s]n+k) + h

k−1∑j=0

βjf(xn+j, y[m−t]n+j )

24

Page 26: Capitulo 5 de Mtdos numericos

para s=0, 1, . . . ,m− 1 y donde t = 0 si se usa el modo P (EC)mE y t = 1 enel modo P (EC)m. Restando se tiene

y(xn+k) − y[s+1]n+k = hβk

[f(xn+k, y(xn+k))− f(xn+k, y

[s]n+k)

]+ L[y(xn);h]

= hβk

[y(xn+k)− y[s]

n+k

] ∂f(xn+k, ηn+k,s)

∂y+ L[y(xn);h] (5.31)

para s = 0, 1, . . . ,m− 1 y donde ηn+k,s es un punto entre y[s]n+k e y(xn+k).

Basicamente podemos observar que cada aplicacion del corrector multiplicapor h el error anterior y le anade un termino como el error local de truncaturadel corrector. Por ello si m es suficientemente grande solo quedara el errorlocal de truncatura del corrector en el metodo predictor corrector.

Si consideramos el caso en el que p∗ ≥ p, entonces sustituyendo 5.30 en 5.31ya nos queda

y(xn+k)− y[1]n+k = Cp+1h

p+1y(p+1)(xn) +O(hp+2).

y sustituyendo esta expresion en 5.31 en las sucesivas s = 2, 3, . . . ,m − 1iteraciones se sigue teniendo que

y(xn+k)− y[m]n+k = Cp+1h

p+1y(p+1)(xn) +O(hp+2), m = 1, 2, . . . .

Es decir, para cualquier m ≥ 1 la parte principal del error local de truncaturadel PC es el del corrector.

Consideremos ahora el caso p∗ = p− 1. Sustituyendo 5.30 en 5.31 nos queda

y(xn+k)− y[1]n+k =

[βk∂f

∂yC∗py

(p)(xn) + Cp+1y(p+1)(xn)

]hp+1 +O(hp+2).

Por tanto si m = 1 la parte principal del error del PC es del mismo orden queel corrector pero no identica. Pero en las iteraciones siguientes del correctorpara m ≥ 2 nos queda

y(xn+k)− y[m]n+k = Cp+1h

p+1y(p+1)(xn) +O(hp+2),

y la parte principal del error local de truncatura del PC es solo la del co-rrector. De forma analoga podemos seguir analizando casos, pero observandoque cada aplicacion del corrector mejora en un grado el orden inicial delpredictor, hasta que este desaparece.

En general si p∗ = p− q, con 0 < q ≤ p, entonces la parte principal del errorlocal de truncatura del metodo predictor corrector es

25

Page 27: Capitulo 5 de Mtdos numericos

solamente la del corrector cuando m ≥ q + 1,

del mismo orden que el corrector, pero no identica, si m = q,

de la forma Kh(p−q+m+1) +O(h(p−q+m+2)) si m ≤ q − 1.

En particular en el modo de iteracion hasta la convergencia solo queda el errordel corrector independientemente de lo malo que pudiera ser el predictor.

Esto nos indica que no interesa elegir un metodo predictor corrector en el quep∗ > p y de hecho bastarıa con tomar un predictor de orden p∗ = p−m ≥ 0.Sin embargo en el caso en el que p∗ = p es posible estimar el error local detruncatura del predictor corrector con una tecnica conocida con el nombrede dispositivo de Milne.

Efectivamente, supongamos p∗ = p. Entonces se tiene

Cp+1hp+1y(p+1)(xn) = y(xn+k)− y[m]

n+k +O(hp+2)

C∗p+1hp+1y(p+1)(xn) = y(xn+k)− y[0]

n+k +O(hp+2)

restando se tiene

(C∗p+1 − Cp+1)hp+1y(p+1)(xn) = y[m]n+k − y

[0]n+k +O(hp+2). (5.32)

Por lo que la parte principal del error local de truncatura del metodo es

Cp+1hp+1y(p+1)(xn) ≈ Cp+1

C∗p+1 − Cp+1

(y[m]n+k − y

[0]n+k).

La principal utilidad de las estimaciones del error es utilizarlas para modificarel paso h cuando sea necesario, de la misma forma que ya vimos en el temaanterior para los metodos de Runge Kutta.

Otra aplicacion que podemos dar a las estimaciones del error es emplear-las para mejorar la solucion. En este sentido, la estimacion del error en elpredictor viene dada por

C∗p+1hp+1y(p+1)(xn) ≈

C∗p+1

C∗p+1 − Cp+1

(y[m]n+k − y

[0]n+k).

Pero no podemos usar esta estimacion para mejorar el y[0]n+k porque aun no

hemos calculado el y[m]n+k, sin embargo

C∗p+1hp+1y(p+1)(xn) = C∗p+1h

p+1y(p+1)(xn−1) +O(hp+2)

=C∗p+1

C∗p+1 − Cp+1

(y[m]n+k−1 − y

[0]n+k−1) +O(hp+2).

26

Page 28: Capitulo 5 de Mtdos numericos

De esta forma mejoraremos la solucion sumando este termino al y[0]n+k, ope-

racion que denotaremos por M

y[0]n+k = y

[0]n+k +

C∗p+1

C∗p+1 − Cp+1

(y[m]n+k−1 − y

[0]n+k−1).

De la misma forma podemos mejorar la aproximacion numerica y[m]n+k obtenida

tras la ultima aplicacion del corrector con

y[m]n+k = y

[m]n+k +

Cp+1

C∗p+1 − Cp+1

(y[m]n+k − y

[0]n+k).

Los modos que usan estas modificaciones se representan por PM(EC)mMEy PM(EC)mM .

5.9. Estabilidad absoluta de los metodos pre-

dictor corrector

En el modo de correccion hasta la convergencia las propiedades de estabilidadabsoluta del metodo predictor corrector seran las del corrector. Pero en elresto de casos, especialmente cuando m es pequeno, las propiedades del PCse ven influidas por la propiedades de estabilidad absoluta del predictor.Estudiaremos solamente el caso PECE.

De manera analoga a como hicimos con el estudio de la estabilidad absolutade los MLM, suponemos que f = λ y denotamos por h = hλ. Por 5.15 setiene

y[0]n+k +

k−1∑j=0

α∗j y[1]n+j = h

k−1∑j=0

β∗j f(xn+j, y[1]n+j) +R∗n+k

k∑j=0

αj y[1]n+j = hβkf(xn+k, y

[0]n+k) + h

k−1∑j=0

βjf(xn+j, y[1]n+j) +Rn+k,

Por definicion de error local de truncatura la solucion teorica y(x) del pro-blema de valores iniciales verifica

k∑j=0

α∗jy(xn+j) = hk−1∑j=0

β∗j f(xn+j, y(xn+j)) + T ∗n+k

k∑j=0

αjy(xn+j) = hk∑j=0

βjf(xn+j, y(xn+j)) + Tn+k.

27

Page 29: Capitulo 5 de Mtdos numericos

Definiendo los errores globales del predictor y del corrector por

e[0]n = y(xn)− y[0]

n , e[1]n = y(xn)− y[1]

n ,

restando las ecuaciones anteriores y con las mismas hipotesis que en los MLMllegamos a

e[0]n+k +

k−1∑j=0

α∗j e[1]n+j = h

k−1∑j=0

β∗j e[1]n+j + constante

k∑j=0

αj e[1]n+j = hβke

[0]n+k + h

k−1∑j=0

βj e[1]n+j + constante,

eliminando e[0]n+k obtenemos

k∑j=0

αj e[1]n+j − h

k−1∑j=0

βj e[1]n+j = −hβk

[k−1∑j=0

α∗j e[1]n+j − h

k−1∑j=0

β∗j e[1]n+j

]+ constante.

Anadiendo hβke[1]n+k a ambos lados de la ecuacion y teniendo en cuenta que

α∗k = 1 y que β∗k = 0 se obtiene

k∑j=0

(αj − hβj)e[1]n+j = −hβk

k∑j=0

(α∗j − hβ∗j )e[1]n+j + constante.

La solucion e[1]n del error global es por tanto de la forma

e[1]n =

k∑s=1

dsrns + constante,

donde las ds son constantes arbitrarias y las rs son las raıces (supuestasdistintas) del polinomio

πPECE(r, h) = ρ(r)− hσ(r) + hβk[ρ∗(r)− hσ∗(r)

]. (5.33)

En el caso general para el modo P (EC)mE se obtendrıa

πP (EC)mE(r, h) = ρ(r)− hσ(r) +Mm(h)[ρ∗(r)− hσ∗(r)

],

donde

Mm(h) = (hβk)m

[1− hβk

1− (hβk)m

], m = 1, 2 . . .

28

Page 30: Capitulo 5 de Mtdos numericos

El analisis aun se complica mas en el modo P (EC)m donde se obtiene

πP (EC)m(r, h) = βkrk[ρ(r)− hσ(r)

]+Mm(h) [ρ∗(r)σ(r)− ρ(r)σ∗(r)] .

Observemos que si |hβk| < 1 entonces Mm(h) → 0 cuando m → ∞ y portanto πP (EC)mE → π y πP (EC)m → π, donde π es el polinomio de estabilidaddel corrector.

En los MLM vimos que si el metodo tenıa orden p entonces r1 = eh+O(hp+1)probando que π(eh, h)) = O(hp+1). Ahora usando el mismo argumento tene-mos para el predictor y para el corrector por separado

ρ∗(eh)− hσ∗(eh) = O(hp+1)

ρ(eh)− hσ(eh) = O(hp+1)

Multiplicando la primera ecuacion por σ(eh) y la segunda por σ∗(eh) y res-tando tenemos

ρ∗(eh)σ(eh)− ρ(eh)σ∗(eh) = O(hp+1), (5.34)

y como Mm(h) = O(hm) se concluye se la misma manera que para los MLMque el polinomio de estabilidad de los metodos predictor corrector en losmodos P (EC)mE y P (EC)m posee una raız r1 = eh + O(hp+1) y por tantoson absolutamente inestables para h pequeno y positivo.

De los metodos para calcular los intervalos o regiones de estabilidad absolutalos tres primeros siguen siendo validos, pero las desigualdades que resultanseran, por lo general, mas complicadas de resolver. El cuarto metodo delocalizacion de la frontera de la region de estabilidad, sigue siendo valido enel sentido que hay que resolver

πP (EC)mE(eiθ, h) = 0 o πP (EC)m(eiθ, h) = 0,

pero esta expresion ya no es lineal en h, por lo que no podemos despejar elh y hay que resolver la ecuacion no lineal en h. Para la estabilidad relativaresolverıamos

πP (EC)mE(|eh|eiθ, h) = 0 o πP (EC)m(|eh|eiθ, h) = 0.

29