capitulo 6 de metodos numericos
TRANSCRIPT
-
7/25/2019 Capitulo 6 de metodos numericos
1/7
-
7/25/2019 Capitulo 6 de metodos numericos
2/7
Indice general
6. Metodos de Extrapolacion 26.1. Aplicacion a los problemas de valores iniciales . . . . . . . . . 2
6.2. Metodo de Gragg . . . . . . . . . . . . . . . . . . . . . . . . . 3
6.3. Extrapolacion racional. El metodo GBS . . . . . . . . . . . . . 5
1
-
7/25/2019 Capitulo 6 de metodos numericos
3/7
Captulo 6
Metodos de Extrapolacion
6.1. Aplicacion a los problemas de valores ini-
ciales
En un tema anterior hemos estudiado el proceso de extrapolacion al lmite deRichardson para explicar la integracion de Romberg, pero tambien como unatecnica para acelerar la convergencia. Analizabamos como combinar varias
aproximaciones numericas obtenidas por un mismo metodo pero con distintospasos h para obtener mejores aproximaciones. La aplicacion de esta tecnicasupona que el error de nuestras aproximaciones numericas poda expresarseen potencias de ho en potencias pares de h.
Veamos en esta seccion como aplicar esta tecnica a los metodos para resolverproblemas de valores iniciales.
y(x) = f(x, y(x))y(x0) = y0
(6.1)
Dado un metodo numerico, sea un metodo de Kunge Kutta o un metodo
lineal multipaso, denotemos por y(x; h) la aproximacion numerica de la so-lucion teorica y(x) de 6.1 obtenida por dicho metodo en el puntox cuandotrabajamos con un paso h.
Intentamos aplicar la extrapolacion polinomial para obtener aproximacionesde y(x) en puntos basicos x0+ jH, j = 0, 1, . . ., donde H es el paso basico.En primer lugar elegimos un paso h0 =
H
N0, donde N0 es un entero positivo.
Aplicamos el metodo N0 veces para obtener una aproximacion y(x0+ H; h0)de y(x0+H). Tomamos un segundo paso h1=
H
N1, donde N1 es un segundo
entero positivo mayor que N0. Aplicamos el metodo N1 veces para obtener
2
-
7/25/2019 Capitulo 6 de metodos numericos
4/7
una segunda aproximacion y(x0+H; h1) de y(x0+H). Procediendo es esta
manera para una sucesion de longitudes de paso {hs} con hs = HNs , siendo{Ns} una sucesion creciente de enteros positivos, se calculan las aproxima-cionesy(x0+ H; hs) dey(x0+ H). Con esto construimos la primera columna
de la tabla de extrapolacion que denotaremos pora(0)s =y(x0+ H; hs). Apli-
camos entonces el proceso de extrapolacion polinomial visto en el captulo 2,para acelerar la convergencia.
Este proceso depende de que el error admita una expresion en potencias deh o, mejor aun, en potencias pares de h. Es decir del tipo
y(x; h) y(x) +A1h+A2h2 +A3h
3 + (6.2)
y(x; h) y(x) +A2h2 +A4h
4 +A6h6 + (6.3)
Denotaremos por y(x0 + H; H) a l a ultima o mejor aproximacion de latabla de y(x0+ H), que es el valor con el que nos quedamos. Para obteneraproximaciones en los puntos siguientes x0+ 2H, repetimos todo el procesode nuevo, partiendo del punto recien calculado.
6.2. Metodo de Gragg
La aplicacion de la extrapolacion polinomial a los metodos para resolverproblemas de valores iniciales depende de la existencia de metodos con ex-pansiones del error de tipo 6.2 o 6.3. Algunos resultados debidos a Gragg sonlos siguientes.
Todo metodo de un paso explcito y todo metodo lineal multipaso cuyo primerpolinomio caracterstico () tiene solo una raz en el crculo unidad, admiteuna expansion del error de tipo 6.2.
Mas interes tienen las expansiones de tipo 6.3. Gragg muestra que los metodoslineales multipaso cuyos polinomios caractersticos () y () satisfacen los
requerimientos de simetra() +k(1) 0 , () +k(1) 0 (6.4)
tienen expansiones de tipo 6.3 siempre que las condiciones iniciales adiciona-les y1, y2, . . . , yk1 se elijan de forma que se preserve la simetra.
Un metodo que cumple estas condiciones es la regla del trapecio, pero des-graciadamente es implcito. Un metodo explcito de dos pasos que satisfaceestas condiciones es la regla del punto medioyn+2yn= 2hfn+1, para la quese elige como punto inicial ademas dey0el y1=y0+hf0y de la que se conoce
3
-
7/25/2019 Capitulo 6 de metodos numericos
5/7
que tiene una expansion de tipo 6.3 si el numero de veces que se aplica es
siempre par o siempre impar. Desgraciadamente la regla del punto medio notiene intervalo de estabilidad absoluta. Esta inestabilidad potencial puede sercontrolada aplicando un procedimiento de suavizado como describimos en elsiguiente metodo de Gragg, tambien conocido como regla del punto mediomodificada.
hs = H
Ns, Nspar
y0 = y(x0)
y1 = y0+hsf(x0, y0) (6.5)
ym+2ym = 2hsf(xm+1, ym+1), m= 0, 1, 2, . . . , N s1
y(x0+H; hs) = 1
4yNs+1+
1
2yNs +
1
4yNs1.
Para cada valor de Ns, habitualmente la sucesion 2, 4, 8, 16,..., se construyeun elemento de la primera columna de la tabla de extrapolacion a
(0)s .
Stetter demuestra que para los metodos de un paso implcitos
yn+1yn= h(xn, xn+1, yn, yn+1; h)
poseen una expansion de tipo 6.3 si la funcion incremento satisface la condi-
cion de simetra(r,s,u,v; h) =(s,r,v,u;h).
Claramente la regla del trapecio cumple esta condicion as como la regla delpunto medio implcita
yn+1yn = hf
xn+xn+1
2 ,
yn+yn+12
.
Analizaremos ahora la estabilidad absoluta del metodo de Gragg. Aunque laregla del punto medio careca de intervalo de estabilidad absoluta, ya hemos
dicho que con el promedio introducido en 6.5 tiene un intervalo no vaco deestabilidad absoluta. Sin embargo al aplicar la extrapolacion no podemosdeducir nada sobre las propiedades de estabilidad absoluta del metodo deGragg, ya que se realizan combinaciones lineales de los y(x0 + H; hs). Stetterrealiza un analisis de la propagacion del error en x0+ Hal aplicar el metodode Gragg a la ecuacion test y =y . Definiendo H=Hy para la eleccionde Ns = 2, 4, 8, 16, . . .prueba que el metodo de Gragg tiene un intervalo deestabilidad absoluta de la forma (, 0) donde
4
-
7/25/2019 Capitulo 6 de metodos numericos
6/7
Ns: 2 4 8 16 32 64 128: 3.3 3.9 4.7 5.6 6.7 7.8 9.1
estos intervalos no son tan amplios como parece pues se refieren al paso b asicoHy no a los hs.
Ejemplo 6.1. En este ejemplo usamos el metodo de Gragg 6.5, junto conla extrapolacion polinomial, para resolver el problema de valores inicialesy = y, y(0) = 1 para un paso b asico H = 1. La solucion exacta es1e
= 0.36787944
h0= 12
0.37500000
h1= 14 0.37109375 0.36979167
h2= 16
0.36945588 0.36814558 0.36793982
h3= 18
0.36879683 0.36794948 0.36788411 0.36788040
h4= 112
0.36829712 0.36789735 0.36787998 0.36787946 0.36787943
6.3. Extrapolacion racional. El metodo GBS
El metodo GBS de extrapolacion racional consiste en aplicar al metodo de
Gragg 6.5 un proceso de extrapolacion racional de Bulirsch y Stoer parecidoa la extrapolacion polinomial de Richardson que vimos en el tema 2. Sevan construyendo las columnas que representan aproximaciones racionalesP(h)/Q(h), donde P(h) y Q(h) son polinomios y donde se va aumentandode uno en uno el grado del denominador y del numerador alternadamenteempezando por la columna uno que se corresponde con grado cero para P ygrado uno para Q. Es decir, construimos la tabla
h0 b(0)0
h1 b(0)1 b
(1)0
h2
b(0)
2 b(1)
1 b(2)
0h3 b
(0)3 b
(1)2 b
(2)1 b
(3)0
... ...
... ...
...
hT b(0)T
b(1)T1 b
(2)T2 b
(3)T3 b
(T)0
5
-
7/25/2019 Capitulo 6 de metodos numericos
7/7
donde
b(1)s = 0
b(0)s = A(hs) =y(x0+H; hs)
b(m)s = b
(m1)s+1 +
b(m1)s+1 b
(m1)s
hs
hm+s
2 1
b(m1)s+1 b
(m1)s
b(m1)s+1 b
(m2)s+1
1
, m= 1, 2,
s= 0, 1, 2,
En el caso en que la aproximacion A(h) tuviese una expansion del error enpotencias de h de tipo 6.2 en vez de potencias pares 6.3, sustituiramos en
la formula anterior hshm+s
2por
hs
hm+s . Este proceso se repite para obtener laaproximacion en los puntos siguientes y(x0+jH; hs).
Ejemplo 6.2. En este ejemplo usamos el metodo GBS para resolver el mismoproblema del ejemplo 6.1.
h0= 12
0.37500000
h1= 14
0.37109375 0.36980969
h2= 16
0.36945588 0.36815596 0.36759227
h3= 18
0.36879683 0.36795293 0.36787039 0.36787948
h4= 112
0.36829712 0.36789833 0.36787853 0.36787944 0.36787944
6