resolución numérica de sistemas de ecuaciones. … · clasificación de los métodos de...

18
1 Laboratori de Càlcul Numèric (LaCàN) Departament de Matemàtica Aplicada III Universitat Politècnica de Catalunya (Spain) http://www-lacan.upc.es Laboratori de Càlcul Numèric (LaCàN) Departament de Matemàtica Aplicada III Universitat Politècnica de Catalunya (Spain) http://www-lacan.upc.es Resolución numérica de sistemas de ecuaciones. Introducción Resolución numérica de sistemas de ecuaciones. Introducción SISTEMAS DE ECUACIONES LINEALES· 2 Índice Índice Motivación Objetivos Condiciones de existencia de solución Perspectiva numérica Clasificación de los métodos de resolución SISTEMAS DE ECUACIONES LINEALES · 3 Motivación Motivación La cercha de la figura se carga con una fuerza uniforme repartida sobre el cordón superior El planteamiento del problema conduce a un sistema lineal de ecuaciones de dimensión n=50 y en el que la matriz tiene la siguiente estructura Al resolver el sistema, obtenemos la deformada de la estructura SISTEMAS DE ECUACIONES LINEALES · 4 Objetivos Objetivos La formulación de problemas de ingeniería a menudo conduce a sistemas lineales de ecuaciones. Estos sistemas pueden llegar a tener cientos o miles de grados de libertad. El objetivo de este tema es desarrollar estrategias numéricas que permitan resolver sistemas de ecuaciones relativamente grandes de una manera eficiente. Además, se analizarán con detalle algunos métodos directos.

Upload: lamthien

Post on 21-Sep-2018

224 views

Category:

Documents


0 download

TRANSCRIPT

1

Laboratori de Càlcul Numèric (LaCàN)Departament de Matemàtica Aplicada III

Universitat Politècnica de Catalunya (Spain)http://www-lacan.upc.es

Laboratori de Càlcul Numèric (LaCàN)Departament de Matemàtica Aplicada III

Universitat Politècnica de Catalunya (Spain)http://www-lacan.upc.es

Resolución numérica de sistemas de ecuaciones.

Introducción

Resolución numérica de sistemas de ecuaciones.

Introducción

SISTEMAS DE ECUACIONES LINEALES· 2

ÍndiceÍndice

� Motivación� Objetivos� Condiciones de existencia de solución� Perspectiva numérica� Clasificación de los métodos de resolución

SISTEMAS DE ECUACIONES LINEALES · 3

MotivaciónMotivaciónLa cercha de la figura se carga con una fuerza uniforme repartida sobre el cordón superior

El planteamiento del problema conduce a un sistema lineal de ecuaciones de dimensión n=50 y en el que la matriz tiene la siguiente estructura

Al resolver el sistema, obtenemos la deformada de la estructura

SISTEMAS DE ECUACIONES LINEALES · 4

ObjetivosObjetivos

La formulación de problemas de ingeniería a menudo conduce a sistemas lineales de ecuaciones. Estos sistemas pueden llegar a tener cientos o miles de grados de libertad.

El objetivo de este tema es desarrollar estrategias numéricas que permitan resolver sistemas de ecuaciones relativamente grandes de una manera eficiente.

Además, se analizarán con detalle algunos métodos directos.

2

SISTEMAS DE ECUACIONES LINEALES · 5

Existencia y unicidad de solucionesExistencia y unicidad de soluciones

Consideremos una matriz cuadradaLas siguientes condiciones son equivalentes:

1. Para cualquier el sistema tiene solución

2. Si tiene solución, ésta es única

3. Para cualquier ,

4. Las columnas (filas) de la matriz son linealmente independientes

5. Existe una matriz cuadrada (matriz inversa) tal que

6. La matriz tiene determinante no nulo

Las condiciones de existencia y unicidad no son útiles des del punto de vista numérico

� DeterminantesEl cálculo de un determinante es muy costoso. Además, es difícil decidir si es cero o no

� Matriz inversaEl cálculo directo de la matriz inversa es muy costoso.

Para calcularla se tienen que resolver n sistemas de ecuaciones de dimensión n:

donde es la i-ésima columna de la matriz inversa y es el i-ésimo vector de la base canónica.

SISTEMAS DE ECUACIONES LINEALES · 6

Perspectiva numéricaPerspectiva numérica

SISTEMAS DE ECUACIONES LINEALES · 7

De hecho, métodos clásicos como el de Cramer tampoco sirven para resolver sistemas grandes. El número total de operaciones para resolver un sistema de dimensión n con este método es

TC = (n+1)2n! – 1

Des del punto de vista numérico buscaremos algoritmos eficientes en diferentes aspectos:

� Número de operaciones necesarias (tiempo CPU)� Necesidades de almacenamiento (memoria)� Rango de aplicabilidad (sobre que tipo de matrices se

pueden aplicar)

n TC

5 4319

10 4x108

100 10158 3x10142 años !!!100 Mflops

SISTEMAS DE ECUACIONES LINEALES · 8

Clasificación de los métodos de resoluciónClasificación de los métodos de resolución

1. Sistemas con solución inmediataSistemas con matriz diagonal o triangular

2. Métodos directosMediante operaciones de fila o columna transformamos el sistema en uno de solución inmediata.La solución “exacta” (salvo errores de redondeo) se obtiene en un número finito de pasos.� métodos de eliminación (Gauss)� métodos de descomposición (Crout, Txolesqui)

Descomponemos la matriz del sistema en un producto de matrices triangulares

triangular inferior

triangular superior

3

SISTEMAS DE ECUACIONES LINEALES · 9

Entonces podemos resolver el sistema haciendo dos sustituciones

3. Métodos iterativos

Dada una aproximación inicial , calculamos nuevas aproximaciones

hasta converger a la solución del sistema.

calculamos con una sustitución hacia adelante

calculamos con una sustitución hacia atrás

Laboratori de Càlcul Numèric (LaCàN)Departament de Matemàtica Aplicada III

Universitat Politècnica de Catalunya (Spain)http://www-lacan.upc.es

Laboratori de Càlcul Numèric (LaCàN)Departament de Matemàtica Aplicada III

Universitat Politècnica de Catalunya (Spain)http://www-lacan.upc.es

Resolución numérica de sistemas de ecuaciones.

Métodos directos

Resolución numérica de sistemas de ecuaciones.

Métodos directos

SISTEMAS DE ECUACIONES LINEALES · 11

ÍndiceÍndice

� Introducción� Clasificación de los métodos directos� Sistemas con solución inmediata

• Matrices diagonales• Matrices triangulares

� Método de Gauss� Método de Crout� Método de Cholesky� Llenado (fill-in)

SISTEMAS DE ECUACIONES LINEALES · 12

IntroducciónIntroducción

Objetivo: encontrar algoritmos eficientes:� Número de operaciones necesarias (tiempo CPU)� Necesidades de almacenamiento (memoria)� Rango de aplicabilidad (sobre que tipo de matrices se

pueden aplicar)para resolver sistemas de ecuaciones lineales .Características de los métodos directos:

� Mediante operaciones de fila o columna se transforma el sistema de ecuaciones en uno de solución inmediata (con matriz diagonal o triangular)

llenado (fill-in)� La solución “exacta” (salvo errores de redondeo) se

obtiene en un número finito de pasos.

4

SISTEMAS DE ECUACIONES LINEALES · 13

Clasificación de métodos directosClasificación de métodos directos1. Métodos de eliminación (Gauss)

Transformamos la matriz del sistema y el vector de términos independientes hasta obtener un sistema con matriz triangular superior.

2. Métodos de descomposición (Crout, Cholesky)Descomponemos la matriz del sistema en un producto de matrices triangulares

y resolvemos el sistema haciendo dos sustituciones

triangular inferior

triangular superior

calculamos con una sustitución hacia adelante

calculamos con una sustitución hacia atrás

Sistemas con matriz diagonal

Cada ecuación del sistema se escribey por tanto podemos resolver

Algoritmo para resolver un sistema con matriz diagonal

� Es necesario que dii ≠ 0 per i=1,2,…n (es decir, es necesario que la matriz del sistema sea regular)

SISTEMAS DE ECUACIONES LINEALES · 14

Sistemas con solución inmediataSistemas con solución inmediata

TD = n operaciones

SISTEMAS DE ECUACIONES LINEALES · 15

Sistemas con matriz triangular superior

Empezamos resolviendo la última ecuación

Las ecuaciones restantes pueden resolverse a partir de ésta.Para i = n-1, n-2, … 1

El algoritmo para resolver un sistema con matriz triangular superior (sustitución hacia atrás) se puede escribir:

� Es necesario que uii ≠ 0 para i=1,2,…n (es decir, que la matriz del sistema sea regular)

Podemos contar las operaciones necesarias para resolver unsistema con matriz triangular superior de dimensión n

1+2+…(n-1) = n(n-1)/2 sumas1+2+…(n-1) = n(n-1)/2 productos TU = n2 operaciones

n divisionesSISTEMAS DE ECUACIONES LINEALES · 16

5

SISTEMAS(2). MÉTODOS DIRECTOS · 17

Sistemas con matriz triangular inferior

Empezamos resolviendo la primera ecuación

Las ecuaciones restantes pueden resolverse a partir de ésta.Para i = 2, 3, … n

El algoritmo para resolver un sistema con matriz triangular inferior (sustitución hacia adelante) se puede escribir:

� Es necesario que lii ≠ 0 para i=1,2,…n (es decir, que la matriz del sistema sea regular)

Podemos contar las operaciones necesarias para resolver unsistema con matriz triangular superior de dimensión n

1+2+…(n-1) = n(n-1)/2 sumas1+2+…(n-1) = n(n-1)/2 productos TL = n2 operaciones

n divisiones SISTEMAS DE ECUACIONES LINEALES · 18

SISTEMAS DE ECUACIONES LINEALES · 19

Método de GaussMétodo de GaussLa idea del método de Gauss es transformar un sistema conmatriz llena en un sistema con matriz triangular superior, que se puede resolver de forma inmediata.

1. Eliminación

1.1 Ponemos ceros en la primera columna

(fila 2) = (fila 2) – a21/a11 (fila 1) = (fila 2) – 2(fila 1)

(fila 2) = (fila 3) – a31/a11 (fila 1) = (fila 3) – 4(fila 1)

1.2 Ponemos ceros en la segunda columna

(fila 3) = (fila 3) – a31/a21 (fila 2) = (fila 3) – 1(fila 2)

2. Sustitución

SISTEMAS DE ECUACIONES LINEALES · 20

6

SISTEMAS DE ECUACIONES LINEALES · 21

Proceso de eliminación gaussiana

Consideremos un sistema que inicialmente escribiremos como

1. Ponemos ceros en la columna k=1i: fila en la que ponemos 0

(fila i)(1) = (fila i)(0) – mi1 (fila 1)(0)

SISTEMAS DE ECUACIONES LINEALES · 22

Tras estas operaciones el sistema queda

2. Ponemos ceros en la columna k = 2

i: fila en la que ponemos 0

(fila i)(2) = (fila i)(1) – mi2 (fila 2)(1)

SISTEMAS DE ECUACIONES LINEALES · 23

Tras este segundo paso el sistema queda

3. Ponemos ceros en la columna k=3

i: fila en la que ponemos 0

(fila i)(3) = (fila i)(2) – mi3 (fila 3)(2)

SISTEMAS DE ECUACIONES LINEALES · 24

En general, al final del paso k-1 tendremos un sistema

k. Ponemos ceros en la columna ki: fila en la que ponemos 0

(fila i)(k) = (fila i)(k-1) – mik (fila k)(k-1)

7

SISTEMAS DE ECUACIONES LINEALES · 25

El funcionamiento del método de Gauss se puede describir en las dos fases siguientes:

1. EliminaciónEn cada paso k hacemos cero las componentes de la columna k que quedan por debajo de la diagonal:

Para k = 1,2,...,n-1Para i = k+1,...,n

mik = aik / akk

(fila i)(k) = (fila i)(k-1) – mik (fila k)(k-1)

2. SustituciónAl acabar el proceso de eliminación, tenemos un sistemacon matriz triangular superior, que se puede resolver mediante una sustitución hacia atrás.

SISTEMAS DE ECUACIONES LINEALES · 26

El algoritmo para describir el proceso de eliminación gaussiana se puede escribir como:

� Es necesario que akk ≠ 0 para i=1,2,...,nSi no, será necesario pivotar para poder seguir con el proceso

(K-1)

Pivotamiento

Por ejemplo, tomamos el paso k=3 de la eliminación del método de Gauss.

� Pivotamiento parcial: se permutan filas para conseguir que |akk| ≥ |aik| para i>k

� Pivotamiento total: se permutan filas y columnas para conseguir que |akk| ≥ |aij| para i,j ≥ k

SISTEMAS DE ECUACIONES LINEALES · 27

SISTEMAS DE ECUACIONES LINEALES · 28

� Un sistema de dimensión n se puede resolver mediante el método de Gauss (eliminación + sustitución) haciendo sólo

TG = (4n3 + 9n2 – 7)/6 ≈ (2/3)n3 operaciones

� El proceso de eliminación gaussiana permite calcular el determinante de una matriz de una forma eficiente. Una vez triangulada la matriz, el determinante se puede calcular multiplicando los coeficientes de la diagonal:

|A| = a11 · a22 · a33 · … · ann

n TC TG

5 4319 115

10 4x108 805

100 10160 681.550

1000 102573 6x108

8

SISTEMAS DE ECUACIONES LINEALES · 29

� Si queremos resolver varios sistemas con la misma matriz y diferentes términos independientes (conocidos a priori), podemos hacer eliminación sobre la matriz y todos los términos independientes a la vez

Una vez finalizado el proceso de eliminación, basta con hacer tantas sustituciones como términos independientes haya.

� Este procedimiento se puede utilizar para calcular matrices inversas. Sólo se tienen que considerar como términos independientes los vectores que forman la base canónica

SISTEMAS DE ECUACIONES LINEALES · 30

Método de CroutMétodo de Crout

La idea del método de Crout es descomponer la matriz del sistema como producto de matrices triangulares

Entonces, para resolver el sistema basta con realizar dos sustituciones (una hacia adelante y una hacia atrás)

triangular inferior

triangular superior

calculamos con una sustitución hacia adelante

calculamos con una sustitución hacia atrás

SISTEMAS DE ECUACIONES LINEALES · 31

Descomposición LU

� Descomponemos la matriz del sistema A como producto de una matriz triangular inferior L por una matriz triangular superior U

� Para que la descomposición sea única, es necesario que U tenga diagonal unitaria

� La factorización se hace de forma recursiva, descomponiendo sucesivamente los menores principales de la matriz A

SISTEMAS DE ECUACIONES LINEALES · 32

k = 1

k > 1Para un paso cualquiera k, conviene escribir el menor por bloques

de manera que podemos escribir la descomposición como

incógnitas

9

SISTEMAS DE ECUACIONES LINEALES · 33

Multiplicando los bloques de esta descomposición se tiene:

Descomposición del paso anterior

Sistema con matriz triangular inferior que permite calcular el vector u[k] mediante una sustitución hacia delante

Sistema con matriz triangular inferior que permite calcular el vector l[k] mediante una sustitución hacia delante

Una vez calculados u[k] y l[k], se puede obtener el término de la diagonal lk,k.

SISTEMAS DE ECUACIONES LINEALES · 34

Resolución del sistema L[k-1]u[k] = c[k]

Resolución del sistema UT

[k-1]l[k] = f[k]

Algoritmo de descomposición LU

SISTEMAS DE ECUACIONES LINEALES · 35

� Una vez factorizada la matriz, es necesario hacer dos sustituciones para resolver el sistema.

� La descomposición de la matriz puede almacenarse sobre A, de manera que no es necesario guardar espacio adicional para las matrices L y U.

� El número de operaciones necesarias para resolver un sistema con este método es el mismo que el de Gauss

TLU = (4n3 + 9n2 – 7)/6 ≈ (2/3)n3

� La ventaja de este método respecto del de Gauss es que, una vez factorizada la matriz, puede utilizarse la descomposición para resolver varios sistemas, sin necesidad de conocer a priori los términos independientes. De este modo, para resolver cada sistema adicional sólo se tienen que hacer dos sustituciones (2n2 operaciones).

SISTEMAS DE ECUACIONES LINEALES · 36

Teorema: si A es invertible y se puede factorizar como A = LU, donde L tiene la diagonal unitaria, entonces la factorización es única

Teorema: si A es invertible existe una matriz de permutación P tal que PA=LU

Con pivotamiento total, siempre es posible hacer una factorización LU (o Gauss) de una matriz regular

Teorema: la condición necesaria y suficiente para que una matriz regular A se pueda descomponer como A = LU

es que todos los menores principales tengan determinante no nulo

10

SISTEMAS DE ECUACIONES LINEALES · 37

Método de CholeskyMétodo de Cholesky

Para el caso de matrices simétricas y definidas positivas, se puede descomponer la matriz como

con L triangular inferior.

Como en el método de Crout, la factorización se hace descomponiendo sucesivamente los menores principales de la matriz AEn este caso, al aprovechar las características de la matriz, se realizan aproximadamente la mitad de operaciones que con el de Crout

TChol ≈ (1/3)n3

SISTEMAS DE ECUACIONES LINEALES · 38

Algoritmo de la descomposición de Cholesky

SISTEMAS DE ECUACIONES LINEALES · 39

Llenado en métodos de factorizaciónLlenado en métodos de factorización� Al factorizar una matriz pueden aparecer coeficientes no

nulos donde inicialmente había ceros � Se mantiene el skyline de la matriz

SISTEMAS DE ECUACIONES LINEALES · 40

Estructura de barras 2D

50 grados de libertad

nz = 288 nz = 215

nz: nº de componentes ≠ 0

11

SISTEMAS DE ECUACIONES LINEALES · 41

Estructura de barras 3D

111 grados de libertad

nz = 1327

nz = 1327 nz = 2135

nz = 3877

Laboratori de Càlcul Numèric (LaCàN)Departament de Matemàtica Aplicada III

Universitat Politècnica de Catalunya (Spain)http://www-lacan.upc.es

Laboratori de Càlcul Numèric (LaCàN)Departament de Matemàtica Aplicada III

Universitat Politècnica de Catalunya (Spain)http://www-lacan.upc.es

Resolución numérica de sistemas de ecuaciones.

Métodos iterativos

Resolución numérica de sistemas de ecuaciones.

Métodos iterativos

SISTEMAS DE ECUACIONES LINEALES · 43

ÍndiceÍndice

� Introducción� Métodos iterativos estacionarios

• Consistencia y convergencia• Velocidad de convergencia• Métodos clásicos: Richardson, Jacobi, Gauss-Seidel

� Métodos iterativos no estacionarios • Máximo descenso• Gradientes conjugados• Precondicionamiento• GMRES

� Ejemplos

SISTEMAS DE ECUACIONES LINEALES · 44

IntroducciónIntroducción

� Objetivo: resolver con regular

� Notación:• residuo• solución

� Esquema iterativoA partir de una aproximación inicial, se genera una sucesión

que converja a la solución del sistema

La aproximación se calcula a partir de las anteriores, utilizando operaciones con vectores o productos matriz por vector.

12

La sucesión de aproximaciones se genera a partir de una expresión de la forma

Habitualmente, los esquemas son

que es un caso particular con

� Cálculos• cálculo del residuo

• resolución de un sistema

• actualización de la aproximación

� La matriz C debe ser fácilmente “invertible” y cumplir ciertas propiedades

SISTEMAS DE ECUACIONES LINEALES · 45

Métodos iterativos estacionariosMétodos iterativos estacionarios

SISTEMAS DE ECUACIONES LINEALES · 46

ConsistenciaConsistencia

Definición: Un esquema iterativo es consistente si y sólosi x* es el único punto fijo.

1. Es punto fijo:2. Es el único punto fijo: consideremos tal que

, entonces

El sistema tiene solución única, , si y sólo si es regular

� Para esquemas de la forma1. x* es punto fijo por construcción2. es el único punto fijo por ser C regular

SISTEMAS DE ECUACIONES LINEALES · 47

ConvergenciaConvergenciaDefinición:Un esquema iterativo es convergente si y sólo si el error en la iteración k, , cumple

para cualquier .

Análisis de convergencia� Se asume consistencia del esquema� El error cumple� El esquema es convergente si

o, equivalentemente, si

<<radio espectral

SISTEMAS DE ECUACIONES LINEALES · 48

� Puede comprobarse que la condición

es necesaria y suficiente

� Corolario:Una condición suficiente para convergencia es

Fácil de comprobar con las normas matriciales

<<

13

SISTEMAS DE ECUACIONES LINEALES · 49

Velocidad de convergenciaVelocidad de convergencia

Consideramos una aproximación con q cifras significativascorrectas

¿Cuántas iteraciones ν hay que hacer para conseguir m cifras correctas más?

Para conseguir las m cifras correctas más basta con

o, equivalentemente,

Así, para conseguir basta con

donde

� Tomando el límite para ν�∞, se define la velocidad de convergencia como

• para � grande (conv. rápida)

• para � >0 pequeña (conv. lenta)

• para � <0 (conv. no asegurada)

SISTEMAS DE ECUACIONES LINEALES · 50

(velocidad)

SISTEMAS DE ECUACIONES LINEALES · 51

Métodos clásicosMétodos clásicos

Por construcción, son métodos consistentes y la convergencia está asegurada si

Observación: si C=A el esquema converge en una sola iteración � consideramos C≈A pero fácilmente invertiblePara definir C se considera la descomposición aditiva

SISTEMAS DE ECUACIONES LINEALES · 52

Método de Richardson

� Corresponde a

� Condición de convergencia ( ) demasiado restrictiva y no se utiliza

Método de Jacobi� Corresponde a

14

SISTEMAS DE ECUACIONES LINEALES · 53

Método de Gauss-Seidel

� Corresponde a

SISTEMAS DE ECUACIONES LINEALES · 54

Condiciones de convergencia

El método de Jacobi es convergente si• A es diagonalmente dominante

El método de Gauss-Seidel es convergente si• A es diagonalmente dominante, o• A es simétrica y definida positiva

Observaciones:

� Las iteraciones de Gauss-Seidel dependen de la ordenación de las incógnitas. Se puede alternar con

SISTEMAS DE ECUACIONES LINEALES · 55

� Los métodos vistos también se pueden aplicar por bloques

Gauss-Seidel por bloques:

� Métodos SOR (Sobrerelajaciones sucesivas): C=C(ω) donde el parámetro se elige para optimizar la convergencia

SISTEMAS DE ECUACIONES LINEALES · 56

Métodos iterativos no estacionariosMétodos iterativos no estacionarios� El esquema cambia con las iteraciones� Para empezar, consideremos una matriz A simétrica y

definida positiva.Entonces, es solución del sistema si y sólo si es el mínimo del funcional cuadrático:

A definida positiva

A singular

A definida negativa

A indefinida

15

SISTEMAS DE ECUACIONES LINEALES · 57

Máximo descensoMáximo descenso

Idea: avanzar en la dirección de máxima pendiente

La dirección del gradiente es la de máximo crecimientode la función y, dado que se quiere resolver un problemade minimización, la dirección de avance será

Esquema iterativo:

se determina resolviendo un problema de minimizaciónunidimensional

SISTEMAS DE ECUACIONES LINEALES · 58

Figuras de “The Conjugate Gradient Method Without the Agonizing Pain”, J.R. Shewchuk

� Máximo descenso: representación gráfica

SISTEMAS DE ECUACIONES LINEALES · 59

Superficie definida por el funcional φ(x) y sus curvas de nivel con los vectores gradiente

Iteraciones del método de máximo descenso

� Sólo se tiene en cuenta el comportamiento local de la función� Se repiten direcciones de avance� El comportamiento del método depende del condicionamiento

de la matriz (para matrices SDP, del cociente entre el mayor y el menor autovalor)

SISTEMAS DE ECUACIONES LINEALES · 60

16

SISTEMAS DE ECUACIONES LINEALES · 61

Gradientes conjugadosGradientes conjugados

Idea: no repetir direcciones de avance

Esquema iterativo:� se determina resolviendo un problema de minimización

en la dirección de avance

� Las direcciones de avance en cada iteración se escogen A-conjugadas y se definen como

con

SISTEMAS DE ECUACIONES LINEALES · 62

� Gradientes conjugados: algortimo

Operaciones:• 2 matriz x vector• 3 productos escalares• 2 (escalar x vector) + vector

SISTEMAS DE ECUACIONES LINEALES · 63

� Gradientes conjugados: propiedades

Convergencia en n iteraciones como máximo

SISTEMAS DE ECUACIONES LINEALES · 64

� Gradientes conjugados: algoritmo mejorado

Operaciones:• 1 matriz x vector• 2 productos escalares• 3 (escalar x vector) + vector

17

SISTEMAS DE ECUACIONES LINEALES · 65

Iteraciones de gradientes conjugados

� Converge en como máximo n iteraciones, siendo n la dimensión del sistema

� Aunque en sentido estricto es un método directo (se llega a la solución en un número finito de pasos), se utiliza como iterativo porque normalmente converge mucho antes de n iteraciones.

SISTEMAS DE ECUACIONES LINEALES · 66

PrecondicionamientoPrecondicionamiento

La convergencia de un método iterativo depende del númerode condición de la matriz del sistema, que para matrices SDPse define como

Idea: reducir el número de condición de la matriz del sistema

Se considera una matriz (precondicionador) tal que� sea fácilmente inversible�

y se resuelve el sistema equivalente

SISTEMAS DE ECUACIONES LINEALES · 67

Con esta estructura se pierde la simetría de la matriz, demanera que para precondicionar gradientes conjugadosse utiliza otra estrategia. Se resuelve un sistema

con

� Si es una matriz SDP, su raíz cuadrada es la única matriz SDP que verifica .

Si diagonaliza como , se define

� En la práctica el algoritmo se simplifica para evitar el cálculo de P1/2.

SISTEMAS DE ECUACIONES LINEALES · 68

� Gradientes conjugados precondicionado

No se calcula P1/2.

Sólo es necesario resolver un sistema con matriz P

18

SISTEMAS DE ECUACIONES LINEALES · 69

GMRESGMRES� Método iterativo para matrices regulares cualesquiera.

� En cada iteración xk minimiza la norma euclídea del residuo en x0+Kk:

donde el k-ésimo espacio de Krylov se define como

Observación: Kk⊂ Rn es de dimensión k, de manera que en la iteración n se calcula la minimización del error en Rn

proporciona la solución x* (es decir, se obtiene la solución en n iteraciones como máximo)

� Para resolver el problema de minimización se hacen varias reformulaciones.

ReferenciasReferencias

Métodos directos� A. Huerta, J. Sarrate, A. Rodríguez-Ferran, “Métodos numéricos.

Introducción, aplicaciones y programación”, Edicions UPC, 1998� J. D. Hoffman, “Numerical Methods for Engineers and scientists”,

McGraw Hill, 1993� Ll. N. Trefethen and D. Bau, “Numerical Linear Algebra”, SIAM, 1997 Métodos iterativos� Ll. N. Trefethen and D. Bau, “Numerical Linear Algebra”, SIAM, 1997

� G.H. Golub and C.F. Van Loan, “Matrix computations”, The Johns Hopkins University Press, 1996

� J.R. Shewchuk, “An Introduction to the Conjugate Gradient Method Without the Agonizing Pain”, Technical Report CMU-CS-94-125, Carnegie Mellon University, 1994

� Y. Saad, “Iterative methods for sparse linear systems (1st edition)”, 1996. http://www-users.cs.umn.edu/~saad/books.html

SISTEMAS DE ECUACIONES LINEALES · 70