parte 2. métodos directos para la resolución de sistemas de … · 2009-02-13 · preliminares...

Post on 25-Jun-2018

214 Views

Category:

Documents

0 Downloads

Preview:

Click to see full reader

TRANSCRIPT

PreliminaresMetodo de GaussFactorizacion LU

Factorizacion de CholeskyAplicacion al calculo de la matriz inversa

Resumen

Parte 2. Metodos directos para la resolucion desistemas de ecuaciones lineales

Gustavo Montero

Escuela Tecnica Superior de Ingenieros IndustrialesUniversity of Las Palmas de Gran Canaria

Curso 2005-2006

PreliminaresMetodo de GaussFactorizacion LU

Factorizacion de CholeskyAplicacion al calculo de la matriz inversa

Resumen

1 Preliminares

2 Metodo de Gauss

3 Factorizacion LU

4 Factorizacion de Cholesky

5 Aplicacion al calculo de la matriz inversa

6 Resumen

PreliminaresMetodo de GaussFactorizacion LU

Factorizacion de CholeskyAplicacion al calculo de la matriz inversa

Resumen

Revision de algunos conceptosPolinomio caracterısticoNormas vectoriales y normas matricialesVector residuo. Numero de condicionamiento

1 Preliminares

2 Metodo de Gauss

3 Factorizacion LU

4 Factorizacion de Cholesky

5 Aplicacion al calculo de la matriz inversa

6 Resumen

PreliminaresMetodo de GaussFactorizacion LU

Factorizacion de CholeskyAplicacion al calculo de la matriz inversa

Resumen

Revision de algunos conceptosPolinomio caracterısticoNormas vectoriales y normas matricialesVector residuo. Numero de condicionamiento

Revision de algunos conceptos

Matriz simetricaSe dice que una matriz A es simetrica si At = A.

PreliminaresMetodo de GaussFactorizacion LU

Factorizacion de CholeskyAplicacion al calculo de la matriz inversa

Resumen

Revision de algunos conceptosPolinomio caracterısticoNormas vectoriales y normas matricialesVector residuo. Numero de condicionamiento

Revision de algunos conceptos

Matriz simetricaSe dice que una matriz A es simetrica si At = A.

Matriz definida positiva

Se dice que una matriz A es definida positiva si xtAx > 0, ∀x 6= 0 ∈ Rn .

PreliminaresMetodo de GaussFactorizacion LU

Factorizacion de CholeskyAplicacion al calculo de la matriz inversa

Resumen

Revision de algunos conceptosPolinomio caracterısticoNormas vectoriales y normas matricialesVector residuo. Numero de condicionamiento

Revision de algunos conceptos

Matriz simetricaSe dice que una matriz A es simetrica si At = A.

Matriz definida positiva

Se dice que una matriz A es definida positiva si xtAx > 0, ∀x 6= 0 ∈ Rn .

Matriz ortogonal

Se dice que una matriz A es ortogonal si At = A−1, es decir, AtA = I .

PreliminaresMetodo de GaussFactorizacion LU

Factorizacion de CholeskyAplicacion al calculo de la matriz inversa

Resumen

Revision de algunos conceptosPolinomio caracterısticoNormas vectoriales y normas matricialesVector residuo. Numero de condicionamiento

Revision de algunos conceptos

Matriz simetricaSe dice que una matriz A es simetrica si At = A.

Matriz definida positiva

Se dice que una matriz A es definida positiva si xtAx > 0, ∀x 6= 0 ∈ Rn .

Matriz ortogonal

Se dice que una matriz A es ortogonal si At = A−1, es decir, AtA = I .

Matrices semejantes

Sea C cualquier matriz no singular de la misma dimension que A. Entonces las matrices A y C−1AC se dice queson semejantes.

PreliminaresMetodo de GaussFactorizacion LU

Factorizacion de CholeskyAplicacion al calculo de la matriz inversa

Resumen

Revision de algunos conceptosPolinomio caracterısticoNormas vectoriales y normas matricialesVector residuo. Numero de condicionamiento

Polinomio caracterıstico

Valor propioSe dice que el numero λ, real o complejo, es un valor propio de A si existe un vector no nulo u, real o complejo talqueAu = λu, es decir (A− λI )u = 0

PreliminaresMetodo de GaussFactorizacion LU

Factorizacion de CholeskyAplicacion al calculo de la matriz inversa

Resumen

Revision de algunos conceptosPolinomio caracterısticoNormas vectoriales y normas matricialesVector residuo. Numero de condicionamiento

Polinomio caracterıstico

Valor propioSe dice que el numero λ, real o complejo, es un valor propio de A si existe un vector no nulo u, real o complejo talqueAu = λu, es decir (A− λI )u = 0

Vector propioEl vector u se denomina vector propio de A asociado al valor propio λ.

PreliminaresMetodo de GaussFactorizacion LU

Factorizacion de CholeskyAplicacion al calculo de la matriz inversa

Resumen

Revision de algunos conceptosPolinomio caracterısticoNormas vectoriales y normas matricialesVector residuo. Numero de condicionamiento

Polinomio caracterıstico

Valor propioSe dice que el numero λ, real o complejo, es un valor propio de A si existe un vector no nulo u, real o complejo talqueAu = λu, es decir (A− λI )u = 0

Vector propioEl vector u se denomina vector propio de A asociado al valor propio λ.

Polinomio caracterısticoEn general, el polinomio que resulta de desarrollar |A− λI |, cuyos ceros son precisamente los valores propios de A,se denomina polinomio caracterıstico.

PreliminaresMetodo de GaussFactorizacion LU

Factorizacion de CholeskyAplicacion al calculo de la matriz inversa

Resumen

Revision de algunos conceptosPolinomio caracterısticoNormas vectoriales y normas matricialesVector residuo. Numero de condicionamiento

Polinomio caracterıstico

Valor propioSe dice que el numero λ, real o complejo, es un valor propio de A si existe un vector no nulo u, real o complejo talqueAu = λu, es decir (A− λI )u = 0

Vector propioEl vector u se denomina vector propio de A asociado al valor propio λ.

Polinomio caracterısticoEn general, el polinomio que resulta de desarrollar |A− λI |, cuyos ceros son precisamente los valores propios de A,se denomina polinomio caracterıstico.

Radio espectralSe denomina radio espectral ρ de una matriz A al valor

ρ(A) = max1≤i≤n

|λi |

PreliminaresMetodo de GaussFactorizacion LU

Factorizacion de CholeskyAplicacion al calculo de la matriz inversa

Resumen

Revision de algunos conceptosPolinomio caracterısticoNormas vectoriales y normas matricialesVector residuo. Numero de condicionamiento

Polinomio caracterıstico

Valor propioSe dice que el numero λ, real o complejo, es un valor propio de A si existe un vector no nulo u, real o complejo talqueAu = λu, es decir (A− λI )u = 0

Vector propioEl vector u se denomina vector propio de A asociado al valor propio λ.

Polinomio caracterısticoEn general, el polinomio que resulta de desarrollar |A− λI |, cuyos ceros son precisamente los valores propios de A,se denomina polinomio caracterıstico.

Radio espectralSe denomina radio espectral ρ de una matriz A al valor

ρ(A) = max1≤i≤n

|λi |

Propiedades

Si λ es complejo, entonces u es complejo.

Los valores propios de C−1AC son los mismos de A.

PreliminaresMetodo de GaussFactorizacion LU

Factorizacion de CholeskyAplicacion al calculo de la matriz inversa

Resumen

Revision de algunos conceptosPolinomio caracterısticoNormas vectoriales y normas matricialesVector residuo. Numero de condicionamiento

Normas vectoriales y normas matriciales

Norma vectorialSe denomina norma vectorial a una apicacion de Rn en R, que verifica las siguientes propiedades:

‖u‖ ≥ 0, ∀u ∈ Rn.

‖u‖ = 0 ⇒ u = 0.

‖u + v‖ ≤ ‖u‖ + ‖v‖, ∀u, v ∈ Rn.

‖λu‖ = |λ|‖u‖, ∀u ∈ Rn, λ ∈ R.

PreliminaresMetodo de GaussFactorizacion LU

Factorizacion de CholeskyAplicacion al calculo de la matriz inversa

Resumen

Revision de algunos conceptosPolinomio caracterısticoNormas vectoriales y normas matricialesVector residuo. Numero de condicionamiento

Normas vectoriales y normas matriciales

Norma vectorialSe denomina norma vectorial a una apicacion de Rn en R, que verifica las siguientes propiedades:

‖u‖ ≥ 0, ∀u ∈ Rn.

‖u‖ = 0 ⇒ u = 0.

‖u + v‖ ≤ ‖u‖ + ‖v‖, ∀u, v ∈ Rn.

‖λu‖ = |λ|‖u‖, ∀u ∈ Rn, λ ∈ R.

Norma matricialSe denomina norma matricial a una apicacion de Rn,n en R, que verifica las siguientes propiedades:

‖A‖ ≥ 0, ∀A ∈ Rn,n.

‖A‖ = 0 ⇒ A = 0.

‖A + B‖ ≤ ‖A‖ + ‖B‖, ∀A, B ∈ Rn,n.

‖λA‖ = |λ|‖A‖, ∀A ∈ Rn,n, λ ∈ R.

‖A B‖ ≤ ‖A‖‖B‖, ∀A, B ∈ Rn,n.

PreliminaresMetodo de GaussFactorizacion LU

Factorizacion de CholeskyAplicacion al calculo de la matriz inversa

Resumen

Revision de algunos conceptosPolinomio caracterısticoNormas vectoriales y normas matricialesVector residuo. Numero de condicionamiento

Normas vectoriales y normas matriciales

Norma vectorialSe denomina norma vectorial a una apicacion de Rn en R, que verifica las siguientes propiedades:

‖u‖ ≥ 0, ∀u ∈ Rn.

‖u‖ = 0 ⇒ u = 0.

‖u + v‖ ≤ ‖u‖ + ‖v‖, ∀u, v ∈ Rn.

‖λu‖ = |λ|‖u‖, ∀u ∈ Rn, λ ∈ R.

Norma matricialSe denomina norma matricial a una apicacion de Rn,n en R, que verifica las siguientes propiedades:

‖A‖ ≥ 0, ∀A ∈ Rn,n.

‖A‖ = 0 ⇒ A = 0.

‖A + B‖ ≤ ‖A‖ + ‖B‖, ∀A, B ∈ Rn,n.

‖λA‖ = |λ|‖A‖, ∀A ∈ Rn,n, λ ∈ R.

‖A B‖ ≤ ‖A‖‖B‖, ∀A, B ∈ Rn,n.

CompatibilidadDada una norma matricial ‖ · ‖M en Rn,n y una norma vectorial ‖ · ‖v en Rn , se dice que son compatibles si

‖Ax‖v ≤ ‖A‖M‖x‖v ∀A ∈ Rn,n, x ∈ Rn

PreliminaresMetodo de GaussFactorizacion LU

Factorizacion de CholeskyAplicacion al calculo de la matriz inversa

Resumen

Revision de algunos conceptosPolinomio caracterısticoNormas vectoriales y normas matricialesVector residuo. Numero de condicionamiento

Normas vectoriales y normas matriciales

Norma matricial subordinada o inducidasSe denomina norma matricial subordinada o inducida por una norma vectorial ‖ · ‖v a la norma matricial:

‖A‖M = max‖x‖v =1

‖Ax‖v (Norma‖ · ‖M compatible con‖ · ‖v )

PreliminaresMetodo de GaussFactorizacion LU

Factorizacion de CholeskyAplicacion al calculo de la matriz inversa

Resumen

Revision de algunos conceptosPolinomio caracterısticoNormas vectoriales y normas matricialesVector residuo. Numero de condicionamiento

Normas vectoriales y normas matriciales

Norma matricial subordinada o inducidasSe denomina norma matricial subordinada o inducida por una norma vectorial ‖ · ‖v a la norma matricial:

‖A‖M = max‖x‖v =1

‖Ax‖v (Norma‖ · ‖M compatible con‖ · ‖v )

Normas matriciales inducidas mas usuales

‖A‖1 = max1≤j≤n

nXi=1

|aij | inducida por: ‖x‖1 =nX

i=1

|xi |

‖A‖2 = ρ�AtA�1/2

inducida por: ‖x‖2 =

0@

nXi=1

x2i

1A

1/2

(Norma espectral)

‖A‖∞ = max1≤i≤n

nXj=1

|aij | inducida por: ‖x‖∞ = max1≤i≤n

|xi |

PreliminaresMetodo de GaussFactorizacion LU

Factorizacion de CholeskyAplicacion al calculo de la matriz inversa

Resumen

Revision de algunos conceptosPolinomio caracterısticoNormas vectoriales y normas matricialesVector residuo. Numero de condicionamiento

Normas vectoriales y normas matriciales

Norma matricial subordinada o inducidasSe denomina norma matricial subordinada o inducida por una norma vectorial ‖ · ‖v a la norma matricial:

‖A‖M = max‖x‖v =1

‖Ax‖v (Norma‖ · ‖M compatible con‖ · ‖v )

Normas matriciales inducidas mas usuales

‖A‖1 = max1≤j≤n

nXi=1

|aij | inducida por: ‖x‖1 =nX

i=1

|xi |

‖A‖2 = ρ�AtA�1/2

inducida por: ‖x‖2 =

0@

nXi=1

x2i

1A

1/2

(Norma espectral)

‖A‖∞ = max1≤i≤n

nXj=1

|aij | inducida por: ‖x‖∞ = max1≤i≤n

|xi |

Norma matricial de FrobeniusLa norma de Frobenius

‖A‖F =

0@

nXi=1

nXj=1

|aij |2

1A

1/2

no es una norma inducida pero es compatible con ‖x‖2.

PreliminaresMetodo de GaussFactorizacion LU

Factorizacion de CholeskyAplicacion al calculo de la matriz inversa

Resumen

Revision de algunos conceptosPolinomio caracterısticoNormas vectoriales y normas matricialesVector residuo. Numero de condicionamiento

Normas vectoriales y normas matriciales

Norma matricial y radio espectral

Si A ∈ Rn,n , toda norma matricial verifica ρ(A) ≤ ‖A‖.Dada A ∈ Rn,n y ε > 0 cualquiera, existe una norma matricial ‖ · ‖ε tal que ‖A‖ε ≤ ρ(A) + ε

Para todo A ∈ Rn,n se tiene que: ρ(A) = inf ‖A‖.

PreliminaresMetodo de GaussFactorizacion LU

Factorizacion de CholeskyAplicacion al calculo de la matriz inversa

Resumen

Revision de algunos conceptosPolinomio caracterısticoNormas vectoriales y normas matricialesVector residuo. Numero de condicionamiento

Normas vectoriales y normas matriciales

Norma matricial y radio espectral

Si A ∈ Rn,n , toda norma matricial verifica ρ(A) ≤ ‖A‖.Dada A ∈ Rn,n y ε > 0 cualquiera, existe una norma matricial ‖ · ‖ε tal que ‖A‖ε ≤ ρ(A) + ε

Para todo A ∈ Rn,n se tiene que: ρ(A) = inf ‖A‖.

Sucesiones MatricialesSea A1, A2, A3, ..., una sucesion de matrices cuadradas de orden n. Se dice que la sucesion tiene por lımite lamatriz cuadrada A de orden n, cuando r tiende a infinito si

limr→∞

‖Ar − A‖ = 0

para una norma matricial cualquiera.

PreliminaresMetodo de GaussFactorizacion LU

Factorizacion de CholeskyAplicacion al calculo de la matriz inversa

Resumen

Revision de algunos conceptosPolinomio caracterısticoNormas vectoriales y normas matricialesVector residuo. Numero de condicionamiento

Normas vectoriales y normas matriciales

Norma matricial y radio espectral

Si A ∈ Rn,n , toda norma matricial verifica ρ(A) ≤ ‖A‖.Dada A ∈ Rn,n y ε > 0 cualquiera, existe una norma matricial ‖ · ‖ε tal que ‖A‖ε ≤ ρ(A) + ε

Para todo A ∈ Rn,n se tiene que: ρ(A) = inf ‖A‖.

Sucesiones MatricialesSea A1, A2, A3, ..., una sucesion de matrices cuadradas de orden n. Se dice que la sucesion tiene por lımite lamatriz cuadrada A de orden n, cuando r tiende a infinito si

limr→∞

‖Ar − A‖ = 0

para una norma matricial cualquiera.

TeoremaSea A ∈ Rn,n , la condicion necesaria y suficiente para que

limm→∞

Am = 0

es que ρ(A) < 1.

PreliminaresMetodo de GaussFactorizacion LU

Factorizacion de CholeskyAplicacion al calculo de la matriz inversa

Resumen

Revision de algunos conceptosPolinomio caracterısticoNormas vectoriales y normas matricialesVector residuo. Numero de condicionamiento

Vector residuo. Numero de condicionamiento

Sea el sistema lineal de ecuaciones Ax = b.

Vector residuo

Se define el vector residuo del sistema como r = b − Ax .

PreliminaresMetodo de GaussFactorizacion LU

Factorizacion de CholeskyAplicacion al calculo de la matriz inversa

Resumen

Revision de algunos conceptosPolinomio caracterısticoNormas vectoriales y normas matricialesVector residuo. Numero de condicionamiento

Vector residuo. Numero de condicionamiento

Sea el sistema lineal de ecuaciones Ax = b.

Vector residuo

Se define el vector residuo del sistema como r = b − Ax .

Numero de condicion

Se define el numero de condicion del sistema κ(A) = ‖A‖‖A−1‖ ≥ ‖AA−1‖ = ‖I‖ ≥ 1.

PreliminaresMetodo de GaussFactorizacion LU

Factorizacion de CholeskyAplicacion al calculo de la matriz inversa

Resumen

Revision de algunos conceptosPolinomio caracterısticoNormas vectoriales y normas matricialesVector residuo. Numero de condicionamiento

Vector residuo. Numero de condicionamiento

Sea el sistema lineal de ecuaciones Ax = b.

Vector residuo

Se define el vector residuo del sistema como r = b − Ax .

Numero de condicion

Se define el numero de condicion del sistema κ(A) = ‖A‖‖A−1‖ ≥ ‖AA−1‖ = ‖I‖ ≥ 1.

Error y condicionamiento

e = x∗ − x

1

κ(A)

‖r‖‖b‖

≤‖e‖‖x‖

≤ κ(A)‖r‖‖b‖

PreliminaresMetodo de GaussFactorizacion LU

Factorizacion de CholeskyAplicacion al calculo de la matriz inversa

Resumen

Generalidades sobre metodos directosMetodo de Gauss

1 Preliminares

2 Metodo de Gauss

3 Factorizacion LU

4 Factorizacion de Cholesky

5 Aplicacion al calculo de la matriz inversa

6 Resumen

PreliminaresMetodo de GaussFactorizacion LU

Factorizacion de CholeskyAplicacion al calculo de la matriz inversa

Resumen

Generalidades sobre metodos directosMetodo de Gauss

Generalidades sobre metodos directos

Sistema de ecuaciones compatible determinadoSea el sistema de ecuaciones,

a11x1 + a12x2 + · · · + a1nxn = b1

a21x1 + a22x2 + · · · + a2nxn = b2

.

.

.

.

.

.

.

.

.

.

.

.

an1x1 + an2x2 + · · · + annxn = bn

donde A es nosingular. En forma matricial: Ax = b.

PreliminaresMetodo de GaussFactorizacion LU

Factorizacion de CholeskyAplicacion al calculo de la matriz inversa

Resumen

Generalidades sobre metodos directosMetodo de Gauss

Generalidades sobre metodos directos

Sistema de ecuaciones compatible determinadoSea el sistema de ecuaciones,

a11x1 + a12x2 + · · · + a1nxn = b1

a21x1 + a22x2 + · · · + a2nxn = b2

.

.

.

.

.

.

.

.

.

.

.

.

an1x1 + an2x2 + · · · + annxn = bn

donde A es nosingular. En forma matricial: Ax = b.

Metodos directosUn metodo se dice que es directo si obtiene la solucion exacta (en ausencia de errores de redondeo) en un numerofinito de pasos.

PreliminaresMetodo de GaussFactorizacion LU

Factorizacion de CholeskyAplicacion al calculo de la matriz inversa

Resumen

Generalidades sobre metodos directosMetodo de Gauss

Generalidades sobre metodos directos

Sistema de ecuaciones compatible determinadoSea el sistema de ecuaciones,

a11x1 + a12x2 + · · · + a1nxn = b1

a21x1 + a22x2 + · · · + a2nxn = b2

.

.

.

.

.

.

.

.

.

.

.

.

an1x1 + an2x2 + · · · + annxn = bn

donde A es nosingular. En forma matricial: Ax = b.

Metodos directosUn metodo se dice que es directo si obtiene la solucion exacta (en ausencia de errores de redondeo) en un numerofinito de pasos.

¡¡¡Prohibido usar el metodo de Cramer!!!El metodo de Cramer, con (n + 1)!n − 1 operaciones, resulta prohibitivo para resolver grandes de sistemas.

PreliminaresMetodo de GaussFactorizacion LU

Factorizacion de CholeskyAplicacion al calculo de la matriz inversa

Resumen

Generalidades sobre metodos directosMetodo de Gauss

Generalidades sobre metodos directos

Resolucion de sistemas triangularesSupongamos que A es una matriz triangular superior (aij = 0 si i > j . Entonces,

xn =bn

ann, xk =

1

akk

0@bk −

nXj=k+1

akj xj

1A , k = n − 1, n − 2, . . . , 1

Numero total de operaciones:

Multiplicaciones/divisiones:n2 + n

2

Sumas/restas:n2 − n

2

Si fuera triangular inferior se resolverıa de forma similarUn primer metodo de resolucion consistira en multiplicar A por M, tal que MA sea triangular:

Si MA = U y Mb = c entonces Ax = b −→ Ux = c

PreliminaresMetodo de GaussFactorizacion LU

Factorizacion de CholeskyAplicacion al calculo de la matriz inversa

Resumen

Generalidades sobre metodos directosMetodo de Gauss

Metodo de Gauss

Algoritmo del metodo de Gauss

El primer pivote es a11 6= 0, siendo mk1 =ak1

a11:

0BBBBBBBBBBBB@

a11 a12 · · · a1n

.

.

. b1

a21 a22 · · · a2n

.

.

. b2

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

an1 an2 · · · ann

.

.

. bn

1CCCCCCCCCCCCA

E2 − m21E1 → E2E3 − m31E1 → E3

.

.

.En − mn1E1 → En

0BBBBBBBBBBBB@

a11 a12 · · · a1n

.

.

. b1

0 a′22 · · · a′2n

.

.

. b′2...

.

.

.

.

.

.

.

.

.

.

.

.

0 a′n2 · · · a′nn

.

.

. b′n

1CCCCCCCCCCCCA

PreliminaresMetodo de GaussFactorizacion LU

Factorizacion de CholeskyAplicacion al calculo de la matriz inversa

Resumen

Generalidades sobre metodos directosMetodo de Gauss

Metodo de Gauss

Algoritmo del metodo de Gauss

El segundo pivote es a22 6= 0, siendo mk2 =ak2

a22:

0BBBBBBBBBBBB@

a11 a12 · · · a1n

.

.

. b1

0 a′22 · · · a′2n

.

.

. b′2...

.

.

.

.

.

.

.

.

.

.

.

.

0 a′n2 · · · a′nn

.

.

. b′n

1CCCCCCCCCCCCA

E3 − m32E2 → E3

.

.

.En − mn2E2 → En

0BBBBBBBBBBBB@

a11 a12 · · · a1n

.

.

. b1

0 a′22 · · · a′2n

.

.

. b′2...

.

.

.

.

.

.

.

.

.

.

.

.

0 0 · · · a′′nn

.

.

. b′′n

1CCCCCCCCCCCCA

PreliminaresMetodo de GaussFactorizacion LU

Factorizacion de CholeskyAplicacion al calculo de la matriz inversa

Resumen

Generalidades sobre metodos directosMetodo de Gauss

Metodo de Gauss

Algoritmo del metodo de Gauss

En general, el pivote aii produce mki =aki

aii. Finalmente, utilizando (Ek − mki Ei → Ek ), resulta:

A =

0BBBBBBBBBBBB@

a11 a12 · · · a1n

.

.

. b1

0 a′22 · · · a′2n

.

.

. b′2...

. . .. . .

.

.

.

.

.

.

.

.

.

0 · · · 0 a(n−1nn

.

.

. b(n−1n

1CCCCCCCCCCCCA

Lo que supone la resolucion de un sistema de ecuaciones triangular superior.

PreliminaresMetodo de GaussFactorizacion LU

Factorizacion de CholeskyAplicacion al calculo de la matriz inversa

Resumen

Generalidades sobre metodos directosMetodo de Gauss

Metodo de Gauss

Algoritmo del metodo de Gauss

En general, el pivote aii produce mki =aki

aii. Finalmente, utilizando (Ek − mki Ei → Ek ), resulta:

A =

0BBBBBBBBBBBB@

a11 a12 · · · a1n

.

.

. b1

0 a′22 · · · a′2n

.

.

. b′2...

. . .. . .

.

.

.

.

.

.

.

.

.

0 · · · 0 a(n−1nn

.

.

. b(n−1n

1CCCCCCCCCCCCA

Lo que supone la resolucion de un sistema de ecuaciones triangular superior.

AlmacenamientoCuando una matriz tiene un numero elevado de entradas nulas, se denomina escasa o hueca (sparse). Estasmatrices requieren tecnicas de almacenamiento especiales que solo consideren los terminos no nulos.Evidentemente, esto supone una implementacion mas complicada de los metodos de resolucion.

PreliminaresMetodo de GaussFactorizacion LU

Factorizacion de CholeskyAplicacion al calculo de la matriz inversa

Resumen

Generalidades sobre metodos directosMetodo de Gauss

Metodo de Gauss

Algoritmo del metodo de Gauss

En general, el pivote aii produce mki =aki

aii. Finalmente, utilizando (Ek − mki Ei → Ek ), resulta:

A =

0BBBBBBBBBBBB@

a11 a12 · · · a1n

.

.

. b1

0 a′22 · · · a′2n

.

.

. b′2...

. . .. . .

.

.

.

.

.

.

.

.

.

0 · · · 0 a(n−1nn

.

.

. b(n−1n

1CCCCCCCCCCCCA

Lo que supone la resolucion de un sistema de ecuaciones triangular superior.

Numero de operacionesIncluyendo la resolucion del sistema triangular, el numero de operaciones aritmeticas es:

Multiplicaciones/divisiones:2n3 + 3n2 − 5n

6+

n2 + n

2

Sumas/restas:n3 − n

3+

n2 − n

2

PreliminaresMetodo de GaussFactorizacion LU

Factorizacion de CholeskyAplicacion al calculo de la matriz inversa

Resumen

Generalidades sobre metodos directosMetodo de Gauss

Metodo de Gauss

Pivote parcial

Cuando se realiza la eleccion del pivote, podemos tener problemas si este es nulo o incluso si es muypequeno en valor absoluto.

La tecnica de pivoteo parcial, trata de evitar este problema tomando en cada paso i-esimo el mayor pivoteposible, en valor absoluto, en esa misma columna (api ) por debajo de la diagonal (p ≥ i).

Esto implica intercambio de las filas i por la p: (Ei ) ↔ (Ep).

Evidentemente, el mismo cambio afecta al vector segundo miembro b.

Anade al metodo de Gauss3

2n(n − 1) comparaciones y

n(n + 1)

2− 1 divisiones.

PreliminaresMetodo de GaussFactorizacion LU

Factorizacion de CholeskyAplicacion al calculo de la matriz inversa

Resumen

Generalidades sobre metodos directosMetodo de Gauss

Metodo de Gauss

Pivote parcial

Cuando se realiza la eleccion del pivote, podemos tener problemas si este es nulo o incluso si es muypequeno en valor absoluto.

La tecnica de pivoteo parcial, trata de evitar este problema tomando en cada paso i-esimo el mayor pivoteposible, en valor absoluto, en esa misma columna (api ) por debajo de la diagonal (p ≥ i).

Esto implica intercambio de las filas i por la p: (Ei ) ↔ (Ep).

Evidentemente, el mismo cambio afecta al vector segundo miembro b.

Anade al metodo de Gauss3

2n(n − 1) comparaciones y

n(n + 1)

2− 1 divisiones.

Pivote totalLa tecnica de pivoteo total refina aun mas la eleccion, tomando en cada paso i-esimo el mayor pivoteposible en valor absoluto (apq), en todas las columnas q a partir de la diagonal (q ≥ i) y por debajo de ladiagonal (p ≥ i).

Esto implica intercambio de las filas i por la p: (Ei ) ↔ (Ep), y de las columnas i por la q: (Ci ) ↔ (Cq).

El cambio de filas afecta al vector b y el de columnas al vector x .

Anade al metodo de Gaussn(n − 1)(2n + 5)

6comparaciones.

PreliminaresMetodo de GaussFactorizacion LU

Factorizacion de CholeskyAplicacion al calculo de la matriz inversa

Resumen

Algoritmo de la factorizacion LU

1 Preliminares

2 Metodo de Gauss

3 Factorizacion LU

4 Factorizacion de Cholesky

5 Aplicacion al calculo de la matriz inversa

6 Resumen

PreliminaresMetodo de GaussFactorizacion LU

Factorizacion de CholeskyAplicacion al calculo de la matriz inversa

Resumen

Algoritmo de la factorizacion LU

Algoritmo de la factorizacion LU

Descomposicion de una matriz como producto de dos triangularesSupongamos que la matriz de un sistema Ax = b se puede descomponer como A = LU, con L triangular inferior yU triangular superior.

LUx = b,⇒ resolver Ly = b, Ux = y

PreliminaresMetodo de GaussFactorizacion LU

Factorizacion de CholeskyAplicacion al calculo de la matriz inversa

Resumen

Algoritmo de la factorizacion LU

Algoritmo de la factorizacion LU

Descomposicion de una matriz como producto de dos triangularesSupongamos que la matriz de un sistema Ax = b se puede descomponer como A = LU, con L triangular inferior yU triangular superior.

LUx = b,⇒ resolver Ly = b, Ux = y

AlgoritmoMultiplicando L por U e igualando, se obtiene:

l11u11 = a11 u1j =a1j

l11

, j ≥ 2 li1 =ai1

u11

, i ≥ 2

lkkukk = akk −k−1Xr=1

lkr urk , k ≥ 2

ukj =1

lkk

0@akj −

k−1Xr=1

lkr urj

1A , j > k, k ≥ 2

lik =1

ukk

0@aik −

k−1Xr=1

lir urk

1A , i > k, k ≥ 2

PreliminaresMetodo de GaussFactorizacion LU

Factorizacion de CholeskyAplicacion al calculo de la matriz inversa

Resumen

Algoritmo de la factorizacion LU

Algoritmo de la factorizacion LU

Eleccion de la diagonalSe fijan arbitrariamente lkk o ukk

Si se fijan los elementos diagonales de U como 1, ukk = 1, se tiene la factorizacion de Crout.

Si se fijan los elementos diagonales de L como 1, lkk = 1, se tiene la factorizacion de Doolittle.

PreliminaresMetodo de GaussFactorizacion LU

Factorizacion de CholeskyAplicacion al calculo de la matriz inversa

Resumen

Algoritmo de la factorizacion LU

Algoritmo de la factorizacion LU

Eleccion de la diagonalSe fijan arbitrariamente lkk o ukk

Si se fijan los elementos diagonales de U como 1, ukk = 1, se tiene la factorizacion de Crout.

Si se fijan los elementos diagonales de L como 1, lkk = 1, se tiene la factorizacion de Doolittle.

Existencia de la factorizacionSi |A| 6= 0, siempre existe una permutacion de las filas de A tal que la matriz resultante es factorizable de la formaLU.

PreliminaresMetodo de GaussFactorizacion LU

Factorizacion de CholeskyAplicacion al calculo de la matriz inversa

Resumen

Algoritmo de la factorizacion LU

Algoritmo de la factorizacion LU

Eleccion de la diagonalSe fijan arbitrariamente lkk o ukk

Si se fijan los elementos diagonales de U como 1, ukk = 1, se tiene la factorizacion de Crout.

Si se fijan los elementos diagonales de L como 1, lkk = 1, se tiene la factorizacion de Doolittle.

Existencia de la factorizacionSi |A| 6= 0, siempre existe una permutacion de las filas de A tal que la matriz resultante es factorizable de la formaLU.

AlmacenamientoFrecuentemente se suele almacenar L y U sobre el mismo espacio de A, en las respectivas partes triangulares.

PreliminaresMetodo de GaussFactorizacion LU

Factorizacion de CholeskyAplicacion al calculo de la matriz inversa

Resumen

Algoritmo de la factorizacion LU

Algoritmo de la factorizacion LU

Eleccion de la diagonalSe fijan arbitrariamente lkk o ukk

Si se fijan los elementos diagonales de U como 1, ukk = 1, se tiene la factorizacion de Crout.

Si se fijan los elementos diagonales de L como 1, lkk = 1, se tiene la factorizacion de Doolittle.

Existencia de la factorizacionSi |A| 6= 0, siempre existe una permutacion de las filas de A tal que la matriz resultante es factorizable de la formaLU.

AlmacenamientoFrecuentemente se suele almacenar L y U sobre el mismo espacio de A, en las respectivas partes triangulares.

Numero de operaciones

Multiplicaciones/divisiones:n3 − n

3+ n2

Sumas/restas:n3

3−

n2

2+

n

6+ n2 − n

PreliminaresMetodo de GaussFactorizacion LU

Factorizacion de CholeskyAplicacion al calculo de la matriz inversa

Resumen

Algoritmo de la Factorizacion de Cholesky

1 Preliminares

2 Metodo de Gauss

3 Factorizacion LU

4 Factorizacion de Cholesky

5 Aplicacion al calculo de la matriz inversa

6 Resumen

PreliminaresMetodo de GaussFactorizacion LU

Factorizacion de CholeskyAplicacion al calculo de la matriz inversa

Resumen

Algoritmo de la Factorizacion de Cholesky

Algoritmo de la Factorizacion de Cholesky

Descomposicion de una matriz simetrica definida positiva en LLt

Supongamos que la matriz simetrica difinida positiva de un sistema Ax = b se puede descomponer como A = LLt ,con L triangular inferior y Lt triangular superior.

LLtx = b,⇒ resolver Ly = b, Ltx = y

PreliminaresMetodo de GaussFactorizacion LU

Factorizacion de CholeskyAplicacion al calculo de la matriz inversa

Resumen

Algoritmo de la Factorizacion de Cholesky

Algoritmo de la Factorizacion de Cholesky

Descomposicion de una matriz simetrica definida positiva en LLt

Supongamos que la matriz simetrica difinida positiva de un sistema Ax = b se puede descomponer como A = LLt ,con L triangular inferior y Lt triangular superior.

LLtx = b,⇒ resolver Ly = b, Ltx = y

Algoritmo

Multiplicando L por Lt e igualando, se obtiene (solo se calculan los elementos de L):

l11 =√

a11 li1 =ai1

l11

, i ≥ 2

lkk =

vuuutakk −k−1Xr=1

l2kr

, k ≥ 2

lik =1

lkk

0@aik −

k−1Xr=1

lir lkr

1A , i > k, k ≥ 2

PreliminaresMetodo de GaussFactorizacion LU

Factorizacion de CholeskyAplicacion al calculo de la matriz inversa

Resumen

Algoritmo de la Factorizacion de Cholesky

Algoritmo de la Factorizacion de Cholesky

Teorema de caracterizacion de matrices simetricas definidaspositivasUna matriz es simetrica definida positiva si y solo si admite descomposicion de Cholesky.

PreliminaresMetodo de GaussFactorizacion LU

Factorizacion de CholeskyAplicacion al calculo de la matriz inversa

Resumen

Algoritmo de la Factorizacion de Cholesky

Algoritmo de la Factorizacion de Cholesky

Teorema de caracterizacion de matrices simetricas definidaspositivasUna matriz es simetrica definida positiva si y solo si admite descomposicion de Cholesky.Otras aplicaciones

Calcular el determinante de una matriz simetrica definida positiva:

|A| = |LLt | = |L||Lt | = |L|2 =nY

i=1

l2ii

Resolver el sistema Ax = b:Ly = b, Ltx = y

PreliminaresMetodo de GaussFactorizacion LU

Factorizacion de CholeskyAplicacion al calculo de la matriz inversa

Resumen

Algoritmo de la Factorizacion de Cholesky

Algoritmo de la Factorizacion de Cholesky

Teorema de caracterizacion de matrices simetricas definidaspositivasUna matriz es simetrica definida positiva si y solo si admite descomposicion de Cholesky.Otras aplicaciones

Calcular el determinante de una matriz simetrica definida positiva:

|A| = |LLt | = |L||Lt | = |L|2 =nY

i=1

l2ii

Resolver el sistema Ax = b:Ly = b, Ltx = y

AlmacenamientoSolo es necesario almacenar L ya que Lt tiene simetricamente las mismas entradas.

PreliminaresMetodo de GaussFactorizacion LU

Factorizacion de CholeskyAplicacion al calculo de la matriz inversa

Resumen

Algoritmo de la Factorizacion de Cholesky

Algoritmo de la Factorizacion de Cholesky

Teorema de caracterizacion de matrices simetricas definidaspositivasUna matriz es simetrica definida positiva si y solo si admite descomposicion de Cholesky.Otras aplicaciones

Calcular el determinante de una matriz simetrica definida positiva:

|A| = |LLt | = |L||Lt | = |L|2 =nY

i=1

l2ii

Resolver el sistema Ax = b:Ly = b, Ltx = y

AlmacenamientoSolo es necesario almacenar L ya que Lt tiene simetricamente las mismas entradas.

Numero de operaciones

Raıces cuadradas: n

Multiplicaciones/divisiones:n3 + 3n2 − 4n

6+ n2 + n

Sumas/restas:n3 − n

6+ n2 − n

PreliminaresMetodo de GaussFactorizacion LU

Factorizacion de CholeskyAplicacion al calculo de la matriz inversa

Resumen

Planteamiento del problema

1 Preliminares

2 Metodo de Gauss

3 Factorizacion LU

4 Factorizacion de Cholesky

5 Aplicacion al calculo de la matriz inversa

6 Resumen

PreliminaresMetodo de GaussFactorizacion LU

Factorizacion de CholeskyAplicacion al calculo de la matriz inversa

Resumen

Planteamiento del problema

Planteamiento del problema

Planteamiento del problemaSea una matriz A a la que se presente obtener su inversa X , entonces

AX = I

Esto significa resolver n sistemas de ecuaciones lineales con la misma matriz, donde los segundos miembros son losvectores de la base canonica. De cada sistema j-esimo se obtiene la j-esima columna de la matriz inversa X :

a11x1j + a12x2j + · · · + a1nxnj = 0

a21x1j + a22x2j + · · · + a2nxnj = 0

.

.

.

.

.

.

.

.

.

.

.

.

aj1x1j + aj2x2j + · · · + ajnxnj = 1

.

.

.

.

.

.

.

.

.

.

.

.

an1x1j + an2x2j + · · · + annxnj = 0

PreliminaresMetodo de GaussFactorizacion LU

Factorizacion de CholeskyAplicacion al calculo de la matriz inversa

Resumen

Planteamiento del problema

Resolucion del problema

Resolucion del problemaEl procedimiento mas adecuado es utilizar la factorizacion de Cholesky si el problema es simetrico o la LU si no loes. De esta forma, las operaciones de triangulacion solo se realizan una vez.Esto supone el coste de una factorizacion y n procesos de remonte de dos sistemas triangulares.

PreliminaresMetodo de GaussFactorizacion LU

Factorizacion de CholeskyAplicacion al calculo de la matriz inversa

Resumen

Planteamiento del problema

Resolucion del problema

Resolucion del problemaEl procedimiento mas adecuado es utilizar la factorizacion de Cholesky si el problema es simetrico o la LU si no loes. De esta forma, las operaciones de triangulacion solo se realizan una vez.Esto supone el coste de una factorizacion y n procesos de remonte de dos sistemas triangulares.

Numero de operacionesCaso simetrico

Raıces cuadradas: n

Multiplicaciones/divisiones:n3 + 3n2 − 4n

6+ n(n2 + n)

Sumas/restas:n3 − n

6+ n(n2 − n)

Caso no simetrico

Multiplicaciones/divisiones:n3 − n

3+ n(n2)

Sumas/restas:n3

3−

n2

2+

n

6+ n(n2 − n)

PreliminaresMetodo de GaussFactorizacion LU

Factorizacion de CholeskyAplicacion al calculo de la matriz inversa

Resumen

1 Preliminares

2 Metodo de Gauss

3 Factorizacion LU

4 Factorizacion de Cholesky

5 Aplicacion al calculo de la matriz inversa

6 Resumen

PreliminaresMetodo de GaussFactorizacion LU

Factorizacion de CholeskyAplicacion al calculo de la matriz inversa

Resumen

Resumen

El numero de operaciones que realizan los metodos directos para la resolucionde sistemas de ecuaciones lineales es de orden n3.

La tecnica de pivoteo parcial suele conducir a mejores resultados que la depivoteo trivial en sistemas mal condicionados. Sin embargo, el pivoteo totalresulta excesivamente costoso en relacion al coste total de resolucion.

Aunque el metodo de Gauss y la factorizacion LU se pueden utilizar pararesolver cualquier tipo de sistema, para el caso simetrico el metodo de Choleskyes menos costoso y por tanto preferible.

Cuando se trata de resolver un conjunto de sistemas de ecuaciones con la mismamatriz, conviene utilizar un metodo de factorizacion, ya que solo es necesariorealizarla una vez.

PreliminaresMetodo de GaussFactorizacion LU

Factorizacion de CholeskyAplicacion al calculo de la matriz inversa

Resumen

Resumen

El numero de operaciones que realizan los metodos directos para la resolucionde sistemas de ecuaciones lineales es de orden n3.

La tecnica de pivoteo parcial suele conducir a mejores resultados que la depivoteo trivial en sistemas mal condicionados. Sin embargo, el pivoteo totalresulta excesivamente costoso en relacion al coste total de resolucion.

Aunque el metodo de Gauss y la factorizacion LU se pueden utilizar pararesolver cualquier tipo de sistema, para el caso simetrico el metodo de Choleskyes menos costoso y por tanto preferible.

Cuando se trata de resolver un conjunto de sistemas de ecuaciones con la mismamatriz, conviene utilizar un metodo de factorizacion, ya que solo es necesariorealizarla una vez.

PreliminaresMetodo de GaussFactorizacion LU

Factorizacion de CholeskyAplicacion al calculo de la matriz inversa

Resumen

Resumen

El numero de operaciones que realizan los metodos directos para la resolucionde sistemas de ecuaciones lineales es de orden n3.

La tecnica de pivoteo parcial suele conducir a mejores resultados que la depivoteo trivial en sistemas mal condicionados. Sin embargo, el pivoteo totalresulta excesivamente costoso en relacion al coste total de resolucion.

Aunque el metodo de Gauss y la factorizacion LU se pueden utilizar pararesolver cualquier tipo de sistema, para el caso simetrico el metodo de Choleskyes menos costoso y por tanto preferible.

Cuando se trata de resolver un conjunto de sistemas de ecuaciones con la mismamatriz, conviene utilizar un metodo de factorizacion, ya que solo es necesariorealizarla una vez.

PreliminaresMetodo de GaussFactorizacion LU

Factorizacion de CholeskyAplicacion al calculo de la matriz inversa

Resumen

Resumen

El numero de operaciones que realizan los metodos directos para la resolucionde sistemas de ecuaciones lineales es de orden n3.

La tecnica de pivoteo parcial suele conducir a mejores resultados que la depivoteo trivial en sistemas mal condicionados. Sin embargo, el pivoteo totalresulta excesivamente costoso en relacion al coste total de resolucion.

Aunque el metodo de Gauss y la factorizacion LU se pueden utilizar pararesolver cualquier tipo de sistema, para el caso simetrico el metodo de Choleskyes menos costoso y por tanto preferible.

Cuando se trata de resolver un conjunto de sistemas de ecuaciones con la mismamatriz, conviene utilizar un metodo de factorizacion, ya que solo es necesariorealizarla una vez.

PreliminaresMetodo de GaussFactorizacion LU

Factorizacion de CholeskyAplicacion al calculo de la matriz inversa

Resumen

Resumen

El numero de operaciones que realizan los metodos directos para la resolucionde sistemas de ecuaciones lineales es de orden n3.

La tecnica de pivoteo parcial suele conducir a mejores resultados que la depivoteo trivial en sistemas mal condicionados. Sin embargo, el pivoteo totalresulta excesivamente costoso en relacion al coste total de resolucion.

Aunque el metodo de Gauss y la factorizacion LU se pueden utilizar pararesolver cualquier tipo de sistema, para el caso simetrico el metodo de Choleskyes menos costoso y por tanto preferible.

Cuando se trata de resolver un conjunto de sistemas de ecuaciones con la mismamatriz, conviene utilizar un metodo de factorizacion, ya que solo es necesariorealizarla una vez.

PreliminaresMetodo de GaussFactorizacion LU

Factorizacion de CholeskyAplicacion al calculo de la matriz inversa

Resumen

Resumen

El numero de operaciones que realizan los metodos directos para la resolucionde sistemas de ecuaciones lineales es de orden n3.

La tecnica de pivoteo parcial suele conducir a mejores resultados que la depivoteo trivial en sistemas mal condicionados. Sin embargo, el pivoteo totalresulta excesivamente costoso en relacion al coste total de resolucion.

Aunque el metodo de Gauss y la factorizacion LU se pueden utilizar pararesolver cualquier tipo de sistema, para el caso simetrico el metodo de Choleskyes menos costoso y por tanto preferible.

Cuando se trata de resolver un conjunto de sistemas de ecuaciones con la mismamatriz, conviene utilizar un metodo de factorizacion, ya que solo es necesariorealizarla una vez.

top related