el método de gradientes conjugadosalram/met_num/clases/clase29.pdf · direcciones conjugadas •...

Post on 05-Feb-2020

5 Views

Category:

Documents

0 Downloads

Preview:

Click to see full reader

TRANSCRIPT

Alonso Ramírez Manzanares Métodos Numéricos 29.11.2012

El método de Gradientes ConjugadosMAT-251

Dr. Alonso Ramírez ManzanaresDepto. de MatemáticasUniv. de Guanajuatoe-mail: alram@cimat.mxweb: http://www.cimat.mx/~alram/met_num/

Dr. Joaquín Peña AcevedoCIMAT A.C.e-mail: joaquin@cimat.mx

Alonso Ramírez Manzanares Métodos Numéricos 29.11.2012

• En el problema

• donde la matriz es simétrica y definida positiva, y cuando la matriz es rala.

• Usaremos

Intro

xT Ay = (Ax)T y

=

Alonso Ramírez Manzanares Métodos Numéricos 29.11.2012

La forma cuadrática

• Es un escalar

• De tal forma que para nuestro caso f(x) es minimizada por la solución

• Ya que

Alonso Ramírez Manzanares Métodos Numéricos 29.11.2012

¿es un minimo?

• En el caso de matrices positivas definidas

Alonso Ramírez Manzanares Métodos Numéricos 29.11.2012

¿es un minimo?

• En el caso de matrices positivas definidas

positivo

Alonso Ramírez Manzanares Métodos Numéricos 29.11.2012

¿es un minimo?

• En el caso de matrices positivas definidas

positivo

Alonso Ramírez Manzanares Métodos Numéricos 29.11.2012

¿es un minimo?

• En el caso de matrices positivas definidas

positivo

Se demuestra operando sobre f(p) = f(x+d)

Alonso Ramírez Manzanares Métodos Numéricos 29.11.2012

La forma cuadrática en 2D

Alonso Ramírez Manzanares Métodos Numéricos 29.11.2012

El gradiente de la forma cuadrática en 2D

Alonso Ramírez Manzanares Métodos Numéricos 29.11.2012

Forma cuadratica dependiendo la matriz

Alonso Ramírez Manzanares Métodos Numéricos 29.11.2012

¿Cómo minimizar f(x)?

• Usando la dirección de máximo descenso

• Damos una serie de “pasos”

• En este enfoque tenemos 2 guias:

Alonso Ramírez Manzanares Métodos Numéricos 29.11.2012

Escojer α

Es aquel punto tal que su gradiente es perpendicular a la linea de búsqueda

Alonso Ramírez Manzanares Métodos Numéricos 29.11.2012

Escojer

• Calculando derivadas direccionales

• y por regla de la cadena

• ¿Cuál es la ? Usando

α

α= 0

Alonso Ramírez Manzanares Métodos Numéricos 29.11.2012

Comportamiento de maximo descenso

Alonso Ramírez Manzanares Métodos Numéricos 29.11.2012

Eigen vectors

• Los eigen vectores de la matriz definen los ejes de la forma cuadrática. Cada eigen valor es proporcional a la magnitud de la pendiente en esa orientación.

Alonso Ramírez Manzanares Métodos Numéricos 29.11.2012

Metodo de descenso máximo cuando nos movemos por eigen direcciones

Si r(0) es un eigen vector Si todos los eigenvalores son iguales

Alonso Ramírez Manzanares Métodos Numéricos 29.11.2012

Para el análisis se usan norma energética

• La cual se define como

Estos 2 vectores tienen la misma norma energética con respecto a A.

Alonso Ramírez Manzanares Métodos Numéricos 29.11.2012

Usando el análisis de la norma energética, los eigen valores de A y el punto de arranque x(0).

• Se pueden ver casos patológicos o benéficos

Estas gráficas están en el espacio de los eigen vectores

Alonso Ramírez Manzanares Métodos Numéricos 29.11.2012

Si estamos en 2D

• ¿Cuántos pasos da este caso patológico?

Alonso Ramírez Manzanares Métodos Numéricos 29.11.2012

Direcciones conjugadas

• La idea es movernos por n direcciones de búsqueda que son ortogonales

• y dar un solo paso en esa dirección, a lo más en n pasos estamos en el mínimo.

• Queremos algo como esto:

• PERO NO CONOCEMOS e(i)

Alonso Ramírez Manzanares Métodos Numéricos 29.11.2012

Entonces se usan

• direcciones de búsqueda A-ortogonales o conjugadas, lo cual se escribe

Alonso Ramírez Manzanares Métodos Numéricos 29.11.2012

Tamaños de paso con direcciones A-ortogonales

• Podemos usar en análisis similar pero con A-ortogonalidad

Alonso Ramírez Manzanares Métodos Numéricos 29.11.2012

Pasos del método de GC

Se dá un paso en alguna dirección, x(1) se escoje tal que e(1) es A-ortogonal a d(0).

El error inicial se puede ver como una combinación lineal de vectores A-ortogonales. Cada paso elimina uno de ellos.

Alonso Ramírez Manzanares Métodos Numéricos 29.11.2012

En nuestro ejemplo se comporta

Alonso Ramírez Manzanares Métodos Numéricos 29.11.2012

El algoritmo es:

• Se hace hasta convergencia:

Alonso Ramírez Manzanares Métodos Numéricos 29.11.2012

El algoritmo es:

• Se hace hasta convergencia:

Alonso Ramírez Manzanares Métodos Numéricos 29.11.2012

El algoritmo es:

• Se hace hasta convergencia:

Este factor nos da el peso del vector para que se mantengan A-ortogonales, tipo Gram-Schmidt.

Alonso Ramírez Manzanares Métodos Numéricos 29.11.2012

Precondicionamiento:

• Queremos resolver

• Para una matriz M simétrica y positiva definida fácil de invertir resolvemos

• Si este nuevo sistema es mas fácil de resolver. Si la matriz de arriba no es simétrica ni definida podemos calcular

• Se puede probar que las matrices y tienen los mismo eigen valores, entonces podemos resolver

• Donde es simétrica y definida positiva.

top related