2do resumen numerica

4
Solución de sistemas de ecuaciones lineales Los métodos para resolver estos sistemas se dividen en dos: 1 Métodos directos: son aquellos que permiten obtener la solución después de un número finito de operaciones aritméticas (nro. Es función del tamaño de la matriz). La cota del error, para una matriz y término independiente dados, se asocia por lo general al número de operaciones de cada método. Se pretende, por lo tanto, obtener métodos con el mínimo número de operaciones posible. Métodos fáciles de resolver: Sistemas Diagonales: supongamos que la matriz A del sistema es diagonal. En este caso la solución es muy sencilla de encontrar xi = bi/aii , i = 1, 2, . . . , n Siempre que aii sea distinto de 0, ∀ i = 1, 2, . . . , n, ya que de lo contrario el sistema no tiene solución. El numero de operaciones necesarias es de n divisiones, es decir, op = n operaciones elementales. Solución de sistemas triangulares: Consideremos que la matriz del sistema es una matriz triangular inferior. Supongamos que la matriz es no singular, entonces la entradas de la diagonal principal aii, i = 1, 2, 3 son distintas de 0, Este algoritmo es llamado sustitución progresiva y puede ser extendido a sistemas de n × n. En el caso de un sistema n dimensional (n ≥ 2) Formulas: Donde A es una matriz triangular superior no-singular de orden n (n ≥ 2), en este caso el algoritmo es llamado sustitución regresiva y puede ser escrito como: Métodos de eliminación: Método de Gauss o eliminación gaussiana: el problema original, Ax = b, se transforma mediante permutaciones adecuadas y combinaciones lineales de las ecuaciones en un sistema de la forma Ux = c donde U es una matriz triangular superior. Este nuevo sistema equivalente al original es de resolución inmediata, sólo es necesario aplicar el algoritmo de sustitución regresiva. El superíndice (0) significa que los coeficientes de la matriz A y el vector b no han sido modificados. Si a11 6= 0, es posible eliminar todas las posiciones correspondientes a la variable x1 que están en la columna debajo del elemento a11 simplemente restando la fila i con i = 2, ..., n con la primera fila multiplicada

Upload: isabel-mosquera

Post on 25-Sep-2015

3 views

Category:

Documents


0 download

DESCRIPTION

numerica

TRANSCRIPT

Solucin de sistemas de ecuaciones lineales

Los mtodos para resolver estos sistemas se dividen en dos:1 Mtodos directos: son aquellos que permiten obtener la solucin despus de un nmero finito de operaciones aritmticas (nro. Es funcin del tamao de la matriz). La cota del error, para una matriz y trmino independiente dados, se asocia por lo general al nmero de operaciones de cada mtodo. Se pretende, por lo tanto, obtener mtodos con el mnimo nmero de operaciones posible.Mtodos fciles de resolver:Sistemas Diagonales: supongamos que la matriz A del sistema es diagonal. En este caso la solucin es muy sencilla de encontrarxi = bi/aii , i = 1, 2, . . . , nSiempre que aii sea distinto de 0, i = 1, 2, . . . , n, ya que de lo contrario el sistema no tiene solucin. El numero de operaciones necesarias es de n divisiones, es decir, op = n operaciones elementales.Solucin de sistemas triangulares: Consideremos que la matriz del sistema es una matriz triangular inferior. Supongamos que la matriz es no singular, entonces la entradas de la diagonal principal aii, i = 1, 2, 3 son distintas de 0, Este algoritmo es llamado sustitucin progresiva y puede ser extendido a sistemas de n n. En el caso de un sistema n dimensional (n 2)Formulas: Donde A es una matriz triangular superior no-singular de orden n (n 2), en este caso el algoritmo es llamado sustitucin regresiva y puede ser escrito como:

Mtodos de eliminacin:Mtodo de Gauss o eliminacin gaussiana: el problema original, Ax = b, se transforma mediante permutaciones adecuadas y combinaciones lineales de las ecuaciones en un sistema de la forma Ux = c donde U es una matriz triangular superior. Este nuevo sistema equivalente al original es de resolucin inmediata, slo es necesario aplicar el algoritmo de sustitucin regresiva.El superndice (0) significa que los coeficientes de la matriz A y el vector b no han sido modificados. Si a11 6= 0, es posible eliminar todas las posiciones correspondientes a la variable x1 que estn en la columna debajo del elemento a11 simplemente restando la fila i con i = 2, ..., n con la primera fila multiplicada A cada uno de los trminos que aparecen en la diagonal de la matriz anterior se le denomina pivote. Conviene resaltar que los pivotes no coinciden con los trminos originales de la diagonal de A, es decir, , Para resumir todos los pasos realizados hasta obtener el sistema anterior, es necesario suponer que todos los pivotes son no nulos, es decir, . El numero de operaciones necesarias para realizar esta primera fase de eliminacion es: . Si durante el proceso de eliminacin se obtiene un pivote nulo, se debe buscar en la parteinferior de la columna k-esima un coeficiente no nulo, es decir, uno distinto de cero, Se sustituyeentonces la fila k (y su termino independiente) por la fila i (y su termino independiente) que se haya escogido. Si dicho coeficiente no nulo no existiera, la matriz seria singular, por consiguiente, para reducir los errores de redondeo conviene escoger el pivote maximo en valor absoluto. Para ello,hay dos tecnicas posibles: 1 En el k-esimo sistema se toma como pivote el coeficiente mayor en valor absoluto de la columna k situado por debajo de la fila k inclusive. Para ello es necesario permutar las filas k y la correspondiente al pivote escogido en la matriz y su termino independiente. Esta tecnica se denomina metodo de Gauss con pivoteo parcial.2 En el k-esimo sistema, se toma como pivote el coeficiente mayor en valor absoluto de la submatriz de orden n k definida por los coeficientes que quedan por debajo de la fila k y a la derecha de la columna k. Para ello, se permuta la fila k (y el termino independiente asociado) y la columna k con las correspondientes al coeficiente que cumple la condicion citada. Al final del proceso deben ponerse en el orden inicial las componentes del vector solucion, puesto que su posicion ha sido modificada al realizar las permutaciones de columnas. Esta tecnica es el metodo de Gauss con pivoteo total.

Si podemos efectuar la eliminacion gaussiana en el sistema lineal Ax = b sin pivoteo, entonces podemos factorizar la matriz A en el producto de una matriz triangular inferior L y una matriz triangular superior U; A = LU; Ax = b; LUx = b; Tomando y = Ux, obtenemos Ly = b, luego usando sustitucion progresiva y regresiva en los respectivos sistemas se obtiene la solucion x:1 L y U dependen solo de A y no del lado derecho.2 U = An(La matriz de la eliminacion)3 La misma factorizacion puede ser reusada para resolver cualquier sistema lineal que tenga la misma matriz A sin importar cual sea el lado derecho b

Mtodos de descomposicinMtodos de ortogonalizacin2 Mtodos iterativos: generan una sucesin de vectores que, en el caso ideal, convergen a la solucin de dicho sistema. El mtodo se detiene cuando encuentra una solucin aproximada, con cierto grado de precisin especificado de antemano.Jacobi: En cada paso de al iteracin de Jacobi se obtiene un vector con n coordenadas y la estimacin inicial, se debe elegir. Cuando no se tienen pistas sobre la solucin se suele tomar: Formula: Gauss-Seidel: Una variacin del mtodo de Jacobi que es mas eficiente que el primero, la diferencia esta en que en el de Jacobi para generar el nuevo punto del proceso iterativo se utilizan las coordenadas del punto anterior, mientras que en el de Gauss- Seidel se van usando las coordenadas en la medida en que se van generando, esto es, si se supone que ya hemos obtenido , la siguiente coordenada se obtiene: