sistema de ecuaciones lineales
Post on 26-Jul-2015
304 Views
Preview:
TRANSCRIPT
Solución de Sistemas de
Ecuaciones Lineales
BARQUISIMETO, JUNIO DE 2013
UNIVERSIDAD FERMIN TORO
VICE RECTORADO ACADEMICO
ESCUELA DE ELECTRICA
INTEGRANTE: YELIMAR YEPEZ
TUTOR: DOMINGO MÉNDEZ
El proceso de eliminación de Gaussisana o de Gauss,
consiste en realizar transformaciones elementales en el
sistema inicial (intercambio de filas, intercambio de columnas,
multiplicación de filas o columnas por constantes,
operaciones con filas o columnas, . . . ), destinadas a
transformarlo en un sistema triangular superior, que se
resolvera por remonte. Además, la matriz de partida tiene el
mismo determinante que la matriz de llegada, cuyo
determinante es el producto de los coeficientes diagonales de
la matriz.
Uno de los problemas de la eliminación Gaussiana es que se
debe dividir entre el pivote; si este es un número muy
pequeño, entonces un error de redondeo puede arrojar serias
dudas sobre la respuesta final.
En forma general este método propone la eliminación
progresiva de variables en el sistema de ecuaciones, hasta
tener sólo una ecuación con una incógnita. Una vez resuelta
esta, se procede por sustitución regresiva hasta obtener los
valores de todas las variables.
El proceso de eliminación de Gauss - Jordán consiste en
realizar transformaciones elementales en el sistema inicial,
destinadas a transformarlo en un sistema diagonal. El
número de operaciones elementales de este método, es
superior al del método de Gauss (alrededor de un 50% más).
Sin embargo, a la hora de resolver el sistema de llegada
por remonte, el número de operaciones es menor, motivo
por el cual, el método de Gauss - Jordán es un método
computacionalmente bueno cuando se tiene que resolver
varios sistemas con la misma matriz A y resolverlos
simultáneamente, utilizando el algoritmo de Gauss-Jordán.
En base a lo anteriormente expuesto, solo se haria un
proceso de eliminación en la matriz y la resolución de un
sistema con esta matriz es muy fácil. Un ejemplo en el que
se suele usar Gauss - Jordán es en el cálculo de la matriz
inversa, ya que calcular la inversa de A, es calcular N
sistemas con la misma matriz.
El método de Descomposición LU se basa en demostrar
que una matriz A se puede factorizar como el producto de
una matriz triangular inferior L con una matriz triangular
superior U, donde en el paso de eliminación sólo se
involucran operaciones sobre los coeficientes de la matriz,
permitiendo así evaluar los términos independientes bi de
manera eficiente.
La implementación del algoritmo de la descomposición
LU tiene sus variantes en cuanto a los valores iniciales de la
diagonal que tomen las matrices L y U, es decir, si los
valores de la diagonal de la matriz L tiene números 1,
formalmente esto se refiere a la Descomposición de Doolitle.
Pero si los valores de la diagonal de la matriz U tiene
números 1, formalmente esto se refiere a la Descomposición
de Crout
Una matriz simétrica es aquella donde Aij = Aji para toda i
y j, En otras palabras, [A] =[A] T. Tales sistemas ocurren
comúnmente en problemas de ambos contextos: el
matemático y el de ingeniería.
Ellos ofrecen ventajas computacionales ya que sólo se
necesita la mitad de almacenamiento y, en la mayoría de los
casos, sólo se requiere la mitad del tiempo de cálculo para su
solución.
Al contrario de la Descomposición LU, no requiere de
pivoteo. El método de Factorización de Cholesky se basa en
demostrar que si una matriz A es simétrica y definida
positiva en lugar de factorizarse como LU, puede ser
factorizada como el producto de una matriz triangular
inferior y la traspuesta de la matriz triangular inferior, es
decir los factores triangulares resultantes son la traspuesta
de cada uno.
A = L . LT
Anteriormente se analizo la factorización LU de una
matriz el cual conduce a un método muy eficiente para
resolver un sistema lineal.
Otro método de factorización de una A, llamada
factorización QR de A. Esta factorización se usa ampliamente
en los programas de computadora para determinar valores
propios de una matriz, para resolver sistemas lineales y para
determinar aproximaciones por mínimos cuadrados
En muchas aplicaciones el número de filas (M) de una
matriz de coeficientes Amxn puede ser 3 al número de
columnas (N). La Factorización QR consiste en descomponer
la matriz Amxn en el producto de dos matrices:
Una matriz Ortogonal: Qmxn ® QT. Q = INxN
Una matriz Triangular Superior: U = RNxN
Para encontrar las matrices Q y R se utiliza un método
basado en Transformaciones Sucesivas de Householder.
El método de Gauss y sus variantes son conocidos como
métodos directos para resolver el problema inicial Ax = b. Se
ejecutan a través de un número finito de pasos y generan una
solución x que sería exacta sino fuera por los errores de
redondeo. En contraste, un método iterativo da lugar a una
sucesión de vectores que idealmente converge a la solución. El
cálculo se detiene cuando se cuenta con una solución
aproximada con cierto grado de precisión especificado de
antemano o después de cierto número de iteraciones. Los
métodos indirectos son casi siempre iterativos.
Un método iterado de resolución del sistema Ax = b es aquel
que genera, a partir de un vector inicial x0, una sucesión de
vectores x1, x2, . . . xn.. "Un método iterado se dirá que es
consistente con el sistema Ax = b, si el límite x de la sucesión
(xn), en caso de existir, es solución del sistema. Se dirá que el
método es convergente si la sucesión generada por cualquier
vector inicial x0 es convergente a la solución del sistema".
Es evidente que si un método es convergente es consistente,
sin embargo, el recíproco no es cierto.
El Método de Gauss Seidel emplea valores iniciales y
después itera para obtener estimaciones refinadas de la
solución; es particularmente adecuado para un gran
número de ecuaciones, lo cual en cierto modo lo hace un
método más comúnmente usado. La fórmula utilizada para
hallar los xi viene dada por el despeje de cada una de las xi
en cada una de las ecuaciones y se les da un valor inicial a
cada xi de cero.
En el método de Gauss-Seidel los valores actualizados de
xi sustituyen de inmediato a los valores anteriores, mientras
que en el método de Jacobi todas las componentes nuevas
del vector se calculan antes de llevar a cabo la sustitución.
Por contra, en el método de Gauss-Seidel los cálculos deben
llevarse a cabo por orden, ya que el nuevo valor xi depende
de los valores actualizados de x1, x2, ..., x i-1.
La desventaja del método de Gauss-Seidel es que no
siempre converge a la solución exacta o algunas veces los
hace de manera muy lenta. Únicamente es confiable para
aquellos sistemas dominantes diagonalmente.
El Método de Jacobi transforma una matriz simétrica en
una matriz diagonal al eliminar de forma simétrica los
elementos que están fuera de la diagonal.
Desafortunadamente, el método requiere un número
infinito de operaciones, ya que la eliminación de cada
elemento no cero a menudo crea un nuevo valor no cero en
el elemento cero anterior.
Si A es diagonalmente dominante, entonces la sucesión
que resulta de la iteración de Jacobi converge a la solución
de Ax = b para cualquier vector inicial Xo. Partimos de una
aproximación inicial Xo para las soluciones Xi al sistema de
ecuaciones y sustituimos estos valores en la ecuación.
Que es la expresión que proporciona las nuevas
componentes del vector x(k) en función de vector anterior
x(k-1) en la iteración de Jacobi, en su respectivo algoritmo;
donde el a el método de Jacobi más que usar el último valor
disponible de , con base en un conjunto de las x anteriores
(). De esta forma, como se generan nuevos valores, no se
usan en forma inmediata sino que se retienen para la
siguiente iteración.
top related