Este documento describe varios métodos para resolver sistemas de ecuaciones lineales, incluyendo el método de eliminación de Gauss, el método de Gauss-Jordan, la descomposición LU, la factorización de Cholesky y métodos iterativos como Gauss-Seidel y Jacobi. Explica que la eliminación de Gauss transforma el sistema en uno triangular superior resolviéndolo por sustitución hacia atrás, mientras que Gauss-Jordan lo convierte en diagonal para una solución más eficiente.
Yosel Eviez, Metodos de Solucion de Ecuaciones Lineales
1. Universidad Fermi Toro
Decanato de Ingeniería
Cabudare. Edo. Lara
SOLUCION DE SISTEMAS DE ECUACIONES LINEALES
Yosel Eviez
25.147.147
2. Métodos De Eliminación Gaussiana
El proceso de eliminación de Gaussisana o de Gauss, consiste en realizar
transformaciones elementales en el sistema inicial (intercambio de filas, intercambio de
columnas, multiplicación de filas o columnas por constantes, operaciones con filas o
columnas…), destinadas a transformarlo en un sistema triangular superior, que
resolveremos por remonte.
En forma general este método propone la eliminación progresiva de variables en el
sistema de ecuaciones, hasta tener sólo una ecuación con una incógnita. Una vez resuelta
esta, se procede por sustitución regresiva hasta obtener los valores de todas las variables.
Método de Gauss-Jordan
El proceso de eliminación de Gauss - Jordán consiste en realizar transformaciones
elementales en el sistema inicial, destinadas a transformarlo en un sistema diagonal. El
número de operaciones elementales de este método.
A la hora de resolver el sistema de llegada por remonte, el número de operaciones es
menor, motivo por el cual, el método de Gauss - Jordán es un método computacionalmente
bueno cuando tenemos que resolver varios sistemas con la misma matriz A y resolverlos
simultáneamente, utilizando el algoritmo de Gauss-Jordán.
Descomposición LU
El método de Descomposición LU se basa en demostrar que una matriz A se puede
factorizar como el producto de una matriz triangular inferior L con una matriz triangular
superior U, donde en el paso de eliminación sólo se involucran operaciones sobre los
coeficientes de la matriz, permitiendo así evaluar los términos independientes bi de manera
eficiente.
Factorización De Cholesky
Una matriz simétrica es aquella donde Aij = Aji para toda i y j, En otras palabras, [A]
=[A] T. Tales sistemas ocurren comúnmente en problemas de ambos contextos: el
matemático y el de ingeniería. Ellos ofrecen ventajas computacionales ya que sólo se
3. necesita la mitad de almacenamiento y, en la mayoría de los casos, sólo se requiere la mitad
del tiempo de cálculo para su solución. Al contrario de la Descomposición LU, no requiere
de pivoteo. El método de Factorización de Cholesky se basa en demostrar que si una matriz
A es simétrica y definida positiva en lugar de factorizarse como LU, puede ser factorizada
como el producto de una matriz triangular inferior y la traspuesta de la matriz triangular
inferior, es decir los factores triangulares resultantes son la traspuesta de cada uno.
A = L . LT
Métodos Iterativos
Un método iterado de resolución del sistema Ax = b es aquel que genera, a partir de un
vector inicial x0, una sucesión de vectores x1, x2, . . . xn.. "Un método iterado se dirá que
es consistente con el sistema Ax = b, si el límite x de la sucesión (xn), en caso de existir, es
solución del sistema. Se dirá que el método es convergente si la sucesión generada por
cualquier vector inicial x0 es convergente a la solución del sistema".Es evidente que si un
método es convergente es consistente, sin embargo, el recíproco no es cierto.
Método De Gauss Seidel
El Método de Gauss Seidel emplea valores iniciales y después itera para obtener
estimaciones refinadas de la solución; es particularmente adecuado para un gran número de
ecuaciones, lo cual en cierto modo lo hace un método más comúnmente usado. La fórmula
utilizada para hallar los xi viene dada por el despeje de cada una de las xi en cada una de las
ecuaciones y se les da un valor inicial a cada xi de cero.
Método de Jacobi
El Método de Jacobi transforma una matriz simétrica en una matriz diagonal al eliminar
de forma simétrica los elementos que están fuera de la diagonal. Desafortunadamente, el
método requiere un número infinito de operaciones, ya que la eliminación de cada elemento
no cero a menudo crea un nuevo valor no cero en el elemento cero anterior. Si A es
diagonalmente dominante, entonces la sucesión que resulta de la iteración de Jacobi
converge a la solución de Ax = b para cualquier vector inicial Xo. Partimos de una
aproximación inicial Xo para las soluciones Xi al sistema de ecuaciones y sustituimos estos
valores en la ecuación.