1. 27/11/2015 UNIVERSIDAD FERMIN TORO 1
Solución de sistema de
ecuaciones lineales y Método
de solución gaussiana
Claudia Hernández
2. Métodos De Eliminación Gaussiana
2
El proceso de eliminación de
Gaussisana o de Gauss, consiste en
realizar transformaciones elementales
en el sistema inicial (intercambio de
filas, intercambio de columnas,
multiplicación de filas o columnas por
constantes, operaciones con filas o
columnas, . . . ), destinadas a
transformarlo en un sistema triangular
superior, que resolveremos por
remonte. Además, la matriz de partida
tiene el mismo determinante que la
matriz de llegada, cuyo determinante
es el producto de los coeficientes
diagonales de la matriz.
Antes de ilustrar el método con un ejemplo, es
necesario primeramente conocer las operaciones
básicas de renglón las cuales son presentas a
continuación:
1. Ambos miembros de una ecuación pueden
multiplicarse por una constante diferente de cero.
2. Los múltiplos diferentes de cero de una ecuación
pueden sumarse a otra ecuación
3. El orden de las ecuaciones es intercambiable.
Una vez conocidas las operaciones que en mi afán
por resolver un sistema de ecuaciones puedo
realizar procedo a ilustrar el método con un
ejemplo:
1. Resolver el siguiente sistema de ecuaciones:
x + 2y + 3z = 1
4x + 5y + 6z= −2
7x + 8y + 10z = 5
Donde cada ecuación representa un renglón y las
variables iguales de las 3 ecuaciones representan
las columnas 1, 2 y 3 respectivamente.
3. Método de gauss-jordan
3
El proceso de eliminación de Gauss - Jordán consiste en realizar
transformaciones elementales en el sistema inicial, destinadas a
transformarlo en un sistema diagonal. El número de
operaciones elementales de este método, es superior al del
método de Gauss (alrededor de un 50% más).
Sin embargo, a la hora de resolver el sistema de llegada por
remonte, el número de operaciones es menor, motivo
por el cual, el método de Gauss - Jordán es un método
computacionalmente bueno cuando tenemos que resolver varios
sistemas con la misma matriz A y resolverlos simultáneamente,
utilizando el algoritmo de Gauss-Jordán.
En base a lo anteriormente expuesto, solo haríamos
un proceso de eliminación en la matriz y la resolución de un
sistema con esta matriz es muy fácil. Un ejemplo en el que se
suele usar Gauss - Jordán es en el cálculo de la matriz inversa,
ya que calcular la inversa de A, es calcular N sistemas con la
misma matriz.
4. Descomposición LU
4
El método de Descomposición LU se basa en demostrar que
una matriz A se puede factorizar como el producto de una
matriz triangular inferior L con una matriz triangular superior
U, donde en el paso de eliminación sólo se involucran
operaciones sobre los coeficientes de la matriz, permitiendo
así evaluar los términos independientes bi de manera
eficiente.
La implementación del
algoritmo de la Descomposición
LU tiene sus variantes en cuanto
a los valores iniciales de la
diagonal que tomen las matrices L
y U, es decir si los valores de la
diagonal de la matriz L tiene
números 1.
Formalmente esto se refiere a
la Descomposición de Doolitle.
Pero si los valores de la
diagonal de la matriz U tiene
números 1, formalmente esto se
refiere a
la Descomposición de Crout
5. Factorización De Cholesky
5
Una matriz simétrica es aquella
donde Aij = Aji para toda i y j, En
otras palabras, [A] =[A] T.
Tales sistemas ocurren
comúnmente en problemas de
ambos contextos: el matemático
y el de ingeniería. Ellos ofrecen
ventajas computacionales ya que
sólo se necesita la mitad de
almacenamiento
El método de Factorización de
Cholesky se basa en demostrar
que si una matriz A es simétrica y
definida sativa en lugar de
factorizarse como LU, puede ser
factorizada como el producto de
una matriz triangular inferior y la
traspuesta de la matriz triangular
inferior, es decir los factores
triangulares resultantes son la
traspuesta de cada uno.
A = L . LT
6. Solución De Sistemas Lineales
Utilizando Métodos Iterativos
6
El método de Gauss y sus variantes
son conocidos como métodos directos
para resolver el problema inicial Ax =
b. Se ejecutan a través de un número
finito de pasos y generan una solución
x que sería exacta sino fuera por los
errores de redondeo. El cálculo se
detiene cuando se cuenta con una
solución aproximada con cierto grado
de precisión especificado de antemano
o después de cierto número de
iteraciones. Los métodos indirectos
son casi siempre iterativos.
Un método iterado de resolución del
sistema Ax = b es aquel que genera, a
partir de un vector inicial x0, una
sucesión de vectores x1, x2, . . . xn..
"Un método iterado se dirá que es
consistente con el sistema Ax = b, si el
límite x de la sucesión (xn), en caso de
existir, es solución del sistema. Se dirá
que el método es convergente si la
sucesión generada por cualquier
vector inicial x0 es convergente a la
solución del sistema.
7. Método De Gauss Seidel
7
El Método de Gauss Seidel emplea valores iniciales y después itera
para obtener estimaciones refinadas de la solución; es particularmente
adecuado para un gran número de ecuaciones, lo cual en cierto modo
lo hace un método más comúnmente usado. La fórmula utilizada para
hallar los xi viene dada por el despeje de cada una de las xi en cada
una de las ecuaciones y se les da un valor inicial a cada xi de cero.
Observase que en el método de Gauss-Seidel
los valores actualizados de xi sustituyen de
inmediato a los valores anteriores, mientras que
en el método de Jacobi todas las componentes
nuevas del vector se calculan antes de llevar a
cabo la sustitución. Por contra, en el método de
Gauss-Seidel los cálculos deben llevarse a cabo
por orden, ya que el nuevo valor xi depende de
los valores actualizados de x1, x2, ..., x i-1.
La desventaja del método de Gauss-Seidel es
que no siempre converge a la solución exacta o
algunas veces los hace de manera muy lenta.
Únicamente es confiable para aquellos sistemas
dominantes diagonalmente.
8. Método de Jacobi
8
El Método de Jacobi
transforma una matriz
simétrica en una matriz
diagonal al eliminar de
forma simétrica los
elementos que están fuera
de la diagonal.
Desafortunadamente, el
método requiere un número
infinito de operaciones, ya
que la eliminación de cada
elemento no cero a
menudo crea un nuevo
valor no cero en el
elemento cero anterior.
Si A es diagonalmente
dominante, entonces la
sucesión que resulta de la
iteración de Jacobi
converge a la solución de
Ax = b para cualquier
vector inicial Xo. Partimos
de una aproximación inicial
Xo para las soluciones Xi al
sistema de ecuaciones y
sustituimos estos valores
en la ecuación:
Que es la expresión que
nos proporciona las nuevas
componentes del vector x
(k) en función de vector
anterior x(k-1) en la
iteración de Jacobi, en su
respectivo algoritmo; donde
el a el método de Jacobi
más que usar el último
valor disponible de , con
base en un conjunto de las
x anteriores (). De esta
forma, como se generan
nuevos valores, no se usan
en forma inmediata sino
que se retienen para la
siguiente iteración.