Prueba de evaluación Geografía e Historia Comunidad de Madrid 4ºESO
Analisis numerico
1. UNIVERSIDAD FERMIN TORO VICE-RECTORADO ACADEMICO FACULTAD DE
INGENIERIA DE MANTENIMIENTO MECANICO
Solución de Sistemas de
Ecuaciones Lineales
INTEGRANTE:
CESAR MENDOZA
C.I. V-19.697.953
2. Métodos de Eliminación Gussiana utilizando métodos Numéricos
En esta unidad examinaremos los aspectos numéricos que se presentan al
resolver sistemas de ecuaciones, utilizando matrices que permiten utilizar
algoritmos para resolver estos sistemas.
Métodos De Eliminación Gaussiana
El proceso de eliminación de Gaussiana o de Gauss, consiste en realizar
transformaciones elementales en el sistema inicial (intercambio de filas,
intercambio de columnas, multiplicación de filas o columnas por constantes,
operaciones con filas o columnas, . . . ), destinadas a transformarlo en un
sistema triangular superior, que resolveremos por remonte. Además, la matriz
de partida tiene el mismo determinante que la matriz de llegada, cuyo
determinante es el producto de los coeficientes diagonales de la matriz. Uno de
los problemas de la eliminación Gaussiana es que debemos dividir entre el
pivote; si este es un número muy pequeño, entonces un error de redondeo
puede arrojar serias dudas sobre la respuesta final. En forma general este
método propone la eliminación progresiva de variables en el sistema de
ecuaciones, hasta tener sólo una ecuación con una incógnita. Una vez resuelta
esta, se procede por sustitución regresiva hasta obtener los valores de todas
las variables. Para un mayor entendimiento de este método veamos un ejemplo
práctico de eliminación Gaussiana.
Método de Gauss-Jordan
El proceso de eliminación de Gauss - Jordán consiste en realizar
transformaciones elementales en el sistema inicial, destinadas a transformarlo
en un sistema diagonal. El número de operaciones elementales de este
método, es superior al del método de Gauss (alrededor de un 50% más). Sin
embargo, a la hora de resolver el sistema de llegada por remonte, el número de
operaciones es menor, motivo por el cual, el método de Gauss - Jordán es un
método computacionalmente bueno cuando tenemos que resolver varios
sistemas con la misma matriz A y resolverlos simultáneamente, utilizando el
algoritmo de Gauss-Jordán. En base a lo anteriormente expuesto, solo
haríamos un proceso de eliminación en la matriz y la resolución de un sistema
con esta matriz es muy fácil. Un ejemplo en el que se suele usar Gauss -
Jordán es en el cálculo de la matriz inversa, ya que calcular la inversa de A, es
calcular N sistemas con la misma matriz. Para un mayor entendimiento de este
método veamos un ejemplo práctico del método de Gauss – Jordán.
Descomposición LU El método de
3. Descomposición LU
El método de Descomposición LU se basa en demostrar que una matriz A se
puede factorizar como el producto de una matriz triangular inferior L con una
matriz triangular superior U, donde en el paso de eliminación sólo se involucran
operaciones sobre los coeficientes de la matriz, permitiendo así evaluar los
términos independientes bi de manera eficiente. La implementación del
algoritmo de la Descomposición LU tiene sus variantes en cuanto a los valores
iniciales de la diagonal que tomen las matrices L y U, es decir si los valores de
la diagonal de la matriz L tiene números 1, formalmente esto se refiere a la
Descomposición de Doolitle. Pero si los valores de la diagonal de la matriz U
tiene números 1, formalmente esto se refiere a la Descomposición de Crout
Para un mayor entendimiento de este método veamos un ejemplo práctico del
método de descomposición LU.
Factorización De Cholesky
Una matriz simétrica es aquella donde Aij = Aji para toda i y j, En otras
palabras, [A] =[A] T. Tales sistemas ocurren comúnmente en problemas de
ambos contextos: el matemático y el de ingeniería. Ellos ofrecen ventajas
computacionales ya que sólo se necesita la mitad de almacenamiento y, en la
mayoría de los casos, sólo se requiere la mitad del tiempo de cálculo para su
solución. Al contrario de la Descomposición LU, no requiere de pivoteo. El
método de Factorización de Cholesky se basa en demostrar que si una matriz
A es simétrica y definida positiva en lugar de factorizarse como LU, puede ser
factorizada como el producto de una matriz triangular inferior y la traspuesta de
la matriz triangular inferior, es decir los factores triangulares resultantes son la
traspuesta de cada uno.
A = L . LT
Para un mayor entendimiento de este método veamos un ejemplo práctico
del método de Cholesky
Factorización de Cholesky.
Factorización de QR, Householder
Anteriormente analizamos la factorización LU de una matriz el cual conduce
a un método muy eficiente para resolver un sistema lineal. Otro método de
factorización de una A, llamada factorización QR de A. Esta factorización se
usa ampliamente en los programas de computadora para determinar valores
propios de una matriz, para resolver sistemas lineales y para determinar
aproximaciones por mínimos cuadrados
4. En muchas aplicaciones el número de filas (M) de una matriz de coeficientes
A mxn puede ser 3 al número de columnas (N). La Factorización QR consiste
en descomponer la matriz Amxn en el producto de dos matrices:
Una matriz Ortogonal: Qmxn ® QT . Q = INxN
Una matriz Triangular Superior: U = RNxN
Para encontrar las matrices Q y R se utiliza un método basado en
Transformaciones Sucesivas de Householder.
Solución De Sistemas Lineales Utilizando Métodos Iterativos
Introducción
El método de Gauss y sus variantes son conocidos como métodos directos
para resolver el problema inicial Ax = b. Se ejecutan a través de un número
finito de pasos y generan una solución x que sería exacta sino fuera por los
errores de redondeo. En contraste, un método iterativo da lugar a una sucesión
de vectores que idealmente converge a la solución. El cálculo se detiene
cuando se cuenta con una solución aproximada con cierto grado de precisión
especificado de antemano o después de cierto número de iteraciones. Los
métodos indirectos son casi siempre iterativos.
Un método iterado de resolución del sistema Ax = b es aquel que genera, a
partir de un vector inicial x0, una sucesión de vectores x1, x2, . . . xn.. "Un
método iterado se dirá que es consistente con el sistema Ax = b, si el límite x
de la sucesión (xn), en caso de existir, es solución del sistema. Se dirá que el
método es convergente si la sucesión generada por cualquier vector inicial x0
es convergente a la solución del sistema”. Es evidente que si un método es
convergente es consistente, sin embargo, el recíproco no es cierto.
Método De Gauss Seidel
El Método de Gauss Seidel emplea valores iniciales y después itera para
obtener estimaciones refinadas de la solución; es particularmente adecuado
para un gran número de ecuaciones, lo cual en cierto modo lo hace un método
más comúnmente usado. La fórmula utilizada para hallar los xi viene dada por
el despeje de cada una de las xi en cada una de las ecuaciones y se les da un
valor inicial a cada xi de cero.
Observase que en el método de Gauss-Seidel los valores actualizados de xi
sustituyen de inmediato a los valores anteriores, mientras que en el método de
Jacobi todas las componentes nuevas del vector se calculan antes de llevar a
cabo la sustitución. Por contra, en el método de Gauss-Seidel los cálculos
deben llevarse a cabo por orden, ya que el nuevo valor xi depende de los
valores actualizados de x1, x2, ..., x i-1.
5. La desventaja del método de Gauss-Seidel es que no siempre converge a la
solución exacta o algunas veces los hace de manera muy lenta. Únicamente es
confiable para aquellos sistemas dominantes diagonalmente.
Método de Jacobi
El Método de Jacobi transforma una matriz simétrica en una matriz diagonal
al eliminar de forma simétrica los elementos que están fuera de la diagonal.
Desafortunadamente, el método requiere un número infinito de operaciones, ya
que la eliminación de cada elemento no cero a menudo crea un nuevo valor no
cero en el elemento cero anterior. Si A es diagonalmente dominante, entonces
la sucesión que resulta de la iteración de Jacobi converge a la solución de Ax =
b para cualquier vector inicial Xo. Partimos de una aproximación inicial Xo para
las soluciones Xi al sistema de ecuaciones y sustituimos estos valores en la
ecuación:
Que es la expresión que nos proporciona las nuevas componentes del vector
x (k) en función de vector anterior x (k-1) en la iteración de Jacobi, en su
respectivo algoritmo; donde el a el método de Jacobi más que usar el último
valor disponible de , con base en un conjunto de las x anteriores (). De esta
forma, como se generan nuevos valores, no se usan en forma inmediata sino
que se retienen para la siguiente iteración.