SlideShare uma empresa Scribd logo
1 de 17
Baixar para ler offline
1




Métodos Para Resolver Sistemas de
       Equações Lineares
2


                                               SUMÁRIO


1.     INTRODUÇÃO ........................................................................................................ 3
2.     MÉTODO DE ELIMINAÇÃO DE GAUSS ............................................................ 5
3.     DECOMPOSIÇÃO LU ............................................................................................ 8
     3.1    Desenvolvimento do Método de Decomposição LU ...................................... 9
4.     A FATORAÇÃO DE CHOLESKY ....................................................................... 10
5.     REFERÊNCIAS BIBLIOGRÁFICAS ................................................................... 17
3


                                  1. INTRODUÇÃO


   A resolução de sistemas de equações lineares e o cálculo de determinantes são dois
exemplos de problemas fundamentais da álgebra linear que foram estudados desde
longa data. Leibniz encontrou em 1693 a fórmula para o cálculo de determinantes, e
em 1750 Cramer apresentou um método para resolver sistemas de equações lineares,
conhecida desde então como a Regra de Cramer, primeira pedra na construção da
álgebra linear e da teoria das matrizes. No início da evolução dos computadores
digitais, o cálculo matricial recebeu a atenção merecida. John von Neumann e Alan
Turing eram os pioneiros mundialmente famosos da ciência da computação, e
introduziram contribuições notáveis para o desenvolvimento da álgebra linear
computacional. Em1947, Von Neumann e Goldstein pesquisaram os efeitos dos
erros de arredondamento na resolução de equações lineares. Um ano depois, Turing
iniciou um método para decompor uma matriz num produto de uma matriz triangular
inferior com uma matriz escalonada (conhecida como decomposição LU). Hoje, a
álgebra linear computacional é uma área de muito interesse. Isto é devido ao fato que
este campo está reconhecido agora como uma ferramenta absolutamente essencial em
muitas das aplicações computacionais que requerem cálculos longos e difíceis de
desenvolver manualmente, como por o exemplo: em gráficos de computador, em
modelagem geométrica, em robótica, etc. [1].
   Antes de iniciarmos um estudo sobre os métodos diretos que são utilizados para
encontrar a solução exata para um sistema de Equações Algébricas Lineares, iremos
relembrar alguns conceitos relevantes ao tema deste trabalho.
   Para começar vamos falar um pouco sobre os sistemas de equações lineares. Tais
sistemas aparecem frequentemente em matemática aplicada, economia e engenharia ao
modelar certos fenômenos. Por exemplo, em programação linear, geralmente é discutido
como maximizar o lucro quando existem certas restrições relacionadas à dificuldade,
disponibilidade de tempo, ou outras condições. Estas restrições podem ser colocadas na
forma de um sistema de equações lineares [2].
   Deste modo, um sistema de equações lineares (ou sistema linear) é uma coleção de
equações lineares envolvendo o mesmo conjunto de variáveis. A solução de um sistema
linear é uma n-upla de valores s = (s1,s2,....,sn) que simultaneamente satisfazem todas as
4

equações do sistema [2]. Observando a Figura 1 podemos visualizar a interseção dos
planos formada pela solução de um sistema:




 Figura 1 - Cada equação de um sistema linear em três variáveis determina um plano. Uma solução do
                    sistema corresponde a um ponto na interseção desses planos.



  A solução para os sistemas de Equações Algébricas Lineares é obtida a partir de
técnicas diretas e iterativas estas técnicas são implementadas através de dois métodos:
métodos diretos e métodos iterativos. Neste trabalho iremos tratar apenas dos métodos
diretos.
    Os métodos diretos se caracterizam por uma sequência de operações (quantidade
definida de operações), depois da qual se obtém a solução do sistema. No presente
trabalho iremos trabalhar apenas com os métodos diretos de Eliminação de Gauss,
Decomposição LU e Fatoração de Cholesky.
   O trabalho esta dividido da seguinte forma: nos Capítulos 2, 3 e 4 teremos uma
revisão bibliográfica sobre os métodos de Eliminação de Gauss, Decomposição LU e
Fatoração de Cholesky respectivamente.
5


                 2. MÉTODO DE ELIMINAÇÃO DE GAUSS


      Em um sistema linear formado por um par de equações, o processo para
descobrir as duas incógnitas consiste em isolar uma delas e substituir na outra equação,
eliminando assim, uma das incógnitas.

      Para um sistema maior, podemos estender a abordagem para um número maior de
equações através do método conhecido como “Eliminação de Gauss”, que basicamente
manipula algumas variáveis, a fim de gerar uma eliminação ao longo da execução, ao
tempo que vai substituindo regressivamente nas equações originais, a fim de obter a
solução final.

Sendo assim, o sistema geral que iremos estudar é formado por um conjunto arbitrário
de    equações tais que:



(Equação 2.1)




(Equação 2.2)




(Equação 2.3)




     Entre os métodos computacionais temos que o processo de diagonalização de
matrizes é uma técnica-chave para solução de sistemas lineares. Sendo assim, a primeira
fase da eliminação de Gauss está em reduzir a matriz dos coeficientes para uma matriz
triangular-superior, eliminando da primeira variável em todas as equações diferentes de

 . Para isso, vamos multiplicar a Equação 1 por                 . Com isso, obtemos
6



(Equação 2.4)

        Agora, subtraímos a Equação 4 da Equação 2, O que nos permite obter




(Equação 2.5)



substituindo cada termo dentro dos parênteses por um novo      , onde            , temos
que a Equação 5 pode ser escrita como


(Equação 2.6)




onde.

    Assim como fizemos com a segunda linha do sistema, repetimos o processo para as
demais     equações. Ou seja, multiplicamos      pela Equação 1 e subtraímos o resultado
da equação 3, e continuamos o processo até a última equação [3].

   No processo de eliminação, o termo         é conhecido como “pivô”, e a multiplicação
de cada linha pelo elemento         é denominada “normalização”. Portanto, podemos
notar que o pivô nulo é um problema no processo de normalização, já que provoca uma
divisão por zero. Por isso, em implementações reais, devemos utilizar algumas técnicas
de “re-normalização” para eliminarmos o pivô nulo do processo [3].

  Após a primeira eliminação o sistema linear modificado ficará:

(Equação 2.7)
7

(Equação 2.8)




(Equação 2.9)




Agora, repetimos o mesmo processo de eliminação, mas tomando como coeficiente de


normalização como sendo           , aplicando-o à todas equações a partir da terceira. Este
processo deve continuar usando os pivôs obtidos nas equações remanescentes. Ou seja,
repetimos o pivotamento e normalização descritas para até a equação                       ,
eliminando até o termo       da                equação [3]. Com isso, obteremos o sistema
triangular a seguir:
(Equação 2.10)




(Equação 2.11)




(Equação 2.12)




(Equação 2.13)




A partir do sistema triangular, a solução é facilmente obtida, a começar por xn :
8

(Equação 2.14)




substituindo esse resultado na equação anterior, isto é, na equação            , cuja
dependência está apenas nas variáveis        e   , podemos determinar também        .
Esse processo de ir substituindo as incógnitas já encontradas nas equações anteriores
chamaremos de backtrack. A partir dele, encontramos todos       pela da fórmula [3]:
(Equação 2.15)




para                              [3].



                             3. DECOMPOSIÇÃO LU


Um sistema linear do tipo:


(Equação 3.1)




(Equação 3.2)




(Equação 3.3)




pode ser representado na seguinte forma matricial:
9




onde      é a matriz formada pelos coeficientes                  ,   é o vetor formado
pelas variáveis a serem determinadas                      e     é o vetor dos termos
independentes [4].

       Para determinação das incógnitas, o método da eliminação de Gauss desenvolve
duas fases: a primeira é a eliminação progressiva, onde reduz o número de variáveis ao
longo da execução para, então, aplicar a segunda fase, chamada de substituição
regressiva, onde utiliza o resultado da primeira para determinar a solução geral do
sistema [4].

   Dois passos descritos, o primeiro é o que consome mais tempo de cálculo, uma vez
que é nesta fase que consiste o maior número de operações aritméticas e de trocas de
dados. Por isso, encontrar um método que minimize esta fase crítica implica em
aumentar o desempenho para realizar a tarefa de resolução de sistemas lineares [4].

    Os métodos de decomposição LU consistem em separar a fase de eliminação da
matriz dos coeficientes    , que consomem maior tempo, das manipulações envolvidas
com o vetor dos termos independentes,        . Portanto, devemos deixar claro que, ao
contrário da eliminação de Gauss, uma decomposição de LU é uma estratégia de
melhoria na resolução de sistemas lineares. Sendo assim, não existe “o método” de
decomposição LU, mas sim algumas abordagens a serem tomadas que permitem
decompor o sistema. Uma implicação interessante disso é que a própria eliminação de
Gauss pode ser descrita como uma decomposição LU [4].




   3.1 Desenvolvimento do Método de Decomposição LU




A equação              pode ser reescrita como                . Aplicando a eliminação
de Gauss, sabemos que este sistema pode ser reescrito como uma matriz triangular
superior na forma:
10




      Esta notação matricial também pode ser usada da seguinte maneira:
.Agora, vamos supor que existe uma matriz composta apenas pela formula triangular
inferior, tal que




      O processo de decomposição LU consiste justamente de em decompor a matriz
dos coeficientes      em duas matrizes, onde a primeira está na forma triangular inferior
(Low), enquanto a outra está na forma triangula superior (Upper). Sendo assim, para
e   , temos que

(Equação 3.4)

      Agora,        isolamos     os    termos       dependentes   de    ,    temos     que

(Equação 3.5)

                                                E

(Equação 3.6)


desta forma, isolamos a dependência dos termos independentes                da matriz dos
coeficientes    . Desta forma, também livramos as operações efetuadas sobre          (agora
    ) de serem feitas em         , diminuindo a demanda de recursos para resolução deste
sistema [4].


                         4. A FATORAÇÃO DE CHOLESKY

      A Fatoração de Cholesky expressa uma matriz simétrica            como o produto,de
uma matriz triangular          (chamada de Fator de Cholesky) pela sua transposta      , na
11

forma:
(equação 4.1)

onde     será triangular superior.

       Sabendo-se que      é simétrica quando seus elementos obedecem à uma formação
           para toda linha     e coluna     . Desta forma, a matriz     será idêntica à sua
transposta:          . Matrizes com este tipo de formação fornecem algumas vantagens
computacionais, pois favorecem a eficiência na solução de sistemas lineares, quando
usados métodos adequados. Além disso, essa identidade permite a criação de algoritmos
simples de criptografia e verificação de dados [5].

    Uma vez que se identifica que uma matriz               é simétrica, podemos utilizar a
Equação (4.1) para gerar      e      a partir de   . Ou seja, ao multiplicarmos e igualarmos
seus termos, obtemos as seguintes relações:



(Equação 4.2)

onde                         . Além disso, o elemento da diagonal será obtido por



(Equação 4.3)

As expressões acima são obtidas como uma especificação da decomposição LU para o
caso da matriz decomposta ser simétrica [5].
12

     Exemplo de como resolver um sistema de Equações Algébricas Lineares utilizando o
Método de Eliminação de Gauss:


Questão:

g1( k )  eg 2k )  2 g 3k )  3 g 4k )  11
              (          (          (


                                 3
 2 g1( k )  eg 2k )  e 2 g 3k )  g 4k )  0
                 (            (        (

                                 7
    5 g1( k )  6 g 2k )  g 3k )  2 g 4k )  
                    (        (          (


                                     1
 2 g1( k )  e 2 g 2k )  7 g 3k )  g 4k )  2
                    (          (        (

                                     9

Escrever a matriz expandida para a etapa (L=0)
                                            e     2  3  11 
         a11 )
            (0
                a12 )  a13 )  a14 )  
                   (0      (0      (0                                
          ( 0)                          2  e    e2
                                                             3
                                                                 0 
                a 22)  a 23)  a 24)                             
         
                   (0      (0      (0
         a 21                                               7
 A , b   ( 0)
  0   0
                                                                   
         a31   a32)  a33)  a34)   5  6 1
                   (0      (0      (0
                                                          2 
         a 41)
         
            (0
                a 42)  a 43)  a 44)   2
                   (0      (0      (0
                                                           1      
                                               e2  7            2
                                                             9      
1º)Passo: Definições das multiplicadores e das linhas para a etapa (L=1)

          a21)
           (0
m21) 
 (1
                   3,1414
          a11 )
           (0


          a31)
           (0
                  5
m31) 
 (1
                    0,7118
           (0)
          a11    
          a41)
           (0
m41) 
 (1
                   3,1414
          a11 )
           (0




L11)  L10) ; L(21)  L(20)  m21) L10) ; L(31)  L(30)  m31) L10) ; L(41)  L(40)  m41) L1
 (      (                      (1 (                        (1 (                        (1 0




* L(21)
13


a22)  a22)  m21) * a12 )
 (1     (0     (1     (0


a22)  2,7171  3,1414 * (2,7171)  11,2526
 (1




a23)  a23)  m21) * a13 )
 (1     (0     (1     (0


a23)  (2,7171) 2  3,1414 * 1,4142  11,8252
 (1




a24)  a24)  m21) * a14 )
 (1     (0     (1     (0


a24)  0,4286  3,1414 * (1,73)  5,8697
 (1




b21)  b20 )  m21) * b1( 0 )
 (      (       (1


b21)  0  3,1414 * 3,3166  10,4188
 (



* L(31)
a32)  a32)  m31) * a12 )
 (1     (0     (1     (0


a32)  2,4495 - 0,7118 * (-2,7171)  - 0,5155
 (1




a33)  a33)  m31) * a13 )
 (1     (0     (1     (0


a33)  1  0,7118 * 1,4142  0,0066
 (1




a34)  a34)  m31) * a14 )
 (1     (0     (1     (0


a34)  1,4142  1,2328  0,1813
 (1




b3(1)  b3( 0 )  m21) * b1( 0 )
                   (1


b3(1)  3,1414  2,3607  0,7806




* L(41)
14


a42)  a42)  m31) * a12 )
 (1     (0     (1     (0


a42)  (2,7171) 2 - 3,1414 * (-2,7171)  15,9181
 (1




a43)  a43)  m31) * a13 )
 (1     (0     (1     (0


a43)  2,6445  4,4426  7,0871
 (1




a44)  a44)  m31) * a14 )
 (1     (0     (1     (0


a44)  5,5457
 (1




b41)  b40 )  m21) * b1( 0 )
 (      (       (1


b41)  1,4142  10,4188  9,0046
 (




                     3,1414              2,7171     1,4142         1,7320      3,3166
                     0,0000                           11,8252        5,8697   10,4188
                 
           A1 , b1  
                     0,0000
                                         11,2526
                                          0,5153      0,0066          0,1813  0,7806
                                                                                         
                                                                                         
                                                                                        
                     0,0000             15,9180       7,0871        5,5457  9,0046 


2º) Passo: Definições das multiplicadores e das linhas para a etapa (L=2)
         a32)
          (1
m32) 
 (2
               0,0458
         a22)
          (1


         a42)
          (1
m42) 
 (1
               1,4148
         a22)
          (1




          L1  L11) ; L(22)  L(21) ; L(32)  L(31)  m32) L(21) ; L(42)  L(41)  m42) L12
           2    (                                      (2                           (1




          a33)  a33)  m32) * a23)
           (2     (1     (2     (1


          a33)  0,0066  (0,0458)(11,8252)  0,5350
           (2




          a34)  a34)  m32) * a24)
           (2     (1     (2     (1


          a34)  0,0869
           (2




          b3( 2)  b3(1)  m32) * b21)
                            (1     (


          b3( 2)  1,2567
15


       a43)  a43)  m42) * a23)
        (2     (1     (2     (1


       a43)  9,6408
        (2




       a44)  a44)  m42) * a24)
        (2     (1     (2     (1


       a44)  13,6328
        (2




       b42 )  b41)  m42) * b21)
        (       (      (1     (


       b42 )  23,7430
        (




                   3,1414               2,7171          1,4142         1,7320         
                                                                                      3,3166
                   0 ,0000                               11,8252              10,4188
               
        A2 , b 2  
                   0,0000
                                        11,2525
                                         0,0000
                                                                   5,8695
                                                           0,5350 0,0869   1,2567
                                                                                         
                                                                                         
                                                                                        
                   0 ,0000              0,0000             9,6432  13,6328  23,7450 


3º) Passo: Definições dos multiplicadores e linhas para a etapa (L=3)
                a43)
                 (2
       m43) 
        (3
                      17,99
                a33)
                 (2




       L1  L10) ; L(23)  L(22) ; L(33)  L(32) ; L(43)  L(42)  m43) L2
        3    (                                                      (3
                                                                         3


       a44)  a44)  m43) * a34)
        (3     (2     (3     (2


       a44)  12,0721
        (3




       b43)  b42 )  m43) * b3( 2 )
        (      (       (3


       b43)  1,1730
        (




               3,1414                   2,7171           1,4142         1,7320      3,3166 
               0,0000                                     11,8252                   10,4188
       A ,b  
         3  3
                
               0,0000
                                       11,2525
                                         0,0000             0,5430
                                                                          5,8695
                                                                           0,0869   1,2567 
                                                                                               
                                                                                              
               0,0000                   0,0000             0,0000         12,0721  1,1730 

       Então o sistema triangular superior é :
       3,1414 g1( k )  2,7171g 2k )  1,4142 g 3k )  1,7320 g 4k )  3,3166
                                (               (               (


                       11,2525 g 2k )  11,8252 g 3k )  5,8695 g 4k )  10,4188
                                 (                (               (


                                          0,5430 g 3k )  0,0869 g 4k )  1,2567
                                                    (               (


                                                       12,0721g 4k )  1,1730
                                                                 (
16


      As equações iterativas para asvariáveis decisórias g1( k ) g 2k ) g 3k ) g 4k ) já com os
                                                                   (      (      (


valores devidamente colocados são:


        g1( k 1)  g1( k ) 
                                   1
                                3,1414
                                                    
                                        3,3166   2,7171g 2(k )  1,4142g3(k ) 1,7320g 4(k )   
        g 2k 1)  g 2k ) 
          (          (             1
                                11,2525
                                                        
                                         10,4188  11,8252g3(k )  5,8695g 4(k )   
                                                               
        g 3k 1)  g 3k )  
          (          (            1
                                            
                                        1,2567  0,0869 g 4k ) 
                                                           (
                                                                    
                              0,5430                          
                             1,1730 
        g 4k 1)  g 4k )  
          (          (
                                       ,
                              12,0721

Para k=0, toma-se como referência o sinal (t).
       g1( 01)  g1( 0) 
                              1
                           3,1414
                                                  
                                  3,3166   2,7171g 20)  1,4142 g 30)  1,7320 g 40)
                                                     (              (              (
                                                                                              
        g1(1)  1,5782


        g 201)  g 20) 
          (         (              1
                                11,2525
                                                       
                                         10,4188   11,8252 g 30)  5,8695 g 40)
                                                                (              (
                                                                                      
        g 21)  0,9234
          (




                          
        g 301)  g 30)  
          (         (           1
                                                            
                                      1,2567  0,0869 g 40) 
                                                         (
                                                                    
                            0,5430                         
        g 3  3,2458
          (1)




                           1,1730 
        g 401)  g 40)  
          (         (
                                      ,
                            12,0899 
        g 41)  4,4598
          (
17


                  5. REFERÊNCIAS BIBLIOGRÁFICAS



[1] RUBÉN PANTA PAZOS. Aplicando a Matemática. Disponível                   em:
rpanta.com/downloads/material/Gauss_01.PDF. Acesso em: 13 Out 2010.


[2]       WIKIPÉDIA.         A     Enciclopédia      Livre.    Disponível em:
http://pt.wikibooks.org/wiki/%C3%81lgebra_linear/Sistemas_de_equa%C3%A7%C3%
B5es_lineares . Acesso em: 13 Out 2010.


[3]       SAWP.     Software    Advice    Working     Party.   Disponível   em:
http://www.sawp.com.br/blog/?p=577. Acesso em: 14 Out 2010.


[4]       SAWP.     Software    Advice    Working     Party.   Disponível   em:
http://www.sawp.com.br/blog/?p=586. Acesso em: 14 Out 2010.


[5]       SAWP.     Software    Advice    Working     Party.   Disponível   em:
http://www.sawp.com.br/blog/?p=604. Acesso em: 14 Out 2010.

Mais conteúdo relacionado

Mais procurados (20)

Teorema dos senos e cossenos
Teorema dos senos e cossenosTeorema dos senos e cossenos
Teorema dos senos e cossenos
 
Multiplicação e divisão de inteiros.
Multiplicação e divisão de inteiros.Multiplicação e divisão de inteiros.
Multiplicação e divisão de inteiros.
 
Juros simples
Juros simplesJuros simples
Juros simples
 
Angulos
AngulosAngulos
Angulos
 
Produtos Notavéis 8º ano
Produtos Notavéis 8º ano Produtos Notavéis 8º ano
Produtos Notavéis 8º ano
 
Números racionais
Números racionaisNúmeros racionais
Números racionais
 
Expressões para os Alunos
Expressões para os AlunosExpressões para os Alunos
Expressões para os Alunos
 
Plano cartesiano animado
Plano cartesiano animadoPlano cartesiano animado
Plano cartesiano animado
 
Equação do 2º grau
Equação do 2º grauEquação do 2º grau
Equação do 2º grau
 
Conjunto dos Números Inteiros
Conjunto dos Números Inteiros Conjunto dos Números Inteiros
Conjunto dos Números Inteiros
 
Sequencias
SequenciasSequencias
Sequencias
 
Mat razoes e proporcoes
Mat razoes e proporcoesMat razoes e proporcoes
Mat razoes e proporcoes
 
Regra de sinais da matemática
Regra de sinais da matemáticaRegra de sinais da matemática
Regra de sinais da matemática
 
Âgulos formados por duas retas paralelas e uma transversal
Âgulos formados por duas retas paralelas e uma transversalÂgulos formados por duas retas paralelas e uma transversal
Âgulos formados por duas retas paralelas e uma transversal
 
9 ano radicais
9 ano radicais9 ano radicais
9 ano radicais
 
âNgulos
âNgulosâNgulos
âNgulos
 
Radiciação 9º ano
Radiciação 9º anoRadiciação 9º ano
Radiciação 9º ano
 
Função do 2º grau
Função do 2º grauFunção do 2º grau
Função do 2º grau
 
Sistemas lineares
Sistemas linearesSistemas lineares
Sistemas lineares
 
Pg Lista
Pg ListaPg Lista
Pg Lista
 

Destaque

Estudos de Sistemas Lineares de Três equações e Três Incógnitas
Estudos de Sistemas Lineares de Três equações e Três IncógnitasEstudos de Sistemas Lineares de Três equações e Três Incógnitas
Estudos de Sistemas Lineares de Três equações e Três Incógnitassiuffmat06
 
áLgebra linear 01 aula 01-matrizes e cálculo determinantes (2)
áLgebra linear 01 aula 01-matrizes e cálculo determinantes (2)áLgebra linear 01 aula 01-matrizes e cálculo determinantes (2)
áLgebra linear 01 aula 01-matrizes e cálculo determinantes (2)Pedro Povoleri
 
Resolução de Sistemas Lineares
Resolução de Sistemas LinearesResolução de Sistemas Lineares
Resolução de Sistemas LinearesKleber Jacinto
 
A regra de cramer é uma das maneiras de resolver um sistema linear, mas só po...
A regra de cramer é uma das maneiras de resolver um sistema linear, mas só po...A regra de cramer é uma das maneiras de resolver um sistema linear, mas só po...
A regra de cramer é uma das maneiras de resolver um sistema linear, mas só po...Evonaldo Gonçalves Vanny
 
3 lista de_exercicios_solucao_de_sistemas_lineares
3 lista de_exercicios_solucao_de_sistemas_lineares3 lista de_exercicios_solucao_de_sistemas_lineares
3 lista de_exercicios_solucao_de_sistemas_linearesLeonardo Menezes
 
Exercícios sobre sistemas lineares e discussão de sistemas
Exercícios sobre sistemas lineares e discussão de sistemasExercícios sobre sistemas lineares e discussão de sistemas
Exercícios sobre sistemas lineares e discussão de sistemasRosana Santos Quirino
 
Sistemas lineares
Sistemas linearesSistemas lineares
Sistemas linearescon_seguir
 
Resolução de sistemas lineares
Resolução de sistemas linearesResolução de sistemas lineares
Resolução de sistemas lineareskarinsimonato
 
Guia acadêmico 2012
Guia acadêmico 2012Guia acadêmico 2012
Guia acadêmico 2012fbrabreu
 
Manual hp-50g-em-portugues
Manual hp-50g-em-portuguesManual hp-50g-em-portugues
Manual hp-50g-em-portuguesMarcos Bezerra
 
Mat exercicios resolvidos 002
Mat exercicios resolvidos  002Mat exercicios resolvidos  002
Mat exercicios resolvidos 002trigono_metrico
 
Plano de ensino de matemática aplicada a administração.
Plano de ensino de matemática aplicada a administração.Plano de ensino de matemática aplicada a administração.
Plano de ensino de matemática aplicada a administração.Douglas Boaventura
 
Apostila de fenômenos_de_transporte
Apostila de fenômenos_de_transporteApostila de fenômenos_de_transporte
Apostila de fenômenos_de_transporteMarianna Duarte
 
Equação biquadrada exercicios
Equação biquadrada exerciciosEquação biquadrada exercicios
Equação biquadrada exerciciosMarcia Roberto
 
Desenvolvimento análise de sistemas lineares
Desenvolvimento análise de sistemas linearesDesenvolvimento análise de sistemas lineares
Desenvolvimento análise de sistemas linearesMaique Mateus
 
Catalase 3
Catalase 3Catalase 3
Catalase 3TA 10
 

Destaque (20)

Estudos de Sistemas Lineares de Três equações e Três Incógnitas
Estudos de Sistemas Lineares de Três equações e Três IncógnitasEstudos de Sistemas Lineares de Três equações e Três Incógnitas
Estudos de Sistemas Lineares de Três equações e Três Incógnitas
 
áLgebra linear 01 aula 01-matrizes e cálculo determinantes (2)
áLgebra linear 01 aula 01-matrizes e cálculo determinantes (2)áLgebra linear 01 aula 01-matrizes e cálculo determinantes (2)
áLgebra linear 01 aula 01-matrizes e cálculo determinantes (2)
 
Resolução de Sistemas Lineares
Resolução de Sistemas LinearesResolução de Sistemas Lineares
Resolução de Sistemas Lineares
 
A regra de cramer é uma das maneiras de resolver um sistema linear, mas só po...
A regra de cramer é uma das maneiras de resolver um sistema linear, mas só po...A regra de cramer é uma das maneiras de resolver um sistema linear, mas só po...
A regra de cramer é uma das maneiras de resolver um sistema linear, mas só po...
 
3 lista de_exercicios_solucao_de_sistemas_lineares
3 lista de_exercicios_solucao_de_sistemas_lineares3 lista de_exercicios_solucao_de_sistemas_lineares
3 lista de_exercicios_solucao_de_sistemas_lineares
 
Sistema linear escalonamento
Sistema linear   escalonamentoSistema linear   escalonamento
Sistema linear escalonamento
 
Exercícios sobre sistemas lineares e discussão de sistemas
Exercícios sobre sistemas lineares e discussão de sistemasExercícios sobre sistemas lineares e discussão de sistemas
Exercícios sobre sistemas lineares e discussão de sistemas
 
Sistemas lineares
Sistemas linearesSistemas lineares
Sistemas lineares
 
Resolução de sistemas lineares
Resolução de sistemas linearesResolução de sistemas lineares
Resolução de sistemas lineares
 
Guia acadêmico 2012
Guia acadêmico 2012Guia acadêmico 2012
Guia acadêmico 2012
 
Tecnologias na Saúde
Tecnologias na SaúdeTecnologias na Saúde
Tecnologias na Saúde
 
Manual hp-50g-em-portugues
Manual hp-50g-em-portuguesManual hp-50g-em-portugues
Manual hp-50g-em-portugues
 
Mat exercicios resolvidos 002
Mat exercicios resolvidos  002Mat exercicios resolvidos  002
Mat exercicios resolvidos 002
 
Questões com equação do 2º grau.enem
Questões com equação do 2º grau.enemQuestões com equação do 2º grau.enem
Questões com equação do 2º grau.enem
 
Plano de ensino de matemática aplicada a administração.
Plano de ensino de matemática aplicada a administração.Plano de ensino de matemática aplicada a administração.
Plano de ensino de matemática aplicada a administração.
 
Apostila de fenômenos_de_transporte
Apostila de fenômenos_de_transporteApostila de fenômenos_de_transporte
Apostila de fenômenos_de_transporte
 
Equação biquadrada exercicios
Equação biquadrada exerciciosEquação biquadrada exercicios
Equação biquadrada exercicios
 
Desenvolvimento análise de sistemas lineares
Desenvolvimento análise de sistemas linearesDesenvolvimento análise de sistemas lineares
Desenvolvimento análise de sistemas lineares
 
Edital Mda
Edital MdaEdital Mda
Edital Mda
 
Catalase 3
Catalase 3Catalase 3
Catalase 3
 

Semelhante a Métodos Para Resolver Sistemas de Equações Lineares

Exercícios sistemas de equações
Exercícios sistemas de equaçõesExercícios sistemas de equações
Exercícios sistemas de equaçõesAdriano Silva
 
Apostila sistemas lineares
Apostila sistemas linearesApostila sistemas lineares
Apostila sistemas linearesday ....
 
Numerical Methods for Solving Linear Ordinary Differential Equations
Numerical Methods for Solving Linear Ordinary Differential EquationsNumerical Methods for Solving Linear Ordinary Differential Equations
Numerical Methods for Solving Linear Ordinary Differential EquationsMichel Alves
 
Conemat 2010 - Aplicação de alguns métodos de Runge Kutta
Conemat 2010 - Aplicação de alguns métodos de Runge KuttaConemat 2010 - Aplicação de alguns métodos de Runge Kutta
Conemat 2010 - Aplicação de alguns métodos de Runge KuttaRodrigo Romais
 
Equações lineares
Equações lineares Equações lineares
Equações lineares LCCIMETRO
 
Sistemas de comunicação, digital, di.pdf
Sistemas de comunicação, digital, di.pdfSistemas de comunicação, digital, di.pdf
Sistemas de comunicação, digital, di.pdfBNBN31
 
Projeto de Controle de Posição entre veículos, Análise de Sistemas III
Projeto de Controle de Posição entre veículos, Análise de Sistemas IIIProjeto de Controle de Posição entre veículos, Análise de Sistemas III
Projeto de Controle de Posição entre veículos, Análise de Sistemas IIICiro Marcus
 
SysSorting Professional
SysSorting ProfessionalSysSorting Professional
SysSorting ProfessionalMichel Alves
 
Relatório sistema vibratório.pdf
Relatório sistema vibratório.pdfRelatório sistema vibratório.pdf
Relatório sistema vibratório.pdfPhDamasceno
 
Cálculo numérico aula 04 - resolução de sistemas de equações lineares - mét...
Cálculo numérico   aula 04 - resolução de sistemas de equações lineares - mét...Cálculo numérico   aula 04 - resolução de sistemas de equações lineares - mét...
Cálculo numérico aula 04 - resolução de sistemas de equações lineares - mét...Rodolfo Almeida
 
Novas Informações Sobre a Equação Generalizada de Euler-Tricomi
Novas Informações Sobre a Equação Generalizada de Euler-TricomiNovas Informações Sobre a Equação Generalizada de Euler-Tricomi
Novas Informações Sobre a Equação Generalizada de Euler-TricomiLossian Barbosa Bacelar Miranda
 
Apostila metodos numericos_formatada_vf
Apostila metodos numericos_formatada_vfApostila metodos numericos_formatada_vf
Apostila metodos numericos_formatada_vfSTILLK05
 

Semelhante a Métodos Para Resolver Sistemas de Equações Lineares (20)

Algebra linear operações com matrizes
Algebra linear operações com matrizesAlgebra linear operações com matrizes
Algebra linear operações com matrizes
 
58ad47702e6f04f314a21718ac26d233.pdf
58ad47702e6f04f314a21718ac26d233.pdf58ad47702e6f04f314a21718ac26d233.pdf
58ad47702e6f04f314a21718ac26d233.pdf
 
Exercícios sistemas de equações
Exercícios sistemas de equaçõesExercícios sistemas de equações
Exercícios sistemas de equações
 
Apostila sistemas lineares
Apostila sistemas linearesApostila sistemas lineares
Apostila sistemas lineares
 
Sist cont i_conf2_2014
Sist cont i_conf2_2014Sist cont i_conf2_2014
Sist cont i_conf2_2014
 
Numerical Methods for Solving Linear Ordinary Differential Equations
Numerical Methods for Solving Linear Ordinary Differential EquationsNumerical Methods for Solving Linear Ordinary Differential Equations
Numerical Methods for Solving Linear Ordinary Differential Equations
 
Conemat 2010 - Aplicação de alguns métodos de Runge Kutta
Conemat 2010 - Aplicação de alguns métodos de Runge KuttaConemat 2010 - Aplicação de alguns métodos de Runge Kutta
Conemat 2010 - Aplicação de alguns métodos de Runge Kutta
 
Equações lineares
Equações lineares Equações lineares
Equações lineares
 
Sistemas de comunicação, digital, di.pdf
Sistemas de comunicação, digital, di.pdfSistemas de comunicação, digital, di.pdf
Sistemas de comunicação, digital, di.pdf
 
Wxt
WxtWxt
Wxt
 
Diogo t.robaina edp
Diogo t.robaina edpDiogo t.robaina edp
Diogo t.robaina edp
 
Projeto de Controle de Posição entre veículos, Análise de Sistemas III
Projeto de Controle de Posição entre veículos, Análise de Sistemas IIIProjeto de Controle de Posição entre veículos, Análise de Sistemas III
Projeto de Controle de Posição entre veículos, Análise de Sistemas III
 
SysSorting Professional
SysSorting ProfessionalSysSorting Professional
SysSorting Professional
 
Relatório sistema vibratório.pdf
Relatório sistema vibratório.pdfRelatório sistema vibratório.pdf
Relatório sistema vibratório.pdf
 
Cálculo numérico aula 04 - resolução de sistemas de equações lineares - mét...
Cálculo numérico   aula 04 - resolução de sistemas de equações lineares - mét...Cálculo numérico   aula 04 - resolução de sistemas de equações lineares - mét...
Cálculo numérico aula 04 - resolução de sistemas de equações lineares - mét...
 
Paalga
PaalgaPaalga
Paalga
 
Flexibilidade
FlexibilidadeFlexibilidade
Flexibilidade
 
Novas Informações Sobre a Equação Generalizada de Euler-Tricomi
Novas Informações Sobre a Equação Generalizada de Euler-TricomiNovas Informações Sobre a Equação Generalizada de Euler-Tricomi
Novas Informações Sobre a Equação Generalizada de Euler-Tricomi
 
Passo adaptativo stiff
Passo adaptativo stiffPasso adaptativo stiff
Passo adaptativo stiff
 
Apostila metodos numericos_formatada_vf
Apostila metodos numericos_formatada_vfApostila metodos numericos_formatada_vf
Apostila metodos numericos_formatada_vf
 

Mais de Mayara Mônica

Pronouns and Verb To Be
Pronouns and Verb To BePronouns and Verb To Be
Pronouns and Verb To BeMayara Mônica
 
Aprendendo o Alfabeto em Inglês
Aprendendo o Alfabeto em InglêsAprendendo o Alfabeto em Inglês
Aprendendo o Alfabeto em InglêsMayara Mônica
 
Saúde e Nutrição - Fibras Alimentares
Saúde e Nutrição - Fibras AlimentaresSaúde e Nutrição - Fibras Alimentares
Saúde e Nutrição - Fibras AlimentaresMayara Mônica
 
Biofísica do Sistema Respiratório
Biofísica do Sistema RespiratórioBiofísica do Sistema Respiratório
Biofísica do Sistema RespiratórioMayara Mônica
 
Órgãos em Microchips
Órgãos em MicrochipsÓrgãos em Microchips
Órgãos em MicrochipsMayara Mônica
 
Escolas da Psicologia e Bases Biológicas do Comportamento
Escolas da Psicologia e Bases Biológicas do ComportamentoEscolas da Psicologia e Bases Biológicas do Comportamento
Escolas da Psicologia e Bases Biológicas do ComportamentoMayara Mônica
 
Bioquímica Articular, Articulações e Pele
Bioquímica Articular, Articulações e PeleBioquímica Articular, Articulações e Pele
Bioquímica Articular, Articulações e PeleMayara Mônica
 
Cartilha Educativa sobre Bioética
Cartilha Educativa sobre BioéticaCartilha Educativa sobre Bioética
Cartilha Educativa sobre BioéticaMayara Mônica
 
Estudo Sobre o Músculo Liso
Estudo Sobre o Músculo LisoEstudo Sobre o Músculo Liso
Estudo Sobre o Músculo LisoMayara Mônica
 
LZW - Compressão e Descompressão
LZW - Compressão e Descompressão LZW - Compressão e Descompressão
LZW - Compressão e Descompressão Mayara Mônica
 
Questionário Sobre Teste de Software
Questionário Sobre Teste de SoftwareQuestionário Sobre Teste de Software
Questionário Sobre Teste de SoftwareMayara Mônica
 
Questions About Software Testing
Questions About Software TestingQuestions About Software Testing
Questions About Software TestingMayara Mônica
 
Modelo de Interface para um Prontuário Eletrônico
Modelo de Interface para um Prontuário EletrônicoModelo de Interface para um Prontuário Eletrônico
Modelo de Interface para um Prontuário EletrônicoMayara Mônica
 
Queues and Hook Functions
Queues and Hook FunctionsQueues and Hook Functions
Queues and Hook FunctionsMayara Mônica
 

Mais de Mayara Mônica (20)

Pronouns and Verb To Be
Pronouns and Verb To BePronouns and Verb To Be
Pronouns and Verb To Be
 
Aprendendo o Alfabeto em Inglês
Aprendendo o Alfabeto em InglêsAprendendo o Alfabeto em Inglês
Aprendendo o Alfabeto em Inglês
 
Saúde e Nutrição - Fibras Alimentares
Saúde e Nutrição - Fibras AlimentaresSaúde e Nutrição - Fibras Alimentares
Saúde e Nutrição - Fibras Alimentares
 
Biofísica do Sistema Respiratório
Biofísica do Sistema RespiratórioBiofísica do Sistema Respiratório
Biofísica do Sistema Respiratório
 
Órgãos em Microchips
Órgãos em MicrochipsÓrgãos em Microchips
Órgãos em Microchips
 
Escolas da Psicologia e Bases Biológicas do Comportamento
Escolas da Psicologia e Bases Biológicas do ComportamentoEscolas da Psicologia e Bases Biológicas do Comportamento
Escolas da Psicologia e Bases Biológicas do Comportamento
 
Psicologia na Saúde
Psicologia na SaúdePsicologia na Saúde
Psicologia na Saúde
 
Movimento Body Art
Movimento Body ArtMovimento Body Art
Movimento Body Art
 
Bioquímica Articular, Articulações e Pele
Bioquímica Articular, Articulações e PeleBioquímica Articular, Articulações e Pele
Bioquímica Articular, Articulações e Pele
 
Cartilha Educativa sobre Bioética
Cartilha Educativa sobre BioéticaCartilha Educativa sobre Bioética
Cartilha Educativa sobre Bioética
 
Estudo Sobre o Músculo Liso
Estudo Sobre o Músculo LisoEstudo Sobre o Músculo Liso
Estudo Sobre o Músculo Liso
 
Tipologia Textual
Tipologia TextualTipologia Textual
Tipologia Textual
 
Comando Traceroute
Comando TracerouteComando Traceroute
Comando Traceroute
 
LZW - Compressão e Descompressão
LZW - Compressão e Descompressão LZW - Compressão e Descompressão
LZW - Compressão e Descompressão
 
MaDKit
MaDKitMaDKit
MaDKit
 
UPPAAL
UPPAALUPPAAL
UPPAAL
 
Questionário Sobre Teste de Software
Questionário Sobre Teste de SoftwareQuestionário Sobre Teste de Software
Questionário Sobre Teste de Software
 
Questions About Software Testing
Questions About Software TestingQuestions About Software Testing
Questions About Software Testing
 
Modelo de Interface para um Prontuário Eletrônico
Modelo de Interface para um Prontuário EletrônicoModelo de Interface para um Prontuário Eletrônico
Modelo de Interface para um Prontuário Eletrônico
 
Queues and Hook Functions
Queues and Hook FunctionsQueues and Hook Functions
Queues and Hook Functions
 

Métodos Para Resolver Sistemas de Equações Lineares

  • 1. 1 Métodos Para Resolver Sistemas de Equações Lineares
  • 2. 2 SUMÁRIO 1. INTRODUÇÃO ........................................................................................................ 3 2. MÉTODO DE ELIMINAÇÃO DE GAUSS ............................................................ 5 3. DECOMPOSIÇÃO LU ............................................................................................ 8 3.1 Desenvolvimento do Método de Decomposição LU ...................................... 9 4. A FATORAÇÃO DE CHOLESKY ....................................................................... 10 5. REFERÊNCIAS BIBLIOGRÁFICAS ................................................................... 17
  • 3. 3 1. INTRODUÇÃO A resolução de sistemas de equações lineares e o cálculo de determinantes são dois exemplos de problemas fundamentais da álgebra linear que foram estudados desde longa data. Leibniz encontrou em 1693 a fórmula para o cálculo de determinantes, e em 1750 Cramer apresentou um método para resolver sistemas de equações lineares, conhecida desde então como a Regra de Cramer, primeira pedra na construção da álgebra linear e da teoria das matrizes. No início da evolução dos computadores digitais, o cálculo matricial recebeu a atenção merecida. John von Neumann e Alan Turing eram os pioneiros mundialmente famosos da ciência da computação, e introduziram contribuições notáveis para o desenvolvimento da álgebra linear computacional. Em1947, Von Neumann e Goldstein pesquisaram os efeitos dos erros de arredondamento na resolução de equações lineares. Um ano depois, Turing iniciou um método para decompor uma matriz num produto de uma matriz triangular inferior com uma matriz escalonada (conhecida como decomposição LU). Hoje, a álgebra linear computacional é uma área de muito interesse. Isto é devido ao fato que este campo está reconhecido agora como uma ferramenta absolutamente essencial em muitas das aplicações computacionais que requerem cálculos longos e difíceis de desenvolver manualmente, como por o exemplo: em gráficos de computador, em modelagem geométrica, em robótica, etc. [1]. Antes de iniciarmos um estudo sobre os métodos diretos que são utilizados para encontrar a solução exata para um sistema de Equações Algébricas Lineares, iremos relembrar alguns conceitos relevantes ao tema deste trabalho. Para começar vamos falar um pouco sobre os sistemas de equações lineares. Tais sistemas aparecem frequentemente em matemática aplicada, economia e engenharia ao modelar certos fenômenos. Por exemplo, em programação linear, geralmente é discutido como maximizar o lucro quando existem certas restrições relacionadas à dificuldade, disponibilidade de tempo, ou outras condições. Estas restrições podem ser colocadas na forma de um sistema de equações lineares [2]. Deste modo, um sistema de equações lineares (ou sistema linear) é uma coleção de equações lineares envolvendo o mesmo conjunto de variáveis. A solução de um sistema linear é uma n-upla de valores s = (s1,s2,....,sn) que simultaneamente satisfazem todas as
  • 4. 4 equações do sistema [2]. Observando a Figura 1 podemos visualizar a interseção dos planos formada pela solução de um sistema: Figura 1 - Cada equação de um sistema linear em três variáveis determina um plano. Uma solução do sistema corresponde a um ponto na interseção desses planos. A solução para os sistemas de Equações Algébricas Lineares é obtida a partir de técnicas diretas e iterativas estas técnicas são implementadas através de dois métodos: métodos diretos e métodos iterativos. Neste trabalho iremos tratar apenas dos métodos diretos. Os métodos diretos se caracterizam por uma sequência de operações (quantidade definida de operações), depois da qual se obtém a solução do sistema. No presente trabalho iremos trabalhar apenas com os métodos diretos de Eliminação de Gauss, Decomposição LU e Fatoração de Cholesky. O trabalho esta dividido da seguinte forma: nos Capítulos 2, 3 e 4 teremos uma revisão bibliográfica sobre os métodos de Eliminação de Gauss, Decomposição LU e Fatoração de Cholesky respectivamente.
  • 5. 5 2. MÉTODO DE ELIMINAÇÃO DE GAUSS Em um sistema linear formado por um par de equações, o processo para descobrir as duas incógnitas consiste em isolar uma delas e substituir na outra equação, eliminando assim, uma das incógnitas. Para um sistema maior, podemos estender a abordagem para um número maior de equações através do método conhecido como “Eliminação de Gauss”, que basicamente manipula algumas variáveis, a fim de gerar uma eliminação ao longo da execução, ao tempo que vai substituindo regressivamente nas equações originais, a fim de obter a solução final. Sendo assim, o sistema geral que iremos estudar é formado por um conjunto arbitrário de equações tais que: (Equação 2.1) (Equação 2.2) (Equação 2.3) Entre os métodos computacionais temos que o processo de diagonalização de matrizes é uma técnica-chave para solução de sistemas lineares. Sendo assim, a primeira fase da eliminação de Gauss está em reduzir a matriz dos coeficientes para uma matriz triangular-superior, eliminando da primeira variável em todas as equações diferentes de . Para isso, vamos multiplicar a Equação 1 por . Com isso, obtemos
  • 6. 6 (Equação 2.4) Agora, subtraímos a Equação 4 da Equação 2, O que nos permite obter (Equação 2.5) substituindo cada termo dentro dos parênteses por um novo , onde , temos que a Equação 5 pode ser escrita como (Equação 2.6) onde. Assim como fizemos com a segunda linha do sistema, repetimos o processo para as demais equações. Ou seja, multiplicamos pela Equação 1 e subtraímos o resultado da equação 3, e continuamos o processo até a última equação [3]. No processo de eliminação, o termo é conhecido como “pivô”, e a multiplicação de cada linha pelo elemento é denominada “normalização”. Portanto, podemos notar que o pivô nulo é um problema no processo de normalização, já que provoca uma divisão por zero. Por isso, em implementações reais, devemos utilizar algumas técnicas de “re-normalização” para eliminarmos o pivô nulo do processo [3]. Após a primeira eliminação o sistema linear modificado ficará: (Equação 2.7)
  • 7. 7 (Equação 2.8) (Equação 2.9) Agora, repetimos o mesmo processo de eliminação, mas tomando como coeficiente de normalização como sendo , aplicando-o à todas equações a partir da terceira. Este processo deve continuar usando os pivôs obtidos nas equações remanescentes. Ou seja, repetimos o pivotamento e normalização descritas para até a equação , eliminando até o termo da equação [3]. Com isso, obteremos o sistema triangular a seguir: (Equação 2.10) (Equação 2.11) (Equação 2.12) (Equação 2.13) A partir do sistema triangular, a solução é facilmente obtida, a começar por xn :
  • 8. 8 (Equação 2.14) substituindo esse resultado na equação anterior, isto é, na equação , cuja dependência está apenas nas variáveis e , podemos determinar também . Esse processo de ir substituindo as incógnitas já encontradas nas equações anteriores chamaremos de backtrack. A partir dele, encontramos todos pela da fórmula [3]: (Equação 2.15) para [3]. 3. DECOMPOSIÇÃO LU Um sistema linear do tipo: (Equação 3.1) (Equação 3.2) (Equação 3.3) pode ser representado na seguinte forma matricial:
  • 9. 9 onde é a matriz formada pelos coeficientes , é o vetor formado pelas variáveis a serem determinadas e é o vetor dos termos independentes [4]. Para determinação das incógnitas, o método da eliminação de Gauss desenvolve duas fases: a primeira é a eliminação progressiva, onde reduz o número de variáveis ao longo da execução para, então, aplicar a segunda fase, chamada de substituição regressiva, onde utiliza o resultado da primeira para determinar a solução geral do sistema [4]. Dois passos descritos, o primeiro é o que consome mais tempo de cálculo, uma vez que é nesta fase que consiste o maior número de operações aritméticas e de trocas de dados. Por isso, encontrar um método que minimize esta fase crítica implica em aumentar o desempenho para realizar a tarefa de resolução de sistemas lineares [4]. Os métodos de decomposição LU consistem em separar a fase de eliminação da matriz dos coeficientes , que consomem maior tempo, das manipulações envolvidas com o vetor dos termos independentes, . Portanto, devemos deixar claro que, ao contrário da eliminação de Gauss, uma decomposição de LU é uma estratégia de melhoria na resolução de sistemas lineares. Sendo assim, não existe “o método” de decomposição LU, mas sim algumas abordagens a serem tomadas que permitem decompor o sistema. Uma implicação interessante disso é que a própria eliminação de Gauss pode ser descrita como uma decomposição LU [4]. 3.1 Desenvolvimento do Método de Decomposição LU A equação pode ser reescrita como . Aplicando a eliminação de Gauss, sabemos que este sistema pode ser reescrito como uma matriz triangular superior na forma:
  • 10. 10 Esta notação matricial também pode ser usada da seguinte maneira: .Agora, vamos supor que existe uma matriz composta apenas pela formula triangular inferior, tal que O processo de decomposição LU consiste justamente de em decompor a matriz dos coeficientes em duas matrizes, onde a primeira está na forma triangular inferior (Low), enquanto a outra está na forma triangula superior (Upper). Sendo assim, para e , temos que (Equação 3.4) Agora, isolamos os termos dependentes de , temos que (Equação 3.5) E (Equação 3.6) desta forma, isolamos a dependência dos termos independentes da matriz dos coeficientes . Desta forma, também livramos as operações efetuadas sobre (agora ) de serem feitas em , diminuindo a demanda de recursos para resolução deste sistema [4]. 4. A FATORAÇÃO DE CHOLESKY A Fatoração de Cholesky expressa uma matriz simétrica como o produto,de uma matriz triangular (chamada de Fator de Cholesky) pela sua transposta , na
  • 11. 11 forma: (equação 4.1) onde será triangular superior. Sabendo-se que é simétrica quando seus elementos obedecem à uma formação para toda linha e coluna . Desta forma, a matriz será idêntica à sua transposta: . Matrizes com este tipo de formação fornecem algumas vantagens computacionais, pois favorecem a eficiência na solução de sistemas lineares, quando usados métodos adequados. Além disso, essa identidade permite a criação de algoritmos simples de criptografia e verificação de dados [5]. Uma vez que se identifica que uma matriz é simétrica, podemos utilizar a Equação (4.1) para gerar e a partir de . Ou seja, ao multiplicarmos e igualarmos seus termos, obtemos as seguintes relações: (Equação 4.2) onde . Além disso, o elemento da diagonal será obtido por (Equação 4.3) As expressões acima são obtidas como uma especificação da decomposição LU para o caso da matriz decomposta ser simétrica [5].
  • 12. 12 Exemplo de como resolver um sistema de Equações Algébricas Lineares utilizando o Método de Eliminação de Gauss: Questão: g1( k )  eg 2k )  2 g 3k )  3 g 4k )  11 ( ( ( 3  2 g1( k )  eg 2k )  e 2 g 3k )  g 4k )  0 ( ( ( 7 5 g1( k )  6 g 2k )  g 3k )  2 g 4k )   ( ( ( 1  2 g1( k )  e 2 g 2k )  7 g 3k )  g 4k )  2 ( ( ( 9 Escrever a matriz expandida para a etapa (L=0)  e 2  3  11  a11 ) (0  a12 )  a13 )  a14 )   (0 (0 (0   ( 0)   2 e  e2 3  0   a 22)  a 23)  a 24)      (0 (0 (0 a 21 7 A , b   ( 0) 0 0   a31  a32)  a33)  a34)   5  6 1 (0 (0 (0   2  a 41)  (0  a 42)  a 43)  a 44)   2 (0 (0 (0   1  e2  7  2  9  1º)Passo: Definições das multiplicadores e das linhas para a etapa (L=1) a21) (0 m21)  (1    3,1414 a11 ) (0 a31) (0 5 m31)  (1   0,7118 (0) a11  a41) (0 m41)  (1    3,1414 a11 ) (0 L11)  L10) ; L(21)  L(20)  m21) L10) ; L(31)  L(30)  m31) L10) ; L(41)  L(40)  m41) L1 ( ( (1 ( (1 ( (1 0 * L(21)
  • 13. 13 a22)  a22)  m21) * a12 ) (1 (0 (1 (0 a22)  2,7171  3,1414 * (2,7171)  11,2526 (1 a23)  a23)  m21) * a13 ) (1 (0 (1 (0 a23)  (2,7171) 2  3,1414 * 1,4142  11,8252 (1 a24)  a24)  m21) * a14 ) (1 (0 (1 (0 a24)  0,4286  3,1414 * (1,73)  5,8697 (1 b21)  b20 )  m21) * b1( 0 ) ( ( (1 b21)  0  3,1414 * 3,3166  10,4188 ( * L(31) a32)  a32)  m31) * a12 ) (1 (0 (1 (0 a32)  2,4495 - 0,7118 * (-2,7171)  - 0,5155 (1 a33)  a33)  m31) * a13 ) (1 (0 (1 (0 a33)  1  0,7118 * 1,4142  0,0066 (1 a34)  a34)  m31) * a14 ) (1 (0 (1 (0 a34)  1,4142  1,2328  0,1813 (1 b3(1)  b3( 0 )  m21) * b1( 0 ) (1 b3(1)  3,1414  2,3607  0,7806 * L(41)
  • 14. 14 a42)  a42)  m31) * a12 ) (1 (0 (1 (0 a42)  (2,7171) 2 - 3,1414 * (-2,7171)  15,9181 (1 a43)  a43)  m31) * a13 ) (1 (0 (1 (0 a43)  2,6445  4,4426  7,0871 (1 a44)  a44)  m31) * a14 ) (1 (0 (1 (0 a44)  5,5457 (1 b41)  b40 )  m21) * b1( 0 ) ( ( (1 b41)  1,4142  10,4188  9,0046 ( 3,1414  2,7171 1,4142  1,7320  3,3166 0,0000  11,8252 5,8697   10,4188   A1 , b1   0,0000 11,2526  0,5153  0,0066  0,1813  0,7806     0,0000 15,9180  7,0871 5,5457  9,0046  2º) Passo: Definições das multiplicadores e das linhas para a etapa (L=2) a32) (1 m32)  (2  0,0458 a22) (1 a42) (1 m42)  (1  1,4148 a22) (1 L1  L11) ; L(22)  L(21) ; L(32)  L(31)  m32) L(21) ; L(42)  L(41)  m42) L12 2 ( (2 (1 a33)  a33)  m32) * a23) (2 (1 (2 (1 a33)  0,0066  (0,0458)(11,8252)  0,5350 (2 a34)  a34)  m32) * a24) (2 (1 (2 (1 a34)  0,0869 (2 b3( 2)  b3(1)  m32) * b21) (1 ( b3( 2)  1,2567
  • 15. 15 a43)  a43)  m42) * a23) (2 (1 (2 (1 a43)  9,6408 (2 a44)  a44)  m42) * a24) (2 (1 (2 (1 a44)  13,6328 (2 b42 )  b41)  m42) * b21) ( ( (1 ( b42 )  23,7430 ( 3,1414  2,7171 1,4142  1,7320   3,3166 0 ,0000  11,8252   10,4188   A2 , b 2   0,0000 11,2525 0,0000 5,8695 0,5350 0,0869   1,2567     0 ,0000 0,0000 9,6432  13,6328  23,7450  3º) Passo: Definições dos multiplicadores e linhas para a etapa (L=3) a43) (2 m43)  (3  17,99 a33) (2 L1  L10) ; L(23)  L(22) ; L(33)  L(32) ; L(43)  L(42)  m43) L2 3 ( (3 3 a44)  a44)  m43) * a34) (3 (2 (3 (2 a44)  12,0721 (3 b43)  b42 )  m43) * b3( 2 ) ( ( (3 b43)  1,1730 ( 3,1414  2,7171 1,4142  1,7320  3,3166  0,0000  11,8252   10,4188 A ,b   3 3  0,0000 11,2525 0,0000  0,5430 5,8695 0,0869   1,2567     0,0000 0,0000 0,0000  12,0721  1,1730  Então o sistema triangular superior é : 3,1414 g1( k )  2,7171g 2k )  1,4142 g 3k )  1,7320 g 4k )  3,3166 ( ( ( 11,2525 g 2k )  11,8252 g 3k )  5,8695 g 4k )  10,4188 ( ( (  0,5430 g 3k )  0,0869 g 4k )  1,2567 ( (  12,0721g 4k )  1,1730 (
  • 16. 16 As equações iterativas para asvariáveis decisórias g1( k ) g 2k ) g 3k ) g 4k ) já com os ( ( ( valores devidamente colocados são: g1( k 1)  g1( k )  1 3,1414   3,3166   2,7171g 2(k )  1,4142g3(k ) 1,7320g 4(k )  g 2k 1)  g 2k )  ( ( 1 11,2525   10,4188  11,8252g3(k )  5,8695g 4(k )    g 3k 1)  g 3k )   ( ( 1   1,2567  0,0869 g 4k )  (    0,5430   1,1730  g 4k 1)  g 4k )   ( ( ,   12,0721 Para k=0, toma-se como referência o sinal (t). g1( 01)  g1( 0)  1 3,1414   3,3166   2,7171g 20)  1,4142 g 30)  1,7320 g 40) ( ( (  g1(1)  1,5782 g 201)  g 20)  ( ( 1 11,2525    10,4188   11,8252 g 30)  5,8695 g 40) ( (  g 21)  0,9234 (  g 301)  g 30)   ( ( 1    1,2567  0,0869 g 40)  (    0,5430  g 3  3,2458 (1)  1,1730  g 401)  g 40)   ( ( ,   12,0899  g 41)  4,4598 (
  • 17. 17 5. REFERÊNCIAS BIBLIOGRÁFICAS [1] RUBÉN PANTA PAZOS. Aplicando a Matemática. Disponível em: rpanta.com/downloads/material/Gauss_01.PDF. Acesso em: 13 Out 2010. [2] WIKIPÉDIA. A Enciclopédia Livre. Disponível em: http://pt.wikibooks.org/wiki/%C3%81lgebra_linear/Sistemas_de_equa%C3%A7%C3% B5es_lineares . Acesso em: 13 Out 2010. [3] SAWP. Software Advice Working Party. Disponível em: http://www.sawp.com.br/blog/?p=577. Acesso em: 14 Out 2010. [4] SAWP. Software Advice Working Party. Disponível em: http://www.sawp.com.br/blog/?p=586. Acesso em: 14 Out 2010. [5] SAWP. Software Advice Working Party. Disponível em: http://www.sawp.com.br/blog/?p=604. Acesso em: 14 Out 2010.