Métodos Para Resolver Sistemas de Equações Lineares

56,892 views

Published on

Métodos de Eliminação de Gauss;
Método de Decomposição LU;
Método de Fatoração de Cholesky.

0 Comments
2 Likes
Statistics
Notes
  • Be the first to comment

No Downloads
Views
Total views
56,892
On SlideShare
0
From Embeds
0
Number of Embeds
101
Actions
Shares
0
Downloads
332
Comments
0
Likes
2
Embeds 0
No embeds

No notes for slide

Métodos Para Resolver Sistemas de Equações Lineares

  1. 1. 1Métodos Para Resolver Sistemas de Equações Lineares
  2. 2. 2 SUMÁRIO1. INTRODUÇÃO ........................................................................................................ 32. MÉTODO DE ELIMINAÇÃO DE GAUSS ............................................................ 53. DECOMPOSIÇÃO LU ............................................................................................ 8 3.1 Desenvolvimento do Método de Decomposição LU ...................................... 94. A FATORAÇÃO DE CHOLESKY ....................................................................... 105. REFERÊNCIAS BIBLIOGRÁFICAS ................................................................... 17
  3. 3. 3 1. INTRODUÇÃO A resolução de sistemas de equações lineares e o cálculo de determinantes são doisexemplos de problemas fundamentais da álgebra linear que foram estudados desdelonga data. Leibniz encontrou em 1693 a fórmula para o cálculo de determinantes, eem 1750 Cramer apresentou um método para resolver sistemas de equações lineares,conhecida desde então como a Regra de Cramer, primeira pedra na construção daálgebra linear e da teoria das matrizes. No início da evolução dos computadoresdigitais, o cálculo matricial recebeu a atenção merecida. John von Neumann e AlanTuring eram os pioneiros mundialmente famosos da ciência da computação, eintroduziram contribuições notáveis para o desenvolvimento da álgebra linearcomputacional. Em1947, Von Neumann e Goldstein pesquisaram os efeitos doserros de arredondamento na resolução de equações lineares. Um ano depois, Turinginiciou um método para decompor uma matriz num produto de uma matriz triangularinferior com uma matriz escalonada (conhecida como decomposição LU). Hoje, aálgebra linear computacional é uma área de muito interesse. Isto é devido ao fato queeste campo está reconhecido agora como uma ferramenta absolutamente essencial emmuitas das aplicações computacionais que requerem cálculos longos e difíceis dedesenvolver manualmente, como por o exemplo: em gráficos de computador, emmodelagem geométrica, em robótica, etc. [1]. Antes de iniciarmos um estudo sobre os métodos diretos que são utilizados paraencontrar a solução exata para um sistema de Equações Algébricas Lineares, iremosrelembrar alguns conceitos relevantes ao tema deste trabalho. Para começar vamos falar um pouco sobre os sistemas de equações lineares. Taissistemas aparecem frequentemente em matemática aplicada, economia e engenharia aomodelar certos fenômenos. Por exemplo, em programação linear, geralmente é discutidocomo maximizar o lucro quando existem certas restrições relacionadas à dificuldade,disponibilidade de tempo, ou outras condições. Estas restrições podem ser colocadas naforma de um sistema de equações lineares [2]. Deste modo, um sistema de equações lineares (ou sistema linear) é uma coleção deequações lineares envolvendo o mesmo conjunto de variáveis. A solução de um sistemalinear é uma n-upla de valores s = (s1,s2,....,sn) que simultaneamente satisfazem todas as
  4. 4. 4equações do sistema [2]. Observando a Figura 1 podemos visualizar a interseção dosplanos formada pela solução de um sistema: Figura 1 - Cada equação de um sistema linear em três variáveis determina um plano. Uma solução do sistema corresponde a um ponto na interseção desses planos. A solução para os sistemas de Equações Algébricas Lineares é obtida a partir detécnicas diretas e iterativas estas técnicas são implementadas através de dois métodos:métodos diretos e métodos iterativos. Neste trabalho iremos tratar apenas dos métodosdiretos. Os métodos diretos se caracterizam por uma sequência de operações (quantidadedefinida de operações), depois da qual se obtém a solução do sistema. No presentetrabalho iremos trabalhar apenas com os métodos diretos de Eliminação de Gauss,Decomposição LU e Fatoração de Cholesky. O trabalho esta dividido da seguinte forma: nos Capítulos 2, 3 e 4 teremos umarevisão bibliográfica sobre os métodos de Eliminação de Gauss, Decomposição LU eFatoração de Cholesky respectivamente.
  5. 5. 5 2. MÉTODO DE ELIMINAÇÃO DE GAUSS Em um sistema linear formado por um par de equações, o processo paradescobrir as duas incógnitas consiste em isolar uma delas e substituir na outra equação,eliminando assim, uma das incógnitas. Para um sistema maior, podemos estender a abordagem para um número maior deequações através do método conhecido como “Eliminação de Gauss”, que basicamentemanipula algumas variáveis, a fim de gerar uma eliminação ao longo da execução, aotempo que vai substituindo regressivamente nas equações originais, a fim de obter asolução final.Sendo assim, o sistema geral que iremos estudar é formado por um conjunto arbitráriode equações tais que:(Equação 2.1)(Equação 2.2)(Equação 2.3) Entre os métodos computacionais temos que o processo de diagonalização dematrizes é uma técnica-chave para solução de sistemas lineares. Sendo assim, a primeirafase da eliminação de Gauss está em reduzir a matriz dos coeficientes para uma matriztriangular-superior, eliminando da primeira variável em todas as equações diferentes de . Para isso, vamos multiplicar a Equação 1 por . Com isso, obtemos
  6. 6. 6(Equação 2.4) Agora, subtraímos a Equação 4 da Equação 2, O que nos permite obter(Equação 2.5)substituindo cada termo dentro dos parênteses por um novo , onde , temosque a Equação 5 pode ser escrita como(Equação 2.6)onde. Assim como fizemos com a segunda linha do sistema, repetimos o processo para asdemais equações. Ou seja, multiplicamos pela Equação 1 e subtraímos o resultadoda equação 3, e continuamos o processo até a última equação [3]. No processo de eliminação, o termo é conhecido como “pivô”, e a multiplicaçãode cada linha pelo elemento é denominada “normalização”. Portanto, podemosnotar que o pivô nulo é um problema no processo de normalização, já que provoca umadivisão por zero. Por isso, em implementações reais, devemos utilizar algumas técnicasde “re-normalização” para eliminarmos o pivô nulo do processo [3]. Após a primeira eliminação o sistema linear modificado ficará:(Equação 2.7)
  7. 7. 7(Equação 2.8)(Equação 2.9)Agora, repetimos o mesmo processo de eliminação, mas tomando como coeficiente denormalização como sendo , aplicando-o à todas equações a partir da terceira. Esteprocesso deve continuar usando os pivôs obtidos nas equações remanescentes. Ou seja,repetimos o pivotamento e normalização descritas para até a equação ,eliminando até o termo da equação [3]. Com isso, obteremos o sistematriangular a seguir:(Equação 2.10)(Equação 2.11)(Equação 2.12)(Equação 2.13)A partir do sistema triangular, a solução é facilmente obtida, a começar por xn :
  8. 8. 8(Equação 2.14)substituindo esse resultado na equação anterior, isto é, na equação , cujadependência está apenas nas variáveis e , podemos determinar também .Esse processo de ir substituindo as incógnitas já encontradas nas equações anterioreschamaremos de backtrack. A partir dele, encontramos todos pela da fórmula [3]:(Equação 2.15)para [3]. 3. DECOMPOSIÇÃO LUUm sistema linear do tipo:(Equação 3.1)(Equação 3.2)(Equação 3.3)pode ser representado na seguinte forma matricial:
  9. 9. 9onde é a matriz formada pelos coeficientes , é o vetor formadopelas variáveis a serem determinadas e é o vetor dos termosindependentes [4]. Para determinação das incógnitas, o método da eliminação de Gauss desenvolveduas fases: a primeira é a eliminação progressiva, onde reduz o número de variáveis aolongo da execução para, então, aplicar a segunda fase, chamada de substituiçãoregressiva, onde utiliza o resultado da primeira para determinar a solução geral dosistema [4]. Dois passos descritos, o primeiro é o que consome mais tempo de cálculo, uma vezque é nesta fase que consiste o maior número de operações aritméticas e de trocas dedados. Por isso, encontrar um método que minimize esta fase crítica implica emaumentar o desempenho para realizar a tarefa de resolução de sistemas lineares [4]. Os métodos de decomposição LU consistem em separar a fase de eliminação damatriz dos coeficientes , que consomem maior tempo, das manipulações envolvidascom o vetor dos termos independentes, . Portanto, devemos deixar claro que, aocontrário da eliminação de Gauss, uma decomposição de LU é uma estratégia demelhoria na resolução de sistemas lineares. Sendo assim, não existe “o método” dedecomposição LU, mas sim algumas abordagens a serem tomadas que permitemdecompor o sistema. Uma implicação interessante disso é que a própria eliminação deGauss pode ser descrita como uma decomposição LU [4]. 3.1 Desenvolvimento do Método de Decomposição LUA equação pode ser reescrita como . Aplicando a eliminaçãode Gauss, sabemos que este sistema pode ser reescrito como uma matriz triangularsuperior na forma:
  10. 10. 10 Esta notação matricial também pode ser usada da seguinte maneira:.Agora, vamos supor que existe uma matriz composta apenas pela formula triangularinferior, tal que O processo de decomposição LU consiste justamente de em decompor a matrizdos coeficientes em duas matrizes, onde a primeira está na forma triangular inferior(Low), enquanto a outra está na forma triangula superior (Upper). Sendo assim, parae , temos que(Equação 3.4) Agora, isolamos os termos dependentes de , temos que(Equação 3.5) E(Equação 3.6)desta forma, isolamos a dependência dos termos independentes da matriz doscoeficientes . Desta forma, também livramos as operações efetuadas sobre (agora ) de serem feitas em , diminuindo a demanda de recursos para resolução destesistema [4]. 4. A FATORAÇÃO DE CHOLESKY A Fatoração de Cholesky expressa uma matriz simétrica como o produto,deuma matriz triangular (chamada de Fator de Cholesky) pela sua transposta , na
  11. 11. 11forma:(equação 4.1)onde será triangular superior. Sabendo-se que é simétrica quando seus elementos obedecem à uma formação para toda linha e coluna . Desta forma, a matriz será idêntica à suatransposta: . Matrizes com este tipo de formação fornecem algumas vantagenscomputacionais, pois favorecem a eficiência na solução de sistemas lineares, quandousados métodos adequados. Além disso, essa identidade permite a criação de algoritmossimples de criptografia e verificação de dados [5]. Uma vez que se identifica que uma matriz é simétrica, podemos utilizar aEquação (4.1) para gerar e a partir de . Ou seja, ao multiplicarmos e igualarmosseus termos, obtemos as seguintes relações:(Equação 4.2)onde . Além disso, o elemento da diagonal será obtido por(Equação 4.3)As expressões acima são obtidas como uma especificação da decomposição LU para ocaso da matriz decomposta ser simétrica [5].
  12. 12. 12 Exemplo de como resolver um sistema de Equações Algébricas Lineares utilizando oMétodo de Eliminação de Gauss:Questão:g1( k )  eg 2k )  2 g 3k )  3 g 4k )  11 ( ( ( 3 2 g1( k )  eg 2k )  e 2 g 3k )  g 4k )  0 ( ( ( 7 5 g1( k )  6 g 2k )  g 3k )  2 g 4k )   ( ( ( 1 2 g1( k )  e 2 g 2k )  7 g 3k )  g 4k )  2 ( ( ( 9Escrever a matriz expandida para a etapa (L=0)  e 2  3  11  a11 ) (0  a12 )  a13 )  a14 )   (0 (0 (0   ( 0)   2 e  e2 3  0   a 22)  a 23)  a 24)     (0 (0 (0 a 21 7 A , b   ( 0) 0 0   a31  a32)  a33)  a34)   5  6 1 (0 (0 (0   2  a 41)  (0  a 42)  a 43)  a 44)   2 (0 (0 (0   1  e2  7  2  9 1º)Passo: Definições das multiplicadores e das linhas para a etapa (L=1) a21) (0m21)  (1    3,1414 a11 ) (0 a31) (0 5m31)  (1   0,7118 (0) a11  a41) (0m41)  (1    3,1414 a11 ) (0L11)  L10) ; L(21)  L(20)  m21) L10) ; L(31)  L(30)  m31) L10) ; L(41)  L(40)  m41) L1 ( ( (1 ( (1 ( (1 0* L(21)
  13. 13. 13a22)  a22)  m21) * a12 ) (1 (0 (1 (0a22)  2,7171  3,1414 * (2,7171)  11,2526 (1a23)  a23)  m21) * a13 ) (1 (0 (1 (0a23)  (2,7171) 2  3,1414 * 1,4142  11,8252 (1a24)  a24)  m21) * a14 ) (1 (0 (1 (0a24)  0,4286  3,1414 * (1,73)  5,8697 (1b21)  b20 )  m21) * b1( 0 ) ( ( (1b21)  0  3,1414 * 3,3166  10,4188 (* L(31)a32)  a32)  m31) * a12 ) (1 (0 (1 (0a32)  2,4495 - 0,7118 * (-2,7171)  - 0,5155 (1a33)  a33)  m31) * a13 ) (1 (0 (1 (0a33)  1  0,7118 * 1,4142  0,0066 (1a34)  a34)  m31) * a14 ) (1 (0 (1 (0a34)  1,4142  1,2328  0,1813 (1b3(1)  b3( 0 )  m21) * b1( 0 ) (1b3(1)  3,1414  2,3607  0,7806* L(41)
  14. 14. 14a42)  a42)  m31) * a12 ) (1 (0 (1 (0a42)  (2,7171) 2 - 3,1414 * (-2,7171)  15,9181 (1a43)  a43)  m31) * a13 ) (1 (0 (1 (0a43)  2,6445  4,4426  7,0871 (1a44)  a44)  m31) * a14 ) (1 (0 (1 (0a44)  5,5457 (1b41)  b40 )  m21) * b1( 0 ) ( ( (1b41)  1,4142  10,4188  9,0046 ( 3,1414  2,7171 1,4142  1,7320  3,3166 0,0000  11,8252 5,8697   10,4188   A1 , b1   0,0000 11,2526  0,5153  0,0066  0,1813  0,7806     0,0000 15,9180  7,0871 5,5457  9,0046 2º) Passo: Definições das multiplicadores e das linhas para a etapa (L=2) a32) (1m32)  (2  0,0458 a22) (1 a42) (1m42)  (1  1,4148 a22) (1 L1  L11) ; L(22)  L(21) ; L(32)  L(31)  m32) L(21) ; L(42)  L(41)  m42) L12 2 ( (2 (1 a33)  a33)  m32) * a23) (2 (1 (2 (1 a33)  0,0066  (0,0458)(11,8252)  0,5350 (2 a34)  a34)  m32) * a24) (2 (1 (2 (1 a34)  0,0869 (2 b3( 2)  b3(1)  m32) * b21) (1 ( b3( 2)  1,2567
  15. 15. 15 a43)  a43)  m42) * a23) (2 (1 (2 (1 a43)  9,6408 (2 a44)  a44)  m42) * a24) (2 (1 (2 (1 a44)  13,6328 (2 b42 )  b41)  m42) * b21) ( ( (1 ( b42 )  23,7430 ( 3,1414  2,7171 1,4142  1,7320   3,3166 0 ,0000  11,8252   10,4188   A2 , b 2   0,0000 11,2525 0,0000 5,8695 0,5350 0,0869   1,2567     0 ,0000 0,0000 9,6432  13,6328  23,7450 3º) Passo: Definições dos multiplicadores e linhas para a etapa (L=3) a43) (2 m43)  (3  17,99 a33) (2 L1  L10) ; L(23)  L(22) ; L(33)  L(32) ; L(43)  L(42)  m43) L2 3 ( (3 3 a44)  a44)  m43) * a34) (3 (2 (3 (2 a44)  12,0721 (3 b43)  b42 )  m43) * b3( 2 ) ( ( (3 b43)  1,1730 ( 3,1414  2,7171 1,4142  1,7320  3,3166  0,0000  11,8252   10,4188 A ,b   3 3  0,0000 11,2525 0,0000  0,5430 5,8695 0,0869   1,2567     0,0000 0,0000 0,0000  12,0721  1,1730  Então o sistema triangular superior é : 3,1414 g1( k )  2,7171g 2k )  1,4142 g 3k )  1,7320 g 4k )  3,3166 ( ( ( 11,2525 g 2k )  11,8252 g 3k )  5,8695 g 4k )  10,4188 ( ( (  0,5430 g 3k )  0,0869 g 4k )  1,2567 ( (  12,0721g 4k )  1,1730 (
  16. 16. 16 As equações iterativas para asvariáveis decisórias g1( k ) g 2k ) g 3k ) g 4k ) já com os ( ( (valores devidamente colocados são: g1( k 1)  g1( k )  1 3,1414   3,3166   2,7171g 2(k )  1,4142g3(k ) 1,7320g 4(k )  g 2k 1)  g 2k )  ( ( 1 11,2525   10,4188  11,8252g3(k )  5,8695g 4(k )    g 3k 1)  g 3k )   ( ( 1   1,2567  0,0869 g 4k )  (    0,5430   1,1730  g 4k 1)  g 4k )   ( ( ,   12,0721Para k=0, toma-se como referência o sinal (t). g1( 01)  g1( 0)  1 3,1414   3,3166   2,7171g 20)  1,4142 g 30)  1,7320 g 40) ( ( (  g1(1)  1,5782 g 201)  g 20)  ( ( 1 11,2525    10,4188   11,8252 g 30)  5,8695 g 40) ( (  g 21)  0,9234 (  g 301)  g 30)   ( ( 1    1,2567  0,0869 g 40)  (    0,5430  g 3  3,2458 (1)  1,1730  g 401)  g 40)   ( ( ,   12,0899  g 41)  4,4598 (
  17. 17. 17 5. REFERÊNCIAS BIBLIOGRÁFICAS[1] RUBÉN PANTA PAZOS. Aplicando a Matemática. Disponível em:rpanta.com/downloads/material/Gauss_01.PDF. Acesso em: 13 Out 2010.[2] WIKIPÉDIA. A Enciclopédia Livre. Disponível em:http://pt.wikibooks.org/wiki/%C3%81lgebra_linear/Sistemas_de_equa%C3%A7%C3%B5es_lineares . Acesso em: 13 Out 2010.[3] SAWP. Software Advice Working Party. Disponível em:http://www.sawp.com.br/blog/?p=577. Acesso em: 14 Out 2010.[4] SAWP. Software Advice Working Party. Disponível em:http://www.sawp.com.br/blog/?p=586. Acesso em: 14 Out 2010.[5] SAWP. Software Advice Working Party. Disponível em:http://www.sawp.com.br/blog/?p=604. Acesso em: 14 Out 2010.

×