Unidad 6 metodos

1,063 views
931 views

Published on

0 Comments
0 Likes
Statistics
Notes
  • Be the first to comment

  • Be the first to like this

No Downloads
Views
Total views
1,063
On SlideShare
0
From Embeds
0
Number of Embeds
2
Actions
Shares
0
Downloads
16
Comments
0
Likes
0
Embeds 0
No embeds

No notes for slide

Unidad 6 metodos

  1. 1. Unidad 6Solución de sistemas de ecuaciones no linealesPuesto que, como se acaba de señalar, los métodos que abordaremos serán de tipo iterativoy en ellos se generara una sucesión de vectores que, en el mejor de los casos, se vayanaproximando hacia un vector solución, conviene comenzar recordando algunos conceptossobre sucesiones. En este sentido, en primer lugar, nos ubicaremos en conjuntos sobre losque se haya de finido una forma de medir la distancia entre sus elementos (esto es en unespacio métrico (E, d)). En este espacio métrico comenzamos recordando la siguiente definición:Dada una sucesión infinita de elementos {xi}∞i=1del espacio métrico (E, d) se dice que lasucesión es convergente hacia el elemento x∗∈E, si para cualquier valor ε > 0 siempre sepuede encontrar un numero natural N tal que para todo ´índice n > N se verifica que d(xn,x∗) < ε. Al elemento x∗ anterior se le denomina, si existe, límite de la sucesión {xi}∞i=1Dada una sucesión infinita de elementos {xi}∞i=1 del espacio métrico (E, d) se dice que lasucesión es una sucesión de Cauchy, si para cualquier valor ε > 0 siempre se puedeencontrar un número natural N tal que para todo par de ´índices n > N y m > N se verificaque d(xn, xm) < ε.
  2. 2. Método de JacobiEn análisis numérico el método de Jacobi es un método iterativo, usado para resolversistemas de ecuaciones lineales del tipo . El algoritmo toma su nombre delmatemático alemán Carl Gustav Jakob Jacobi. El método de Jacobi consiste en usarfórmulas como iteración de punto fijo.La sucesión se construye descomponiendo la matriz del sistema en la forma siguiente:donde , es una matriz diagonal. , es una matriz triangular inferior. , es una matriz triangular superior.Partiendo de , podemos reescribir dicha ecuación como:Luego,Si aii ≠ 0 para cada i. Por la regla iterativa, la definición del Método de Jacobi puede serexpresado de la forma:donde es el contador de iteración, Finalmente tenemos:Cabe destacar que al calcular xi(k+1) se necesitan todos los elementos en x(k), excepto el quetenga el mismo i. Por eso, al contrario que en el método Gauss-Seidel, no se puedesobreescribir xi(k) con xi(k+1), ya que su valor será necesario para el resto de los cálculos. Estaes la diferencia más significativa entre los métodos de Jacobi y Gauss-Seidel. La cantidadmínima de almacenamiento es de dos vectores de dimensión n, y será necesario realizar uncopiado explícito
  3. 3. Convergenciaes la condición necesaria y suficiente para la convergencia, siendo R = L + U. No esnecesario que los elementos de la diagonal en la matriz sean mayores (en magnitud) que losotros elementos (la matriz es diagonalmente dominante), pero en el caso de serlo, la matrizconvergeAlgoritmoEl método de Jacobi se puede escribir en forma de algoritmo de la siguiente manera:Algoritmo Método de Jacobifunción Jacobi ( , ) // es una aproximación inicial a la solución// para hasta convergencia hacer para hasta hacer para hasta hacer si entonces fin para fin para comprobar si se alcanza convergencia fin para
  4. 4. EjemploUn sistema linear de la forma con una estimación inicial esta dado porUsamos la ecuación , descrita anteriormente, para estimar . Primero, reescribimos la ecuación de una manera mas conveniente , donde y . vea que donde y son las partes inferior y superior de . de los valoresconocidos.determinamos comoC es encontrada comocon T y C calculadas, estimaremos como :siguientes iteraciones.
  5. 5. este proceso se repetirá hasta que converja (i.e., hasta que es menor). lasolución después de 25 iteraciones es:Método de Gauss-SeidelEn análisis numérico el método de Gauss-Seidel es un método iterativo utilizado pararesolver sistemas de ecuaciones lineales. El método se llama así en honor a los matemáticosalemanes Carl Friedrich Gauss y Philipp Ludwig von Seidel y es similar al método deJacobi.Aunque este método puede aplicarse a cualquier sistema de ecuaciones lineales queproduzca una matriz (cuadrada, naturalmente pues para que exista solución única, elsistema debe tener tantas ecuaciones como incógnitas) de coeficientes con los elementos desu diagonal no-nulos, la convergencia del método solo se garantiza si la matriz esdiagonalmente dominante o si es simétrica y, a la vez, definida positiva.DescripciónEs un método iterativo, lo que significa que se parte de una aproximación inicial y se repiteel proceso hasta llegar a una solución con un margen de error tan pequeño como se quiera.Buscamos la solución a un sistema de ecuaciones lineales, en notación matricial:donde:
  6. 6. }El método de iteración Gauss-Seidel se computa, para la iteración :dondedefinimosy ,donde los coeficientes de la matriz N se definen como si , si .Considerando el sistema con la condición de que .Entonces podemos escribir la fórmula de iteración del método (*)La diferencia entre este método y el de Jacobi es que, en este último, las mejoras a lasaproximaciones no se utilizan hasta completar las iteracionesConvergenciaTeorema: Suponga una matriz es una matriz no singular quecumple la condición de ó .Entonces el método de Gauss-Seidel converge a una solución del sistema deecuaciones, y la convergencia es por lo menos tan rápida como la convergencia delmétodo de Jacobi.Para ver los casos en que converge el método primero mostraremos que se puede escribirde la siguiente forma:
  7. 7. (**)(el término es la aproximación obtenida después de la k-ésima iteración) este modo deescribir la iteración es la forma general de un método iterativo estacionario.Primeramente debemos demostrar que el problema lineal que queremos resolverse puede representar en la forma (**), por este motivo debemos tratar de escribir la matrizA como la suma de una matriz triangular inferior, una diagonal y una triangular superiorA=(L+D+U), D=diag( ). Haciendo los despejes necesarios escribimos el método de estaformapor lo tanto M=-(L+D)-1 U y c=(L+D)-1bAhora podemos ver que la relación entre los errores, el cuál se puede calcular al substraerx=Bx+c de (**)Supongamos ahora que , i= 1, ..., n, son los valores propios que corresponden a losvectores propios , i= 1,..., n, los cuales son linealmente independientes, entoncespodemos escribir el error inicial (***)Por lo tanto la iteración converge si y sólo si | λi|<1, i= 1, ..., n. De este hecho se desprendeel siguiente teorema:Teorema: Una condición suficiente y necesaria para que un método iterativoestacionario converja para una aproximación arbitrariax^{(0)} es quedonde ρ(M) es el radio espectral de M.
  8. 8. ExplicaciónSe elige una aproximación inicial para .Se calculan las matrices M y el vector c con las fórmulas mencionadas. El proceso se repitehasta que sea lo suficientemente cercano a , donde k representa el número depasos en la iteración.Se tiene que despejar de la ecuacion una de variable distinta ydeterminante.Si al sumar los coeficientes de las variables divididos entre si da 1 y -1 es másprobable que el despeje funcione. Y se debe de despejar en cada ecuacion una variabledistinta, una forma de encontrar que variable despejar es despejando la variable que tengael mayor coeficiente.Ejemplos:3x-y+z=1x-5y+z=8x-y+4z=11Despejes:x=(1+y-z)/3 y=(8-x-z)/-5 z=(11-x+y)/4Despues se necesita iniciar con las iteraciones,el valor inicial no es importante loimportante es usar las iteraciones necesarias, para darte cuenta cuantas iteraciones sonnecesarias necesitas observar cuando los decimales se estabilicen en dos decimales pero setiene que tener en cuenta que se tiene que seguir con las iteraciones aunque una de lasvariables sea estable si las démas no han llegado al valor buscado. Se sustituye los valoresen los despejes, usando para cada despeje el nuevo valor encontrado. k x Y z0 0 0 01 0.333 -1.600 2.7502 -1.117 -0.983 2.2673 -0.750 -1.370 2.7834 -1.051 -1.193 2.595... ... ... ...10 -0.982 -1.259 2.67911 -0.979 -1.261 2.68112 -0.980 -1.260 2.68013 -0.980 -1.260 2.680 -0.980 -1.260 2.680
  9. 9. Método de NewtonEn análisis numérico, el método de Newton (conocido también como el método deNewton-Raphson o el método de Newton-Fourier) es un algoritmo eficiente paraencontrar aproximaciones de los ceros o raíces de una función real. También puede serusado para encontrar el máximo o mínimo de una función, encontrando los ceros de suprimera derivada.Descripción del métodoEl método de Newton-Raphson es un método abierto,en el sentido de que su convergencia global no estágarantizada. La única manera de alcanzar laconvergencia es seleccionar un valor inicial losuficientemente cercano a la raíz buscada. Así, se hade comenzar la iteración con un valor razonablementecercano al cero (denominado punto de arranque ovalor supuesto). La relativa cercanía del punto inicial ala raíz depende mucho de la naturaleza de la propiafunción; si ésta presenta múltiples puntos de inflexióno pendientes grandes en el entorno de la raíz, entonceslas probabilidades de que el algoritmo diverjaaumentan, lo cual exige seleccionar un valor supuestocercano a la raíz. Una vez que se ha hecho esto, el método linealiza la función por la rectatangente en ese valor supuesto. La abscisa en el origen de dicha recta será, según el método,una mejor aproximación de la raíz que el valor anterior. Se realizarán sucesivas iteracioneshasta que el método haya convergido lo suficiente. f(x)= 0 Sea f : [a, b] -> R funciónderivable definida en el intervalo real [a, b]. Empezamos con un valor inicial x0 y definimospara cada número natural nDonde f denota la derivada de f.Nótese que el método descrito es de aplicación exclusiva para funciones de una solavariable con forma analítica o implícita conocible. Existen variantes del método aplicablesa sistemas discretos que permiten estimar las raíces de la tendencia, así como algoritmosque extienden el método de Newton a sistemas multivariables, sistemas de ecuaciones, etc.
  10. 10. Obtención del AlgoritmoTres son las formas principales por las que tradicionalmente se ha obtenido el algoritmo deNewton-Raphson.La primera de ellas es una simple interpretación geométrica. En efecto, atendiendo aldesarrollo geométrico del método de la secante, podría pensarse en que si los puntos deiteración están lo suficientemente cerca (a una distancia infinitesimal), entonces la secantese sustituye por la tangente a la curva en el punto. Así pues, si por un punto de iteracióntrazamos la tangente a la curva, por extensión con el método de la secante, el nuevo puntode iteración se tomará como la abscisa en el origen de la tangente (punto de corte de latangente con el eje X). Esto es equivalente a linealizar la función, es decir, f se reemplazapor una recta tal que contiene al punto ( , ( )) y cuya pendiente coincide con laderivada de la función en el punto, . La nueva aproximación a la raíz, , se lograla intersección de la función lineal con el eje X de abscisas. Matemáticamente:En la ilustración adjunta del método de Newton se puede ver que es una mejoraproximación que para el cero (x) de la función f.Una forma alternativa de obtener el algoritmo es desarrollando la función f (x) en serie deTaylor, para un entorno del punto :Si se trunca el desarrollo a partir del término de grado 2, y evaluamos en :Si además se acepta que tiende a la raíz, se ha de cumplir que , luego,sustituyendo en la expresión anterior, obtenemos el algoritmo.Finalmente, hay que indicar que el método de Newton-Raphson puede interpretarse comoun método de iteración de punto fijo. Así, dada la ecuación , se puedeconsiderar el siguiente método de iteración de punto fijo:
  11. 11. Se escoge h (x) de manera que g(r)=0 (r es la raíz buscada). Dado que g(r) es:Entonces:Como h (x) no tiene que ser única, se escoge de la forma más sencilla:Por tanto, imponiendo subíndices:Expresión que coincide con la del algoritmo de Newton-RaphsonConvergencia del MétodoEl orden de convergencia de este método es, por lo menos, cuadrático. Sin embargo, si laraíz buscada es de multiplicidad algebraica mayor a uno (i.e, una raíz doble, triple, ...), elmétodo de Newton-Raphson pierde su convergencia cuadrática y pasa a ser lineal deconstante asintótica de convergencia 1-1/m, con m la multiplicidad de la raíz.Existen numerosas formas de evitar este problema, como pudieran ser los métodos deaceleración de la convergencia tipo Δ² de Aitken o el método de Steffensen. Derivados deNewton-Raphson destacan el método de Ralston-Rabinowitz, que restaura la convergenciacuadrática sin más que modificar el algoritmo a:Evidentemente, este método exige conocer de antemano la multiplicidad de la raíz, lo cualno siempre es posible. Por ello también se puede modificar el algoritmo tomando unafunción auxiliar g(x) = f(x)/f(x), resultando:
  12. 12. Su principal desventaja en este caso sería lo costoso que pudiera ser hallar g(x) y g(x) sif(x) no es fácilmente derivable.Por otro lado, la convergencia del método se demuestra cuadrática para el caso máshabitual en base a tratar el método como uno de punto fijo: si g (r)=0, y g(r) es distinto de0, entonces la convergencia es cuadrática. Sin embargo, está sujeto a las particularidades deestos métodos.Nótese de todas formas que el método de Newton-Raphson es un método abierto: laconvergencia no está garantizada por un teorema de convergencia global como podríaestarlo en los métodos de falsa posición o de bisección. Así, es necesario partir de unaaproximación inicial próxima a la raíz buscada para que el método converja y cumpla elteorema de convergencia local.Teorema de Convergencia Local del Método de NewtonSea . Si , y , entonces existe un r>0 talque si , entonces la sucesión xn con verifica que: para todo n y xn tiende a p cuando n tiende a infinito.Si además , entonces la convergencia es cuadrática.Teorema de Convergencia Global del Método de NewtonSea verificando1 : 1. 2. para todo 3. para todo 4.Entonces existe un único tal que por lo que la sucesión converge a s.
  13. 13. Estimación del ErrorSe puede demostrar que el método de Newton-Raphson tiene convergencia cuadrática: sies raíz, entonces:para una cierta constante . Esto significa que si en algún momento el error es menor oigual a 0,1, a cada nueva iteración doblamos (aproximadamente) el número de decimalesexactos. En la práctica puede servir para hacer una estimación aproximada del error:Error relativo entre dos aproximaciones sucesivas:Con lo cual se toma el error relativo como si la última aproximación fuera el valor exacto.Se detiene el proceso iterativo cuando este error relativo es aproximadamente menor queuna cantidad fijada previamente.EjemploConsideremos el problema de encontrar un número positivo x tal que cos(x) = x3.Podríamos tratar de encontrar el cero de f(x) = cos(x) - x3.Sabemos que f (x) = -sin(x) - 3x2. Ya que cos(x) ≤ 1 para todo x y x3 > 1 para x>1,deducimos que nuestro cero está entre 0 y 1. Comenzaremos probando con el valor inicialx0 = 0,5Los dígitos correctos están subrayados. En particular, x6 es correcto para el número dedecimales pedidos. Podemos ver que el número de dígitos correctos después de la coma seincrementa desde 2 (para x3) a 5 y 10, ilustando la convergencia cuadrática.
  14. 14. Aplicación de las matrices y los determinantes a lossistemas de ecuaciones linealesUn sistema de ecuaciones lineales (s.e.l.) es un conjunto de m ecuaciones con n incógnitasde la forma:donde aij son los coeficientes, xi las incógnitas y bi son los términos independientes.Representación matricial de un s.e.l.El anterior sistema se puede expresar en forma matricial, usando el producto de matrices dela forma:De modo simplificado suele escribirse Am,n · Xn,1 = Bm,1 , donde la matriz A de orden m x nse denomina matriz de coeficientes.También usaremos la matriz ampliada, que representaremos por A, que es la matriz decoeficientes a la cual le hemos añadido la columna del término independiente:
  15. 15. Discusión de un s.e.l.: Teorema de Rouché-FröbeniusDado un sistema de ecuaciones con matriz de coeficientes A, matriz ampliada A y rangosrespectivos r y r se verifican:1. El sistema de ecuaciones es compatible cuando rango(A) = rango(A)2. En caso de compatibilidad existen dos posibilidades:Si r = r = n (nº de incógnitas) Sistema compatible determinado (una única solución)Si r = r < n (nº de incógnitas) Sistema compatible indeterminado (infinitas soluciones)Al valor n - r se le llama grado de libertad del sistema.Resolución de un s.e.l.a) Regla de CramerEs aplicable si el sistema tiene igual número de ecuaciones que de incógnitas (n=m) y escompatible determinado (a un s.e.l. qu cumple estas condiciones se le llama un sistema deCramer).El valor de cada incógnita xi se obtiene de un cociente cuyo denominador es el determinatede la matriz de coeficientes, y cuyo numerador es el determinante que se obtiene al cambiarla columna i del determinante anterior por la columna de los términos independientes.
  16. 16. INTITUTO TECNOLOGICO SUPERIOR DEMACUSPANAMATERIA: METODOS MUNERICOSUNIDAD VMAESTRO: ABRAHAM LINCOLN MARTINERUIZALUMNO: OSCAR DE JESUS LOPEZMARTINEZCARRERA: ING. CIVIL

×