SlideShare a Scribd company logo
1 of 20
UNIVERSIDAD FERMIN TORO
ANALISIS NUMERICO
NAUDY LOPEZ
Eliminación de Gauss-Jordan
En matemáticas, la eliminación de Gauss-Jordan, llamada así debido a Carl
Friedrich Gauss y Wilhelm Jordan, es un algoritmo del álgebra lineal para
determinar las soluciones de un sistema de ecuaciones lineales, encontrar
matrices e inversas. Un sistema de ecuaciones se resuelve por el método de
Gauss cuando se obtienen sus soluciones mediante la reducción del sistema dado
a otro equivalente en el que cada ecuación tiene una incógnita menos que la
anterior. El método de Gauss transforma la matriz de coeficientes en una matriz
triangular superior. El método de Gauss-Jordan continúa el proceso de
transformación hasta obtener una matriz diagonal.
Índice
1 Antecedentes
2 Análisis de Complejidad
3 Algoritmo de eliminación de Gauss-Jordan
4 Ejemplo
5 Forma escalonada y escalonada reducida
6 Otras aplicaciones
o 6.1 Encontrando la inversa de una matriz
7 Referencias
8 Véase también
Antecedentes
El método de eliminación de Gauss aparece en el capítulo ocho del importante
texto matemático chino Jiuzhang suanshu o Los nueve capítulos sobre el arte
matemático. Su uso se ilustra en dieciocho problemas, con dos a cinco
ecuaciones. La primera referencia al libro por este título data desde 179 dC, pero
algunas de sus partes fueron escritas tan temprano como aproximadamente
alrededor de 150 aC.1 2
Fue comentado por Liu Hui en el siglo tercero.
Análisis de Complejidad
La complejidad computacional de la eliminación gaussiana es aproximadamente
n3
. Esto es, el número de operaciones requeridas es n3
si el tamaño de la matriz
es n × n.
Algoritmo de eliminación de Gauss-Jordan
1. Ir a la columna no cero extrema izquierda
2. Si el primer renglón tiene un cero en esta columna, intercambiarlo con otro
que no lo tenga
3. Luego, obtener ceros debajo de este elemento delantero, sumando
múltiplos adecuados del renglón superior a los renglones debajo de él
4. Cubrir el renglón superior y repetir el proceso anterior con la submatriz
restante. Repetir con el resto de los renglones (en este punto la matriz se
encuentra en la forma de escalón)
5. Comenzando con el último renglón no cero, avanzar hacia arriba: para cada
renglón obtener un 1 delantero e introducir ceros arriba de éste sumando
múltiplos correspondientes a los renglones correspondientes
Una variante interesante de la eliminación de Gauss es la que llamamos
eliminación de Gauss-Jordan, (debido al mencionado Gauss y a Wilhelm Jordan),
esta consiste en ir obteniendo los 1 delanteros durante los pasos uno al cuatro
(llamados paso directo) así para cuando estos finalicen ya se obtendrá la matriz en
forma escalonada reducida
Ejemplo
Supongamos que es necesario encontrar los números "x", "y", "z", que satisfacen
simultáneamente estas ecuaciones:
Esto es llamado un sistema lineal de ecuaciones. El objetivo es reducir el sistema
a otro equivalente, que tenga las mismas soluciones. Las operaciones (llamadas
elementales) son estas:
Multiplicar una ecuación por un escalar no nulo.
Intercambiar de posición dos ecuaciones
Sumar a una ecuación un múltiplo de otra.
Estas operaciones pueden representarse con matrices elementales que se usan
también en otros procedimientos como la factorización LU o la diagonalización por
congruencia de una matriz simétrica.
En nuestro ejemplo, eliminamos x de la segunda ecuación sumando 3/2 veces la
primera ecuación a la segunda y después sumamos la primera ecuación a la
tercera. El resultado es:
Ahora eliminamos y de la primera ecuación sumando -2 veces la segunda
ecuación a la primera, y sumamos -4 veces la segunda ecuación a la tercera para
eliminar y.
Finalmente eliminamos z de la primera ecuación sumando -2 veces la tercera
ecuación a la primera, y sumando 1/2 veces la tercera ecuación a la segunda para
eliminar z.
Despejando, podemos ver las soluciones:
Para clarificar los pasos, se trabaja con la matriz aumentada. Podemos ver los 3
pasos en su notación matricial:
Primero:
Después,
Por último.
Si el sistema fuera incompatible, entonces nos encontraríamos con una fila como
esta:
Que representa la ecuación: , es decir, que no tiene
solución.
Forma escalonada y escalonada reducida
Artículo principal: Matriz escalonada.
Dos formas especiales de matrices son la escalonada y la escalonada reducida.
Una matriz puede tener las siguientes propiedades:
1. Todas las filas 1 están en la parte inferior de la matriz.
2. El elemento delantero de cada fila diferente de cero, éste es llamado
"pivote"; éstos están a la derecha del elemento delantero de la fila anterior
(esto supone que todos los elementos debajo de un pivote son cero).
Si una matriz A cumple con esas propiedades, se dice escalonada. Además,
cumpliendo estas otras condiciones, decimos que la matriz se encuentra en la
forma reducida de renglón escalón o tan solo en forma escalonada reducida.
1. Todos los elementos delanteros ("pivotes") son iguales a 1
2. Todos los elementos por encima de los pivotes son nulos.
Cuando una matriz representa a un sistema de ecuaciones situaciones como tener
una columna de ceros parece imposible ya que correspondería a una variable que
nunca habría aparecido. Sin embargo esta situación puede presentarse
(imaginemos la ecuación de un plano en el espacio en la que no aparece alguna
de las componentes, por ejemplo y+z=0). Así la matriz
también es una matriz escalonada.
Una vez que la matriz del sistema se ha transformado hasta obtener una matriz
escalonada reducida es muy fácil discutirlo (es decir, determinar cuántas
soluciones tiene):
1. Cuando aparece un pivote en la columna de los términos independientes el
sistema es incompatible (no tiene ninguna solución).
2. En otro caso el sistema es compatible. Si además el número de pivotes
coincide con el número de incógnitas el sistema es compatible determinado
(tiene una única solución). Cuando el número de pivotes es menor que el
número de incógnitas el sistema es indeterminado (tiene infinitas soluciones
que dependen de tantos parámetros como indique la diferencia entre el
número de incógnitas y el número de pivotes).
Otras aplicaciones
Encontrando la inversa de una matriz
Es posible usar la eliminación gaussiana para encontrar inversas de matrices n ×
n. Para ello se aumenta la matriz dada, digamos A con una matriz identidad,
simplemente escribiendo las filas de la identidad a continuación de las de nuestra
matriz A, por ejemplo dada:
se construiría
y ahora se realizan las operaciones elementales sobre las filas de la matriz
aumentada que sean necesarias para obtener la forma escalonada reducida de la
matriz A; sumando tanto a la segunda como a la tercera fila la primera obtenemos
multiplicamos la segunda fila por -1 y la intercambiamos con la primera
ya tenemos el pivote de la primera fila que usamos para hacer ceros debajo
ahora usamos el pivote de la segunda fila
y por último cambiamos de signo la tercera fila y usamos el pivote correspondiente
El proceso ha finalizado porque en la parte izquierda tenemos la forma escalonada
reducida de A y puesto que ésta es la matriz identidad, entonces A tiene inversa y
su inversa es la matriz que aparece a la derecha, en el lugar que al principio
ocupaba la identidad. Cuando la forma escalonada reducida que aparece no es la
identidad es que la matriz de partida no tiene inversa.
LA FACTORIZACIÓN DE CHOLESKY
JUAN CAMILO MUÑOZ CASTELBLANCO
257120
Resumen
La factorización de Cholesky es una manera de resolver sistemas de
ecuaciones matriciales, tenemos la matriz de coeficientes de un sistema de
ecuaciones, llamada A. Una condición necesaria y suficiente para que una
matriz A admita factorización de Cholesky es que sea simétrica y definida
positiva. Si cumple podemos tratar de factorizarla la forma A = L*LT
, cuando la
tenemos factorizada ya podemos resolver el sistema de ecuaciones.
Desarrollo
Sea el sistema de ecuaciones lineales A x = b, donde A es simétrica y definida
positiva, entonces el método de Cholesky para la resolución del sistema A x =
b está basado en la descomposición de la matriz A como sigue:
donde L es una matriz triangular inferior de orden n, es decir, L tiene la
siguiente forma:
Descompuesta de esta forma la matriz A, la resolución del sistema A x = b
queda dada por la resolución de dos sistemas triangulares. En efecto,
Si hacemos,
entonces :
el cual resulta un sistema triangular inferior en y, con:
de fácil resolución con:
En forma general, tenemos:
Una vez que se resuelve (1.9), procedemos a resolver el sistema (1.8), que es
un sistema triangular superior
Es decir, los valores de quedan dados por:
De (1.6) se obtienen las siguientes ecuaciones para el cálculo de los
elementos de la matriz L ( ):
Se mencionó anteriormente que para la aplicación de este método la matriz A
debe ser simétrica y definida positiva. A continuación se enuncian ciertos
teoremas al respecto.
Observación: Es necesario verificar que ningún elemento de la diagonal
principal sea cero.
Factorización QR
Saltar a: navegación, búsqueda
En álgebra lineal, la descomposición o factorización QR de una matriz es una
descomposición de la misma como producto de una matriz ortogonal por una
triangular superior. La descomposición QR es la base del algoritmo QR utilizado
para el cálculo de los vectores y valores propios de una matriz.
Índice
1 Definición
2 Cálculo de la descomposición QR
o 2.1 Mediante el método de ortogonalización de Gram-Schmidt
 2.1.1 Ejemplo
o 2.2 Mediante el uso de reflexiones de Householder
 2.2.1 Ejemplo
o 2.3 Mediante rotaciones de Givens
 2.3.1 Ejemplo
3 Relación con el determinante
Definición
La descomposición QR de una matriz cuadrada real A es
donde Q es una matriz ortogonal (QT
Q = I ) y R es una matriz triangular superior.
Cálculo de la descomposición QR
Mediante el método de ortogonalización de Gram-Schmidt
Recurriendo al método de ortogonalización de Gram-Schmidt, con las columnas
de A como los vectores a procesar.
. Entonces
Naturalmente, utilizamos los ais de A para obtener:
Ahora estas ecuaciones pueden ser escritas en forma matricial de esta manera:
:::::::::
El producto de cada fila con cada columa de las matrices de arriba, nos da la
respectiva columna de A con la que comenzamos y, por tanto, dada la matriz A, la
hemos factorizado en una matriz ortogonal Q (la matriz de eks), aplicando el
proceso de Gram-Schmidt, y la matriz resultante triangular superior es R.
Alternativamente, la matriz puede clacularse de la siguiente manera:
Recordemos que: Entonces, tenemos
Note que y , entonces
.
Ejemplo
Si se considera la descomposición de
Se busca la matriz ortogonal tal que
Por lo que calculamos mediante Gram-Schmidt como sigue:
Por lo tanto, tenemos
Considerando errores numéricos de operar con precisión finita en MATLAB,
tenemos que
Mediante el uso de reflexiones de Householder
Una transformación de Householder o reflexión de Householder es una
transformación que refleja el espacio con respecto a un plano determinado. Esta
propiedad se puede utilizar para realizar la transformación QR de una matriz si
tenemos en cuenta que es posible elegir la matriz de Householder de manera que
un vector elegido quede con una única componente no nula tras ser transformado
(es decir, premultiplicando por la matriz de Householder). Gráficamente, esto
significa que es posible reflejar el vector elegido respecto de un plano de forma
que el reflejo quede sobre uno de los ejes de la base cartesiana.
La manera de elegir el plano de reflexión y formar la matriz de Householder
asociada es el siguiente:
Sea un vector columna arbitrario m-dimensional tal que || || = |α|, donde α es un
escalar; (si el algoritmo se implementa utilizando aritmética de coma flotante,
entonces α debe adoptar el signo contrario que 1 para evitar pérdida de
precisión).
Entonces, siendo el vector (1,0,...,0)T
, y ||·|| la norma euclídea, se define:
es un vector unitario perpendicular al plano de reflexión elegido. es una matriz
de Householder asociada a dicho plano.
Esta propiedad se puede usar para transformar gradualmente los vectores
columna de una matriz A de dimensiones m por n en una matriz triangular
superior. En primer lugar se multiplica A con la matriz de Householder Q1 que
obtenemos al elegir como vector la primera columna de la matriz. Esto
proporciona una matriz QA con ceros en la primera columna (excepto el elemento
de la primera fila).
el procedimiento se puede repetir para A′ (que se obtiene de A eliminando la
primera fila y columna), obteniendo así una matriz de Householder Q′2. Hay que
tener en cuenta que Q′2 es menor que Q1. Para conseguir que esta matriz opere
con Q1A en lugar de A′ es necesario expandirla hacia arriba a la izquierda,
completando con un uno en la diagonal, o en general:
Tras repetir el proceso veces, donde ,
es una matriz triangular superior. De forma que tomando
es una descomposición QR de la matriz .
Este método tiene una estabilidad numérica mayor que la del método de Gram-
Schmidt descrito arriba.
Una pequeña variación de este método se utiliza para obtener matrices
semejantes con la forma de Hessenberg, muy útiles en el cálculo de autovalores
por acelerar la convergencia del algoritmo QR reduciendo así enormemente su
coste computacional.
Ejemplo
Vamos a calcular la descomposición de la matriz
En primer lugar necesitamos encontrar una reflexión que transforme la primera
columna de la matriz A, vector , en
usando la expresión,
y
en nuestro caso :
y
Por lo tanto
y , entonces
Ahora observamos:
con lo que ya casi tenemos una matriz triangular. Sólo necesitamos hacer cero en
el elemento (3,2).
Tomando la submatriz bajo el (1, 1) y aplicando de nuevo el proceso a
Mediante el mismo método que antes obtenemos la matriz de Householder
Finalmente obtenemos
La matriz Q es ortogonal y R es triangular superior, de forma que A = QR es la
descomposición QR buscada.
Mediante rotaciones de Givens
Las descomposiciones QR también puden calcularse utilizando una serie de
rotaciones de Givens. Cada rotación anula (hace cero) un elemento en la
subdiagonal de la matriz, formando de este modo la matriz R. La concatenación de
todas las rotaciones de Givens realizadas, forma la matriz ortogonal Q.
En la práctica, las rotaciones de Givens no se utilizan en la actualidad para
construir una matriz completa y realizar un producto de matrices. En su lugar, se
utiliza un procedimiento de rotación de Givens, que es equivalente a la
multiplicación reducida de matrices de Givens, sin el trabajo extra de manejar los
elementos reducidos. El procedimiento de rotación de Givens es útil en situaciones
donde sólo pocos elementos fuera de la diagonal necesitan ser anulados y es más
fácil de paralelizar que las transformaciones de Householder.
Ejemplo
Calculemos la descomposición de
Primero, necesitamos formar una matriz de rotación tal que hagamos cero el
elemento más inferior a la izquierda, . Construimos esta matriz
empleando el método de la rotación de Givens y llamamos la matriz resultante .
Rotamos primero el vector , representándolo a lo largo del eje X. Este
vector forma un ángulo . Creamos la matriz ortogonal de
rotación de Givens, :
Y el resultado de tiene ahora un cero en el elemento.
Procedemos análogamente con las matrices de Givens y , que hacen cero
los elementos subdiagonales y , formando una matriz triangular . La
matriz ortogonal es formada a partir del producto en cadena de todas las
matrices de Givens . Luego tenemos ,
y la descomposición QR es .
Relación con el determinante
Es posible utilizar la descomposición QR para encontrar el valor absoluto del
determinante de una matriz. Suponiendo que una matriz se descompone según
. Entonces se tiene
Puesto que Q es unitaria, . Por tanto,
donde son los valores de la diagonal de R.
METODO DE GAUSS SENDEL
Este método es iterativo o de aproximación y es similar a las técnicas que se usan
en los métodos anteriores para obtener raíces. Aquellos métodos consisten en la
determinación de un valor inicial a partir del cual, mediante una técnica
sistemática se obtiene una mejor aproximación a la raíz.
La razón por la cual los métodos iterativos son útiles en la disminución de los
errores de redondeo en sistemas, se debe a que un método de aproximación se
puede continuar hasta que converja dentro de alguna tolerancia de error
previamente especificada.
Las técnicas iterativas se emplean rara vez para resolver problemas de
dimensiones pequeñas ya que el tiempo requerido para lograr una precisión
suficiente excede a las técnicas directas. Sin embargo, para sistemas grandes con
un gran porcentaje de ceros, ésta técnica es eficiente.
Los sistemas de este tipo surgen frecuentemente en la solución numérica de
problemas de valores frontera y de ecuaciones diferenciales parciales.
Historia:
Es una técnica utilizada para resolver sistemas de ecuaciones lineales. El método
es llamado de esa manera en honor a los matemáticos alemanes Carl Friedrich
Gauss y Philipp Ludwig von Seidel. El método es similar al método de Jacobi.
Es un método indirecto, lo que significa que se parte de una aproximación inicial y
se repite el proceso hasta llegar a una solución con un margen de error tan
pequeño como se quiera.
El método de Gauss-Seidel converge a la solución del sistema si se cumple la
condición de que la matriz de coeficientes del sistema sea una matriz
diagonalmente dominante, es decir, si se cumple la siguiente condición:
La condición de ser una matriz diagonalmente dominante simplemente significa
que los elementos de la diagonal son mayores (en valor absoluto) que la suma de
los valores absolutos de los demás elementos del mismo renglón.
Sin embargo, la condición de la matriz diagonalmente dominante, solamente es
una condición suficiente pero no necesaria, es decir, existen sistemas de
ecuaciones que no cumplen con la condición y que sí convergen a la solución y
también existen sistemas de ecuaciones que no cumplen con la condición y que
no convergen a la solución.
Finalmente, aunque un sistema no cumpla con la condición de ser diagonalmente
dominante, es posible a veces, lograr que sí se cumpla con esta condición
mediante un intercambio de renglones.
En que consiste?
Es un método iterativo, lo que significa que se parte de una aproximación inicial y
se repite el proceso hasta llegar a una solución con un margen de error tan
pequeño como se quiera. Buscamos la solución a un sistema de ecuaciones
lineales, en notación matricial:
El método de iteración Gauss-Seidel es:
Donde:
A=N-P definimos
M=N-1P
Y
c=N-1b
donde los coeficientes de la matriz N se definen como nij = aij si , nij = 0 sino.
Considerando el sistema Ax=b, con la condición de que i= 1, ..., n. Entonces
podemos escribir la fórmula de iteración del método
La diferencia entre este método y el de Jacobi es que, en este último, las mejoras
a las aproximaciones no se utilizan hasta completar las iteraciones.
El método de Gauss-Seidel proporciona una solución más rápida que Jacobi ya
que usa valores recién calculados en la solución de las incógnitas a calcular.
Algoritmo:
¥ Se debe despejar de cada ecuación la variable sobre la diagonal principal.
¥ Dar un valor inicial a las incógnitas (generalmente se establecen ceros).
¥ Sustituir los valores iniciales en la primera ecuación para obtener un nuevo valor para
la primera incógnita.
¥ Ese nuevo valor es usado para obtener el valor de la siguiente incógnita. Este
procedimiento se repite hasta obtener los nuevos valores de todas las incógnitas
despejadas.
¥ Se evalúa la aproximación relativa de todas las incógnitas hasta que la solución
converja bastante cerca de la solución real, según la tolerancia establecida para el
método.
¥ La iteración de Gauss-Seidel se define al tomar Q como la parte triangular inferior de A
incluyendo los elementos de la diagonal
¥ Si, como en el caso anterior, definimos la matriz R=A-Q

More Related Content

What's hot

Inversión de matrices
Inversión de matricesInversión de matrices
Inversión de matrices
mariacadena
 
Sistemas de ecuaciones lineales. Métodos Gauss- Jordan y Gauss
Sistemas de ecuaciones lineales. Métodos Gauss- Jordan y GaussSistemas de ecuaciones lineales. Métodos Gauss- Jordan y Gauss
Sistemas de ecuaciones lineales. Métodos Gauss- Jordan y Gauss
Carlita Vaca
 
Método de gauss
Método de gaussMétodo de gauss
Método de gauss
algebra
 

What's hot (20)

UNIDAD III. Solución de Sistemas de Ecuaciones Lineales
UNIDAD III. Solución de Sistemas de Ecuaciones LinealesUNIDAD III. Solución de Sistemas de Ecuaciones Lineales
UNIDAD III. Solución de Sistemas de Ecuaciones Lineales
 
Ecuaciones de matrices (INFORME)
Ecuaciones de matrices (INFORME)Ecuaciones de matrices (INFORME)
Ecuaciones de matrices (INFORME)
 
Sistema Ecuaciones Lineales
Sistema Ecuaciones LinealesSistema Ecuaciones Lineales
Sistema Ecuaciones Lineales
 
Métodos de eliminación gaussiana
Métodos de eliminación gaussianaMétodos de eliminación gaussiana
Métodos de eliminación gaussiana
 
Sistemas de ecuaciones lineales
Sistemas de ecuaciones linealesSistemas de ecuaciones lineales
Sistemas de ecuaciones lineales
 
Metoodos numericos
Metoodos numericosMetoodos numericos
Metoodos numericos
 
Algebra lineal 1. sistemas de ecuaciones lineales
Algebra lineal 1. sistemas de ecuaciones linealesAlgebra lineal 1. sistemas de ecuaciones lineales
Algebra lineal 1. sistemas de ecuaciones lineales
 
Analisis numerico 2
Analisis numerico 2Analisis numerico 2
Analisis numerico 2
 
Inversión de matrices
Inversión de matricesInversión de matrices
Inversión de matrices
 
Matrices: sistemas lineales
Matrices: sistemas linealesMatrices: sistemas lineales
Matrices: sistemas lineales
 
Un breve resumen de álgebra lineal - Juan Álvarez (incompleto)
Un breve resumen de álgebra lineal - Juan Álvarez (incompleto)Un breve resumen de álgebra lineal - Juan Álvarez (incompleto)
Un breve resumen de álgebra lineal - Juan Álvarez (incompleto)
 
Metodo de gauss jordan
Metodo de gauss jordanMetodo de gauss jordan
Metodo de gauss jordan
 
MÉTODOS NUMÉRICOS
MÉTODOS NUMÉRICOSMÉTODOS NUMÉRICOS
MÉTODOS NUMÉRICOS
 
Sistemas de ecuaciones lineales
Sistemas de ecuaciones linealesSistemas de ecuaciones lineales
Sistemas de ecuaciones lineales
 
Analisis vectorial opta
Analisis vectorial optaAnalisis vectorial opta
Analisis vectorial opta
 
METODO ELIMINACION GAUSSIANA UNIDAD III
METODO ELIMINACION GAUSSIANA UNIDAD IIIMETODO ELIMINACION GAUSSIANA UNIDAD III
METODO ELIMINACION GAUSSIANA UNIDAD III
 
Análisis numérico (josé monsalve). (autoguardado)
Análisis numérico (josé monsalve). (autoguardado)Análisis numérico (josé monsalve). (autoguardado)
Análisis numérico (josé monsalve). (autoguardado)
 
Sistemas de ecuaciones lineales. Métodos Gauss- Jordan y Gauss
Sistemas de ecuaciones lineales. Métodos Gauss- Jordan y GaussSistemas de ecuaciones lineales. Métodos Gauss- Jordan y Gauss
Sistemas de ecuaciones lineales. Métodos Gauss- Jordan y Gauss
 
Método de gauss jordan
Método de gauss jordanMétodo de gauss jordan
Método de gauss jordan
 
Método de gauss
Método de gaussMétodo de gauss
Método de gauss
 

Viewers also liked (20)

Transformadores de medida
Transformadores de medidaTransformadores de medida
Transformadores de medida
 
Trabajo de ricardo
Trabajo de ricardoTrabajo de ricardo
Trabajo de ricardo
 
Unidad i franklin s
Unidad i franklin sUnidad i franklin s
Unidad i franklin s
 
Unidad i jose chavez
Unidad i jose chavezUnidad i jose chavez
Unidad i jose chavez
 
Unidad i efrain plama
Unidad i efrain plamaUnidad i efrain plama
Unidad i efrain plama
 
Unidad i maria valecillos
Unidad i maria valecillosUnidad i maria valecillos
Unidad i maria valecillos
 
Universidad fermin toro
Universidad fermin toroUniversidad fermin toro
Universidad fermin toro
 
Eduardo bri
Eduardo briEduardo bri
Eduardo bri
 
Estructura efrain palma
Estructura efrain palmaEstructura efrain palma
Estructura efrain palma
 
Estructura antonio g
Estructura antonio gEstructura antonio g
Estructura antonio g
 
Miguel colmenarez
Miguel colmenarezMiguel colmenarez
Miguel colmenarez
 
Sistemas ecuaciones jean c. segovia
Sistemas ecuaciones jean c. segoviaSistemas ecuaciones jean c. segovia
Sistemas ecuaciones jean c. segovia
 
Sistemas ecuaciones amilcar
Sistemas ecuaciones amilcarSistemas ecuaciones amilcar
Sistemas ecuaciones amilcar
 
Mari morales
Mari moralesMari morales
Mari morales
 
Investigacion sobre interpolacion
Investigacion sobre interpolacionInvestigacion sobre interpolacion
Investigacion sobre interpolacion
 
Unidad i luis r
Unidad i luis rUnidad i luis r
Unidad i luis r
 
Algebra lineal i (sabogal e isaacs)
Algebra lineal i (sabogal e isaacs)Algebra lineal i (sabogal e isaacs)
Algebra lineal i (sabogal e isaacs)
 
Sistemas ecuaciones saul u
Sistemas ecuaciones saul uSistemas ecuaciones saul u
Sistemas ecuaciones saul u
 
Unidad i juan carlos
Unidad i juan carlosUnidad i juan carlos
Unidad i juan carlos
 
Estructura hugo
Estructura hugoEstructura hugo
Estructura hugo
 

Similar to Sistemas ecuaciones naudy

Matrices
MatricesMatrices
Matrices
sam rex
 
Sistemas ecuaciones roger o
Sistemas ecuaciones roger oSistemas ecuaciones roger o
Sistemas ecuaciones roger o
ASIGNACIONUFT
 
Proyecto grupal 2
Proyecto grupal 2Proyecto grupal 2
Proyecto grupal 2
briggitty
 
Sistema ecuaciones leonardo ch
Sistema ecuaciones leonardo chSistema ecuaciones leonardo ch
Sistema ecuaciones leonardo ch
ASIGNACIONUFT
 
Métodos directos para solución de sistemas ecuaciones lineales
Métodos directos para solución de sistemas ecuaciones linealesMétodos directos para solución de sistemas ecuaciones lineales
Métodos directos para solución de sistemas ecuaciones lineales
Cesar Mendoza
 
Métodos directos para solución de sistemas ecuaciones lineales (2)
Métodos directos para solución de sistemas ecuaciones lineales (2)Métodos directos para solución de sistemas ecuaciones lineales (2)
Métodos directos para solución de sistemas ecuaciones lineales (2)
Cesar Mendoza
 

Similar to Sistemas ecuaciones naudy (20)

Solucion de Sistemas de Ecuaciones Lineales
Solucion de Sistemas de Ecuaciones LinealesSolucion de Sistemas de Ecuaciones Lineales
Solucion de Sistemas de Ecuaciones Lineales
 
Matrices
MatricesMatrices
Matrices
 
Métodos de eliminacion de Ecuaciones
Métodos de eliminacion de EcuacionesMétodos de eliminacion de Ecuaciones
Métodos de eliminacion de Ecuaciones
 
Análisis númerico. Métodos de sistemas de ecuaciones
Análisis númerico. Métodos de sistemas de ecuacionesAnálisis númerico. Métodos de sistemas de ecuaciones
Análisis númerico. Métodos de sistemas de ecuaciones
 
Metodos de sistemas de ecuaciones
Metodos de sistemas de ecuacionesMetodos de sistemas de ecuaciones
Metodos de sistemas de ecuaciones
 
Metodos de sistemas de ecuaciones
Metodos de sistemas de ecuacionesMetodos de sistemas de ecuaciones
Metodos de sistemas de ecuaciones
 
Sistemas ecuaciones roger o
Sistemas ecuaciones roger oSistemas ecuaciones roger o
Sistemas ecuaciones roger o
 
Sistema de ecuaciones lineales
Sistema de ecuaciones linealesSistema de ecuaciones lineales
Sistema de ecuaciones lineales
 
Leonardo medina, actividad 3 analisis numerico
Leonardo medina, actividad 3 analisis numericoLeonardo medina, actividad 3 analisis numerico
Leonardo medina, actividad 3 analisis numerico
 
Ecuaciones lineales
Ecuaciones linealesEcuaciones lineales
Ecuaciones lineales
 
Proyecto grupal 2
Proyecto grupal 2Proyecto grupal 2
Proyecto grupal 2
 
Sistema ecuaciones leonardo ch
Sistema ecuaciones leonardo chSistema ecuaciones leonardo ch
Sistema ecuaciones leonardo ch
 
Métodos directos para solución de sistemas ecuaciones lineales
Métodos directos para solución de sistemas ecuaciones linealesMétodos directos para solución de sistemas ecuaciones lineales
Métodos directos para solución de sistemas ecuaciones lineales
 
Métodos directos para solución de sistemas ecuaciones lineales (2)
Métodos directos para solución de sistemas ecuaciones lineales (2)Métodos directos para solución de sistemas ecuaciones lineales (2)
Métodos directos para solución de sistemas ecuaciones lineales (2)
 
Solución de Sistemas de Ecuaciones lineales
Solución de Sistemas de Ecuaciones linealesSolución de Sistemas de Ecuaciones lineales
Solución de Sistemas de Ecuaciones lineales
 
Solución de Sistemas de Ecuaciones Lineales
Solución de Sistemas de Ecuaciones LinealesSolución de Sistemas de Ecuaciones Lineales
Solución de Sistemas de Ecuaciones Lineales
 
Solucion de sistemas de ecuaciones lineales
Solucion de sistemas de ecuaciones linealesSolucion de sistemas de ecuaciones lineales
Solucion de sistemas de ecuaciones lineales
 
Resumen
ResumenResumen
Resumen
 
Resumen unidad III
Resumen unidad IIIResumen unidad III
Resumen unidad III
 
analisis numerico
analisis numericoanalisis numerico
analisis numerico
 

More from ASIGNACIONUFT

More from ASIGNACIONUFT (13)

Sistema ecuaciones luis linarez
Sistema ecuaciones luis linarezSistema ecuaciones luis linarez
Sistema ecuaciones luis linarez
 
Sistemas de ecuaciones hergen
Sistemas de ecuaciones hergenSistemas de ecuaciones hergen
Sistemas de ecuaciones hergen
 
Mapajavieragreda
MapajavieragredaMapajavieragreda
Mapajavieragreda
 
Paradigmasalexfreitez
ParadigmasalexfreitezParadigmasalexfreitez
Paradigmasalexfreitez
 
Paradigmasagustin
ParadigmasagustinParadigmasagustin
Paradigmasagustin
 
Contexto historico del positivismo
Contexto historico del positivismoContexto historico del positivismo
Contexto historico del positivismo
 
Unidad i jorge m
Unidad i jorge mUnidad i jorge m
Unidad i jorge m
 
Mapa economia objeto
Mapa economia objetoMapa economia objeto
Mapa economia objeto
 
Naudy hernandez
Naudy hernandezNaudy hernandez
Naudy hernandez
 
Llyne
LlyneLlyne
Llyne
 
Angel ribas
Angel ribasAngel ribas
Angel ribas
 
Brayan b
Brayan bBrayan b
Brayan b
 
Jorge albah
Jorge albahJorge albah
Jorge albah
 

Sistemas ecuaciones naudy

  • 1. UNIVERSIDAD FERMIN TORO ANALISIS NUMERICO NAUDY LOPEZ Eliminación de Gauss-Jordan En matemáticas, la eliminación de Gauss-Jordan, llamada así debido a Carl Friedrich Gauss y Wilhelm Jordan, es un algoritmo del álgebra lineal para determinar las soluciones de un sistema de ecuaciones lineales, encontrar matrices e inversas. Un sistema de ecuaciones se resuelve por el método de Gauss cuando se obtienen sus soluciones mediante la reducción del sistema dado a otro equivalente en el que cada ecuación tiene una incógnita menos que la anterior. El método de Gauss transforma la matriz de coeficientes en una matriz triangular superior. El método de Gauss-Jordan continúa el proceso de transformación hasta obtener una matriz diagonal. Índice 1 Antecedentes 2 Análisis de Complejidad 3 Algoritmo de eliminación de Gauss-Jordan 4 Ejemplo 5 Forma escalonada y escalonada reducida 6 Otras aplicaciones o 6.1 Encontrando la inversa de una matriz 7 Referencias 8 Véase también Antecedentes El método de eliminación de Gauss aparece en el capítulo ocho del importante texto matemático chino Jiuzhang suanshu o Los nueve capítulos sobre el arte matemático. Su uso se ilustra en dieciocho problemas, con dos a cinco ecuaciones. La primera referencia al libro por este título data desde 179 dC, pero algunas de sus partes fueron escritas tan temprano como aproximadamente alrededor de 150 aC.1 2 Fue comentado por Liu Hui en el siglo tercero. Análisis de Complejidad
  • 2. La complejidad computacional de la eliminación gaussiana es aproximadamente n3 . Esto es, el número de operaciones requeridas es n3 si el tamaño de la matriz es n × n. Algoritmo de eliminación de Gauss-Jordan 1. Ir a la columna no cero extrema izquierda 2. Si el primer renglón tiene un cero en esta columna, intercambiarlo con otro que no lo tenga 3. Luego, obtener ceros debajo de este elemento delantero, sumando múltiplos adecuados del renglón superior a los renglones debajo de él 4. Cubrir el renglón superior y repetir el proceso anterior con la submatriz restante. Repetir con el resto de los renglones (en este punto la matriz se encuentra en la forma de escalón) 5. Comenzando con el último renglón no cero, avanzar hacia arriba: para cada renglón obtener un 1 delantero e introducir ceros arriba de éste sumando múltiplos correspondientes a los renglones correspondientes Una variante interesante de la eliminación de Gauss es la que llamamos eliminación de Gauss-Jordan, (debido al mencionado Gauss y a Wilhelm Jordan), esta consiste en ir obteniendo los 1 delanteros durante los pasos uno al cuatro (llamados paso directo) así para cuando estos finalicen ya se obtendrá la matriz en forma escalonada reducida Ejemplo Supongamos que es necesario encontrar los números "x", "y", "z", que satisfacen simultáneamente estas ecuaciones: Esto es llamado un sistema lineal de ecuaciones. El objetivo es reducir el sistema a otro equivalente, que tenga las mismas soluciones. Las operaciones (llamadas elementales) son estas: Multiplicar una ecuación por un escalar no nulo. Intercambiar de posición dos ecuaciones Sumar a una ecuación un múltiplo de otra. Estas operaciones pueden representarse con matrices elementales que se usan también en otros procedimientos como la factorización LU o la diagonalización por congruencia de una matriz simétrica.
  • 3. En nuestro ejemplo, eliminamos x de la segunda ecuación sumando 3/2 veces la primera ecuación a la segunda y después sumamos la primera ecuación a la tercera. El resultado es: Ahora eliminamos y de la primera ecuación sumando -2 veces la segunda ecuación a la primera, y sumamos -4 veces la segunda ecuación a la tercera para eliminar y. Finalmente eliminamos z de la primera ecuación sumando -2 veces la tercera ecuación a la primera, y sumando 1/2 veces la tercera ecuación a la segunda para eliminar z. Despejando, podemos ver las soluciones: Para clarificar los pasos, se trabaja con la matriz aumentada. Podemos ver los 3 pasos en su notación matricial: Primero: Después,
  • 4. Por último. Si el sistema fuera incompatible, entonces nos encontraríamos con una fila como esta: Que representa la ecuación: , es decir, que no tiene solución. Forma escalonada y escalonada reducida Artículo principal: Matriz escalonada. Dos formas especiales de matrices son la escalonada y la escalonada reducida. Una matriz puede tener las siguientes propiedades: 1. Todas las filas 1 están en la parte inferior de la matriz. 2. El elemento delantero de cada fila diferente de cero, éste es llamado "pivote"; éstos están a la derecha del elemento delantero de la fila anterior (esto supone que todos los elementos debajo de un pivote son cero). Si una matriz A cumple con esas propiedades, se dice escalonada. Además, cumpliendo estas otras condiciones, decimos que la matriz se encuentra en la forma reducida de renglón escalón o tan solo en forma escalonada reducida. 1. Todos los elementos delanteros ("pivotes") son iguales a 1 2. Todos los elementos por encima de los pivotes son nulos. Cuando una matriz representa a un sistema de ecuaciones situaciones como tener una columna de ceros parece imposible ya que correspondería a una variable que nunca habría aparecido. Sin embargo esta situación puede presentarse (imaginemos la ecuación de un plano en el espacio en la que no aparece alguna de las componentes, por ejemplo y+z=0). Así la matriz
  • 5. también es una matriz escalonada. Una vez que la matriz del sistema se ha transformado hasta obtener una matriz escalonada reducida es muy fácil discutirlo (es decir, determinar cuántas soluciones tiene): 1. Cuando aparece un pivote en la columna de los términos independientes el sistema es incompatible (no tiene ninguna solución). 2. En otro caso el sistema es compatible. Si además el número de pivotes coincide con el número de incógnitas el sistema es compatible determinado (tiene una única solución). Cuando el número de pivotes es menor que el número de incógnitas el sistema es indeterminado (tiene infinitas soluciones que dependen de tantos parámetros como indique la diferencia entre el número de incógnitas y el número de pivotes). Otras aplicaciones Encontrando la inversa de una matriz Es posible usar la eliminación gaussiana para encontrar inversas de matrices n × n. Para ello se aumenta la matriz dada, digamos A con una matriz identidad, simplemente escribiendo las filas de la identidad a continuación de las de nuestra matriz A, por ejemplo dada: se construiría y ahora se realizan las operaciones elementales sobre las filas de la matriz aumentada que sean necesarias para obtener la forma escalonada reducida de la matriz A; sumando tanto a la segunda como a la tercera fila la primera obtenemos
  • 6. multiplicamos la segunda fila por -1 y la intercambiamos con la primera ya tenemos el pivote de la primera fila que usamos para hacer ceros debajo ahora usamos el pivote de la segunda fila y por último cambiamos de signo la tercera fila y usamos el pivote correspondiente El proceso ha finalizado porque en la parte izquierda tenemos la forma escalonada reducida de A y puesto que ésta es la matriz identidad, entonces A tiene inversa y su inversa es la matriz que aparece a la derecha, en el lugar que al principio ocupaba la identidad. Cuando la forma escalonada reducida que aparece no es la identidad es que la matriz de partida no tiene inversa. LA FACTORIZACIÓN DE CHOLESKY JUAN CAMILO MUÑOZ CASTELBLANCO 257120
  • 7. Resumen La factorización de Cholesky es una manera de resolver sistemas de ecuaciones matriciales, tenemos la matriz de coeficientes de un sistema de ecuaciones, llamada A. Una condición necesaria y suficiente para que una matriz A admita factorización de Cholesky es que sea simétrica y definida positiva. Si cumple podemos tratar de factorizarla la forma A = L*LT , cuando la tenemos factorizada ya podemos resolver el sistema de ecuaciones. Desarrollo Sea el sistema de ecuaciones lineales A x = b, donde A es simétrica y definida positiva, entonces el método de Cholesky para la resolución del sistema A x = b está basado en la descomposición de la matriz A como sigue: donde L es una matriz triangular inferior de orden n, es decir, L tiene la siguiente forma: Descompuesta de esta forma la matriz A, la resolución del sistema A x = b queda dada por la resolución de dos sistemas triangulares. En efecto, Si hacemos, entonces : el cual resulta un sistema triangular inferior en y, con:
  • 8. de fácil resolución con: En forma general, tenemos: Una vez que se resuelve (1.9), procedemos a resolver el sistema (1.8), que es un sistema triangular superior Es decir, los valores de quedan dados por: De (1.6) se obtienen las siguientes ecuaciones para el cálculo de los elementos de la matriz L ( ): Se mencionó anteriormente que para la aplicación de este método la matriz A debe ser simétrica y definida positiva. A continuación se enuncian ciertos teoremas al respecto. Observación: Es necesario verificar que ningún elemento de la diagonal principal sea cero.
  • 9. Factorización QR Saltar a: navegación, búsqueda En álgebra lineal, la descomposición o factorización QR de una matriz es una descomposición de la misma como producto de una matriz ortogonal por una
  • 10. triangular superior. La descomposición QR es la base del algoritmo QR utilizado para el cálculo de los vectores y valores propios de una matriz. Índice 1 Definición 2 Cálculo de la descomposición QR o 2.1 Mediante el método de ortogonalización de Gram-Schmidt  2.1.1 Ejemplo o 2.2 Mediante el uso de reflexiones de Householder  2.2.1 Ejemplo o 2.3 Mediante rotaciones de Givens  2.3.1 Ejemplo 3 Relación con el determinante Definición La descomposición QR de una matriz cuadrada real A es donde Q es una matriz ortogonal (QT Q = I ) y R es una matriz triangular superior. Cálculo de la descomposición QR Mediante el método de ortogonalización de Gram-Schmidt Recurriendo al método de ortogonalización de Gram-Schmidt, con las columnas de A como los vectores a procesar. . Entonces
  • 11. Naturalmente, utilizamos los ais de A para obtener: Ahora estas ecuaciones pueden ser escritas en forma matricial de esta manera: ::::::::: El producto de cada fila con cada columa de las matrices de arriba, nos da la respectiva columna de A con la que comenzamos y, por tanto, dada la matriz A, la hemos factorizado en una matriz ortogonal Q (la matriz de eks), aplicando el proceso de Gram-Schmidt, y la matriz resultante triangular superior es R. Alternativamente, la matriz puede clacularse de la siguiente manera: Recordemos que: Entonces, tenemos
  • 12. Note que y , entonces . Ejemplo Si se considera la descomposición de Se busca la matriz ortogonal tal que Por lo que calculamos mediante Gram-Schmidt como sigue: Por lo tanto, tenemos Considerando errores numéricos de operar con precisión finita en MATLAB, tenemos que
  • 13. Mediante el uso de reflexiones de Householder Una transformación de Householder o reflexión de Householder es una transformación que refleja el espacio con respecto a un plano determinado. Esta propiedad se puede utilizar para realizar la transformación QR de una matriz si tenemos en cuenta que es posible elegir la matriz de Householder de manera que un vector elegido quede con una única componente no nula tras ser transformado (es decir, premultiplicando por la matriz de Householder). Gráficamente, esto significa que es posible reflejar el vector elegido respecto de un plano de forma que el reflejo quede sobre uno de los ejes de la base cartesiana. La manera de elegir el plano de reflexión y formar la matriz de Householder asociada es el siguiente: Sea un vector columna arbitrario m-dimensional tal que || || = |α|, donde α es un escalar; (si el algoritmo se implementa utilizando aritmética de coma flotante, entonces α debe adoptar el signo contrario que 1 para evitar pérdida de precisión). Entonces, siendo el vector (1,0,...,0)T , y ||·|| la norma euclídea, se define: es un vector unitario perpendicular al plano de reflexión elegido. es una matriz de Householder asociada a dicho plano. Esta propiedad se puede usar para transformar gradualmente los vectores columna de una matriz A de dimensiones m por n en una matriz triangular superior. En primer lugar se multiplica A con la matriz de Householder Q1 que obtenemos al elegir como vector la primera columna de la matriz. Esto proporciona una matriz QA con ceros en la primera columna (excepto el elemento de la primera fila).
  • 14. el procedimiento se puede repetir para A′ (que se obtiene de A eliminando la primera fila y columna), obteniendo así una matriz de Householder Q′2. Hay que tener en cuenta que Q′2 es menor que Q1. Para conseguir que esta matriz opere con Q1A en lugar de A′ es necesario expandirla hacia arriba a la izquierda, completando con un uno en la diagonal, o en general: Tras repetir el proceso veces, donde , es una matriz triangular superior. De forma que tomando es una descomposición QR de la matriz . Este método tiene una estabilidad numérica mayor que la del método de Gram- Schmidt descrito arriba. Una pequeña variación de este método se utiliza para obtener matrices semejantes con la forma de Hessenberg, muy útiles en el cálculo de autovalores por acelerar la convergencia del algoritmo QR reduciendo así enormemente su coste computacional. Ejemplo Vamos a calcular la descomposición de la matriz
  • 15. En primer lugar necesitamos encontrar una reflexión que transforme la primera columna de la matriz A, vector , en usando la expresión, y en nuestro caso : y Por lo tanto y , entonces Ahora observamos:
  • 16. con lo que ya casi tenemos una matriz triangular. Sólo necesitamos hacer cero en el elemento (3,2). Tomando la submatriz bajo el (1, 1) y aplicando de nuevo el proceso a Mediante el mismo método que antes obtenemos la matriz de Householder Finalmente obtenemos La matriz Q es ortogonal y R es triangular superior, de forma que A = QR es la descomposición QR buscada. Mediante rotaciones de Givens Las descomposiciones QR también puden calcularse utilizando una serie de rotaciones de Givens. Cada rotación anula (hace cero) un elemento en la subdiagonal de la matriz, formando de este modo la matriz R. La concatenación de todas las rotaciones de Givens realizadas, forma la matriz ortogonal Q. En la práctica, las rotaciones de Givens no se utilizan en la actualidad para construir una matriz completa y realizar un producto de matrices. En su lugar, se utiliza un procedimiento de rotación de Givens, que es equivalente a la multiplicación reducida de matrices de Givens, sin el trabajo extra de manejar los elementos reducidos. El procedimiento de rotación de Givens es útil en situaciones donde sólo pocos elementos fuera de la diagonal necesitan ser anulados y es más fácil de paralelizar que las transformaciones de Householder.
  • 17. Ejemplo Calculemos la descomposición de Primero, necesitamos formar una matriz de rotación tal que hagamos cero el elemento más inferior a la izquierda, . Construimos esta matriz empleando el método de la rotación de Givens y llamamos la matriz resultante . Rotamos primero el vector , representándolo a lo largo del eje X. Este vector forma un ángulo . Creamos la matriz ortogonal de rotación de Givens, : Y el resultado de tiene ahora un cero en el elemento. Procedemos análogamente con las matrices de Givens y , que hacen cero los elementos subdiagonales y , formando una matriz triangular . La matriz ortogonal es formada a partir del producto en cadena de todas las matrices de Givens . Luego tenemos , y la descomposición QR es . Relación con el determinante
  • 18. Es posible utilizar la descomposición QR para encontrar el valor absoluto del determinante de una matriz. Suponiendo que una matriz se descompone según . Entonces se tiene Puesto que Q es unitaria, . Por tanto, donde son los valores de la diagonal de R. METODO DE GAUSS SENDEL Este método es iterativo o de aproximación y es similar a las técnicas que se usan en los métodos anteriores para obtener raíces. Aquellos métodos consisten en la determinación de un valor inicial a partir del cual, mediante una técnica sistemática se obtiene una mejor aproximación a la raíz. La razón por la cual los métodos iterativos son útiles en la disminución de los errores de redondeo en sistemas, se debe a que un método de aproximación se puede continuar hasta que converja dentro de alguna tolerancia de error previamente especificada. Las técnicas iterativas se emplean rara vez para resolver problemas de dimensiones pequeñas ya que el tiempo requerido para lograr una precisión suficiente excede a las técnicas directas. Sin embargo, para sistemas grandes con un gran porcentaje de ceros, ésta técnica es eficiente. Los sistemas de este tipo surgen frecuentemente en la solución numérica de problemas de valores frontera y de ecuaciones diferenciales parciales. Historia: Es una técnica utilizada para resolver sistemas de ecuaciones lineales. El método es llamado de esa manera en honor a los matemáticos alemanes Carl Friedrich Gauss y Philipp Ludwig von Seidel. El método es similar al método de Jacobi. Es un método indirecto, lo que significa que se parte de una aproximación inicial y se repite el proceso hasta llegar a una solución con un margen de error tan pequeño como se quiera. El método de Gauss-Seidel converge a la solución del sistema si se cumple la condición de que la matriz de coeficientes del sistema sea una matriz diagonalmente dominante, es decir, si se cumple la siguiente condición:
  • 19. La condición de ser una matriz diagonalmente dominante simplemente significa que los elementos de la diagonal son mayores (en valor absoluto) que la suma de los valores absolutos de los demás elementos del mismo renglón. Sin embargo, la condición de la matriz diagonalmente dominante, solamente es una condición suficiente pero no necesaria, es decir, existen sistemas de ecuaciones que no cumplen con la condición y que sí convergen a la solución y también existen sistemas de ecuaciones que no cumplen con la condición y que no convergen a la solución. Finalmente, aunque un sistema no cumpla con la condición de ser diagonalmente dominante, es posible a veces, lograr que sí se cumpla con esta condición mediante un intercambio de renglones. En que consiste? Es un método iterativo, lo que significa que se parte de una aproximación inicial y se repite el proceso hasta llegar a una solución con un margen de error tan pequeño como se quiera. Buscamos la solución a un sistema de ecuaciones lineales, en notación matricial: El método de iteración Gauss-Seidel es: Donde: A=N-P definimos M=N-1P Y c=N-1b donde los coeficientes de la matriz N se definen como nij = aij si , nij = 0 sino. Considerando el sistema Ax=b, con la condición de que i= 1, ..., n. Entonces podemos escribir la fórmula de iteración del método La diferencia entre este método y el de Jacobi es que, en este último, las mejoras a las aproximaciones no se utilizan hasta completar las iteraciones. El método de Gauss-Seidel proporciona una solución más rápida que Jacobi ya que usa valores recién calculados en la solución de las incógnitas a calcular. Algoritmo: ¥ Se debe despejar de cada ecuación la variable sobre la diagonal principal. ¥ Dar un valor inicial a las incógnitas (generalmente se establecen ceros).
  • 20. ¥ Sustituir los valores iniciales en la primera ecuación para obtener un nuevo valor para la primera incógnita. ¥ Ese nuevo valor es usado para obtener el valor de la siguiente incógnita. Este procedimiento se repite hasta obtener los nuevos valores de todas las incógnitas despejadas. ¥ Se evalúa la aproximación relativa de todas las incógnitas hasta que la solución converja bastante cerca de la solución real, según la tolerancia establecida para el método. ¥ La iteración de Gauss-Seidel se define al tomar Q como la parte triangular inferior de A incluyendo los elementos de la diagonal ¥ Si, como en el caso anterior, definimos la matriz R=A-Q