1. UNIVERSIDAD FERMIN TORO
ANALISIS NUMERICO
NAUDY LOPEZ
Eliminación de Gauss-Jordan
En matemáticas, la eliminación de Gauss-Jordan, llamada así debido a Carl
Friedrich Gauss y Wilhelm Jordan, es un algoritmo del álgebra lineal para
determinar las soluciones de un sistema de ecuaciones lineales, encontrar
matrices e inversas. Un sistema de ecuaciones se resuelve por el método de
Gauss cuando se obtienen sus soluciones mediante la reducción del sistema dado
a otro equivalente en el que cada ecuación tiene una incógnita menos que la
anterior. El método de Gauss transforma la matriz de coeficientes en una matriz
triangular superior. El método de Gauss-Jordan continúa el proceso de
transformación hasta obtener una matriz diagonal.
Índice
1 Antecedentes
2 Análisis de Complejidad
3 Algoritmo de eliminación de Gauss-Jordan
4 Ejemplo
5 Forma escalonada y escalonada reducida
6 Otras aplicaciones
o 6.1 Encontrando la inversa de una matriz
7 Referencias
8 Véase también
Antecedentes
El método de eliminación de Gauss aparece en el capítulo ocho del importante
texto matemático chino Jiuzhang suanshu o Los nueve capítulos sobre el arte
matemático. Su uso se ilustra en dieciocho problemas, con dos a cinco
ecuaciones. La primera referencia al libro por este título data desde 179 dC, pero
algunas de sus partes fueron escritas tan temprano como aproximadamente
alrededor de 150 aC.1 2
Fue comentado por Liu Hui en el siglo tercero.
Análisis de Complejidad
2. La complejidad computacional de la eliminación gaussiana es aproximadamente
n3
. Esto es, el número de operaciones requeridas es n3
si el tamaño de la matriz
es n × n.
Algoritmo de eliminación de Gauss-Jordan
1. Ir a la columna no cero extrema izquierda
2. Si el primer renglón tiene un cero en esta columna, intercambiarlo con otro
que no lo tenga
3. Luego, obtener ceros debajo de este elemento delantero, sumando
múltiplos adecuados del renglón superior a los renglones debajo de él
4. Cubrir el renglón superior y repetir el proceso anterior con la submatriz
restante. Repetir con el resto de los renglones (en este punto la matriz se
encuentra en la forma de escalón)
5. Comenzando con el último renglón no cero, avanzar hacia arriba: para cada
renglón obtener un 1 delantero e introducir ceros arriba de éste sumando
múltiplos correspondientes a los renglones correspondientes
Una variante interesante de la eliminación de Gauss es la que llamamos
eliminación de Gauss-Jordan, (debido al mencionado Gauss y a Wilhelm Jordan),
esta consiste en ir obteniendo los 1 delanteros durante los pasos uno al cuatro
(llamados paso directo) así para cuando estos finalicen ya se obtendrá la matriz en
forma escalonada reducida
Ejemplo
Supongamos que es necesario encontrar los números "x", "y", "z", que satisfacen
simultáneamente estas ecuaciones:
Esto es llamado un sistema lineal de ecuaciones. El objetivo es reducir el sistema
a otro equivalente, que tenga las mismas soluciones. Las operaciones (llamadas
elementales) son estas:
Multiplicar una ecuación por un escalar no nulo.
Intercambiar de posición dos ecuaciones
Sumar a una ecuación un múltiplo de otra.
Estas operaciones pueden representarse con matrices elementales que se usan
también en otros procedimientos como la factorización LU o la diagonalización por
congruencia de una matriz simétrica.
3. En nuestro ejemplo, eliminamos x de la segunda ecuación sumando 3/2 veces la
primera ecuación a la segunda y después sumamos la primera ecuación a la
tercera. El resultado es:
Ahora eliminamos y de la primera ecuación sumando -2 veces la segunda
ecuación a la primera, y sumamos -4 veces la segunda ecuación a la tercera para
eliminar y.
Finalmente eliminamos z de la primera ecuación sumando -2 veces la tercera
ecuación a la primera, y sumando 1/2 veces la tercera ecuación a la segunda para
eliminar z.
Despejando, podemos ver las soluciones:
Para clarificar los pasos, se trabaja con la matriz aumentada. Podemos ver los 3
pasos en su notación matricial:
Primero:
Después,
4. Por último.
Si el sistema fuera incompatible, entonces nos encontraríamos con una fila como
esta:
Que representa la ecuación: , es decir, que no tiene
solución.
Forma escalonada y escalonada reducida
Artículo principal: Matriz escalonada.
Dos formas especiales de matrices son la escalonada y la escalonada reducida.
Una matriz puede tener las siguientes propiedades:
1. Todas las filas 1 están en la parte inferior de la matriz.
2. El elemento delantero de cada fila diferente de cero, éste es llamado
"pivote"; éstos están a la derecha del elemento delantero de la fila anterior
(esto supone que todos los elementos debajo de un pivote son cero).
Si una matriz A cumple con esas propiedades, se dice escalonada. Además,
cumpliendo estas otras condiciones, decimos que la matriz se encuentra en la
forma reducida de renglón escalón o tan solo en forma escalonada reducida.
1. Todos los elementos delanteros ("pivotes") son iguales a 1
2. Todos los elementos por encima de los pivotes son nulos.
Cuando una matriz representa a un sistema de ecuaciones situaciones como tener
una columna de ceros parece imposible ya que correspondería a una variable que
nunca habría aparecido. Sin embargo esta situación puede presentarse
(imaginemos la ecuación de un plano en el espacio en la que no aparece alguna
de las componentes, por ejemplo y+z=0). Así la matriz
5. también es una matriz escalonada.
Una vez que la matriz del sistema se ha transformado hasta obtener una matriz
escalonada reducida es muy fácil discutirlo (es decir, determinar cuántas
soluciones tiene):
1. Cuando aparece un pivote en la columna de los términos independientes el
sistema es incompatible (no tiene ninguna solución).
2. En otro caso el sistema es compatible. Si además el número de pivotes
coincide con el número de incógnitas el sistema es compatible determinado
(tiene una única solución). Cuando el número de pivotes es menor que el
número de incógnitas el sistema es indeterminado (tiene infinitas soluciones
que dependen de tantos parámetros como indique la diferencia entre el
número de incógnitas y el número de pivotes).
Otras aplicaciones
Encontrando la inversa de una matriz
Es posible usar la eliminación gaussiana para encontrar inversas de matrices n ×
n. Para ello se aumenta la matriz dada, digamos A con una matriz identidad,
simplemente escribiendo las filas de la identidad a continuación de las de nuestra
matriz A, por ejemplo dada:
se construiría
y ahora se realizan las operaciones elementales sobre las filas de la matriz
aumentada que sean necesarias para obtener la forma escalonada reducida de la
matriz A; sumando tanto a la segunda como a la tercera fila la primera obtenemos
6. multiplicamos la segunda fila por -1 y la intercambiamos con la primera
ya tenemos el pivote de la primera fila que usamos para hacer ceros debajo
ahora usamos el pivote de la segunda fila
y por último cambiamos de signo la tercera fila y usamos el pivote correspondiente
El proceso ha finalizado porque en la parte izquierda tenemos la forma escalonada
reducida de A y puesto que ésta es la matriz identidad, entonces A tiene inversa y
su inversa es la matriz que aparece a la derecha, en el lugar que al principio
ocupaba la identidad. Cuando la forma escalonada reducida que aparece no es la
identidad es que la matriz de partida no tiene inversa.
LA FACTORIZACIÓN DE CHOLESKY
JUAN CAMILO MUÑOZ CASTELBLANCO
257120
7. Resumen
La factorización de Cholesky es una manera de resolver sistemas de
ecuaciones matriciales, tenemos la matriz de coeficientes de un sistema de
ecuaciones, llamada A. Una condición necesaria y suficiente para que una
matriz A admita factorización de Cholesky es que sea simétrica y definida
positiva. Si cumple podemos tratar de factorizarla la forma A = L*LT
, cuando la
tenemos factorizada ya podemos resolver el sistema de ecuaciones.
Desarrollo
Sea el sistema de ecuaciones lineales A x = b, donde A es simétrica y definida
positiva, entonces el método de Cholesky para la resolución del sistema A x =
b está basado en la descomposición de la matriz A como sigue:
donde L es una matriz triangular inferior de orden n, es decir, L tiene la
siguiente forma:
Descompuesta de esta forma la matriz A, la resolución del sistema A x = b
queda dada por la resolución de dos sistemas triangulares. En efecto,
Si hacemos,
entonces :
el cual resulta un sistema triangular inferior en y, con:
8. de fácil resolución con:
En forma general, tenemos:
Una vez que se resuelve (1.9), procedemos a resolver el sistema (1.8), que es
un sistema triangular superior
Es decir, los valores de quedan dados por:
De (1.6) se obtienen las siguientes ecuaciones para el cálculo de los
elementos de la matriz L ( ):
Se mencionó anteriormente que para la aplicación de este método la matriz A
debe ser simétrica y definida positiva. A continuación se enuncian ciertos
teoremas al respecto.
Observación: Es necesario verificar que ningún elemento de la diagonal
principal sea cero.
9. Factorización QR
Saltar a: navegación, búsqueda
En álgebra lineal, la descomposición o factorización QR de una matriz es una
descomposición de la misma como producto de una matriz ortogonal por una
10. triangular superior. La descomposición QR es la base del algoritmo QR utilizado
para el cálculo de los vectores y valores propios de una matriz.
Índice
1 Definición
2 Cálculo de la descomposición QR
o 2.1 Mediante el método de ortogonalización de Gram-Schmidt
2.1.1 Ejemplo
o 2.2 Mediante el uso de reflexiones de Householder
2.2.1 Ejemplo
o 2.3 Mediante rotaciones de Givens
2.3.1 Ejemplo
3 Relación con el determinante
Definición
La descomposición QR de una matriz cuadrada real A es
donde Q es una matriz ortogonal (QT
Q = I ) y R es una matriz triangular superior.
Cálculo de la descomposición QR
Mediante el método de ortogonalización de Gram-Schmidt
Recurriendo al método de ortogonalización de Gram-Schmidt, con las columnas
de A como los vectores a procesar.
. Entonces
11. Naturalmente, utilizamos los ais de A para obtener:
Ahora estas ecuaciones pueden ser escritas en forma matricial de esta manera:
:::::::::
El producto de cada fila con cada columa de las matrices de arriba, nos da la
respectiva columna de A con la que comenzamos y, por tanto, dada la matriz A, la
hemos factorizado en una matriz ortogonal Q (la matriz de eks), aplicando el
proceso de Gram-Schmidt, y la matriz resultante triangular superior es R.
Alternativamente, la matriz puede clacularse de la siguiente manera:
Recordemos que: Entonces, tenemos
12. Note que y , entonces
.
Ejemplo
Si se considera la descomposición de
Se busca la matriz ortogonal tal que
Por lo que calculamos mediante Gram-Schmidt como sigue:
Por lo tanto, tenemos
Considerando errores numéricos de operar con precisión finita en MATLAB,
tenemos que
13. Mediante el uso de reflexiones de Householder
Una transformación de Householder o reflexión de Householder es una
transformación que refleja el espacio con respecto a un plano determinado. Esta
propiedad se puede utilizar para realizar la transformación QR de una matriz si
tenemos en cuenta que es posible elegir la matriz de Householder de manera que
un vector elegido quede con una única componente no nula tras ser transformado
(es decir, premultiplicando por la matriz de Householder). Gráficamente, esto
significa que es posible reflejar el vector elegido respecto de un plano de forma
que el reflejo quede sobre uno de los ejes de la base cartesiana.
La manera de elegir el plano de reflexión y formar la matriz de Householder
asociada es el siguiente:
Sea un vector columna arbitrario m-dimensional tal que || || = |α|, donde α es un
escalar; (si el algoritmo se implementa utilizando aritmética de coma flotante,
entonces α debe adoptar el signo contrario que 1 para evitar pérdida de
precisión).
Entonces, siendo el vector (1,0,...,0)T
, y ||·|| la norma euclídea, se define:
es un vector unitario perpendicular al plano de reflexión elegido. es una matriz
de Householder asociada a dicho plano.
Esta propiedad se puede usar para transformar gradualmente los vectores
columna de una matriz A de dimensiones m por n en una matriz triangular
superior. En primer lugar se multiplica A con la matriz de Householder Q1 que
obtenemos al elegir como vector la primera columna de la matriz. Esto
proporciona una matriz QA con ceros en la primera columna (excepto el elemento
de la primera fila).
14. el procedimiento se puede repetir para A′ (que se obtiene de A eliminando la
primera fila y columna), obteniendo así una matriz de Householder Q′2. Hay que
tener en cuenta que Q′2 es menor que Q1. Para conseguir que esta matriz opere
con Q1A en lugar de A′ es necesario expandirla hacia arriba a la izquierda,
completando con un uno en la diagonal, o en general:
Tras repetir el proceso veces, donde ,
es una matriz triangular superior. De forma que tomando
es una descomposición QR de la matriz .
Este método tiene una estabilidad numérica mayor que la del método de Gram-
Schmidt descrito arriba.
Una pequeña variación de este método se utiliza para obtener matrices
semejantes con la forma de Hessenberg, muy útiles en el cálculo de autovalores
por acelerar la convergencia del algoritmo QR reduciendo así enormemente su
coste computacional.
Ejemplo
Vamos a calcular la descomposición de la matriz
15. En primer lugar necesitamos encontrar una reflexión que transforme la primera
columna de la matriz A, vector , en
usando la expresión,
y
en nuestro caso :
y
Por lo tanto
y , entonces
Ahora observamos:
16. con lo que ya casi tenemos una matriz triangular. Sólo necesitamos hacer cero en
el elemento (3,2).
Tomando la submatriz bajo el (1, 1) y aplicando de nuevo el proceso a
Mediante el mismo método que antes obtenemos la matriz de Householder
Finalmente obtenemos
La matriz Q es ortogonal y R es triangular superior, de forma que A = QR es la
descomposición QR buscada.
Mediante rotaciones de Givens
Las descomposiciones QR también puden calcularse utilizando una serie de
rotaciones de Givens. Cada rotación anula (hace cero) un elemento en la
subdiagonal de la matriz, formando de este modo la matriz R. La concatenación de
todas las rotaciones de Givens realizadas, forma la matriz ortogonal Q.
En la práctica, las rotaciones de Givens no se utilizan en la actualidad para
construir una matriz completa y realizar un producto de matrices. En su lugar, se
utiliza un procedimiento de rotación de Givens, que es equivalente a la
multiplicación reducida de matrices de Givens, sin el trabajo extra de manejar los
elementos reducidos. El procedimiento de rotación de Givens es útil en situaciones
donde sólo pocos elementos fuera de la diagonal necesitan ser anulados y es más
fácil de paralelizar que las transformaciones de Householder.
17. Ejemplo
Calculemos la descomposición de
Primero, necesitamos formar una matriz de rotación tal que hagamos cero el
elemento más inferior a la izquierda, . Construimos esta matriz
empleando el método de la rotación de Givens y llamamos la matriz resultante .
Rotamos primero el vector , representándolo a lo largo del eje X. Este
vector forma un ángulo . Creamos la matriz ortogonal de
rotación de Givens, :
Y el resultado de tiene ahora un cero en el elemento.
Procedemos análogamente con las matrices de Givens y , que hacen cero
los elementos subdiagonales y , formando una matriz triangular . La
matriz ortogonal es formada a partir del producto en cadena de todas las
matrices de Givens . Luego tenemos ,
y la descomposición QR es .
Relación con el determinante
18. Es posible utilizar la descomposición QR para encontrar el valor absoluto del
determinante de una matriz. Suponiendo que una matriz se descompone según
. Entonces se tiene
Puesto que Q es unitaria, . Por tanto,
donde son los valores de la diagonal de R.
METODO DE GAUSS SENDEL
Este método es iterativo o de aproximación y es similar a las técnicas que se usan
en los métodos anteriores para obtener raíces. Aquellos métodos consisten en la
determinación de un valor inicial a partir del cual, mediante una técnica
sistemática se obtiene una mejor aproximación a la raíz.
La razón por la cual los métodos iterativos son útiles en la disminución de los
errores de redondeo en sistemas, se debe a que un método de aproximación se
puede continuar hasta que converja dentro de alguna tolerancia de error
previamente especificada.
Las técnicas iterativas se emplean rara vez para resolver problemas de
dimensiones pequeñas ya que el tiempo requerido para lograr una precisión
suficiente excede a las técnicas directas. Sin embargo, para sistemas grandes con
un gran porcentaje de ceros, ésta técnica es eficiente.
Los sistemas de este tipo surgen frecuentemente en la solución numérica de
problemas de valores frontera y de ecuaciones diferenciales parciales.
Historia:
Es una técnica utilizada para resolver sistemas de ecuaciones lineales. El método
es llamado de esa manera en honor a los matemáticos alemanes Carl Friedrich
Gauss y Philipp Ludwig von Seidel. El método es similar al método de Jacobi.
Es un método indirecto, lo que significa que se parte de una aproximación inicial y
se repite el proceso hasta llegar a una solución con un margen de error tan
pequeño como se quiera.
El método de Gauss-Seidel converge a la solución del sistema si se cumple la
condición de que la matriz de coeficientes del sistema sea una matriz
diagonalmente dominante, es decir, si se cumple la siguiente condición:
19. La condición de ser una matriz diagonalmente dominante simplemente significa
que los elementos de la diagonal son mayores (en valor absoluto) que la suma de
los valores absolutos de los demás elementos del mismo renglón.
Sin embargo, la condición de la matriz diagonalmente dominante, solamente es
una condición suficiente pero no necesaria, es decir, existen sistemas de
ecuaciones que no cumplen con la condición y que sí convergen a la solución y
también existen sistemas de ecuaciones que no cumplen con la condición y que
no convergen a la solución.
Finalmente, aunque un sistema no cumpla con la condición de ser diagonalmente
dominante, es posible a veces, lograr que sí se cumpla con esta condición
mediante un intercambio de renglones.
En que consiste?
Es un método iterativo, lo que significa que se parte de una aproximación inicial y
se repite el proceso hasta llegar a una solución con un margen de error tan
pequeño como se quiera. Buscamos la solución a un sistema de ecuaciones
lineales, en notación matricial:
El método de iteración Gauss-Seidel es:
Donde:
A=N-P definimos
M=N-1P
Y
c=N-1b
donde los coeficientes de la matriz N se definen como nij = aij si , nij = 0 sino.
Considerando el sistema Ax=b, con la condición de que i= 1, ..., n. Entonces
podemos escribir la fórmula de iteración del método
La diferencia entre este método y el de Jacobi es que, en este último, las mejoras
a las aproximaciones no se utilizan hasta completar las iteraciones.
El método de Gauss-Seidel proporciona una solución más rápida que Jacobi ya
que usa valores recién calculados en la solución de las incógnitas a calcular.
Algoritmo:
¥ Se debe despejar de cada ecuación la variable sobre la diagonal principal.
¥ Dar un valor inicial a las incógnitas (generalmente se establecen ceros).
20. ¥ Sustituir los valores iniciales en la primera ecuación para obtener un nuevo valor para
la primera incógnita.
¥ Ese nuevo valor es usado para obtener el valor de la siguiente incógnita. Este
procedimiento se repite hasta obtener los nuevos valores de todas las incógnitas
despejadas.
¥ Se evalúa la aproximación relativa de todas las incógnitas hasta que la solución
converja bastante cerca de la solución real, según la tolerancia establecida para el
método.
¥ La iteración de Gauss-Seidel se define al tomar Q como la parte triangular inferior de A
incluyendo los elementos de la diagonal
¥ Si, como en el caso anterior, definimos la matriz R=A-Q