1. UNIVERSIDAD FERMIN TORO
ANALISIS NUMERICO
ROGER OSUNA
ELIMINACION GAUSSIANA
En forma general este método propone la eliminación progresiva de variables en el
sistema de ecuaciones, hasta tener sólo una ecuación con una incógnita. Una vez
resuelta esta, se procede por sustitución regresiva hasta obtener los valores de
todas las variables.
Sea por ejemplo el siguiente sistema de ecuaciones:
Lo que buscamos son 3 números, que satisfagan a las tres ecuaciones. El
método de solución será simplificar las ecuaciones, de tal modo que las soluciones
se puedan identificar con facilidad. Se comienza dividiendo la primera ecuación
entre 2, obteniendo:
Se simplificará el sistema si multiplicamos por -4 ambos lados de la primera
ecuación y sumando esta a la segunda. Entonces:
sumadolas resulta
La nueva ecuación se puede sustituir por cualquiera de las dos. Ahora tenemos:
Luego, la primera se multiplica por -3 y se le suma a la tercera, obteniendo:
2. Acto seguido, la segunda ecuación se divide entre -3.
Ahora se multiplica por 5 y se le suma a la tercera:
En este momento ya tenemos el valor de x3, ahora simplemente se procede a
hacer la sustitución hacia atrás, y automáticamente se van obteniendo los valores
de las otras incógnitas. Se obtendrá:
Se ha visto que al multiplicar o dividir los lados de una ecuación por un número
diferente de cero se obtiene una ecuación nueva y válida.
Por otra parte, si se suma un múltiplo de una ecuación a otra ecuación del mismo
sistema, el resultado es otra ecuación válida. Por último, si se intercambian dos
ecuaciones de un sistema, lo que se obtiene es un sistema equivalente. Estas tres
operaciones, cuando se aplican a los renglones de una matriz aumentada, que
representa un sistema de ecuaciones, recibe el nombre de operaciones
elementales de renglón.
Operaciones elementales de renglón
a) Multiplicar o dividir un renglón por un número distinto de cero.
b) Sumar el múltiplo de otro renglón a otro renglón.
c) intercambiar dos renglones
3. Hasta aquí hemos supuesto una situación idealmente simple en la que ningún
pivote (o coeficiente diagonal), , se convierte en cero. Si cualqluier pivote se
vuelve cero en el proceso de resolución, la eliminación hacia adelante no
procederá.
El pivoteo consiste en intercambiar el orden de las ecuaciones de modo que el
coeficiente del pivote, , tenga la magnitud (en valor absoluto) mayor que
cualquier otro coeficiente que esté debajo de él en la misma columna y que por
tanto vaya a ser eliminado. Esto se repite con cada pivote hasta completar la
eliminación hacia adelante.
Factorización de Cholesky
Una matriz A simétrica y positiva definida puede ser factorizada de manera
eficiente por medio de una matrz triangular infereior y una matriz triangular
superior.
Para una matriz no singular la descomposición LU nos lleva a considerar una
descomposición de tal tipo A = LU; dadas las condiciones de A, simétrica y
definida positiva, no es necesario hacer pivoteo, por lo que ésta factorización se
hace eficientemente y en un número de operaciones la mitad de LU tomando la
forma , donde L (la cual podemos "verla" como la raíz cuadrada de A) es
una matriz triangular inferior donde los elementos de la diagonal son positivos.
Para resolver un sistema lineal Ax = b con A simétrica definida positiva y dada su
factorizaciòn de Cholesky , primero debemos resolver Ly = b y entonces
resolver para lograr x.
Una variante de la factorización de Cholesky es de la forma , donde R
es una matriz triangular superior, en algunas aplicaciones se desea ver la matriz
en esa forma y no de otra.
Para encontrar la factorización , bastaría ver la forma de L y observar las
ecuaciones que el producto derecho nos conduce al igualar elementos:
así obtendríamos que:
4. a11 = l11
2
a21 = l21l11
a22=l21
2
+ l2
22
a32=l31l21+l32l22 l32=(a32-l31l21)/l22, etc.
y de manera general, para y :
Ahora bien, ya que A es simétrica y definida positiva, podemos asegurar que los
elementos sobre la diagonal de L son positivos y los restantes elementos reales
desde luego.
Una de las aplicaciones de la factorización de Cholesky es resolver las ecuaciones
normales de un problema de cuadrados mínimos, esas ecuaciones
son: , en la que es simétrica y definida positiva.
Método de Gauss-Seidel
La iteración de Gauss-Seidel se define al tomar Q como la parte triangular
inferior de A incluyendo los elementos de la diagonal:
Si, como en el caso anterior, definimos la matriz R=A-Q
5. y la ecuación (63) se puede escribir en la forma:
Qx(k)
= -Rx(k-1)
+ b
Un elemento cualquiera, i, del vector Qx(k)
vendrá dado por la ecuación:
Si tenemos en cuenta la peculiar forma de las matrices Q y R, resulta que todos
los sumandos para los que j > i en la parte izquierda son nulos, mientras que en la
parte derecha son nulos todos los sumandos para los que . Podemos
escribir entonces:
=
=
de donde despejando xi
(k)
, obtenemos:
6. Obsérvese que en el método de Gauss-Seidel los valores actualizados de xi
sustituyen de inmediato a los valores anteriores, mientras que en el método de
Jacobi todas las componentes nuevas del vector se calculan antes de llevar a
cabo la sustitución. Por contra, en el método de Gauss-Seidel los cálculos deben
llevarse a cabo por orden, ya que el nuevo valor xi depende de los valores
actualizados de x1, x2, ..., xi-1.
En la figura (15) se incluye un algoritmo para la iteración de Gauss-Seidel.
Figure: Algoritmo para la iteración de Gauss-Seidel.