1. REPUBLICA BOLIVARIANA DE VENEZUELA
UNIVERSIDAD FERMIN TORO
VICE RECTORADO ACADEMICO
ESCUELA DE INGENIERIA
CABUDARE-LARA
Solución de sistemas de ecuaciones lineales
DIEGO LEAL P.
CI 25927184
SAIA A
PROF DOMINGOMÉNDEZ
JUNIO 2016
¿Qué es un slideshare?
2. SlideShare esunsitioweb 2.0 de alojamiento de diapositivas que ofrece a los usuarios la
posibilidad de subir y compartir en público o en privado presentaciones de diapositivas en
PowerPoint(.ppt,.pps,.pptx,.ppsx,.poty.potx),OpenOffice (.odp);presentacionese infografíasPDF
(.pdf);documentosenAdobe PDF(.pdf),MicrosoftWord(.doc,.docx y.rtf) yOpenOffice (.odt) y la
mayoría de documentosde texto sin formato (.txt), e incluso algunos formatos de audio y vídeo.
Originalmente el sitio web estaba destinado para los empleados del ámbito empresarial con la
intención de que compartieran con más facilidad diapositivas entre ellos, pero luego el público
objetivo se amplió para convertirse también en un entretenimiento.
SOLUCIONES DE SISTEMAS DE ECUACIONES LINEALES
MÉTODOS DE ELIMINACIÓNGAUSSIANA:
El primermétodoque se presentausualmente en álgebra, para la solución de ecuaciones
algebraicas lineales simultáneas, es aquel en el que se eliminan las incógnitas mediante la
combinación de las ecuaciones. Este método se conoce como Método de Eliminación. Se
denominaeliminaciónGaussiana si en el proceso de eliminación se utiliza el esquema particular
atribuido a Gauss.
Utilizando el método de Gauss, un conjunto de n ecuaciones con n incógnitas se reduce a un
sistematriangularequivalente(unsistemaequivalenteesunsistemaque tiene iguales valores de
la solución), que a su vez se resuelve fácilmente por "sustitución inversa"; un procedimiento
simple que se ilustrará con la presentación siguiente.
El esquema de Gauss empieza reduciendo un conjunto de ecuaciones simultáneas, a un sistema
triangular equivalente como:
En el cual los superíndices indican los nuevos coeficientes que se forman en el proceso de
reducción. La reducción real se logra de la siguiente manera:
1. La primera ecuación se divide entre el coeficiente de X1 en esa ecuación para obtener:
(1)
(2)
3. 2. La ecuación(3) se multiplicaentoncesporel coeficientede X1de la segundaecuación(1) y
la ecuación que resulta se resta de la misma, eliminando así X1. La ecuación (2) se multiplica
entoncesporel coeficiente de X1de la terceraecuación(2),y la ecuaciónresultante se resta de la
misma para eliminar X1 de esa ecuación. En forma similar, X1 se elimina de todas las ecuaciones
del conjunto excepto la primera, de manera que el conjunto adopta la forma:
3. La ecuación utilizada para eliminar las incógnitas en las ecuaciones que la siguen se
denomina Ecuación Pivote. En la ecuación pivote, el coeficiente de la incógnita que se va a
eliminar de las ecuaciones que la siguen se denomina el Coeficiente Pivote (a11 en los pasos
previos).
4. Siguiendolospasosanteriores,lasegundaecuación(4) se convierte enlaecuación pivote,
y los pasos de la parte 1 se repiten para eliminar X2 de todas las ecuaciones que siguen a esta
ecuación pivote.
Esta reducción nos conduce a:
A continuación se utiliza la tercer ecuación (5) como ecuación pivote, y se usa el procedimiento
descrito para eliminar X3 de todas las ecuaciones que siguen a la tercer ecuación (5). Este
procedimiento,utilizandodiferentesecuacionespivote,se continúahastaque el conjunto original
de ecuaciones ha sido reducido a un conjunto triangular tal como se muestra en la ecuación (2).
(3)
(4)
(5)
4. 5. Una vez obtenido el conjunto triangular de ecuaciones, la última ecuación de este
conjunto equivalente suministra directamente el valor de Xn (ver ec. 2). Este valor se sustituye
entoncesenlaantepenúltimaecuacióndelconjuntotriangularparaobtenerunvalorde Xn-1, que
a su vez se utiliza junto con el valor de Xn en la penúltima ecuación del conjunto triangular para
obtenerunvalorXn-2 y así sucesivamente.Este esel procedimiento de sustitución inversa al que
nos referimos previamente.
Para ilustrarel métodoconun conjuntonumérico,apliquemosestosprocedimientos a la solución
del siguiente sistema de ecuaciones:
X1 + 4 X2 + X3 = 7
X1 + 6 X2 - X3 = 13
2 X1 - X2 + 2 X3 = 5
Utilizando como ecuación pivote la primera ecuación (el coeficiente pivote es unitario),
obtenemos:
X1 + 4 X2 + X3 = 7
2 X2 - 2 X3 = 6
9 X2 + (0) X3 = -9
A continuación,utilizandola segundaecuacióndel sistema (7) como ecuación pivote y repitiendo
X1 + 4 X2 + X3 = 7
2 X2 - 2 X3 = 6
- 9 X3 = 18
Finalmente mediante sustitución inversa, comenzando con la última de las ecuaciones (8) se
obtienen los siguientes valores:
X3 = -2
X2 = 1
X1 = 5
(6)
(7)
(8)
5. MÉTODO DE GAUSS-JORDAN:
Este método,que constituye unavariacióndel métodode eliminación de Gauss, permite resolver
hasta 15 o 20 ecuaciones simultáneas, con 8 o 10 dígitos significativos en las operaciones
aritméticas de la computadora. Este procedimiento se distingue del método Gaussiano en que
cuando se elimina una incógnita, se elimina de todas las ecuaciones restantes, es decir, las que
preceden a la ecuación pivote así como de las que la siguen.
El método se ilustra mejor con un ejemplo. Resolvamos el siguiente conjunto de ecuaciones
3.0 X1 - 0.1 X2 - 0.2 X3 = 7.8500
0.1 X1 + 7.0 X2 - 0.3 X3 = - 19.3
0.3 X1 - 0.2 X2 + 10 X3 = 71.4000
Primero expresemos los coeficientes y el vector de términos independientes como una matriz
aumentada.
Se normaliza el primer renglón dividiendo entre 3 para obtener:
El términoX1se puede eliminar del segundo renglón restando 0.1 veces el primero del segundo
renglón. De una manera similar, restando 0.3 veces el primero del tercer renglón se elimina el
término con X1 del tercer renglón.
6. En seguida, se normaliza el segundo renglón dividiendo entre 7.00333:
Reduciendo los términos en X2 de la primera y la tercera ecuación se obtiene:
El tercer renglón se normaliza dividiendolo entre 10.010:
Finalmente, los términos con X3 se pueden reducir de la primera y segunda ecuación para
obtener:
Nótese que no se necesita sustitución hacia atrás para obtener la solución.
Las ventajas y desventajas de la eliminación gaussiana se aplican también al método de Gauss-
Jordan.
Aunque losmétodosde Gauss-Jordanyde eliminaciónde Gausspueden parecer casi idénticos, el
primero requiere aproximadamente 50% menos operaciones. Por lo tanto, la eliminación
gaussiana es el método simple por excelencia en la obtención de soluciones exactas a las
ecuacioneslinealessimultáneas. Una de las principales razones para incluir el método de Gauss-
Jordan, es la de proporcionar un método directo para obtener la matriz inversa.
7. DESCOMPOSICIÓN LU:
Su nombre se derivade laspalabrasinglesas“Lower"y“Upper”,que enespañol se traducen como
“Inferior” y “Superior”. Estudiando el proceso que se sigue en la descomposición LU es posible
comprenderel por qué de este nombre, analizando cómo una matriz original se descompone en
dos matrices triangulares, una superior y otra inferior.
La descomposición LU involucra solo operaciones sobre los coeficientes de la matriz [A],
proporcionandounmedioeficiente para calcular la matriz inversa o resolver sistemas de álgebra
lineal.
Primeramente se debe obtener la matriz [L] y la matriz [U].
[L] es una matriz diagonal inferior con números 1 sobre la diagonal. [U] es una matriz diagonal
superior en la que sobre la diagonal no necesariamente tiene que haber números 1.
El primerpasoesdescomponerotransformar[A] en[L] y [U], esdecir obtener la matriz triangular
inferior [L] y la matriz triangular superior [U].
PASOS PARA ENCONTRAR LA MATRIZ TRIANGULAR SUPERIOR (MATRIZ [U])
1. Hacer cero todos los valores abajo del pivote sin convertir este en 1.
2. Para lograr lo anterior se requiere obtener un factor el cual es necesario para convertir a
cero los valores abajo del pivote.
3. Dicho factor es igual al número que se desea convertir en cero entre el número pivote.
4. Este factor multiplicado por -1 se multiplica luego por el pivote y a ese resultado se le
suma el valor que se encuentra en la posición a cambiar (el valor en la posición que se
convertirá en cero). Esto es:
- factor * pivote + posición a cambiar
PASOS PARA ENCONTRAR LA MATRIZ TRIANGULAR INFERIOR (MATRIZ [L])
Para encontrar la matriz triangular inferior se busca hacer ceros los valores de arriba de
cada pivote,asícomo tambiénconvertiren1 cada pivote.Se utilizael mismoconceptode “factor”
explicadoanteriormente yse ubicantodoslos“factores”debajode ladiagonal segúncorresponda
en cada uno.
8. Esquemáticamente se busca lo siguiente:
Originalmente se tenía:
Debido a que [A] = [L][U], al encontrar [L] y [U] a partir de [A] no se altera en nada la
ecuación y se tiene lo siguiente:
Por lo tanto, si Ax = b, entonces LUx = b, de manera que Ax = LUx = b.
PASOS PARA RESOLVER UN SISTEMA DE ECUACIONES POR EL MÉTODO DE DESCOMPOSICIÓN LU
1. Obtener la matriz triangular inferior L y la matriz triangular superior U.
2. Resolver Ly = b (para encontrar y).
3. El resultado del paso anterior se guarda en una matriz nueva de nombre “y”.
4. Realizar Ux = y (para encontrar x).
5. El resultadodel pasoanteriorse almacenaenunamatriznuevallamada “x”, la cual brinda
los valores correspondientes a las incógnitas de la ecuación.
EJEMPLO DE DESCOMPOSICIÓN LU
PROBLEMA: Encontrar los valores de x1, x2 y x3 para el siguiente sistema de ecuaciones:
NOTA: Recuérdese que si la matriz es 2x2 se hará 1 iteración; si es 3x3, 2 iteraciones; si es 4x4, 3
iteraciones; y así sucesivamente.
10. 4 - 2 - 1
[U] = 0 3.5 0.25
0 0 - 0.9285714286
Encontrando [L]
1 0 0
[L] = 1.25 1 0
0.25 0.7142857143 1
Ahoraya se tiene lamatriz[U] y la matriz[L].El siguiente pasoesresolver
Ly = b para encontrar la matriz y. En pocas palabras es como que se pidiera resolver el siguiente
sistema de ecuaciones, encontrando los valores de y1, y2 y y3:
Al resolver el sistema anterior, se obtienen los siguientes valores para y1, y2 y y3:
El últimopasoesresolverUx = y para encontrar lamatriz x.En otras palabras es como que
se pidiera resolver el siguiente sistema de ecuaciones, encontrando los valores de x1, x2 y x3:
La solución del sistema es:
Este es finalmente el valor de x1, x2 y x3; es decir, la respuesta del ejercicio utilizando la
descomposición LU.
11. FACTORIZACIÓN DE CHOLESKY:
En matemáticas, la factorización o descomposición de Cholesky toma su nombre del
matemático André-Louis Cholesky, quien encontró que una matriz simétrica definida positiva
puede serdescompuesta como el producto de una matriz triangular inferior y la traspuesta de la
matriz triangular inferior. La matriz triangular inferior es el triángulo de Cholesky de la matriz
original positiva definida. El resultado de Cholesky ha sido extendido a matrices con entradas
complejas. Es una manera de resolver sistemas de ecuaciones matriciales y se deriva de la
factorización LU con una pequeña variación.
Cualquier matriz cuadrada A con pivotes no nulos puede ser escrita como el producto de una
matriz triangular inferior L y una matriz triangular superior U; esto recibe el nombre de
factorizaciónLU. Sinembargo,si A es simétricaydefinidapositiva,se pueden escoger los factores
talesque U es la transpuestade L,y esto se llama la descomposición o factorización de Cholesky.
Tanto la descomposición LU como la descomposición de Cholesky son usadas para resolver
sistemasde ecuacioneslineales.Cuandoesaplicable,ladescomposiciónde Cholesky es dos veces
más eficiente que la descomposición LU.
DEFINICIÓN:
En general, si A es Hermitiana y definida positiva, entonces A puede ser descompuesta como
𝑨 = 𝑳𝑳∗ ,
donde L es una matriz triangular inferior con entradas diagonales estrictamente positivas y L*
representa la conjugada traspuesta de L. Esta es la descomposición de Cholesky.
La descomposiciónde Choleskyesúnica:dadauna matrizHermitiana positiva definida A, hay una
únicamatriz triangularinferiorLcon entradasdiagonalesestrictamente positivastalesque A = LL*.
El recíproco se tiene trivialmente:si A se puede escribir como LL* para alguna matriz invertible L,
triangular inferior o no, entonces A es Hermitiana y definida positiva.
El requisitode que Ltengaentradasdiagonalesestrictamente positivas puede extenderse para el
caso de la descomposiciónenel casode ser semidefinidapositiva.Laproposiciónse lee ahora:una
matriz cuadrada A tiene una descomposición de Cholesky si y sólo si A es Hermitiana y
semidefinida positiva. Las factorizaciones de Cholesky para matrices semidefinidas positivas no
son únicas en general.
En el caso especial que A esuna matrizsimétricadefinidapositivacon entradas reales, L se puede
asumirtambién con entradas reales. Una Matriz D diagonal con entradas positivas en la diagonal
(valores propios de A), es factorizable como 𝑫 = √ 𝑫√ 𝑫, donde √ 𝑫 es matriz cuya diagonal
consiste en la raíz cuadrada de cada elemento de D, que tomamos como positivos. Así:
𝑨 = 𝑳𝑼 = 𝑳𝑫𝑼 𝟎 = 𝑳𝑫𝑳𝒕 = 𝑳(√𝑫√𝑫𝑳𝒕 = ( 𝑳√𝑫)(√𝑫𝑳𝒕) = ( 𝑳√𝑫)( 𝑳√𝑫)
𝒕
= 𝑲𝑲𝒕
12. La factorizaciónpuede sercalculadadirectamente atravésde lassiguientesfórmulas(eneste caso
realizamos la factorizacón superior 𝑨 = 𝑼 𝒕 ∗ 𝑼:
𝒖 𝒊𝒊
𝟐
= 𝒂𝒊𝒊 ∑ 𝒖 𝒊𝒌
𝟐𝒊−𝟏
𝑲=𝟏 para los elementos de la diagonal principal, y:
𝒖 𝒊𝒋 =
𝒂 𝒊𝒋−∑ 𝒖𝒊𝒌 𝒖𝒋𝒌
𝒋−𝟏
𝒌=𝟏
𝒖𝒋𝒋
para el resto de los elementos. Donde 𝒖 𝒊𝒋 son los elementos de la matriz U.
APLICACIONES
La descomposiciónde Cholesky se usaprincipalmenteparahallarlasoluciónnuméricade
ecuacioneslinealesAx =b. Si A essimétricaypositivadefinida,entoncesse puede solucionarAx =
b calculandoprimeroladescomposiciónde CholeskyA = LLT, luegoresolviendoLy=b para y,y
finalmenteresolviendoLTx = y para x.
Mínimos cuadrados lineales
Sistemasde laformaAx = b con A simétricaydefinida positiva aparecen a menudo en la práctica.
Por ejemplo,lasecuacionesnormalesenproblemasde mínimoscuadradoslinealessonproblemas
de esta forma.Podría ocurrirque la matrizA proviene de un funcional de energía el cual debe ser
positivo bajo consideraciones físicas; esto ocurre frecuentemente en la solución numérica de
ecuaciones diferenciales parciales.
Simulación de Montecarlo
La descomposición de Cholesky se usa comúnmente en el método de Montecarlo para simular
sistemas con variables múltiples correlacionadas: la matriz de correlación entre variables es
descompuesta, para obtener la triangular inferior L. Aplicando ésta a un vector de ruidos
simulados incorrelacionados, u produce un vector Lu con las propiedades de covarianza del
sistema a ser modelado.
Filtro de Kalman
Los filtros de Kalman usan frecuentemente la descomposición de Cholesky para escoger un
conjunto de puntos sigma. El filtro de Kalman sigue el estado promedio de un sistema como un
vector x de longitud n y covarianza dada por una matriz P de tamaño nxn. La matriz P es siempre
semidefinidapositivaypuede descomponersecomoLLT. Las columnasde L puede seradicionadas
y restadasde la mediax para formar unconjuntode 2N vectoresllamadoslospuntos sigma. Estos
puntos sigma capturan la media y la covarianza del estado del sistema.
13. FACTORIZACIÓN QR (HOUSEHOLDER):
En álgebra lineal, la descomposición o factorización QR de una matriz es una
descomposiciónde lamismacomoproducto de una matriz ortogonal por una triangular superior.
La descomposición QR es la base del algoritmo QR utilizado para el cálculo de los vectores y
valores propios de una matriz.
Mediante el uso de reflexiones de Householder:
Una transformaciónde Householderoreflexión de Householderesunatransformaciónque refleja
el espacioconrespectoa un plano determinado. Esta propiedad se puede utilizar para realizar la
transformación QR de una matriz si tenemos en cuenta que es posible elegir la matriz de
Householderde maneraque unvectorelegido quede con una única componente no nula tras ser
transformado (es decir, premultiplicando por la matriz de Householder). Gráficamente, esto
significa que es posible reflejar el vector elegido respecto de un plano de forma que el refle jo
quede sobre uno de los ejes de la base cartesiana.
La manera de elegir el plano de reflexión y formar la matriz de Householder asociada es el
siguiente:
SeaX un vectorcolumnaarbitrariom-dimensional tal que ‖ 𝒙‖ = | 𝒂|, donde α es un escalar; (si el
algoritmose implementautilizandoaritméticade comaflotante,entoncesα debe adoptarel signo
contrario que 𝒙 𝟏 para evitar pérdida de precisión).
Entonces, siendo 𝒆 𝟏 el vector (1,0,...,0)T, y ||·|| la norma euclídea, se define:
𝒖 = 𝒙 − 𝒂𝒆 𝟏,
𝒗 =
𝒖
‖ 𝒖‖
,
𝑸 = 𝟏 − 𝟐𝒗𝒗 𝒕,
𝒗 es un vector unitario perpendicular al plano de reflexión elegido. 𝑸 Es una matriz de
Householder asociada a dicho plano.
𝑸𝒙 = (𝒂, 𝟎,… , 𝒐) 𝒕
Esta propiedadse puede usarparatransformargradualmente losvectores columna de una matriz
A de dimensionesmporn enuna matriztriangularsuperior.Enprimerlugar se multiplica A con la
matrizde HouseholderQ1que obtenemos al elegir como 𝒙 la primera columna de la matriz. Esto
proporciona una matriz QA con ceros en la primera columna (excepto el elemento de la primera
fila).
𝑸 𝟏 𝑨 = ⌊
𝒂 𝟏 ∗
𝟎
⋯ ∗
⋮
𝟎
𝑨´ ⌋
14. el procedimiento se puede repetir para A′ (que se obtiene de A eliminando la primera fila y
columna), obteniendo así una matriz de Householder Q′2. Hay que tener en cuenta que Q′2 es
menor que Q1. Para conseguir que esta matriz opere con Q1A en lugar de A′ es necesario
expandirla hacia arriba a la izquierda, completando con un uno en la diagonal, o en general:
𝑸 𝒌 = (
𝑰 𝒌−𝟏 𝟎
𝟎 𝑸´ 𝒌
)
Tras repetir el proceso 𝒕 veces, donde 𝒕 = 𝒎𝒊𝒏(𝒎− 𝟏, 𝒏),
𝑹 = 𝑸 𝒕 … 𝑸 𝟏 𝑸 𝟐 𝑨
es una matriz triangular superior. De forma que tomando
𝑸 = 𝑸 𝟏 𝑸 𝟐 … 𝑸 𝒕
𝑨 = 𝑸 𝒕 𝑹es una descomposición QR de la matriz A.
Este métodotiene unaestabilidad numérica mayor que la del método de Gram-Schmidt descrito
arriba.
Una pequeñavariaciónde este método se utiliza para obtener matrices semejantes con la forma
de Hessenberg,muyútilesenel cálculode autovaloresporacelerarla convergencia del algoritmo
QR reduciendo así enormemente su coste computacional.
15. Solución De Sistemas Lineales Utilizando Métodos Iterativos.
El métodode Gauss y susvariantessonconocidoscomométodosdirectospararesolverel
problemainicial Ax =b.Se ejecutanatravésde un númerofinito de pasos y generan una solución
x que sería exacta sino fuera por los errores de redondeo. En contraste, un método iterativo da
lugar a una sucesión de vectores que idealmente converge a la solución. El cálculo se detiene
cuando se cuenta con una solución aproximada con cierto grado de precisión especificado de
antemano o después de cierto número de iteraciones. Los métodos indirectos son casi siempre
iterativos.
Un método iterado de resolución del sistema Ax = b es aquel que genera, a partir de un
vector inicial x0, una sucesión de vectores x1, x2, . . . xn.. "Un método iterado se dirá que es
consistente con el sistemaAx = b, si el límite x de la sucesión (xn), en caso de existir, es solución
del sistema. Se dirá que el método es convergente si la sucesión generada por cualquier vector
inicial x0 es convergente a la solucióndel sistema”.Es evidente que si unmétodoesconvergente
es consistente, sin embargo, el recíproco no es cierto.
MÉTODO DE GAUSS-SEIDEL:
El método de Gauss-Seidel es un método iterativo y por lo mismo resulta ser bastante
eficiente. Se comienza planteando el sistema de ecuaciones con el que se va a trabajar:
De laecuación1 despejarx1,de laecuación2 despejar x2, …, de la ecuación n despejar xn.
Esto da el siguiente conjunto de ecuaciones:
Este último conjuntode ecuacionessonlasque formanlas fórmulas iterativas con las que
se va a estar trabajando. Para comenzar el proceso iterativo, se le da el valor de cero a las
variables x2,…, xn; esto dará un primer valor para x1. Más precisamente, se tiene que:
16. Enseguida, se sustituye este valor de x1 en la ecuación 2, y las variables x3,…, xn siguen
teniendo el valor de cero. Esto da el siguiente valor para x2:
Estos últimosvaloresde x1 yx2,se sustituyenenlaecuación3,mientrasque x4,…,xn siguen
teniendo el valor de cero; y así sucesivamente hasta llegar a la última ecuación. Todo este paso
arrojará una lista de primeros valores para las incógnitas, la cual conforma el primer paso en el
proceso iterativo. Para una mejor comprensión esto se simbolizará de esta forma:
Se vuelve a repetir el proceso, pero ahora sustituyendo estos últimos datos en vez de
ceroscomo al inicio.Se obtendrá una segunda lista de valores para cada una de las incógnitas, lo
cual se simbolizará así:
En este momento se pueden calcular los errores aproximados relativos, respecto a cada
una de las incógnitas. La lista de errores se presenta a continuación:
El proceso se vuelve a repetir hasta que:
donde se debe prefijar convenientemente.
17. MÉTODO DE JACOBI:
En análisisnuméricoel métodode Jacobi esunmétodoiterativo,usadopara resolver sistemas de
ecuaciones lineales del tipo 𝑨𝑿 = 𝒃. El algoritmo toma su nombre del matemático alemán Carl
Gustav JakobJacobi.El métodode Jacobi consiste en usar fórmulas como iteración de punto fijo.
La base del método consiste en construir una sucesión convergente definida iterativamente. El
límite de estasucesiónesprecisamente lasolucióndel sistema.A efectos prácticos si el algoritmo
se detiene después de un número finito de pasos se llega a una aproximación al valor de x de la
solución del sistema.
La sucesión se construye descomponiendo la matriz del sistema A en la forma siguiente:
𝑨 = 𝑫 + 𝑹
Donde D, es una matriz diagonal y R, es la suma de una matriz triangular inferior L y una matriz
triangularsuperiorU,luego 𝑹 = 𝑳 + 𝑼.Partiendode 𝑨𝒙 = 𝒃, podemos reescribir dicha ecuación
como:
𝑫𝒙 + 𝑹𝒙 = 𝒃
Si aii ≠ 0 para cada i. Por lareglaiterativa,ladefinicióndel Métodode Jacobi puede ser expresado
de la forma:
𝑿(𝑲+𝒊) = 𝑫−𝟏(𝑩− 𝑹𝒙 𝒌)
Donde K es el contador de iteración, Finalmente tenemos:
𝒙 𝒊
(𝒌+𝟏
=
𝟏
𝒂𝒊𝒊
( 𝒃𝒊 − ∑ 𝒂𝒊𝒋 𝒙 𝒋
𝒌
𝒋≠𝟏
), 𝒊 = 𝟏, 𝟐, 𝟑,…
Cabe destacar que al calcular xi(k+1) se necesitan todos los elementos en x(k), excepto el que
tengael mismoi.Por eso,al contrario que en el método Gauss-Seidel, no se puede sobreescribir
xi(k) con xi(k+1), ya que su valor será necesario para el resto de los cálculos. Esta es la diferencia
más significativa entre los métodos de Jacobi y Gauss-Seidel. La cantidad mínima de
almacenamientoesde dosvectoresde dimensiónn,yseránecesariorealizaruncopiadoexplícito.