1. UNIVERSIDAD NACIONAL PEDRO RUIZ GALLO
FACULTAD DE CIENCIAS FÍSICAS Y MATEMÁTICAS
ESCUELA PROFESIONAL DE MATEMÁTICA
´
SOLUCION DEL MODELO INPUT - OUTPUT
DE LEONTIEF APLICANDO
´
LA FORMA CANONICA DE JORDAN
Tesina
presentada por:
Contreras Vidaurre Charles David
Cornetero Angeles Edith Janet
Asesor:
Lic. Mat. Walter Arriaga Delgado
Lambayeque - Per´
u
2010
3. 3.2. C´lculo de la inversa de Leontief por aproximaci´n . . . . . . . . . . . .
a o 72
3.3. Resoluci´n de ejercicios por MatLab . . . . . . . . . . . . . . . . . . . . .
o 74
Conclusiones 81
Bibliograf´
ıa 82
II
4. Resumen
En el primer cap´ ´
ıtulo, como preliminares se presentan algunas nociones del Algebra
Lineal, temas necesarios para comprender el tema general.
El segundo cap´ıtulo se dedica al estudio de la “Forma Can´nica de Jordan”. Detallando
o
los procedimientos que existen para obtener la “Forma Can´nica de Jordan”de una
o
matriz asociada a una transformaci´n lineal T : V → V y demostrar la existencia de
o
una base β del espacio vectorial V , tal que la matriz de representaci´n A(T, β), sea una
o
matriz de Jordan.
En el capitulo final veremos la importancia fundamental en las matem´ticas aplicadas
a
en este trabajo trataremos una aplicaci´n al modelo Insumo-Producto.
o
III
5. Introducci´n
o
Uno de los enfoques importantes para analizar la conducta de algunos modelos intere-
santes del mundo real es determinar la “Forma Can´nica de Jordan”. Tal determinaci´n
o o
involucra el manejo de ciertos fundamentos matem´ticos. El modelo de insumo-producto
a
constituye la fusi´n de la econom´ del equilibrio general con el algebra matricial. En
o ıa ´
este trabajo se muestra la integraci´n de la herramienta computacional al aprendiza-
o
je de una materia totalmente abstracta, como es el ´lgebra lineal y su aplicaci´n a la
a o
econom´ ıa.
El “an´lisis de insumo-producto” que es una t´cnica matem´tica que refleja la interde-
a e a
pendencia entre los distintos sectores de una econom´ y entre factores productivos y
ıa
productos. Wassily Leontief, mediante el “an´lisis de insumo-producto” busc´ construir
a o
un modelo de equilibrio general. Intent´ cuantificar el modelo matem´tico desarrollado
o a
por Leon Walras (1834-1910).
IV
6. Objetivos
Objetivo General
Determinar la soluci´n del modelo input-output de Leontief empleando el progra-
o
ma Matlab y aplicando la forma can´nica de Jordan.
o
Objetivos Espec´
ıficos
Desarrollar la forma can´nica de Jordan para una matriz cualquiera.
o
Analizar la relaci´n de semejanza entre matrices para simplificar el manejo de las
o
mismas mediante un proceso de diagonalizaci´n.
o
V
7. Cap´ ıtulo 1
´
Nociones de Algebra Lineal
1.1. Matrices
Sea S un conjunto cualquiera y f una aplicaci´n de I × J = {1, 2, . . . , m} × {1, 2, . . . , n}
o
en S definido por
f : I ×J → S
(i, j) → f (i, j) = aij
entonces
A = {f (i, j) : i ∈ I, j ∈ J} = {aij , i = 1, . . . , m, j = 1, . . . , n}
es una matriz de orden m × n, es decir
a11 a12 ··· a1n
a21 a22 ··· a2n
A= . . . .. .
. .
. . .
.
am1 am2 · · · amn
As´ pues una matriz A de orden m × n puede entenderse como un “rect´ngulo”de mn
ı a
elementos de S ordenados en m filas y n columnas.
La notaci´n matricial es la siguiente:
o
aij ≡ elemento de la i−´sima fila y j−´sima columna de la matriz A
e e
ai· = (ai1 , ai2 , . . . , ain ) ≡ fila i−´sima de la matriz A.
e
a1j
a2j
a·j = . ≡ columna j−´sima de la matriz A.
. e
.
ain
1
8. ´
Nociones de Algebra Lineal 2
1.1.1. Operaciones con matrices
Suma de matrices
Dadas las matrices A, B ∈ Mm×n con A = (aij ), B = (bij ), i = 1, . . . , m, j = 1, . . . , n,
se define la matriz suma A + B = C = (cij ) donde:
cij = aij + bij
Producto de una matriz por un escalar
Dada la matriz A = (aij ) de orden m × n y λ ∈ R, se define la matriz D = λA = (dij )
donde
dij = λaij
Producto de matrices
Dada la matriz A = (aij ) ∈ Mm×n y B = (bjk ) ∈ Mn×p , se define la matriz producto
C = AB = (cik ), de orden m × p donde:
n
cik = aij bjk
j=1
Propiedades:
A+B =B+A
A + (B + C) = (A + B) + C
Existe 0m×n tal que A + 0m×n = A para cualquier A ∈ Mm×n .
Para todo A ∈ Mm×n existe (−A) ∈ Mm×n tal que A + (−A) = 0m×n
α(A + B) = αA + αB
(α + β)A = αA + βA
(αβ)A = α(βA)
Existe 1 ∈ R tal que 1 · A = A para todo A ∈ Mm×n
El producto no es conmutativo
A(BC) = (AB)C
2
9. ´
Nociones de Algebra Lineal 3
Para toda A ∈ Mm×p
Im A = A , AIp = A
Para toda A ∈ Mm×n no nula
A0n×s = 0m×s , 0p×m A = 0p×n
(A + B)C = AC + BC , D(A + B) = DA + DB
AB = 0, no implica A = 0 ´ B = 0
o
AB = AC no implica que B = C
Potencia de una matriz
Sea A = (aij ) ∈ Mn , la potencia de la matriz A se define como
A0 = I
A1 = A
A2 = A · A
.
.
.
An = A · A · · · A
Propiedades:
Am An = Am+n , m, n ∈ Z + (enteros positivos)
(Am )n = Am·n
An+1 = A · An
D k = diag(ak , ak , . . . , ak ), k ∈ Z + , (D matriz diagonal, la cual los dij = 0 para
11 22 nn
i = j)
Traza de una matriz
Dada una matriz A ∈ Mn se define su traza como
n
tr(A) = aii
i=1
3
10. ´
Nociones de Algebra Lineal 4
Propiedades: Dadas A, B ∈ Mn y α ∈ R, se tiene que:
tr(A + B) = tr(A) + tr(B)
tr(αA) = αtr(A)
tr(AB) = tr(BA)
1.1.2. Determinantes
Dada una matriz A de orden n, se define el determinante de A que se denotar´ por |A|
a
o det(A) como la suma de los n! productos signados de n factores que se obtienen con-
siderando los elementos de la matriz de forma que cada producto contenga un elemento
y s´lo si uno de cada fila y cada columna de A.
o
A partir de esta definici´n se obtiene
o
a11 a12
1. |A| = = a11 a22 − a12 a21
a21 a22
a11 a12 a13
2. |A| = a21 a22 a23 = a11 a22 a33 +a12 a23 a31 +a21 a32 +a13 −[a13 a22 a31 +a11 a23 a32 +
a31 a32 a33
a12 a21 a33 ]
Propiedades:
|In | = 1
|AT | = |A|
|AB| = |A||B|
1
|A−1 = |A|
|Am | = |A|m / m ∈ Z+
|λA| = λn |A|
Si dos filas o columnas son proporcionales, el determinante es cero.
Si A = [aij ] es triangular, entonces el determinante es:
|A| = a11 .a22 · · · ann
4
11. ´
Nociones de Algebra Lineal 5
Nota:
Una matriz cuadrada A se dice no singular si y s´lo si |A| = 0
o
Una matriz cuadrada A se dice singular si y s´lo si |A| = 0
o
Inversa de una matriz
Dada A ∈ Mn , se dice que B ∈ Mn es inversa de A y se denota por B = A−1 si
AB = BA = In (In es la matriz identidad In = (aij ), aij = 1, ∀ i = j y para i = j,
aij = 0, ij = 1, . . . , n)
Sea A, B ∈ Mn matrices no singulares, entonces
Existe una unica matriz A−1 inversa de A
´
La matriz A−1 es invertible y (A−1 )−1 = A
La matriz AB tiene inversa, siendo (AB)−1 = B −1 A−1
Rango de una matriz
Se denomina rango de una matriz A ∈ Mm×n al m´ximo n´ mero de vectores columna
a u
de A linealmente independiente.
Propiedades: Dada A de orden m × n se cumplen las siguientes propiedades:
Si rg(A) = min(m, n) se dice que A es de rango completo.
Si A es cuadrada (m = n) y de rango completo ,entonces se dice que es una matriz
no singular.
rg(AB) ≤ min{rg(A), rg(B)}; A ∈ Mm×n y B ∈ Mn×p
Dada A ∈ Mn×n con |A| = 0 se tiene que rg(A) = n
1.1.3. Tipos especiales de matrices
Matriz Triangular
Matriz Triangular Superior (MTS)
Una matriz cuadrada A = (aij )n×n se llama MTS si y s´lo si los aij = 0 ∀ i > j
o
Matriz Triangular Inferior (MTI)
Una matriz cuadrada A = (aij )n×n se llama MTI si y s´lo si los aij = 0 ∀ i < j
o
5
12. ´
Nociones de Algebra Lineal 6
Propiedades:
Dadas A, B ∈ Mn matrices triangulares superiores (inferiores), α ∈ R, se verifica que:
Las matrices A + B y αA son triangulares superiores(inferiores).
La matriz AB es tambi´n triangular superior (inferior).
e
Si A tiene inversa entonces A−1 es triangular superior(inferior).
El rango de A es siempre mayor e igual al n´ mero de elementos de la diagonal
u
principal de A no nulos.
|A| = Πn aii
i=1
Matriz Transpuesta
Dada C = (cij ) ∈ Mm×n , i = 1, . . . , m, j = 1, . . . , n, se dice que B = (bij ),
i = 1, . . . , n, j = 1, . . . , m es la matriz transpuesta de C si las filas de B son las columnas
de C o lo que es igual, las columnas de B son las filas de C, es decir
bij = cji , i = 1, . . . , n, j = 1, . . . , m
A la matriz transpuesta de C se le denota indistintamente por C ′ , C t o C T .
´
Propiedades:
(At )t = A
(A + B)t = At + B t
(αA)t = αAt
(AB)t = B t At
Matriz Sim´trica
e
Una matriz A = (aij ) ∈ Mn es sim´trica si es igual a su traspuesta, es decir A = At
e
Propiedades: Sean A y B matrices simetricas y α ∈ R, se verifica que:
A + B y αA son simetricas
Si A tiene inversa, entonces A−1 es sim´trica.
e
6
13. ´
Nociones de Algebra Lineal 7
Matriz Antisim´trica
e
Una matriz A = (aij ) ∈ Mn , i, j = 1, . . . , n es antisim´trica si es igual al opuesto de su
e
t
transpuesta, es decir A = −A
Matriz Conjugada
Sea A = aij ∈ Mm×n , donde aij ∈ C, i = 1, . . . , n, j = 1, . . . , m, la matriz obtenida a
partir de A sustituyendo cada elemento por su conjugada de A y se representa por A
es decir si A = (aij ) ∈ Mm×n donde aij ∈ C entonces A = (aij ) = (aij ) se llama matriz
conjugada de A.
Propiedades:
A=A
A+B =A+B
αA = α A; α ∈ K (K cuerpo)
AB = A B; A y B conformes (A = (aik ), B = (akj )).
(A)t = At
Matriz Positiva
Se dice que A es positiva si todos sus elementos son n´ meros reales no negativos y al
u
menos uno de ellos no nulo, es decir, para todo i, j = 1, . . . , n, aij ≥ 0.
Cuando para todo i, j = 1, · · · , n se verifica que aij > 0, la matriz A es estrictamente
positiva.
Si a todos los elementos de la matriz A se les exige solo ser n´ meros reales no negativos
u
entonces A es una matriz semipositiva.
Propiedades: Si A y B son matrices positivas, α > 0, se verifica que:
A + B y αA son positivas.
AB es positiva tambi´n.
e
AT es matriz positiva.
Para todo k ∈ N, Ak es positiva.
Una matriz A = (aij ) ∈ K m×n se dice no negativa si todos sus elementos son ≥ 0.
7
14. ´
Nociones de Algebra Lineal 8
Matriz Herm´
ıtica
ıtica ↔ A = (A)t en algunos casos (A)t se
A = (aij ) ∈ Mn donde aij ∈ C es herm´
denotara por A∗
Matriz Irreducible
Sea A ∈ Mn tal que A > 0. Diremos que A es una matriz irreducible si existe un m ≥ 1
tal que Am > 0.
Matriz Ortogonal
Una matriz cuadrada A se llama ortogonal si se verifica
A · At = I = At · A I: matriz identidad
Propiedades: Si A, B ∈ Mn son matrices ortogonales, se verifica que:
AB y BA son ortogonales, pero en general no lo son A + B y αA, para α ∈ R.
El valor de |A| es igual a −1 o 1.
El rango de A es n.
A es invertible, A−1 es ortogonal y A−1 = AT .
Matriz Idempotente, Unipotente y Nilpotente
Una matriz cuadrada A es idempotente:
A ∈ Mn es indempotente ⇔ A2 = A
Cuando A2 = In , entonces se dice que A es unipotente.
Si A2 = 0n (0n , matriz nula), se dir´ que la matriz es nilpotente
a
Propiedades:
Si A y B son idempotentes, entonces se verifica que:
AB es idempotente siempre que AB = BA
Dada cualquier C ∈ Mn , si C T C = C, la matriz C es sim´trica e idempotente.
e
El valor de |A| es 0 o 1, si |A| = 1 se tiene que A = In
8
15. ´
Nociones de Algebra Lineal 9
In − A es una matriz idempotente y rg(In − A) = n − rg(A). Sin embargo, A − In
no es idempotente.
rg(In − A) = tr(In − A)
= tr(In ) − tr(A)
rg(In − A) = n − rg(A)
Sea A una matriz unipotente, entonces se verifica que:
|A| = 1 o |A| = −1.
rg(A) = n, por tanto A−1 existe y adem´s A−1 = A.
a
Sea A ∈ Mn una matriz nilpotente, entonces se verifica que:
|A| = 0, y por tanto A−1 nunca existe y rg(A) < n.
La matriz (In − A) es invertible y su inversa es (In − A)−1 = In + A
1.2. Espacio Vectorial
Proposici´n 1.1. Sea v ∈ V un vector fijo tal que T q−1 = 0, entonces los vectores
o
{v, T v, . . . T q−1 v} son linealmente independientes.
Proposici´n 1.2. Sea V un K-espacio vectorial de dimensi´n n, un conjunto de vectores
o o
{v1 , v2 , . . . , vn } es linealmente independiente si solo si genera V .
Proposici´n 1.3. (Completaci´n de una base) Sea V un K-espacio vectorial de
o o
dimensi´n n > 1, v1 , v2 , . . . vr , r < n vectores linealmente independientes. Entonces
o
existen vectores vr+1 , . . . , vn de manera que v1 , v2 , . . . vr , vr+1 , . . . , vn constituyen una base
de V .
1.2.1. Transformaciones Lineales
Teorema 1.4. (Del n´cleo y la imagen) Sean U y V dos K-espacios vectoriales de
u
dimensi´n finita, y T : U → V una transformaci´n lineal entonces
o o
dim(Ker(T )) + dim(Im(T )) = dim(U)
Teorema 1.5. Sea V un K-espacio vectorial de dimensi´n finita. Sea {v1 , v2 , . . . , vn }
o
una base ordenada de V . Sean W un K-espacio vectorial y {w1 , w2 , . . . , wn } vectores
cualesquiera de W .Entonces existe una unica transformaci´n lineal T : V → W tal que:
´ o
T vj = wj , j = 1, n
9
16. ´
Nociones de Algebra Lineal 10
Definici´n 1.6. (Matriz de Representaci´n) Sea V un K-espacio vectorial de di-
o o
mensi´n finita, sea una transformaci´n lineal. Dada una base β = {v1 , v2 , . . . , vn } de V ,
o o
podemos construir la “matriz de representaci´n” A(T, β) de T respecto de la base β de
o
la siguiente manera:
Consideremos la imagen de cada elemento de la base de T ,
n
T (vi ) = aij vj , i = 1, . . . , n
j=1
Entonces A = A(T, β) es la matriz A = (aij ) ∈ Kn×n .
Definici´n 1.7. (Matriz de cambio de base) Sea V un espacio vectorial de dimensi´n
o o
′
finita sobre el cuerpo K, y sean β = {v1 , v2 , . . . , vn } y β = {w1 , w2 , . . . , wn } dos bases
ordenadas de V . Se puede definir una matriz (invertible) P de orden n × n unica tal ´
que:
(1.1) [v]β = P [v]β ′ , para cada vector v ∈ V
P , es la matriz P = [P1 , P2 , . . . , Pn ] con Pj = [wj ]β , j = 1, n. P es llamada “Matriz de
cambio de base”, y est´ formada por los vectores columna, cuyas coordenadas son las
a
componentes del vector wj respecto de la base β.
Teorema 1.8. Sea V un espacio vectorial de dimensi´n finita sobre el cuerpo K, y sean β
o
′
y β dos bases de V . Suponga que T es un operador lineal sobre V . Si P = [P1 , P2 , . . . , Pn ]
es la matriz n × n de columnas Pj = [wj ]β , entonces
A(T, β) = P A(T, β ′)P −1
es decir las matrices A(T, β) y A(T, β ′ ) son similares.
Ejemplo. Sea T el operador lineal sobre R3 que env´ los vectores (1, 0, 0), (0, 1, 0) y
ıa
(0, 0, 1) en los vectores (1, 1, 0), (1, 2, 1) y (0, 2, 1) respectivamente, calcular la matriz de
representaci´n A(T, β ′ ) donde
o
β ′ = {(1, 0, 1), (1, 1, 1)(2, 1, 1)},
y adem´s verifique que
a
A(T, β ′ ) = P A(T, β)P −1
1 1 0
a) Hallamos A(T, β) = [T v1 T v2 T v3 ] = 1 2 2
0 1 1
10
17. ´
Nociones de Algebra Lineal 11
b) Hallamos A(T, β ′ )
T (w1 ) = T (1, 0, 1)
= T (1v1 ) + T (0v2 ) + T (1v3 )
= 1.(1, 1, 0) + 0.(1, 2, 1) + 1.(0, 2, 1)
= (1, 3, 1)
T (1, 0, 1) = −2(1, 0, 1) + 3(1, 1, 1) + 0(2, 1, 1, )
T (w2 ) = T (1, 1, 1)
= T (1v1 ) + T (1v2 ) + T (1v3 )
= (1, 1, 0) + (1, 2, 1) + (0, 2, 1)
= (2, 5, 2)
T (1, 1, 1) = −3(1, 0, 1) + 5(1, 1, 1) + 0(2, 1, 1, )
T (w3 ) = T (2, 1, 1)
= T (2v1 ) + T (1v2 ) + T (1v3 )
= 2(1, 1, 0) + 1(1, 2, 1) + 1(0, 2, 1)
= (3, 6, 2)
T (1, 1, 1) = −4(1, 0, 1) + 5(1, 1, 1) + 1(2, 1, 1, )
−2 −3 −4
′
Luego A(T, β ) = 3 5 5
0 0 1
c) Hallamos P :
w1 = (1, 0, 1) = 1v1 + 0v2 + 1v3
w2 = (1, 1, 1) = 1v1 + 1v2 + 1v3
w3 = (2, 1, 1) = 2v1 + 1v2 + 1v3
Entonces :
1 1 2 0 −1 1
P = 0 1 1 y P −1 = −1 1 1
1 1 1 1 0 1
11
18. ´
Nociones de Algebra Lineal 12
1 1 2 1 1 0 0 −1 1
−1
P A(T, β)P = 0 1 1 1 2 2 −1 1 1
1 1 1 0 1 1 1 0 1
−1 −1 −1 0 −1 1
−1
P A(T, β)P = 0 2 3 −1 1 1
1 0 −1 1 0 1
−2 −3 −4
P A(T, β)P −1 = 3 5 5
0 0 1
1.3. Resoluci´n de sistemas lineales por el m´todo
o e
de Gauss-Jordan
El m´todo de Gauss-Jordan permite calcular la inversa de una matriz dada, como se
e
ver´ a continuaci´n, tambi´n permite transformar un sistema compatible determinado
a o e
en otro equivalente cuya matriz de coeficientes es una matriz triangular (superior o
inferior). Para ello se precisa en primer lugar:
(a) Comprobar que cuando en un sistema de ecuaciones lineales compatible se efect´ an
u
operaciones elementales como:
Intercambiar ecuaciones.
Multiplicar una ecuaci´n por un escalar.
o
Sumar a una ecuaci´n un m´ ltiplo de otra.
o u
el sistema que se obtiene es equivalente al de la partida.
En efecto, dado el sistema
Ax = b
con A de orden m × n, x ∈ Rn y b ∈ Rn se tiene que
Cambiar la ecuaci´n i0 -´sima con la j0 -´sima equivale a premultiplicar ambos
o e e
miembros del sistema por la matriz
C(i0 , j0 ) = (cij ); i, j = 1, . . . , m
12
19. ´
Nociones de Algebra Lineal 13
con
1
si i = j, i = i0 , j = j0
1 si i = j0 , j = i0
cij =
1
si i = i0 , j = j0
0 en otro caso
Multiplicar la ecuaci´n i0 -´sima por un escalar α ∈ R, α = 0 equivale a multi-
o e
plicar el sistema por la matriz
M((α)i0 ) = (mij ) i, j = 1, . . . , m
con
1 si i = j, i = i0
mij = α si i = j = i0
0 en otro caso
Sumarle a la i0 -´sima ecuaci´n un m´ ltiplo α de la j0 -´sima ecuaci´n equivale
e o u e o
a premultiplicar el sistema por la matriz
S(i0 , (α)j0 ) = (sij ) i, j = 1, . . . , m
con
1 si i = j
sij = α si i = i0 j = j0
0 en otro caso
cualquiera de estas matrices es no singular, ya que por las propiedades de los deter-
minantes:
|C(i0 , j0 )| = −1, pues C(i0 , j0 ) es el resultado de permutar dos l´ıneas de Im
|M((α)i0 )| = α, pues M((α)i0 ) se obtiene al multiplicar la fila i0 de Im por α
|S(i0 , (α)j0 )| = 1, pues S(i0 , (α)j0 ) es una matriz triangular cuya diagonal principal
coincide con la de Im .
Obs´rvese que transformar un sistema combinando estas operaciones consiste sim-
e
plemente en premultiplicar dicho sistema por un n´ mero adecuado de matrices tipo
u
C, M y S y por tanto por una matriz no singular. Por tanto, el nuevo sistema
as´ obtenido es equivalente.
ı
As´ pues cuando en un sistema de ecuaciones compatible se efect´ an operaciones
ı u
elementales, el sistema resultante es equivalente al inicial.
(b) Dado el sistema compatible determinado
Ax = b
13
20. ´
Nociones de Algebra Lineal 14
con A cuadrada de orden n, siempre es posible mediante operaciones elementales y
lo indicado en A encontrar un sistema equivalente
Ax = b
siendo A una matriz triangular.
Para ”triangular el sistema” se procede del siguiente modo
(i) Supongase que a11 = 0 (si as´ no fuese, bastar´ con intercambiar la primera
ı ıa
ecuaci´n con otra cuyo coeficiente para x1 sea no nulo). Entonces la matriz
o
1 0 0 ··· 0
−a21 a11 0 · · · 0
P1 = −a31 0 a11 · · · 0
. . .
. .
. .
.
. . . .
−an1 0 0 · · · a11
que es no singular, transforma el sistema inicial en otro equivalente
Bx = P1 Ax = P1 b = b1
cuya matriz de coeficientes B es
a11 a12 · · · a1n
0 b22 · · · b2n
B = 0 b32
· · · b3n
. . .
. .
.
. . .
0 bn2 · · · bnn
con bij = (−ai1 )aij + a11 aij para i, j = 2, . . . , n
(ii) Supuesto que b22 = 0 (si esto no ocurre se efect´ an un cambio adecuado de
u
ecuaciones), la matriz no singular
1 0 0 0 ··· 0
0 1 0 0 ··· 0
0 −b32 b22 0 · · · 0
P2 =
0 −b42 0 b22 · · · 0
. . . . .
. . .
. .
. .
. .
.
0 −bn2 0 0 · · · b22
permite obtener el sistema equivalente
Dx = P2 P1 Ax = P2 P1 b = b2
14
21. ´
Nociones de Algebra Lineal 15
cuya matriz de coeficientes D es
a11 a12 a13 · · · a1n
0 b22 b23 · · · b2n
0 0 c33 · · · c3n
D=
0 0 c43 · · · c4n
. . . .
. . . .
. . . .
0 0 cn3 · · · cnn
con cij = (−bi2 b2j ) + b22 bij para i, j = 3, . . . , n
(iii) Procediendo de manera an´loga se calculan P3 , P4 , . . . , Pn−1 tales que
a
Ax = Pn−1 Pn−2 . . . P3 P2 P1 Ax = Pn−1 Pn−2 . . . P2 P1 b = b
donde A es una matriz triangular superior.
Nota: Del mismo modo se puede operar para encontrar un sistema equivalente al
inicial de la forma Ax = b donde A es una matriz triangular superior.
Ejemplo. El sistema
5x1 + 4x2 + 2x3 + x4 = 5
2x1 + 3x2 + x3 − 2x4 = −3
−5x1 − 7x2 − 3x3 + 9x4 = 16
x1 − 2x2 − x3 + 4x4 = 10
es compatible determinado, ya que rg(A) = rg(A) = 4. Resolverlo utilizando el m´todo
e
de Gauss-Jordan consiste en transformar el sistema en otro equivalente con matriz de
coeficientes triangular. Para ello, se comienza calculando una matriz p1 tal que al pre-
multiplicar el sistema por ella, permite obtener uno equivalente en el que la variable x1
solo aparece en la primera ecuaci´n, esto se consigue.
o
Sumando a la segunda multiplicada por 5, la primera multiplicada por -2, lo cual
se obtiene mediante la matriz
1 0 0 0 1 0 0 0
−2 1 0 0 0 5 0 0
S(2, (−2)1)M((5), 2) =
0 0 1 0 0 0 1 0
0 0 0 1 0 0 0 1
15
22. ´
Nociones de Algebra Lineal 16
Sumando a la tercera ecuaci´n multiplicada por 5, la primera multiplicada por 5,
o
es decir,
1 0 0 0 1 0 0 0
0 1 0 0 0 1 0 0
S(3, (5)1)M((5), 3) =
5 0 1 0 0 0 5 0
0 0 0 1 0 0 0 1
Sumando a la cuarta ecuaci´n multiplicada por
o 5, la primera multiplicada por -1,
esto es
1 0 0 0 1 0 0 0
0 1 0 0 0 1 0 0
S(4, (−1)1)M((5), 4) =
0 0 1 0 0 0 1 0
−1 0 0 1 0 0 0 5
Por tanto, todas las transformaciones elementales que es necesario realizar est´n reco-
a
gidas en la matriz producto
S(4, (−1)1)M((5), 4)S(3, (5)1)M((5), 3)S(2, (−2)1)M((5), 2) =
1 0 0 0
−2 [5] 0 0
=
5 0 [5] 0
−1 0 0 [5]
que coinciden con la matriz P1 indicada en (I) para este sistema particular el sistema
equivalente que resulta es:
5x1 + 4x2 + 2x3 + x4 = 5
7x2 + x3 − 12x4 = −25
−15x2 − 5x3 + 50x4 = 105
−14x2 − 7x3 + 19x4 = 45
Teniendo en cuenta (II) para eliminar x2 de las dos ultimas ecuaciones basta con pre-
´
multiplicar el sistema por la matriz
1 0 0 0
0 1 0 0
P2 =
0 15 [7] 0
0 14 0 [7]
16
23. ´
Nociones de Algebra Lineal 17
obteniendo el sistema
5x1 + 4x2 + 2x3 + x4 = 5
7x2 + x3 − 12x4 = −25
−20x3 + 170x4 = 360
−35x3 − 35x4 = 35
reiterando el proceso para eliminar x3 de la ultima ecuaci´n se premultiplica por la
´ o
matriz
1 0 0 0
0 1 0 0
P3 =
0 0 1 0
0 0 35 [−20]
y resulta finalmente el sistema triangular equivalente
5x1 + 4x2 + 2x3 + x4 = 5
7x2 + x3 − 12x4 = −25
−20x3 + 170x4 = 360
6650x4 = 13300
cuya soluci´n es:
o
x1 = 1, x2 = 0, x3 = −1, x4 = 2
1.4. Autovalores y Autovectores
Definici´n 1.9. Sea V un K-espacio vectorial y T un operador lineal sobre V . Un
o
autovalor o valor propio de T , es un escalar λ ∈ K si existe un vector no nulo v ∈ V tal
que T v = λv. Si λ es un autovalor de T , entonces:
Cualquier v tal que T v = λv se llama vector propio o autovector de T asociado a
λ.
La colecci´n de todos los v tal que T v = λv se llama espacio propio asociado a λ.
o
Ya que cada T est´ asociado a una matriz A. El concepto de autovalor y autovector de
a
n×n
una matriz A ∈ K se define de forma an´loga, considerando como una transformaci´n
a o
lineal a:
A : Kn×1 → Kn×1
mediante la multiplicaci´n de matrices: Av = λv, v = 0 ∈ Kn×1 .
o
17
24. ´
Nociones de Algebra Lineal 18
Definici´n 1.10.
o
Sea A ∈ Kn×n y fA (λ) = det(λI − A), donde I es la matriz identidad y λ ∈ K.
fA (λ) se denomina el “polinomio caracter´
ıstico de A”
Si T : V → V es una transformaci´n lineal su polinomio caracter´
o ıstico se define
como:
fT (λ) = det(λI − AT ), λ ∈ K
donde AT es la matriz asociada a T en alguna base.
Esto permite definir el polinomio caracter´ıstico de T como el polinomio caracter´
ıstico
de cualquier matriz n × n que representa a T en alguna base ordenada de V .
Definici´n 1.11.
o
1. Si λ ∈ C es un autovalor de T : V → V se llama multiplicidad algebraica de λ
a su multiplicidad algebraica en el polinomio caracter´
ıstico fT (λ).
2. A la dimensi´n del subespacio V (λ) = {v ∈ V /T v = λv} se llama multiplicidad
o
geom´trica de λ
e
Ejemplo. Se tiene que λ = 2 es un autovalor de:
3 1 −1
A= 2 2 0
2 2 0
veamos cual es la multiplicidad geom´trica de λ = 2
e
V (2) = {v ∈ K3×1 /Av = 2v}
V (2) = {(x, x, 2x)T /x ∈ K}
V (2) = {x(1, 1, 2)T /x ∈ K}
Luego dimV (2) = 1, por tanto la multiplicidad geom´trica de λ = 2 es 1 y la multipli-
e
cidad algebraica de λ = 2 es 2.
Proposici´n 1.12. Si A es matriz de orden n se tiene que:
o
|A − λIn | = (−λ)n + (−λ)n−1 tr(A) + (−λ)n−2 tr2 (A) + (−λ)n−3 tr3 (A) + · · · + |A|
siendo tri (A), i = 2, 3, . . . , n − 1 la suma de todos los menores de orden i que contienen
en su diagonal principal i elementos de la diagonal principal de A.
18
25. ´
Nociones de Algebra Lineal 19
1 0 1
Ejemplo. Sea la matriz: A = −1 2 0
1 1 2
tr(A) = 5 |A| = 1 y
1 0 2 0 1 1
tr2 (A) = + + =2+4+1=7
−1 2 1 2 1 2
|A − λIn | = −(λ)3 + 5(λ)2 + 7(λ) + 1
Proposici´n 1.13. Sea A ∈ Mn (K), cuyos autovalores pueden ser reales o complejos
o
(iguales o distintos), se verifica que:
1. Los autovalores de AT coinciden con los de A
2. El n´mero de autovalores nulos de A de rango r < n es mayor o igual que (n − r).
u
n
3. |A| = λi .
i=1
n
4. tr(A) = λi .
i=1
5. Los autovalores de la matriz αA para α ∈ R(C), α = 0 son αλi con i = 1, . . . , n.
6. Si A es no singular, entonces los autovalores de A−1 son 1/λi , con i = 1, . . . , n.
7. Para cualquier n´mero natural k no nulo los autovalores de Ak son λk , con
u i
i = 1, . . . , n.
Proposici´n 1.14. Sea A una matriz de orden n, aij ∈ K(o C), i, j = 1, . . . , n cu-
o
yos autovalores son λ1 , λ2 , . . . , λr ∈ K, con multiplicidades algebraicas m1 , m2 , . . . , mr
r
respectivamente, siendo = n, se verifica que:
i=1
1. Para cada i = 1, . . . , r, el conjunto V (λi ) = {v ∈ Kn /Av = λi v} es un subes-
pacio vectorial de Kn tal que dim(V (λi )) ≤ mi . Adem´s si mi0 = 1 entonces
a
dim V (λi0 ) = 1.
2. Los autovectores correspondientes a autovalores distintos son linealmente indepen-
dientes.
3. Si r = n, entonces Kn = V (λ1 ) V (λ2 ) V (λ3 ) . . . V (λn )
4. Si K = C y A tiene como autovalor λ ∈ C con conjugado λ, entonces el autovector
v asociado a λ es el conjugado del autovector w asociado a λ
19
26. ´
Nociones de Algebra Lineal 20
Definici´n 1.15. Se llama espectro de una matriz A ∈ Mn (C) al conjunto de todos los
o
autovalores de A:
σ(A) = {λ ∈ K : λ es autovalor de A} = {λ ∈ K : Ker (A − λI) = {0}}
Definici´n 1.16. El radio espectral de una matriz A ∈ Mn (C) se define como
o
ρ(A) = m´x{|λ|/λ ∈ σ(A)}
a
1.4.1. Autovalores y Autovectores de algunos tipos de matrices
Matrices Triangulares
Dada A matriz de orden n triangular superior (respectivamente inferior) se verifica
que los autovalores de A son los elementos de su diagonal principal, es decir aii = λi ,
i = 1, . . . , n.
Demostraci´n 1.
o
Si A es triangular superior o inferior entonces A−λIn tambi´n lo es, luego por propiedad
e
de las matrices triangulares se tiene:
n
|A − λIn | = (aii λi )
i=1
por tanto λi = aii , i = 1, . . . , n son los autovalores de A.
Matrices Sim´tricas
e
Dada una matriz sim´trica de orden n×n cuyos elementos son n´ meros reales se verifica
e u
que:
1. Todos los autovalores de A son n´ meros reales.
u
2. Dos autovalores distintos de A tienen asociados autovectores ortogonales.
3. Para cada autovalor de A la dimensi´n del subespacio vectorial de los autovectores
o
asociados coincide con la multiplicidad algebraica.
20
27. ´
Nociones de Algebra Lineal 21
Matrices Idempotentes, Unipotentes y Nilpotentes
Proposici´n 1.17. Sea A una matriz cuadrada de orden n, se verifica que:
o
a) Si A es Idempotente entonces:
i. Sus autovalores son iguales a 0 o 1.
ii. tr(A) = rg(A)
iii. Si m0 es la multiplicidad algebraica de λ = 0 y m1 la de λ = 1, entonces la
dimensi´n de los subespacios de vectores V (0) y V (1) son m0 y m1 respectiva-
o
mente.
b) Si A es Unipotente entonces:
IV. Todos sus autovalores son iguales a 1 ´ -1
o
c) Si A es Nilpotente, entonces
V. Todos sus autovalores son nulos.
Demostraci´n 2.
o
a) Por hip´tesis A2 = A
o
i. Si λ es un autovalor de A con autovector asociado v, se tiene que Av = λv,
entonces premultiplicando la desigualdad anterior por A se tiene:
AAv = Aλv
A2 v = Aλv
= λAv
= λλv
A2 v = λ2 v
Av = λ2 v y Av = λv
λ2 v = λv
λ2 v − λv = 0
(λ2 − λ)v = 0
λ2 − λ = 0
λ(λ − 1) = 0
Por lo que λ = 0 ´ λ = 1.
o
21
28. ´
Nociones de Algebra Lineal 22
ii. Si λ = 0 es un autovalor de A con multiplicidad algebraica m, entonces λ = 1
tendr´ multiplicidad algebraica (n − m), por tanto, tr(A) = (n − m), esto es por la
a
proposici´n(1.13) y
o
(1.2) |A − λIn | = λm (1 − λ)n−m
y por proposici´n(1.12)
o
(1.3)
|A−λIn | = (−λ)n +(−λ)n−1 tr(A)+(−λ)n−2 tr2 (A)+. . . . . .+(−λ)n−(n−m) trn−m (A)+· · ·+|A|
siendo tri (A), i = 2, 3, . . . , n − 1 la suma de todos los menores de orden i que
contienen en su diagonal principal i elementos de la diagonal principal de A.
Desarrollando la expresi´n (1.2) a trav´s del binomio de Newton e igualando (1.2)
o e
con (1.3) se verifica que:
|A| = 0
tri (A) = 0, i = n − m + 1, . . . , (n − 1)
trn−m (A) = 1
Por tanto rg(A) = n − 1 = tr(A).
1.4.2. Normas en Mn (C)
Se estudiar´n distintas normas en el espacio vectorial de matrices Mn (C). Muchas de
a
estas normas son utiles en diversas desigualdades matriciales espec´
´ ıficas. Pero no olvi-
demos que, como dim Mn (C) < ∞, es un resultado conocido que todas las normas en
Mn (C) son equivalentes.
En los siguientes ejemplos definiremos las normas m´s cl´sicas para matrices.
a a
Ejemplo.
1. La norma espectral · definida del siguiente modo
A = A sp = m´x Ax = s1 (A),
a
x =1
donde la ultima igualdad surge de que A
´ sp = |A| sp = ρ(|A|).
22
29. ´
Nociones de Algebra Lineal 23
2. Las normas de Schatten. Dado 1 ≤ p < ∞
∞ 1/p
p
A p = si (A)
n=1
La · 2 se llama norma de Frobenius. Ella verifica que
n
2
A 2 = tr A ∗ A = |aij |2
i,j=1
y proviene del producto escalar en Mn (C) definido por A, B = tr B ∗ A.
3. Las normas Ky-Fan. Dado k ∈ {1, . . . , n}
k
A (k) = si (A)
i=1
Notar que A (1) = A sp y A (n) = A 1 (de Schatten).
4. Toda norma N en Cn induce una norma | · |N en Mn (C) del siguiente modo:
|A |N = m´x N(Ax)
a
N (x)=1
Estas normas satisfacen que:
a) |I |N = 1
b) ρ(A) ≤ |A |N
c) |AB |N ≤ |A |N |B |N
5. | · |1 es la inducida por la norma · 1 en Cn . Puede demostrarse que
A 1 = m´x Ci (A)
a 1
i
donde Ci (A) simboliza el vector formado por la columna i-´sima de A.
e
6. Analogamente, |· |∞ es la inducida por la norma · ∞ en Cn . Puede demostrarse
que
A ∞ = m´x Fi (A) 1
a
i
donde Fi (A) simboliza el vector formado por la fila i-´sima de A.
e
Definici´n 1.18. Una norma
o · en Mn (C) se llama Matricial si AB ≤ A B
23
30. ´
Nociones de Algebra Lineal 24
Teorema 1.19. (Perron - Frobenius:) Si A es una matriz no negativa e irreductible,
existe una unica ra´ de A, λ(A), que tiene el mayor valor absoluto. Esta ra´ es positiva
´ ız ız
y simple, tal que:
Su vector caracter´
ıstico asociado es estrictamente positivo.
Si ρ > λmax entonces existe la inversa de (ρI − A) y adem´s (ρI − A)−1 > 0.
a
λmax tiene un valor comprendido ente el m´ınimo y el m´ximo de la suma de las
a
filas de A, y entre el m´
ınimo y m´ximo de las columnas de A.
a
Teorema 1.20. (Metzler:) Sea A = {aij } una matriz positiva. Una condici´n necesaria
o
y suficiente para que todas las ra´
ıces caracter´
ısticas de A sean menores que 1 (en valor
absoluto) es que los menores principales de (I − A) sean positivos. Si adem´s A es
a
−1
irreducible (I − A) = {αij } > 0; αii > 1 (∀i) y aij ≤ aii .
1.4.3. Sucesiones y Series de Matrices
El uso de normas nos permite hablar de convergencia de sucesiones de vectores y, por
lo tanto, de matrices. El objetivo es introducir las serie de matrices y demostrar un
resultado que necesitaremos.
Sea {Ak }∞ una sucesi´n infinita de matrices con elementos en Kn×n , recordemos que
k=0 o
F = R o C. Con esta sucesi´n formamos otra, la de las sumas parciales
´ o
k
Sk = Aj , K ≥ 0
j=0
∞
Definici´n 1.21. La serie
o Aj converge si la sucesi´n {Sk } es convergente; i.e. si
o
j=0
existe el l´ Sk . Adem´s, si S = l´ Sk entonces escribiremos
ım a ım
k→∞ k→∞
∞
Aj = S
j=0
∞ ∞
La convergencia de la serie Aj puede reducir a la de la serie num´rica
e Aj de la
j=0 j=0
siguiente forma:
∞
Proposici´n 1.22. Si la serie num´rica
o e Aj converge para alguna norma de matriz,
j=0
∞
tambi´n converge la serie matricial
e Aj
j=0
24
31. ´
Nociones de Algebra Lineal 25
Demostraci´n 3. Sea ε > 0 un n´ mero real dado. Veremos que existe un entero N > 0
o u
tal que si p, q ≥ N entonces Sp − Sq < ε. Esto demuestra que la sucesi´n {Sn } de
o
m×n
sumas parciales es una sucesi´n de Cauchy. Como K
o es completo, {Sn } converge.
En efecto
q q p q
Sp − Sq = Aj ≤ Aj = Aj − Aj
j=p+1 j=p+1 j=0 j=0
∞
Ahora bien, si Aj converge, existe N > 0 tal que si p, q ≥ N entonces
j=0
p q
Aj − Aj <ε
j=0 j=0
que es lo que se quer´ demostrar.
ıa
∞
En particular, para matrices cuadradas la serie de potencias aj Aj es convergente si
j=0
∞
lo es la serie num´rica
e j=0 |aj | Aj .
∞
Nos interesa especialmente la serie geom´trica
e z j que sabemos que converge a
j=0
1
= (1 − z)−1 si |z| < 1
1−z
Proposici´n 1.23. Si A ∈ Kn×n y A < 1 para alguna norma de matriz, entonces
o
In − A es invertible. Adem´s, en tal caso
a
∞
−1
(In − A) = Aj
j=0
y
1
(In − A)−1 ≤
1− A
∞
j
Demostraci´n 4. Si A < 1 entonces la serie geom´trica
o e A es convergente, y
j=0
∞ ∞
por la Proposici´n 1.22 la serie matricial
o Aj converge. Sea B = Aj y pongamos
j=0 j=0
k
Sk = Aj
j=0
Entonces
(I − A)Sk = (In − A)(In + A + · · · + Ak ) = In − Ak+1
25
32. ´
Nociones de Algebra Lineal 26
Como l´ Sk = B resulta que
ım
k→∞
l´ (In − A)Sk = (In − A)B
ım
k→∞
y tambi´n
e
l´ (In − A)Sk = l´ (In − Ak+1 )
ım ım
k→∞ k→∞
k+1
Ahora bien, l´ (In − A
ım ) = In porque In − Ak+1 − In ≤ A k+1
y la sucesi´n
o
k→∞
k
num´rica { A } converge a cero por ser A < 1.
e
En consecuencia (In − A)B = In y
∞
(In − A)−1 = B = Aj
j=0
Finalmente
∞ ∞
1
(In − A)−1 = Aj ≤ A j
=
j=0 j=0
1− A
1.5. Similaridad
Definici´n 1.24. Una matriz A se dice ”similar” a la matriz B, y se denota por A ∼ B,
o
si existe una matriz invertible P tal que A = P BP −1
Observaci´n 1. Hay propiedades de las matrices que son invariantes bajo similaridad,
o
esto es, si A ∼ B y A tiene la propiedad entonces B tambi´n la tiene.
e
Ejemplo. Muestre que la nilpotencia es una propiedad invariante por similaridad. Lo
que debemos probar es que si A ∼ B y As = 0, para alg´ n s > 1. Entonces B s = 0,
u
para alg´ n s > 1.
u
En efecto: A ∼ B, entonces existe P invertible tal que A = P BP −1.
As = 0
⇒ (P BP −1)s = 0
⇒ (P −1 )s B s P s = 0
⇒ BsP s = P s0 = 0
⇒ B s = 0P −s = 0
⇒ Bs = 0
26
33. ´
Nociones de Algebra Lineal 27
Ejemplo. Si A ∼ B y A es invertible, entonces B tambi´n es invertible.
e
Definici´n 1.25. Una funci´n f definida en matrices se llama invariante por similaridad
o o
si f (A) = f (B) para cualquier par de matrices similares A ∼ B.
Ejemplo. El determinante y la traza son funciones invariantes.
Debemos demostrar:
1. A ∼ B ⇒ det(A) = det(B)
2. A ∼ B ⇒ tr(A) = tr(B)
En efecto:
1. A ∼ B ⇒ ∃P invertible tal que A = P BP −1 , entonces
det(A) = det(P BP −1)
= det(P ).det(B).det(P −1)
1
= det(P ).det(B).
det(P )
det(A) = det(B)
2. A ∼ B ⇒ ∃P invertible tal que A = P BP −1 , entonces
tr(A) = tr(P BP −1)
= tr(P −1P B)
= tr(IB)
tr(A) = tr(B)
Ejemplo. Si A ∼ B, entonces A y B tienen los mismos valores propios. (Para este caso
la funci´n es el polinomio caracter´
o ıstico).
En efecto.
A ∼ B ⇒ ∃P invertible tal que A = P BP −1, luego se tiene:
f (A) = det(λI − A)
= det(λI − P BP −1 )
= det(P λP −1 − P BP −1)
= det(P (λI − P BP −1)P −1
= det(P )det(λI − B)det(P −1 )
1
= det(P ).det(λI − B).
det(P )
= det(λI − B)
= F (B)
27
34. ´
Nociones de Algebra Lineal 28
Entonces A y B tienen el mismo polinomio caracter´
ıstico.
∴ A y B tienen los mismos valores propios.
1.6. Diagonalizaci´n
o
En esta secci´n supondremos que el cuerpo base K es algebraicamente cerrado (por
o
ejemplo K = C). Considermos el siguiente problema: “Dada una matriz A, A ∈ Kn×n ,
determinar si es que existe una matriz P , no singular, tal que la matriz B = P AP −1 sea
diagonal”.
Definici´n 1.26. Una matriz A se llama diagonalizable si existe una matriz diagonal
o
D que es similar a A
Hay algunos casos donde los valores propios nos indican si tal matriz es diagonalizable,
como se ver´ a continuaci´n.
a o
Proposici´n 1.27. Sea A ∈ Mn×n (K). A es similar a una matriz diagonal si y s´lo si,
o o
A tiene n vectores propios linealmente independientes en Kn .
Demostraci´n 5.
o
⇒)Supongamos que P = [P1 P2 · · · Pn ]n×n , donde Pi , i = 1, . . . , n es un vector columna
de orden n × 1, y
λ1 0 · · · 0 λ1 e1
0 λ2 · · · λ2 e2
D = P −1AP = . =
.
. . ... .
.
. .
.
.
.
.
0 0 · · · λn n×n
λn en n×n
Entonces:
AP = P D
λ1 e1
λ2 e2
= [P1 P2 · · · Pn ]n×n
.
.
.
λn en n×n
= P1 (λ1 e1 ) + P2 (λ2 e2 ) + · · · + Pn (λn en )
= (λ1 P1 )e1 + (λ2 P2 )e2 + · · · + (λn Pn )en
e1
e2
.
= [λ1 P1 λ2 P2 · · · λn Pn ]n×n
.
.
en n×n
28
35. ´
Nociones de Algebra Lineal 29
(1.4) AP = [λ1 P1 λ2 P2 · · · λn Pn ]n×n
Como P es no singular entonces det P = 0, luego los vectores columna de P, Pi ,
i = 1, . . . , n son linealmente independientes. De (1.4), se tiene que:
APi = λi Pi
Por lo tanto, P1 , P2 , · · · , Pn , son n-vectores propios linealmente independientes para A.
⇐) Sean P1 , P2 , · · · , Pn , n-vectores propios de A linealmente independientes y asociados
a valor propios λ1 , λ2 , . . . , λn respectivamente, los cuales cumplen:
APi = λi Pi
Entonces, la matriz P cuyas columnas son P1 , P2 , · · · , Pn es no singular, y verifica:
AP = [λ1 P1 λ2 P2 ··· λn Pn ]
AP = P D
donde
λ1 0 · · · 0
0 λ2 · · ·
D=
. . .. .
.
. .
. . .
.
0 0 · · · λn
Luego A = P DP −1, es decir A es similar a una matriz diagonal D.
Sabemos que en el espacio Kn , n vectores linealmente independientes forman una base
de este. Luego, la proposici´n anterior la podemos enunciar tambi´n de la siguiente
o e
manera:
Lema 1.28. Sea A, una matriz de orden n × n, entonces A es diagonalizable si y s´lo
o
n
si K tiene base formada por vectores propios de A.
Proposici´n 1.29. Si A tiene todos sus valores propios diferentes, entonces A es dia-
o
gonalizable.
Demostraci´n 6. o
Sean λ1 , λ2 , . . . , λn distintos valores propios de la matriz A y sean v1 , v2 , . . . , vn sus
correspondientes autovectores. Luego por la parte (2) de la proposici´n (1.14) se tiene
o
que v1 , v2 , . . . , vn son linealmente independientes y por proposici´n (1.27) se tiene que
o
A es similar a una matriz diagonal. Por lo tanto, A es diagonalizable
29
36. ´
Nociones de Algebra Lineal 30
Observaci´n 2.
o
La proposici´n (1.27) y el lema (1.28) indican que una condici´n necesaria y suficiente
o o
para que una matriz cuadrada A de orden n sea diagonalizable es que para cada autovalor
p
λi , i = 1, . . . , p de A con multiplicidad algebraica mi , i = 1, . . . , p y mi = n se verifica
i=1
que
dim[V (λi )] = mi , i = 1, . . . , p
Por tanto, si A es diagonalizable, el espacio vectorial V donde est´ definida la aplicaci´n
a o
lineal f con matriz asociada A se puede expresar como suma directa de los subespacios
invariantes, es decir
V = V (λ1 ) V (λ2 ) ,..., V (λn )
Ejemplo. (De una matriz con todos sus valores propios diferentes)
Sea
1 2
A=
1 −3
|A − λI| = λ2 + 2λ − 5
√ √
Luego los valores propios de A son λ1 = −1 + 6, λ2 = −1 − 6,
x1
1. Hallemos el vector propio asociado a λ1 : v1 =
x2
1 2 x1
Av1 = λ1 v1
1 −3 x2
√
(−1 + 6)x1
= √
(−1 + 6)x2
√
(2 − 6)x1 + 2x2 = 0
√
x1 − (2 + 6)x2 = 0
√
6
x2 = (−1 + )x1
2
1
Por lo tanto v1 = x1 √
6
−1 + 2
30
37. ´
Nociones de Algebra Lineal 31
y1
2. Hallemos el vector propio asociado a λ2 : v2 =
y2
1 2 y1
Av2 = λ2 v2
1 −3 y2
√
(−1 − 6)y1
= √
(−1 − 6)y2
√
(2 − 6)y1 + 2y2 = 0
√
y1 − (2 + 6)y2 = 0
√
6
y2 = (−1 + )y1
2
1
Por lo tanto v2 = y1 √
6
−1 − 2
3. Luego podemos formar la matriz
1 1
P = [v1 v2 ] = √
6
√
6
−1 + 2
−1 − 2
con √
6+2
√ 1
√
P −1 = √ 6
2
6−2
6
√
2 6
− 16
√
para la cual se verifica que
√
−1 −1 + 6 0
D=P AP = √
0 −1 − 6
Por lo tanto A es diagonalizable.
Ejemplo. (De una matriz con valores propios repetidos)
Sea
5 4 2
B= 4 5 2
2 2 2
|B − λI| = (1 − λ)2 (10 − λ) = 0
Luego los valores propios son
λ1 = 1, con m1 = 2
λ2 = 10, con m2 = 1
31
38. ´
Nociones de Algebra Lineal 32
1. Hallemos V (λ1 ) y V (λ2 )
Para λ1 = 1 : V (λ1 = 1 = {v = (x1 , y1, z1 ) ∈ R3 /Bv = v}
Bv =
v
5 4 2 x1 x1
4 5 2 y1 = y1
2 2 2 z1 z1
4x1 + 4y1 + 2z1 = 0
4x1 + 4y1 + 2z1 = 0
2x1 + 2y1 + z1 = 0
De donde se tiene :z1 = −2x1 − 2y1 . Por lo que
x1 x1 1 0
v = y1 = y1 = x1 0 + y1 1
z1 −2x1 − 2y1 −2 −2
luegodim V 1 ) 2, y se obtiene dos vectores propios asociados a λ1
(λ =
1 0
v1 = 0 y 1
−2 −2
Para λ2 = 10 : V (λ2 = 10 = {v = (x2 , y2 , z2 ) ∈ R3 /Bv = 10v}
Bv =
10v
5 4 2 x2 10x2
4 5 2 y2 = 10y2
2 2 2 z2 10z2
−5x1 + 4y1 + 2z1 = 0
4x1 − 5y1 + 2z1 = 0
2x1 + 2y1 − 8z1 = 0
De donde se tiene: x2 = y2 y x2 = 2z2 , por lo que
x2 2z2 2
v = y2 = 2z2 = z2 2
z2 z2 1
luego, dim V (λ2 ) = 1
32
39. ´
Nociones de Algebra Lineal 33
2. Por tanto, como dim V (λ1 ) = 2 y dim V (λ2 ) = 1, existen
(1, 0, −2), (0, 1, −2) ∈ V (λ1 )
(2, 2, 1) ∈ V (λ2 )
autovectores de
B tales que la matriz
1 0 2
P = 0 1 2 es no singular, verific´ndose que
a
−2 −2 1
5/9 −4/9 2/9 5 4 2 1 0 2
−1
P BP = −4/9 5/9 −2/9 4 5 2 0 1 2
2/9 2/9 1/9 2 2 2 −2 −2 1
5/9 −4/9 2/9 1 0 2
−1
P BP = D = −4/9 5/9 −2/9 0 1 2
20/9 20/9 10/9 −2 −2 1
1 0 0
P −1 BP = D = 0 1 0
0 0 10
Por lo tanto B es diagonalizable.
1.6.1. Diagonalizaci´n de Matrices Idempotentes y Nilpotentes
o
Las propiedades respecto del caracter diagonalizable o no de las matrices idempotentes
y nilpotentes, se recogen en el resultado que se indica a continuaci´n.
o
Proposici´n 1.30. Sea A una matriz cuadrada de orden n no nula. Entonces se verifica
o
que:
i) Si A es idempotente, A es diagonalizable.
ii) Si A es nilpotente, A no es diagonalizable.
Demostraci´n 7.
o
i) Es consecuencia inmediata de la propiedad (III) de la proposici´n 1.17
o
ii) Si A es nilpotente, entonces λ = 0 (con m = n) es su unico autovalor, por tanto,
´
dado que
V (λ) = {x ∈ Rn : Ax = 0} y dimV (λ) = n − rg(A) < n la matriz A no es
diagonalizable
33
40. ´
Nociones de Algebra Lineal 34
En resumen, las matrices que son sim´tricas, idempotentes o que tienen todos sus au-
e
tovalores distintos son diagonalizables. En general, una condici´n necesaria y suficiente
o
para que una matriz A sea diagonalizable, es que la dimensi´n del subespacio de auto-
o
vectores asociado a cada autovalor, coincida con el orden de multiplicidad del autovalor,
es decir, existe una base de autovectores del espacio en que esta definida la aplicaci´n
o
lineal cuya matriz asociada es A.
Cabe indicar que no todas las matrices son diagonalizables.
Ejemplo. Sea
19/2 −9/2 −7/2
C = 13 −6 −9/2
10 −5 −9/2
cuyo polinomio caracter´ıstico es: fC (λ) = −λ3 − λ2 + 7 λ − 1 y cuyos autovalores son
4 2
λ1 = 0,5, con m1 = 2 y λ2 = −2, con m2 = 1. Vamos a verificar si C es diagonalizable.
Hallemos V (λ1 = 0,5) : V (λ1 ) = {v = (x1 , y1 , z1 ) ∈ R3 /Cv = 0,5v}
(C − 0,5I) = 0
9 −9/2 −7/2 x1 0
13 −13/2 −9/2 y1 = 0
10 −5 5 z1 0
Luego V (λ1 ) = {v = (x1 , y1 , z1 ) ∈ R3 /z1 = 0, y1 = 2x1 }. As´ dimV (λ1 ) = 1 = m1 .
ı,
Por lo tanto C no es diagonalizable.
Sin embargo existe una matriz “casi diagonal”, llamada matriz de Jordan que veremos
en el siguiente cap´
ıtulo.
34
41. Cap´
ıtulo 2
Forma Can´nica de Jordan
o
Como se vio en el cap´ ıtulo anterior no todas las matrices cuadradas son diagonalizables.
Sin embargo, siempre que el cuerpo elegido K sea el de los n´ meros complejos C es
u
posible encontrar una matriz “casi diagonal”semejante a una dada.
El inter´s de poder determinar una matriz semejante con estructura diagonal o casi dia-
e
gonal radica en la facilidad para calcular potencias de matrices con estas caracter´
ısticas.
En este cap´ıtulo se establece que si A ∈ Mn es una matriz con aij ∈ C; i, j = 1, . . . , n,
entonces existe una matriz de Jordan semejante a A, que en ocasiones es diagonal.
Una matriz de Jordan est´ constituida por bloques elementales cuya definici´n es la
a o
siguiente.
Definici´n 2.1. Se dice que una matriz B = (bij ), i, j = 1, . . . , r es una caja o bloque
o
elemental de Jordan si se verifica que
b i=j
bij = 1 i+1=j
0 resto
es decir B es de la forma
b 1
0 ··· 0 0
0 b
1 ··· 0 0
. .
B= .
. . ... . .
.
.
.
. . .
. .
0 0 0 ··· b 1
0 0 0 ··· 0 b
El unico valor propio de Jr (b) es b.
´
Se puede escribir tambi´n Jr (b) = bIr + Jr (0)
e
Una vez conocida la definici´n de caja o bloque elemental, el concepto de matriz de
o
Jordan es el que se se˜ ala a continuaci´n.
n o
35
42. Forma Can´nica de Jordan
o 36
Definici´n 2.2. Dada J ∈ M se dice que J es una matriz de Jordan si es diagonal por
o
bloques, y cada uno de los bloques es una caja elemental de Jordan, esto es:
Jn1 (λ1 ) 0 ··· 0
0 Jn2 (λ2 ) ··· 0
J =
. . .. .
.
. .
. . .
.
0 0 · · · Jns (λs ) (n1 +n2 +···+ns )×(n1 +n2 +···+ns )
La matriz de Jordan tambi´n se denota por
e
Jn1 (λ1 ) ⊕ Jn2 (λ2 ) ⊕ · · · ⊕ Jns (λs )
Teorema 2.3. (Cayley-Hamilton) Sea A una matriz de orden n × n y sea fA (x) su
polinomio caracter´
ıstico. Entonces fA (A) = 0.
Demostraci´n 8.
o
Primero probaremos que si A es semejante a B con A = P BP −1 entonces: “si f
es un polinomio f (x) = a0 + a1 x + · · · + am xm , y si para una matriz cuadrada X,
f (X) = a0 I + a1 X + · · · + am X m ,
entonces f (A) = P f (B)P −1”.
En efecto:
f (A) = a0 I + a1 A + · · · + am Am
= a0 P P −1 + a1 P BP −1 + · · · + am (P BP −1 )m
= a0 P P −1 + a1 P BP −1 + · · · + am P B m P −1
= P (a0 I + a1 B + · · · + am B m )P −1
f (A) = P f (B)P −1
Ahora supongamos que J = P −1 AP es la forma de Jordan asociada a A. Se tiene
entonces que:
fA (A) = fA (P JP −1) = P fA (J)P −1
Adem´s fA (x) = fJ (x) (pues A y J son semejantes.)
a
Entonces fA (A) = P fJ (J)P −1 . Luego, debemos demostrar que:
fJ (J) = 0.
36