SlideShare a Scribd company logo
1 of 88
Download to read offline
UNIVERSIDAD NACIONAL PEDRO RUIZ GALLO
     FACULTAD DE CIENCIAS FÍSICAS Y MATEMÁTICAS
        ESCUELA PROFESIONAL DE MATEMÁTICA



      ´
SOLUCION DEL MODELO INPUT - OUTPUT

      DE LEONTIEF APLICANDO

              ´
  LA FORMA CANONICA DE JORDAN



                       Tesina




                    presentada por:


       Contreras Vidaurre Charles David

         Cornetero Angeles Edith Janet



                        Asesor:


       Lic. Mat. Walter Arriaga Delgado



                  Lambayeque - Per´
                                  u
                        2010
´
                              Indice general


Resumen                                                                                              III

Introducci´n
          o                                                                                          IV

Objetivos                                                                                             V

                  ´
1. Nociones de Algebra Lineal                                                                         1
   1.1. Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .   .   .   .   .   .    1
        1.1.1. Operaciones con matrices . . . . . . . . . . . . . . . . .        .   .   .   .   .    2
        1.1.2. Determinantes . . . . . . . . . . . . . . . . . . . . . . . .     .   .   .   .   .    4
        1.1.3. Tipos especiales de matrices . . . . . . . . . . . . . . . .      .   .   .   .   .    5
   1.2. Espacio Vectorial . . . . . . . . . . . . . . . . . . . . . . . . . .    .   .   .   .   .    9
        1.2.1. Transformaciones Lineales . . . . . . . . . . . . . . . . .       .   .   .   .   .    9
   1.3. Resoluci´n de sistemas lineales por el m´todo de Gauss-Jordan .
                o                                  e                             .   .   .   .   .   12
   1.4. Autovalores y Autovectores . . . . . . . . . . . . . . . . . . . .       .   .   .   .   .   17
        1.4.1. Autovalores y Autovectores de algunos tipos de matrices           .   .   .   .   .   20
        1.4.2. Normas en Mn (C) . . . . . . . . . . . . . . . . . . . . .        .   .   .   .   .   22
        1.4.3. Sucesiones y Series de Matrices . . . . . . . . . . . . . .       .   .   .   .   .   24
   1.5. Similaridad . . . . . . . . . . . . . . . . . . . . . . . . . . . . .    .   .   .   .   .   26
   1.6. Diagonalizaci´n . . . . . . . . . . . . . . . . . . . . . . . . . . .
                     o                                                           .   .   .   .   .   28
        1.6.1. Diagonalizaci´n de Matrices Idempotentes y Nilpotentes
                             o                                                   .   .   .   .   .   33

2. Forma Can´nica de Jordan
                o                                                                        35
   2.1. Matriz de Jordan Asociada a una aplicaci´n  o
        nilpotente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
   2.2. Matriz de Jordan asociada a una Aplicaci´n con un unico Autovalor . . . 47
                                                    o           ´
   2.3. Matriz de Jordan asociada a una aplicaci´n lineal cualquiera . . . . . . . 53
                                                    o

3. Matriz Insumo − Producto                                                          66
   3.1. Modelo de Leontief. M´todo Matricial . . . . . . . . . . . . . . . . . . . . 71
                             e


                                             I
3.2. C´lculo de la inversa de Leontief por aproximaci´n . . . . . . . . . . . .
         a                                               o                              72
   3.3. Resoluci´n de ejercicios por MatLab . . . . . . . . . . . . . . . . . . . . .
                o                                                                       74

Conclusiones                                                                            81

Bibliograf´
          ıa                                                                            82




                                           II
Resumen

En el primer cap´                                                                 ´
                  ıtulo, como preliminares se presentan algunas nociones del Algebra
Lineal, temas necesarios para comprender el tema general.
El segundo cap´ıtulo se dedica al estudio de la “Forma Can´nica de Jordan”. Detallando
                                                            o
los procedimientos que existen para obtener la “Forma Can´nica de Jordan”de una
                                                                 o
matriz asociada a una transformaci´n lineal T : V → V y demostrar la existencia de
                                      o
una base β del espacio vectorial V , tal que la matriz de representaci´n A(T, β), sea una
                                                                      o
matriz de Jordan.
En el capitulo final veremos la importancia fundamental en las matem´ticas aplicadas
                                                                         a
en este trabajo trataremos una aplicaci´n al modelo Insumo-Producto.
                                         o




                                           III
Introducci´n
                                        o

Uno de los enfoques importantes para analizar la conducta de algunos modelos intere-
santes del mundo real es determinar la “Forma Can´nica de Jordan”. Tal determinaci´n
                                                    o                               o
involucra el manejo de ciertos fundamentos matem´ticos. El modelo de insumo-producto
                                                   a
constituye la fusi´n de la econom´ del equilibrio general con el algebra matricial. En
                  o                ıa                            ´
este trabajo se muestra la integraci´n de la herramienta computacional al aprendiza-
                                      o
je de una materia totalmente abstracta, como es el ´lgebra lineal y su aplicaci´n a la
                                                      a                        o
econom´ ıa.
El “an´lisis de insumo-producto” que es una t´cnica matem´tica que refleja la interde-
       a                                       e            a
pendencia entre los distintos sectores de una econom´ y entre factores productivos y
                                                       ıa
productos. Wassily Leontief, mediante el “an´lisis de insumo-producto” busc´ construir
                                            a                              o
un modelo de equilibrio general. Intent´ cuantificar el modelo matem´tico desarrollado
                                        o                            a
por Leon Walras (1834-1910).




                                         IV
Objetivos

Objetivo General
   Determinar la soluci´n del modelo input-output de Leontief empleando el progra-
                       o
   ma Matlab y aplicando la forma can´nica de Jordan.
                                       o


Objetivos Espec´
               ıficos
   Desarrollar la forma can´nica de Jordan para una matriz cualquiera.
                           o

   Analizar la relaci´n de semejanza entre matrices para simplificar el manejo de las
                     o
   mismas mediante un proceso de diagonalizaci´n.
                                                o




                                       V
Cap´ ıtulo 1
                              ´
                 Nociones de Algebra Lineal

1.1.       Matrices
Sea S un conjunto cualquiera y f una aplicaci´n de I × J = {1, 2, . . . , m} × {1, 2, . . . , n}
                                             o
en S definido por
                            f : I ×J →             S
                                  (i, j) → f (i, j) = aij
entonces

              A = {f (i, j) : i ∈ I, j ∈ J} = {aij , i = 1, . . . , m, j = 1, . . . , n}

es una matriz de orden m × n, es decir
                                                                 
                                   a11          a12    ···    a1n
                                                                 
                                  a21          a22    ···    a2n 
                           A= .  .             .     ..      . 
                                  .             .
                                                 .        .    . 
                                                               . 
                                         am1 am2 · · · amn

As´ pues una matriz A de orden m × n puede entenderse como un “rect´ngulo”de mn
    ı                                                              a
elementos de S ordenados en m filas y n columnas.
La notaci´n matricial es la siguiente:
            o
aij ≡ elemento de la i−´sima fila y j−´sima columna de la matriz A
                                  e             e
ai· = (ai1 , ai2 , . . . , ain ) ≡ fila i−´sima de la matriz A.
                                       e
        a1j
       
      a2j 
a·j =  .  ≡ columna j−´sima de la matriz A.
       .                            e
       . 
        ain



                                                  1
´
Nociones de Algebra Lineal                                                                  2


1.1.1.     Operaciones con matrices

Suma de matrices
Dadas las matrices A, B ∈ Mm×n con A = (aij ), B = (bij ), i = 1, . . . , m, j = 1, . . . , n,
se define la matriz suma A + B = C = (cij ) donde:

                                       cij = aij + bij


Producto de una matriz por un escalar
Dada la matriz A = (aij ) de orden m × n y λ ∈ R, se define la matriz D = λA = (dij )
donde
                                     dij = λaij


Producto de matrices
Dada la matriz A = (aij ) ∈ Mm×n y B = (bjk ) ∈ Mn×p , se define la matriz producto
C = AB = (cik ), de orden m × p donde:
                                              n
                                      cik =         aij bjk
                                              j=1


Propiedades:

      A+B =B+A

      A + (B + C) = (A + B) + C

      Existe 0m×n tal que A + 0m×n = A para cualquier A ∈ Mm×n .

      Para todo A ∈ Mm×n existe (−A) ∈ Mm×n tal que A + (−A) = 0m×n

      α(A + B) = αA + αB

      (α + β)A = αA + βA

      (αβ)A = α(βA)

      Existe 1 ∈ R tal que 1 · A = A para todo A ∈ Mm×n

      El producto no es conmutativo

      A(BC) = (AB)C

                                               2
´
Nociones de Algebra Lineal                                                                  3


     Para toda A ∈ Mm×p
                                    Im A = A        ,          AIp = A

     Para toda A ∈ Mm×n no nula

                               A0n×s = 0m×s        ,     0p×m A = 0p×n

     (A + B)C = AC + BC         ,    D(A + B) = DA + DB

     AB = 0, no implica A = 0 ´ B = 0
                              o

     AB = AC no implica que B = C


Potencia de una matriz
Sea A = (aij ) ∈ Mn , la potencia de la matriz A se define como

                                     A0 = I
                                     A1 = A
                                     A2 = A · A
                                     .
                                     .
                                     .
                                     An = A · A · · · A

Propiedades:

     Am An = Am+n , m, n ∈ Z + (enteros positivos)

     (Am )n = Am·n

     An+1 = A · An

     D k = diag(ak , ak , . . . , ak ), k ∈ Z + , (D matriz diagonal, la cual los dij = 0 para
                 11   22           nn
     i = j)


Traza de una matriz
Dada una matriz A ∈ Mn se define su traza como
                                                   n
                                       tr(A) =           aii
                                                   i=1




                                               3
´
Nociones de Algebra Lineal                                                                         4


Propiedades: Dadas A, B ∈ Mn y α ∈ R, se tiene que:

     tr(A + B) = tr(A) + tr(B)

     tr(αA) = αtr(A)

     tr(AB) = tr(BA)


1.1.2.    Determinantes
Dada una matriz A de orden n, se define el determinante de A que se denotar´ por |A|
                                                                            a
o det(A) como la suma de los n! productos signados de n factores que se obtienen con-
siderando los elementos de la matriz de forma que cada producto contenga un elemento
y s´lo si uno de cada fila y cada columna de A.
   o
A partir de esta definici´n se obtiene
                        o

                 a11 a12
  1. |A| =                 = a11 a22 − a12 a21
                 a21 a22

               a11 a12 a13
  2. |A| = a21 a22 a23          = a11 a22 a33 +a12 a23 a31 +a21 a32 +a13 −[a13 a22 a31 +a11 a23 a32 +
               a31 a32 a33
     a12 a21 a33 ]

Propiedades:

     |In | = 1

     |AT | = |A|

     |AB| = |A||B|
                  1
     |A−1 =      |A|

     |Am | = |A|m / m ∈ Z+

     |λA| = λn |A|

     Si dos filas o columnas son proporcionales, el determinante es cero.

     Si A = [aij ] es triangular, entonces el determinante es:

                                         |A| = a11 .a22 · · · ann


                                                 4
´
Nociones de Algebra Lineal                                                             5


Nota:

     Una matriz cuadrada A se dice no singular si y s´lo si |A| = 0
                                                     o

     Una matriz cuadrada A se dice singular si y s´lo si |A| = 0
                                                  o


Inversa de una matriz
Dada A ∈ Mn , se dice que B ∈ Mn es inversa de A y se denota por B = A−1 si
AB = BA = In (In es la matriz identidad In = (aij ), aij = 1, ∀ i = j y para i = j,
aij = 0, ij = 1, . . . , n)
Sea A, B ∈ Mn matrices no singulares, entonces

     Existe una unica matriz A−1 inversa de A
                ´

     La matriz A−1 es invertible y (A−1 )−1 = A

     La matriz AB tiene inversa, siendo (AB)−1 = B −1 A−1


Rango de una matriz
Se denomina rango de una matriz A ∈ Mm×n al m´ximo n´ mero de vectores columna
                                             a        u
de A linealmente independiente.
Propiedades: Dada A de orden m × n se cumplen las siguientes propiedades:

     Si rg(A) = min(m, n) se dice que A es de rango completo.

     Si A es cuadrada (m = n) y de rango completo ,entonces se dice que es una matriz
     no singular.

     rg(AB) ≤ min{rg(A), rg(B)}; A ∈ Mm×n y B ∈ Mn×p

     Dada A ∈ Mn×n con |A| = 0 se tiene que rg(A) = n


1.1.3.    Tipos especiales de matrices

Matriz Triangular
     Matriz Triangular Superior (MTS)
     Una matriz cuadrada A = (aij )n×n se llama MTS si y s´lo si los aij = 0 ∀ i > j
                                                          o

     Matriz Triangular Inferior (MTI)
     Una matriz cuadrada A = (aij )n×n se llama MTI si y s´lo si los aij = 0 ∀ i < j
                                                          o

                                          5
´
Nociones de Algebra Lineal                                                                      6


Propiedades:

Dadas A, B ∈ Mn matrices triangulares superiores (inferiores), α ∈ R, se verifica que:

      Las matrices A + B y αA son triangulares superiores(inferiores).

      La matriz AB es tambi´n triangular superior (inferior).
                           e

      Si A tiene inversa entonces A−1 es triangular superior(inferior).

      El rango de A es siempre mayor e igual al n´ mero de elementos de la diagonal
                                                 u
      principal de A no nulos.

      |A| = Πn aii
             i=1



Matriz Transpuesta
Dada C = (cij ) ∈ Mm×n , i = 1, . . . , m, j = 1, . . . , n, se dice que B = (bij ),
i = 1, . . . , n, j = 1, . . . , m es la matriz transpuesta de C si las filas de B son las columnas
de C o lo que es igual, las columnas de B son las filas de C, es decir

                            bij = cji ,   i = 1, . . . , n, j = 1, . . . , m

A la matriz transpuesta de C se le denota indistintamente por C ′ , C t o C T .
                                                                        ´
Propiedades:

      (At )t = A

      (A + B)t = At + B t

      (αA)t = αAt

      (AB)t = B t At


Matriz Sim´trica
          e
Una matriz A = (aij ) ∈ Mn es sim´trica si es igual a su traspuesta, es decir A = At
                                 e
Propiedades: Sean A y B matrices simetricas y α ∈ R, se verifica que:

      A + B y αA son simetricas

      Si A tiene inversa, entonces A−1 es sim´trica.
                                             e




                                                  6
´
Nociones de Algebra Lineal                                                                  7


Matriz Antisim´trica
              e
Una matriz A = (aij ) ∈ Mn , i, j = 1, . . . , n es antisim´trica si es igual al opuesto de su
                                                           e
                              t
transpuesta, es decir A = −A


Matriz Conjugada
Sea A = aij ∈ Mm×n , donde aij ∈ C, i = 1, . . . , n, j = 1, . . . , m, la matriz obtenida a
partir de A sustituyendo cada elemento por su conjugada de A y se representa por A
es decir si A = (aij ) ∈ Mm×n donde aij ∈ C entonces A = (aij ) = (aij ) se llama matriz
conjugada de A.
Propiedades:

      A=A

      A+B =A+B

      αA = α A; α ∈ K (K cuerpo)

      AB = A B; A y B conformes (A = (aik ), B = (akj )).

      (A)t = At


Matriz Positiva
Se dice que A es positiva si todos sus elementos son n´ meros reales no negativos y al
                                                         u
menos uno de ellos no nulo, es decir, para todo i, j = 1, . . . , n, aij ≥ 0.
Cuando para todo i, j = 1, · · · , n se verifica que aij > 0, la matriz A es estrictamente
positiva.
Si a todos los elementos de la matriz A se les exige solo ser n´ meros reales no negativos
                                                                  u
entonces A es una matriz semipositiva.
Propiedades: Si A y B son matrices positivas, α > 0, se verifica que:

      A + B y αA son positivas.

      AB es positiva tambi´n.
                          e

      AT es matriz positiva.

      Para todo k ∈ N, Ak es positiva.

Una matriz A = (aij ) ∈ K m×n se dice no negativa si todos sus elementos son ≥ 0.


                                              7
´
Nociones de Algebra Lineal                                                           8


Matriz Herm´
           ıtica
                                     ıtica ↔ A = (A)t en algunos casos (A)t se
A = (aij ) ∈ Mn donde aij ∈ C es herm´
denotara por A∗


Matriz Irreducible
Sea A ∈ Mn tal que A > 0. Diremos que A es una matriz irreducible si existe un m ≥ 1
tal que Am > 0.


Matriz Ortogonal
Una matriz cuadrada A se llama ortogonal si se verifica

                      A · At = I = At · A       I: matriz identidad

Propiedades: Si A, B ∈ Mn son matrices ortogonales, se verifica que:

     AB y BA son ortogonales, pero en general no lo son A + B y αA, para α ∈ R.

     El valor de |A| es igual a −1 o 1.

     El rango de A es n.

     A es invertible, A−1 es ortogonal y A−1 = AT .


Matriz Idempotente, Unipotente y Nilpotente
     Una matriz cuadrada A es idempotente:

                             A ∈ Mn es indempotente ⇔ A2 = A

     Cuando A2 = In , entonces se dice que A es unipotente.

     Si A2 = 0n (0n , matriz nula), se dir´ que la matriz es nilpotente
                                          a

Propiedades:
Si A y B son idempotentes, entonces se verifica que:

     AB es idempotente siempre que AB = BA

     Dada cualquier C ∈ Mn , si C T C = C, la matriz C es sim´trica e idempotente.
                                                             e

     El valor de |A| es 0 o 1, si |A| = 1 se tiene que A = In

                                            8
´
Nociones de Algebra Lineal                                                                                9


       In − A es una matriz idempotente y rg(In − A) = n − rg(A). Sin embargo, A − In
       no es idempotente.

                                      rg(In − A) = tr(In − A)
                                                       = tr(In ) − tr(A)
                                      rg(In − A) = n − rg(A)

Sea A una matriz unipotente, entonces se verifica que:
       |A| = 1 o |A| = −1.

       rg(A) = n, por tanto A−1 existe y adem´s A−1 = A.
                                             a
Sea A ∈ Mn una matriz nilpotente, entonces se verifica que:
       |A| = 0, y por tanto A−1 nunca existe y rg(A) < n.

       La matriz (In − A) es invertible y su inversa es (In − A)−1 = In + A


1.2.        Espacio Vectorial
Proposici´n 1.1. Sea v ∈ V un vector fijo tal que T q−1 = 0, entonces los vectores
               o
{v, T v, . . . T q−1 v} son linealmente independientes.
Proposici´n 1.2. Sea V un K-espacio vectorial de dimensi´n n, un conjunto de vectores
                  o                                                 o
{v1 , v2 , . . . , vn } es linealmente independiente si solo si genera V .
Proposici´n 1.3. (Completaci´n de una base) Sea V un K-espacio vectorial de
           o                            o
dimensi´n n > 1, v1 , v2 , . . . vr , r < n vectores linealmente independientes. Entonces
        o
existen vectores vr+1 , . . . , vn de manera que v1 , v2 , . . . vr , vr+1 , . . . , vn constituyen una base
de V .


1.2.1.       Transformaciones Lineales
Teorema 1.4. (Del n´cleo y la imagen) Sean U y V dos K-espacios vectoriales de
                       u
dimensi´n finita, y T : U → V una transformaci´n lineal entonces
       o                                     o

                             dim(Ker(T )) + dim(Im(T )) = dim(U)

Teorema 1.5. Sea V un K-espacio vectorial de dimensi´n finita. Sea {v1 , v2 , . . . , vn }
                                                        o
una base ordenada de V . Sean W un K-espacio vectorial y {w1 , w2 , . . . , wn } vectores
cualesquiera de W .Entonces existe una unica transformaci´n lineal T : V → W tal que:
                                       ´                 o

                                         T vj = wj ,     j = 1, n

                                                     9
´
Nociones de Algebra Lineal                                                                      10


Definici´n 1.6. (Matriz de Representaci´n) Sea V un K-espacio vectorial de di-
          o                                   o
mensi´n finita, sea una transformaci´n lineal. Dada una base β = {v1 , v2 , . . . , vn } de V ,
      o                            o
podemos construir la “matriz de representaci´n” A(T, β) de T respecto de la base β de
                                            o
la siguiente manera:
Consideremos la imagen de cada elemento de la base de T ,
                                            n
                                T (vi ) =         aij vj , i = 1, . . . , n
                                            j=1


Entonces A = A(T, β) es la matriz A = (aij ) ∈ Kn×n .

Definici´n 1.7. (Matriz de cambio de base) Sea V un espacio vectorial de dimensi´n
         o                                                                                      o
                                                               ′
finita sobre el cuerpo K, y sean β = {v1 , v2 , . . . , vn } y β = {w1 , w2 , . . . , wn } dos bases
ordenadas de V . Se puede definir una matriz (invertible) P de orden n × n unica tal       ´
que:

(1.1)                       [v]β = P [v]β ′ , para cada vector v ∈ V

P , es la matriz P = [P1 , P2 , . . . , Pn ] con Pj = [wj ]β , j = 1, n. P es llamada “Matriz de
cambio de base”, y est´ formada por los vectores columna, cuyas coordenadas son las
                       a
componentes del vector wj respecto de la base β.

Teorema 1.8. Sea V un espacio vectorial de dimensi´n finita sobre el cuerpo K, y sean β
                                                     o
    ′
y β dos bases de V . Suponga que T es un operador lineal sobre V . Si P = [P1 , P2 , . . . , Pn ]
es la matriz n × n de columnas Pj = [wj ]β , entonces

                                   A(T, β) = P A(T, β ′)P −1

es decir las matrices A(T, β) y A(T, β ′ ) son similares.

Ejemplo. Sea T el operador lineal sobre R3 que env´ los vectores (1, 0, 0), (0, 1, 0) y
                                                                ıa
(0, 0, 1) en los vectores (1, 1, 0), (1, 2, 1) y (0, 2, 1) respectivamente, calcular la matriz de
representaci´n A(T, β ′ ) donde
              o

                               β ′ = {(1, 0, 1), (1, 1, 1)(2, 1, 1)},

y adem´s verifique que
      a
                               A(T, β ′ ) = P A(T, β)P −1
                                                   
                                            1 1 0
                                                   
a) Hallamos A(T, β) = [T v1 T v2 T v3 ] =  1 2 2 
                                            0 1 1

                                                    10
´
Nociones de Algebra Lineal                                                       11


b) Hallamos A(T, β ′ )



                            T (w1 ) = T (1, 0, 1)
                                     = T (1v1 ) + T (0v2 ) + T (1v3 )
                                     = 1.(1, 1, 0) + 0.(1, 2, 1) + 1.(0, 2, 1)
                                     = (1, 3, 1)
                         T (1, 0, 1) = −2(1, 0, 1) + 3(1, 1, 1) + 0(2, 1, 1, )



                            T (w2 ) = T (1, 1, 1)
                                     = T (1v1 ) + T (1v2 ) + T (1v3 )
                                     = (1, 1, 0) + (1, 2, 1) + (0, 2, 1)
                                     = (2, 5, 2)
                         T (1, 1, 1) = −3(1, 0, 1) + 5(1, 1, 1) + 0(2, 1, 1, )



                            T (w3 ) = T (2, 1, 1)
                                     = T (2v1 ) + T (1v2 ) + T (1v3 )
                                     = 2(1, 1, 0) + 1(1, 2, 1) + 1(0, 2, 1)
                                     = (3, 6, 2)
                       T (1, 1, 1)   = −4(1, 0, 1) + 5(1, 1, 1) + 1(2, 1, 1, )
                                          
                             −2      −3 −4
                    ′                     
        Luego A(T, β ) =  3          5  5 
                              0       0  1
c) Hallamos P :

                               w1 = (1, 0, 1) = 1v1 + 0v2 + 1v3
                               w2 = (1, 1, 1) = 1v1 + 1v2 + 1v3
                               w3 = (2, 1, 1) = 2v1 + 1v2 + 1v3
   Entonces :                                          
                               1 1 2               0 −1 1
                                                       
                         P =  0 1 1  y P −1 =  −1 1 1 
                               1 1 1               1  0 1

                                              11
´
Nociones de Algebra Lineal                                                         12


                                                                     
                               1 1 2           1 1 0               0 −1 1
                        −1                                           
              P A(T, β)P =  0 1 1          1 2 2             −1 1 1 
                               1 1 1           0 1 1               1  0 1
                                                                     
                                  −1       −1 −1        0          −1 1
                           −1                                        
                 P A(T, β)P =  0           2    3   −1           1 1 
                                   1        0 −1        1           0 1
                                                                 
                                              −2 −3 −4
                                                                 
                          P A(T, β)P −1   = 3     5    5         
                                               0   0    1


1.3.     Resoluci´n de sistemas lineales por el m´todo
                 o                               e
         de Gauss-Jordan
El m´todo de Gauss-Jordan permite calcular la inversa de una matriz dada, como se
      e
ver´ a continuaci´n, tambi´n permite transformar un sistema compatible determinado
   a               o         e
en otro equivalente cuya matriz de coeficientes es una matriz triangular (superior o
inferior). Para ello se precisa en primer lugar:

(a) Comprobar que cuando en un sistema de ecuaciones lineales compatible se efect´ an
                                                                                 u
    operaciones elementales como:

        Intercambiar ecuaciones.
        Multiplicar una ecuaci´n por un escalar.
                              o
        Sumar a una ecuaci´n un m´ ltiplo de otra.
                          o      u

   el sistema que se obtiene es equivalente al de la partida.
   En efecto, dado el sistema
                                            Ax = b
   con A de orden m × n, x ∈ Rn y b ∈ Rn se tiene que

        Cambiar la ecuaci´n i0 -´sima con la j0 -´sima equivale a premultiplicar ambos
                          o     e                e
        miembros del sistema por la matriz

                                C(i0 , j0 ) = (cij ); i, j = 1, . . . , m




                                             12
´
Nociones de Algebra Lineal                                                                13


        con                          
                                      1
                                           si    i = j, i = i0 , j = j0
                                     
                                      1    si    i = j0 , j = i0
                               cij =
                                      1
                                           si    i = i0 , j = j0
                                     
                                     
                                       0    en   otro caso
        Multiplicar la ecuaci´n i0 -´sima por un escalar α ∈ R, α = 0 equivale a multi-
                             o      e
        plicar el sistema por la matriz

                                M((α)i0 ) = (mij ) i, j = 1, . . . , m

        con                             
                                         1 si i = j, i = i0
                                        
                                  mij =   α si i = j = i0
                                        
                                        
                                          0 en otro caso
        Sumarle a la i0 -´sima ecuaci´n un m´ ltiplo α de la j0 -´sima ecuaci´n equivale
                         e           o       u                   e           o
        a premultiplicar el sistema por la matriz

                               S(i0 , (α)j0 ) = (sij ) i, j = 1, . . . , m

        con                           
                                       1 si i = j
                                      
                                sij =   α si i = i0    j = j0
                                      
                                      
                                        0 en otro caso

   cualquiera de estas matrices es no singular, ya que por las propiedades de los deter-
   minantes:
   |C(i0 , j0 )| = −1, pues C(i0 , j0 ) es el resultado de permutar dos l´ıneas de Im
   |M((α)i0 )| = α, pues M((α)i0 ) se obtiene al multiplicar la fila i0 de Im por α
   |S(i0 , (α)j0 )| = 1, pues S(i0 , (α)j0 ) es una matriz triangular cuya diagonal principal
   coincide con la de Im .
   Obs´rvese que transformar un sistema combinando estas operaciones consiste sim-
       e
   plemente en premultiplicar dicho sistema por un n´ mero adecuado de matrices tipo
                                                            u
   C, M y S y por tanto por una matriz no singular. Por tanto, el nuevo sistema
   as´ obtenido es equivalente.
     ı
   As´ pues cuando en un sistema de ecuaciones compatible se efect´ an operaciones
      ı                                                           u
   elementales, el sistema resultante es equivalente al inicial.

(b) Dado el sistema compatible determinado

                                             Ax = b

                                             13
´
Nociones de Algebra Lineal                                                       14


   con A cuadrada de orden n, siempre es posible mediante operaciones elementales y
   lo indicado en A encontrar un sistema equivalente

                                              Ax = b

   siendo A una matriz triangular.
   Para ”triangular el sistema” se procede del siguiente modo

     (i) Supongase que a11 = 0 (si as´ no fuese, bastar´ con intercambiar la primera
                                     ı                 ıa
         ecuaci´n con otra cuyo coeficiente para x1 sea no nulo). Entonces la matriz
               o
                                                              
                                       1     0    0 ··· 0
                                                              
                                   −a21 a11 0 · · · 0 
                                                              
                             P1 =  −a31 0 a11 · · · 0 
                                                              
                                   .  .     .
                                             .    .
                                                  .         .
                                                            . 
                                   .        .    .         . 
                                     −an1 0       0 · · · a11
         que es no singular, transforma el sistema inicial en otro equivalente

                                        Bx = P1 Ax = P1 b = b1

         cuya matriz de coeficientes B es
                                                                     
                                        a11 a12           · · · a1n
                                                                     
                                      0 b22              · · · b2n   
                                                                     
                                B =  0 b32
                                                         · · · b3n   
                                                                      
                                      . .   .
                                             .                   .
                                                                 .    
                                      .     .                   .    
                                         0 bn2            · · · bnn

         con bij = (−ai1 )aij + a11 aij para i, j = 2, . . . , n
     (ii) Supuesto que b22 = 0 (si esto no ocurre se efect´ an un cambio adecuado de
                                                          u
          ecuaciones), la matriz no singular
                                                                
                                      1    0   0    0 ··· 0
                                                                
                                    0     1   0    0 ··· 0 
                                                                
                                    0 −b32 b22 0 · · · 0 
                                                                
                             P2 =                               
                                    0 −b42 0 b22 · · · 0 
                                    .     .   .    .          . 
                                    . .   .
                                           .   .
                                               .    .
                                                    .          . 
                                                               . 
                                   
                                      0 −bn2 0      0 · · · b22
         permite obtener el sistema equivalente

                                      Dx = P2 P1 Ax = P2 P1 b = b2

                                               14
´
Nociones de Algebra Lineal                                                                       15


          cuya matriz de coeficientes D es
                                                                            
                                      a11 a12             a13    · · · a1n
                                                                            
                                     0 b22               b23    · · · b2n   
                                                                            
                                     0    0              c33    · · · c3n   
                                                                            
                               D=                                           
                                     0    0              c43    · · · c4n   
                                     .    .               .            .    
                                     .    .               .            .    
                                     .    .               .            .    
                                       0   0              cn3 · · · cnn

          con cij = (−bi2 b2j ) + b22 bij para i, j = 3, . . . , n
    (iii) Procediendo de manera an´loga se calculan P3 , P4 , . . . , Pn−1 tales que
                                  a

                       Ax = Pn−1 Pn−2 . . . P3 P2 P1 Ax = Pn−1 Pn−2 . . . P2 P1 b = b

          donde A es una matriz triangular superior.

Nota: Del mismo modo se puede operar para encontrar un sistema equivalente al
inicial de la forma Ax = b donde A es una matriz triangular superior.

Ejemplo. El sistema

                                  5x1 + 4x2 + 2x3 + x4 = 5
                                  2x1 + 3x2 + x3 − 2x4 = −3
                               −5x1 − 7x2 − 3x3 + 9x4 = 16
                                    x1 − 2x2 − x3 + 4x4 = 10

es compatible determinado, ya que rg(A) = rg(A) = 4. Resolverlo utilizando el m´todo
                                                                                   e
de Gauss-Jordan consiste en transformar el sistema en otro equivalente con matriz de
coeficientes triangular. Para ello, se comienza calculando una matriz p1 tal que al pre-
multiplicar el sistema por ella, permite obtener uno equivalente en el que la variable x1
solo aparece en la primera ecuaci´n, esto se consigue.
                                   o

     Sumando a la segunda multiplicada por 5, la            primera multiplicada por -2, lo cual
     se obtiene mediante la matriz
                                                                                          
                                          1 0                0   0           1   0   0   0
                                        −2 1                0   0         0   5   0   0   
                                                                                          
                S(2, (−2)1)M((5), 2) =                                                    
                                        0 0                 1   0         0   0   1   0   
                                          0 0                0   1           0   0   0   1



                                                 15
´
Nociones de Algebra Lineal                                                           16


     Sumando a la tercera ecuaci´n multiplicada por 5, la primera multiplicada por 5,
                                o
     es decir,
                                                                  
                                         1 0 0 0           1 0 0 0
                                       0 1 0 0  0 1 0 0 
                                                                  
                S(3, (5)1)M((5), 3) =                             
                                       5 0 1 0  0 0 5 0 
                                         0 0 0 1           0 0 0 1

     Sumando a la cuarta ecuaci´n multiplicada por
                               o                      5, la primera multiplicada por -1,
     esto es
                                                                             
                                          1 0 0        0        1   0   0   0
                                       0 1 0          0      0   1   0   0   
                                                                             
              S(4, (−1)1)M((5), 4) =                                         
                                       0 0 1          0      0   0   1   0   
                                         −1 0 0        1        0   0   0   5

Por tanto, todas las transformaciones elementales que es necesario realizar est´n reco-
                                                                               a
gidas en la matriz producto

            S(4, (−1)1)M((5), 4)S(3, (5)1)M((5), 3)S(2, (−2)1)M((5), 2) =
                                                     
                                      1 0 0 0
                                    −2 [5] 0 0       
                                                     
                               =                     
                                     5 0 [5] 0       
                                     −1 0 0 [5]
que coinciden con la matriz P1 indicada en (I) para este sistema particular el sistema
equivalente que resulta es:

                             5x1 + 4x2 + 2x3 + x4 = 5
                                 7x2 + x3 − 12x4 = −25
                             −15x2 − 5x3 + 50x4 = 105
                             −14x2 − 7x3 + 19x4 = 45

Teniendo en cuenta (II) para eliminar x2 de las dos ultimas ecuaciones basta con pre-
                                                    ´
multiplicar el sistema por la matriz
                                                     
                                         1 0 0 0
                                        0 1 0 0      
                                                     
                               P2 =                  
                                        0 15 [7] 0   
                                         0 14 0 [7]


                                           16
´
Nociones de Algebra Lineal                                                            17


obteniendo el sistema

                             5x1 + 4x2 + 2x3 + x4 = 5
                                   7x2 + x3 − 12x4 = −25
                                    −20x3 + 170x4 = 360
                                     −35x3 − 35x4 = 35

reiterando el proceso para eliminar x3   de la ultima ecuaci´n se premultiplica por la
                                               ´            o
matriz                                                   
                                     1    0 0    0
                                   0     1 0    0        
                                                         
                             P3 =                        
                                   0     0 1    0        
                                     0    0 35 [−20]
y resulta finalmente el sistema triangular equivalente

                             5x1 + 4x2 + 2x3 + x4 = 5
                                   7x2 + x3 − 12x4 = −25
                                   −20x3 + 170x4 = 360
                                          6650x4 = 13300

cuya soluci´n es:
           o
                         x1 = 1,    x2 = 0,    x3 = −1,   x4 = 2


1.4.     Autovalores y Autovectores
Definici´n 1.9. Sea V un K-espacio vectorial y T un operador lineal sobre V . Un
         o
autovalor o valor propio de T , es un escalar λ ∈ K si existe un vector no nulo v ∈ V tal
que T v = λv. Si λ es un autovalor de T , entonces:

     Cualquier v tal que T v = λv se llama vector propio o autovector de T asociado a
     λ.

     La colecci´n de todos los v tal que T v = λv se llama espacio propio asociado a λ.
               o

Ya que cada T est´ asociado a una matriz A. El concepto de autovalor y autovector de
                 a
                n×n
una matriz A ∈ K    se define de forma an´loga, considerando como una transformaci´n
                                         a                                        o
lineal a:
                                  A : Kn×1 → Kn×1
mediante la multiplicaci´n de matrices: Av = λv, v = 0 ∈ Kn×1 .
                        o

                                              17
´
Nociones de Algebra Lineal                                                                18


Definici´n 1.10.
       o

      Sea A ∈ Kn×n y fA (λ) = det(λI − A), donde I es la matriz identidad y λ ∈ K.
      fA (λ) se denomina el “polinomio caracter´
                                               ıstico de A”

      Si T : V → V es una transformaci´n lineal su polinomio caracter´
                                       o                             ıstico se define
      como:
                             fT (λ) = det(λI − AT ), λ ∈ K
      donde AT es la matriz asociada a T en alguna base.

Esto permite definir el polinomio caracter´ıstico de T como el polinomio caracter´
                                                                                ıstico
de cualquier matriz n × n que representa a T en alguna base ordenada de V .

Definici´n 1.11.
       o

  1. Si λ ∈ C es un autovalor de T : V → V se llama multiplicidad algebraica de λ
     a su multiplicidad algebraica en el polinomio caracter´
                                                           ıstico fT (λ).

  2. A la dimensi´n del subespacio V (λ) = {v ∈ V /T v = λv} se llama multiplicidad
                 o
     geom´trica de λ
           e

Ejemplo. Se tiene que λ = 2 es un autovalor de:
                                               
                                       3 1 −1
                                               
                                A= 2 2 0 
                                       2 2 0

veamos cual es la multiplicidad geom´trica de λ = 2
                                    e

                             V (2) = {v ∈ K3×1 /Av = 2v}
                             V (2) = {(x, x, 2x)T /x ∈ K}
                             V (2) = {x(1, 1, 2)T /x ∈ K}

Luego dimV (2) = 1, por tanto la multiplicidad geom´trica de λ = 2 es 1 y la multipli-
                                                   e
cidad algebraica de λ = 2 es 2.

Proposici´n 1.12. Si A es matriz de orden n se tiene que:
         o

   |A − λIn | = (−λ)n + (−λ)n−1 tr(A) + (−λ)n−2 tr2 (A) + (−λ)n−3 tr3 (A) + · · · + |A|

siendo tri (A), i = 2, 3, . . . , n − 1 la suma de todos los menores de orden i que contienen
en su diagonal principal i elementos de la diagonal principal de A.


                                             18
´
Nociones de Algebra Lineal                                                                     19

                                      
                               1 0 1
                                    
Ejemplo. Sea la matriz: A =  −1 2 0 
                               1 1 2
tr(A) = 5   |A| = 1 y
          1 0         2 0     1 1
tr2 (A) =        +         +       =2+4+1=7
          −1 2        1 2     1 2

                               |A − λIn | = −(λ)3 + 5(λ)2 + 7(λ) + 1

Proposici´n 1.13. Sea A ∈ Mn (K), cuyos autovalores pueden ser reales o complejos
           o
(iguales o distintos), se verifica que:

   1. Los autovalores de AT coinciden con los de A

   2. El n´mero de autovalores nulos de A de rango r < n es mayor o igual que (n − r).
          u
              n
   3. |A| =         λi .
              i=1

                    n
   4. tr(A) =           λi .
                  i=1

   5. Los autovalores de la matriz αA para α ∈ R(C), α = 0 son αλi con i = 1, . . . , n.

   6. Si A es no singular, entonces los autovalores de A−1 son 1/λi , con i = 1, . . . , n.

   7. Para cualquier n´mero natural k no nulo los autovalores de Ak son λk , con
                        u                                                i
      i = 1, . . . , n.

Proposici´n 1.14. Sea A una matriz de orden n, aij ∈ K(o C), i, j = 1, . . . , n cu-
          o
yos autovalores son λ1 , λ2 , . . . , λr ∈ K, con multiplicidades algebraicas m1 , m2 , . . . , mr
                                r
respectivamente, siendo              = n, se verifica que:
                               i=1

   1. Para cada i = 1, . . . , r, el conjunto V (λi ) = {v ∈ Kn /Av = λi v} es un subes-
      pacio vectorial de Kn tal que dim(V (λi )) ≤ mi . Adem´s si mi0 = 1 entonces
                                                                 a
      dim V (λi0 ) = 1.

   2. Los autovectores correspondientes a autovalores distintos son linealmente indepen-
      dientes.

   3. Si r = n, entonces Kn = V (λ1 )            V (λ2 )    V (λ3 )   . . . V (λn )

   4. Si K = C y A tiene como autovalor λ ∈ C con conjugado λ, entonces el autovector
      v asociado a λ es el conjugado del autovector w asociado a λ

                                                   19
´
Nociones de Algebra Lineal                                                           20


Definici´n 1.15. Se llama espectro de una matriz A ∈ Mn (C) al conjunto de todos los
        o
autovalores de A:

         σ(A) = {λ ∈ K : λ es autovalor de A} = {λ ∈ K : Ker (A − λI) = {0}}

Definici´n 1.16. El radio espectral de una matriz A ∈ Mn (C) se define como
       o

                                 ρ(A) = m´x{|λ|/λ ∈ σ(A)}
                                         a


1.4.1.     Autovalores y Autovectores de algunos tipos de matrices
Matrices Triangulares

Dada A matriz de orden n triangular superior (respectivamente inferior) se verifica
que los autovalores de A son los elementos de su diagonal principal, es decir aii = λi ,
i = 1, . . . , n.

Demostraci´n 1.
              o
Si A es triangular superior o inferior entonces A−λIn tambi´n lo es, luego por propiedad
                                                           e
de las matrices triangulares se tiene:
                                                    n
                                    |A − λIn | =          (aii λi )
                                                    i=1

por tanto λi = aii , i = 1, . . . , n son los autovalores de A.


Matrices Sim´tricas
            e
Dada una matriz sim´trica de orden n×n cuyos elementos son n´ meros reales se verifica
                   e                                        u
que:

   1. Todos los autovalores de A son n´ meros reales.
                                      u

   2. Dos autovalores distintos de A tienen asociados autovectores ortogonales.

   3. Para cada autovalor de A la dimensi´n del subespacio vectorial de los autovectores
                                          o
      asociados coincide con la multiplicidad algebraica.




                                               20
´
Nociones de Algebra Lineal                                                         21


Matrices Idempotentes, Unipotentes y Nilpotentes
Proposici´n 1.17. Sea A una matriz cuadrada de orden n, se verifica que:
         o

a) Si A es Idempotente entonces:

     i. Sus autovalores son iguales a 0 o 1.
    ii. tr(A) = rg(A)
   iii. Si m0 es la multiplicidad algebraica de λ = 0 y m1 la de λ = 1, entonces la
        dimensi´n de los subespacios de vectores V (0) y V (1) son m0 y m1 respectiva-
               o
        mente.

b) Si A es Unipotente entonces:
   IV. Todos sus autovalores son iguales a 1 ´ -1
                                             o

c) Si A es Nilpotente, entonces
   V. Todos sus autovalores son nulos.

Demostraci´n 2.
             o
a) Por hip´tesis A2 = A
          o

  i. Si λ es un autovalor de A con autovector asociado v, se tiene que Av = λv,
     entonces premultiplicando la desigualdad anterior por A se tiene:


                                      AAv = Aλv
                                         A2 v = Aλv
                                                = λAv
                                                = λλv
                                         A2 v = λ2 v

    Av = λ2 v      y      Av = λv


                                            λ2 v = λv
                                     λ2 v − λv = 0
                                     (λ2 − λ)v = 0
                                         λ2 − λ = 0
                                      λ(λ − 1) = 0

    Por lo que λ = 0 ´ λ = 1.
                     o

                                           21
´
Nociones de Algebra Lineal                                                           22


 ii. Si λ = 0 es un autovalor de A con multiplicidad algebraica m, entonces λ = 1
     tendr´ multiplicidad algebraica (n − m), por tanto, tr(A) = (n − m), esto es por la
          a
     proposici´n(1.13) y
              o


    (1.2)                          |A − λIn | = λm (1 − λ)n−m

    y por proposici´n(1.12)
                   o


    (1.3)
    |A−λIn | = (−λ)n +(−λ)n−1 tr(A)+(−λ)n−2 tr2 (A)+. . . . . .+(−λ)n−(n−m) trn−m (A)+· · ·+|A|

    siendo tri (A), i = 2, 3, . . . , n − 1 la suma de todos los menores de orden i que
    contienen en su diagonal principal i elementos de la diagonal principal de A.
    Desarrollando la expresi´n (1.2) a trav´s del binomio de Newton e igualando (1.2)
                              o                 e
    con (1.3) se verifica que:

                                 |A| = 0
                           tri (A) = 0, i = n − m + 1, . . . , (n − 1)
                       trn−m (A) = 1

    Por tanto rg(A) = n − 1 = tr(A).


1.4.2.      Normas en Mn (C)
Se estudiar´n distintas normas en el espacio vectorial de matrices Mn (C). Muchas de
           a
estas normas son utiles en diversas desigualdades matriciales espec´
                   ´                                               ıficas. Pero no olvi-
demos que, como dim Mn (C) < ∞, es un resultado conocido que todas las normas en
Mn (C) son equivalentes.
En los siguientes ejemplos definiremos las normas m´s cl´sicas para matrices.
                                                   a a

Ejemplo.
  1. La norma espectral      ·   definida del siguiente modo

                                 A = A   sp   = m´x Ax = s1 (A),
                                                 a
                                                   x =1


     donde la ultima igualdad surge de que A
              ´                                       sp   = |A|   sp   = ρ(|A|).




                                              22
´
Nociones de Algebra Lineal                                                                                                23


  2. Las normas de Schatten. Dado 1 ≤ p < ∞

                                                                  ∞                      1/p
                                                                                    p
                                                A   p   =                  si (A)
                                                                  n=1

     La   ·   2   se llama norma de Frobenius. Ella verifica que
                                                                                  n
                                                2
                                            A   2   = tr A ∗ A =                         |aij |2
                                                                                 i,j=1


     y proviene del producto escalar en Mn (C) definido por A, B = tr B ∗ A.

  3. Las normas Ky-Fan. Dado k ∈ {1, . . . , n}
                                                                           k
                                                    A       (k)   =             si (A)
                                                                          i=1

     Notar que A       (1)   = A   sp   y A         (n)     = A            1   (de Schatten).

  4. Toda norma N en Cn induce una norma | · |N en Mn (C) del siguiente modo:

                                                |A |N = m´x N(Ax)
                                                         a
                                                                  N (x)=1


     Estas normas satisfacen que:

       a) |I |N = 1
       b) ρ(A) ≤ |A |N
       c) |AB |N ≤ |A |N |B |N

  5. | · |1 es la inducida por la norma                       ·   1       en Cn . Puede demostrarse que

                                                A       1   = m´x Ci (A)
                                                               a                          1
                                                                   i

     donde Ci (A) simboliza el vector formado por la columna i-´sima de A.
                                                               e

  6. Analogamente, |· |∞ es la inducida por la norma ·                                         ∞   en Cn . Puede demostrarse
     que
                                  A ∞ = m´x Fi (A) 1
                                           a
                                                                      i

     donde Fi (A) simboliza el vector formado por la fila i-´sima de A.
                                                           e

Definici´n 1.18. Una norma
       o                                ·       en Mn (C) se llama Matricial si AB ≤ A                                B



                                                             23
´
Nociones de Algebra Lineal                                                                       24


Teorema 1.19. (Perron - Frobenius:) Si A es una matriz no negativa e irreductible,
existe una unica ra´ de A, λ(A), que tiene el mayor valor absoluto. Esta ra´ es positiva
           ´       ız                                                      ız
y simple, tal que:

     Su vector caracter´
                       ıstico asociado es estrictamente positivo.

     Si ρ > λmax entonces existe la inversa de (ρI − A) y adem´s (ρI − A)−1 > 0.
                                                              a

     λmax tiene un valor comprendido ente el m´ınimo y el m´ximo de la suma de las
                                                           a
     filas de A, y entre el m´
                            ınimo y m´ximo de las columnas de A.
                                     a

Teorema 1.20. (Metzler:) Sea A = {aij } una matriz positiva. Una condici´n necesaria
                                                                           o
y suficiente para que todas las ra´
                                 ıces caracter´
                                              ısticas de A sean menores que 1 (en valor
absoluto) es que los menores principales de (I − A) sean positivos. Si adem´s A es
                                                                               a
                   −1
irreducible (I − A) = {αij } > 0; αii > 1 (∀i) y aij ≤ aii .


1.4.3.    Sucesiones y Series de Matrices
El uso de normas nos permite hablar de convergencia de sucesiones de vectores y, por
lo tanto, de matrices. El objetivo es introducir las serie de matrices y demostrar un
resultado que necesitaremos.
Sea {Ak }∞ una sucesi´n infinita de matrices con elementos en Kn×n , recordemos que
          k=0          o
F = R o C. Con esta sucesi´n formamos otra, la de las sumas parciales
       ´                   o
                                                k
                                       Sk =            Aj , K ≥ 0
                                               j=0

                               ∞
Definici´n 1.21. La serie
       o                            Aj converge si la sucesi´n {Sk } es convergente; i.e. si
                                                            o
                              j=0
existe el l´ Sk . Adem´s, si S = l´ Sk entonces escribiremos
           ım         a           ım
         k→∞                          k→∞

                                               ∞
                                                    Aj = S
                                             j=0

                              ∞                                                      ∞
La convergencia de la serie         Aj puede reducir a la de la serie num´rica
                                                                         e                 Aj de la
                              j=0                                                    j=0
siguiente forma:
                                                   ∞
Proposici´n 1.22. Si la serie num´rica
         o                       e                        Aj converge para alguna norma de matriz,
                                                j=0
                                         ∞
tambi´n converge la serie matricial
     e                                         Aj
                                         j=0



                                                     24
´
Nociones de Algebra Lineal                                                                                        25


Demostraci´n 3. Sea ε > 0 un n´ mero real dado. Veremos que existe un entero N > 0
              o                  u
tal que si p, q ≥ N entonces Sp − Sq < ε. Esto demuestra que la sucesi´n {Sn } de
                                                                        o
                                                 m×n
sumas parciales es una sucesi´n de Cauchy. Como K
                             o                       es completo, {Sn } converge.
En efecto
                                q                  q                         p             q
              Sp − Sq =                 Aj ≤                    Aj =              Aj −              Aj
                              j=p+1              j=p+1                      j=0           j=0

                 ∞
Ahora bien, si         Aj converge, existe N > 0 tal que si p, q ≥ N entonces
                 j=0

                                        p                   q
                                              Aj −               Aj     <ε
                                     j=0                j=0

que es lo que se quer´ demostrar.
                     ıa
                                                                                    ∞
En particular, para matrices cuadradas la serie de potencias                              aj Aj es convergente si
                                                                                    j=0
                            ∞
lo es la serie num´rica
                  e         j=0 |aj |   Aj .
                                                                 ∞
Nos interesa especialmente la serie geom´trica
                                        e                             z j que sabemos que converge a
                                                                j=0

                                     1
                                        = (1 − z)−1 si |z| < 1
                                    1−z
Proposici´n 1.23. Si A ∈ Kn×n y A < 1 para alguna norma de matriz, entonces
           o
In − A es invertible. Adem´s, en tal caso
                          a
                                                                 ∞
                                                       −1
                                            (In − A)        =          Aj
                                                                 j=0

y
                                                                   1
                                        (In − A)−1 ≤
                                                                 1− A
                                                                                    ∞
                                                                                                j
Demostraci´n 4. Si A < 1 entonces la serie geom´trica
          o                                    e                                          A         es convergente, y
                                                                                   j=0
                                                       ∞                                       ∞
por la Proposici´n 1.22 la serie matricial
                o                                           Aj converge. Sea B =                     Aj y pongamos
                                                   j=0                                         j=0

                                                            k
                                               Sk =             Aj
                                                        j=0

Entonces
                  (I − A)Sk = (In − A)(In + A + · · · + Ak ) = In − Ak+1

                                                       25
´
Nociones de Algebra Lineal                                                                      26


Como l´ Sk = B resulta que
      ım
       k→∞

                               l´ (In − A)Sk = (In − A)B
                                ım
                              k→∞

y tambi´n
       e
                          l´ (In − A)Sk = l´ (In − Ak+1 )
                           ım              ım
                         k→∞                       k→∞
                        k+1
Ahora bien, l´ (In − A
             ım               ) = In porque In − Ak+1 − In ≤ A                  k+1
                                                                                      y la sucesi´n
                                                                                                 o
             k→∞
               k
num´rica { A } converge a cero por ser A < 1.
    e
En consecuencia (In − A)B = In y
                                                         ∞
                                (In − A)−1 = B =               Aj
                                                         j=0


Finalmente
                                       ∞             ∞
                                                                           1
                   (In − A)−1 =              Aj ≤            A   j
                                                                     =
                                       j=0           j=0
                                                                         1− A


1.5.     Similaridad
Definici´n 1.24. Una matriz A se dice ”similar” a la matriz B, y se denota por A ∼ B,
          o
si existe una matriz invertible P tal que A = P BP −1

Observaci´n 1. Hay propiedades de las matrices que son invariantes bajo similaridad,
            o
esto es, si A ∼ B y A tiene la propiedad entonces B tambi´n la tiene.
                                                         e

Ejemplo. Muestre que la nilpotencia es una propiedad invariante por similaridad. Lo
que debemos probar es que si A ∼ B y As = 0, para alg´ n s > 1. Entonces B s = 0,
                                                          u
para alg´ n s > 1.
        u
En efecto: A ∼ B, entonces existe P invertible tal que A = P BP −1.

                                        As = 0
                                    ⇒ (P BP −1)s = 0
                                    ⇒ (P −1 )s B s P s = 0
                                    ⇒ BsP s = P s0 = 0
                                    ⇒ B s = 0P −s = 0
                                    ⇒ Bs = 0




                                              26
´
Nociones de Algebra Lineal                                                        27


Ejemplo. Si A ∼ B y A es invertible, entonces B tambi´n es invertible.
                                                     e
Definici´n 1.25. Una funci´n f definida en matrices se llama invariante por similaridad
          o                 o
si f (A) = f (B) para cualquier par de matrices similares A ∼ B.
Ejemplo. El determinante y la traza son funciones invariantes.
Debemos demostrar:
  1. A ∼ B ⇒ det(A) = det(B)

  2. A ∼ B ⇒ tr(A) = tr(B)
En efecto:
  1. A ∼ B ⇒ ∃P invertible tal que A = P BP −1 , entonces
                             det(A) = det(P BP −1)
                                    = det(P ).det(B).det(P −1)
                                                         1
                                    = det(P ).det(B).
                                                      det(P )
                             det(A) = det(B)

  2. A ∼ B ⇒ ∃P invertible tal que A = P BP −1 , entonces
                                   tr(A) = tr(P BP −1)
                                         = tr(P −1P B)
                                         = tr(IB)
                                   tr(A) = tr(B)

Ejemplo. Si A ∼ B, entonces A y B tienen los mismos valores propios. (Para este caso
la funci´n es el polinomio caracter´
        o                          ıstico).
En efecto.
A ∼ B ⇒ ∃P invertible tal que A = P BP −1, luego se tiene:


                       f (A) = det(λI − A)
                               = det(λI − P BP −1 )
                               = det(P λP −1 − P BP −1)
                               = det(P (λI − P BP −1)P −1
                               = det(P )det(λI − B)det(P −1 )
                                                         1
                               = det(P ).det(λI − B).
                                                      det(P )
                               = det(λI − B)
                               = F (B)

                                         27
´
Nociones de Algebra Lineal                                                                     28


Entonces A y B tienen el mismo polinomio caracter´
                                                 ıstico.
∴ A y B tienen los mismos valores propios.


1.6.        Diagonalizaci´n
                         o
En esta secci´n supondremos que el cuerpo base K es algebraicamente cerrado (por
             o
ejemplo K = C). Considermos el siguiente problema: “Dada una matriz A, A ∈ Kn×n ,
determinar si es que existe una matriz P , no singular, tal que la matriz B = P AP −1 sea
diagonal”.
Definici´n 1.26. Una matriz A se llama diagonalizable si existe una matriz diagonal
        o
D que es similar a A
Hay algunos casos donde los valores propios nos indican si tal matriz es diagonalizable,
como se ver´ a continuaci´n.
           a             o
Proposici´n 1.27. Sea A ∈ Mn×n (K). A es similar a una matriz diagonal si y s´lo si,
          o                                                                  o
A tiene n vectores propios linealmente independientes en Kn .
Demostraci´n 5.
            o
⇒)Supongamos que P = [P1 P2 · · · Pn ]n×n , donde       Pi , i = 1, . . . , n es un vector columna
de orden n × 1, y
                                                                             
                               λ1 0 · · · 0                             λ1 e1
                                                                             
                             0 λ2 · · ·                              λ2 e2   
               D = P −1AP =  .                                  =            
                             .
                             .       . ... .
                                      .
                                      .         .
                                                .
                                                        
                                                        
                                                                   
                                                                   
                                                                          .
                                                                          .
                                                                          .
                                                                                
                                                                                
                                   0     0   · · · λn     n×n
                                                                        λn en   n×n

Entonces:

                    AP = P D                                 
                                                      λ1 e1
                                                             
                                                     λ2 e2   
                          = [P1 P2 · · · Pn ]n×n 
                                                       .     
                                                              
                                                       .
                                                        .     
                                                      λn en   n×n
                          = P1 (λ1 e1 ) + P2 (λ2 e2 ) + · · · + Pn (λn en )
                          = (λ1 P1 )e1 + (λ2 P2 )e2 + · · · + (λn Pn )en
                                                              
                                                            e1
                                                              
                                                           e2 
                                                           . 
                          = [λ1 P1 λ2 P2 · · · λn Pn ]n×n     
                                                           . 
                                                             .
                                                              en    n×n


                                             28
´
Nociones de Algebra Lineal                                                                     29


(1.4)                          AP = [λ1 P1 λ2 P2 · · · λn Pn ]n×n

Como P es no singular entonces det P = 0, luego los vectores columna de P, Pi ,
i = 1, . . . , n son linealmente independientes. De (1.4), se tiene que:

                                            APi = λi Pi

Por lo tanto, P1 , P2 , · · · , Pn , son n-vectores propios linealmente independientes para A.
⇐) Sean P1 , P2 , · · · , Pn , n-vectores propios de A linealmente independientes y asociados
a valor propios λ1 , λ2 , . . . , λn respectivamente, los cuales cumplen:

                                            APi = λi Pi
Entonces, la matriz P cuyas columnas son P1 , P2 , · · · , Pn es no singular, y verifica:

                              AP = [λ1 P1      λ2 P2   ···   λn Pn ]

                                            AP = P D
donde                                                       
                                            λ1 0 · · · 0
                                                            
                                           0 λ2 · · ·       
                                  D=
                                            . . ..    .     
                                                             
                                            .
                                             . .
                                               .     . .
                                                       .     
                                            0 0 · · · λn
Luego A = P DP −1, es decir A es similar a una matriz diagonal D.

Sabemos que en el espacio Kn , n vectores linealmente independientes forman una base
de este. Luego, la proposici´n anterior la podemos enunciar tambi´n de la siguiente
                            o                                      e
manera:

Lema 1.28. Sea A, una matriz de orden n × n, entonces A es diagonalizable si y s´lo
                                                                                o
    n
si K tiene base formada por vectores propios de A.

Proposici´n 1.29. Si A tiene todos sus valores propios diferentes, entonces A es dia-
           o
gonalizable.

Demostraci´n 6.    o
Sean λ1 , λ2 , . . . , λn distintos valores propios de la matriz A y sean v1 , v2 , . . . , vn sus
correspondientes autovectores. Luego por la parte (2) de la proposici´n (1.14) se tiene
                                                                           o
que v1 , v2 , . . . , vn son linealmente independientes y por proposici´n (1.27) se tiene que
                                                                       o
A es similar a una matriz diagonal. Por lo tanto, A es diagonalizable


                                                29
´
Nociones de Algebra Lineal                                                                        30


Observaci´n 2.
           o
La proposici´n (1.27) y el lema (1.28) indican que una condici´n necesaria y suficiente
            o                                                  o
para que una matriz cuadrada A de orden n sea diagonalizable es que para cada autovalor
                                                                                     p
λi , i = 1, . . . , p de A con multiplicidad algebraica mi , i = 1, . . . , p y     mi = n se verifica
                                                                                i=1
que
                                   dim[V (λi )] = mi , i = 1, . . . , p
Por tanto, si A es diagonalizable, el espacio vectorial V donde est´ definida la aplicaci´n
                                                                   a                    o
lineal f con matriz asociada A se puede expresar como suma directa de los subespacios
invariantes, es decir

                           V = V (λ1 )         V (λ2 )   ,...,        V (λn )

Ejemplo. (De una matriz con todos sus valores propios diferentes)
Sea
                                       1 2
                                A=
                                       1 −3
                                |A − λI| = λ2 + 2λ − 5
                                              √          √
Luego los valores propios de A son λ1 = −1 + 6, λ2 = −1 − 6,

                                                                 x1
   1. Hallemos el vector propio asociado a λ1 : v1 =
                                                                 x2

                                                             1 2                x1
                                              Av1 = λ1 v1
                                                             1 −3               x2
                                                              √
                                                         (−1 + 6)x1
                                                   =          √
                                                         (−1 + 6)x2
                                  √
                           (2 −   6)x1 + 2x2 = 0
                                      √
                            x1 − (2 + 6)x2 = 0
                                                                 √
                                                                  6
                                               x2 = (−1 +           )x1
                                                                 2

                                     1
      Por lo tanto v1 = x1               √
                                          6
                                  −1 +   2




                                                   30
´
Nociones de Algebra Lineal                                                            31


                                                                   y1
  2. Hallemos el vector propio asociado a λ2 : v2 =
                                                                   y2

                                                           1 2                   y1
                                          Av2 = λ2 v2
                                                           1 −3                  y2
                                                            √
                                                       (−1 − 6)y1
                                               =            √
                                                       (−1 − 6)y2
                              √
                       (2 −   6)y1 + 2y2 = 0
                                  √
                        y1 − (2 + 6)y2 = 0
                                                               √
                                                                    6
                                           y2 = (−1 +                 )y1
                                                                   2

                                 1
     Por lo tanto v2 = y1            √
                                      6
                              −1 −   2

  3. Luego podemos formar la matriz

                                                   1                  1
                             P = [v1 v2 ] =               √
                                                           6
                                                                            √
                                                                             6
                                                −1 +      2
                                                                   −1 −     2
     con                                           √
                                                    6+2
                                                    √      1
                                                           √
                                     P −1 =        √ 6
                                                   2
                                                    6−2
                                                             6
                                                    √
                                                   2 6
                                                          − 16
                                                            √

     para la cual se verifica que
                                                          √
                                   −1              −1 +        6       0
                            D=P         AP =                             √
                                                      0             −1 − 6

     Por lo tanto A es diagonalizable.

Ejemplo. (De una matriz con valores propios repetidos)
Sea                                           
                                       5 4 2
                                              
                               B= 4 5 2 
                                       2 2 2
                             |B − λI| = (1 − λ)2 (10 − λ) = 0
Luego los valores propios son
                                   λ1 = 1, con m1 = 2
                                   λ2 = 10, con m2 = 1


                                               31
´
Nociones de Algebra Lineal                                                        32


  1. Hallemos V (λ1 ) y V (λ2 )

          Para λ1 = 1 : V (λ1 = 1 = {v = (x1 , y1, z1 ) ∈ R3 /Bv = v}

                                               Bv = 
                                                      v      
                                     5 4 2       x1        x1
                                                         
                                    4 5 2   y1  =  y1 
                                     2 2 2       z1        z1
                                       4x1 + 4y1 + 2z1 = 0
                                        4x1 + 4y1 + 2z1 = 0
                                        2x1 + 2y1 + z1 = 0

          De donde se tiene :z1 = −2x1 − 2y1 . Por lo que
                                                                
                         x1             x1                 1         0
                                                                
                  v =  y1  =         y1       = x1  0  + y1  1 
                         z1        −2x1 − 2y1             −2        −2

          luegodim V 1 ) 2, y se obtiene dos vectores propios asociados a λ1
                     (λ =      
                   1         0
                            
          v1 =  0  y  1 
                  −2        −2
          Para λ2 = 10 : V (λ2 = 10 = {v = (x2 , y2 , z2 ) ∈ R3 /Bv = 10v}

                                              Bv = 
                                                      10v    
                                    5 4 2      x2        10x2
                                                         
                                   4 5 2   y2  =  10y2 
                                    2 2 2      z2        10z2
                                    −5x1 + 4y1 + 2z1 = 0
                                       4x1 − 5y1 + 2z1 = 0
                                       2x1 + 2y1 − 8z1 = 0

          De donde se tiene: x2 = y2 y x2 = 2z2 , por lo que
                                                         
                                     x2          2z2         2
                                                         
                               v =  y2  =  2z2  = z2  2 
                                     z2           z2         1

          luego, dim V (λ2 ) = 1



                                            32
´
Nociones de Algebra Lineal                                                         33


  2. Por tanto, como dim V (λ1 ) = 2 y dim V (λ2 ) = 1, existen

                                 (1, 0, −2), (0, 1, −2) ∈ V (λ1 )

                                       (2, 2, 1) ∈ V (λ2 )
     autovectores de
                      B tales que la matriz
                          
             1    0     2
                         
     P = 0       1     2 es no singular, verific´ndose que
                                                 a
            −2 −2       1
                                                                      
                          5/9 −4/9 2/9                   5 4 2      1 0 2
                −1                                                    
               P BP =  −4/9 5/9 −2/9                  4 5 2  0   1 2 
                          2/9  2/9  1/9                  2 2 2     −2 −2 1
                                                               
                          5/9 −4/9 2/9                    1  0 2
           −1                                                  
         P BP = D =  −4/9 5/9 −2/9                    0   1 2 
                         20/9 20/9 10/9                  −2 −2 1
                               
                         1 0 0
                               
         P −1 BP = D =  0 1 0 
                         0 0 10

     Por lo tanto B es diagonalizable.


1.6.1.    Diagonalizaci´n de Matrices Idempotentes y Nilpotentes
                       o
Las propiedades respecto del caracter diagonalizable o no de las matrices idempotentes
y nilpotentes, se recogen en el resultado que se indica a continuaci´n.
                                                                    o

Proposici´n 1.30. Sea A una matriz cuadrada de orden n no nula. Entonces se verifica
         o
que:

  i) Si A es idempotente, A es diagonalizable.

 ii) Si A es nilpotente, A no es diagonalizable.

Demostraci´n 7.
          o

  i) Es consecuencia inmediata de la propiedad (III) de la proposici´n 1.17
                                                                    o

 ii) Si A es nilpotente, entonces λ = 0 (con m = n) es su unico autovalor, por tanto,
                                                          ´
     dado que
     V (λ) = {x ∈ Rn : Ax = 0} y dimV (λ) = n − rg(A) < n la matriz A no es
     diagonalizable

                                            33
´
Nociones de Algebra Lineal                                                                 34


En resumen, las matrices que son sim´tricas, idempotentes o que tienen todos sus au-
                                        e
tovalores distintos son diagonalizables. En general, una condici´n necesaria y suficiente
                                                                o
para que una matriz A sea diagonalizable, es que la dimensi´n del subespacio de auto-
                                                             o
vectores asociado a cada autovalor, coincida con el orden de multiplicidad del autovalor,
es decir, existe una base de autovectores del espacio en que esta definida la aplicaci´n
                                                                                      o
lineal cuya matriz asociada es A.
Cabe indicar que no todas las matrices son diagonalizables.

Ejemplo. Sea                                       
                                     19/2 −9/2 −7/2
                                                   
                               C =  13    −6 −9/2 
                                      10   −5 −9/2
cuyo polinomio caracter´ıstico es: fC (λ) = −λ3 − λ2 + 7 λ − 1 y cuyos autovalores son
                                                             4    2
λ1 = 0,5, con m1 = 2 y λ2 = −2, con m2 = 1. Vamos a verificar si C es diagonalizable.
Hallemos V (λ1 = 0,5) : V (λ1 ) = {v = (x1 , y1 , z1 ) ∈ R3 /Cv = 0,5v}

                                  (C − 0,5I) = 0
                                                 
                           9 −9/2 −7/2        x1      0
                                                 
                          13 −13/2 −9/2   y1  =  0 
                           10  −5     5        z1     0
Luego V (λ1 ) = {v = (x1 , y1 , z1 ) ∈ R3 /z1 = 0, y1 = 2x1 }. As´ dimV (λ1 ) = 1 = m1 .
                                                                 ı,
Por lo tanto C no es diagonalizable.

Sin embargo existe una matriz “casi diagonal”, llamada matriz de Jordan que veremos
en el siguiente cap´
                   ıtulo.




                                             34
Cap´
                                    ıtulo 2
                Forma Can´nica de Jordan
                         o

Como se vio en el cap´ ıtulo anterior no todas las matrices cuadradas son diagonalizables.
Sin embargo, siempre que el cuerpo elegido K sea el de los n´ meros complejos C es
                                                                  u
posible encontrar una matriz “casi diagonal”semejante a una dada.
El inter´s de poder determinar una matriz semejante con estructura diagonal o casi dia-
        e
gonal radica en la facilidad para calcular potencias de matrices con estas caracter´
                                                                                   ısticas.
En este cap´ıtulo se establece que si A ∈ Mn es una matriz con aij ∈ C; i, j = 1, . . . , n,
entonces existe una matriz de Jordan semejante a A, que en ocasiones es diagonal.
Una matriz de Jordan est´ constituida por bloques elementales cuya definici´n es la
                             a                                                   o
siguiente.

Definici´n 2.1. Se dice que una matriz B = (bij ), i, j = 1, . . . , r es una caja o bloque
        o
elemental de Jordan si se verifica que
                                        
                                         b i=j
                                        
                                  bij =   1 i+1=j
                                        
                                        
                                          0 resto
es decir B es de la forma
                                                    
                                       b   1
                                           0 ··· 0 0
                                                    
                                      0   b
                                           1 ··· 0 0 
                                      .   .         
                              B=      .
                                       .   . ... . . 
                                           .
                                           .
                                           .
                                           .     . .
                                                 . . 
                                
                                                    
                                      0 0 0 ··· b 1 
                                       0 0 0 ··· 0 b
El unico valor propio de Jr (b) es b.
   ´
Se puede escribir tambi´n Jr (b) = bIr + Jr (0)
                       e

Una vez conocida la definici´n de caja o bloque elemental, el concepto de matriz de
                              o
Jordan es el que se se˜ ala a continuaci´n.
                      n                 o

                                               35
Forma Can´nica de Jordan
         o                                                                                      36


Definici´n 2.2. Dada J ∈ M se dice que J es una matriz de Jordan si es diagonal por
         o
bloques, y cada uno de los bloques es una caja elemental de Jordan, esto es:
                                                         
                  Jn1 (λ1 )    0        ···       0
                                                         
                    0      Jn2 (λ2 )   ···       0       
         J =
                     .         .       ..        .       
                                                          
                     .
                      .         .
                                .          .      .
                                                  .       
                     0         0        · · · Jns (λs )   (n1 +n2 +···+ns )×(n1 +n2 +···+ns )

La matriz de Jordan tambi´n se denota por
                         e

                            Jn1 (λ1 ) ⊕ Jn2 (λ2 ) ⊕ · · · ⊕ Jns (λs )

Teorema 2.3. (Cayley-Hamilton) Sea A una matriz de orden n × n y sea fA (x) su
polinomio caracter´
                  ıstico. Entonces fA (A) = 0.

Demostraci´n 8.
          o

     Primero probaremos que si A es semejante a B con A = P BP −1 entonces: “si f
     es un polinomio f (x) = a0 + a1 x + · · · + am xm , y si para una matriz cuadrada X,

                               f (X) = a0 I + a1 X + · · · + am X m ,

     entonces f (A) = P f (B)P −1”.
     En efecto:

                    f (A) = a0 I + a1 A + · · · + am Am
                            = a0 P P −1 + a1 P BP −1 + · · · + am (P BP −1 )m
                            = a0 P P −1 + a1 P BP −1 + · · · + am P B m P −1
                            = P (a0 I + a1 B + · · · + am B m )P −1
                    f (A) = P f (B)P −1



     Ahora supongamos que J = P −1 AP es la forma de Jordan asociada a A. Se tiene
     entonces que:
                         fA (A) = fA (P JP −1) = P fA (J)P −1
     Adem´s fA (x) = fJ (x) (pues A y J son semejantes.)
         a
     Entonces fA (A) = P fJ (J)P −1 . Luego, debemos demostrar que:

                                               fJ (J) = 0.

                                                36
Modelo input - output de Leontief
Modelo input - output de Leontief
Modelo input - output de Leontief
Modelo input - output de Leontief
Modelo input - output de Leontief
Modelo input - output de Leontief
Modelo input - output de Leontief
Modelo input - output de Leontief
Modelo input - output de Leontief
Modelo input - output de Leontief
Modelo input - output de Leontief
Modelo input - output de Leontief
Modelo input - output de Leontief
Modelo input - output de Leontief
Modelo input - output de Leontief
Modelo input - output de Leontief
Modelo input - output de Leontief
Modelo input - output de Leontief
Modelo input - output de Leontief
Modelo input - output de Leontief
Modelo input - output de Leontief
Modelo input - output de Leontief
Modelo input - output de Leontief
Modelo input - output de Leontief
Modelo input - output de Leontief
Modelo input - output de Leontief
Modelo input - output de Leontief
Modelo input - output de Leontief
Modelo input - output de Leontief
Modelo input - output de Leontief
Modelo input - output de Leontief
Modelo input - output de Leontief
Modelo input - output de Leontief
Modelo input - output de Leontief
Modelo input - output de Leontief
Modelo input - output de Leontief
Modelo input - output de Leontief
Modelo input - output de Leontief
Modelo input - output de Leontief
Modelo input - output de Leontief
Modelo input - output de Leontief
Modelo input - output de Leontief
Modelo input - output de Leontief
Modelo input - output de Leontief
Modelo input - output de Leontief
Modelo input - output de Leontief

More Related Content

What's hot

Ecuaciones y punto de equilibrio
Ecuaciones y punto de equilibrioEcuaciones y punto de equilibrio
Ecuaciones y punto de equilibriorayu
 
Decisiones de produccion de la empresa
Decisiones de produccion de la empresaDecisiones de produccion de la empresa
Decisiones de produccion de la empresaJhonás A. Vega
 
Matriz de insumo producto (trabajo)
Matriz de insumo producto (trabajo)Matriz de insumo producto (trabajo)
Matriz de insumo producto (trabajo)Rolanny Alvarado
 
Solucionario de econometria
Solucionario de econometriaSolucionario de econometria
Solucionario de econometriasistemasutb
 
Modelo insumo-producto
Modelo insumo-productoModelo insumo-producto
Modelo insumo-productoLuis Rodriguez
 
El objeto de la economía es estudiar la correcta distribución de los recursos...
El objeto de la economía es estudiar la correcta distribución de los recursos...El objeto de la economía es estudiar la correcta distribución de los recursos...
El objeto de la economía es estudiar la correcta distribución de los recursos...Romer Bentes Prado
 
El enfoque macroeconómico
El enfoque macroeconómicoEl enfoque macroeconómico
El enfoque macroeconómicomaricel
 
Concepto e importancia de las integrales
Concepto e importancia de las  integrales Concepto e importancia de las  integrales
Concepto e importancia de las integrales Esther Isturiz
 
aplicacion de las derivadas en el ambito economico
aplicacion de las derivadas en el ambito economicoaplicacion de las derivadas en el ambito economico
aplicacion de las derivadas en el ambito economicoGeraldine Palomino
 
Aplicaciones de espacios y subespacios vectoriales en la carrera de Electróni...
Aplicaciones de espacios y subespacios vectoriales en la carrera de Electróni...Aplicaciones de espacios y subespacios vectoriales en la carrera de Electróni...
Aplicaciones de espacios y subespacios vectoriales en la carrera de Electróni...MATEOESTEBANCALDERON
 

What's hot (20)

Aplicacion de integrales en la economia
Aplicacion de integrales en la economiaAplicacion de integrales en la economia
Aplicacion de integrales en la economia
 
Propiedades de la media aritmética
Propiedades de la media aritméticaPropiedades de la media aritmética
Propiedades de la media aritmética
 
Numeros Indices
Numeros Indices Numeros Indices
Numeros Indices
 
Ecuaciones y punto de equilibrio
Ecuaciones y punto de equilibrioEcuaciones y punto de equilibrio
Ecuaciones y punto de equilibrio
 
Mapa conceptual- modelos economicos
Mapa conceptual- modelos economicosMapa conceptual- modelos economicos
Mapa conceptual- modelos economicos
 
Decisiones de produccion de la empresa
Decisiones de produccion de la empresaDecisiones de produccion de la empresa
Decisiones de produccion de la empresa
 
El Modelo IS-LM
El Modelo IS-LMEl Modelo IS-LM
El Modelo IS-LM
 
Matriz de insumo producto (trabajo)
Matriz de insumo producto (trabajo)Matriz de insumo producto (trabajo)
Matriz de insumo producto (trabajo)
 
Probabilidad
ProbabilidadProbabilidad
Probabilidad
 
Solucionario de econometria
Solucionario de econometriaSolucionario de econometria
Solucionario de econometria
 
Modelo insumo-producto
Modelo insumo-productoModelo insumo-producto
Modelo insumo-producto
 
El objeto de la economía es estudiar la correcta distribución de los recursos...
El objeto de la economía es estudiar la correcta distribución de los recursos...El objeto de la economía es estudiar la correcta distribución de los recursos...
El objeto de la economía es estudiar la correcta distribución de los recursos...
 
El enfoque macroeconómico
El enfoque macroeconómicoEl enfoque macroeconómico
El enfoque macroeconómico
 
Concepto e importancia de las integrales
Concepto e importancia de las  integrales Concepto e importancia de las  integrales
Concepto e importancia de las integrales
 
MICROECONOMIA
MICROECONOMIAMICROECONOMIA
MICROECONOMIA
 
aplicacion de las derivadas en el ambito economico
aplicacion de las derivadas en el ambito economicoaplicacion de las derivadas en el ambito economico
aplicacion de las derivadas en el ambito economico
 
Marshall
MarshallMarshall
Marshall
 
Aplicaciones de espacios y subespacios vectoriales en la carrera de Electróni...
Aplicaciones de espacios y subespacios vectoriales en la carrera de Electróni...Aplicaciones de espacios y subespacios vectoriales en la carrera de Electróni...
Aplicaciones de espacios y subespacios vectoriales en la carrera de Electróni...
 
Proyecto de matematicas aplicadas I a la economia
Proyecto de matematicas aplicadas I a la economiaProyecto de matematicas aplicadas I a la economia
Proyecto de matematicas aplicadas I a la economia
 
Politica economica
Politica economicaPolitica economica
Politica economica
 

Viewers also liked

Modelo Insumo producto - Input Output
Modelo Insumo producto - Input OutputModelo Insumo producto - Input Output
Modelo Insumo producto - Input OutputSoledad Malpica
 
Wassily Leontief
Wassily LeontiefWassily Leontief
Wassily LeontiefEspol
 
Política monetaria (2007-2012) FED vs BCE
Política monetaria (2007-2012)  FED vs BCEPolítica monetaria (2007-2012)  FED vs BCE
Política monetaria (2007-2012) FED vs BCEromanet2
 
Estructura general de un sistema
Estructura general de un sistema Estructura general de un sistema
Estructura general de un sistema anakarenlagunes
 
Unidad1, actividad2 autoevalucion
Unidad1, actividad2 autoevalucionUnidad1, actividad2 autoevalucion
Unidad1, actividad2 autoevalucionLiliana Lugo
 
Estructura general de un sistema
Estructura general de un sistemaEstructura general de un sistema
Estructura general de un sistemaLuis Alfredo
 
Estructura de un sistema
Estructura de un sistemaEstructura de un sistema
Estructura de un sistemajosua21
 
Teoria general de los sistemas
Teoria general de los sistemas Teoria general de los sistemas
Teoria general de los sistemas paolacampetti
 
Teoría general de sistemas
Teoría general de sistemasTeoría general de sistemas
Teoría general de sistemascoonejo
 
TGS teoria general de sistemas
TGS teoria general de sistemasTGS teoria general de sistemas
TGS teoria general de sistemasdeyfa
 
Estructura general de un sistema
Estructura general de un sistemaEstructura general de un sistema
Estructura general de un sistemaHIAMIX
 
Taylorismo,Fordismo,Toyotismo,OPEX.
Taylorismo,Fordismo,Toyotismo,OPEX.Taylorismo,Fordismo,Toyotismo,OPEX.
Taylorismo,Fordismo,Toyotismo,OPEX.JorgeCastroHernandez
 
THERBLIGS ESTUDIO DE MOVIMIENTOS
THERBLIGS ESTUDIO DE MOVIMIENTOSTHERBLIGS ESTUDIO DE MOVIMIENTOS
THERBLIGS ESTUDIO DE MOVIMIENTOSGenesis Acosta
 
Métodos Proyectuales - Christopher Jones
Métodos Proyectuales - Christopher JonesMétodos Proyectuales - Christopher Jones
Métodos Proyectuales - Christopher JonesMariana CS
 

Viewers also liked (20)

Análisis input output
Análisis input outputAnálisis input output
Análisis input output
 
Modelo Insumo producto - Input Output
Modelo Insumo producto - Input OutputModelo Insumo producto - Input Output
Modelo Insumo producto - Input Output
 
Henry ford
Henry fordHenry ford
Henry ford
 
Wassily Leontief
Wassily LeontiefWassily Leontief
Wassily Leontief
 
Política monetaria (2007-2012) FED vs BCE
Política monetaria (2007-2012)  FED vs BCEPolítica monetaria (2007-2012)  FED vs BCE
Política monetaria (2007-2012) FED vs BCE
 
Estructura general de un sistema
Estructura general de un sistema Estructura general de un sistema
Estructura general de un sistema
 
Unidad1, actividad2 autoevalucion
Unidad1, actividad2 autoevalucionUnidad1, actividad2 autoevalucion
Unidad1, actividad2 autoevalucion
 
stephgen hawking
stephgen hawkingstephgen hawking
stephgen hawking
 
Estructura general de un sistema
Estructura general de un sistemaEstructura general de un sistema
Estructura general de un sistema
 
Estructura de un sistema
Estructura de un sistemaEstructura de un sistema
Estructura de un sistema
 
Matrices 1
Matrices 1Matrices 1
Matrices 1
 
Teoria general de los sistemas
Teoria general de los sistemas Teoria general de los sistemas
Teoria general de los sistemas
 
Teoría general de sistemas
Teoría general de sistemasTeoría general de sistemas
Teoría general de sistemas
 
TGS teoria general de sistemas
TGS teoria general de sistemasTGS teoria general de sistemas
TGS teoria general de sistemas
 
Estructura general de un sistema
Estructura general de un sistemaEstructura general de un sistema
Estructura general de un sistema
 
La Sinectica
La SinecticaLa Sinectica
La Sinectica
 
Metodos de Diseño - Clase 5
Metodos de Diseño - Clase 5Metodos de Diseño - Clase 5
Metodos de Diseño - Clase 5
 
Taylorismo,Fordismo,Toyotismo,OPEX.
Taylorismo,Fordismo,Toyotismo,OPEX.Taylorismo,Fordismo,Toyotismo,OPEX.
Taylorismo,Fordismo,Toyotismo,OPEX.
 
THERBLIGS ESTUDIO DE MOVIMIENTOS
THERBLIGS ESTUDIO DE MOVIMIENTOSTHERBLIGS ESTUDIO DE MOVIMIENTOS
THERBLIGS ESTUDIO DE MOVIMIENTOS
 
Métodos Proyectuales - Christopher Jones
Métodos Proyectuales - Christopher JonesMétodos Proyectuales - Christopher Jones
Métodos Proyectuales - Christopher Jones
 

Similar to Modelo input - output de Leontief

Similar to Modelo input - output de Leontief (20)

Econometria aplicada con gretl
Econometria aplicada con gretlEconometria aplicada con gretl
Econometria aplicada con gretl
 
Metodos iterativos
Metodos iterativosMetodos iterativos
Metodos iterativos
 
Example of iterative method
Example of iterative methodExample of iterative method
Example of iterative method
 
Example of iterative method
Example of iterative methodExample of iterative method
Example of iterative method
 
Manual abreviado de_analisis_multivarian
Manual abreviado de_analisis_multivarianManual abreviado de_analisis_multivarian
Manual abreviado de_analisis_multivarian
 
Apuntesaed
ApuntesaedApuntesaed
Apuntesaed
 
284023562-metodos-numericos-scilab.pdf
284023562-metodos-numericos-scilab.pdf284023562-metodos-numericos-scilab.pdf
284023562-metodos-numericos-scilab.pdf
 
Aplicacion de ecuasiones de primer orden
Aplicacion de ecuasiones de primer ordenAplicacion de ecuasiones de primer orden
Aplicacion de ecuasiones de primer orden
 
Edteor
EdteorEdteor
Edteor
 
Edteor
EdteorEdteor
Edteor
 
Algebra[ufro]
Algebra[ufro]Algebra[ufro]
Algebra[ufro]
 
NU005.pdf
NU005.pdfNU005.pdf
NU005.pdf
 
Apuntes
ApuntesApuntes
Apuntes
 
Texto de matematicas 2009-2011
Texto de matematicas 2009-2011Texto de matematicas 2009-2011
Texto de matematicas 2009-2011
 
Calculo diferencial integral_func_una_var (1)
Calculo diferencial integral_func_una_var (1)Calculo diferencial integral_func_una_var (1)
Calculo diferencial integral_func_una_var (1)
 
Apunte ufro ecuaciones diferenciales ordinarias
Apunte ufro   ecuaciones diferenciales ordinariasApunte ufro   ecuaciones diferenciales ordinarias
Apunte ufro ecuaciones diferenciales ordinarias
 
22
2222
22
 
Tesis leon eleazar
Tesis leon eleazarTesis leon eleazar
Tesis leon eleazar
 
Elementos de ecuaciones_diferenciales_ordinarias
Elementos de ecuaciones_diferenciales_ordinariasElementos de ecuaciones_diferenciales_ordinarias
Elementos de ecuaciones_diferenciales_ordinarias
 
Apuntes de ecuaciones diferenciales
Apuntes de ecuaciones diferencialesApuntes de ecuaciones diferenciales
Apuntes de ecuaciones diferenciales
 

Modelo input - output de Leontief

  • 1. UNIVERSIDAD NACIONAL PEDRO RUIZ GALLO FACULTAD DE CIENCIAS FÍSICAS Y MATEMÁTICAS ESCUELA PROFESIONAL DE MATEMÁTICA ´ SOLUCION DEL MODELO INPUT - OUTPUT DE LEONTIEF APLICANDO ´ LA FORMA CANONICA DE JORDAN Tesina presentada por: Contreras Vidaurre Charles David Cornetero Angeles Edith Janet Asesor: Lic. Mat. Walter Arriaga Delgado Lambayeque - Per´ u 2010
  • 2. ´ Indice general Resumen III Introducci´n o IV Objetivos V ´ 1. Nociones de Algebra Lineal 1 1.1. Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 1.1.1. Operaciones con matrices . . . . . . . . . . . . . . . . . . . . . . 2 1.1.2. Determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 1.1.3. Tipos especiales de matrices . . . . . . . . . . . . . . . . . . . . . 5 1.2. Espacio Vectorial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 1.2.1. Transformaciones Lineales . . . . . . . . . . . . . . . . . . . . . . 9 1.3. Resoluci´n de sistemas lineales por el m´todo de Gauss-Jordan . o e . . . . . 12 1.4. Autovalores y Autovectores . . . . . . . . . . . . . . . . . . . . . . . . . 17 1.4.1. Autovalores y Autovectores de algunos tipos de matrices . . . . . 20 1.4.2. Normas en Mn (C) . . . . . . . . . . . . . . . . . . . . . . . . . . 22 1.4.3. Sucesiones y Series de Matrices . . . . . . . . . . . . . . . . . . . 24 1.5. Similaridad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26 1.6. Diagonalizaci´n . . . . . . . . . . . . . . . . . . . . . . . . . . . o . . . . . 28 1.6.1. Diagonalizaci´n de Matrices Idempotentes y Nilpotentes o . . . . . 33 2. Forma Can´nica de Jordan o 35 2.1. Matriz de Jordan Asociada a una aplicaci´n o nilpotente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37 2.2. Matriz de Jordan asociada a una Aplicaci´n con un unico Autovalor . . . 47 o ´ 2.3. Matriz de Jordan asociada a una aplicaci´n lineal cualquiera . . . . . . . 53 o 3. Matriz Insumo − Producto 66 3.1. Modelo de Leontief. M´todo Matricial . . . . . . . . . . . . . . . . . . . . 71 e I
  • 3. 3.2. C´lculo de la inversa de Leontief por aproximaci´n . . . . . . . . . . . . a o 72 3.3. Resoluci´n de ejercicios por MatLab . . . . . . . . . . . . . . . . . . . . . o 74 Conclusiones 81 Bibliograf´ ıa 82 II
  • 4. Resumen En el primer cap´ ´ ıtulo, como preliminares se presentan algunas nociones del Algebra Lineal, temas necesarios para comprender el tema general. El segundo cap´ıtulo se dedica al estudio de la “Forma Can´nica de Jordan”. Detallando o los procedimientos que existen para obtener la “Forma Can´nica de Jordan”de una o matriz asociada a una transformaci´n lineal T : V → V y demostrar la existencia de o una base β del espacio vectorial V , tal que la matriz de representaci´n A(T, β), sea una o matriz de Jordan. En el capitulo final veremos la importancia fundamental en las matem´ticas aplicadas a en este trabajo trataremos una aplicaci´n al modelo Insumo-Producto. o III
  • 5. Introducci´n o Uno de los enfoques importantes para analizar la conducta de algunos modelos intere- santes del mundo real es determinar la “Forma Can´nica de Jordan”. Tal determinaci´n o o involucra el manejo de ciertos fundamentos matem´ticos. El modelo de insumo-producto a constituye la fusi´n de la econom´ del equilibrio general con el algebra matricial. En o ıa ´ este trabajo se muestra la integraci´n de la herramienta computacional al aprendiza- o je de una materia totalmente abstracta, como es el ´lgebra lineal y su aplicaci´n a la a o econom´ ıa. El “an´lisis de insumo-producto” que es una t´cnica matem´tica que refleja la interde- a e a pendencia entre los distintos sectores de una econom´ y entre factores productivos y ıa productos. Wassily Leontief, mediante el “an´lisis de insumo-producto” busc´ construir a o un modelo de equilibrio general. Intent´ cuantificar el modelo matem´tico desarrollado o a por Leon Walras (1834-1910). IV
  • 6. Objetivos Objetivo General Determinar la soluci´n del modelo input-output de Leontief empleando el progra- o ma Matlab y aplicando la forma can´nica de Jordan. o Objetivos Espec´ ıficos Desarrollar la forma can´nica de Jordan para una matriz cualquiera. o Analizar la relaci´n de semejanza entre matrices para simplificar el manejo de las o mismas mediante un proceso de diagonalizaci´n. o V
  • 7. Cap´ ıtulo 1 ´ Nociones de Algebra Lineal 1.1. Matrices Sea S un conjunto cualquiera y f una aplicaci´n de I × J = {1, 2, . . . , m} × {1, 2, . . . , n} o en S definido por f : I ×J → S (i, j) → f (i, j) = aij entonces A = {f (i, j) : i ∈ I, j ∈ J} = {aij , i = 1, . . . , m, j = 1, . . . , n} es una matriz de orden m × n, es decir   a11 a12 ··· a1n    a21 a22 ··· a2n  A= .  . . .. .   . . . . .  .  am1 am2 · · · amn As´ pues una matriz A de orden m × n puede entenderse como un “rect´ngulo”de mn ı a elementos de S ordenados en m filas y n columnas. La notaci´n matricial es la siguiente: o aij ≡ elemento de la i−´sima fila y j−´sima columna de la matriz A e e ai· = (ai1 , ai2 , . . . , ain ) ≡ fila i−´sima de la matriz A.   e a1j   a2j  a·j =  .  ≡ columna j−´sima de la matriz A.  .  e  .  ain 1
  • 8. ´ Nociones de Algebra Lineal 2 1.1.1. Operaciones con matrices Suma de matrices Dadas las matrices A, B ∈ Mm×n con A = (aij ), B = (bij ), i = 1, . . . , m, j = 1, . . . , n, se define la matriz suma A + B = C = (cij ) donde: cij = aij + bij Producto de una matriz por un escalar Dada la matriz A = (aij ) de orden m × n y λ ∈ R, se define la matriz D = λA = (dij ) donde dij = λaij Producto de matrices Dada la matriz A = (aij ) ∈ Mm×n y B = (bjk ) ∈ Mn×p , se define la matriz producto C = AB = (cik ), de orden m × p donde: n cik = aij bjk j=1 Propiedades: A+B =B+A A + (B + C) = (A + B) + C Existe 0m×n tal que A + 0m×n = A para cualquier A ∈ Mm×n . Para todo A ∈ Mm×n existe (−A) ∈ Mm×n tal que A + (−A) = 0m×n α(A + B) = αA + αB (α + β)A = αA + βA (αβ)A = α(βA) Existe 1 ∈ R tal que 1 · A = A para todo A ∈ Mm×n El producto no es conmutativo A(BC) = (AB)C 2
  • 9. ´ Nociones de Algebra Lineal 3 Para toda A ∈ Mm×p Im A = A , AIp = A Para toda A ∈ Mm×n no nula A0n×s = 0m×s , 0p×m A = 0p×n (A + B)C = AC + BC , D(A + B) = DA + DB AB = 0, no implica A = 0 ´ B = 0 o AB = AC no implica que B = C Potencia de una matriz Sea A = (aij ) ∈ Mn , la potencia de la matriz A se define como A0 = I A1 = A A2 = A · A . . . An = A · A · · · A Propiedades: Am An = Am+n , m, n ∈ Z + (enteros positivos) (Am )n = Am·n An+1 = A · An D k = diag(ak , ak , . . . , ak ), k ∈ Z + , (D matriz diagonal, la cual los dij = 0 para 11 22 nn i = j) Traza de una matriz Dada una matriz A ∈ Mn se define su traza como n tr(A) = aii i=1 3
  • 10. ´ Nociones de Algebra Lineal 4 Propiedades: Dadas A, B ∈ Mn y α ∈ R, se tiene que: tr(A + B) = tr(A) + tr(B) tr(αA) = αtr(A) tr(AB) = tr(BA) 1.1.2. Determinantes Dada una matriz A de orden n, se define el determinante de A que se denotar´ por |A| a o det(A) como la suma de los n! productos signados de n factores que se obtienen con- siderando los elementos de la matriz de forma que cada producto contenga un elemento y s´lo si uno de cada fila y cada columna de A. o A partir de esta definici´n se obtiene o a11 a12 1. |A| = = a11 a22 − a12 a21 a21 a22 a11 a12 a13 2. |A| = a21 a22 a23 = a11 a22 a33 +a12 a23 a31 +a21 a32 +a13 −[a13 a22 a31 +a11 a23 a32 + a31 a32 a33 a12 a21 a33 ] Propiedades: |In | = 1 |AT | = |A| |AB| = |A||B| 1 |A−1 = |A| |Am | = |A|m / m ∈ Z+ |λA| = λn |A| Si dos filas o columnas son proporcionales, el determinante es cero. Si A = [aij ] es triangular, entonces el determinante es: |A| = a11 .a22 · · · ann 4
  • 11. ´ Nociones de Algebra Lineal 5 Nota: Una matriz cuadrada A se dice no singular si y s´lo si |A| = 0 o Una matriz cuadrada A se dice singular si y s´lo si |A| = 0 o Inversa de una matriz Dada A ∈ Mn , se dice que B ∈ Mn es inversa de A y se denota por B = A−1 si AB = BA = In (In es la matriz identidad In = (aij ), aij = 1, ∀ i = j y para i = j, aij = 0, ij = 1, . . . , n) Sea A, B ∈ Mn matrices no singulares, entonces Existe una unica matriz A−1 inversa de A ´ La matriz A−1 es invertible y (A−1 )−1 = A La matriz AB tiene inversa, siendo (AB)−1 = B −1 A−1 Rango de una matriz Se denomina rango de una matriz A ∈ Mm×n al m´ximo n´ mero de vectores columna a u de A linealmente independiente. Propiedades: Dada A de orden m × n se cumplen las siguientes propiedades: Si rg(A) = min(m, n) se dice que A es de rango completo. Si A es cuadrada (m = n) y de rango completo ,entonces se dice que es una matriz no singular. rg(AB) ≤ min{rg(A), rg(B)}; A ∈ Mm×n y B ∈ Mn×p Dada A ∈ Mn×n con |A| = 0 se tiene que rg(A) = n 1.1.3. Tipos especiales de matrices Matriz Triangular Matriz Triangular Superior (MTS) Una matriz cuadrada A = (aij )n×n se llama MTS si y s´lo si los aij = 0 ∀ i > j o Matriz Triangular Inferior (MTI) Una matriz cuadrada A = (aij )n×n se llama MTI si y s´lo si los aij = 0 ∀ i < j o 5
  • 12. ´ Nociones de Algebra Lineal 6 Propiedades: Dadas A, B ∈ Mn matrices triangulares superiores (inferiores), α ∈ R, se verifica que: Las matrices A + B y αA son triangulares superiores(inferiores). La matriz AB es tambi´n triangular superior (inferior). e Si A tiene inversa entonces A−1 es triangular superior(inferior). El rango de A es siempre mayor e igual al n´ mero de elementos de la diagonal u principal de A no nulos. |A| = Πn aii i=1 Matriz Transpuesta Dada C = (cij ) ∈ Mm×n , i = 1, . . . , m, j = 1, . . . , n, se dice que B = (bij ), i = 1, . . . , n, j = 1, . . . , m es la matriz transpuesta de C si las filas de B son las columnas de C o lo que es igual, las columnas de B son las filas de C, es decir bij = cji , i = 1, . . . , n, j = 1, . . . , m A la matriz transpuesta de C se le denota indistintamente por C ′ , C t o C T . ´ Propiedades: (At )t = A (A + B)t = At + B t (αA)t = αAt (AB)t = B t At Matriz Sim´trica e Una matriz A = (aij ) ∈ Mn es sim´trica si es igual a su traspuesta, es decir A = At e Propiedades: Sean A y B matrices simetricas y α ∈ R, se verifica que: A + B y αA son simetricas Si A tiene inversa, entonces A−1 es sim´trica. e 6
  • 13. ´ Nociones de Algebra Lineal 7 Matriz Antisim´trica e Una matriz A = (aij ) ∈ Mn , i, j = 1, . . . , n es antisim´trica si es igual al opuesto de su e t transpuesta, es decir A = −A Matriz Conjugada Sea A = aij ∈ Mm×n , donde aij ∈ C, i = 1, . . . , n, j = 1, . . . , m, la matriz obtenida a partir de A sustituyendo cada elemento por su conjugada de A y se representa por A es decir si A = (aij ) ∈ Mm×n donde aij ∈ C entonces A = (aij ) = (aij ) se llama matriz conjugada de A. Propiedades: A=A A+B =A+B αA = α A; α ∈ K (K cuerpo) AB = A B; A y B conformes (A = (aik ), B = (akj )). (A)t = At Matriz Positiva Se dice que A es positiva si todos sus elementos son n´ meros reales no negativos y al u menos uno de ellos no nulo, es decir, para todo i, j = 1, . . . , n, aij ≥ 0. Cuando para todo i, j = 1, · · · , n se verifica que aij > 0, la matriz A es estrictamente positiva. Si a todos los elementos de la matriz A se les exige solo ser n´ meros reales no negativos u entonces A es una matriz semipositiva. Propiedades: Si A y B son matrices positivas, α > 0, se verifica que: A + B y αA son positivas. AB es positiva tambi´n. e AT es matriz positiva. Para todo k ∈ N, Ak es positiva. Una matriz A = (aij ) ∈ K m×n se dice no negativa si todos sus elementos son ≥ 0. 7
  • 14. ´ Nociones de Algebra Lineal 8 Matriz Herm´ ıtica ıtica ↔ A = (A)t en algunos casos (A)t se A = (aij ) ∈ Mn donde aij ∈ C es herm´ denotara por A∗ Matriz Irreducible Sea A ∈ Mn tal que A > 0. Diremos que A es una matriz irreducible si existe un m ≥ 1 tal que Am > 0. Matriz Ortogonal Una matriz cuadrada A se llama ortogonal si se verifica A · At = I = At · A I: matriz identidad Propiedades: Si A, B ∈ Mn son matrices ortogonales, se verifica que: AB y BA son ortogonales, pero en general no lo son A + B y αA, para α ∈ R. El valor de |A| es igual a −1 o 1. El rango de A es n. A es invertible, A−1 es ortogonal y A−1 = AT . Matriz Idempotente, Unipotente y Nilpotente Una matriz cuadrada A es idempotente: A ∈ Mn es indempotente ⇔ A2 = A Cuando A2 = In , entonces se dice que A es unipotente. Si A2 = 0n (0n , matriz nula), se dir´ que la matriz es nilpotente a Propiedades: Si A y B son idempotentes, entonces se verifica que: AB es idempotente siempre que AB = BA Dada cualquier C ∈ Mn , si C T C = C, la matriz C es sim´trica e idempotente. e El valor de |A| es 0 o 1, si |A| = 1 se tiene que A = In 8
  • 15. ´ Nociones de Algebra Lineal 9 In − A es una matriz idempotente y rg(In − A) = n − rg(A). Sin embargo, A − In no es idempotente. rg(In − A) = tr(In − A) = tr(In ) − tr(A) rg(In − A) = n − rg(A) Sea A una matriz unipotente, entonces se verifica que: |A| = 1 o |A| = −1. rg(A) = n, por tanto A−1 existe y adem´s A−1 = A. a Sea A ∈ Mn una matriz nilpotente, entonces se verifica que: |A| = 0, y por tanto A−1 nunca existe y rg(A) < n. La matriz (In − A) es invertible y su inversa es (In − A)−1 = In + A 1.2. Espacio Vectorial Proposici´n 1.1. Sea v ∈ V un vector fijo tal que T q−1 = 0, entonces los vectores o {v, T v, . . . T q−1 v} son linealmente independientes. Proposici´n 1.2. Sea V un K-espacio vectorial de dimensi´n n, un conjunto de vectores o o {v1 , v2 , . . . , vn } es linealmente independiente si solo si genera V . Proposici´n 1.3. (Completaci´n de una base) Sea V un K-espacio vectorial de o o dimensi´n n > 1, v1 , v2 , . . . vr , r < n vectores linealmente independientes. Entonces o existen vectores vr+1 , . . . , vn de manera que v1 , v2 , . . . vr , vr+1 , . . . , vn constituyen una base de V . 1.2.1. Transformaciones Lineales Teorema 1.4. (Del n´cleo y la imagen) Sean U y V dos K-espacios vectoriales de u dimensi´n finita, y T : U → V una transformaci´n lineal entonces o o dim(Ker(T )) + dim(Im(T )) = dim(U) Teorema 1.5. Sea V un K-espacio vectorial de dimensi´n finita. Sea {v1 , v2 , . . . , vn } o una base ordenada de V . Sean W un K-espacio vectorial y {w1 , w2 , . . . , wn } vectores cualesquiera de W .Entonces existe una unica transformaci´n lineal T : V → W tal que: ´ o T vj = wj , j = 1, n 9
  • 16. ´ Nociones de Algebra Lineal 10 Definici´n 1.6. (Matriz de Representaci´n) Sea V un K-espacio vectorial de di- o o mensi´n finita, sea una transformaci´n lineal. Dada una base β = {v1 , v2 , . . . , vn } de V , o o podemos construir la “matriz de representaci´n” A(T, β) de T respecto de la base β de o la siguiente manera: Consideremos la imagen de cada elemento de la base de T , n T (vi ) = aij vj , i = 1, . . . , n j=1 Entonces A = A(T, β) es la matriz A = (aij ) ∈ Kn×n . Definici´n 1.7. (Matriz de cambio de base) Sea V un espacio vectorial de dimensi´n o o ′ finita sobre el cuerpo K, y sean β = {v1 , v2 , . . . , vn } y β = {w1 , w2 , . . . , wn } dos bases ordenadas de V . Se puede definir una matriz (invertible) P de orden n × n unica tal ´ que: (1.1) [v]β = P [v]β ′ , para cada vector v ∈ V P , es la matriz P = [P1 , P2 , . . . , Pn ] con Pj = [wj ]β , j = 1, n. P es llamada “Matriz de cambio de base”, y est´ formada por los vectores columna, cuyas coordenadas son las a componentes del vector wj respecto de la base β. Teorema 1.8. Sea V un espacio vectorial de dimensi´n finita sobre el cuerpo K, y sean β o ′ y β dos bases de V . Suponga que T es un operador lineal sobre V . Si P = [P1 , P2 , . . . , Pn ] es la matriz n × n de columnas Pj = [wj ]β , entonces A(T, β) = P A(T, β ′)P −1 es decir las matrices A(T, β) y A(T, β ′ ) son similares. Ejemplo. Sea T el operador lineal sobre R3 que env´ los vectores (1, 0, 0), (0, 1, 0) y ıa (0, 0, 1) en los vectores (1, 1, 0), (1, 2, 1) y (0, 2, 1) respectivamente, calcular la matriz de representaci´n A(T, β ′ ) donde o β ′ = {(1, 0, 1), (1, 1, 1)(2, 1, 1)}, y adem´s verifique que a A(T, β ′ ) = P A(T, β)P −1   1 1 0   a) Hallamos A(T, β) = [T v1 T v2 T v3 ] =  1 2 2  0 1 1 10
  • 17. ´ Nociones de Algebra Lineal 11 b) Hallamos A(T, β ′ ) T (w1 ) = T (1, 0, 1) = T (1v1 ) + T (0v2 ) + T (1v3 ) = 1.(1, 1, 0) + 0.(1, 2, 1) + 1.(0, 2, 1) = (1, 3, 1) T (1, 0, 1) = −2(1, 0, 1) + 3(1, 1, 1) + 0(2, 1, 1, ) T (w2 ) = T (1, 1, 1) = T (1v1 ) + T (1v2 ) + T (1v3 ) = (1, 1, 0) + (1, 2, 1) + (0, 2, 1) = (2, 5, 2) T (1, 1, 1) = −3(1, 0, 1) + 5(1, 1, 1) + 0(2, 1, 1, ) T (w3 ) = T (2, 1, 1) = T (2v1 ) + T (1v2 ) + T (1v3 ) = 2(1, 1, 0) + 1(1, 2, 1) + 1(0, 2, 1) = (3, 6, 2) T (1, 1, 1) = −4(1, 0, 1) + 5(1, 1, 1) + 1(2, 1, 1, )   −2 −3 −4 ′   Luego A(T, β ) =  3 5 5  0 0 1 c) Hallamos P : w1 = (1, 0, 1) = 1v1 + 0v2 + 1v3 w2 = (1, 1, 1) = 1v1 + 1v2 + 1v3 w3 = (2, 1, 1) = 2v1 + 1v2 + 1v3 Entonces :     1 1 2 0 −1 1     P =  0 1 1  y P −1 =  −1 1 1  1 1 1 1 0 1 11
  • 18. ´ Nociones de Algebra Lineal 12     1 1 2 1 1 0 0 −1 1 −1     P A(T, β)P =  0 1 1  1 2 2  −1 1 1  1 1 1 0 1 1 1 0 1    −1 −1 −1 0 −1 1 −1    P A(T, β)P =  0 2 3   −1 1 1  1 0 −1 1 0 1   −2 −3 −4   P A(T, β)P −1 = 3 5 5  0 0 1 1.3. Resoluci´n de sistemas lineales por el m´todo o e de Gauss-Jordan El m´todo de Gauss-Jordan permite calcular la inversa de una matriz dada, como se e ver´ a continuaci´n, tambi´n permite transformar un sistema compatible determinado a o e en otro equivalente cuya matriz de coeficientes es una matriz triangular (superior o inferior). Para ello se precisa en primer lugar: (a) Comprobar que cuando en un sistema de ecuaciones lineales compatible se efect´ an u operaciones elementales como: Intercambiar ecuaciones. Multiplicar una ecuaci´n por un escalar. o Sumar a una ecuaci´n un m´ ltiplo de otra. o u el sistema que se obtiene es equivalente al de la partida. En efecto, dado el sistema Ax = b con A de orden m × n, x ∈ Rn y b ∈ Rn se tiene que Cambiar la ecuaci´n i0 -´sima con la j0 -´sima equivale a premultiplicar ambos o e e miembros del sistema por la matriz C(i0 , j0 ) = (cij ); i, j = 1, . . . , m 12
  • 19. ´ Nociones de Algebra Lineal 13 con   1  si i = j, i = i0 , j = j0   1 si i = j0 , j = i0 cij =  1  si i = i0 , j = j0   0 en otro caso Multiplicar la ecuaci´n i0 -´sima por un escalar α ∈ R, α = 0 equivale a multi- o e plicar el sistema por la matriz M((α)i0 ) = (mij ) i, j = 1, . . . , m con   1 si i = j, i = i0  mij = α si i = j = i0   0 en otro caso Sumarle a la i0 -´sima ecuaci´n un m´ ltiplo α de la j0 -´sima ecuaci´n equivale e o u e o a premultiplicar el sistema por la matriz S(i0 , (α)j0 ) = (sij ) i, j = 1, . . . , m con   1 si i = j  sij = α si i = i0 j = j0   0 en otro caso cualquiera de estas matrices es no singular, ya que por las propiedades de los deter- minantes: |C(i0 , j0 )| = −1, pues C(i0 , j0 ) es el resultado de permutar dos l´ıneas de Im |M((α)i0 )| = α, pues M((α)i0 ) se obtiene al multiplicar la fila i0 de Im por α |S(i0 , (α)j0 )| = 1, pues S(i0 , (α)j0 ) es una matriz triangular cuya diagonal principal coincide con la de Im . Obs´rvese que transformar un sistema combinando estas operaciones consiste sim- e plemente en premultiplicar dicho sistema por un n´ mero adecuado de matrices tipo u C, M y S y por tanto por una matriz no singular. Por tanto, el nuevo sistema as´ obtenido es equivalente. ı As´ pues cuando en un sistema de ecuaciones compatible se efect´ an operaciones ı u elementales, el sistema resultante es equivalente al inicial. (b) Dado el sistema compatible determinado Ax = b 13
  • 20. ´ Nociones de Algebra Lineal 14 con A cuadrada de orden n, siempre es posible mediante operaciones elementales y lo indicado en A encontrar un sistema equivalente Ax = b siendo A una matriz triangular. Para ”triangular el sistema” se procede del siguiente modo (i) Supongase que a11 = 0 (si as´ no fuese, bastar´ con intercambiar la primera ı ıa ecuaci´n con otra cuyo coeficiente para x1 sea no nulo). Entonces la matriz o   1 0 0 ··· 0    −a21 a11 0 · · · 0    P1 =  −a31 0 a11 · · · 0     . . . . . . . .   . . . .  −an1 0 0 · · · a11 que es no singular, transforma el sistema inicial en otro equivalente Bx = P1 Ax = P1 b = b1 cuya matriz de coeficientes B es   a11 a12 · · · a1n    0 b22 · · · b2n    B =  0 b32  · · · b3n    . . . . . .   . . .  0 bn2 · · · bnn con bij = (−ai1 )aij + a11 aij para i, j = 2, . . . , n (ii) Supuesto que b22 = 0 (si esto no ocurre se efect´ an un cambio adecuado de u ecuaciones), la matriz no singular   1 0 0 0 ··· 0    0 1 0 0 ··· 0     0 −b32 b22 0 · · · 0    P2 =    0 −b42 0 b22 · · · 0   . . . . .   . . . . . . . . .  .   0 −bn2 0 0 · · · b22 permite obtener el sistema equivalente Dx = P2 P1 Ax = P2 P1 b = b2 14
  • 21. ´ Nociones de Algebra Lineal 15 cuya matriz de coeficientes D es   a11 a12 a13 · · · a1n    0 b22 b23 · · · b2n     0 0 c33 · · · c3n    D=   0 0 c43 · · · c4n   . . . .   . . . .   . . . .  0 0 cn3 · · · cnn con cij = (−bi2 b2j ) + b22 bij para i, j = 3, . . . , n (iii) Procediendo de manera an´loga se calculan P3 , P4 , . . . , Pn−1 tales que a Ax = Pn−1 Pn−2 . . . P3 P2 P1 Ax = Pn−1 Pn−2 . . . P2 P1 b = b donde A es una matriz triangular superior. Nota: Del mismo modo se puede operar para encontrar un sistema equivalente al inicial de la forma Ax = b donde A es una matriz triangular superior. Ejemplo. El sistema 5x1 + 4x2 + 2x3 + x4 = 5 2x1 + 3x2 + x3 − 2x4 = −3 −5x1 − 7x2 − 3x3 + 9x4 = 16 x1 − 2x2 − x3 + 4x4 = 10 es compatible determinado, ya que rg(A) = rg(A) = 4. Resolverlo utilizando el m´todo e de Gauss-Jordan consiste en transformar el sistema en otro equivalente con matriz de coeficientes triangular. Para ello, se comienza calculando una matriz p1 tal que al pre- multiplicar el sistema por ella, permite obtener uno equivalente en el que la variable x1 solo aparece en la primera ecuaci´n, esto se consigue. o Sumando a la segunda multiplicada por 5, la primera multiplicada por -2, lo cual se obtiene mediante la matriz    1 0 0 0 1 0 0 0  −2 1 0 0  0 5 0 0     S(2, (−2)1)M((5), 2) =     0 0 1 0  0 0 1 0  0 0 0 1 0 0 0 1 15
  • 22. ´ Nociones de Algebra Lineal 16 Sumando a la tercera ecuaci´n multiplicada por 5, la primera multiplicada por 5, o es decir,    1 0 0 0 1 0 0 0  0 1 0 0  0 1 0 0     S(3, (5)1)M((5), 3) =     5 0 1 0  0 0 5 0  0 0 0 1 0 0 0 1 Sumando a la cuarta ecuaci´n multiplicada por o 5, la primera multiplicada por -1, esto es    1 0 0 0 1 0 0 0  0 1 0 0  0 1 0 0     S(4, (−1)1)M((5), 4) =     0 0 1 0  0 0 1 0  −1 0 0 1 0 0 0 5 Por tanto, todas las transformaciones elementales que es necesario realizar est´n reco- a gidas en la matriz producto S(4, (−1)1)M((5), 4)S(3, (5)1)M((5), 3)S(2, (−2)1)M((5), 2) =   1 0 0 0  −2 [5] 0 0    =   5 0 [5] 0  −1 0 0 [5] que coinciden con la matriz P1 indicada en (I) para este sistema particular el sistema equivalente que resulta es: 5x1 + 4x2 + 2x3 + x4 = 5 7x2 + x3 − 12x4 = −25 −15x2 − 5x3 + 50x4 = 105 −14x2 − 7x3 + 19x4 = 45 Teniendo en cuenta (II) para eliminar x2 de las dos ultimas ecuaciones basta con pre- ´ multiplicar el sistema por la matriz   1 0 0 0  0 1 0 0    P2 =    0 15 [7] 0  0 14 0 [7] 16
  • 23. ´ Nociones de Algebra Lineal 17 obteniendo el sistema 5x1 + 4x2 + 2x3 + x4 = 5 7x2 + x3 − 12x4 = −25 −20x3 + 170x4 = 360 −35x3 − 35x4 = 35 reiterando el proceso para eliminar x3 de la ultima ecuaci´n se premultiplica por la ´ o matriz   1 0 0 0  0 1 0 0    P3 =    0 0 1 0  0 0 35 [−20] y resulta finalmente el sistema triangular equivalente 5x1 + 4x2 + 2x3 + x4 = 5 7x2 + x3 − 12x4 = −25 −20x3 + 170x4 = 360 6650x4 = 13300 cuya soluci´n es: o x1 = 1, x2 = 0, x3 = −1, x4 = 2 1.4. Autovalores y Autovectores Definici´n 1.9. Sea V un K-espacio vectorial y T un operador lineal sobre V . Un o autovalor o valor propio de T , es un escalar λ ∈ K si existe un vector no nulo v ∈ V tal que T v = λv. Si λ es un autovalor de T , entonces: Cualquier v tal que T v = λv se llama vector propio o autovector de T asociado a λ. La colecci´n de todos los v tal que T v = λv se llama espacio propio asociado a λ. o Ya que cada T est´ asociado a una matriz A. El concepto de autovalor y autovector de a n×n una matriz A ∈ K se define de forma an´loga, considerando como una transformaci´n a o lineal a: A : Kn×1 → Kn×1 mediante la multiplicaci´n de matrices: Av = λv, v = 0 ∈ Kn×1 . o 17
  • 24. ´ Nociones de Algebra Lineal 18 Definici´n 1.10. o Sea A ∈ Kn×n y fA (λ) = det(λI − A), donde I es la matriz identidad y λ ∈ K. fA (λ) se denomina el “polinomio caracter´ ıstico de A” Si T : V → V es una transformaci´n lineal su polinomio caracter´ o ıstico se define como: fT (λ) = det(λI − AT ), λ ∈ K donde AT es la matriz asociada a T en alguna base. Esto permite definir el polinomio caracter´ıstico de T como el polinomio caracter´ ıstico de cualquier matriz n × n que representa a T en alguna base ordenada de V . Definici´n 1.11. o 1. Si λ ∈ C es un autovalor de T : V → V se llama multiplicidad algebraica de λ a su multiplicidad algebraica en el polinomio caracter´ ıstico fT (λ). 2. A la dimensi´n del subespacio V (λ) = {v ∈ V /T v = λv} se llama multiplicidad o geom´trica de λ e Ejemplo. Se tiene que λ = 2 es un autovalor de:   3 1 −1   A= 2 2 0  2 2 0 veamos cual es la multiplicidad geom´trica de λ = 2 e V (2) = {v ∈ K3×1 /Av = 2v} V (2) = {(x, x, 2x)T /x ∈ K} V (2) = {x(1, 1, 2)T /x ∈ K} Luego dimV (2) = 1, por tanto la multiplicidad geom´trica de λ = 2 es 1 y la multipli- e cidad algebraica de λ = 2 es 2. Proposici´n 1.12. Si A es matriz de orden n se tiene que: o |A − λIn | = (−λ)n + (−λ)n−1 tr(A) + (−λ)n−2 tr2 (A) + (−λ)n−3 tr3 (A) + · · · + |A| siendo tri (A), i = 2, 3, . . . , n − 1 la suma de todos los menores de orden i que contienen en su diagonal principal i elementos de la diagonal principal de A. 18
  • 25. ´ Nociones de Algebra Lineal 19   1 0 1   Ejemplo. Sea la matriz: A =  −1 2 0  1 1 2 tr(A) = 5 |A| = 1 y 1 0 2 0 1 1 tr2 (A) = + + =2+4+1=7 −1 2 1 2 1 2 |A − λIn | = −(λ)3 + 5(λ)2 + 7(λ) + 1 Proposici´n 1.13. Sea A ∈ Mn (K), cuyos autovalores pueden ser reales o complejos o (iguales o distintos), se verifica que: 1. Los autovalores de AT coinciden con los de A 2. El n´mero de autovalores nulos de A de rango r < n es mayor o igual que (n − r). u n 3. |A| = λi . i=1 n 4. tr(A) = λi . i=1 5. Los autovalores de la matriz αA para α ∈ R(C), α = 0 son αλi con i = 1, . . . , n. 6. Si A es no singular, entonces los autovalores de A−1 son 1/λi , con i = 1, . . . , n. 7. Para cualquier n´mero natural k no nulo los autovalores de Ak son λk , con u i i = 1, . . . , n. Proposici´n 1.14. Sea A una matriz de orden n, aij ∈ K(o C), i, j = 1, . . . , n cu- o yos autovalores son λ1 , λ2 , . . . , λr ∈ K, con multiplicidades algebraicas m1 , m2 , . . . , mr r respectivamente, siendo = n, se verifica que: i=1 1. Para cada i = 1, . . . , r, el conjunto V (λi ) = {v ∈ Kn /Av = λi v} es un subes- pacio vectorial de Kn tal que dim(V (λi )) ≤ mi . Adem´s si mi0 = 1 entonces a dim V (λi0 ) = 1. 2. Los autovectores correspondientes a autovalores distintos son linealmente indepen- dientes. 3. Si r = n, entonces Kn = V (λ1 ) V (λ2 ) V (λ3 ) . . . V (λn ) 4. Si K = C y A tiene como autovalor λ ∈ C con conjugado λ, entonces el autovector v asociado a λ es el conjugado del autovector w asociado a λ 19
  • 26. ´ Nociones de Algebra Lineal 20 Definici´n 1.15. Se llama espectro de una matriz A ∈ Mn (C) al conjunto de todos los o autovalores de A: σ(A) = {λ ∈ K : λ es autovalor de A} = {λ ∈ K : Ker (A − λI) = {0}} Definici´n 1.16. El radio espectral de una matriz A ∈ Mn (C) se define como o ρ(A) = m´x{|λ|/λ ∈ σ(A)} a 1.4.1. Autovalores y Autovectores de algunos tipos de matrices Matrices Triangulares Dada A matriz de orden n triangular superior (respectivamente inferior) se verifica que los autovalores de A son los elementos de su diagonal principal, es decir aii = λi , i = 1, . . . , n. Demostraci´n 1. o Si A es triangular superior o inferior entonces A−λIn tambi´n lo es, luego por propiedad e de las matrices triangulares se tiene: n |A − λIn | = (aii λi ) i=1 por tanto λi = aii , i = 1, . . . , n son los autovalores de A. Matrices Sim´tricas e Dada una matriz sim´trica de orden n×n cuyos elementos son n´ meros reales se verifica e u que: 1. Todos los autovalores de A son n´ meros reales. u 2. Dos autovalores distintos de A tienen asociados autovectores ortogonales. 3. Para cada autovalor de A la dimensi´n del subespacio vectorial de los autovectores o asociados coincide con la multiplicidad algebraica. 20
  • 27. ´ Nociones de Algebra Lineal 21 Matrices Idempotentes, Unipotentes y Nilpotentes Proposici´n 1.17. Sea A una matriz cuadrada de orden n, se verifica que: o a) Si A es Idempotente entonces: i. Sus autovalores son iguales a 0 o 1. ii. tr(A) = rg(A) iii. Si m0 es la multiplicidad algebraica de λ = 0 y m1 la de λ = 1, entonces la dimensi´n de los subespacios de vectores V (0) y V (1) son m0 y m1 respectiva- o mente. b) Si A es Unipotente entonces: IV. Todos sus autovalores son iguales a 1 ´ -1 o c) Si A es Nilpotente, entonces V. Todos sus autovalores son nulos. Demostraci´n 2. o a) Por hip´tesis A2 = A o i. Si λ es un autovalor de A con autovector asociado v, se tiene que Av = λv, entonces premultiplicando la desigualdad anterior por A se tiene: AAv = Aλv A2 v = Aλv = λAv = λλv A2 v = λ2 v Av = λ2 v y Av = λv λ2 v = λv λ2 v − λv = 0 (λ2 − λ)v = 0 λ2 − λ = 0 λ(λ − 1) = 0 Por lo que λ = 0 ´ λ = 1. o 21
  • 28. ´ Nociones de Algebra Lineal 22 ii. Si λ = 0 es un autovalor de A con multiplicidad algebraica m, entonces λ = 1 tendr´ multiplicidad algebraica (n − m), por tanto, tr(A) = (n − m), esto es por la a proposici´n(1.13) y o (1.2) |A − λIn | = λm (1 − λ)n−m y por proposici´n(1.12) o (1.3) |A−λIn | = (−λ)n +(−λ)n−1 tr(A)+(−λ)n−2 tr2 (A)+. . . . . .+(−λ)n−(n−m) trn−m (A)+· · ·+|A| siendo tri (A), i = 2, 3, . . . , n − 1 la suma de todos los menores de orden i que contienen en su diagonal principal i elementos de la diagonal principal de A. Desarrollando la expresi´n (1.2) a trav´s del binomio de Newton e igualando (1.2) o e con (1.3) se verifica que: |A| = 0 tri (A) = 0, i = n − m + 1, . . . , (n − 1) trn−m (A) = 1 Por tanto rg(A) = n − 1 = tr(A). 1.4.2. Normas en Mn (C) Se estudiar´n distintas normas en el espacio vectorial de matrices Mn (C). Muchas de a estas normas son utiles en diversas desigualdades matriciales espec´ ´ ıficas. Pero no olvi- demos que, como dim Mn (C) < ∞, es un resultado conocido que todas las normas en Mn (C) son equivalentes. En los siguientes ejemplos definiremos las normas m´s cl´sicas para matrices. a a Ejemplo. 1. La norma espectral · definida del siguiente modo A = A sp = m´x Ax = s1 (A), a x =1 donde la ultima igualdad surge de que A ´ sp = |A| sp = ρ(|A|). 22
  • 29. ´ Nociones de Algebra Lineal 23 2. Las normas de Schatten. Dado 1 ≤ p < ∞ ∞ 1/p p A p = si (A) n=1 La · 2 se llama norma de Frobenius. Ella verifica que n 2 A 2 = tr A ∗ A = |aij |2 i,j=1 y proviene del producto escalar en Mn (C) definido por A, B = tr B ∗ A. 3. Las normas Ky-Fan. Dado k ∈ {1, . . . , n} k A (k) = si (A) i=1 Notar que A (1) = A sp y A (n) = A 1 (de Schatten). 4. Toda norma N en Cn induce una norma | · |N en Mn (C) del siguiente modo: |A |N = m´x N(Ax) a N (x)=1 Estas normas satisfacen que: a) |I |N = 1 b) ρ(A) ≤ |A |N c) |AB |N ≤ |A |N |B |N 5. | · |1 es la inducida por la norma · 1 en Cn . Puede demostrarse que A 1 = m´x Ci (A) a 1 i donde Ci (A) simboliza el vector formado por la columna i-´sima de A. e 6. Analogamente, |· |∞ es la inducida por la norma · ∞ en Cn . Puede demostrarse que A ∞ = m´x Fi (A) 1 a i donde Fi (A) simboliza el vector formado por la fila i-´sima de A. e Definici´n 1.18. Una norma o · en Mn (C) se llama Matricial si AB ≤ A B 23
  • 30. ´ Nociones de Algebra Lineal 24 Teorema 1.19. (Perron - Frobenius:) Si A es una matriz no negativa e irreductible, existe una unica ra´ de A, λ(A), que tiene el mayor valor absoluto. Esta ra´ es positiva ´ ız ız y simple, tal que: Su vector caracter´ ıstico asociado es estrictamente positivo. Si ρ > λmax entonces existe la inversa de (ρI − A) y adem´s (ρI − A)−1 > 0. a λmax tiene un valor comprendido ente el m´ınimo y el m´ximo de la suma de las a filas de A, y entre el m´ ınimo y m´ximo de las columnas de A. a Teorema 1.20. (Metzler:) Sea A = {aij } una matriz positiva. Una condici´n necesaria o y suficiente para que todas las ra´ ıces caracter´ ısticas de A sean menores que 1 (en valor absoluto) es que los menores principales de (I − A) sean positivos. Si adem´s A es a −1 irreducible (I − A) = {αij } > 0; αii > 1 (∀i) y aij ≤ aii . 1.4.3. Sucesiones y Series de Matrices El uso de normas nos permite hablar de convergencia de sucesiones de vectores y, por lo tanto, de matrices. El objetivo es introducir las serie de matrices y demostrar un resultado que necesitaremos. Sea {Ak }∞ una sucesi´n infinita de matrices con elementos en Kn×n , recordemos que k=0 o F = R o C. Con esta sucesi´n formamos otra, la de las sumas parciales ´ o k Sk = Aj , K ≥ 0 j=0 ∞ Definici´n 1.21. La serie o Aj converge si la sucesi´n {Sk } es convergente; i.e. si o j=0 existe el l´ Sk . Adem´s, si S = l´ Sk entonces escribiremos ım a ım k→∞ k→∞ ∞ Aj = S j=0 ∞ ∞ La convergencia de la serie Aj puede reducir a la de la serie num´rica e Aj de la j=0 j=0 siguiente forma: ∞ Proposici´n 1.22. Si la serie num´rica o e Aj converge para alguna norma de matriz, j=0 ∞ tambi´n converge la serie matricial e Aj j=0 24
  • 31. ´ Nociones de Algebra Lineal 25 Demostraci´n 3. Sea ε > 0 un n´ mero real dado. Veremos que existe un entero N > 0 o u tal que si p, q ≥ N entonces Sp − Sq < ε. Esto demuestra que la sucesi´n {Sn } de o m×n sumas parciales es una sucesi´n de Cauchy. Como K o es completo, {Sn } converge. En efecto q q p q Sp − Sq = Aj ≤ Aj = Aj − Aj j=p+1 j=p+1 j=0 j=0 ∞ Ahora bien, si Aj converge, existe N > 0 tal que si p, q ≥ N entonces j=0 p q Aj − Aj <ε j=0 j=0 que es lo que se quer´ demostrar. ıa ∞ En particular, para matrices cuadradas la serie de potencias aj Aj es convergente si j=0 ∞ lo es la serie num´rica e j=0 |aj | Aj . ∞ Nos interesa especialmente la serie geom´trica e z j que sabemos que converge a j=0 1 = (1 − z)−1 si |z| < 1 1−z Proposici´n 1.23. Si A ∈ Kn×n y A < 1 para alguna norma de matriz, entonces o In − A es invertible. Adem´s, en tal caso a ∞ −1 (In − A) = Aj j=0 y 1 (In − A)−1 ≤ 1− A ∞ j Demostraci´n 4. Si A < 1 entonces la serie geom´trica o e A es convergente, y j=0 ∞ ∞ por la Proposici´n 1.22 la serie matricial o Aj converge. Sea B = Aj y pongamos j=0 j=0 k Sk = Aj j=0 Entonces (I − A)Sk = (In − A)(In + A + · · · + Ak ) = In − Ak+1 25
  • 32. ´ Nociones de Algebra Lineal 26 Como l´ Sk = B resulta que ım k→∞ l´ (In − A)Sk = (In − A)B ım k→∞ y tambi´n e l´ (In − A)Sk = l´ (In − Ak+1 ) ım ım k→∞ k→∞ k+1 Ahora bien, l´ (In − A ım ) = In porque In − Ak+1 − In ≤ A k+1 y la sucesi´n o k→∞ k num´rica { A } converge a cero por ser A < 1. e En consecuencia (In − A)B = In y ∞ (In − A)−1 = B = Aj j=0 Finalmente ∞ ∞ 1 (In − A)−1 = Aj ≤ A j = j=0 j=0 1− A 1.5. Similaridad Definici´n 1.24. Una matriz A se dice ”similar” a la matriz B, y se denota por A ∼ B, o si existe una matriz invertible P tal que A = P BP −1 Observaci´n 1. Hay propiedades de las matrices que son invariantes bajo similaridad, o esto es, si A ∼ B y A tiene la propiedad entonces B tambi´n la tiene. e Ejemplo. Muestre que la nilpotencia es una propiedad invariante por similaridad. Lo que debemos probar es que si A ∼ B y As = 0, para alg´ n s > 1. Entonces B s = 0, u para alg´ n s > 1. u En efecto: A ∼ B, entonces existe P invertible tal que A = P BP −1. As = 0 ⇒ (P BP −1)s = 0 ⇒ (P −1 )s B s P s = 0 ⇒ BsP s = P s0 = 0 ⇒ B s = 0P −s = 0 ⇒ Bs = 0 26
  • 33. ´ Nociones de Algebra Lineal 27 Ejemplo. Si A ∼ B y A es invertible, entonces B tambi´n es invertible. e Definici´n 1.25. Una funci´n f definida en matrices se llama invariante por similaridad o o si f (A) = f (B) para cualquier par de matrices similares A ∼ B. Ejemplo. El determinante y la traza son funciones invariantes. Debemos demostrar: 1. A ∼ B ⇒ det(A) = det(B) 2. A ∼ B ⇒ tr(A) = tr(B) En efecto: 1. A ∼ B ⇒ ∃P invertible tal que A = P BP −1 , entonces det(A) = det(P BP −1) = det(P ).det(B).det(P −1) 1 = det(P ).det(B). det(P ) det(A) = det(B) 2. A ∼ B ⇒ ∃P invertible tal que A = P BP −1 , entonces tr(A) = tr(P BP −1) = tr(P −1P B) = tr(IB) tr(A) = tr(B) Ejemplo. Si A ∼ B, entonces A y B tienen los mismos valores propios. (Para este caso la funci´n es el polinomio caracter´ o ıstico). En efecto. A ∼ B ⇒ ∃P invertible tal que A = P BP −1, luego se tiene: f (A) = det(λI − A) = det(λI − P BP −1 ) = det(P λP −1 − P BP −1) = det(P (λI − P BP −1)P −1 = det(P )det(λI − B)det(P −1 ) 1 = det(P ).det(λI − B). det(P ) = det(λI − B) = F (B) 27
  • 34. ´ Nociones de Algebra Lineal 28 Entonces A y B tienen el mismo polinomio caracter´ ıstico. ∴ A y B tienen los mismos valores propios. 1.6. Diagonalizaci´n o En esta secci´n supondremos que el cuerpo base K es algebraicamente cerrado (por o ejemplo K = C). Considermos el siguiente problema: “Dada una matriz A, A ∈ Kn×n , determinar si es que existe una matriz P , no singular, tal que la matriz B = P AP −1 sea diagonal”. Definici´n 1.26. Una matriz A se llama diagonalizable si existe una matriz diagonal o D que es similar a A Hay algunos casos donde los valores propios nos indican si tal matriz es diagonalizable, como se ver´ a continuaci´n. a o Proposici´n 1.27. Sea A ∈ Mn×n (K). A es similar a una matriz diagonal si y s´lo si, o o A tiene n vectores propios linealmente independientes en Kn . Demostraci´n 5. o ⇒)Supongamos que P = [P1 P2 · · · Pn ]n×n , donde Pi , i = 1, . . . , n es un vector columna de orden n × 1, y     λ1 0 · · · 0 λ1 e1      0 λ2 · · ·   λ2 e2  D = P −1AP =  .  =   .  . . ... . . . . .     . . .   0 0 · · · λn n×n λn en n×n Entonces: AP = P D   λ1 e1    λ2 e2  = [P1 P2 · · · Pn ]n×n   .    . .  λn en n×n = P1 (λ1 e1 ) + P2 (λ2 e2 ) + · · · + Pn (λn en ) = (λ1 P1 )e1 + (λ2 P2 )e2 + · · · + (λn Pn )en   e1    e2   .  = [λ1 P1 λ2 P2 · · · λn Pn ]n×n    .  . en n×n 28
  • 35. ´ Nociones de Algebra Lineal 29 (1.4) AP = [λ1 P1 λ2 P2 · · · λn Pn ]n×n Como P es no singular entonces det P = 0, luego los vectores columna de P, Pi , i = 1, . . . , n son linealmente independientes. De (1.4), se tiene que: APi = λi Pi Por lo tanto, P1 , P2 , · · · , Pn , son n-vectores propios linealmente independientes para A. ⇐) Sean P1 , P2 , · · · , Pn , n-vectores propios de A linealmente independientes y asociados a valor propios λ1 , λ2 , . . . , λn respectivamente, los cuales cumplen: APi = λi Pi Entonces, la matriz P cuyas columnas son P1 , P2 , · · · , Pn es no singular, y verifica: AP = [λ1 P1 λ2 P2 ··· λn Pn ] AP = P D donde   λ1 0 · · · 0    0 λ2 · · ·  D=  . . .. .    . . . . . . .  0 0 · · · λn Luego A = P DP −1, es decir A es similar a una matriz diagonal D. Sabemos que en el espacio Kn , n vectores linealmente independientes forman una base de este. Luego, la proposici´n anterior la podemos enunciar tambi´n de la siguiente o e manera: Lema 1.28. Sea A, una matriz de orden n × n, entonces A es diagonalizable si y s´lo o n si K tiene base formada por vectores propios de A. Proposici´n 1.29. Si A tiene todos sus valores propios diferentes, entonces A es dia- o gonalizable. Demostraci´n 6. o Sean λ1 , λ2 , . . . , λn distintos valores propios de la matriz A y sean v1 , v2 , . . . , vn sus correspondientes autovectores. Luego por la parte (2) de la proposici´n (1.14) se tiene o que v1 , v2 , . . . , vn son linealmente independientes y por proposici´n (1.27) se tiene que o A es similar a una matriz diagonal. Por lo tanto, A es diagonalizable 29
  • 36. ´ Nociones de Algebra Lineal 30 Observaci´n 2. o La proposici´n (1.27) y el lema (1.28) indican que una condici´n necesaria y suficiente o o para que una matriz cuadrada A de orden n sea diagonalizable es que para cada autovalor p λi , i = 1, . . . , p de A con multiplicidad algebraica mi , i = 1, . . . , p y mi = n se verifica i=1 que dim[V (λi )] = mi , i = 1, . . . , p Por tanto, si A es diagonalizable, el espacio vectorial V donde est´ definida la aplicaci´n a o lineal f con matriz asociada A se puede expresar como suma directa de los subespacios invariantes, es decir V = V (λ1 ) V (λ2 ) ,..., V (λn ) Ejemplo. (De una matriz con todos sus valores propios diferentes) Sea 1 2 A= 1 −3 |A − λI| = λ2 + 2λ − 5 √ √ Luego los valores propios de A son λ1 = −1 + 6, λ2 = −1 − 6, x1 1. Hallemos el vector propio asociado a λ1 : v1 = x2 1 2 x1 Av1 = λ1 v1 1 −3 x2 √ (−1 + 6)x1 = √ (−1 + 6)x2 √ (2 − 6)x1 + 2x2 = 0 √ x1 − (2 + 6)x2 = 0 √ 6 x2 = (−1 + )x1 2 1 Por lo tanto v1 = x1 √ 6 −1 + 2 30
  • 37. ´ Nociones de Algebra Lineal 31 y1 2. Hallemos el vector propio asociado a λ2 : v2 = y2 1 2 y1 Av2 = λ2 v2 1 −3 y2 √ (−1 − 6)y1 = √ (−1 − 6)y2 √ (2 − 6)y1 + 2y2 = 0 √ y1 − (2 + 6)y2 = 0 √ 6 y2 = (−1 + )y1 2 1 Por lo tanto v2 = y1 √ 6 −1 − 2 3. Luego podemos formar la matriz 1 1 P = [v1 v2 ] = √ 6 √ 6 −1 + 2 −1 − 2 con √ 6+2 √ 1 √ P −1 = √ 6 2 6−2 6 √ 2 6 − 16 √ para la cual se verifica que √ −1 −1 + 6 0 D=P AP = √ 0 −1 − 6 Por lo tanto A es diagonalizable. Ejemplo. (De una matriz con valores propios repetidos) Sea   5 4 2   B= 4 5 2  2 2 2 |B − λI| = (1 − λ)2 (10 − λ) = 0 Luego los valores propios son λ1 = 1, con m1 = 2 λ2 = 10, con m2 = 1 31
  • 38. ´ Nociones de Algebra Lineal 32 1. Hallemos V (λ1 ) y V (λ2 ) Para λ1 = 1 : V (λ1 = 1 = {v = (x1 , y1, z1 ) ∈ R3 /Bv = v}   Bv =   v  5 4 2 x1 x1       4 5 2   y1  =  y1  2 2 2 z1 z1 4x1 + 4y1 + 2z1 = 0 4x1 + 4y1 + 2z1 = 0 2x1 + 2y1 + z1 = 0 De donde se tiene :z1 = −2x1 − 2y1 . Por lo que         x1 x1 1 0         v =  y1  =  y1  = x1  0  + y1  1  z1 −2x1 − 2y1 −2 −2 luegodim V 1 ) 2, y se obtiene dos vectores propios asociados a λ1 (λ =  1 0     v1 =  0  y  1  −2 −2 Para λ2 = 10 : V (λ2 = 10 = {v = (x2 , y2 , z2 ) ∈ R3 /Bv = 10v}   Bv =   10v  5 4 2 x2 10x2       4 5 2   y2  =  10y2  2 2 2 z2 10z2 −5x1 + 4y1 + 2z1 = 0 4x1 − 5y1 + 2z1 = 0 2x1 + 2y1 − 8z1 = 0 De donde se tiene: x2 = y2 y x2 = 2z2 , por lo que       x2 2z2 2       v =  y2  =  2z2  = z2  2  z2 z2 1 luego, dim V (λ2 ) = 1 32
  • 39. ´ Nociones de Algebra Lineal 33 2. Por tanto, como dim V (λ1 ) = 2 y dim V (λ2 ) = 1, existen (1, 0, −2), (0, 1, −2) ∈ V (λ1 ) (2, 2, 1) ∈ V (λ2 ) autovectores de  B tales que la matriz  1 0 2   P = 0 1 2 es no singular, verific´ndose que a −2 −2 1     5/9 −4/9 2/9 5 4 2 1 0 2 −1     P BP =  −4/9 5/9 −2/9  4 5 2  0 1 2  2/9 2/9 1/9 2 2 2 −2 −2 1    5/9 −4/9 2/9 1 0 2 −1    P BP = D =  −4/9 5/9 −2/9  0 1 2  20/9 20/9 10/9 −2 −2 1   1 0 0   P −1 BP = D =  0 1 0  0 0 10 Por lo tanto B es diagonalizable. 1.6.1. Diagonalizaci´n de Matrices Idempotentes y Nilpotentes o Las propiedades respecto del caracter diagonalizable o no de las matrices idempotentes y nilpotentes, se recogen en el resultado que se indica a continuaci´n. o Proposici´n 1.30. Sea A una matriz cuadrada de orden n no nula. Entonces se verifica o que: i) Si A es idempotente, A es diagonalizable. ii) Si A es nilpotente, A no es diagonalizable. Demostraci´n 7. o i) Es consecuencia inmediata de la propiedad (III) de la proposici´n 1.17 o ii) Si A es nilpotente, entonces λ = 0 (con m = n) es su unico autovalor, por tanto, ´ dado que V (λ) = {x ∈ Rn : Ax = 0} y dimV (λ) = n − rg(A) < n la matriz A no es diagonalizable 33
  • 40. ´ Nociones de Algebra Lineal 34 En resumen, las matrices que son sim´tricas, idempotentes o que tienen todos sus au- e tovalores distintos son diagonalizables. En general, una condici´n necesaria y suficiente o para que una matriz A sea diagonalizable, es que la dimensi´n del subespacio de auto- o vectores asociado a cada autovalor, coincida con el orden de multiplicidad del autovalor, es decir, existe una base de autovectores del espacio en que esta definida la aplicaci´n o lineal cuya matriz asociada es A. Cabe indicar que no todas las matrices son diagonalizables. Ejemplo. Sea   19/2 −9/2 −7/2   C =  13 −6 −9/2  10 −5 −9/2 cuyo polinomio caracter´ıstico es: fC (λ) = −λ3 − λ2 + 7 λ − 1 y cuyos autovalores son 4 2 λ1 = 0,5, con m1 = 2 y λ2 = −2, con m2 = 1. Vamos a verificar si C es diagonalizable. Hallemos V (λ1 = 0,5) : V (λ1 ) = {v = (x1 , y1 , z1 ) ∈ R3 /Cv = 0,5v} (C − 0,5I) = 0      9 −9/2 −7/2 x1 0       13 −13/2 −9/2   y1  =  0  10 −5 5 z1 0 Luego V (λ1 ) = {v = (x1 , y1 , z1 ) ∈ R3 /z1 = 0, y1 = 2x1 }. As´ dimV (λ1 ) = 1 = m1 . ı, Por lo tanto C no es diagonalizable. Sin embargo existe una matriz “casi diagonal”, llamada matriz de Jordan que veremos en el siguiente cap´ ıtulo. 34
  • 41. Cap´ ıtulo 2 Forma Can´nica de Jordan o Como se vio en el cap´ ıtulo anterior no todas las matrices cuadradas son diagonalizables. Sin embargo, siempre que el cuerpo elegido K sea el de los n´ meros complejos C es u posible encontrar una matriz “casi diagonal”semejante a una dada. El inter´s de poder determinar una matriz semejante con estructura diagonal o casi dia- e gonal radica en la facilidad para calcular potencias de matrices con estas caracter´ ısticas. En este cap´ıtulo se establece que si A ∈ Mn es una matriz con aij ∈ C; i, j = 1, . . . , n, entonces existe una matriz de Jordan semejante a A, que en ocasiones es diagonal. Una matriz de Jordan est´ constituida por bloques elementales cuya definici´n es la a o siguiente. Definici´n 2.1. Se dice que una matriz B = (bij ), i, j = 1, . . . , r es una caja o bloque o elemental de Jordan si se verifica que   b i=j  bij = 1 i+1=j   0 resto es decir B es de la forma   b 1 0 ··· 0 0    0 b 1 ··· 0 0   . .  B= . . . ... . .  . . . . . . . .      0 0 0 ··· b 1  0 0 0 ··· 0 b El unico valor propio de Jr (b) es b. ´ Se puede escribir tambi´n Jr (b) = bIr + Jr (0) e Una vez conocida la definici´n de caja o bloque elemental, el concepto de matriz de o Jordan es el que se se˜ ala a continuaci´n. n o 35
  • 42. Forma Can´nica de Jordan o 36 Definici´n 2.2. Dada J ∈ M se dice que J es una matriz de Jordan si es diagonal por o bloques, y cada uno de los bloques es una caja elemental de Jordan, esto es:   Jn1 (λ1 ) 0 ··· 0    0 Jn2 (λ2 ) ··· 0  J =  . . .. .    . . . . . . .  0 0 · · · Jns (λs ) (n1 +n2 +···+ns )×(n1 +n2 +···+ns ) La matriz de Jordan tambi´n se denota por e Jn1 (λ1 ) ⊕ Jn2 (λ2 ) ⊕ · · · ⊕ Jns (λs ) Teorema 2.3. (Cayley-Hamilton) Sea A una matriz de orden n × n y sea fA (x) su polinomio caracter´ ıstico. Entonces fA (A) = 0. Demostraci´n 8. o Primero probaremos que si A es semejante a B con A = P BP −1 entonces: “si f es un polinomio f (x) = a0 + a1 x + · · · + am xm , y si para una matriz cuadrada X, f (X) = a0 I + a1 X + · · · + am X m , entonces f (A) = P f (B)P −1”. En efecto: f (A) = a0 I + a1 A + · · · + am Am = a0 P P −1 + a1 P BP −1 + · · · + am (P BP −1 )m = a0 P P −1 + a1 P BP −1 + · · · + am P B m P −1 = P (a0 I + a1 B + · · · + am B m )P −1 f (A) = P f (B)P −1 Ahora supongamos que J = P −1 AP es la forma de Jordan asociada a A. Se tiene entonces que: fA (A) = fA (P JP −1) = P fA (J)P −1 Adem´s fA (x) = fJ (x) (pues A y J son semejantes.) a Entonces fA (A) = P fJ (J)P −1 . Luego, debemos demostrar que: fJ (J) = 0. 36