Algebra lineal, algebra multilineal y k-teoria algebraica clasica, Emilio Lluis Puebla

  • 1,906 views
Uploaded on

...

...

  • Full Name Full Name Comment goes here.
    Are you sure you want to
    Your message goes here
    Be the first to comment
    Be the first to like this
No Downloads

Views

Total Views
1,906
On Slideshare
0
From Embeds
0
Number of Embeds
0

Actions

Shares
Downloads
87
Comments
0
Likes
0

Embeds 0

No embeds

Report content

Flagged as inappropriate Flag as inappropriate
Flag as inappropriate

Select your reason for flagging this presentation as inappropriate.

Cancel
    No notes for slide

Transcript

  • 1. A L G E B R A L I N E A L,ALGEBRA MULTILINEAL Y K-TEORIAALGEBRAICA CLASICAEMILIO LLUIS-PUEBLA Universidad Nacional Aut´noma de M´xico o e
  • 2. 2008 Segunda Edici´n: Sociedad Matem´tica Mexicana, o a Publicaciones ElectrnicasISBN 968-9161-31-8 (versi´n en l´ o ınea)ISBN 968-9161-32-6 (versi´n en CD) oISBN 968-9161-33-4 (versi´n en papel) o1997 Primera Edici´n: Sistemas T´cnicos de Edici´n, S.A. de C.V. o e oSan Marcos, 102. Tlalpan 14000 M´xico, D.F. ec 1996 Emilio Lluis-PueblaObra compuesta y formada en TEX por Flor de Mar´ Aceff S´nchez ıa aHecho en M´xico. eISBN 970-629-149-0Sistemas T´cnicos de Edici´n e oABCDEFGHIJKL-M 9987
  • 3. INDICE GENERALPrefacio vIntroducci´n o 1Cap´ ıtulo IConceptos Fundamentales I.1 Espacios vectoriales y funciones lineales 21 I.2 Subespacios vectoriales 27 I.3 Espacios vectoriales de dimensi´n finita o 35 I.4 Aplicaciones 42 I.5 La matriz asociada a una funci´n lineal o 47Cap´ ıtulo IIVectores Caracter´ ısticos y Formas Can´nicas o II.1 Valores y vectores caracter´ ısticos 55 II.2 Teorema de Cayley-Hamilton 62 II.3 El polinomio m´ınimo 67 II.4 Forma can´nica triangular o 70 II.5 Forma can´nica de Jordan o 77
  • 4. iv Indice generalCap´ ıtulo IIIFormas y Operadores III.1 Formas bilineales 87 III.2 Formas bilineales, sim´tricas, alternantes, cuadr´ticas e a y hermitianas 97 III.3 Producto escalar 103 III.4 Operadores adjuntos 109 III.5 El teorema espectral 114Cap´ıtulo IVAlgebra Multilineal y K-Teor´ Algebraica Cl´sica ıa a IV.1 Producto tensorial 121 IV.2 Producto exterior 128 IV.3 Estructuras algebraicas 135 IV.4 K0 y K1 141Ap´ndice eNotas Hist´ricas o 151Bibliograf´ ıa 173Lista de S´ ımbolos 175Indice Anal´ ıtico 177
  • 5. PREFACIOLa mayor´ de los textos de Algebra Lineal que se encuentran en nuestro pa´ en ıa ıs,espa˜ol, son traducciones de textos en ingl´s dirigidos a estudiantes de diversas n edisciplinas (Psicolog´ M´sica, Medicina, etc., para los cuales es obligatorio cur- ıa, usar Algebra Lineal). Por lo tanto, dichos textos no poseen el enfoque que debentener para estudiantes de las carreras de Matem´ticas o F´ a ısica, por mencionar algu-nas. Los textos en otros idiomas dirigidos exclusivamente a estudiantes de F´ ısica oMatem´tica son escasos y en espa˜ol lo son a´n m´s. Es as´ que nuestra intenci´n a n u a ı oes la de proveer a los estudiantes de carreras cient´ıficas de un enfoque serio, fun-damentado y moderno del Algebra Lineal. Hemos incluido el Algebra Multilineal,tema excluido de los programas usuales pero que nosotros pensamos que es de im-portancia fundamental, as´ como la notaci´n que se utiliza en f´ ı o ısica para tensores.No se ha descuidado el aspecto computacional, al contrario, se incluyen diversosejercicios de c´lculo expl´ a ıcito. Sin embargo, han sido incluidos una gran canti-dad de problemas interesantes que preparan al estudiante para realmente darle laoportunidad de crear matem´ticas. Todos ellos se resuelven utilizando el material aexpuesto. Como consecuencia del trabajo de resolverlos, le brindan al estudiante laoportunidad de redactar matem´ticas. a Suponemos que el lector est´ familiarizado con algunos de los temas b´sicos del a aAlgebra Superior, es decir, que ya conoce y maneja estructuras algebraicas comoI Q , I C , C [x], la definici´n de campo, y ha trabajado num´ricamente con N, I R, I I o ematrices, determinantes y sistemas de ecuaciones lineales. Es conveniente que hayaconocido los espacios vectoriales I n sobre el campo I R R. Este libro est´ dise˜ado para un curso de un a˜o (dos semestres, estudiando los a n ncap´ ıtulos I y II en el primero y los cap´ ıtulos III y IV en el segundo; o bien, haciendo
  • 6. vi Prefaciomodificaciones adecuadas, como por ejemplo, el cap´ ıtulo I, II.1, II.2, II.3 y III.3 enel primer semestre y el resto en el segundo). En la Introducci´n se presenta un panorama del presente texto. Obviamente no ose pretende que el lector que no conozca el tema pueda comprender lo que en ella seexpone. Al contrario, conforme el lector avance en el estudio, podr´ regresar a ella ay obtener una visi´n global del Algebra Lineal incluida en esta obra. Las refencias osin n´meros romanos indican resultados del cap´ u ıtulo en consideraci´n. o Hemos incluido un ap´ndice que contiene notas hist´ricas sobre algunos de los e oconceptos definidos en el texto. Tiene como finalidad la de motivar el estudio delAlgebra Lineal a trav´s del an´lisis de las ideas que dieron lugar a dichos conceptos e ay del conocimiento de quienes contribuyeron a ellos. No est´ dise˜ado para una a nlectura continua, m´s bien, lo est´ para ser consultado conforme el lector encuentre a alos conceptos en cada secci´n. Organizamos el ap´ndice de acuerdo al orden de las o esecciones indicadas con una A antepuesta. Durante varios a˜os he impartido cursos basados en el material aqu´ incluido a n ıalumnos de licenciatura, a quienes agradezco su atenci´n y sus oportunos comen- otarios. Del mismo modo, deseo agradecer a varios de mis colegas, entre ellos Mar´ Elena ıaGarc´ y Mary Glazman el haber utilizado versiones preliminares en sus cursos; muy ıaespecialmente a mi padre, Emilio Lluis Riera por haber hecho importantes comen-tarios, sugerencias y correcciones al haber utilizado el texto varios a˜os. Tambi´n, n emi mayor agradecimiento a mi esposa Flor de Mar´ Aceff, quien adem´s de haberlo ıa autilizado en sus cursos, hecho numerosas correcciones y proporcionado agradablesconversaciones sobre el libro, realiz´ la formaci´n y composici´n en el sistema T E X o o ode las m´ltiples versiones preliminares. Sin embargo, cualquier falta u omisi´n es u oexclusivamente m´ ıa. Igualmente, agradezco a Mar´ de Jes´s Figueroa el haber escrito las notas ıa uhist´ricas como consecuencia de su largo estudio de investigaci´n para realizar su o otesis doctoral y a Alejandro Garciadiego a quien agradecemos el asesoramientoexperto para la realizaci´n de dichas notas. o Finalmente, agradezco a Rosa Quintana la captura preliminar del texto. Estelibro, producto de varios a˜os de trabajo, se elabor´ durante su fase final bajo el n oauspicio del CONACYT a trav´s de una C´tedra Patrimonial. e a Emilio Lluis Puebla
  • 7. Prefacio viiPREFACIO (SEGUNDA EDICION) Este libro cumple ya m´s de diez a˜os de ser utilizado exitosamente como texto a nsobre la materia en diversas universidades del Continente Americano, incluyendoalgunas universidades de Estados Unidos de Norteam´rica y, desde luego, en M´xico. e e He tenido el gusto de ofrecer conferencias en muchas universidades de Cen-troam´rica y Sudam´rica donde me he encontrado con colegas, que llevan mi libro e ecomo texto. Me han solicitado una nueva edici´n pues la anterior es imposible ode conseguir. Esta nueva edici´n, donde he corregido algunos errores tipogr´ficos o ay atendido nuevas ideas o sugerencias que al trav´s de los a˜os me he hecho y e nhan hecho mis propios alumnos (a quienes mucho agradezco), la he incluido dentrode las Publicaciones Electr´nicas de la Sociedad Matem´tica Mexicana mostrando o a(como matem´tico y Editor Ejecutivo de las mismas) la confianza en este tipo de a o ´publicaci´n. Este tiene una excelente accesibilidad, as´ como un nulo costo, que ıde no ser as´ resultar´ elevado para los estudiantes y colegas de muchos lugares. ı, ıaLas Publicaciones Electr´nicas de la Sociedad Matem´tica Mexicana tienen acceso o alibre en l´ ınea, pueden copiarse en el ordenador o imprimirse en papel para usopersonal. Adem´s, el lector podr´ adquirir las publicaciones en CD o impresas en a apapel empastado.Primavera de 2008 Emilio Lluis-Puebla
  • 8. INTRODUCCIONSiempre que se habla de alguna rama de la Matem´tica se establecen los objetos ade estudio. Los objetos que estudiaremos ser´n los espacios vectoriales (que son un acaso especial de los m´dulos). Sea K un campo. Diremos que el conjunto V junto ocon la operaci´n binaria + y acci´n µ de K en V forman un espacio vectorial o osobre un campo K si bajo +, V es un grupo abeliano, µ distribuye tanto a lasuma de elementos de V como a la suma de elementos de K, la acci´n del producto ode dos elementos de K es igual a uno de ellos por la acci´n del otro y finalmente, ola acci´n del elemento unitario de K en V es trivial. o Los elementos de V se llaman vectores, los del campo K se llaman escalaresy la acci´n µ se llama multiplicaci´n escalar. K n , K[x] y el conjunto de las o omatrices de m × n con elementos en K denotado con Mm×n K son ejemplos deespacios vectoriales. ¿C´mo relacionamos dos espacios vectoriales sobre un campo K? As´ como a los o ıconjuntos los podemos relacionar mediante funciones, a los espacios vectoriales losrelacionaremos mediante funciones que preservan la estructura de espacio vectorialllamadas homomorfismos o funciones lineales (o aplicaciones o transforma-ciones lineales). Entonces, si U y V son espacios vectoriales sobre un campo K,f : U −→ V es un homomorfismo o funci´n lineal si f (u + v) = f (u) + f (v) y oadem´s f (αv) = αf (v); α ∈ K; u, v ∈ U . Resulta que la composici´n de homo- a omorfismos es un homomorfismo. Se dice que una funci´n lineal f : U −→ V es un oisomorfismo si existe una funci´n g: V −→ U tal que g ◦ f = 1U y f ◦ g = 1V . oEs un hecho el que si dicha g existe, es lineal, est´ determinada en forma unica, se a ´
  • 9. 2 Introducci´n odenota con f −1 y se llama inversa de f . Si existe un isomorfismo entre dos espaciosvectoriales U y V se dice que los espacios son isomorfos y escribimos U ∼ V . = Si K es un campo, el conjunto de homomorfismos o funciones lineales de U enV lo denotamos con HomK (U, V ) (o con L(U, V ), A(U, V )). Le podemos dar unaestructura de espacio vectorial sobre K. Una gran parte del Algebra Lineal consistedel estudio de este espacio vectorial. Dada una funci´n lineal f : U −→ V entre espacios vectoriales sobre un campo oK podemos considerar su n´cleo, es decir, el conjunto de todos los elementos ude U cuya imagen es el cero de V , denotado con ker f . Podemos considerarla imagen de f , es decir, el conjunto de los elementos de V que provienen deelementos de U , denotado con im f . Tambi´n podemos considerar subespacios de eun espacio vectorial. Estos son subconjuntos tales que el cero del espacio perteneceal subconjunto y este ultimo es cerrado bajo la suma y multiplicaci´n escalar. ´ o Sucede lo esperado: la imagen bajo una funci´n lineal de un subespacio es un osubespacio; la imagen inversa de un subespacio bajo una funci´n lineal es un sub- oespacio; en particular, el n´cleo y la imagen de una funci´n lineal son subespacios u o(de donde deben serlo). La suma de dos subespacios U y V de W , denotada U + V , es el conjunto detodas las sumas u + v donde u ∈ U y v ∈ V . Se dice que W es suma directainterna de U y V si todo elemento de W puede escribirse en forma unica como ´suma de uno de U y uno de V y escribimos W = U ⊕ V . Podemos definir la sumadirecta externa de espacios vectoriales {Vi }n sobre un campo K y la denotamos i=1con ⊕n Vi como el espacio vectorial cuyos elementos son listas ordenadas de la i=1forma (v1 , ..., vn ) con las operaciones usuales de suma y multiplicaci´n escalar. Si oun espacio vectorial V es suma directa interna de subespacios de V entonces esisomorfo a la suma directa externa de los mismos subespacios. En vista de estoultimo hablaremos de la suma directa.´ Un espacio vectorial es suma directa de dos subespacios si, y s´lo si, es suma ode ellos y su intersecci´n es vac´ La suma directa posee la siguiente propiedad o ıa.importante llamada universal: si ϕj : Vj −→ V son funciones lineales de espaciosvectoriales e ıj : Vj −→ ⊕Vi son las inclusiones para i ∈ I = {1, . . . , n}, entoncesexiste una funci´n lineal unica ϕ : ⊕n Vi −→ V tal que ϕ ◦ ıj = ϕj , j ∈ I. o ´ i=1
  • 10. Introducci´n o 3Esta propiedad caracteriza a la suma directa y podemos representarla mediante eldiagrama V ϕj ϕ  ıj Vj −→ ⊕n Vi i=1 Decimos que un vector v ∈ V es una combinaci´n lineal de elementos de un osubconjunto S de V si existe un n´mero finito de elementos {vi }n de S tal que u i=1 nv = i=1 αi vi , αi ∈ K. Las αi se llaman coeficientes. El conjunto de todas lascombinaciones lineales S de un subconjunto no vac´ S de V es un subespacio que ıocontiene a S y es el m´s peque˜o de los subespacios de V que contiene a S. Dicho a nespacio se llama subespacio generado por S y es, por lo tanto, la intersecci´n de otodos los subespacios que contienen a S. Como caso particular, si S = V , todoelemento de V es una combinaci´n lineal de elementos de S y diremos que V est´ o agenerado por el subconjunto S de V . El siguiente resultado es fundamental y es consecuencia de la propiedad universal ∼para la suma directa: considere K n = ⊕n Kj donde cada Kj = K, K un campo j=1 nfijo, g: {1, . . . , n} −→ K dada por i −→ ei y V un espacio vectorial sobre K.Entonces para toda funci´n f : {1, 2, ..., n} −→ V existe una funci´n lineal unica o o ´φ : ⊕n Kj −→ V tal que f = φ ◦ g, es decir, el siguiente diagrama conmuta: j=1 V φ f  n ∼ K = ⊕Kj ←− {1, 2, . . . , n} gLa funci´n g se llama funci´n can´nica. o o o Diremos que el conjunto {vj }n de vectores de V es (i) linealmente indepen- j=1diente si φ es inyectiva, (ii) un conjunto de generadores si φ es suprayectiva y (iii)una base si φ es biyectiva. En otras palabras, el conjunto {vj } es linealmente independiente si   n n φ αj ej  = αj vj = 0 j=1 j=1implica que αj = 0 para toda j = 1, . . . , n; αj ∈ Kj . El que φ sea suprayectiva nequivale a decir que todo elemento de V se puede escribir como j=1 αj vj , es decir,
  • 11. 4 Introducci´n ocomo una combinaci´n lineal. El que φ sea biyectiva quiere decir que todo elemento o nde V puede escribirse de una, y solamente una manera, en la forma j=1 αj vj . Esclaro que el conjunto {ej }n es una base de ⊕n Kj = K n llamada can´nica. j=1 j=1 o nTambi´n diremos que el conjunto {vj }j=1 de vectores de V es linealmente depen- ediente si no es linealmente independiente. Es inmediato, de la definici´n de base, que todo espacio vectorial V sobre un ocampo K con base {vj }j=1 es isomorfo a K n . Cualquier base de V posee la misma ncardinalidad y los espacios K n y K m son isomorfos si, y s´lo si, n = m. Esto nos opermite definir el concepto de dimensi´n. Definimos la dimensi´n de un espacio o ovectorial V sobre un campo K, denotada dim V , como el n´mero de elementos ude una de sus bases podemos poseer una teor´ de la dimensi´n para los espacios ıa ovectoriales. As´ podemos decir que dos espacios vectoriales son isomorfos si, y s´lo ı, osi, tienen la misma dimensi´n. o Un resultado que relaciona la dimensi´n de la suma de subespacios con la de ocada uno de ellos es dim (U + V ) = dim U + dim V − dim (U ∩ V )donde U y V son subespacios de alg´n espacio W , y como consecuencia inmediata u dim (U ⊕ V ) = dim U + dim V.Si f : U −→ V es una funci´n lineal entonces se tiene que o dim (U ) = dim (im f ) + dim (ker f ).Utilizaremos este hecho en lo subsecuente. Existe una relaci´n fundamental entre los homomorfismos y las matrices. Un osistema de m ecuaciones con n inc´gnitas puede escribirse en la forma o AX = Bdonde   a11 ··· a1n A= . . . .. . . , . . X = t (x1 , . . . , xn ) y B = t (b1 , . . . , bm ). am1 ··· amnEntonces cualquier matriz A de m × n determina una funci´n lineal f = o n mA: K −→ K (por abuso de notaci´n) dada por v −→ Av donde los vectores o
  • 12. Introducci´n o 5de K n y K m los colocamos como vectores columna. As´ la soluci´n de la ecuaci´n ı, o oAX = 0 es el n´cleo de la funci´n lineal f = A: K n −→ K m y por lo anterior u o dim (ker f ) = dim K n − dim (im f ) = n − rdonde r es el rango de A. Hemos visto que HomK (U, V ) es un espacio vectorial. Si dim U = m y dim V =n entonces dim HomK (U, V ) = mn. Sea f ∈ HomK (U, V ), β = {ui }m basei=1de U y β = {vi }n base de V . Como f (ui ) ∈ V , f (ui ) puede escribirse como i=1combinaci´n lineal de elementos de β , es decir o f (u1 ) = α11 v1 + ··· + α1n vn . . . . . . . . . f (um ) = αm1 v1 + ··· + αmn vn .Este sistema de ecuaciones lo podemos escribir en la forma      f (u1 ) α11 · · · α1n v1  .   . .  . .  . = . . . . . . . f (um ) αm1 · · · αmn vn   t α11 · · · α1nLa matriz  . . . .  se llama matriz asociada a f , la denotaremos con . . αm1 · · · αmn[f ]β y decimos que representa a f . β Si [u]β representa el vector traspuesto de coordenadas de u con respecto a labase β y [f (u)]β es el de f (u) con respecto a β entonces se tiene que [f ]β [u]β = [f (u)]β βes decir, multiplicar el vector de coordenadas de u con respecto a la base β por lamatriz [f ]β nos da el vector de coordenadas del vector f (u) con respecto a β . β Ahora consideremos dos bases de U : β = {ui }n y γ = {ui }n . Entonces i=1 i=1 1U (u1 ) = u1 = α11 u1 + ··· + α1n un . . . . . . . . . . . . 1U (un ) = un = αn1 u1 + ··· + αnn un .Luego, la matriz cuadrada   α11 ··· αn1 γ Nβ =  . . .  . . . α1n ··· αnn
  • 13. 6 Introducci´n ose llama matriz de transici´n de la base β en la base γ. o γ La matriz de transici´n Nβ puede verse como la matriz asociada a la funci´n o olineal 1U : U −→ U con respecto a las bases β y γ. Tenemos los siguientes resultados: (i) si f ∈ HomK (U, U ) y N es la matriz de transici´n de la base β = β a la base o γ = γ entonces [f ]γ = N −1 [f ]β N y γ β (ii) si f ∈ HomK (U, V ), N es la matriz de transici´n de la base β en la base γ o de U y M es la matriz de transici´n de la base β en la base γ de V entonces o [f ]γ = M −1 [f ]β N . γ βFinalmente, existe un isomorfismo HomK (U, U ) ∼ Mn (K) =dado por f −→ [f ]β . β Pasamos ahora al estudio del espacio vectorial HomK (U, U ) cuando U es un espa-cio vectorial de dimensi´n finita sobre K. o Sus elementos los llamaremosoperadores lineales. Podemos definir otra operaci´n binaria en HomK (U, U ) me- odiante ρ2 ρ1 (v) = ρ2 (ρ1 (v)) la cual hace de HomK (U, U ) un ´lgebra sobre K. As´ a ı,HomK (U, U ) es un objeto provisto de varias estructuras que lo hace sumamenteinteresante. (En efecto, si A es un ´lgebra con uno sobre un campo K entonces A aresulta ser isomorfa a una sub´lgebra de HomK (U, U ).) a El resultado (i) anterior nos lleva a definir lo siguiente: dos matrices cuadradas Ay B son similares (o semejantes) si A = N −1 BN con N una matriz invertible. Deaqu´ que las matrices A y B representan al mismo operador lineal f ∈ HomK (U, U ) ısi, y s´lo si, son similares una con la otra. La relaci´n de similaridad o semejanza es o ouna relaci´n de equivalencia, de manera que las matrices asociadas a un operador olineal espec´ ıfico constituyen una clase de equivalencia. Para el caso de matrices,sumarlas y multiplicarlas cuando ´stas son diagonales, es muy sencillo. Simplemente euno suma o multiplica los elementos correspondientes de las diagonales. Esta esuna buena raz´n para saber cuales matrices son similares a una matriz diagonal. o Un operador lineal f ∈ HomK (U, U ) es diagonalizable si para alguna base deU , la matriz asociada es diagonal. Tambi´n decimos que dicha base diagonaliza ea f . Entonces podemos afirmar que f es diagonalizable si, y s´lo si, existe una o −1matriz invertible N tal que N BN es diagonal. Quisi´ramos dar un criterio para esaber cu´ndo un operador lineal f es diagonalizable. Para ello necesitamos definir aalgunos conceptos.
  • 14. Introducci´n o 7 Sea f ∈ HomK (U, U ). Si existe un vector u ∈ U distinto de cero y un escalarλ ∈ K tal que f (u) = λu llamaremos a λ valor caracter´ ıstico y a u vector carac-ter´ ıstico correspondiente a λ. Resulta que el conjunto de vectores caracter´ ısticosUλ correspondientes a un valor caracter´ ıstico λ junto con el cero es un subespaciode U y es igual al n´cleo del operador λI − f . El siguiente teorema nos dice cuando uun operador es diagonalizable: TEOREMA. Sea f ∈ HomK (U, U ). f es diagonalizable si, y s´lo si, U oposee una base que consta de vectores caracter´ ısticos de f . A continuaci´n asociaremos unos polinomios a operadores lineales y matrices ocuadradas que son de fundamental importancia. Sea A una matriz cuadrada con coeficientes en K, ρ ∈ HomK (U, U ) y f (x) =an xn + an−1 xn−1 + · · · + a1 x + a0 un polinomio con coeficientes en K. Definimos f (A) = an An + an−1 An−1 + · · · + a1 A + a0 I y n n−1 f (ρ) = an ρ + an−1 ρ + · · · + a1 ρ + a0 Idonde ρn es la composici´n de ρ, n veces. Se dice que A o ρ es ra´ del polinomio o ızf si f (A) = 0 o si f (ρ) = 0. Si A es una matriz cuadrada de m × m, la matrizcuadrada λIm − A se llama matriz caracter´ ıstica, el determinante de la matrizcaracter´ıstica se llama polinomio caracter´ ıstico y lo denotamos con pA (λ) = |λIm − A|.Resulta que toda matriz cuadrada es ra´ de su polinomio caracter´ ız ıstico. Este es elfamoso enunciado de Cayley-Hamilton. Un criterio para saber si un escalar es un valor caracter´ ıstico es la siguiente PROPOSICION. α ∈ K es un valor caracter´ ıstico de A si, y s´lo si, α oes una ra´ del polinomio caracter´ ız ıstico pA (λ). Es un hecho el que si el polinomio caracter´ ıstico de A es producto de factoreslineales de la forma (λ − a1 )(λ − a2 ) · · · (λ − an ) con todas las ai distintas entoncesA es similar a una matriz diagonal con las ai en la diagonal. Finalmente, si dosmatrices A y B son similares entonces pA (λ) = pB (λ). Debido a ´sto ultimo decimos que la funci´n Mn (K) −→ K[λ] que asigna a cada e ´ omatriz de n × n su polinomio caracter´ ıstico es un invariante bajo la relaci´n de osimilaridad. ıstico es un polinomio para el cual pA (A) = 0, A una El polinomio caracter´matriz cuadrada. Puede haber otros polinomios para los cuales A sea ra´ El ız.
  • 15. 8 Introducci´n opolinomio m´nico de menor grado tal que A es su ra´ lo denotaremos con mA (λ) y o ızse llama el polinomio m´ ınimo de A. Dicho polinomio es unico, divide al polinomio ´caracter´ıstico y posee los mismos factores irreducibles que el caracter´ ıstico de A.Tambi´n, λ es un valor caracter´ e ıstico de A si, y s´lo si, λ es una ra´ del polinomio o ızm´ınimo de A. A´n m´s, una matriz cuadrada A es diagonalizable si, y s´lo si, u a omA (λ) = (λ−λ1 )(λ−λ2 ) · · · (λ−λr ) donde λ1 , . . . , λr son los valores caracter´ ısticosdistintos de A. El concepto de similaridad de matrices se traduce en uno de similaridad deoperadores el cual, al igual que el de matrices, es una relaci´n de equivalencia. o¿C´mo determinamos si dos operadores son similares? o equivalentemente, ¿c´mo o opodemos distinguir las clases de equivalencia? Para hacerlo, definiremos ciertasmatrices llamadas formas can´nicas, una para cada clase de equivalencia. Definimos oun conjunto de formas can´nicas para una relaci´n de equivalencia ∼ en un o oconjunto C como un subconjunto F de C que consiste de exactamente un elementode cada clase de equivalencia de ∼. As´ una vez obtenidas, bastar´ comparar ı, asi son las mismas para cada operador. Existen varias formas can´nicas, nosotros oconsideraremos en este texto unicamente la triangular y la de Jordan. ´ Sea U un subespacio de V . Denotamos con v + U el conjunto de todas lasexpresiones de la forma v + u donde u recorre todos los elementos de U . Dichosv + U los llamaremos clases laterales de U en V . Es inmediato comprobar quecualesquiera dos clases laterales o son ajenas o son iguales. Denotamos con V /U elconjunto de todas las clases laterales de U en V . Si definimos (u + U ) + (w + U ) =(v + w) + U y λ(v + U ) = λv + U hacemos de V /U un espacio vectorial llamadoespacio cociente. La funci´n lineal p: V −→ V /U tal que v −→ v + U se llama oproyecci´n can´nica. o o Si U es un subespacio de V tal que ρ(U ) ⊂ U para ρ ∈ HomK (V, V ) decimosque U es invariante bajo ρ. Dicho operador ρ: V −→ V induce un operador deU denotado ρ|U . Se sabe que dim V = dim U + dim V /U . Diremos que unoperador ρ ∈ HomK (V, V ) puede representarse por una matriz triangular si sumatriz asociada con respecto a alguna base lo es. Su polinomio caracter´ ıstico sefactoriza como producto de polinomios lineales. Lo inverso es cierto: si el polinomiocaracter´ıstico de ρ se factoriza como producto de polinomios lineales entonces existeuna base de V para la cual la matriz asociada es triangular. Traducido a matricestenemos que si A es una matriz cuadrada cuyo polinomio caracter´ ıstico se factorizaen polinomios lineales entonces A es similar a una matriz triangular. Se dice que un operador ρ ∈ HomK (V, V ) es descomponible como suma di-recta de operadores ρ|Ui si V = ⊕s Ui con Ui invariante bajo ρ. Escribimos i=1
  • 16. Introducci´n o 9 sρ = ⊕i=1 ρ|Ui . El siguiente resultado se conoce como el teorema de la descom-posici´n primaria. o TEOREMA. Si ρ ∈ HomK (V, V ) posee el polinomio m´ ınimo mρ (λ) = f1 (λ)η1 f2 (λ)η2 . . . fs (λ)ηsdonde los fi (λ) son polinomios m´nicos irreducibles distintos, entonces V oes suma directa de los subespacios ker fi (ρ)ηi y ´stos son invariantes bajo eρ. A´n m´s, fi (λ)ηi es el polinomio m´ u a ınimo de ρ|ker fi (ρ)ηi . Como consecuencia se tiene que ρ ∈ HomK (V, V ) posee una matriz asociadadiagonal si, y s´lo si, su polinomio m´ o ınimo mρ (λ) es producto de polinomios linealesdistintos. Un operador lineal ρ ∈ HomK (V, V ) se llama nilpotente si ρn = 0 para algunan > 0. El entero r es el ´ ındice de nilpotencia de ρ si ρr = 0 pero ρr−1 = 0.Tambi´n diremos que una matriz cuadrada A es nilpotente si An = 0 y r es el eındice de nilpotencia de A si Ar = 0 pero Ar−1 = 0. Obs´rvese que el polinomio´ em´ınimo de un operador nilpotente de ´ ındice r es mρ (λ) = λr y su unico valor ´caracter´ıstico es el cero. Entonces existe una base del espacio vectorial tal quela matriz asociada a ρ es triangular. El encontrar formas can´nicas para dichos ooperadores nilpotentes nos permiten encontrar formas can´nicas para cualquier ooperador que se factorice como producto de polinomios lineales. As´ tenemos la ısiguiente PROPOSICION. Si ρ ∈ HomK (V, V ) es de ´ ındice de nilpotencia r y v ∈V tal que ρr−1 (v) = 0, entonces el conjunto {ρr−1 (v), ρr−2 (v), . . . , ρ(v), v} esuna base del subespacio que genera, cuya matriz asociada posee ´ ındice denilpotencia r y es de la forma   0 1 0 ··· 0 0 0 0 1 ··· 0 0 . . . . . . . . . . . . . . . .  0 0 0 ··· 0 1 0 0 0 ··· 0 0A´n m´s, si ρ ∈ HomK (V, V ) es de ´ u a ındice de nilpotencia r, entonces ρ poseeuna matriz asociada diagonal por bloques que son de la forma de la matrizanterior. Se sabe que existe al menos una matriz de orden r y que las otras son de ´rdenes o≤ r. El n´mero de matrices est´ determinado en forma unica por ρ y el n´mero de u a ´ umatrices de todos los ´rdenes es igual a la dimensi´n de ker ρ. o o
  • 17. 10 Introducci´n o Finalmente tenemos el siguiente TEOREMA. Sea ρ ∈ HomK (V, V ) tal que sus polinomios caracter´ ısticoy m´ınimo se factorizan como producto de potencias de polinomios lineales.Entonces ρ posee una matriz asociada diagonal por bloques J , llamada formacan´nica de Jordan de ρ cuyo bloques son de la forma o   λi 1 0 ··· 0 0 0 λi 1 ··· 0 0  . . Jij =  .. . . . . . . .   . . . . .  0 0 0 ··· λi 1 0 0 0 ··· 0 λi As´ dos operadores lineales cualesquiera son similares si, y s´lo si, poseen la ı, omisma forma can´nica de Jordan salvo el orden de los bloques. o Una funci´n f : U × V −→ W de espacios vectoriales sobre un campo K se llama obilineal si es lineal en cada variable cuando la otra se mantiene fija. El ser bilinealno quiere decir que sea lineal ni viceversa. Si W = K diremos que f es una formabilineal y denotamos con L2 (U, V ; K) el conjunto de formas bilineales de U × Ven K. Si U = V , utilizaremos la notaci´n Bil(V ) y le podemos dar a Bil(V ) una oestructura de espacio vectorial sobre K. Considere el espacio vectorial sobre K, HomK (V, K). Sus elementosf : V −→ K se llaman funcionales lineales o formas lineales, se acostumbradenotar a HomK (V, K) con L1 (V ; K) o simplemente V ∗ y se le llama espaciodual de V . Se tienen los siguientes resultados: (i) Sea {vi }n una base de V y {fi }n ∈ HomK (V, K) = V ∗ funcionales tales i=1 i=1 que fi (vj ) = δij . Entonces {fi }n es una base de V ∗ y dim V ∗ = n. i=1 (ii) Si {fi }n es una base de V ∗ entonces {fij }n i=1 i,j=1 dada por fij (u, v) = fi (u)fj (v) es una base para Bil(V ) y dim Bil(V ) = n2 .(iii) Sea γ = {vi }n una base de V y f : V × V −→ K una forma bilineal. Si i=1 n n u = i=1 αi vi y v = j=1 βj vj entonces n f (u, v) = αi βj f (vi , vj ). i,j=1 Si A = (aij ) es la matriz cuadrada tal que aij = f (vi , vj ) entonces n f (u, v) = αi βj aij = t [u]γ A[v]γ i,j=1
  • 18. Introducci´n o 11y A se llama matriz asociada a la forma bilineal f con respecto a la base γ,tambi´n denotada [f ]γ . Se tienen los siguientes resultados para una forma bilineal ef : V × V −→ K: (i) Si N es la matriz de transici´n de una base γ en otra γ de V entonces la o matriz B asociada a f con respecto a γ es B = t N AN . (ii) Bil(V ) ∼ Mn (K) dado por f −→ [f ]γ . =(iii) Si N es la matriz de transici´n de la base {ui } en la base {vi }, entonces t N −1 o es la matriz de transici´n de las bases duales {fi } en {gi }. o ∼(iv) Sea V ∗∗ = (V ∗ )∗ , entonces V = V ∗∗ . Diremos que una forma bilineal de V es sim´trica si f (u, v) = f (v, u) para toda eu, v ∈ V . Sucede que una forma bilineal es sim´trica si, y s´lo si, su matriz asociada e oes sim´trica, i.e. es igual a su traspuesta. Si f posee una matriz asociada diagonal eentonces f es sim´trica. e La forma cuadr´tica asociada a f es la funci´n q: V −→ K dada por q(v) = a of (v, v), v ∈ V . Sea A la matriz sim´trica asociada a la forma bilineal sim´trica e e tf . Entonces q(X) = f (X, X) = XAX = i,j aij xi xj . Si A es diagonal, q(X) =a11 x2 + · · · + ann x2 . La f´rmula f (u, v) = [q(u + v) − q(u) − q(v)]/2 permite obtener 1 n of a partir de q. Si f es una forma bilineal sim´trica y K es de caracter´ e ıstica diferente de 2,entonces existe una base de V tal que f posee una matriz asociada diagonal. Unamatriz sim´trica B es congruente con una matriz sim´trica A si existe una matriz e e tno singular o invertible N tal que B = N AN . As´ si A es una matriz sim´trica con ı, eelementos en un campo de caracter´ ıstica diferente de 2, entonces A es congruentecon una matriz diagonal. Decimos que una forma bilineal f es antisim´trica si f (u, v) = −f (v, u) para etoda u, v ∈ V . Si V es de dimensi´n finita, f es antisim´trica si, y s´lo si, su matriz o e o tasociada A es tal que A = − A, es decir, antisim´trica. Tambi´n decimos que f e ees alternante si f (v, v) = 0 para toda v ∈ V . Se tiene que toda forma bilineal essuma de una sim´trica y una antisim´trica. e e Si consideramos el caso en que K = C , una forma f : V × V −→ C se llama I Ihermitiana si f es lineal en la primera variable y f (u, v) = f (v, u) para u, v ∈ V .La forma cuadr´tica q: V −→ I asociada a f , dada por q(v) = f (v, v) se llama a Rforma cuadr´tica hermitiana. a Si K = I decimos que f : V × V −→ I est´ definida positivamente si R, R af (v, v) > 0 para toda v ∈ V , v = 0.
  • 19. 12 Introducci´n o Ahora consideraremos espacios vectoriales sobre I o C . En ellos podemos R Idefinir una forma bilineal sim´trica o hermitiana definida positivamente , lla- emada producto escalar o interno sobre I o C . Este producto escalar permite R Idefinir los conceptos de longitud y ´ngulo. La norma o longitud ||v|| de un vector av que pertenece a un espacio vectorial sobre K = I o C se define como R I v, v .Dos vectores son ortogonales si v, w = 0. El ´ngulo θ entre dos vectores u, v ∈ V adiferentes de cero se define como θ = arccos( u, v /||u|| ||v||) para θ ∈ [0, π]. El con-junto U ⊥ = {v ∈ V | u, v = 0 ∀u ∈ U , U un subconjunto de V } se llama conjuntoortogonal a U y resulta ser un subespacio de V . Sea {vi }n un conjunto de vectores i=1de V . {vi }n es ortogonal si vi , vj = 0 para i = j y ortonormal si vi , vj = δij . i=1El siguiente teorema es de particular importancia y en su demostraci´n se establece oun procedimiento para encontrar una base ortonormal de un espacio vectorial dedimensi´n finita llamado procedimiento de Gram-Schmidt: o TEOREMA. Sea {ui }n una base del espacio vectorial de dimensi´n i=1 o nfinita V sobre I o C . Entonces existe una base ortonormal {vi }i=1 de V R Ital que la matriz de transici´n es triangular. o Un resultado util es el siguiente: si U es un subespacio de V entonces V ∼ U ⊕U ⊥ . ´ =As´ podemos hablar de una proyecci´n llamada ortogonal de V en U , pU : V −→ V ı, otal que im pU = U y ker pU = U ⊥ . Un espacio que posee un producto escalar se llama espacio con producto es-calar. Sea V un espacio vectorial con producto escalar sobre un campo K = IRo C y g: V −→ V ∗ dada por g(v)(u) = gv (u) = u, v . As´ claramente, cada vec- I ıtor v ∈ V nos determina un funcional gv . Lo inverso tambi´n sucede: si V es de edimens´n finita y f : V −→ K un funcional, entonces existe un vector unico v ∈ V o ´tal que f (u) = u, v , para toda u ∈ V . Estos resultados nos dicen que cualquierfuncional es igual al producto escalar con un vector fijo de V . Sea u un elemento fijo de un espacio vectorial de dimensi´n finita V con producto o ∗escalar y ρ ∈ HomK (V, V ). Consideremos f ∈ V un funcional dada por f (v) = ρ(v), u . Luego, existe un vector unico u ∈ V tal que ρ(v), u = v, u para toda ´v ∈ V . Definimos ρ : V −→ V tal que ρ∗ (u) = u . Entonces ρ(v), u = v, ρ∗ (u) , ∗ρ∗ resulta ser lineal, unico, y se le llama operador adjunto de ρ. ´ Si A es la matriz asociada a ρ con respecto a una base ortonormal de V entoncesla matriz asociada a ρ∗ es A∗ = t A. Se define un isomorfismo f : V −→ V entre espacios vectoriales con productoescalar como un isomorfismo que preserva productos escalares, es decir, tal que f (v), f (u) = v, u para toda v, u ∈ V .
  • 20. Introducci´n o 13 Sea φ: HomK (V, V ) −→ HomK (V, V ) el operador dado por φ(ρ) = ρ∗ . Sonequivalentes las afirmaciones ρ∗ = ρ−1 y ρ(v), ρ(u) = v, u para toda v, u en V .Un operador unitario (ortogonal) ρ: V −→ V definido en un espacio vectorial conproducto escalar V sobre K = C (K = I es un isomorfismo de espacios vectoriales I R)con producto escalar ρ: V −→ V . Entonces ρ es unitario (ortogonal) si K = C (K = I I y ρ∗ = ρ−1 . La matriz asociada a un operador unitario ρ es A (llamada matriz R)unitaria) si, y s´lo si, A∗ = A−1 . La matriz asociada a un operador ortogonal ρ es oA (llamada matriz ortogonal) si, y s´lo si, t A = A−1 . Si A es una matriz ortogonal, o|A| = ±1. El conjunto de matrices ortogonales de n × n posee una estructura degrupo, llamado grupo ortogonal y es denotado con O(n). El conjunto de matricesortogonales que poseen determinante 1 es denotado con SO(n) y llamado grupoortogonal especial. Finalmente, decimos que un operador ρ: V −→ V es normalsi conmuta con su adjunto, es decir, si ρρ∗ = ρ∗ ρ. An´logamente, una matriz acompleja A es normal si conmuta con su conjugada traspuesta, i.e. AA∗ = A∗ A.As´ los operadores ortogonales y unitarios son normales. ı, Un operador ρ ∈ HomK (V, V ) es autoadjunto si φ(ρ) = ρ∗ = ρ. Si K = I Rle llamaremos tambi´n sim´trico y si K = C le llamaremos hermitiano. Los e e Ioperadores autoadjuntos son importantes por lo siguiente: si ρ es sim´trico, su epolinomio caracter´ ıstico se factoriza en factores lineales, los vectores caracter´ ısticosson ortogonales y posee una matriz asociada diagonal. En t´rminos de matrices, esi A es una matriz sim´trica real entonces existe una ortogonal N tal que B = eN −1 AN = t N AN es diagonal. En forma similar, si ρ ∈ HomK (V, V ) es normalentonces posee una matriz asociada diagonal. En t´rminos de matrices, si A es enormal entonces existe una matriz unitaria N tal que B = N −1 AN = N ∗ AN esdiagonal. El siguiente resultado establece una descomposici´n de ρ llamada espectral de oρ: sea ρ un operador normal, entonces existen proyecciones ortogonales pVλi de V sen Vλi tales que ρ = i=1 λi pVλi , pVλi = I y pVλi ◦ pVλj = 0 si i = j. Generalizando el concepto de funci´n bilineal, diremos que una funci´n o of : V1 × V2 × · · · × Vm −→ W entre espacios vectoriales sobre un campo K esmultilineal si para cada i = 1, . . . , m se tiene que f (v1 , . . . , vi + vi , . . . , vm ) = f (v1 , . . . , vi , . . . , vm ) + f (v1 , . . . , vi , ..., vm )y f (v1 , . . . , λvi , . . . , vm ) = λf (v1 , . . . , vi , . . . , vm )donde λ ∈ K y vi , vi ∈ Vi . Es decir, f es lineal en vi si las dem´s variables se amantienen fijas.
  • 21. 14 Introducci´n o Sea f : V1 × · · · × Vm −→ T una funci´n multilineal y h: T −→ W una funci´n o olineal entre espacios vectoriales. Entonces h ◦ f es una funci´n multilineal. Nos opreguntamos, ¿cu´ndo es posible tener T y W de tal manera que toda funci´n mul- a otilineal se obtenga de esta forma? En otras palabras, ¿cu´ndo podemos encontrar aT y f de tal manera que dada cualquier funci´n multilineal g: V1 × · · · × Vm −→ W oexista una y solamente una funci´n lineal h: T −→ W tal que h◦f = g? La pregunta oanterior suele conocerse con el nombre de problema universal para funciones mul-tilineales. Definimos el producto tensorial de los espacios {Vi }m como la pareja i=1(T, f ) que resuelve dicho problema universal y denotamos T con V1 ⊗ V2 ⊗ · · · ⊗ Vm ,o con ⊗m Vi . La condici´n g = h ◦ f puede visualizarse en el siguiente diagrama i=1 oconmutativo f V1 × · · · × Vm −→ T  g h WEs relativamente f´cil comprobar la unicidad y existencia del producto tensorial aque adem´s posee las siguientes propiedades: a (i) V ⊗K K ∼ V ∼ K ⊗K V = = (ii) (U ⊗K V ) ⊗K W ∼ U ⊗K (V ⊗ W ) ∼ U ⊗K V ⊗K W = =(iii) U ⊗K V ∼ V ⊗K U . = Existen isomorfismos que relacionan el producto tensorial con el conjunto dehomomorfismos (v´ase [LL1]). e Sea {Vi }m una familia de espacios vectoriales de dimensi´n finita sobre un i=1 ocampo K. Diremos que la sucesi´n o f0 f1 f2 f3 fm−2 fm−1 fm 0 −→ V1 −→ V2 −→ V3 −→ · · · −→ Vm−1 −→ Vm −→ 0es exacta en Vi si im fi−1 = ker fi y diremos que es exacta si es exacta en cadaVi para i = 1, . . . , m. Sucede que si se tiene una sucesi´n exacta como la anterior, entonces odim V1 − dim V2 + dim V3 − · · · + (−1)m−1 dim Vm = 0 y si 0 −→ V1 −→V2 −→ V3 −→ 0 es una sucesi´n exacta (llamada sucesi´n exacta corta) entonces o oV2 ∼ V1 ⊕ V3 . = Consideremos una funci´n multilineal f : ×k Vi −→ W . Diremos que f es al- o i=1ternante si f (v1 , . . . , vk ) = 0 siempre que vi = vj para algunas i = j.
  • 22. Introducci´n o 15 Sea Vi = V un espacio vectorial de dimensi´n finita sobre un campo K. La o k kpotencia exterior de grado k de V es la pareja ( V, f ) donde V es un espacio k kvectorial sobre K y f : ×i=1 Vi −→ V es una funci´n multilineal alternante tal que opara todo espacio vectorial W sobre K y para toda funci´n multilineal alternante o k kg: ×i=1 Vi −→ W , existe una funci´n lineal unica h: o ´ V −→ W tal que g = h ◦ f ,es decir, tal que el siguiente diagrama conmuta f k ×n Vi i=1 −→ V  g h W Si {vi }k son vectores de V , denotaremos a f (v1 , . . . , vk ) con v1 ∧ · · · ∧ vk . i=1 2Tambi´n denotaremos e V como V ∧ V . Es f´cil comprobar que u ∧ v = −v ∧ u. a kSi definimos V como el cociente ⊗k Vi /U donde U es el subespacio de ⊗k Vi i=1 i=1generado por todos los elementos de la forma v1 ⊗ · · · ⊗ vk con vi = vj para algunas ki = j es claro que la existencia y unicidad de V est´n garantizadas. La dimensi´n a o k nde V resulta ser . k Sea A: V −→ V un endomorfismo (sin´nimo de operador lineal) de V . Su- o npongamos que dim V = n. Definamos la funci´n g = gA : ×n Vi −→ o i=1 Vdonde Vi = V dada por gA (v1 , . . . , vn ) = A(v1 ) ∧ · · · ∧ A(vn ). Como g es mul- n ntilineal alternante, existe una funci´n lineal unica h = hA : o ´ V −→ V tal que n nhA (v1 ∧ · · · ∧ vn ) = A(v1 ) ∧ · · · ∧ A(vn ). Como dim V = = 1, hA es nsimplemente la multiplicaci´n por un escalar denotado |A| o det(A), i.e. o hA (v1 ∧ · · · ∧ vn ) = |A|(v1 ∧ · · · ∧ vn ). El determinante de A: V −→ V se define como el escalar |A|. Es f´cil com- a n nprobar que si {vi }i=1 es una base de V y si escribimos A(vi ) = j=1 αij vj parai = 1, . . . , n donde (αij ) es la matriz de A con respecto a la base {v1 , . . . vn }, eldeterminante de A es igual a σ sigσα1σ(1) · · · αnσ(n) donde σ es una permutaci´n odel conjunto {1, 2, . . . , n} As´ definimos el determinante de una matriz (αij ) ı, ncomo el determinante del endomorfismo A: V −→ V dado por A(vi ) = j=1 αij vjpara i = 1, . . . , n y lo denotamos con |αij | o det(αij ). Podemos definir una multiplicaci´n llamada producto exterior y denotarla por o k k+conveniencia con ∧: V × V −→ V mediante la regla ∧((u1 ∧ · · · ∧ uk ), (v1 ∧ · · · ∧ v )) = u1 ∧ · · · ∧ uk ∧ v1 ∧ · · · ∧ v .
  • 23. 16 Introducci´n oEste producto exterior es asociativo, distributivo y anticonmutativo. Para comple- 0 1tar los ´ ındices se define V = K y V = V . Entonces tenemos un ´lgebra agraduada 2 3 V = (K, V, V, V, . . .)llamada algebra exterior o de Grassman de V . Tambi´n, si T k (V ) = ⊗k V = V ⊗K · · · ⊗K V , llamado espacio tensorial de egrado k de V definimos una multiplicaci´n o ·: T k V × T V −→ T k+ mediante ((u1 ⊗ · · · ⊗ uk ), (v1 ⊗ · · · ⊗ v )) −→ u1 ⊗ · · · ⊗ uk ⊗ v1 ⊗ · · · ⊗ vAs´ tenemos un ´lgebra graduada (donde T 0 V = K y T 1 V = V ) ı a TV = (K, V, T 2 V, T 3 V, T 4 V, . . .)llamada ´lgebra tensorial de V . a Sea V ∗ el espacio dual de V . Consideremos el espacio tensorial T k V de grado k deV. Consideremos tambi´n T V ∗ y denotemos con T k (V ) el producto e(⊗ V ) ⊗ (⊗ V ). Es decir, T k V ⊗ T (V ∗ ) = T k (V ). Con esta notaci´n se tiene k ∗ oque T0 (V ) = T k (V ) = ⊗k V , T 0 (V ) = ⊗l V ∗ y T0 (V ) = K. Llamaremos a T k V k 0espacio tensorial de tipo (k, ) y cada uno de sus elementos lo llamaremos tensorde tipo (k, ). Un tensor de tipo (k, 0) se llamar´ tensor contravariante de grado ak y uno de tipo (0, ) tensor covariante de grado . Un tensor de tipo (0, 0) es 1simplemente un escalar. Un elemento de T0 V = V se llama vector contravarian-te y uno de T1 V = V ∗ se llama vector covariante. Si k = 0 y = 0, un tensor 0mixto es un tensor de tipo (k, ). Sea {vi }n una base de V y {f j }j=1 la base de V ∗ , (con ´ i=1 n ındices superiores). Esf´cil ver que los tensores a vi1 ⊗ · · · ⊗ vik ⊗ f j1 ⊗ · · · ⊗ f jcon iµ , jη = 1, . . . , n; µ = 1, . . . , k y η = 1, . . . , forman una base de T k (V ).Entonces cualquier tensor del tipo (k, ) puede escribirse en forma unica como ´ t= ξj1 ···ik vi1 ⊗ · · · ⊗ vik ⊗ f j1 ⊗ · · · ⊗ f j . i 1 ···j Los ´ ındices iµ se llaman ´ ındices contravariantes, los jη ´ ındices covariantes i,...iky ξj,...j se llaman componentes de t con respecto a la base {vi }.
  • 24. Introducci´n o 17 La K-Teor´ Algebraica Cl´sica es parte del Algebra Lineal General. Intuiti- ıa avamente, la K-Teor´ Algebraica Cl´sica es una generalizaci´n del teorema que ıa a oestablece la existencia y unicidad de las bases para espacios vectoriales y tambi´n ede la Teor´ de Grupos del grupo lineal general sobre un campo K. ıa Definiremos un grupo denotado K0 (X) asociado a un monoide conmutativo Xmediante la siguiente propiedad universal: sea g: X −→ G un homomorfismo demonoides del monoide X en el grupo conmutativo G. Definimos el grupo K0 (X)como el unico grupo que cumple que, si f : X −→ K0 (X) es un homomorfismo de ´monoides entonces existe un homomorfismo de grupos unico h: K0 (X) −→ G tal ´que g = h ◦ f f X −→ K0 (X)  g h GK0 (X) se llama grupo de Grothendieck del monoide X. Sea K un campo y consideremos los espacios vectoriales de dimensi´n finita sobre oK. Denotemos con V la clase de isomorfismo del espacio vectorial de dimensi´n ofinita V . Es inmediato verificar que el conjunto X = { V } de clases de isomorfismoes un monoide conmutativo cuya operaci´n binaria est´ dada por o a V + W = V ⊕W . Sea g: X −→ Z dado por g( V ) = dim V un homomorfismo de monoides. Sea ZF el grupo abeliano libre con base el conjunto de clases de isomorfismo de losespacios vectoriales. Sea R el subgrupo de F generado por las expresiones de laforma V ⊕ W − V − W donde 0 −→ V −→ V ⊕ W −→ W −→ 0 recorre todaslas posibles sucesiones cortas para los espacios vectoriales. Sea K0 (K) = F/R elgrupo cociente y denotemos con [V ] la proyecci´n o imagen de [V ] en el cociente. oEntonces, siempre que se tenga una sucesi´n exacta corta de espacios vectoriales o 0 −→ V −→ V ⊕ W −→ W −→ 0tendremos una expresi´n de la forma [V ⊕ W ] = [V ] + [W ] en K0 (K), es decir, oK0 (K) est´ generado por {[V ] | V es un espacio vectorial} sujeta a las relaciones ade la forma [V ] + [W ] = [V ⊕ W ]. El homomorfismo g: X −→ Z da lugar a un homomorfismo h: K0 (K) −→ Z Z Zdado por h([V ]) = dim V el cual es biyectivo. Es decir, para los espacios vectoriales
  • 25. 18 Introducci´n o ımbolo EVK se tienesobre un campo K, los cuales podemos representar por el s´ ∼ Z.que K0 (EVK ) = K0 (K) = Z ¿Qu´ sucede para otras estructuras cuando consideramos anillos que no nece- esariamente son campos? Si consideramos los Z odulos proyectivos finitamente Z-m´generados Ab, es decir, los grupos abelianos libres de rango finito se sabe queK0 (Z ∼ Z Sin embargo, si consideramos los Z odulos finitos Abf se sabe que Z) = Z. Z-m´ ∼ Q + . Pero si consideramos los Z odulos finitamente generados AbfgK0 (Abf ) = I Z-m´ ∼ Z.se tiene que K0 (Abfg) = Z Como antes, sea K un campo y denotemos con K n el producto K × · · · × Kn veces. El producto tensorial de dos espacios vectoriales sobre K es un espaciovectorial sobre K. Como K n ⊗ K m ∼ K nm los espacios vectoriales son cerrados =bajo el producto tensorial. Entonces podemos dar a K0 (K) una estructura de anillomediante [V ] · [W ] = [V ⊗K W ]. Consideremos el conjunto de las transformaciones lineales invertibles a trav´sede uno asociado de matrices. Sea V un espacio vectorial de dimensi´n n sobre un ocampo K. Denotemos con GL(V ) (o con AutK (V )) el conjunto de todas las fun-ciones lineales de V en V que sean biyectivas (invertibles). Podemos proporcionarlea este conjunto una estructura de grupo definiendo una operaci´n binaria o ◦: GL(V ) × GL(V ) −→ GL(V )mediante la composici´n o (f ◦ g)(v) = f (g(v)).Claramente GL(V ) es un grupo bajo ◦. Ahora definamos otro conjunto. Denotemos con GLn (K) el conjunto de lasmatrices de n × n con elementos en el campo K que poseen inverso, es decir, elconjunto de todas las matrices invertibles o no singulares de n × n con elementosen K. Podemos definir en GLn (K) una operaci´n binaria o ·: GLn (K) × GLn (K) −→ GLn (K) (A, B) −→ A · Bdonde · denota la multiplicaci´n de matrices. o Es f´cil comprobar que a(GLn (K), ·) es un grupo cuyo elemento de identidad es la matriz diagonal In .Llamaremos a GLn (K) el grupo lineal general de grado n sobre K. Existe una estrecha relaci´n entre los grupos GL(V ) y GLn (K), a saber, si oescogemos una base fija de V , cada funci´n lineal biyectiva de V en V posee una o
  • 26. Introducci´n o 19matriz asociada de n × n con elementos en K la cual es no singular o invertible.Esta correspondencia establece un isomorfismo entre los grupos GL(V ) y GLn (K)debido a que cuando se componen dos funciones lineales, ´sta composici´n est´ e o arepresentada por la multiplicaci´n de sus matrices asociadas. o Consideremos un tipo especial de matrices de GLn (K), que llamaremos elemen-tales y que son aquellas que difieren de la matriz identidad In s´lo en un elemento o ımbolo eλ .λ ∈ K fuera de la diagonal. Dichas matrices las denotaremos con el s´ ij ımbolo [A, B] como el producto de las matrices ABA−1 B −1 y lo Definimos el s´llamaremos conmutador de A y B donde A, B ∈ GLn (K). Se tiene la siguiente f´rmula para el conmutador de matrices elementales: o   1λµ si j = k, i = l µ [ei,j , ek,l ] = eil λ si j = k, i = l  −λµ ekj si j = k, i = l. Denotemos con En (K) el subgrupo de GLn (K) generado por todas las matriceselementales eλ , λ ∈ K, 1 ≤ i = j ≤ n, llamado grupo elemental lineal de K. ij Si cada matriz A ∈ GLn (K) la identificamos con la matriz A 0 ∈ GLn+1 (K) 0 1obtendremos inclusiones GL1 (K) ⊂ GL2 (K) ⊂ GL3 (K) ⊂ . . . . Sea GL(K) = ∞ n=1 GLn (K), la uni´n de los grupos GLn (K) la cual llamaremos grupo lineal ogeneral infinito de K. Podemos concebir a GL(K) como el grupo que constade todas las matrices invertibles infinitas A = (aij ) con aij ∈ K, 1 ≤ i < ∞,1 ≤ j < ∞ y aij = δij , la delta de Kronecker para toda i, j excepto un n´mero ufinito de i, j. Entonces GLn (K) ⊂ GL(K) y lo vemos como el subgrupo de todaslas (aij ) ∈ GL(K) con aij = δij para toda i, j > n. La inclusi´n de GLn (K) oen GLn+1 (K) se restringe a la inclusi´n de En (K) en En+1 (K) y, en GL(K), el osubgrupo E(K) = ∪∞ En (K) n=1se llama grupo elemental infinito de K. Se puede probar un resultado de White-head: [GL(K), GL(K)] = E(K). Definimos el grupo cociente GL(K)/E(K) como el K-grupo algebraico de ´ ındiceuno del campo K denotado con K1 (K). Luego K1 (K) = GL(K)/[GL(K), GL(K)].
  • 27. 20 Introducci´n o Obs´rvese que si f : K −→ K es un homomorfismo de campos se tiene un homo- emorfismo de grupos inducido por f f∗ : GL(K) −→ GL(K )que env´ a E(K) en E(K ), siendo as´ que f induce un homomorfismo de grupos ıa ıK1 (f ): K1 (K) −→ K1 (K ). Como K es conmutativo podemos considerar el determinante de una matriz comoun homomorfismo de grupos det: GL(K) −→ K ∗ donde K ∗ denota las unidadesde K. Definamos SL(K) = ker(det), o sea, todas las matrices de GL(K) con determi-nante uno, y lo llamaremos grupo especial lineal o infinito de K. det induce unhomomorfismo, que por abuso de notaci´n, tambi´n lo denotaremos con o e det: K1 (K) = GL(K)/E(K) −→ K ∗el cual posee un inverso K ∗ = GL1 (K) −→ GL(K) −→ GL(K)/E(K) = K1 (K). Si definimos SK1 (K) = SL(K)/E(K) = ker(det: K1 (K) −→ K ∗ ) resulta queK1 (K) ∼ SK1 (K) ⊕ K ∗ . Como K ∗ puede considerarse conocido, el c´lculo de = aK1 (K) se limita al de SK1 (K). Obs´rvese que SK1 (K) es trivial si, y s´lo si, para e ocualquier matriz A ∈ SLn (K) podemos transformar la matriz A 0 0 Ikpara k adecuada, en la identidad In+k mediante operaciones elementales por rengl´n oo columna. Si SK1 (K) es trivial, entonces K1 (K) =∼ K ∗ . Este resulta ser el casopara el campo K y en general para cualquier dominio euclidiano. As´ K1 (K[x]) = ı ∼ ∗K y K1 (Z = Z)) ∼ {−1, +1}. Podemos generalizar todo lo anterior poniendo un anillo conmutativo Λ en lugarde un campo K. V´anse [LL1] y [LL2] para una lectura posterior. e
  • 28. Cap´ ıtulo ICONCEPTOS FUNDAMENTALES I.1 ESPACIOS VECTORIALES Y FUNCIONES LINEALESSea K un campo. 1.1 DEFINICION. Un espacio vectorial sobre un campo K es un conjuntono vac´ V con una operaci´n binaria ıo o +: V × V −→ V (u, v) −→ u + vy una funci´n o µ: K × V −→ V (α, v) −→ µ(α, v) = αvque cumplen los siguientes axiomas: (i) u + v = v + u (ii) (u + v) + w = u + (v + w)(iii) Existe O ∈ V tal que v + O = v(iv) Para cada v ∈ V existe un elemento, denotado con −v, tal que v + (−v) = O
  • 29. 22 Cap´ ıtulo I Conceptos fundamentales (v) α(u + v) = αu + αv (vi) (α + β)v = αv + βv(vii) (αβ)v = α(βv)(viii) Para 1 ∈ K, 1v = v; (α, β, 1 ∈ K; u, v, w ∈ V ). Los elementos u, v, w, . . . del espacio vectorial sobre K se llaman vectores. Loselementos del campo K se llaman escalares y la funci´n µ se llama multiplicaci´n o oescalar. Los primeros cuatro axiomas hacen de V , junto con la operaci´n binaria +, un ogrupo conmutativo, por lo que no se requiere utilizar par´ntesis al sumar vectores ey el orden de los sumandos carece de importancia. Tambi´n, el vector O es unico y e ´el inverso −v de v es unico (problema 1.1). La resta u − v se define como u + (−v); ´u, v ∈ V . Los siguientes cuatro axiomas ((v) a (viii)) se refieren a la “acci´n” del campo oK en V . Veamos algunas propiedades que se pueden deducir de ellas. 1.2 PROPOSICION. Sea V un espacio vectorial sobre un campo K .Entonces (i) 0v = O; 0 ∈ K, O ∈ V . (ii) (−α)v = α(−v) = −αv; α ∈ K, v ∈ V . Demostraci´n. (i) Sabemos que 0 + 0 = 0 en K. Luego, utilizando el axioma o(vi) de 1.1 tenemos que 0v + 0v = (0 + 0)v = 0v.Sumando −0v a ambos lados obtenemos que 0v = O. (ii) Como α + (−α) = 0, α ∈ K tenemos que O = 0v = (α + (−α))v = αv + (−α)v. Sumando −αv a ambos lados se tiene que −αv = (−α)v. Tomando v+(−v) = O (axioma (iv)), obtenemos (problema 1.2(i)) O = αO = α(v + (−v)) = αv + α(−v). Sumando −αv a ambos lados obtenemos −αv = α(−v). Luego, (−α)v = α(−v) = −αv. Obs´rvese que, en la demostraci´n precedente, cuando tomamos α + (−α), el e osigno + se refiere a la suma del campo K y cuando consideramos v + (−v), el signo+ se refiere a la suma del espacio vectorial V .
  • 30. § 1 Espacios vectoriales y funciones lineales 23 A continuaci´n veamos varios ejemplos de espacios vectoriales: o 1.3 EJEMPLO. Sea K un campo. Definamos en K n la suma +: K n × K n −→ K n ((α1 , . . . , αn ), (β1 , . . . , βn )) −→ (α1 , . . . , αn ) + (β1 , . . . , βn ) mediante(α1 , α2 , . . . , αn ) + (β1 , β2 , . . . , βn ) = (α1 + β1 , α2 + β2 , . . . , αn + βn ); αi , βi ∈ K. Definamos una multiplicaci´n escalar o µ: K × K n −→ K n (α, (α1 , . . . , αn )) −→ α(α1 , . . . , αn ) mediante α(α1 , . . . , αn ) = (αα1 , . . . , ααn ); α, αi ∈ K. Es f´cil comprobar que K n junto con las operaciones de suma y multiplicaci´n a oescalar es un espacio vectorial sobre K. Observe que este ejemplo establece que, enparticular, el campo de los n´meros reales I = I 1 , as´ como I n , (n un entero u R R ı Rmayor o igual que 1), son espacios vectoriales sobre I Tambi´n C n es un espacio R. e Ivectorial sobre C y sobre I Sin embargo, I n no es un espacio vectorial sobre C . I R. R I 1.4 EJEMPLO. Sea K un campo. Sea V = Mm×n K, el conjunto de matricesde m × n con elementos en K, con la suma y multiplicaci´n por un escalar usuales. oEntonces V es un espacio vectorial sobre K. 1.5 EJEMPLO. Sea V el conjunto de funciones de un conjunto no vac´ S enıoun campo K, i.e., V = K S . Si definimos la suma de dos funciones f, g ∈ K S como(f + g)(s) = f (s) + g(s) y la multiplicaci´n escalar mediante (αf )(s) = αf (s), os ∈ S, es inmediato comprobar que V es un espacio vectorial sobre K. 1.6 EJEMPLO. Sea V = K[x] el conjunto de todos los polinomiosα0 + α1 x + α2 x2 + · · · + αn xn con coeficientes en un campo K. Entonces, Ves un espacio vectorial sobre K si definimos la suma y la multiplicaci´n por un oescalar de la manera usual. Veamos como relacionar dos espacios vectoriales sobre un campo K medianteuna funci´n que preserve la estructura de espacio vectorial. o
  • 31. 24 Cap´ ıtulo I Conceptos fundamentales 1.7 DEFINICION. Sean U y V espacios vectoriales sobre un campo K. Unafunci´n f : U −→ V se llama lineal o tambi´n homomorfismo de espacios vecto- o eriales si (i) f (u + v) = f (u) + f (v) y (ii) f (αv) = αf (v); u, v ∈ U ; α ∈ K. Obs´rvese que el + de u + v se refiere a la suma de U y que el + de ef (u) + f (v) se refiere a la suma de V . Lo mismo que αv denota la multiplicaci´n oescalar de U y αf (v) la de V . Si en (ii) tomamos α = 0 ∈ K, tenemos que f (0v) = f (O) = 0f (v) = O, luegof (O) = O, i.e., todo homomorfismo de espacios vectoriales (o funci´n lineal) env´ o ıael vector cero del dominio en el vector cero del codominio. Es obvio que las condiciones (i) y (ii) de la definici´n 1.7 son equivalentes a la osiguiente: f (αu + βv) = αf (u) + βf (v); α, β ∈ K; u, v ∈ U. Tambi´n se suele llamar a una funci´n lineal f , aplicaci´n lineal o transfor- e o omaci´n lineal. Utilizaremos cualquiera de estas denominaciones. o Nota. Por abuso de notaci´n se acostumbra escribir 0 en lugar de O. o 1.8 EJEMPLO. Sea U = I 3 y V = I con la suma y multiplicaci´n escalar R R ousuales. Definamos f : U −→ V mediante la regla f (x, y, z) = 3x − 2y + 2z. Veamosque f es lineal. Como f ((x1 , y1 , z1 ) + (x2 , y2 , z2 )) = f (x1 + x2 , y1 + y2 , z1 + z2 ) = 3(x1 + x2 ) − (y1 + y2 ) + 2(z1 + z2 )y f (x1 , y1 , z1 ) + f (x2 , y2 , z2 ) = (3x1 , −2y1 + 2z1 ) + (3x2 − 2y2 + 2z2 ),claramente se cumple la condici´n (i) de 1.7. Tambi´n, f (α(x, y, z)) = f (αx, αy, αz) o e= 3αx − 2αy + 2αz = α(3x − 2y + 2z) = αf (x, y, z), por lo que se cumple (ii) de1.7. 1.9 EJEMPLO. Sea U = V = I 2 . Definamos f : U −→ V mediante f (x, y) = R(x + 2, y + 3). Como f (0, 0) = (2, 3) = (0, 0), f no es lineal pues todo homomor-fismo de espacios vectoriales env´ el vector cero del dominio en el vector cero del ıacodominio. 1.10 PROPOSICION. La composici´n de dos homomorfismos de espa- ocios vectoriales sobre un campo K es un homomorfismo de espacios vecto-riales sobre K.
  • 32. § 1 Espacios vectoriales y funciones lineales 25 Demostraci´n. Sean f : U −→ V y g: V −→ W funciones lineales. Luego o (g ◦ f )(u + v) = g(f (u + v)) = g(f (u) + f (v)) = g(f (u)) + g(f (v)) = (g ◦ f )(u) + (g ◦ f )(v) Adem´s, (g ◦ f )(αu) = g(f (αu)) = g(αf (u)) = αg(f (u)) = α(g ◦ f )(u). Por lo atanto (g ◦ f ) es una funci´n lineal. o 1.11 DEFINICION. Sea f : U −→ V un homomorfismo (o funci´n lineal o oaplicaci´n lineal) de espacios vectoriales sobre un campo K. Diremos que f es un o ∼ =isomorfismo, y escribiremos f : U −→ V , si existe un homomorfismo g: V −→ Utal que g ◦ f = 1U y f ◦ g = 1V . Es f´cil comprobar (problema 1.9) que, si g existe, est´ determinada en forma a a −1unica; la denotaremos con f´ y se llama inverso de f . As´ f : U −→ V es ı,isomorfismo si, y s´lo si, es biyectiva. Diremos que dos espacios U y V sobre un o ∼ = ∼campo K son isomorfos si existe un isomorfismo f : U −→ V y escribiremos U = V .PROBLEMAS1.1 Sea V un espacio vectorial sobre un campo K. Pruebe que el vector O ∈ Ves unico y que el inverso de v ∈ V es tambi´n unico. ´ e ´1.2 Pruebe que (i) αO = O; α ∈ K, O ∈ V . (ii) Si αv = O entonces, α = 0 o v = O; α ∈ K, v ∈ V .(iii) (−1)v = −v; v ∈V.1.3 Proporcione con todo detalle el hecho de que V es un espacio vectorial en losejemplos 1.3, 1.4, 1.5 y 1.6.1.4 Sea U = V = K n . Pruebe que f : U −→ V dada por f (u1 , . . . , un ) =(u1 , u2 , . . . , un−1 , 0) es lineal.1.5 Sea V un espacio vectorial sobre un campo K. Pruebe que la funci´n o1V : V −→ V y la funci´n OV : V −→ V dadas por 1V (v) = v y OV (v) = O o
  • 33. 26 Cap´ ıtulo I Conceptos fundamentales∀v ∈ V , son lineales. 1V se llama homomorfismo identidad de V y OV se llamahomomorfismo trivial.1.6 Compruebe cuales aplicaciones son lineales y cuales no lo son: (i) f : K n −→ K m , f (v) = Av donde A es una matriz de m × n con elementos en el campo K. (ii) f : K 2 −→ K 2 , f (x, y) = (4y, 0)(iii) f : K 3 −→ K 3 , f (x, y, z) = (−z, x, y)(iv) f : K 2 −→ K 2 , f (x, y) = (x2 , 2y) (v) f : K 5 −→ K 4 , f (u, v, x, y, z) = (2uy, 3xz, 0, 4u)(vi) f : K 3 −→ K 3 , f (x, y, z) = (x + 2, y + 2, z + 2)1.7 Establezca que, (i) si V = R[x] es el espacio vectorial de los polinomios en xsobre I entonces la diferencial D: V −→ V dada por D(f ) = df /dx y la integral R, 1I: V −→ I dada por I(f ) = 0 f (x)dx son lineales. R (ii) la traza tr: Mn (K) −→ K de una matriz cuadrada (la suma de los elementosde su diagonal) es una funci´n lineal y que el determinante det: Mn (K) −→ K no oes una funci´n lineal. o1.8 Sea K un campo. Denotemos con HomK (U, V ) el conjunto de homomorfismoso funciones lineales del espacio vectorial U sobre K en el espacio vectorial V sobreK. Defina f + g: U −→ V mediante (f + g)(u) = f (u) + g(u), u ∈ U y αf : U −→ Vmediante (αf )(u) = α(f (u)), α ∈ K,u ∈ U . Pruebe que HomK (U, V ) es un espaciovectorial sobre K con las operaciones definidas. A menudo, tambi´n se utilizan las enotaciones L(U, V ) y A(U, V ) en lugar de HomK (U, V ).1.9 Pruebe que si f : U −→ V es como en 1.11, g est´ determinada en forma unica a ´y que f es isomorfismo si, y s´lo si es biyectiva. o1.10 Sea f : U −→ V una aplicaci´n lineal biyectiva de espacios vectoriales sobre oun campo K. Pruebe que la funci´n inversa f −1 : V −→ U es tambi´n lineal. o e1.11 Sea K un campo y V un espacio vectorial sobre K. Considere K como unespacio vectorial sobre s´ mismo. Pruebe que dado un vector v ∈ V , existe una ıfunci´n lineal unica h: K −→ V tal que h(1) = v. (Esta funci´n est´ dada por o ´ o ah(α) = αv.)
  • 34. § 2 Subespacios vectoriales 27 I.2 SUBESPACIOS VECTORIALESSiempre que consideramos un objeto matem´tico nos preguntamos por sus subob- ajetos. Es natural definir un subespacio vectorial de un espacio vectorial sobre uncampo K como un subconjunto que es a su vez un espacio vectorial sobre K bajolas mismas operaciones. Sin embargo para nuestra conveniencia lo definiremos deotra forma equivalente (problema 2.1). 2.1 DEFINICION. Un subconjunto U de un espacio vectorial V sobre uncampo K se llama subespacio vectorial de V si (i) el vector O de V pertenece a U , (ii) si v, w ∈ U entonces v + w ∈ U y(iii) si α ∈ K y v ∈ U entonces αv ∈ U . 2.2 EJEMPLO. El conjunto U de vectores de la forma (u1 , . . . , un−1 , 0) con uien el campo K forman un subespacio del espacio vectorial K n sobre K. 2.3 EJEMPLO. Sea V un espacio vectorial sobre un campo K. Los conjuntosV y {O} son subespacios de V , llamado este ultimo subespacio trivial y, por abuso ´de notaci´n, se acostumbra escribirlo simplemente como 0. o 2.4 EJEMPLO. Sea V = Mn K el espacio vectorial de las matrices de n × no cuadradas. Sea U el subconjunto de Mn K que consiste de las matrices quecumplan que aij = aji , llamadas sim´tricas. Entonces U es un subespacio de eMn K. 2.5 DEFINICION. Sea f : U −→ V un homomorfismo (funci´n lineal) de espa- ocios vectoriales sobre un campo K. El n´cleo de f , denotado ker f , es el conjunto ude todos los elementos u ∈ U tales que f (u) = 0. La imagen de f , denotada im f ,es el conjunto de f (u) con u ∈ U .
  • 35. 28 Cap´ ıtulo I Conceptos fundamentales 2.6 PROPOSICION. Sea f : U −→ V un homomorfismo (funci´n lineal) ode espacios vectoriales sobre un campo K . Entonces, si U es un subespaciode U , f (U ) es un subespacio de V y, si V es un subespacio de V , f −1 (V )es un subespacio de U . Demostraci´n. Veamos que f (U ) = {f (u)|u ∈ U } es un subespacio de V . oSean v, w ∈ f (U ), luego, existen u, u ∈ U tales que f (u) = v, f (u ) = w. ComoU es subespacio de U , u + u ∈ U y αu ∈ U . Como f es lineal, f (O) = O ∈ f (U ), v + w = f (u) + f (u ) = f (u + u ) ∈ f (U ), αv = αf (u) = f (αu) ∈ f (U ).Por lo tanto, f (U ) es un subespacio de V . Veamos que f −1 (V ) = {u ∈ U |f (u) ∈ V } es un subespacio de U . Sean u, u ∈f −1 (V ), entonces f (u) y f (u ) est´n en V . Como V es un subespacio de V y f aes lineal, f (O) = O ∈ V f (u + u ) = f (u) + f (u ) ∈ V f (αu) = αf (u) ∈ V , α ∈ K.Luego, f −1 (V ) es un subespacio de U . 2.7 COROLARIO. Sea f : U −→ V lineal. Entonces im f es un subespaciode V y ker f es un subespacio de U . Demostraci´n. Inmediata de 2.6 tomando U = U y V = 0. o 2.8 PROPOSICION. Sea {Vi }i∈I una familia de subespacios de un es-pacio vectorial V sobre un campo K indizada por un conjunto I . Entonces∩i∈I Vi es un subespacio de V . Demostraci´n. Sea α ∈ K; u, v ∈ ∩i∈I Vi . Como ∩i∈I Vi ⊂ Vi para cualquier oi ∈ I, tenemos que u, v ∈ Vi . Como Vi es subespacio de V , O ∈ Vi , u + v ∈ Vi yαu ∈ Vi para toda i ∈ I. Por lo tanto O ∈ ∩i∈I Vi , u + v ∈ ∩i∈I Vi y αu ∈ ∩i∈I Vi . 2.9 DEFINICION. Sean U y V subespacios vectoriales de un espacio vectorialW sobre un campo K. La suma de U y V , denotada U + V , es el conjunto detodas las sumas u + v donde u ∈ U , v ∈ V .
  • 36. § 2 Subespacios vectoriales 29 Es inmediato comprobar que U + V es un subespacio de W , (problema 2.5). 2.10 DEFINICION. Sean U y V subespacios del espacio vectorial W sobre uncampo K. Diremos que W es la suma directa interna de U y V si cada elementow ∈ W puede escribirse de una y solamente una manera como w = u + v; u ∈ U ,v ∈ V . En tal caso escribiremos W = U ⊕ V . 2.11 EJEMPLO. Sea W = I 4 , U = {(x, y, z, 0) ∈ I 4 |x, y, z, 0 ∈ I R R R} y 4 4V = {(0, 0, z, t) ∈ I |z, t, 0 ∈ I R R}. Entonces I = U + V pues cualquier vector en RI 4 es suma de vectores de U y de vectores de V . I 4 no es suma directa de U y R RV pues no son unicas las expresiones para w ∈ W . Por ejemplo, el vector (4,2,3,5) ´se puede escribir de varias maneras, como (4,2,1,0) + (0,0,2,5), o como (4,2,2,0) +(0,0,1,5). Sin embargo si tomamos W = I 4 , U = {(x, y, 0, 0) ∈ I 4 |x, y, 0 ∈ I R R R}y V = {(0, 0, z, t) ∈ I 4 |z, t, 0 ∈ I es claro que cualquier vector (x, y, z, t) puede R R}escribirse como suma de un vector en U y otro en V en una, y solamente una forma: (x, y, z, t) = (x, y, 0, 0) + (0, 0, z, t).Entonces I 4 = U ⊕ V . R Podemos definir la suma directa externa de espacios vectoriales {Vi }, i =1, . . . , n, sobre un campo K y la denotamos con ⊕n Vi como sigue: los elementos i=1de ⊕n Vi son listas de la forma (v1 , . . . , vn ); dos elementos de ⊕Vi son iguales, si i=1son iguales coordenada a coordenada; su suma y multiplicaci´n escalar est´n dadas o amediante (v1 , . . . , vn ) + (v1 , . . . , vn ) = (v1 + v1 , . . . , vn + vn ) y α(v1 , . . . , vn ) = (αv1 , . . . , αvn ), α ∈ K. Es inmediato comprobar que ⊕n Vi con las operaciones de suma y multiplicaci´n i=1 oescalar es un espacio vectorial sobre un campo K, y que, si V es la suma directainterna de V1 , . . . , Vn , entonces V es isomorfo a la suma directa externa de V1 , . . . , Vn(v´ase el problema 2.10). En vista de esto hablaremos de la suma directa. e 2.12 TEOREMA. W = U ⊕ V si, y s´lo si, W = U + V y U ∩ V = {0}. o Demostraci´n. Supongamos que W = U ⊕ V , esto es, w ∈ W se escribe de omanera unica como w = u + v; u ∈ U , v ∈ V . Luego W = U + V . Supongamos ´
  • 37. 30 Cap´ ıtulo I Conceptos fundamentalesque w ∈ U ∩ V . Entonces podemos escribir w como w = w + 0 con w ∈ U , 0 ∈ V ytambi´n w = 0 + w con 0 ∈ U , w ∈ V . Como cada expresi´n para w es unica por e o ´hip´tesis, w = 0. Luego U ∩ V = {0}. o Ahora, supongamos que W = U + V con U ∩ V = {0}. Sea w ∈ W . Comow = u + v, lo unico que debemos probar es que dicha expresi´n para w es unica. ´ o ´Supongamos que existe otra expresi´n para w de la forma w = u + v . Entonces ou + v = u + v . Luego u − u = v − v. Pero u − u ∈ U y v − v ∈ V y comoU ∩ V = {0}, u − u = 0 y v − v = 0. Luego u = u y v = v . Por lo tanto, w seexpresa en forma unica y W = U ⊕ V . ´ 2.13 COROLARIO. Sean f : U −→ V y g: V −→ W funciones linealesentre espacios vectoriales sobre un campo K tales que g ◦ f es isomorfismo.Entonces V ∼ im f ⊕ ker g . = Demostraci´n. Veamos que im f + ker g = V . Sea v ∈ V y g(v) ∈ W . Como ogf : U −→ W es un isomorfismo, existe u ∈ U tal que gf (u) = g(v). Sea v = f (u) ∈im f y v = v −v . Entonces g(v ) = g(v −v ) = g(v)−g(v ) = gf (u)−g(f (u)) = 0.Luego v ∈ ker g y, por lo tanto, v + v ∈ im f + ker g pues v era arbitraria. Veamos que im f ∩ker g = {0}. Sea v ∈ im f ∩ker g. Entonces, como v ∈ im f ,existe u ∈ U tal que f (u) = v. Como v ∈ ker g, g(v) = 0. Luego gf (u) = g(v) = 0.Como gf es un isomorfismo, u = 0. Luego f (u) = 0 y, por lo tanto, v = 0. Por2.12, V ∼ im f ⊕ ker g. = A continuaci´n estableceremos una propiedad, llamada universal, de la suma odirecta. 2.14 TEOREMA. Sea V un espacio vectorial sobre un campo K ,ϕi : Vi → V , i = 1, 2 funciones lineales de espacios vectoriales e ıi : Vi −→V1 ⊕ V2 , i = 1, 2 las inclusiones naturales. Entonces existe una funci´n olineal unica ϕ: V1 ⊕ V2 −→ V tal que ϕ ◦ ıi = ϕi , i = 1, 2. ´ Demostraci´n. La afirmaci´n del enunciado puede representarse en el siguiente o odiagrama: V ϕ1 ϕ ϕ2  ı 1 ı 2 V1 −→ V1 ⊕ V2 ←− V2
  • 38. § 2 Subespacios vectoriales 31 Definamos ϕ(v1 , v2 ) = ϕ1 (v1 ) + ϕ2 (v2 ). Es f´cil comprobar que ϕ: V1 ⊕ V2 −→ V aes la unica funci´n lineal tal que el diagrama anterior conmuta, i.e., ϕ ◦ ıi = ϕi , ´ oi = 1, 2.Problema 2.9 El teorema precedente caracteriza a la suma directa y se puede generalizarf´cilmente a n sumandos con solamente considerar i = 1, 2, . . . , n. El diagrama acorrespondiente es V ϕj ϕ  ıj n Vj −→ i=1 Vi ndonde ıj denota la inclusi´n natural de Vj en o i=1 Vi . 2.15 DEFINICION. Decimos que un vector v de un espacio vectorial V sobreun campo K es una combinaci´n lineal de elementos de un subconjunto S de V osi existe un n´mero finito de elementos {vi }n de S tal que v = α1 v1 + · · · + αn vn , u i=1αi ∈ K. Las αi se llaman coeficientes. Para simplificar la notaci´n, y cuando no haya posibilidad de confusi´n, quitare- o o ımites del conjunto. Por ejemplo escribiremos {vj } en lugar de {vj }n .mos los l´ j=1 2.16 TEOREMA. El conjunto de todas las combinaciones lineales S deun subconjunto no vac´ S del espacio vectorial V sobre un campo K es un ıosubespacio de V que contiene a S y es el subespacio m´s peque˜o de V que a ncontiene a S. Demostraci´n. Sea v ∈ S, como v = 1v entonces v ∈ S y es inmediato ocomprobar que O ∈ S . Si u, v ∈ S entonces u = α1 u1 + · · · + αn un y v =β1 v1 + · · · + βm vm ; αi , βj ∈ K; ui ,vj ∈ S. Entonces u + v = α1 u1 + · · · + αn un +β1 v1 + · · · + βm vm y αu = α(α1 u1 + · · · + αn un ) = αα1 u1 + · · · + ααn un . Luegou + v y αu pertenece a S . As´ S es un subespacio de V . ı, Supongamos que U es un subespacio de V que contiene a S y supongamos queu1 , . . . , un ∈ S ⊂ U . Entonces α1 u1 , . . . , αn un ∈ U con αi ∈ K. Esto significa queU contiene a todas las combinaciones lineales de S, i.e., U contiene a S . 2.17 DEFINICION. El subespacio m´s peque˜o de un espacio vectorial V a n
  • 39. 32 Cap´ ıtulo I Conceptos fundamentalessobre un campo K que contiene a un subconjunto S de V se llama subespaciogenerado por S. Por el teorema 2.16, S es el subespacio generado por un subconjunto S deV . Adem´s, observe que como es el subespacio m´s peque˜o de V que contiene a a na S, S es igual a la intersecci´n de todos los subespacios que contienen a S. Si o S = V , todo elemento de V es una combinaci´n lineal de elementos de S. En este ocaso, diremos que V est´ generado por el subconjunto S de V . a 2.18 EJEMPLO. Sea S = {(1, 0, 0, 0), (0, 1, 0, 0), (0, 0, 1, 0), (0, 0, 0, 1)} unsubconjunto de I 4 . Considere las combinaciones lineales de elementos de S, i.e., Rexpresiones de la forma α1 (1, 0, 0, 0) + α2 (0, 1, 0, 0) + α3 (0, 0, 1, 0) + α4 (0, 0, 0, 1).Es claro que cualquier vector de I 4 puede escribirse como combinaci´n lineal de R ovectores de S; luego S = I 4 . R 2.19 EJEMPLO. Sea S = {u1 , u2 } donde u1 = (2, 3, 4) y u2 = (1, 6, 7) sonvectores en V = I 3 . Entonces S es el plano dado por la ecuaci´n (x, y, z) = R oα1 (2, 3, 4) + α2 (1, 6, 7). Es decir, cada punto (x, y, z) ∈ S es tal que x = 2α1 + α2 ,y = 3α1 + 6α2 y z = 4α1 + 7α2 .PROBLEMAS2.1 Pruebe que el subconjunto U del espacio vectorial V es un subespacio de V si,y s´lo si, U es un espacio vectorial sobre K con respecto a las mismas operaciones ode V .2.2 Muestre con todo detalle el hecho de que U sea un subespacio de V en losejemplos 2.2 y 2.4.2.3 Pruebe, sin utilizar la proposici´n 2.6, la afirmaci´n de 2.7. o o
  • 40. § 2 Subespacios vectoriales 332.4 Pruebe que el conjunto soluci´n (i.e., el conjunto de todas las soluciones) X ode un sistema de m ecuaciones lineales homog´neo con n inc´gnitas y coeficientes e oen un campo K α11 x1 + · · · + α1n xn = 0 α21 x1 + · · · + α2n xn = 0 . . . . . . αm1 x1 + · · · + αmn xn = 0es un subespacio del espacio vectorial K n sobre K llamado subespacio soluci´n. oObserve que el conjunto soluci´n de un sistema no homog´neo de ecuaciones lineales o econ n inc´gnitas no es un subespacio de K n . o2.5 Pruebe que U + V es un subespacio de W donde U, V y W son los definidosen 2.9.2.6 Geom´tricamente, explique qu´ significan en I 3 las combinaciones lineales e e Rde uno, dos y tres vectores en todas sus posibles elecciones.2.7 Verifique si el vector v = (2, 8, 1) ∈ I 3 es una combinaci´n lineal de los R ovectores (i) v1 = (3, 8, 0), v2 = (2, 1, 4) y v3 = (0, 2, 8) y (ii) v1 = (0, 4, 6), v2 = (3, 6, 8) y v3 = (2, 3, 1).2.8 Demuestre que una funci´n lineal f : U −→ V entre espacios vectoriales sobre oun campo K es inyectiva si, y s´lo si, ker f = {0}. o2.9 Pruebe que ϕ en 2.14 es lineal y unica. ´2.10 (a) Compruebe que la suma directa externa ⊕n Vi de los espacios vectoriales i=1Vi , i = 1, . . . , n sobre K es un espacio vectorial sobre un campo K. (b) Establezca el isomorfismo entre la suma directa interna y externa de la familia{Vi }n . i=12.11 Sean v1 , . . . vn vectores de un espacio vectorial V sobre un campo K. Se diceque estos vectores son linealmente dependientes si existen escalares α1 , . . . , αn ∈K, no todos iguales a cero, tales que n α1 v1 + · · · + αn vn = αi vi = 0. i=1
  • 41. 34 Cap´ ıtulo I Conceptos fundamentalesTambi´n se dice que un conjunto de vectores es linealmente independiente si no ees linealmente dependiente. Pruebe que un conjunto finito de vectores de V es linealmente dependiente si, ys´lo si, alg´n vector del conjunto es una combinaci´n lineal de los restantes. o u o
  • 42. § 3 Espacios vectoriales de dimensi´n finita o 35 I.3ESPACIOS VECTORIALES DE DIMENSION FINITAIniciaremos esta secci´n estudiando, desde otro punto de vista, los conceptos de odependencia e independencia lineal definidos en el problema 2.11. Veremos queambos puntos de vista coinciden. Consideremos la suma directa K n = ⊕n Kj con cada Kj igual a K considerado j=1como espacio vectorial sobre s´ mismo. Sea ıi : Ki −→ ⊕n Kj la inclusi´n natural ı j=1 odada por ıi (α) = (0, . . . , α, . . . , 0), (α en el lugar i). Por el problema 1.11 y como ıies lineal, la inclusi´n queda determinada por su valor en 1, ıi (1) = (0, . . . , 1, . . . , 0) = oei . Observe que cada u ∈ ⊕n Kj puede escribirse en forma unica como u = j=1 ´α1 e1 + α2 e2 + · · · + αn en con αj ∈ Kj . Denotaremos con g la funci´n o g: {1, . . . , n} −→ ⊕n Kj j=1 i −→ eidada por g(i) = ei . (g es simplemente una funci´n.) o 3.1 PROPOSICION. Para todo espacio vectorial V sobre un campo Ky para toda funci´n f : {1, 2, . . . , n} −→ V existe una funci´n lineal unica o o ´ nφ: ⊕j=1 Kj −→ V tal que f = φ ◦ g . V φ f  g ⊕n Kj j=1 ←− {1, . . . , n} Demostraci´n. Sea u = α1 e1 + · · · + αn en ∈ ⊕n Kj y sean v1 = f (1), . . . , vn o j=1= f (n). Como la expresi´n de u es unica podemos definir una funci´n φ mediante o ´ ola f´rmula φ(α1 e1 + · · · αn en ) = α1 v1 + · · · + αn vn . Es inmediato comprobar que φ oes lineal y que φ(ei ) = f (i), es decir, φg(i) = f (i), o sea, φ ◦ g = f . 3.2 DEFINICION. Diremos que el conjunto {vj }, j ∈ {1, 2, . . . , n}, de ele-mentos de un espacio vectorial V sobre un campo K es (i) linealmente independiente si φ es inyectiva (ii) un conjunto de generadores de V si φ es suprayectiva
  • 43. 36 Cap´ ıtulo I Conceptos fundamentales(iii) una base de V si φ es biyectiva. En otras palabras, el conjunto {vj }, j ∈ {1, 2, . . . , n} es linealmente indepen- n ndiente si φ( j=1 αj ej ) = j=1 αj vj = 0 implica que αj = 0 para toda j en{1, 2, . . . , n}, αj ∈ Kj . Diremos que el conjunto {vj }, j ∈ {1, 2, . . . , n}, de elementos de un espaciovectorial V sobre un campo K es linealmente dependiente si dicho conjunto noes linealmente independiente. Es decir, {vj } es linealmente dependiente si existenescalares αi ∈ K no todos cero tales que α1 v1 + α2 v2 + · · · + αn vn = 0. Esta ultima expresi´n es v´lida para αj = 0, ∀j ∈ {1, 2, . . . , n} y si ´sta ultima ´ o a e ´expresi´n es v´lida unicamente para αj = 0, j ∈ {1, 2, . . . , n} entonces el conjunto o a ´{vj } es linealmente independiente. En otras palabras, el conjunto {vj } es lineal-mente independiente si, y s´lo si, toda combinaci´n lineal no trivial de vectores del o oconjunto {vj } es diferente del vector 0. Decir que φ en 3.2 es suprayectiva equivale a decir que todo elemento de V npuede escribirse como j=1 αj vj , i.e., como una combinaci´n lineal. El que φ sea obiyectiva quiere decir que todo elemento v ∈ V puede escribirse de una y solamente nuna manera en la forma v = j=1 αj vj , ∀j ∈ {1, 2, . . . , n}. Es claro que el conjunto {ej }, j ∈ {1, . . . , n}, es una base de ⊕n Kj (llamada j=1can´nica). Frecuentemente se identifica el conjunto {1, 2, . . . , n} con el conjunto ode los ej mediante la biyecci´n dada por j → ej . o 3.3 EJEMPLO. Los vectores del espacio vectorial I 4 sobre I v1 = (2, 3, 1, 4), R R,v2 = (3, 2, 1, 0) y v3 = (17, 18, 7, 16), son linealmente dependientes puesto que4(2, 3, 1, 4) + 3(3, 2, 1, 0) − (17, 18, 7, 16) = (0, 0, 0, 0). 3.4 EJEMPLO. Sean v1 = (5, 4, 7), v2 = (0, 3, 1) y v3 = (0, 0, 2) vectores delespacio vectorial I 3 sobre I Sea α1 v1 + α2 v2 + α3 v3 = 0 una combinaci´n lineal R R. oigual a cero. Entonces tenemos un sistema de ecuaciones lineales 5α1 + 0α2 + 0α3 = 0 4α1 + 3α2 + 0α3 = 0 7α1 + 1α2 + 2α3 = 0.
  • 44. § 3 Espacios vectoriales de dimensi´n finita o 37 De la primera ecuaci´n, tenemos que α1 = 0. De la segunda ecuaci´n con α1 = 0 o otenemos que α2 = 0, y de la tercera ecuaci´n con α1 = α2 = 0 tenemos que α3 = 0. oLuego α1 = α2 = α3 = 0 y los vectores v1 , v2 y v3 son linealmente independientes. 3.5 PROPOSICION. El conjunto de vectores diferentes de cero {vi }n i=1es linealmente dependiente si, y s´lo si, uno de ellos es combinaci´n lineal o ode los vectores precedentes. Demostraci´n. Supongamos que son linealmente dependientes; entonces oα1 v1 + · · · + αn vn = 0 con alguna αi = 0. Sea j el mayor entero tal que αj = 0.Entonces α1 v1 + · · · + αj vj + 0vj+1 + · · · + 0vn = 0, i.e., α1 v1 + · · · + αj vj = 0. Sij = 1 entonces α1 v1 = 0 con α1 = 0, luego v1 = 0. Si j > 1, como los vectores vjson diferentes de cero y −1 −1 vj = −αj α1 v1 − · · · − αj αj−1 vj−1 ,vj es combinaci´n lineal de los vectores precedentes. o Supongamos ahora que vj = α1 v1 + · · · + αj−1 vj−1 . Entonces podemos reescribiresto como α1 v1 + · · · + αj−1 vj−1 − vj + 0vj+1 + · · · + 0vn = 0 ncon αj = 0. Luego, {vi }i=1 es linealmente dependiente. 3.6 OBSERVACION. Es inmediato de la definici´n 3.2 que si V es un espacio ovectorial sobre un campo K con base {v1 , . . . , vn } entonces es isomorfo a K n . 3.7 TEOREMA. Sea X = {ui }n un conjunto de generadores de un i=1espacio vectorial V sobre un campo K . (i) Si uj es combinaci´n lineal de los vectores {ui }j−1 entonces el conjunto o i=1 {u1 , . . . , uj−1 , uj+1 , . . . , un } genera a V . (ii) Si Y = {v1 , . . . , vr } es linealmente independiente entonces r ≤ n y V est´ generado por un conjunto de la forma {v1 , . . . , vr , ui1 , . . . , uin−r } a con uij ∈ X .(iii) Cualquier base de V posee la misma cardinalidad. Demostraci´n. (i) Supongamos que uj es combinaci´n de {ui }j−1 , entonces o o i=1 j−1 n nuj = i=1 βi ui . Sea w ∈ V . Como {ui }i=1 genera a V , w = i=1 αi ui , susti-
  • 45. 38 Cap´ ıtulo I Conceptos fundamentales j−1tuyendo uj con i=1 βi ui tenemos que j−1 j−1 n j−1 n w= αi ui + αj βi ui + αi ui = (αi + αj βi )ui + αi ui . i=1 i=1 i=j+1 i=1 i=j+1Por lo tanto, como w era arbitrario, {u1 , . . . , uj−1 , uj+1 , . . . , un } genera a V . (ii) Como {ui }n i=1 genera a V , si le agregamos el vector v1 , entonces{v1 , u1 , . . . , un } es linealmente dependiente y genera a V (v´ase el problema 3.3). ePor 3.5 uno de los vectores del conjunto {v1 , u1 , . . . , un } es una combinaci´n lineal ode los vectores precedentes. No puede ser v1 , pues {v1 } es linealmente indepen-diente, tiene que ser uno de los de X, digamos uj . Por (i) podemos omitir a ujy obtener un conjunto {v1 , u1 , . . . , uj−1 , uj+1 , . . . , un } que genera. Repetimos elprocedimiento con v2 . Entonces {v1 , v2 , u1 , . . . , uj−1 , uj+1 , . . . , un } es linealmentedependiente y genera a V . Por 3.5 uno de los vectores del conjunto es una com-binaci´n lineal de los precedentes. Como {v1 , v2 } es linealmente independiente, oese vector debe ser una uk . Por (i) podemos omitir uk y obtener un conjunto{v1 , v2 , u1 , . . . , uj−1 , uj+1 , . . . , uk−1 , uk+1 , . . . , un } que genera a V . Si continuamosel proceso obtendremos un conjunto, para r ≤ n, {v1 , v2 , . . . , vr , ui1 , . . . , uin−r } quegenera a V . (iii) Sea {u1 , . . . , un } una base de V y {v1 , v2 , . . .} otra base de V . Como {ui }n i=1genera a V , la base {vj } debe contener n o menos vectores, pues, si no, ser´ ıalinealmente dependiente (por (ii) o el problema 3.4). Si la base {vj } contienemenos de n vectores, entonces {ui }n es linealmente dependiente (por (ii) o por el i=1problema 3.4). Luego, la base {vj } contiene n elementos. Obs´rvese que los espacios vectoriales K n y K m son isomorfos si, y s´lo si, e on = m. 3.8 DEFINICION. La dimensi´n de un espacio vectorial V sobre un campo oK, denotada dim V , es el n´mero de elementos de una base de V . u A continuaci´n estableceremos un resultado que relaciona la dimensi´n de la o osuma de subespacios, con la de cada uno de ellos. 3.9 TEOREMA. Sean U y V subespacios de un espacio vectorial W sobreun campo K de dimensi´n finita. Entonces o dim (U + V ) = dim U + dim V − dim (U ∩ V ).
  • 46. § 3 Espacios vectoriales de dimensi´n finita o 39 Demostraci´n. Sea n = dim U , m = dim V y r = dim (U ∩ V ). Sea {ui }r o i=1una base de U ∩ V . Por el problema 3.5 (iii) {ui }r es parte de una base de i=1U y tambi´n de una base de V , digamos A = {u1 , . . . , ur , v1 , . . . , vn−r } y B = e{u1 , . . . , ur , w1 , . . . , wm−r } respectivamente. Consideremos el conjunto C = {u1 , . . . , ur , v1 , . . . , vn−r , w1 , . . . , wm−r } yveamos que es una base de U + V con lo que habremos terminando. Como Agenera a U y B genera a V , C genera a U + V . Nos resta probar que C es lin-ealmente independiente, pero esto lo dejamos como ejercicio al lector (problema3.8). 3.10 COROLARIO. dim (U ⊕ V ) = dim U + dim V . 3.11 PROPOSICION. Sea f : U −→ V una transformaci´n lineal de es- opacios vectoriales sobre un campo K . Entonces dim U = dim (im f ) + dim (ker f ). Demostraci´n. Sea n = dim U . Como ker f es un subespacio de U , odim (ker f ) ≤ dim U = n. Sea r = dim (ker f ) ≤ n. Veamos que dim (im f ) =n − r. Sea {v1 , . . . , vr } una base de ker f . Podemos extenderla a una base de U dela forma {v1 , . . . , vr , w1 , . . . , wn−r }. Consideremos {f (w1 ), . . . , f (wn−r )} y veamosque es una base de im f . Sea v ∈ im f . Entonces existe u ∈ U tal que f (u) = v. Como {v1 , . . . , vr ,w1 , . . . , wn−r } genera a U , u = α1 v1 + · · · + αr vr + β1 w1 + · · · + βn−r wn−r con αi ,βi ∈ K. Como f (vi ) = 0 para i = 1, . . . , r pues vi ∈ ker f , tenemos que f (u) =v = f (α1 v1 + · · · + αr vr + β1 w1 + · · · + βn−r wn−r ) = β1 f (w1 ) + · · · + βn−r f (wn−r ).As´ f (wi ) genera a la imagen de f . ı, Ahora veamos la independencia lineal: sea β1 f (w1 ) + β2 f (w2 ) + · · · +βn−r f (wn−r ) = 0. Entonces f (β1 w1 + · · · + βn−r wn−r ) = 0 y por lo tanto n−r i=1 βi wi ∈ ker f . Como {vi } genera a ker f , existe αi ∈ K, i = 1, . . . , rtal que β1 w1 + β2 w2 + · · · + βn−r wn−r = α1 v1 + α2 v2 + · · · + αr vri.e., β1 w1 + · · · + βn−r wn−r − α1 v1 − · · · − αr vr = 0. Como {v1 , . . . , vr , w1 , . . . , wn−r } es una base de U , es linealmente independiente
  • 47. 40 Cap´ ıtulo I Conceptos fundamentalesy por lo tanto βi = αi = 0. En particular βi = 0, i = 1, . . . , n − r. Luego, los f (wi )son linealmente indendientes. Por lo tanto dim (im f ) = n − r.PROBLEMAS3.1 Compruebe que n (i) Si en la expresi´n j=1 αj vj = 0 una de las αj no es cero, entonces el conjunto o {vj } es linealmente dependiente. (ii) Si en el conjunto {vj } alguna vj = 0 entonces el conjunto {vj } es linealmente dependiente.(iii) Cualquier vector diferente de cero es, por s´ mismo, linealmente independiente. ı(iv) Si en {vj }, vi = vj para alguna i = j entonces la familia es linealmente dependiente. (v) Dos elementos de un espacio vectorial V sobre un campo K son linealmente dependientes si, y s´lo si, uno de ellos es un m´ltiplo del otro. o u(vi) Un conjunto de vectores que contiene un conjunto linealmente dependiente es linealmente dependiente.(vii) Un subconjunto de un conjunto linealmente independiente es linealmente in- dependiente.3.2 Demuestre que un conjunto de elementos {vj }, j ∈ {1, 2, . . . , n} de un espaciovectorial V sobre un campo K es linealmente dependiente si, y s´lo si, uno de ellos oes combinaci´n lineal de los restantes. o3.3 Sea X = {u1 , . . . , un } un conjunto generador de un espacio vectorial V sobreun campo K. Pruebe que si v es cualquier vector de V , entonces {v, u1 , . . . , un } esun conjunto linealmente dependiente y genera V .3.4 Supongamos que {v1 , . . . , vn } genera el espacio vectorial V sobre un campoK. Pruebe que n + 1 vectores o m´s de V son linealmente dependientes. a3.5 Sea S un subconjunto de un espacio vectorial V . Un subconjunto de elemen-tos {ui }r de S se llama subconjunto independiente m´ximo de S, si es un i=1 a
  • 48. § 3 Espacios vectoriales de dimensi´n finita o 41subconjunto linealmente independiente de S y si v ∈ V es cualquier elemento de S,entonces {ui }r ∪ {v} es linealmente dependiente. Pruebe que: i=1 (i) si S = V y {ui }n es un subconjunto independiente m´ximo de S entonces i=1 a {ui }n es una base de V . i=1 (ii) si #S < ∞ y S = V entonces dim V < ∞ y un subconjunto de S es una base de V .(iii) cualquier conjunto linealmente independiente es parte de una base de V .3.6 Sea U un subespacio de un espacio vectorial V sobre un campo K de dimensi´n ofinita. Pruebe que dim U ≤ dim V y que si dim U = dim V entonces U ∼ V . =3.7 Caracterice los subespacios de dimensiones 0, 1, 2 y 3 del espacio vectorial I 3 Rsobre I R.3.8 Pruebe que el conjunto C del teorema 3.9 es linealmente independiente.3.9 Sea V el espacio vectorial de las matrices de m × n sobre un campo K. Sea 1 1Eij ∈ V la matriz con 1 en el lugar ij y cero en todos los dem´s. Pruebe que {Eij } aes una base de V y que dim V = mn.3.10 Sean U1 , . . . , Us subespacios de un espacio vectorial V sobre un campo K.Pruebe que V = ⊕s Ui si, y s´lo si la uni´n de los elementos de las bases de cada i=1 o oUi es una base de V .
  • 49. 42 Cap´ ıtulo I Conceptos fundamentales I.4 APLICACIONESConsid´rese el sistema de ecuaciones lineales e a11 x1 + ··· + a1n xn = b1 . . . . . . . . . am1 x1 + ··· + amn xn = bmcon aij en el campo K. Podemos reescribirlo de la siguiente manera:       a11 a1n b1 x1  .  + · · · + xn  .  =  .  . . . . . . (∗) am1 amn bm 4.1 PROPOSICION. Consid´rese el sistema de ecuaciones lineales ho- emog´neo e x1 A1 + · · · + xn An = 0donde Ai = t (a1i , . . . , ami ) ∈ K m y n > m. Entonces existe una soluci´n no otrivial del sistema. Demostraci´n. Como n > m, y m´s de m vectores son linealmente dependien- o ates, existen elementos del campo s1 , . . . , sn ∈ K no todos cero tales ques1 A1 + · · · + sn An = 0. Por lo tanto S = {s1 , . . . , sn } es una soluci´n no trivial del osistema. 4.2 PROPOSICION. Si en (∗), m = n y el conjunto {Ai } es linealmenteindependiente entonces el sistema posee una soluci´n y ´sta es unica. o e ´ Demostraci´n. Como {Ai } es linealmente independiente, forma una base de oK n y en consecuencia el vector columna t (b1 , . . . , bn ) = B puede expresarse demanera unica como combinaci´n lineal de las Ai , es decir, como ´ o x1 A1 + · · · + xn An = B.Luego, X = (x1 , . . . , xn ) es la unica soluci´n. ´ o Tambi´n podemos escribir el sistema original de ecuaciones lineales en la forma e AX = B
  • 50. § 4 Aplicaciones 43donde   a11 ··· a1n A= . . . . , . . X = t (x1 , . . . , xn ) y B = t (b1 , . . . , bm ). am1 ··· amn Observe que cualquier matriz A de m × n lugares determina una aplicaci´n lineal o n m n mf : K −→ K dada por v −→ Av donde los vectores de K y K se ponen comovectores columna. La linealidad es inmediata pues A(v1 + v2 ) = Av1 + Av2 yA(αv) = αA(v), α ∈ K. Por ejemplo, si A = 3 1 2 , A determina f : K 3 −→ 2 1 3 2 2K 2 dada por f (v) = Av. As´ si v = 4 , f (v) = Av = 3 1 2 ı, 2 1 3 4 = 6 6 22 . 26 De esta forma, la soluci´n de la ecuaci´n AX = 0 es el n´cleo de la aplicaci´n o o u o n mlineal f = A: K −→ K . Recuerde que el rango de una matriz A es el n´mero m´ximo de renglones u alinealmente independientes (que tambi´n es el n´mero m´ximo de columnas li- e u anealmente independientes). Recuerde tambi´n que el rango de una matriz se ob- etiene reduci´ndola mediante operaciones elementales a una matriz escalonada. Por edefinici´n, si f : U −→ V es una transformaci´n lineal, el rango de f es la dimensi´n o o ode la imagen y la nulidad de f es la dimensi´n del n´cleo de f , i.e. o u rango f = dim (im f ) y nul f = dim (ker f ). 4.3 PROPOSICION. La dimensi´n del espacio soluci´n de un sistema o ode ecuaciones lineales homog´neo AX = 0 es n − r donde n es el n´mero de e uinc´gnitas y r es el rango de la matriz de coeficientes. o Demostraci´n. Por la proposici´n 3.11, o o dim (ker f ) = dim K n − dim (im f ) = n − rango A.Pero n es el n´mero de inc´gnitas, luego el resultado es inmediato. u o Observe que, si vemos a A como transformaci´n lineal, entonces la dimensi´n o ode la imagen de A coincide con el rango de A pues im A corresponde a su espaciocolumna. (Ve´se el problema 4.8.) a
  • 51. 44 Cap´ ıtulo I Conceptos fundamentales 4.4 EJEMPLO. Consideremos el siguiente sistema de ecuaciones lineales x + 3y − 2z + 4s − t = 0 x + 3y − z + 3s + t = 0 2x + 6y − z + 5s + 4t = 0.Obtenemos el rango de la matriz de coeficientes 1 3 −2 4 −1 1 3 −2 4 −1 1 3 −2 4 −1 1 3 −1 3 1 ∼ 0 0 −1 1 −2 ∼ 0 0 −1 1 −2 . 2 6 −1 5 4 0 0 −3 3 −6 0 0 0 0 0As´ tenemos un sistema de dos ecuaciones con cinco inc´gnitas ı o x + 3y − 2z + 4s − t = 0 −z + s − 2t = 0. La dimensi´n del espacio soluci´n es n − r, es decir 3. Tenemos tres variables o olibres (y, s, t). En t´rminos de y, s, t obtenemos z = s − 2t y x = −3y − 2s − 3t. Luego, las esoluciones son de la forma (−3y − 2s − 3t, y, s − 2t, s, t). Si damos valores particu-lares para (y, s, t) obtenemos valores particulares que son soluci´n del sistema. Por oejemplo, si damos valores (1, 0, 0),(0, 1, 0) y (0, 0, 1) para la terna (y, s, t) obtene-mos las soluciones u1 = (−3, 1, 0, 0, 0), u2 = (−2, 0, 1, 1, 0) y u3 = (−3, 0, −2, 0, 1)respectivamente, las cuales forman una base del espacio soluci´n. o Sea V un espacio vectorial sobre un campo K. Sea f : V −→ V una aplicaci´n olineal de V en s´ mismo. Tal aplicaci´n lineal se llama operador lineal. ı o 4.5 DEFINICION. Diremos que un operador lineal f : V −→ V es invertiblesi posee un inverso f −1 , i.e., si existe f −1 : V −→ V tal que f ◦ f −1 = 1V = f −1 ◦ f . 4.6 DEFINICION. Sea g: U −→ V una transformaci´n lineal de espacios ovectoriales sobre un campo K. Diremos que g es no singular si ker g = {0}. g essingular si no es no singular. 4.7 PROPOSICION. Sea V un espacio vectorial de dimensi´n finita osobre un campo K . El operador f : V −→ V es invertible si, y s´lo si, es no osingular.
  • 52. § 4 Aplicaciones 45 Demostraci´n. Si f es invertible, entonces es biyectiva, en particular es inyec- otiva y, por el problema 2.8, ker f = {0}. Luego, f es no singular. Si f es no singular, entonces ker f = {0} y por lo tanto f es inyectiva (problema2.8). Como dim V < ∞, dim V = dim (im f ) + dim (ker f ) = dim (im f ). Por lotanto im f = V , i.e., f es suprayectiva. As´ f es biyectiva, luego invertible. ı, Consideremos el sistema de n ecuaciones con n inc´gnitas AX = B. Si supone- omos que el sistema homog´neo asociado AX = 0 solamente posee la soluci´n trivial, e oi.e., ker A = {0}, entonces, por 4.7, A es biyectiva y por lo tanto AX = B poseeuna soluci´n unica para cualquier B. o ´ Si suponemos que A es singular, i.e., ker A = {0}, existe una soluci´n no trivial o nde AX = 0. Luego A no es suprayectiva, i.e., existe B ∈ K para el cual AX = Bno tiene soluci´n. A´n m´s, si existe una soluci´n, ´sta no es unica. o u a o e ´PROBLEMAS4.1 Pruebe que los renglones diferentes de cero de una matriz escalonada sonlinealmente independientes.4.2 Encuentre la dimensi´n y una base para el espacio soluci´n de los sistemas o o(a) 2x + 3y + 2z − 4t = 0 2x + 3y + z + 2t = 0 6x − 2y + 8z − t = 0(b) x + 2y + 2z − s + 3t = 0 x + 2y + 3z + s + t = 0 3x + 6y + 8z + s + 5t = 04.3 Encuentre el sistema homog´neo cuyo espacio soluci´n est´ generado por el e o aconjunto {(1, 3, 2), (4, 5, 8), (3, 8, 6)}. Haga los mismo para el conjunto {(1, −2, 0, 3),(1, −1, −1, 4), (1, 0, −2, 5)}.
  • 53. 46 Cap´ ıtulo I Conceptos fundamentales4.4 Sean U y V los subespacios de I 3 dados por U = {(x, y, z)|x + y + z = 0}, RV = {(x, y, z)|x+y = 0}. Encuentre una base y la dimensi´n de U , V y U ∩V . Haga olo mismo para U = {(a, b, c, d) ∈ I |b+c+d = 0} y W = {(a, b, c, d) ∈ I 4 |a+b = 0, R 4 Rc = 2d}.4.5 Sean U y V los subespacios de I 4 generados por {(1, 4, 3, 2), (2, 4, 6, 8), R(3, 6, 4, 2)} y {(2, 3, 1, 4), (1, 1, 2, 0), (3, 1, 2, 4)}. Encuentre la base y la dimensi´n ode U + V y de U ∩ V . Haga lo mismo para los subespacios U y V de I 5 generados Rpor los conjuntos {(1, 3, −2, 2, 3), (1, 4, −3, 4, 2), (2, 3, −1, −2, 9)} y {(1, 3, 0, 2, 1),(1, 5, −6, 6, 3), (2, 5, 3, 2, 1)}.4.6 Sea A una matriz de n × n. Pruebe que el rango de A es n si, y s´lo si A es oinvertible.4.7 Encuentre la transformaci´n inversa del operador lineal f : I 3 −→ I 3 dado o R Rpor f (x, y, z) = (y, 2x − z, z).4.8 Pruebe que el rango por columna de una matriz A de m × n es igual al rangode la funci´n lineal f : K n −→ K m determinada por A. (Sugerencia: verifique que opara cada j = 1, . . . , n, el vector f (ej ) = Aej es la j-columna de A.)
  • 54. § 5 La matriz asociada a una transformaci´n lineal o 47 I.5 LA MATRIZ ASOCIADA A UNA TRANSFORMACION LINEALSea K un campo. Denotemos con HomK (U, V ) el conjunto de transformacioneslineales del espacio vectorial U sobre K en el espacio V sobre K. Sean f, g: U −→ Vaplicaciones lineales y definamos f + g: U −→ V mediante (f + g)(u) = f (u) +g(u). Tambi´n, si f : U −→ V y α ∈ K definamos una multiplicaci´n escalar e oαf : U −→ V mediante (αf )(u) = α(f (u)). Es inmediato comprobar que f + g yαf son lineales (problema 5.1(a)). A´n m´s, (v´anse los problemas 5.1(b) y 1.8) u a etenemos el siguiente resultado: 5.1 TEOREMA. Sean U y V espacios vectoriales sobre un campo K .Entonces HomK (U, V ) con las operaciones definidas arriba es un espaciovectorial sobre K . ¿Cu´l ser´ la dimensi´n del espacio HomK (U, V ) si U y V son de dimensi´n a a o ofinita? Para responder esta pregunta, primero veamos un resultado previo que nosdice que una transformaci´n lineal est´ totalmente determinada si conocemos la o aimagen de los elementos de la base de U . 5.2 PROPOSICION. Sean U y V espacios vectoriales sobre un campo K .Sea {ui }n una base de U y {vi }n cualesquiera vectores de V . Entonces i=1 i=1existe una funci´n lineal unica f : U −→ V tal que f (ui ) = vi , i = 1, . . . , n. o ´ Demostraci´n. Daremos dos demostraciones. o (1) Consideremos el diagrama V f U φ g  g φ∼ = ıj g Kj −→ ⊕Kj ←− {1, 2, . . . , n} Por 3.1 y 3.6, basta tomar f = φ ◦ φ−1 donde φ : ⊕n Kj −→ V es la funci´n j=1 olineal unica tal que φ ◦ g = g pues φ es biyectiva. ´
  • 55. 48 Cap´ ıtulo I Conceptos fundamentales (2) Definamos f : U −→ V mediante f (u) = f (α1 u1 + · · · + αn un ) = α1 v1 + · · · +αn vn . En particular f (ui ) = f (0u1 + · · · + 1ui + · · · + 0un ) = vi . Veamos que f es n n nlineal: sean u = i=1 αi ui y u = i=1 βi ui entonces f (u+u ) = i=1 (αi +βi )vi = n n n n i=1 αi vi + i=1 βi vi = f (u) + f (u ) y f (αu) = i=1 ααi vi = α i=1 αi vi =αf (u). Veamos que f es unica: sea f : U −→ V otra aplicaci´n lineal tal que ´ of (ui ) = vi , i = 1, . . . , n. Entonces f (u) = f ( αi ui ) = αi f (ui ) = αi vi =f (u). Como u es arbitraria, f = f . 5.3 TEOREMA. Si dim U = n y dim V = m entonces dim HomK (U, V ) =nm. Demostraci´n. Sea {ui }n una base de U y {vj }m una base de V . Encon- o i=1 j=1tremos una base para HomK (U, V ) y contemos el n´mero de elementos de dicha ubase. Para ello definimos fij ∈ HomK (U, V ) mediante vj si k = i fij (uk ) = 0 si k = i.Veamos que {fij } es linealmente independiente: supongamos que n m i=1 j=1αij fij = 0; αij ∈ K. Pero para uk n m m m 0= αij fij (uk ) = αkj fkj (uk ) = αkj vj ; i=1 j=1 j=1 j=1pero como las vj son linealmente independientes, para k = 1, . . . , n tenemos queαk1 = αk2 = · · · = αkm = 0. Luego αij = 0 y por lo tanto {fij } es linealmenteindependiente. Veamos que {fij } genera a HomK (U, V ): sea f cualquier elemento deHomK (U, V ). Sea wi = f (ui ), i = 1, . . . , n. Como wk ∈ V , wk = αk1 v1 + · · · + n mαkm vm ; k = 1, . . . , n; αij ∈ K. Luego, al evaluar en uk , i=1 j=1 αij fij (uk ) = m m j=1 αkj fkj (uk ) = j=1 αkj vj = wk . Pero wk = f (uk ). Luego, f = n m i=1 j=1 αij fij y por lo tanto {fij } genera a HomK (U, V ). Como hay nm ele-mentos en {fij }, dim HomK (U, V ) = nm. Sea f : U −→ V una aplicaci´n de espacios vectoriales U y V con dim U = m y odim V = n. Supongamos que β = {u1 , . . . , um } y β = {v1 , . . . , vn } son bases paraU y V respectivamente. Como f (ui ) ∈ V , tenemos que f (u1 ) = α11 v1 + ··· + α1n vn . . . . . . . . . f (um ) = αm1 v1 + ··· + αmn vn
  • 56. § 5 La matriz asociada a una transformaci´n lineal o 49 El sistema de ecuaciones anterior lo podemos escribir como        f (u1 ) α11 v1 + · · · + α1n vn α11 ··· α1n v1  .   . = . .  . .  . = . . . . . . . . . f (um ) αm1 v1 + · · · + αmn vn αm1 ··· αmn vn A la matriz     t α11 ··· α1n α11 ··· αm1 [f ]β β =  . . . . = . . . . . . .  . αm1 ··· αmn α1n ··· αmnse le llama matriz asociada a la transformaci´n lineal f, y decimos que repre- osenta a f . 5.4 EJEMPLO. Sea f : I 2 −→ I 2 dado por f (x, y) = (2x − y, x + y). Cal- R Rculemos [f ]β con respecto a la base β = β = {(1, 0), (0, 1)}. Entonces β f (1, 0) = (2, 1) = 2(1, 0) + 1(0, 1) y f (0, 1) = (−1, 1) = −1(1, 0) + 1(0, 1).Luego [f ]β = 2 −1 . β 1 1 5.5 EJEMPLO. Sea f : I 2 −→ I 2 la aplicaci´n lineal dada por f (x, y) = R R o γ(4x + y, 2x − 4y). Calculemos [f ]γ donde γ = γ = {(1, 1), (−1, 0)}: f (1, 1) = (5, −2) = (−2)(1, 1) + (−7)(−1, 0) y f (−1, 0) = (−4, −2) = (−2)(1, 1) + (2)(−1, 0). Luego [f ]γ = −2 −2 . γ −7 2 Observemos que si u = (3, 5) entonces, en t´rminos de la base γ, eu = (3, 5) = 5(1, 1) + 2(−1, 0). Luego f (u) = f (3, 5) = (17, −14) = −14(1, 1) +(−31)(−1, 0). As´ que, el vector traspuesto de coordenadas de u es [u]γ = 5 y ı 2 −14 . Finalmenteel vector traspuesto de coordenadas de f (u) es [f (u)]γ = −31 [f ]γ [u]γ = −2 −2 5 = −14 = [f (u)]γ . γ −7 2 2 −31
  • 57. 50 Cap´ ıtulo I Conceptos fundamentales Tenemos el siguiente resultado que establece lo que observamos en el ejemploanterior: 5.6 PROPOSICION. Sean β = {u1 , . . . , um } y β = {v1 , . . . , vn } bases paralos espacios vectoriales U y V sobre un campo K respectivamente. Seaf : U −→ V una transformaci´n lineal. Entonces [f ]β [u]β = [f (u)]β . o β Demostraci´n. Consideremos f (ui ) = αi1 v1 + αi2 v2 + · · · + αin vn o = n j=1αij vj . Entonces [f ]β es la matriz cuyo rengl´n j es (α1j , α2j , . . . , αmj ). β o m Supongamos que u = γ1 u1 + · · · + γm um = i=1 γi ui . Luego [u]β =t (γ1 , . . . , γm ). Aplicando la transformaci´n lineal f a u obtenemos f (u) = o m m m n n mf ( i=1 γi ui ) = i=1 γi f (ui ) = i=1 γi ( j=1 αij vj ) = j=1 ( i=1 αij γi )vj = n j=1 (α1j γ1 + · · · + αmj γm )vj . Luego [f (u)]β es el vector columna cuyo coeficiente en el nivel j esα1j γ1 + · · · + αmj γm . Calculando      α11 ··· αm1 γ1 α11 γ1 + · · · + αmj γm[f ]β [u]β =  . β . . .  .  =  . . . . . . .  = [f (u)]β . α1n ··· αmn γm α1n γ1 + · · · + αmn γm La proposici´n anterior nos dice que, el multiplicar el vector de coordenadas de ou con respecto a la base β = {u1 , . . . , um } por la matriz [f ]β nos da el vector de βcoordenadas del vector f (u) con respecto a la base β = {v1 , . . . , vn }. 5.7 DEFINICION. Sean β = {u1 , . . . , un } y γ = {u1 , . . . , un } bases de U .Consid´rese e 1U (u1 ) = u1 = α11 u1 + ··· + α1n un . . . . . . . . . . . . 1U (un ) = un = αn1 u1 + ··· + αnn un .Luego, la matriz cuadrada   α11 ··· αn1 Nβ =  . γ . . .  . . α1n ··· αnnse llama matriz de transici´n de la base β en la base γ. Con frecuencia escribimos o γ βsimplemente N en lugar de Nβ . Si β = γ, Nβ se denota Nβ y se llama matrizasociada a f con respecto (o relativa) a β.
  • 58. § 5 La matriz asociada a una transformaci´n lineal o 51 γ La matriz de transici´n Nβ puede verse como la matriz asociada a la funci´n o o γ γlineal 1U : U −→ U con respecto a las bases β y γ, es decir Nβ = [1U ]β . 5.8 EJEMPLO. Considere U = I 2 con bases β = {(1, 0), (0, 1)} y γ = R{(1, 1), (−1, 0)}. Entonces (1, 0) = 0(1, 1) + (−1)(−1, 0) y (0, 1) = 1(1, 1) + (1)(−1, 0). γLuego Nβ = 0 1 −1 1 . Por otro lado, (1, 1) = (1)(1, 0) + (1)(0, 1) y (−1, 0) = (−1)(1, 0) + 0(0, 1). βLuego Nγ = 1 −1 . 1 0 β γ Observe que Nγ Nβ = I. γ 5.9 LEMA. Sea N = Nβ la matriz de transici´n de la base β = {ui }n o i=1 nen la base γ = {ui }i=1 del espacio vectorial U sobre un campo K . EntoncesN [u]γ = [u]β , y [u]γ = N −1 [u]β para toda u ∈ U . n Demostraci´n. Sea ui = αi1 u1 + αi2 u2 + · · · + αin un = o j=1 αij uj , paracada i = 1, . . . , n. Entonces N es la matriz cuadrada con rengl´n j igual a o(α1j , α2j , . . . , αnj ). n Si suponemos que u = λ1 u1 + λ2 u2 + · · · + λn un = i=1 λi ui entonces [u]γ =t n n n (λ1 , . . . , λn ). Luego u = i=1 λi ui = i=1 λi ( j=1 αij uj ) = n n n j=1 ( i=1 αij λi )uj = j=1 (α1j λ1 + α2j λ2 + · · · + αnj λn )uj . As´ [u]β es el vector ı,columna con coeficiente j igual a α1j λ1 + α2j λ2 + · · · + αnj λn . Por otro lado, el coeficiente j de N [u]γ se obtiene multiplicando el rengl´n j de o tN por [u]γ , i.e., multiplicando (α1j , α2j , . . . , αnj ) por (λ1 , . . . , λn ). Dicha multipli-caci´n es precisamente α1j λ1 + · · · + αnj λn . Luego N [u]γ y [u]β tienen los mismos ocoeficientes. Por lo tanto N [u]γ = [u]β . Finalmente, si multiplicamos por N −1 ,(v´ase el problema 5.6), obtenemos N −1 [u]β = N −1 N [u]γ = [u]γ . e 5.10 TEOREMA. Sea N la matriz de transici´n de la base β = β = {ui } oa la base γ = γ = {ui } del espacio vectorial U . Sea f : U −→ U un operadorlineal. Entonces [f ]γ = N −1 [f ]β N donde N = Nγ . γ β β
  • 59. 52 Cap´ ıtulo I Conceptos fundamentales (5.9) (5.6) Demostraci´n. Sea u ∈ U , luego N −1 [f ]β N [u]γ o β = N −1 [f ]β [u]β β = −1 (5.9)N [f (u)]β = [f (u)]γ . Como [f ]γ [u]γ γ = [f (u)]γ por 5.6, tenemos queN −1 [f ]β β N [u]γ = [f ]γ [u]γ . Luego N −1 [f ]β N γ β = [f ]γ . γ 5.11 EJEMPLO. Considere el operador f : I 2 −→ I 2 dado por f (x, y) = R R(4x + y, 2x − 4y). Sean β = β y γ = γ las bases del ejemplo 5.8. Luego f (1, 0) = (4, 2) = 4(1, 0) + 2(0, 1) y f (0, 1) = (1, −4) = 1(1, 0) + (−4)(0, 1).As´ que ı [f ]β = 4 1 β 2 −4 .Calculemos [f ]γ utilizando el teorema 5.10 con la N = Nγ obtenida en 5.8: γ β [f ]γ = N −1 [f ]β N γ β = 0 1 4 1 1 −1 −1 1 2 −4 1 0 = 0 1 5 −4 = −2 −2 −1 1 −2 −2 −7 2la cual coincide con la matriz [f ]γ de 5.5. γPROBLEMAS5.1 a) Sean f, g: U −→ V funciones lineales de espacios vectoriales sobre un campoK y α ∈ K. Demuestre que f + g y αf son funciones lineales. b) Pruebe el teorema 5.1 con detalle. Si U = V se acostumbra denotar alconjunto de funciones lineales de V en s´ mismo con EndK (V ) y se llama conjunto ıde endomorfismos de V .5.2 Sea f : I 2 −→ I 2 el operador lineal dado por f (x, y) = (3x − 4y, x − y). R RCalcule la matriz [f ]β asociada a f con respecto a la base β = {(1, 1), (−1, 0)}. β5.3 Sea f como en el problema anterior. ¿Cu´les son las coordenadas del vector af (3, 5) con respecto a β ?
  • 60. § 5 La matriz asociada a una transformaci´n lineal o 535.4 a) Describa la matriz de transici´n de un espacio de dimensi´n 1. o o b) Calcule la matriz de transici´n de la base β = {(1, 1), (−1, 0)} a la base oβ = {(2, 6), (4, 10)} del espacio vectorial I 2 del problema 5.2. R5.5 Calcule la matriz asociada [f ]β en el problema 5.4. β γ5.6 Pruebe que la matriz de transici´n Nβ definida en 5.7 es invertible. o5.7 Pruebe que existe un isomorfismo del espacio HomK (U, U ) con el espacio delas matrices cuadradas Mn K dado por f → [f ]β . β5.8 Pruebe que si f, g ∈ HomK (U, U ) entonces [f ◦ g]β = [f ]β [g]β . β β β5.9 Pruebe resultados an´logos al problema 5.7 para HomK (U, V ) i.e., a ∼ Mm×n K y al problema 5.8 para cuando f ∈ HomK (U, V ) yHomK (U, V ) =g ∈ HomK (V, W ) son transformaciones lineales de espacios vectoriales U, V y Wsobre un campo K con bases β, γ y η respectivamente, i.e. pruebe que [g ◦ f ]η = β[g]η [f ]γ . γ β5.10 Sea N la matriz de transici´n de la base β en la base γ de U . Sea M la omatriz de transici´n de la base β en la base γ de V . Pruebe que si f : U −→ V es ouna aplicaci´n lineal, entonces o [f ]γ = M −1 [f ]β N. γ β
  • 61. Cap´ ıtulo IIVECTORES CARACTERISTICOSY FORMAS CANONICAS II.1 VALORES Y VECTORES CARACTERISTICOS 1.1 DEFINICION. Sean A y B matrices cuadradas. Si A = N −1 BN con Nuna matriz invertible entonces diremos que A es similar o semejante a B. 1.2 PROPOSICION. La relaci´n de similaridad (o semejanza) es una orelaci´n de equivalencia. o Demostraci´n. Claramente A = I −1 AI donde I es la matriz identidad, la cual oes invertible. Luego, A es similar a A. Si A es similar a B, existe una matrizinvertible N tal que A = N −1 BN . Entonces N AN −1 = N (N −1 BN )N −1 = B obien (N −1 )−1 AN −1 = B. Luego, B es similar a A. Finalmente, si A es similara B y B es similar a C, entonces existen matrices invertibles N y M tales queA = N −1 BN y B = M −1 CM . Sustituyendo obtenemos A = N −1 (M −1 CM )N =(M N )−1 C(M N ) y como M N es invertible, A es similar a C.
  • 62. 56 Cap´ ıtulo II Vectores caracter´ ısticos y formas can´nicas o 1.3 PROPOSICION. Las matrices A y B representan al mismo operadorlineal f : U −→ U si, y s´lo si, son similares una con la otra. o Demostraci´n. Sean β = β y γ = γ bases de U . Supongamos que A = [f ]γ o γy B = [f ]β representan el mismo operador lineal. Por I.5.10, A es similar a B. β Sea β = β una base de U y supongamos que A es similar a B = [f ]β , es decir, βque A = N −1 [f ]β N para alguna matriz invertible N . Sea γ = γ la base de U βobtenida mediante N a partir de β = β . Es f´cil comprobar (problema 1.5) que A arepresenta a f con respecto a la base γ. Dado un operador lineal f , podemos decir que sus matrices asociadas formanuna clase de equivalencia de matrices similares. 1.4 DEFINICION. Diremos que un operador lineal f : U −→ U es diagonali-zable si para alguna base de U , la matriz asociada es diagonal. Diremos que dichabase diagonaliza a f . El siguiente resultado es consecuencia inmediata de 1.3: 1.5 COROLARIO. Sea B = [f ]β la matriz asociada al operador lineal f βcon respecto a la base β = β . Entonces f es diagonalizable si, y s´lo si, o −1existe una matriz invertible N tal que N BN es una matriz diagonal. Hacemos la observaci´n de que no todo operador es diagonalizable. Como ve- oremos m´s adelante, a todo operador f se le puede asociar una matriz especial allamada forma can´nica, (v´ase §4). o e 1.6 DEFINICION. Sea U un espacio vectorial sobre un campo K. Seaf : U −→ U un operador lineal. Si existe un vector u ∈ U distinto de cero yun escalar λ ∈ K tal que f (u) = λu entonces llamaremos a λ valor caracter´ ısticoo valor propio de f y a u vector caracter´ ıstico o vector propio correspondientea λ. Observe que si en la definici´n anterior u = 0 entonces u ser´ un vector ca- o ıaracter´ıstico correspondiente a cualquier λ ∈ K. N´tese que u es un vector carac- oter´ ıstico correspondiente a λ si f (u) es un m´ltiplo de u, i.e., f (u) = λu, λ ∈ K. uTambi´n los m´ltiplos αu de un vector caracter´ e u ıstico son vectores caracter´ısticospues f (αu) = αf (u) = α(λu) = λ(αu). Adem´s, puede haber muchos vectores a
  • 63. § 1 Valores y vectores caracter´ ısticos 57caracter´ ısticos correspondientes a un valor caracter´ ıstico. Por ejemplo, la funci´n oidentidad 1U : U −→ U posee a 1 ∈ K como su unico valor caracter´ ´ ıstico, perocualquier vector distinto de cero de U es un vector caracter´ıstico correspondienteal 1. 1.7 PROPOSICION. Sea λ un valor caracter´ ıstico (fijo) def : U −→ U . Entonces el conjunto de los vectores u ∈ U tales que f (u) = λues un subespacio no trivial de U denotado Uλ . Demostraci´n. Si u = 0 ∈ U , f (u) = f (0) = 0 = λ0 = λu, para λ ∈ K. Luego o0 ∈ Uλ . Si u, u ∈ Uλ entonces f (u) = λu y f (u ) = λu . Luego, f (u + u ) =f (u) + f (u ) = λu + λu = λ(u + u ). Adem´s f (αu) = αf (u) = α(λu) = λ(αu). aAs´ u + u ∈ Uλ y αu ∈ Uλ . Luego Uλ es un subespacio de U . ı, Llamaremos a Uλ espacio caracter´ ıstico de λ. Observe que Uλ consiste delcero y de todos lo vectores caracter´ ısticos correspondientes a λ. 1.8 EJEMPLO. Si A es una matriz cuadrada, los valores caracter´ ısticos deA son los valores caracter´ ısticos de A vista como operador lineal. Por ejemplo, siA = 2 4 encontremos los valores caracter´ 3 6 ısticos y sus vectores caracter´ısticos xno triviales asociados, i.e., si X = y , buscamos λ ∈ K tal que AX = λX. Estoes 2 4 x x 3 6 y =λ y . 2x + 4y = λx (2 − λ)x + 4y = 0Entonces se tiene , por lo que . 3x + 6y = λy 3x + (6 − λ)y = 0 As´ el sistema homog´neo anterior tiene soluci´n no trivial si, y s´lo si, el deter- ı, e o ominante de la matriz de coeficientes es cero: (2 − λ) 4 = (2 − λ)(6 − λ) − 12 = 12 − 2λ − 6λ + λ2 − 12 3 (6 − λ) = λ2 − 8λ = λ(λ − 8) = 0.As´ λ es un valor caracter´ ı, ıstico de A correspondiente a un vector caracter´ ıstico 2x + 4y = 0distinto de cero si, y s´lo si, λ = 0 o λ = 8. Si λ = 0, entonces o 3x + 6y = 0 xo bien, x + 2y = 0. Luego X = y = −2 es un vector caracter´ 1 ıstico no
  • 64. 58 Cap´ ıtulo II Vectores caracter´ ısticos y formas can´nicas otrivial correspondiente al valor caracter´ ıstico asociado a λ = 0. Cualquier otrovector caracter´ ıstico asociado a λ = 0 es un m´ltiplo de X. Si λ = 8, entonces u −6x + 4y = 0 x o bien 3x − 2y = 0. Luego Y = y = 2 es un vector 3 3x − 2y = 0caracter´ıstico no trivial correspondiente al valor caracter´ ıstico λ = 8. Cualquierotro vector caracter´ ıstico de λ = 8 es un m´ltiplo de Y . u 1.9 TEOREMA. Sea f : U −→ U un operador lineal de un espacio vectorialU sobre un campo K . Entonces λ ∈ K es un valor caracter´ıstico de f si, ys´lo si, λI − f es singular. o Demostraci´n. λ es un valor caracter´ o ıstico de f ⇐⇒ existe un vector notrivial u tal que f (u) = λu ⇐⇒ (λI)(u) − f (u) = 0 ⇐⇒ (λI − f )(u) = 0 i.e.,λI − f es singular, (o no invertible). 1.10 COROLARIO. El espacio de vectores caracter´ ısticos de λ es igualal n´cleo de λI − f . u 1.11 PROPOSICION. Los vectores caracter´ ısticos correspondientes avalores caracter´ ısticos diferentes son linealmente independientes. Demostraci´n. Sea f : U −→ U un operador lineal con u1 , . . . , un vectores ocaracter´ ısticos correspondientes a los valores caracter´ısticos distintos λ1 , . . . , λn . nVeamos que {ui }i=1 es linealmente independiente. Para ello hagamos inducci´n so- obre n. Si n = 1, entonces u1 es linealmente independiente pues u1 = 0. Supongamosque, para n > 1, α1 u1 + · · · + αn un = 0, αi ∈ K. (∗)Luego, f (α1 u1 + · · · + αn un ) = α1 f (u1 ) + · · · + αn f (un ) = f (0) = 0. Por hip´tesis, of (ui ) = λi ui , y tenemos que α1 λ1 u1 + · · · + αn λn un = 0.Si multiplicamos (∗) por λn obtenemos α1 λn u1 + · · · + αn λn un = 0.Restando las dos ultimas ecuaciones obtenemos ´ α1 (λ1 − λn )u1 + · · · + αn−1 (λn−1 − λn )un−1 = 0.
  • 65. § 1 Valores y vectores caracter´ ısticos 59Por inducci´n, αi (λi − λn ) = 0 para i = 1, . . . , n − 1. Como las λi son distintas oentre s´ λi − λn = 0 para i = n. Luego, αi = 0 para i = 1, . . . , n − 1. Al sustituir ı,en (∗) obtenemos que αn un = 0 y, por lo tanto, αn = 0. As´ las ui son linealmente ı,independientes. Nota. Vectores caracter´ısticos linealmente independientes pueden correspondera un mismo valor caracter´ ıstico. El siguiente teorema relaciona los conceptos de matriz diagonal y vector carac-ter´ ıstico. 1.12 TEOREMA. Sea f : U −→ U un operador lineal. Entonces f tienecomo matriz asociada a (o puede representarse por) una matriz diagonal si,y s´lo si, U posee una base que consta de vectores caracter´ o ısticos de f . Demostraci´n. f puede representarse por una matriz diagonal o   λ1 0 0 · · · 0  0 λ2 0 · · · 0  B= . . .  . .  . 0 0 0 · · · λnsi, y s´lo si, existe una base {ui }n de U tal que o i=1 f (u1 ) = λ1 u1 + 0u2 + · · · + 0un f (u2 ) = 0u1 + λ2 u2 + · · · + 0un . . . f (un ) = 0u1 + 0u2 + · · · + λn un .i.e. si, y s´lo si, los vectores {ui }n son vectores caracter´ o i=1 ısticos de f correspon- ndientes a los valores caracter´ ısticos {λi }i=1 . Observe que los elementos de la diagonal de B son precisamente los valorescaracter´ ısticos correspondientes. Observe tambi´n que, por 1.12, una matriz cuadrada A es similar a una matriz ediagonal B si, y s´lo si, A posee n vectores caracter´ o ısticos linealmente indepen-dientes. Aqu´ tambi´n B posee en su diagonal a los valores caracter´ ı e ısticos. SiN es la matriz cuyas columnas son los n vectores caracter´ ısticos de A, entoncesB = N −1 AN . 1.13 EJEMPLO. Sea A la matriz del ejemplo 1.8. Los vectores caracter´ ısticos
  • 66. 60 Cap´ ıtulo II Vectores caracter´ ısticos y formas can´nicas o −2 y Y = 2 . Sea N = −2 2 , N −1 = −3/8 2/8son X = 1 3 1 3 . Luego 1/8 2/8A es similar a la matriz diagonal −3/8 2/8 2 4 −2 2 0 0 B = N −1 AN = 3 6 1 3 = 0 8 1/8 2/8donde los elementos de la diagonal son los valores caracter´ ısticos correspondientes.PROBLEMAS1.1 Recuerde que la traza de una matriz cuadrada A (i.e. la funci´n otr: Mn (K) −→ K), denotada trA, es la suma de los elementos de su diagonal.Pruebe que: (i) tr(AB) = tr(BA) y que (ii) tr(A) = tr(B) si A y B son similares. Debido a esto ultimo, decimos que la ´ traza es un invariante bajo la relaci´n de similaridad o semejanza. o1.2 Calcule los valores caracter´ ısticos y los vectores caracter´ ısticos correspondien- 1 5 y encuentre una matriz invertible N tal que N −1 ANtes de la matriz A = 4 3sea diagonal.1.3 Calcule los valores caracter´ ısticos y los vectores caracter´ ısticos correspondien- 1 4 2tes de la matriz A = 2 3 2 y encuentre una matriz invertible N tal que 1 1 2N −1 AN sea diagonal.1.4 Sean A, B ∈ Mm×n K. Se dice que A es equivalente a B si existen matricesinvertibles M y N tales que A = M BN . Pruebe que la equivalencia de matrices esuna relaci´n de equivalencia. o1.5 Pruebe con todo detalle que A representa a f con respecto a la base γ en laproposici´n 1.3. o1.6 (i) Sup´ngase que A y B son matrices similares de n × n, i.e. B = N −1 AN opara alguna matriz invertible N . Pruebe que B k = N −1 Ak N .
  • 67. § 1 Valores y vectores caracter´ ısticos 61 (ii) Suponga que los conejos no se reproducen durante su primer mes de vida,pero que a partir del segundo mes cada pareja de conejos produce un nuevo par.Suponga que ning´n conejo muere. Si comenzamos con un par de conejos, ¿cu´ntas u aparejas de conejos hay a los n meses? Sugerencia: escriba la f´rmula de recursi´n o oun = un−1 + un−2 como la igualdad de matrices (un , un−1 ) = (un−1 , un−2 )B dondeB = 1 1 . Encuentre los valores caracter´ 1 0 ısticos de B y utilice (i). La sucesi´n oas´ obtenida se llama sucesi´n de Fibonacci, sus t´rminos se llaman n´meros ı o e ude Fibonacci y el valor caracter´ıstico positivo obtenido se llama secci´n ´urea o o aproporci´n divina. La soluci´n de muchos problemas de “aplicaci´n” de la teor´ o o o ıacon largos enunciados se reduce a formular ecuaciones adecuadas como en esteproblema.
  • 68. 62 Cap´ ıtulo II Vectores caracter´ ısticos y formas can´nicas o II.2 TEOREMA DE CAYLEY-HAMILTON 2.1 DEFINICION. Sea f (x) = an xn + an−1 xn−1 + · · · + a1 x + a0 un polinomiocon coeficientes en un campo K. Sea A una matriz cuadrada con coeficientestambi´n en K. Definimos el polinomio f (A) como an An + an−1 An−1 + · · · + a1 A + ea0 I, donde I es la matriz identidad. En forma an´loga tenemos la siguiente a 2.2 DEFINICION. Sea ρ: U −→ U un operador lineal del espacio vectorialU sobre el campo K. Sea f (x) un polinomio con coeficientes en K. Definimosf (ρ) = an ρn + · · · + a1 ρ1 + a0 I donde I es la aplicaci´n de identidad. Aqu´ o ı,ρn = ρ ◦ · · · ◦ ρ, n veces. Se dice que una matriz A (o un operador ρ) es una ra´ del polinomio f si ızf (A) = 0 (o si f (ρ) = 0). 2.3 DEFINICION. Sea A la matriz cuadrada   a11 a12 · · · a1n  . . . . . . . . . . an1 an2 · · · annLa matriz cuadrada λIn −A se llama matriz caracter´ ıstica. Llamamos polinomiocaracter´ıstico pA (λ) de A al determinante de la matriz caracter´ ıstica de A, i.e.,pA (λ) = |λIn − A|. As´ λIn − A es ı,   λ − a11 −a12 ··· −a1n  −a21 λ − a22 ··· −a2n   . . .   . . .  . . . −an1 −an2 ··· λ − anny pA (λ) es (λ − a11 )(λ − a22 ) · · · (λ − ann ) − · · · ; o bien,pA (λ) = λn − (a11 + a22 + · · · + ann )λn−1 + · · · = λn − (trA)λn−1 + · · · + (−1)n |A|donde (−1)n |A| = pA (0) es el t´rmino constante. e
  • 69. § 2 Teorema de Cayley-Hamilton 63 Recordemos que si A es la matriz cuadrada de n × n   a11 · · · a1n  . . .  . . . an1 · · · annse denota con Nij a la submatriz de (n − 1) × (n − 1) obtenida de A suprimiendosu rengl´n i y su columna j y, el determinante |Nij | se llama menor del elemento oaij de A. El cofactor de aij se define como el escalar Aij = (−1)i+j |Nij |. 1 2 3 Por ejemplo, si A = 4 5 6 entonces 7 8 9 N12 = 4 6 y A12 = (−1)1+2 4 6 = −(36 − 42) = 6. 7 9 7 9 n Recordemos que |A| = ai1 Ai1 + ai2 Ai2 + · · · + ain Ain = j=1 aij Aij y |A| = na1j A1j + a2j A2j + · · · + anj Anj = i=1 aij Aij . Tambi´n recordemos que la matriz adjunta cl´sica de A es la matriz traspuesta e ade cofactores, i.e.,   A11 · · · An1 A= . ˜ . . . . .  A1n · · · Ann ˜ ˜ 1 ˜y tiene la siguiente propiedad: AA = AA = |A|I; lo cual implica que A−1 = A. |A| 2.4 TEOREMA. (Cayley-Hamilton). Toda matriz cuadrada es ra´ de su ızpolinomio caracter´ ıstico. Demostraci´n. Sea A una matriz cuadrada y pA (λ) = |λI − A| = λn + o n−1an−1 λ + · · · + a1 λ + a0 su polinomio caracter´ ıstico. Sea Cλ la adjunta cl´sica ade la matriz λI − A. Como los elementos de Cλ son cofactores de λI − A, sonpolinomios en λ de grado menor o igual que n − 1. Luego Cλ = Cn−1 λn−1 + · · · + C1 λ + C0donde Ci es una matriz cuadrada con elementos en K. As´ que, aplicando la ıpropiedad que mencionamos de la matriz adjunta cl´sica se tiene que (λI − A)Cλ = a|λI − A|I. Esto es (λI − A)(Cn−1 λn−1 + · · · + C1 λ + C0 ) = (λn + an−1 λn−1 + · · · + a1 λ + a0 )I.
  • 70. 64 Cap´ ıtulo II Vectores caracter´ ısticos y formas can´nicas o Luego −AC0 = a0 I, C0 − AC1 = a1 I, . . . , Cn−3 − ACn−2 = an−2 I,Cn−2 − ACn−1 = an−1 I y Cn−1 = I. Si multiplicamos ambos lados de cada igual-dad por I, A, A2 , . . . , An respectivamente, obtenemos: −AC0 = a0 I, AC0 −A2 C1 =a1 A, . . . , An−2 Cn−3 − An−1 Cn−2 = an−2 An−2 , An−1 Cn−2 − An Cn−1 = an−1 An−1 ,An Cn−1 = An . Al sumar las ecuaciones obtenemos 0 = a0 I + a1 A + a2 A2 + · · · +an−1 An−1 + An . 2.5 EJEMPLO. Sea A = 1 2 . Luego 3 4 pA (λ) = |λI − A| = λ − 1 −2 = λ2 − λ − 4λ + 4 − 6 = λ2 − 5λ − 2. −3 λ−4Por el teorema 2.4 pA (A) = 1 2 1 2 −5 1 2 −2 1 0 3 4 3 4 3 4 0 1 = 7 10 − 5 10 − 2 0 = 0 0 . 15 22 15 20 0 2 0 0 2.6 PROPOSICION. Sea A una matriz cuadrada con elementos en uncampo K . Un elemento α ∈ K es un valor caracter´ ıstico de A correspon-diente a un vector caracter´ıstico (diferente de 0), si, y s´lo si, α es una ra´ o ızdel polinomio caracter´ıstico pA (λ). Demostraci´n. Por 1.9, α es un valor caracter´ o ıstico de A si, y s´lo si, αI − A es osingular, es decir, no invertible. Pero αI −A es no invertible si, y s´lo si, |αI −A| = 0 o(recuerde que una matriz es invertible si, y s´lo si, su determinante es distinto de ocero). i.e., α es ra´ de pA (λ). ız 2.7 PROPOSICION. Sup´ngase que pA (λ) es de la forma o (λ − a1 )(λ − a2 ) · · · (λ − an )con todas las ai distintas, entonces A es similar a una matriz diagonal conlas ai en la diagonal. Demostraci´n. Como las ai son las distintas ra´ diferentes de cero de pA (λ), o ıces´stas son, por 2.6, los valores caracter´e ısticos de A y, por 1.11, los vectores car-acter´ ısticos correspondientes son linealmente independientes. Luego, los vectores
  • 71. § 2 Teorema de Cayley-Hamilton 65caracter´ ısticos asociados a dichos valores caracter´ısticos son una base del espaciovectorial y, por 1.12, A es similar a una matriz diagonal. 2.8 PROPOSICION. Si A y B son matrices similares, entonces pA (λ) = pB (λ). Demostraci´n. Si A es similar a B entonces A = N −1 BN con N invertible. oComo λI = N λIN , tenemos que |λI − A| = |λI − N −1 BN | = |N −1 λIN − −1N −1 BN | = |N −1 (λI − B)N | = |N −1 ||λI − B||N | = |λI − B||N −1 ||N | = |λI − B|. En otras palabras, la funci´n Mn (K) −→ K[λ] que asigna a cada matriz su o ıstico es un invariante bajo similaridad o semejanza.polinomio caracter´ Puesto que todo polinomio sobre C posee una ra´ si A es una matriz con I ız,coeficientes en C entonces A posee al menos un valor caracter´ I ıstico.PROBLEMAS2.1 Pruebe que si f y g son polinomios con coeficientes en K entonces (f +g)(A) =f (A) + g(A), (f g)(A) = f (A)g(A) y (λf )(A) = λ(f (A)), λ ∈ K.2.2 Sea A la matriz asociada a ρ. Pruebe que f (A) es la matriz asociada a f (ρ). ˜ ˜ ˜2.3 Pruebe que si A es la matriz adjunta cl´sica de A entonces AA = AA = |A|I. a 1 2 32.4 Sea A = 4 5 6 . Calcule la adjunta cl´sica Cλ de la matriz λI − A. a 7 8 9Compruebe que Cλ = C2 λ2 + C1 λ1 + C0 donde Ci es una matriz cuadrada conelementos en K.2.5 Pruebe que pA (λ) = pt A (λ).2.6 Pruebe que si A es una matriz triangular, su polinomio caracter´ ıstico poseecomo valores caracter´ ısticos a los elementos de la diagonal.2.7 Sea ρ: I 3 −→ I 3 un operador lineal dado por ρ(x, y, z) = (x + y, 2x, 4y). R R
  • 72. 66 Cap´ ıtulo II Vectores caracter´ ısticos y formas can´nicas oEncuentre los valores caracter´ ısticos α y una base para cada espacio caracter´ ısticoUα .2.8 Calcule los valores y vectores caracter´ ısticos de A = 1 −1 y B = −2 4 sobre I y sobre C . 2 3 −1 1 R I Prop´ngase usted mismo ejercicios similares a ´stos dos ultimos si presiente que o e ´no ha dominado la t´cnica. e
  • 73. § 3 El polinomio m´ ınimo 67 II.3 EL POLINOMIO MINIMOEn esta secci´n presentaremos otro invariante para la relaci´n de similaridad o o osemejanza. 3.1 DEFINICION. Sea A una matriz cuadrada. El polinomio m´ ınimo mA (λ)de A es el polinomio m´nico (con coeficiente inicial 1) de menor grado tal que omA (A) = 0. Por el teorema de Cayley-Hamilton, A es ra´ de un polinomio pA (λ) diferente ızde cero. Supongamos que tiene grado n y que es el m´s peque˜o de los grados a ntal que pA (A) = 0. Si dividimos pA (λ) entre su coeficiente inicial obtendremos unpolinomio m´nico mA (λ) de grado n con A como ra´ Si mA (λ) es otro polinomio o ız.m´nico de grado n para el cual mA (A) = 0 entonces mA (λ)−mA (λ) es un polinomio odiferente de cero de grado menor que n con ra´ A. Esto contradice el que n sea el ızm´s peque˜o de los grados tal que pA (A) = 0. Por lo tanto mA (λ) es unico. a n ´ A´n m´s, por el algoritmo de la divisi´n, si f (λ) es un polinomio tal que f (A) = 0 u a oentonces f (λ) = mA (λ)g(λ) + r(λ) con r(λ) = 0 o gr r(λ) < gr mA (λ). Comof (A) = 0 y mA (A) = 0 tenemos que r(A) = 0. Si r(λ) = 0, entonces r(λ) esun polinomio de grado menor que el de mA (λ) que posee a A como ra´ lo cual ız,contradice el hecho de que mA (λ) sea m´ınimo. Luego r(λ) = 0 y f (λ) = mA (λ)g(λ).Podemos resumir lo anterior en la siguiente 3.2 PROPOSICION. El polinomio m´ ınimo de una matriz A existe, esunico y divide a cualquier otro polinomio que tenga a A como ra´ en´ ız,particular, divide al polinomio caracter´ ıstico de A. 3.3 PROPOSICION. El polinomio m´ ınimo y el polinomio caracter´ ısticode una matriz A poseen los mismos factores irreducibles. Demostraci´n. Sea mA (λ) el polinomio m´ o ınimo de A de la forma mA (λ) = t t−1λ + at−1 λ + · · · + a1 λ + a0 . Consideremos las matrices C0 = I, C1 = A + at−1 I,C2 = A2 + at−1 A + at−2 I, . . . , Ct−1 = At−1 + at−1 At−2 + · · · + a1 I. Luego C0 = I,C1 − AC0 = at−1 I, C2 − AC1 = at−2 I, . . . , Ct−1 − ACt−2 = a1 I. Multiplicando
  • 74. 68 Cap´ ıtulo II Vectores caracter´ ısticos y formas can´nicas oCt−1 por −A obtenemos −ACt−1 = a0 I − (At + at−1 At−1 + · · · + a1 A + a0 I) =a0 I − mA (A) = a0 I. Sea C(λ) = λt−1 C0 + λt−2 C1 + · · · + λCt−2 + Ct−1 . Entonces (λI − A) · C(λ) = (λt C0 + λt−1 C1 + · · · + λCt−1 ) − (λt−1 AC0 + λt−2 AC1 + · · · + λACt−2 + ACt−1 ) = λt C0 + λt−1 (C1 − AC0 ) + · · · + λ(Ct−1 − ACt−2 ) + a0 I = λt I + at−1 λt−1 I + · · · + a1 λ1 I + a0 I = mA (λ)I.Luego, |λI − A||C(λ)| = |mA (λ)I| = mA (λ)n . Por lo tanto, |λI − A| divide amA (λ)n . Es decir, el polinomio caracter´ ıstico de A divide a mA (λ)n . Sea g(λ) un polinomio irreducible. Si g(λ) mA (λ) entonces g(λ)|pA (λ) puesmA (λ)|pA (λ). Por otro lado, si g(λ)|pA (λ) entonces g(λ)|mA (λ)n . Como g(λ)es irreducible, g(λ)|mA (λ). Luego mA (λ) y pA (λ) poseen los mismos factoresirreducibles. 3.4 COROLARIO. Un elemento α ∈ K es valor caracter´ ıstico de A si, ys´lo si, α es ra´ del polinomio m´ o ız ınimo de A. Demostraci´n. Por 3.3, el polinomio m´ o ınimo y el polinomio caracter´ ıstico deA poseen los mismos factores lineales irreducibles y, por lo tanto, poseen las mismasra´ ıces.   3 0 1 0 3.5 EJEMPLO. Sea A =  0 3 0 0  . El polinomio caracter´ 0 0 3 0 ıstico de A es 0 0 0 8pA (λ) = |λI − A| = (λ − 3)3 (λ − 8). Por los resultados precedentes, mA (λ)|pA (λ)y adem´s mA (λ) posee los mismos factores irreducibles, entonces mA (λ) puede ser auno de los siguientes: (λ − 3)(λ − 8), (λ − 3)2 (λ − 8), ´ (λ − 3)3 (λ − 8). oPor el teorema (de Cayley-Hamilton) 2.4, mA (A) = 0. Luego, calculando, mA (λ)debe ser (λ − 3)2 (λ − 8).
  • 75. § 3 El polinomio m´ ınimo 69PROBLEMAS   2 0 0 43.1 Encuentre el polinomio m´ 0 ınimo de A = 0 4 2 0 . 0 2 4 0 0 0 9   8 0 3 13.2 Encuentre los valores caracter´ 4 ısticos de A = 0 2 3 2 . 0 8 0 0 0 0 23.3 Sea V un espacio vectorial de dimensi´n finita sobre un campo K. Pruebe oque ρ ∈ HomK (V, V ) es invertible si, y s´lo si, el t´rmino constante de mρ (λ) de ρ o eno es cero.3.4 Sea V en espacio vectorial de dimensi´n finita sobre un campo K. Pruebe oque: (a) si ρ ∈ HomK (V, V ) es invertible, entonces ρ−1 es una expresi´n polinomial o en ρ sobre K y (b) si ρ es singular, entonces existe η ∈ HomK (V, V ), η = 0 tal que ρη = ηρ = 0.3.5 Pruebe que una matriz cuadrada A es diagonalizable si, y s´lo si, mA (λ) = o(λ − λ1 )(λ − λ2 ) · · · (λ − λr ) donde λ1 , . . . , λr son los valores caracter´ ısticos distintosde A.
  • 76. 70 Cap´ ıtulo II Vectores caracter´ ısticos y formas can´nicas o II.4 FORMA CANONICA TRIANGULAREn 1.1 definimos el concepto de similaridad de matrices, (el cual se traduce en unopara operadores), y en 1.2 se vio que era una relaci´n de equivalencia. El problema oque consideraremos ser´ el de c´mo distinguir las clases de equivalencia, o bien, di- a ocho de otra manera, c´mo determinamos si dos operadores lineales son similares. Lo oresolveremos definiendo ciertas matrices llamadas formas can´nicas, una para cada oclase de equivalencia. Formalmente, definimos un conjunto de formas can´nicas opara una relaci´n de equivalencia ∼ en un conjunto C como un subconjunto F ode C que consiste de exactamente un elemento de cada clase de equivalencia de∼. Entonces, una vez obtenidas las formas can´nicas, bastar´ comparar si ´stas o a eson las mismas o no para cada operador. Comenzaremos estudiando el importanteconcepto de espacio cociente que utilizaremos en esta secci´n y en el resto del texto. o 4.1 NOTACION. Sea V un espacio vectorial sobre un campo K. Sea U unsubespacio de V y v ∈ V . Denotaremos con v + U el conjunto {v + u|u ∈ U }.Dichos elementos v + U los llamaremos clases laterales de U en V . Como 0 ∈ U y v = v + 0 ∈ v + U , cada v ∈ V pertenece a una clase lateral. Esinmediato comprobar que cualesquiera dos clases laterales son ajenas o son iguales(problema 4.1). Sea V /U el conjunto de todas las clases laterales de U en V . D´mosle a V /U euna estructura de espacio vectorial mediante +: V /U × V /U −→ V /U dada por ((v + U ), (w + U )) −→ ((v + w) + U ) y µ: K × V /U −→ V /U dada por (λ, v + U ) −→ λv + U. Es f´cil comprobar que las operaciones anteriores est´n bien definidas (problema a a4.2) y que definen una estructura de espacio vectorial en V /U . Llamaremos a V /U ,espacio cociente. Nota: Sea U un subespacio del espacio vectorial V sobre un campo K. Siu ∈ v + U entonces existe w ∈ U tal que u = v + w. Luego u − v = w ∈ U .Si u − v ∈ U entonces u − v = w ∈ U . Luego u = v + w ∈ v + U . Tambi´ne
  • 77. § 4 Forma can´nica triangular o 71u − v ∈ U ⇐⇒ −(u − v) = v − u ∈ U ⇐⇒ v ∈ u + U . En resumen,u ∈ v + U ⇐⇒ u − v ∈ U ⇐⇒ v ∈ u + U . Sea p: V −→ V /U dada por v −→ v + U . Si v, w ∈ V , entonces p(v + w) =(v + w) + U = (v + U ) + (w + U ) = p(v) + p(w). Si λ ∈ K, p(λv) = λv + U =λ(v + U ) = λp(v). Por lo tanto, p es una aplicaci´n lineal llamada proyecci´n o ocan´nica. o 4.2 DEFINICION. Sea V un espacio vectorial sobre un campo K y U un subes-pacio de V . Decimos que U es invariante bajo un operador linealρ: V −→ V si ρ(U ) ⊂ U . Observe que ρ define un operador lineal de U que denotamos con ρ|U . 4.3 PROPOSICION. Sea ρ: V −→ V un operador lineal de V y U unsubespacio de V invariante bajo ρ. Entonces ρ induce un operador linealρV /U : V /U −→ V /U dado por ρV /U (v + U ) = ρ(v) + U . Demostraci´n. Veamos que ρV /U est´ bien definido: sea u + U = u + U , o aentonces u − u ∈ U y como U es invariante bajo ρ, ρ(u − u ) = ρ(u) − ρ(u ) ∈ U .Luego ρV /U (u + U ) = ρ(u) + U = ρ(u ) + U = ρV /U (u + U ). As´ si u + U = u + U entonces ρV /U (u + U ) = ρV /U (u + U ) y, por lo tanto, ı,ρV /U est´ bien definida. a Veamos que ρV /U es lineal: ρV /U ((u + U ) + (u + U )) = ρV /U (u + u + U ) = ρ(u + u ) + U = ρ(u) + ρ(u ) + U = ρ(u) + U + ρ(u ) + U = ρV /U (u + U ) + ρV /U (u + U ). ρV /U (λ(u + U )) = ρV /U (λu + U ) = ρ(λu) + U = λρ(u) + U = λ(ρ(u) + U ) = λρV /U (u + U ).
  • 78. 72 Cap´ ıtulo II Vectores caracter´ ısticos y formas can´nicas o 4.4 PROPOSICION. Sea ρ: V −→ V un operador lineal. Si f es unpolinomio tal que f (ρ) = 0 entonces f (ρV /U ) = 0. Demostraci´n. Sea v + U una clase lateral de V /U . Observe que (ρ2 )V /U = o(ρV /U )2 pues (ρ2 )V /U (v + U ) = ρ2 (v) + U = ρ(ρ(v)) + U = ρV /U (ρ(v) + U ) =ρV /U (ρV /U (v + U )) = (ρV /U )2 (v + U ). An´logamente, (ρi )V /U = (ρV /U )i . Luego, a npara el polinomio f = i=0 αi ti tenemos que [f (ρ)]V /U (v + U ) = f (ρ)(v) + U n = αi ρi (v) + U i=0 n = αi (ρi (v) + U ) i=0 = αi (ρi )V /U (v + U ) = αi (ρV /U )i (v + U ) n = αi (ρV /U )i (v + U ) i=0 = f (ρV /U )(v + U ).As´ que [f (ρ)]V /U = f (ρV /U ). Esto es, si ρ es ra´ de f entonces [f (ρ)]V /U = 0V /U = ı ızU = f (ρV /U ), luego ρV /U es ra´ de f . ız Observe que, debido a la proposici´n anterior, el polinomio m´ o ınimo de ρV /Udivide al polinomio m´ ınimo de ρ. 4.5 PROPOSICION. Sea U un subespacio de un espacio vectorial V sobreun campo K . Sea {u1 , . . . , ut } una base de U y {v 1 , . . . , v r } una base de V /U .Entonces {v1 , . . . , vr , u1 , . . . , ut } es una base de V y dim V = dim U + dim V /U . Demostraci´n. Sea v ∈ V . Como {v i } es una base de V /U , v = v + U = oα1 v 1 +α2 v 2 +· · ·+αr v r . Luego v = α1 v1 +· · ·+αr vr +u donde u ∈ U . Como {ui } esuna base de U , v = α1 v1 +· · ·+αr vr +β1 u1 +· · ·+βt ut . Luego {v1 , . . . , vr , u1 , . . . , ut }genera a V . Supongamos que γ1 v1 +· · ·+γr vr +δ1 u1 +· · ·+δt ut = 0. Luego γ1 v 1 +· · ·+γr v r =0 = U pues cada v i = vi + U . Como {v i } es linealmente independiente, γi = 0.Luego δ1 u1 + · · · + δt ut = 0 y como las {ui } son linealmente independientes, lasδi = 0. Luego {v1 , . . . , vr , u1 , . . . , ut } es linealmente independiente. Sea ρ ∈ HomK (V, V ) un operador lineal de V . Diremos que ρ puede represen-
  • 79. § 4 Forma can´nica triangular o 73tarse por una matriz triangular si su matriz asociada es triangular. Si A es lamatriz triangular de la forma   a11 a12 ··· a1n  0 a22 ··· a2n   . . .. .. . , . . . . . 0 ··· 0 annsu polinomio caracter´ ıstico es pA (λ) = |λI − A| = (λ − a11 )(λ − a22 ) · · · (λ − ann ). El siguiente teorema establece el sentido inverso: 4.6 TEOREMA. Sea ρ ∈ HomK (V, V ) tal que su polinomio caracter´ ısticose factoriza como producto de polinomios lineales. Entonces existe una basede V para la cual la matriz asociada a ρ es triangular. Demostraci´n. Utilizando inducci´n sobre la dimensi´n de V tenemos que, si o o odim V = 1, la matriz asociada a ρ, de 1 × 1, es triangular. Supongamos que dim V = n con n > 1 y que el teorema es v´lido para dimen- asiones menores que n. El polinomio caracter´ ıstico se factoriza como producto depolinomios lineales por hip´tesis, luego ρ posee al menos un valor caracter´ o ıstico yun vector caracter´ıstico asociado diferente de cero. Sea v dicho vector caracter´ ısticotal que ρ(v) = a11 v. Sea U el subespacio de dimensi´n 1 generado por v. Luego, opor 4.5, dim V /U = dim V − dim U = n − 1. Como U es invariante bajo ρ, por4.3 ρ induce un operador ρV /U cuyo polinomio m´ ınimo divide al polinomio m´ ınimode ρ. Como el polinomio caracter´ ıstico de ρ es producto de polinomios lineales, elpolinomio m´ ınimo de ρ tambi´n es producto de polinomios lineales y por ende lo eson los polinomios caracter´ ısticos y m´ ınimos de ρV /U . Luego V /U y ρV /U satisfacenlas hip´tesis del teorema. Por inducci´n, existe una base {v 2 , . . . , v n } de V /U tal o oque ρV /U (v 2 ) = a22 v 2 ρV /U (v 3 ) = a32 v 2 + a33 v 3 . . . ρV /U (v n ) = an2 v 2 + an3 v 3 + · · · + ann v n . Sea vi ∈ v i . Por 4.5, {v, v2 , . . . , vn } es una base de V . Como ρV /U (v 2 ) = a22 v 2 ,ρV /U (v 2 ) − a22 v 2 = 0. Luego ρ(v2 ) − a22 v2 ∈ U . Como U est´ generado por v, a
  • 80. 74 Cap´ ıtulo II Vectores caracter´ ısticos y formas can´nicas oρ(v2 ) − a22 v2 es un m´ltiplo de v, por ejemplo, ρ(v2 ) − a22 v2 = a21 v, luego ρ(v2 ) = ua21 v + a22 v2 . An´logamente para i = 3, . . . , n, ρ(vi ) − ai2 v2 − ai3 v3 − · · · − aii vi ∈ U , aluego ρ(vi ) = ai1 v + ai2 v2 + · · · + aii vi . As´ que ı ρ(v) = a11 v ρ(v2 ) = a21 v + a22 v2 . . . ρ(vn ) = an1 v + an2 v2 + · · · + ann vny la matriz asociada a ρ con respecto a esta base es triangular. 4.7 PROPOSICION. Sea U un subespacio invariante de ρ ∈ HomK (V, V ).Entonces ρ posee una matriz asociada de la forma X Y donde X es la 0 Zmatriz asociada a ρ|U . Demostraci´n. Sea {u1 , . . . , ut } una base de U . Completemos la base a una obase de V : {u1 , . . . , ut , w1 , . . . , ws }. Entonces ρ|U (u1 ) = ρ(u1 ) = a11 u1 + · · · + a1t ut ρ|U (u2 ) = ρ(u2 ) = a21 u1 + · · · + a2t ut . . . . . . . . . ρ|U (ut ) = ρ(ut ) = at1 u1 + · · · + att ut ρ(w1 ) = b11 u1 + · · · + b1t ut + c11 w1 + · · · + c1s ws ρ(w2 ) = b21 u1 + · · · + b2t ut + c21 w1 + · · · + c2s ws . . . ρ(ws ) = bs1 u1 + · · · + bst ut + cs1 w1 + · · · + css ws . As´ la matriz asociada a ρ es la traspuesta de la matriz de coeficientes del sistema ı,y es de la forma X Y donde X es la traspuesta del sistema correspondiente. 0 Z 4.8 PROPOSICION. Sea ρ ∈ HomK (V, V ) y ρ|U la restricci´n de ρ a un osubespacio invariante U de V . Si f es un polinomio, entonces f (ρ|U )(u) =f (ρ)(u), u ∈ U y el polinomio m´ ınimo mρ|U (λ) divide al polinomio m´ınimomρ (λ).
  • 81. § 4 Forma can´nica triangular o 75 Demostraci´n. Sea f cualquier polinomio. Supongamos que el grado n de of es mayor que 1, pues si es de grado cero o uno es v´lida la afirmaci´n. Si a o n n−1 1f es de la forma αn x + αn−1 x + · · · + α1 x + α0 y el resultado vale paragrados menores que n, entonces f (ρ|U )(u) = (αn ρ|n + · · · + α1 ρ|U + α0 I)(u) = U(αn ρ|n−1 )(ρ|U (u)) + (αn−1 ρ|n−1 + · · · + α0 I)(u) = (αn ρn−1 )(ρ(u)) + (αn−1 ρn−1 + U U· · · + α0 I)(u) = f (ρ)(u). Si mρ (λ) denota al polinomio m´ ınimo de ρ, entoncesmρ (ρ|U )(u) = mρ (ρ)(u) = 0(u) = 0 ∀u ∈ U . Luego ρ|U es ra´ del polinomio ızm´ ınimo de ρ y, por la proposici´n 3.2, el polinomio m´ o ınimo de ρ|U divide a mρ (λ).PROBLEMAS4.1 Pruebe que cualesquiera clases laterales o son ajenas o son iguales.4.2 Compruebe que las operaciones definidas en V /U est´n bien definidas y que aproporcionan una estructura de espacio vectorial en V /U .4.3 Sea U un subespacio de un espacio vectorial V sobre un campo K. Pruebe quesi el conjunto de clases laterales {v 1 , . . . , v n } de V /U es linealmente independienteentonces {v1 , . . . , vn } es linealmente independiente.4.4 Describa las clases laterales de U en I 3 donde U es el espacio soluci´n de la R oecuaci´n 8x + 2y + 5z = 0. o4.5 Pruebe que si ρ ∈ HomK (V, V ) es un operador lineal y f un polinomiocualquiera, entonces el n´cleo de f (ρ) es invariante bajo ρ. u4.6 Proporcione con todo detalle la demostraci´n de la Proposici´n 4.8. o o4.7 Compruebe que si A es una matriz cuadrada cuyo polinomio caracter´ ısticose factoriza en polinomios lineales entonces A es similar a una matriz triangular.(Sugerencia: Teorema 4.6)4.8 Pruebe que si f : V −→ W es una funci´n lineal entre espacios vectoriales osobre un campo K, entonces existe una funci´n lineal unica h: V /kerf −→ W tal o ´ ∼ V /kerf .que h ◦ p = f . Adem´s, h es inyectiva y f (V ) = imf = a
  • 82. 76 Cap´ ıtulo II Vectores caracter´ ısticos y formas can´nicas o4.9 Sea f : U −→ V una funci´n lineal. Pruebe que existen bases de U y de V tales oque la matriz asociada a f es de la forma Ir 0 donde Ir es matriz identidad 0 0y r es el rango de f . Este es un ejemplo de forma can´nica llamada normal de of bajo la relaci´n de equivalencia siguiente: una matriz A es equivalente a una omatriz B si, y s´lo si, el rango de A es igual al rango de B. o m,n4.10 Sea Ir la matriz de m × n cuyos primeros r renglones son la base can´nica ode K r y cuyos renglones restantes son cero, i.e., Ir m,n = Ir 0 . Pruebe que, 0 0 m,nsi A, B ∈ Mm×n K entonces A es equivalente a Ir si, y s´lo si, el rango de A es or. Concluya que A es equivalente a B si, y s´lo si, sus rangos son iguales (v´ase el o e m,nproblema 1.4) y que las matrices Ir (r = 1, 2, . . . , min(m, n)) son un conjunto deformas can´nicas para la relaci´n de equivalencia en Mm×n K. o o4.11 Sea ρ ∈ HomK (V, V ) tal que ρ = ρ1 ⊕ρ2 con respecto a la suma V = U1 ⊕U2donde Ui (i = 1, 2) es invariante bajo ρ. Pruebe que pρ (λ) = pρ1 (λ)pρ2 (λ) dondepρ , pρ1 y pρ2 son los polinomios caracter´ ısticos.
  • 83. § 5 Forma can´nica de Jordan o 77 II.5 FORMA CANONICA DE JORDAN 5.1 DEFINICION. Sea ρ ∈ HomK (V, V ) y Ui , i = 1, . . . , s subespacios de V .Diremos que ρ (es descomponible) se puede descomponer como suma directa deoperadores ρ|Ui , si V = ⊕s Ui con Ui invariante bajo ρ. En este caso escribiremos i=1ρ = ⊕s ρ|Ui . i=1 5.2 LEMA. Sea ρ ∈ HomK (V, V ) tal que ρ = ρ1 ⊕ρ2 con respecto a la sumaV = U1 ⊕ U2 donde Ui , i = 1, 2 es invariante bajo ρ. Entonces mρ (λ) es elm.c.m. de mρ1 (λ) y de mρ2 (λ). Demostraci´n. Por el problema 4.6, mρ1 (λ)|mρ (λ) y mρ2 (λ)|mρ (λ). Sea h un opolinomio m´ltiplo de mρ1 y mρ2 . Luego h(ρ1 ) = 0 y h(ρ2 ) = 0. Sea v ∈ V tal que uv = u1 + u2 , u1 ∈ U1 , u2 ∈ U2 . Entonces h(ρ)(v) = h(ρ)(u1 ) + h(ρ)(u2 ) = 0.Por lo tanto, ρ es ra´ de h. Luego, por 3.2, mρ (λ)|h(λ) y, por lo tanto, mρ (λ) es ızel m´ ınimo com´n m´ltiplo. u u 5.3 PROPOSICION. Sea ρ ∈ HomK (V, V ). Sean f, g y h polinomios talesque f (ρ) = 0, f = gh y (g, h) = 1. Entonces V = ker g(ρ) ⊕ ker h(ρ). A´n um´s, si f es el polinomio m´ a ınimo de ρ entonces g y h son los polinomiosm´ınimos de ρ|ker g(ρ) y de ρ|ker h(ρ) respectivamente. Demostraci´n. Por el problema 4.5, ker g(ρ) y ker h(ρ) son invariantes bajo oρ. Como g y h son primos relativos rg + sh = 1para ciertos polinomios r y s. As´ que, ı r(ρ)g(ρ) + s(ρ)h(ρ) = Iel cual, calculado en un elemento v ∈ V nos da r(ρ)g(ρ)(v) + s(ρ)h(ρ)(v) = v.
  • 84. 78 Cap´ ıtulo II Vectores caracter´ ısticos y formas can´nicas oComo h(ρ)r(ρ)g(ρ)(v) = r(ρ)g(ρ)h(ρ)(v) = r(ρ)f (ρ)(v) = r(ρ)0(v) = 0,r(ρ)g(ρ)(v) ∈ ker h(ρ). An´logamente g(ρ)s(ρ)h(ρ)(v) = s(ρ)g(ρ)h(ρ)(v) = as(ρ)f (ρ)(v) = s(ρ)0(v) = 0 y s(ρ)h(ρ) ∈ ker g(ρ). Luego V = ker g(ρ) + ker h(ρ). Ahora, necesitamos probar que si v = v + v con v ∈ ker g(ρ) y v ∈ ker h(ρ),v y v est´n determinadas en forma unica por v: aplicamos r(ρ)g(ρ) a v = v + v a ´y como g(ρ)v = 0 tenemos que r(ρ)g(ρ)(v) = r(ρ)g(ρ)(v ) + r(ρ)g(ρ)(v ) =r(ρ)g(ρ)(v ). Tambi´n v = I(v ) = r(ρ)g(ρ)(v ) + s(ρ)h(ρ)(v ) = r(ρ)g(ρ)(v ) epues h(ρ)(v ) = 0. Las f´rmulas o anteriores nos danv = r(ρ)g(ρ)(v) y as´ v est´ determinada en forma unica por v. De manera ı a ´semejante, v est´ determinada en forma unica por v; luego V es suma directa de a ´ker g(ρ) y de ker h(ρ). Sean mg y mh los polinomios m´ ınimos de ρ|ker g(ρ) y de ρ|ker h(ρ) respectiva-mente. Sabemos que g(ρ|ker g(ρ) ) = 0 y que h(ρ|ker h(ρ) ) = 0. Luego mg |g y mh |h.Por 5.2, f es el m.c.m. de mg y mh . Pero mg y mh son primos relativos puesto queg y h lo son. Luego f = mg mh . Pero f = gh. Esto implica que g = mg y h = mh . 5.4 TEOREMA. (Descomposici´n primaria). Sea ρ ∈ HomK (V, V ) con poli- onomio m´ ınimo mρ (λ) = f1 (λ)η1 f2 (λ)η2 · · · fs (λ)ηsdonde los fi (λ) son polinomios m´nicos e irreducibles distintos. Entonces oV = ⊕s ker fi (ρ)ηi donde los subespacios ker fi (ρ)ηi son invariantes bajo ρ i=1y fi (λ)ηi es el polinomio m´ ınimo de ρ|ker fi (ρ)ηi . Demostraci´n. Utilizando inducci´n sobre s, tenemos que para s = 1, el re- o osultado es trivial. Supongamos que el teorema es v´lido para s − 1. Por la aproposici´n 5.3, V = ker f1 (ρ)η1 ⊕ker (f2 (ρ)η2 · · · fs (ρ)ηs ) y los polinomios m´ o ınimos η1 η2 ηsde ρ|ker f1 (ρ)η1 y de ρ|ker f2 (ρ)η2 ···fs (ρ)ηs son f1 (λ) y f2 (λ) · · · fs (λ) respectiva-mente. Sea ρ1 = ρ|ker f2 (ρ)η2 ···fs (ρ)ηs . Por hip´tesis de inducci´n, o o η2 ηs s ηi ηiker (f2 (ρ) · · · fs (ρ) ) = ⊕i=2 ker fi (ρ1 ) tal que fi (λ) es el polinomio m´ ınimode la restricci´n de ρ1 a ker fi (ρ1 )ηi . Como fi (λ)ηi divide a f2 (λ)η2 · · · fs (λ)ηs , oker fi (ρ)ηi ⊂ ker (f2 (ρ)η2 · · · fs (ρ)ηs ), i = 2, . . . , s. Luego, ker fi (ρ)ηi =ker fi (ρ1 )ηi . Como ρ|ker fi (ρ1 )ηi = ρ1 |ker fi (ρ1 )ηi para i = 2, . . . , s, fi (λ)ηi es tambi´n el poli- enomio m´ ınimo de ρ|ker fi (ρ1 )ηi . Luego V = ker f1 (ρ)η1 ⊕ ker f2 (ρ)η2 ⊕ · · · ⊕ker fs (ρ)ηs y la descomposici´n de ρ es ρ = ⊕s ρ|ker fi (ρ)ηi . o i=1
  • 85. § 5 Forma can´nica de Jordan o 79 5.5 COROLARIO. Un operador ρ ∈ HomK (V, V ) posee una matriz aso-ciada diagonal si, y s´lo si, su polinomio m´ o ınimo mρ (λ) es producto depolinomios lineales distintos. Demostraci´n. Sea ρ un operador lineal cuya matriz asociada es diagonal. En- otonces V posee una base que consiste de vectores caracter´ ısticos de ρ con valores car-acter´ ısticos distintos λ1 , . . . , λr . Por consiguiente el operador f (ρ) =(ρ − λ1 I)(ρ − λ2 I) · · · (ρ − λr I) env´ cualquier vector de la base al cero (v´ase ıa eel problema 5.3). Luego f (ρ) = 0 y, por lo tanto, el polinomio m´ ınimo m(λ) de ρdivide al polinomio f (ρ) = (λ − λ1 )(λ − λ2 ) · · · (λ − λr I). As´ m(λ) es producto de ı,polinomios lineales distintos. Ahora, supongamos que m(λ) = (λ − λ1 )(λ − λ2 ) · · · (λ − λs ) con las λi ∈ Kdiferentes. Por el teorema 5.4, V = ⊕s ker (ρ − λi I). Sea v ∈ ker (ρ − λi I), luego i=1(ρ − λi I)(v) = 0, i.e., ρ(v) = λi v. Esto significa que cada vector de ker (ρ − λi I)es un vector caracter´ ıstico perteneciente al valor caracter´ ıstico λi . Por el problemaI.3.10, la uni´n de las bases de ker (ρ − λi I) es una base de V que consiste de ovectores caracter´ısticos. Luego ρ es diagonalizable. A continuaci´n estudiaremos operadores lineales cuyas ra´ o ıces de su polinomiom´ınimo son todas cero. Sabemos entonces, por el teorema 4.6, que existe una basedel espacio vectorial tal que la matriz asociada a ρ es triangular. Sin embargo,el encontrar formas can´nicas para dichos operadores nilpotentes nos permitir´n o aencontrar formas can´nicas para cualquier operador que se factorice como producto ode polinomios lineales. 5.6 DEFINICION. Un operador lineal ρ ∈ HomK (V, V ) se llama nilpotentesi ρn = 0 para alguna n > 0. Llamaremos al entero r ´ ındice de nilpotencia de ρ si r r−1ρ = 0 pero ρ = 0. Tambi´n diremos que una matriz cuadrada A es nilpotente esi An = 0 y r es el ´ ındice de nilpotencia de A si Ar = 0 pero Ar−1 = 0. Observaci´n. El polinomio m´ o ınimo de un operador nilpotente de ´ındice r esm(λ) = λr . Su unico valor caracter´ ´ ıstico es el cero. (Problema 5.7). 5.7 PROPOSICION. Sea ρ ∈ HomK (V, V ) un operador nilpotente deındice r, y v ∈ V tal que ρr−1 (v) = 0. Entonces el conjunto {ρr−1 (v),´ρr−2 (v), . . . , ρ(v), v} es una base del subespacio que genera, cuya matriz aso-
  • 86. 80 Cap´ ıtulo II Vectores caracter´ ısticos y formas can´nicas ociada posee ´ ındice de nilpotencia r y es de la forma   0 1 0 ··· 0 0 0 0 1 ··· 0 0 . . . . . . .. . . . . . . . . . . . 0 0 0 ··· 0 1   0 0 0 ··· 0 0 Demostraci´n. Por el problema 5.4, el conjunto {ρr−1 (v), . . . , v} es linealmente oindependiente y el subespacio que genera es invariante bajo ρ. Por el problema 5.5, ındice r, (ρ )r (ρk (v)) = ρr+k (v) = 0 luegocomo ρ es nilpotente de ´ ρ (ρr−1 (v)) = ρr (v) = 0 ρ (ρr−2 (v)) = ρr−1 (v) ρ (ρr−3 (v)) = ρr−2 (v) . . .. . . ρ (ρ(v)) = ρ2 (v) ρ (v) = ρ(v) Por lo tanto, la matriz asociada es la requerida. Es inmediato comprobar que esde ´ ındice r. 5.8 LEMA. Sea ρ ∈ HomK (V, V ). Entonces ker ρk ⊂ ker ρk+1 yρ(ker ρk+1 ) ⊂ ker ρk . Demostraci´n. Sea v ∈ ker ρk , luego ρk (v) = 0 y ρk+1 (v) = ρ(ρk (v)) = oρ(0) = 0. Por lo tanto v ∈ ker ρk+1 y, como v es arbitraria, ker ρk ⊂ ker ρk+1 .Si v ∈ ker ρk+1 entonces ρk+1 (v) = 0. Queremos ver que ρ(v) ∈ ker ρk i.e.ρk (ρ(v)) = 0. Pero como ρk+1 (v) = 0 y ρk (ρ(v)) = ρk+1 (v) = 0 hemos terminado. 5.9 PROPOSICION. Sea ρ ∈ HomK (V, V ) nilpotente de ´ ındice r. En-tonces ρ posee una matriz asociada diagonal por bloques que son de la forma   0 1 0 ··· 0 0 0 0 1 ··· 0 0 . . . . . . . . . . . . . . . . 0 0 0 ··· 0 1 0 0 0 ··· 0 0 Demostraci´n. Sea n = dim V , mi = dim ker ρi , i = 1, . . . , r. Como ρr = 0, oV = ker ρ y como ρr−1 = 0, ker ρr−1 = V . Luego mr−1 < mr = n. Por el lema r
  • 87. § 5 Forma can´nica de Jordan o 815.8, ker ρ1 ⊂ ker ρ2 ⊂ · · · ⊂ ker ρr = V. Por inducci´n, podemos escoger una base o{v1 , . . . , vn } de V tal que i{v1 , . . . , vmi } es una base de ker ρ . Escojamos una base nueva de V para la cual ρ posee la forma deseada: pong´- amosla con cierto orden; u(1,r) = vmr−1 +1 u(2,r) = vmr−1 +2 . . . u(mr −mr−1 ,r) = vmr y u(1,r−1) = ρu(1,r) u(2,r−1) = ρu(2,r) . . . u(mr −mr−1 ,r−1) = ρu(mr −mr−1 ),r) . Por el problema 5.6, X1 = {v1 , . . . , vmr−2 , u(1,r−1) , . . . , u(mr −mr−1 ,r−1) es unsubconjunto linealmente independiente de ker ρr−1 . Extendemos X1 a una base deker ρr−1 adjuntando nuevos elementos como u(mr −mr−1 +1,r−1) u(mr −mr−1 +2,r−1) . . . u(mr−1 −mr−2 ,r−1) .Sea u(1,r−2) = ρu(1,r−1) u(2,r−2) = ρu(2,r−1) . . . u(mr−1 −mr−2 ,r−2) = ρu(mr−1 −mr−2 ,r−1) .Por el problema 5.6 se tiene que X2 = {v1 , . . . , vmr−3 , u(1,r−2) , . . . , u(mr−1 −mr−2 ,r−2) }es un subconjunto linealmente independiente de ker ρr−2 el cual podemos extendera una base de ker ρr−2 adjunt´ndole elementos de la forma a u(mr−1 −mr−2 +1,r−2) u(mr−1 −mr−2 +2,r−2) . . . u(mr−2 −mr−3 ,r−2) .
  • 88. 82 Cap´ ıtulo II Vectores caracter´ ısticos y formas can´nicas o Si seguimos con este proceso obtendremos una base para V rearreglada comou(1,r) , . . . , u(mr −mr−1 ,r)u(1,r−1) , . . . , u(mr −mr−1 ,r−1) , . . . , u(mr−1 −mr−2 ,r−1) . . .u(1,2) , . . . , u(mr −mr−1 ,2) , . . . , u(mr−1 −mr−2 ,2) , . . . , u(m2 −m1 ,2)u(1,1) , . . . , u(mr −mr−1 ,1) , . . . , u(mr−1 −mr−2 ,1) , . . . , u(m2 −m1 ,1) , . . . , u(m1 ,1) El ultimo rengl´n es una base para ker ρ1 . El ultimo y el pen´ltimo rengl´n son ´ o ´ u ouna base para ker ρ2 y as´ sucesivamente. Obs´rvese que cada vector se transforma ı ebajo ρ en el vector inmediato inferior, o en cero si el vector es del ultimo rengl´n, ´ oi.e., u(i,j−1) si j > 1 ρu(i,j) = 0 si j = 1. Por la proposici´n 5.7, ρ tendr´ la forma requerida si las u(i,j) se ordenan lexi- o acogr´ficamente, comenzando por u(1,1) y subiendo por la primera columna hasta au(1,r) ; luego brincando a u(2,1) hasta arriba, etc´tera. e 5.10 COROLARIO. En la proposici´n 5.9, existe al menos una matriz ode orden r, las otras son de ´rdenes menores o iguales a r. El n´mero de o umatrices de cada orden posible est´ determinado en forma unica por ρ y el a ´n´mero de matrices de todos los ´rdenes es igual a la dimensi´n de ker ρ. u o o Demostraci´n. Hay mr − mr−1 elementos de la diagonal de orden r; o(mr−1 − mr−2 ) − (mr − mr−1 ) = 2mr−1 − mr − mr−2 elementos de la diago-nal de orden r − 1; ... , 2m2 − m1 − m3 elementos de la diagonal de orden 2 y2m1 − m2 elementos de la diagonal de orden 1. Como los n´meros m1 , . . . , mr est´n determinados en forma unica por ρ, el u a ´n´mero de elementos diagonales de cada orden est´n determinados en forma unica u a ´por ρ. Como m1 = (mr − mr−1 ) + (2mr−1 − mr − mr−2 ) + · · · + (2m2 − m1 − m3 ) +(2m1 − m2 ), m1 = dim ker ρ1 es el n´mero de elementos de la diagonal de ρ. u Observe que, por 5.7 la matriz de 5.9 es nilpotente de ´ ındice igual a su orden.
  • 89. § 5 Forma can´nica de Jordan o 83 5.11 TEOREMA. Sea ρ ∈ HomK (V, V ) tal que pρ (λ) = (λ − λ1 )µ1 (λ − λ2 )µ2 · · · (λ − λr )µr y mρ (λ) = (λ − λ1 )η1 (λ − λ2 )η2 · · · (λ − λr )ηrdonde λi ∈ K . Entonces ρ posee una matriz asociada diagonal por bloquesJ (llamada forma can´nica de Jordan de ρ) cuyos bloques son de la forma o   λi 1 0 ··· 0 0 0 λi 1 ··· 0 0  . . . . . . . Jij =  .  . . . . . . . .     0 0 0 ··· λi 1 0 0 0 ··· 0 λi Demostraci´n. Por 5.4, ρ = ⊕r ρ o i=1 ker fi (ρ)ηi donde fi (λ)ηi = (λ − λi )ηi esel polinomio m´ ınimo de ρ ker f (ρ)ηi . Por el teorema de Cayley-Hamilton cada iρ|ker fi (ρ)ηi es ra´ de su polinomio m´ ız ınimo, i.e. (ρ|ker fi (ρ)ηi − λi I)µi = 0 para i =1, . . . , r. Definamos Ni = ρ|ker fi (ρ)ηi − λi I, para i = 1, . . . , r. Luego ρ|ker fi (ρ)ηi =Ni + λi I donde Niµi = 0. Por 5.9 podemos escoger una base tal que ρ|ker fi (ρ)ηitenga una matriz asociada diagonal por bloques cuyos elementos diagonales son lasmatrices Jij . La suma directa de las matrices asociadas a ρ|ker fi (ρ)ηi la denotaremoscon J y por el problema 5.1, es la matriz asociada a ρ. 5.12 EJEMPLO. Sea ρ un operador lineal con polinomio caracter´ ıstico pρ (λ) = 4 3 2 2(λ−3) (λ−2) y con polinomio m´ ınimo mρ (λ) = (λ−3) (λ−2) . Su forma can´nica ode Jordan es (v´ase el problema 5.8) e     3 1 3 1 0 3  0 3   3   3 1   3  o bien es  0 3 .      2 1   2 1  0 2 0 2 2 2La primera matriz ocurre cuando ρ tiene tres vectores caracter´ısticos linealmenteindependientes correspondientes al 3. La segunda matriz ocurre cuando ρ tiene dosvectores independientes correspondientes al 3. Lo que hemos hecho es lo siguiente: en 1.1 definimos una relaci´n de similari- odad entre matrices y en 1.2 probamos que era de equivalencia. En 1.3 vimos quecualesquiera dos matrices representan a un mismo operador lineal si, y s´lo si, son osimilares una con la otra.
  • 90. 84 Cap´ ıtulo II Vectores caracter´ ısticos y formas can´nicas o Las formas can´nicas triangular y de Jordan para un operador lineal ρ existen si, oy s´lo si, el polinomio caracter´ o ıstico de ρ posee todas sus ra´ ıces en un campo baseK, (lo cual es cierto si K = C pero no lo es si K = I en general). Sin embargo, I Rsi esto no sucede, siempre podemos obtener un campo K adjuntando ra´ ıces de talforma que los polinomios m´ ınimo y caracter´ ıstico se factoricen en factores linealesy entonces podr´ ıamos decir que todo operador posee una forma can´nica de Jordan oy que toda matriz es similar a una matriz en forma can´nica de Jordan. Tambi´n o evimos que una clase de transformaciones que tienen todas sus ra´ caracter´ ıces ısticasen un campo K fueron las nilpotentes, luego siempre se pueden poner en formatriangular.PROBLEMAS5.1 Sea ρ ∈ HomK (V, V ) y V = ⊕s Ui con Ui invariante bajo ρ. Pruebe que si i=1la matriz asociada a ρ|Ui es Xi entonces ρ posee una matriz asociada por bloquesde la forma   X1 0 · · · 0  0 X2 · · · 0  X= . . . .  . . . .  . 0 0 · · · Xsque denotaremos como X = ⊕s Xi . i=15.2 Sea M una matriz cuadrada diferente de I tal que M 5 = I. Compruebe si Mes similar a una matriz diagonal con los coeficientes de M reales o complejos.5.3 Pruebe con detalle que el operador f (ρ) dado en la demostraci´n de 5.5 env´ o ıacualquier vector de la base al cero.5.4 Sea ρ ∈ HomK (V, V ) un operador nilpotente de ´ ındice r, y v ∈ V tal que r−1 2 r−1ρ = 0. Pruebe que el conjunto {v, ρ(v), ρ (v), . . . , ρ (v)} es linealmente inde-pendiente y genera un subespacio invariante bajo ρ.5.5 Pruebe que la restricci´n ρ de ρ al subespacio generado por el conjunto o r−1{v, ρ(v), . . . , ρ (v)} del problema 5.4 es nilpotente de ´ ındice r.5.6 Sea ρ ∈ HomK (V, V ), {v1 , . . . , vt } una base de ker ρr−2 , {v1 , . . . , vt ,
  • 91. § 5 Forma can´nica de Jordan o 85u1 , . . . , uk } una base de ker ρr−1 y {v1 , . . . , vt , u1 , . . . , uk , w1 , . . . , ws } una basede ker ρr . Pruebe que {v1 , . . . , vt , ρ(w1 ), . . . , ρ(ws )} es un subconjunto linealmenteindependiente de ker ρr−1 .5.7 Pruebe que el polinomio m´ ınimo de un operador nilpotente de ´ ındice r esm(λ) = λr y que su unico valor caracter´ ´ ıstico es el cero.5.8 Pruebe que, en la terminolog´ de 5.11, existe al menos una matriz Jij de ıaorden ηi y que el resto de las Jij poseen ´rdenes menores o iguales a ηi . Tambi´n o edemuestre que la suma de los ´rdenes de Jij es igual a µi . o5.9 Encuentre todas las posibles formas can´nicas de Jordan de un operador o ıstico es pρ (λ) = (λ − 3)3 (λ − 7)2 .ρ ∈ HomK (V, V ) cuyo polinomio caracter´5.10 Si mρ (λ) = (λ − 7)2 es el polinomio m´ ınimo de una matriz de orden 7,encuentre todas las posibles formas can´nicas de Jordan. o5.11 Pruebe que dos operadores lineales cualesquiera son similares (proporcioneuna definici´n adecuada de similaridad de operadores) si, y s´lo si, poseen la misma o oforma can´nica de Jordan. o
  • 92. Cap´ ıtulo IIIFORMAS Y OPERADORES III.1 FORMAS BILINEALES 1.1 DEFINICION. Sean U , V y W espacios vectoriales sobre un campo K.Una funci´n f : U × V −→ W se llama bilineal si: o (i) f (u1 + u2 , v) = f (u1 , v) + f (u2 , v) (ii) f (u, v1 + v2 ) = f (u, v1 ) + f (u, v2 ) y(iii) f (λu, v) = λf (u, v) = f (u, λv); u1 , u2 , u ∈ U ; v1 , v2 , v ∈ V ; λ ∈ K. Es decir, f : U × V −→ W es bilineal si es lineal en cada variable cuando la otrase mantiene fija. Observaci´n. Lo anterior significa que si v ∈ V se mantiene fija en U × V , ola funci´n u −→ f (u, v) es lineal y por lo tanto es un elemento de HomK (U, W ). oDe igual forma, si u ∈ U se mantiene fija en U × V , la funci´n v −→ f (u, v) es olineal y pertenece a HomK (V, W ). Esto no significa que f sea lineal como funci´n of : U × V −→ W . Por ejemplo, f : I × I −→ I dada por f (u, v) = uv es bilineal R R Rpero no es lineal. Otro ejemplo, f : I × I −→ I dada por f (u, v) = u + v es lineal R R Rpero no es bilineal.
  • 93. 88 Cap´ ıtulo III Formas y operadores 1.2 EJEMPLO. Sea A una matriz de m × n. Definamos f : K m × K n −→ Kmediante f (X, Y ) = t XAY . Esto es    a11 ··· a1n y1 (x1 , . . . , xm )  . . .  .  . . . . . am1 ··· amn yn   m m y1 = xi ai1 , . . . , xi ain  .  . . i=1 i=1 yn n m = xi aij yj j=1 i=1 n m = aij xi yj . j=1 i=1Es inmediato comprobar que f (X, Y ) ∈ K y que es bilineal, ya que las propiedadesde las matrices establecen que t XA(Y + Y ) = t XAY + t XAY y t XA(λY ) =λ(t XAY ). 2 1 1 x1 y1 Por ejemplo, si A = 1 3 3 ,X= x2 yY = y2 entonces 2 1 1 x3 y3 2 1 1 y1 f (X, Y ) = (x1 , x2 , x3 ) 1 3 3 y2 2 1 1 y3 y1 = (2x1 + x2 + 2x3 , x1 + 3x2 + x3 , x1 + 3x2 + x3 ) y2 y3 = 2x1 y1 + x2 y1 + 2x3 y1 + x1 y2 + 3x2 y2 + x3 y2 + x1 y3 + 3x2 y3 + x3 y3 . Si en 1.1, W = K diremos que f es una forma bilineal. Denotamos conL2 (U, V ; K) el conjunto de formas bilineales de U × V en K. Si U = V , sim-plemente denotamos a L2 (V, V ; K) con L2 (V ; K) o con Bil(V ) entendi´ndose que ese trata de formas bilineales de V × V en K, que son las que consideraremos enadelante. A Bil(V ) le podemos dar una estructura de espacio vectorial mediante las reglas(f + g)(u, v) = f (u, v) + g(u, v) y (λf )(u, v) = λf (u, v) para f, g ∈ Bil(V ), λ ∈ K.
  • 94. § 1 Formas bilineales 89 Consideremos el caso en que tengamos el espacio vectorial de homomorfismosHomK (V, K). Sus elementos f : V −→ K, que son homomorfismos o aplicacioneslineales, se acostumbra llamarlos funcionales lineales o formas lineales. Tambi´n ese acostumbra denotar a HomK (V, K) con L1 (V ; K) o simplemente V ∗ y se le llamaespacio dual de V . Su estructura est´ dada por a (f + g)(v) = f (v) + g(v) y (λf )(v) = λf (v); v ∈ V, λ ∈ K.Aqu´ vemos a K como espacio vectorial sobre s´ mismo. ı ı 1.3 EJEMPLO. Sea V = Mn (K) el espacio de las matrices cuadradas de n × n.Sea f = tr: Mn (K) −→ K dada tr(A) = a11 + a22 + · · · + ann , i.e., la traza de  por a11 · · · a1nla matriz A =  . . . . . Como tr(A + B) = trA + trB y tr(λA) = λtrA, . . an1 · · · anntr es un funcional. 1.4 EJEMPLO. Sea V = K n . Si f ∈ HomK (V, K) = V ∗ , f tiene una repre-sentaci´n matricial de la forma o   x1 f (x1 , . . . , xn ) = (a1 , a2 , . . . , an )  .  = a1 x1 + a2 x2 + · · · + an xn . . xnllamada tambi´n forma lineal. e Sabemos que si dim V = n entonces dim V ∗ = n pues V ∗ = HomK (V, K) y porel teorema I.5.3 dim HomK (V, K) = n · 1 = n. Veamos como determinar una base para V ∗ a partir de una base de V . 1.5 PROPOSICION. Sea {v1 , . . . , vn } una base del espacio vectorial Vsobre K . Sean f1 , . . . , fn ∈ HomK (V, K) = V ∗ funcionales dadas por fi (vj ) =δij , donde δij es la delta de Kronecker, i.e., δij = 1 si i = j . Entonces 0 si i = j{fi }n es una base de V ∗ . i=1 Demostraci´n. Veamos que {fi }n es linealmente independiente: Suponga- o i=1mos que λ1 f1 + · · · + λn fn = 0. Evaluando en v1 obtenemos λ1 f1 (v1 ) + · · · +λn fn (v1 ) = λ1 · 1 = 0(v1 ) = 0. Luego λ1 = 0. An´logamente, evaluando en a
  • 95. 90 Cap´ ıtulo III Formas y operadoresv2 , v3 , . . . , vn obtenemos que λ2 = λ3 = · · · = λn = 0. Luego {fi }n es linealmente i=1independiente. Como dim V ∗ = n y {fi }n es linealmente independiente, es una i=1base de V ∗ . Sin embargo veamos directamente que {fi }n genera a V ∗ : sea f ∈ V ∗ i=1 n ntal que f (vi ) = λi . Sea φ = i=1 λi fi . Luego φ(v1 ) = i=1 λi fi (v1 ) = λ1 , φ(v2 ) =λ2 , . . . , φ(vn ) = λn . As´ que f (vi ) = φ(vi ) para toda i = 1, . . . , n. Puesto que f y ı nφ son iguales al evaluarlas en los elementos de la base de V , f = φ = i=1 λi fi .Luego {fi }n genera a V ∗ . i=1 La base de V ∗ , as´ obtenida, se llama base dual. ı 1.6 EJEMPLO. Consideremos la base {(1, 1), (3, 1)} de I 2 . Encontremos Rsu base dual para ( I 2 )∗ = Hom IR ( I 2 , I R R R). Deseamos encontrar funcionalesf1 (x, y) = αx + βy y f2 (x, y) = γx + δy tales que f1 (1, 1) = 1 , f1 (3, 1) = 0,f2 (1, 1) = 0, f2 (3, 1) = 1. Luego f1 (1, 1) = 1α + 1β = 1 f1 (3, 1) = 3α + 1β = 0 1 3Resolviendo el sistema obtenemos α = − yβ= . 2 2 Tambi´n e f2 (1, 1) = γ + δ = 0 f2 (3, 1) = 3γ + δ = 1 1 1Resolviendo el sistema obtenemos γ = y δ = − . Por lo tanto, una base dual es 2 2 1 3 1 1 f1 (x, y) = − x + y , f2 (x, y) = x − y . 2 2 2 2 1.7 PROPOSICION. Sea V un espacio vectorial de dimensi´n finita so- o n nbre un campo K . Sea {vi }i=1 una base de V y {fi }i=1 su base dual. Entonces (i) si v ∈ V , v es de la forma v = f1 (v)v1 + f2 (v)v2 + · · · + fn (v)vn y (ii) si f ∈ V ∗ , f es de la forma f = f (v1 )f1 + f (v2 )f2 + · · · + f (vn )fn . Demostraci´n. (i) Sea v = a1 v1 + a2 v2 + · · · + an vn . Evaluando fi (v) = ofi (a1 v1 + · · · + an vn ) = ai para i = 1, . . . , n. Luego v = f1 (v)v1 + · · · + fn (v)vn .
  • 96. § 1 Formas bilineales 91 (ii) Sea v = f1 (v)v1 +· · ·+fn (v)vn . Luego f (v) = f1 (v)f (v1 )+· · ·+fn (v)f (vn ) =f (v1 )f1 (v) + · · · + f (vn )fn (v) = (f (v1 )f1 + · · · + f (vn )fn )(v) para toda v en V . As´ ıque f = f (v1 )f1 + · · · + f (vn )fn . A continuaci´n encontremos una base para Bil(V ). o 1.8 PROPOSICION. Sea V un espacio vectorial sobre un campo K dedimensi´n n. Si {fi }n es una base para V ∗ entonces {fij }n o i=1 i,j=1 dado porfij (u, v) = fi (u)fj (v) es una base para Bil(V ). Demostraci´n. Sea {vi }i=1 una base de V , dual de {fi }n . Veamos que {fij } o n i=1es linealmente independiente: supongamos que aij fij = 0. Entonces para ´ ındicesr, s = 1, . . . , n tenemos que ( aij fij )(vr , vs ) = aij fij (vr , vs )= aij fi (vr )fj (vs ) = aij δir δjs = ars = 0(vr , vs ) = 0. Por lo tanto {fij } eslinealmente independiente. Veamos que {fij } genera a Bil(V ): sea f ∈ Bil(V ) y aij = f (vi , vj ). Bastaprobar que f (vr , vs ) = ( aij fij )(vr , vs ) para r, s = 1, . . . , n. Pero como antes,( aij fij )(vr , vs ) = ars = f (vr , vs ), luego {fij } genera Bil(V ). Observe que dim Bil(V ) = n2 . Sea V un espacio vectorial con base γ = {v1 , . . . , vn } y sea f : V × V −→ K unaforma bilineal de V . Si u = α1 v1 + · · · + αn vn y v = β1 v1 + · · · + βn vn son vectoresde V , n n f (u, v) = f ( αi vi , βj vj ) i=1 j=1 = α1 β1 f (v1 , v1 ) + α1 β2 f (v1 , v2 ) + · · · + αn βn f (vn , vn ) n = αi βj f (vi , vj ). i,j=1 Sea A = (aij ) la matriz cuadrada tal que aij = f (vi , vj ); luego n f (u, v) = αi βj aij i,j=1  β1 = (α1 , . . . , αn )A  .  . . βn = t [u]γ A[v]γ .Llamaremos a A matriz asociada a la forma bilineal f con respecto a la baseγ. A menudo denotamos a A como [f ]γ .
  • 97. 92 Cap´ ıtulo III Formas y operadores 1.9 EJEMPLO. Sea f : I 2 × I 2 −→ I una forma bilineal dada por R R Rf ((α1 , α2 ), (β1 , β2 )) = 4α2 β2 y γ = {γ1 , γ2 } = {(1, 1), (3, 1)} una base de I 2 . Cal- Rculemos la matriz asociada a f con respecto a γ, i.e., A = (aij ) donde aij = f (γi , γj ) a11 = f (γ1 , γ1 ) = f ((1, 1), (1, 1)) = 4 · 1 · 1 = 4 a12 = f (γ1 , γ2 ) = f ((1, 1), (3, 1)) = 4 · 1 · 1 = 4 a21 = f (γ2 , γ1 ) = 4 a22 = f (γ2 , γ2 ) = 4Luego A = 4 4 . 4 4 1.10 EJEMPLO. Sea f como en el ejemplo anterior. Calculemos la matriz Basociada a f con respecto a la base γ = {γ1 , γ2 } = {(2, 1), (1, −1)}: b11 = f (γ1 , γ1 ) = f ((2, 1), (2, 1)) = 4 b12 = f (γ1 , γ2 ) = f ((2, 1), (1, −1)) = −4 b21 = f (γ2 , γ1 ) = f ((1, −1), (2, 1)) = −4 b22 = f (γ2 , γ2 ) = f ((1, −1), (1, −1)) = 4Luego B = 4 −4 . −4 4 Ahora, calculemos la matriz de transici´n N de la base γ a la base γ del ejemplo o1.9: 1 γ1 = (2, 1) = λ(1, 1) + µ(3, 1) =⇒ λ = = µ 2 γ2 = (1, −1) = η(1, 1) + δ(3, 1) =⇒ η = −2, δ = 1. 1/2 −2Luego N = . 1/2 1 1/2 1/2 4 4 1/2 −2 4 −4 Observe que t N AN = 4 4 = −4 4 = B. −2 1 1/2 1 Establezcamos la observaci´n del ejemplo 1.10 en el siguiente teorema: o 1.11 TEOREMA. Sea f : V × V −→ K una forma bilineal. Si N es lamatriz de transici´n de una base γ a una base γ de V entonces la matriz oB asociada a f con respecto a la base γ es B = t N AN
  • 98. § 1 Formas bilineales 93donde A es la matriz asociada a f con respecto a γ . Demostraci´n. Sean u, v ∈ V arbitrarios. Por I.5.9 N [u]γ = [u]γ y N [v]γ = o[v]γ . Luego t [u]γ = t [u]γ t N . As´ que f (u, v) = t [u]γ A[v]γ = ıt t t [u]γ N AN [v]γ . Por lo tanto, N AN es la matriz asociada a f con respecto aγ. 1.12 TEOREMA. Sea f : V × V −→ K una forma bilineal, γ = {v1 , . . . , vn }una base de V y [f ]γ la matriz asociada a la forma bilineal f . EntoncesBil(V ) ∼ Mn (K) dado por f −→ [f ]γ . = Demostraci´n. Es claro que f −→ [f ]γ es biyectiva pues f est´ determinada o apor f (vi , vj ). Veamos que es lineal: como (f + f )(vi , vj ) = f (vi , vj ) + f (vi , vj ) y (λf )(vi , vj ) = λf (vi , vj ) para i, j = 1, . . . , n,se tiene que [f + f ]γ = [f ]γ + [f ]γ y [λf ]γ = λ[f ]γ . 1.13 PROPOSICION. Sean {ui }n y {vi }n bases de V . Sean {fi }n y i=1 i=1 i=1{gi }n bases de V ∗ duales de {ui } y {vi } respectivamente. Sea N la matriz i=1 −1de transici´n de la base {ui } en la base {vi }. Entonces t N es la matriz de otransici´n de la base {fi } en la base {gi }. o Demostraci´n. Recu´rdese (I.5.7) que la matriz N es la matriz cuadrada tras- o epuesta de la asociada al sistema v1 = α11 u1 + ··· + α1n un . . . . . . . . . vn = αn1 u1 + ··· + αnn un     α11 ··· αn1 α11 ··· α1ni.e. N=  . . .  = t (α ) y . ij t N=  . . .  = (α ). . ij . . . . α1n ··· αnn αn1 ··· αnn De la misma manera, la matriz de transici´n B de la base {fi } a {gi } es la otraspuesta de la asociada al sistema g1 = β11 f1 + ··· + β1n fn . . . . . . . . . gn = βn1 f1 + ··· + βnn fn
  • 99. 94 Cap´ ıtulo III Formas y operadores   β11 ··· βn1i.e. B=  . . .  = t (βij ). . . . β1n ··· βnn −1Deseamos ver que B = t N . Para ello, veamos que B t N = I, y as´ tendremos que ı −1B = t N . Pero δij = gi (vj ) = (βi1 f1 + · · · + βin fn )(αj1 u1 + · · · + αjn un ) = βik αj fk (u ) k n = βik αjk k=1 n = βik αkj (αkj = αjk ). k=1Luego B t N = I. ¿Qu´ sucede cuando consideramos el espacio dual de V ∗ ? Lo denotaremos con eV = (V ∗ )∗ . ∗∗ e o ∼ ¿Qu´ relaci´n existe entre V y V ∗∗ ? Veremos que V = V ∗∗ , pero antes nece-sitaremos un resultado previo que vale para espacios de dimensi´n infinita pero que ono probaremos aqu´ ı. 1.14 LEMA. Sea V un espacio vectorial de dimensi´n finita n y v ∈ V o ∗diferente de cero. Entonces existe un elemento f ∈ V tal que f (v) = 0. Demostraci´n. Como v = 0, podemos completar una base de V de la forma o{v1 , v2 , v3 , . . . , vn } con v1 = v. Sea {f1 , . . . , fn } la base dual. Entonces f1 (v1 ) =f1 (v) = 1 = 0. 1.15 TEOREMA. Sea V un espacio vectorial de dimensi´n finita sobre o ∗∗un campo K . La aplicaci´n ψ: V −→ V dada por ψ(v) = v donde v(f ) = f (v) o∀v ∈ V es un isomorfismo. Demostraci´n. Veamos que ψ es lineal: o ψ(u + v)(f ) = u + v(f ) = f (u + v) = f (u) + f (v) = u(f ) + v(f ) = ψ(u)(f ) + ψ(v)(f ). ψ(λu)(f ) = (λu)(f ) = f (λu) = λf (u) = λu(f ) = λψ(u)(f ).Luego ψ es lineal.
  • 100. § 1 Formas bilineales 95 Sea v = 0, v ∈ V . Por el lema 1.14, existe un funcional f ∈ V ∗ tal que f (v) = 0.Luego 0 = f (v) = v(f ) = ψ(v)(f ) para toda v = 0, por lo que ψ = 0, es decir, ψ esno singular (ker ψ = {0}). Por I.4.7 ψ es invertible y como dim V ∗∗ = dim V ∗ =dim V , ψ es un isomorfismo. Observe que la funci´n lineal ψ: V −→ V ∗∗ se defini´ sin hacer menci´n de una o o obase. A ψ de 1.15 se le llama aplicaci´n u homomorfismo natural de V en V ∗∗ . Si oV no es de dimensi´n finita, ψ no es suprayectiva. oPROBLEMAS1.1 Pruebe que la funci´n f : I m × I mo R R −→ IR dada porf ((x1 , . . . , xm ), (y1 , . . . , ym )) = x1 y1 + x2 y2 + · · · + xm ym es bilineal. A f , as´ ıdefinida, se le llama producto escalar.1.2 Encuentre la base del espacio dual de V para (a) V = I 2 con base {(2, 1), (−3, 87)}. R (b) V = I 3 con base {(0, 1, 1), (0, 1, −1), (2, 4, −3)}. R1.3 Sea f : K m × K n −→ K una aplicaci´n bilineal. Pruebe que existe una matriz ounica A tal que f (X, Y ) = t XAY y que el conjunto de aplicaciones bilineales´L2 (K m , K n ; K) es un espacio vectorial sobre K isomorfo a Mm×n (K).1.4 Considere f : I 2 × I 2 −→ I dado por f ((α1 , α2 ), (β1 , β2 )) = 3α1 β2 − α2 β1 . R R R (i) Compruebe que f es bilineal. (ii) Encuentre la matriz asociada a f con respecto a la base γ = {(2, 1), (−3, 87)}.(iii) Encuentre la matriz asociada a f con respecto a la base γ = {(1, −1), (2, 1)}.1.5 Sea V = I 3 con bases γ = {(0, 1, 1), (0, 1, −1), (2, 4, −3)} y γ = {(1, 0, 0), R(0, 1, 0), (0, 0, 1)}. (i) Encuentre la matriz de transici´n de la base γ en la base γ . o
  • 101. 96 Cap´ ıtulo III Formas y operadores (ii) Encuentre las bases duales de γ y γ en ( I 3 )∗ . R(iii) Encuentre la matriz de transici´n de la base dual de γ en la base dual de γ . o1.6 Sea U un subconjunto de un espacio vectorial V sobre un campo K. Unfuncional f ∈ V ∗ se llama aniquilador o anulador de U si f (u) = 0 para todau ∈ U . Sea U a = {f ∈ V ∗ |f (u) = 0 ∀u ∈ U }. Pruebe que: (i) U a es un subespacio de V ∗ . (ii) Si V es de dimensi´n finita y U es un subespacio de V entonces dim U a + o dim U = dim V y (U a )a = U .1.7 Sea U el subespacio de I 3 generado por los vectores u1 = (4, 3, 1) y u2 = R(1, 4, 3). Encuentre una base para U a .1.8 El rango de una forma bilineal f : V × V −→ K se define como el rango dela matriz asociada a f y se denota rg(f ). Se dice que f es una forma bilinealdegenerada si rg(f ) < dim V . Se dice que f es no degenerada si rg(f ) =dim V . Pruebe que el producto escalar del problema 1.1 es una forma bilineal nodegenerada.
  • 102. § 2 Formas bilineales sim´tricas, ... e 97 III.2 FORMAS BILINEALES SIMETRICAS, ANTISIMETRICAS, ALTERNANTES Y HERMITIANAS. FORMAS CUADRATICAS.Sea V un espacio vectorial sobre un campo K. 2.1 DEFINICION. Sea f una forma bilineal de V . Diremos que f es sim´trica esi f (u, v) = f (v, u) para toda u, v ∈ V . Recuerde que una matriz se llama sim´trica si es igual a su traspuesta. Veamos ecomo se relaciona el concepto de simetr´ de una forma bilineal con el de una matriz ıasim´trica. Sea A la matriz asociada a la forma bilineal sim´trica f . Entonces, si V e ees de dimensi´n finita, podemos escribir f como en el ejemplo 1.2 o f : K n × K n −→ K dada por t f (X, Y ) = XAY. Pero t XAY = t (t XAY ), puesto que es un escalar. Luego t XAY = t Y t AX.Como f es sim´trica, f (X, Y ) = t XAY = t Y t AX = t Y AX = f (Y, X) ∀ (X, Y ). eLuego A = A. An´logamente, si A = t A entonces f (X, Y ) = f (Y, X). Por lo t atanto, una forma bilineal es sim´trica si, y s´lo si, su matriz asociada es sim´trica. e o eObservemos que si f posee una matriz asociada en forma diagonal entonces f essim´trica pues toda matriz diagonal es sim´trica. e e 2.2 DEFINICION. Sea f : V × V −→ K una forma bilineal sim´trica. La eforma cuadr´tica asociada a f es la funci´n q: V −→ K dada por q(v) = f (v, v), a ov ∈V. Observe que una forma cuadr´tica es lineal solamente cuando f es la funci´n a otrivial. Sea A la matriz sim´trica asociada a la forma bilineal sim´trica f . Entonces e epodemos escribir q(X) = f (X, X) = t XAXEn otra forma, esto es
  • 103. 98 Cap´ ıtulo III Formas y operadores    a11 ··· a1n x1 (x1 , . . . , xn )  . . . .  .  . . . . an1 ··· ann xn = aij xi xj i,j =a11 x2 + a22 x2 + · · · + ann x2 + 2 1 2 n aij xi xj . i<jSi A es diagonal, entonces q(X) = a11 x2 +· · ·+ann x2 y como m´s adelante veremos, 1 n a´ste es siempre el caso.e Considere la expresi´n y las igualdades siguientes o q(u + v) − q(u) − q(v) = f (u + v, u + v) − f (u, u) − f (v, v) = f (u, u) + f (u, v) + f (v, u) + f (v, v) − f (u, u) − f (v, v) = 2f (u, v)Si el campo K es tal que 1+1 = 0 podremos dividir entre 2 y tendremos la siguienteexpresi´n que permite obtener f a partir de q: o 1 f (u, v) = [q(u + v) − q(u) − q(v)] . 2 2.3 EJEMPLO. Sea X = (x, y) y q(x, y) = 9x2 − 8xy − 3y 2 una formacuadr´tica. La matriz sim´trica asociada a q posee elementos diagonales iguales a ea los coeficientes de los t´rminos cuadrados y elementos aij , i = j, iguales a la emitad de los coeficientes de los t´rminos no cuadrados. Luego e 9 −4 −4 −3es la matriz sim´trica asociada a q. e Ahora encontremos la forma bilineal sim´trica asociada a q: Consideremos vec- etores X1 = (x1 , y1 ) y X2 = (x2 , y2 ); luego 1 f (X1 , X2 ) = [q(X1 + X2 ) − q(X1 ) − q(X2 )] 2 1 = 9(x1 + x2 )2 − 8(x1 + x2 )(y1 + y2 ) − 3(y1 + y2 )2 − 9x2 + 8x1 y1 1 2 2 2 2 +3y1 − 9x2 + 8x2 y2 + 3y2 1 = [2 · 9x1 x2 − 8x2 y1 − 8x1 y2 − 2 · 3y1 y2 ] 2 = 9x1 x2 − 4x2 y1 − 4x1 y2 − 3y1 y2 .
  • 104. § 2 Formas bilineales sim´tricas, ... e 99Observe que los coeficientes de f son los elementos de la matriz sim´trica asociada ea q. 2.4 TEOREMA. Sea f una forma bilineal sim´trica f : V ×V −→ K tal que e1+1 = 0 en K (i.e. tal que K sea de caracter´ ıstica diferente de 2). Entoncesexiste una base de V tal que f posee una matriz asociada diagonal. Demostraci´n. La afirmaci´n es obvia si dim V = 1 o si f = 0. Supongamos o oque n = dim V > 1 y que f = 0. Si f (v, v) = 0 para toda v ∈ V , utilizando laf´rmula que permite obtener f a partir de q (la anterior al ejemplo 2.3), f = 0. oPor lo tanto podemos suponer que existe un elemento v1 ∈ V tal que f (v1 , v1 ) = 0pues estamos considerando el caso en que f = 0. Sea V1 = v1 y U el subespaciogenerado por los elementos v ∈ V tales que f (v1 , v) = 0. Veremos que V = V1 ⊕ Uy as´ f restringida a U es una forma bilineal sim´trica en U . As´ tendr´ ı, e ı ıamosque dim U = n − 1 y por lo tanto existir´ una base {v2 , . . . , vn } de U tal que ıaf (vi , vj ) = 0 para i = j y 2 ≤ i, j ≤ n. Pero por la definici´n de U , f (v1 , vj ) = 0 opara j = 2, . . . , n. Luego {v1 , . . . , vn } es la base requerida tal que f (vi , vj ) = 0,i = j y f posee una matriz asociada diagonal (v´ase la definici´n de matriz asociada e oa una forma bilineal f anterior al ejemplo 1.9). Nos resta probar que V = V1 ⊕ U : veamos que V1 ∩ U = {0}. Sea w ∈ V1 ∩ U .Como w ∈ V1 , w = λv1 para λ ∈ K. Como w ∈ U , 0 = f (w, w) = f (λv1 , λv1 ) =λ2 f (v1 , v1 ). Pero f (v1 , v1 ) = 0, luego λ = 0 y por lo tanto w = λv1 = 0 y f (v1 , v)V1 ∩ U = {0}. Ahora, veamos que V = V1 + U . Sea v ∈ V y sea u = v − v1 . f (v1 , v1 )Entonces f (v1 , v) f (v1 , u) = f (v1 , v) − f (v1 , v1 ) = 0. f (v1 , v1 ) f (v1 , v)Luego u ∈ U y, por lo anterior, v = u + v1 y as´ v es la suma de un ı, f (v1 , v1 )elemento de V1 y de un elemento de U . Diremos que una matriz sim´trica B es congruente a una matriz sim´trica A si e eexiste una matriz no singular o invertible N tal que B = t N AN . En t´rminos de congruencia de matrices podemos interpretar el teorema anterior ecomo sigue: si A es una matriz sim´trica (con elementos en un campo de carac- eter´ ıstica diferente de 2) entonces A es congruente con una matriz diagonal, i.e.,existe una matriz no singular o invertible N tal que t N AN es diagonal. Observe que 1.11 lo podemos formular para el caso de formas bilineales sim´tricas e
  • 105. 100 Cap´ ıtulo III Formas y operadorescomo sigue: las matrices asociadas a una misma forma bilineal sim´trica son con- egruentes entre s´ N´tese que si A es sim´trica entonces t N AN es sim´trica. ı. o e e Tambi´n observe que, por el teorema 2.4, cuando la caracter´ e ıstica de K esdiferente de 2, siempre podemos encontrar una matriz diagonal tal que la formacuadr´tica posea una representaci´n de la forma a o q(X) = a11 x2 + · · · + ann x2 . 1 n 2.5 DEFINICION. Sea f : V × V −→ K una forma bilineal. Diremos que f esantisim´trica si f (u, v) = −f (v, u) para toda u, v ∈ V . e Es claro que si V es de dimensi´n finita, f es antisim´trica si, y s´lo si, su matriz o e o tasociada A es tal que A = − A, es decir si, y s´lo si, A es antisim´trica. o e Observe que si el campo K es tal que 1 + 1 = 0 (i.e. es de caracter´ ıstica diferentede dos) y f antisim´trica entonces f (v, v) = −f (v, v) lo cual implica que f (v, v) = 0. e 2.6 PROPOSICION. Si f : V × V −→ K es una forma bilineal, entoncesf es la suma de una forma bilineal sim´trica y de una forma bilineal anti- esim´trica. e 1 1 Demostraci´n. Sea s(u, v) = (f (u, v) + f (v, u)) y a(u, v) = (f (u, v) − o 2 2 1 1f (v, u)). Luego s(u, v) = (f (u, v) + f (v, u)) = (f (v, u) + f (u, v)) = s(v, u) 2 2 1 1y a(u, v) = (f (u, v) − f (v, u)) = − (f (v, u) − f (u, v)) = −a(v, u). As´ s es ı, 2 2sim´trica y a es antisim´trica. Luego f = s + a. e e 2.7 DEFINICION. Una forma bilineal f se llama alternante si f (v, v) = 0para toda v ∈ V . Ahora, consideremos formas bilineales f : V × V −→ K donde K = I R. 2.8 TEOREMA. Sea f : V × V −→ I una forma bilineal sim´trica. En- R etonces V posee una base tal que la matriz asociada a f es diagonal ycualquier otra matriz diagonal asociada a f posee el mismo n´mero de uelementos positivos y el mismo n´mero de elementos negativos. u Demostraci´n. Por el teorema anterior existe una base {vi }n tal que f posee o i=1una matriz asociada diagonal. Sea {vi }n otra base tal que la matriz asociada a i=1
  • 106. § 2 Formas bilineales sim´tricas, ... e 101f es diagonal. Sean n+ y n+ los n´meros de elementos positivos, y n− y n− los un´meros de elementos negativos de las matrices asociadas a f con respecto a las ubases {vi } y {vi }. Sabemos que rg(f ) = n+ +n− = n+ +n− . Veamos que n+ = n+ : sea V+ el subes-pacio generado por {v1 , . . . , vn+ } y V− el subespacio generado por {vn +1 , . . . , vn }. +Luego f (v, v) > 0 si 0 = v ∈ V+ y f (v, v) ≤ 0 si 0 = v ∈ V− . As´ que V+ ∩ V− = {0} ıy dim V+ = n+ y dim V− = n − n+ . Entonces dim (V+ + V− ) = dim V+ + dim V− −dim (V+ ∩V− ) = n+ +(n−n+ )−0 = n+ −n+ +n. Pero dim (V+ +V− ) ≤ dim V = n.Luego n+ − n+ + n ≤ n, i.e., n+ ≤ n+ . An´logamente n+ ≤ n+ y por lo tanto atendremos n+ = n+ . Es claro que esto es suficiente para probar el teorema puespodr´ ıamos comenzar la demostraci´n con los elementos negativos. o El teorema anterior se llama ley de la inercia de Sylvester. Consideremos el caso en que K = C . Diremos que una forma f : V × V −→ C I Ies hermitiana si (i) f (λv1 + µv2 , v) = λf (v1 , v) + µf (v2 , v) y (ii) f (u, v) = f (v, u) para v1 , v2 , v ∈ V ; λ, µ ∈ C . I A veces se les llama formas bilineales hermitianas, a pesar de que no sonbilineales, pues el escalar de la segunda variable sale “conjugado” (problema 2.4). Definimos q: V −→ I dado por q(v) = f (v, v) como la forma cuadr´tica R ahermitiana o compleja asociada a la forma bilineal hermitiana f . f se obtiene a 1 ipartir de q mediante la f´rmula f (u, v) = o (q(u + v) − q(u − v)) + (q(u + iv) − 4 4q(u − iv)) y tambi´n se tiene un resultado an´logo a 2.8 para formas bilineales e ahermitianas.PROBLEMAS2.1 Considere las formas cuadr´tricas siguientes y encuentre su matriz asociada, aas´ como la forma bilineal correspondiente: ı (i) q(x, y) = 18x2 − 4xy − 9y 2 (ii) q(x, y) = x2 − xy(iii) q(x, y, z) = x2 + 4yz − xz
  • 107. 102 Cap´ ıtulo III Formas y operadores2.2 Para cada matriz A asociada a las formas del problema 2.1 que sea sim´trica eencuentre una matriz no singular N tal que t N AN sea diagonal.2.3 En los t´rminos del teorema 2.8 se define el signo de una forma bilineal ef : V × V −→ I como sgf = n+ − n− . Se dice que f est´ definida positivamente R asi f (v, v) > 0 ∀v = 0 y que est´ semidefinida no negativamente si f (v, v) ≥ 0 a∀v ∈ V . (i) Pruebe que f est´ definida positivamente si, y s´lo si, dim V = sg(f ). a o (ii) Pruebe que f est´ semidefinida no negativamente si, y s´lo si, sg(f ) = rg(f ) a o y(iii) analice las formas de los problemas 2.1 y 1.1 y diga sus caracter´ ısticas.2.4 Sea f : V × V −→ C una forma bilineal hermitiana. I Pruebe quef (v, λv1 + µv2 ) = λf (v, v1 ) + µf (v, v2 ).2.5 Sea A = (aij ) la matriz cuadrada donde aij denota al conjugado complejode aij . Sea A∗ = t A = t A. Una matriz se llama hermitiana si A∗ = A, i.e.,si aij = aji . Pruebe que si A es hermitiana, f (X, Y ) = t XAY define una formahermitiana en C n . I2.6 Compruebe la f´rmula que permite obtener la forma hermitiana a partir de ola forma cuadr´tica hermitiana asociada a 1 i f (u, v) = (q(u + v) − q(u − v)) + (q(u + iv) − q(u − iv)). 4 42.7 Establezca el resultado an´logo al del teorema 2.8 para formas bilineales her- amitianas.2.8 Pruebe que la congruencia de matrices sim´tricas es una relaci´n de equiva- e olencia.2.9 Pruebe que cualquier forma cuadr´tica sobre I es de la forma q(X) = x2 + a R 1· · · + x2 − x2 − · · · − x2 donde X = (x1 , . . . , xn ). (Sugerencia: considere la matriz s s+1 rdiagonal N con elementos iguales a 1 si aii = 0 y 1/ |aii | si aii = 0 donde A = (aii )es la matriz diagonal asociada a la forma cuadr´tica q(X) = a11 x2 + · · · + ann xn . a 1 2Luego A es congruente con la matriz diagonal requerida).
  • 108. § 3 Producto escalar 103 III.3 PRODUCTO ESCALAR 3.1 DEFINICION. Sea V un espacio vectorial sobre un campo K = I o C . R ISi K = I un producto escalar en V sobre I es una forma bilineal sim´trica R, R edefinida positivamente. Si K = C , un producto escalar en V sobre C es una I Iforma hermitiana definida positivamente (i.e. tal que f (v, v) > 0 ∀v = 0). Es decir, si V es un espacio vectorial real o complejo, la forma bilineal , : V × V −→ K tal que (i) λv1 + µv2 , v = λ v1 , v + µ v2 , v (ii) u, v = v, u y(iii) v, v > 0 si v = 0se llama producto escalar. Tambi´n se le acostumbra llamar producto interno. e Un espacio vectorial que posee un producto escalar se llama espacio con pro-ducto escalar. Si el producto escalar es sobre I al espacio vectorial se le llama R,espacio euclidiano y si el campo es C , se le llama espacio unitario. I Observe que v, λv1 + µv2 = λv1 + µv2 , v = λ v1 , v + µ v2 , v = λ v1 , v + µ v2 , v = λ v, v1 + µ v, v2 . 3.2 EJEMPLOS. (i) Los problemas 1.1 y 2.3 nos dicen que , : I m × I m −→ I R R Res un producto escalar en V = I m sobre I R R. (ii) , : C m × C m −→ C dado por I I I X, Y = x1 y 1 + · · · + xm y mdonde X = (x1 , . . . , xm ) ∈ C m y Y = (y1 , . . . , ym ) ∈ C m es un producto escalar I I men V = C sobre C . I I
  • 109. 104 Cap´ ıtulo III Formas y operadores(iii) , : Mn K × Mn K −→ K dado por tr(t BA) si K = I y R A, B = tr(B ∗ A) si K = C Ison productos escalares en Mn K sobre K = I o C . R I A continuaci´n definimos la norma o longitud de un vector v de un espacio ovectorial V sobre K = I o C como R I ||v|| = v, v . Observe que si v, v = 1 entonces ||v|| = 1 y llamaremos a v vector unitario onormalizado. 3.3 PROPOSICION. Si v, w ∈ V entonces | v, w | ≤ ||v|| ||w||. (Desigualdadde Cauchy-Schwarz). Demostraci´n. Si w = 0 entonces 0 ≤ 0 y el resultado es cierto. Si w = 0, opara cualquier λ ∈ I como v, w = w, v y λ = λ, R, 0 ≤ ||v − v, w λw||2 = v − v, w λw, v − v, w λw = v, v − v, w λ w, v − v, w λ v, w + v, w v, w λ2 w, w = v, v − v, w λ v, w − v, w λ v, w + v, w v, w λ2 w, w = ||v||2 − 2λ| v, w |2 + | v, w |2 λ2 ||w||2 pues | v, w |2 = v, w v, w . 1 | v, w |2 Ahora, si tomamos λ = , obtenemos 0 ≤ ||v||2 − . Luego ||w||2 ||w||2 2 2 2| v, w | ≤ ||v|| ||w|| . Tomando ra´ cuadrada obtenemos el resultado requerido. ız 3.4 PROPOSICION. (i)||v|| > 0 si v = 0 (ii) ||λv|| = |λ| ||v||(iii) ||v + w|| ≤ ||v|| + ||w|| (desigualdad del tri´ngulo). a Demostraci´n. (i) Por 3.1, v, v > 0 si v = 0, luego ||v|| = o v, v > 0 siv = 0. (ii) Consideremos ||λv||2 = λv, λv = λλ v, v = |λ|2 ||v||2 , luego tomemos la ra´ ız cuadrada de ambos lados.
  • 110. § 3 Producto escalar 105(iii) Por 3.3 ||v + w||2 = v + w, v + w = v, v + v, w + v, w + w, w ≤ ||v||2 + 2||v|| ||w|| + ||w||2 = (||v|| + ||w||)2 .Luego t´mese la ra´ cuadrada de ambos lados. o ız Sea V un espacio vectorial con producto escalar. Diremos que los vectores v, w ∈V son ortogonales si v, w = 0. Si V es un espacio euclidiano, definimos el ´ngulo entre dos vectores no nulos au, v ∈ V como θ = arccos( u, v /||u|| ||v||) para θ ∈ [0, π]. Sea U un subconjunto del espacio V y U ⊥ = {v ∈ V | u, v = 0 ∀u ∈ U } elconjunto ortogonal a U . 3.5 PROPOSICION. U ⊥ es un subespacio de V . Demostraci´n. Como u, 0 = 0, 0 ∈ U ⊥ . Sean v, v ∈ U ⊥ , entonces ou, λv + µv = λ u, v + µ u, v = λ0 + µ0 = 0. Por lo tanto λv + µv ∈ U ⊥ . 3.6 DEFINICION. Sea {vi }n un conjunto de vectores de un espacio vectorial i=1V sobre un campo K = I o C . Diremos que {vi } es ortogonal si vi , vj = 0 para R Ii = j y ortonormal si vi , vj = δij = 0 si i = j . 1 si i = j A continuaci´n estableceremos un procedimiento para encontrar una base orto- onormal de un espacio vectorial V de dimensi´n finita, llamado procedimiento de oGram-Schmidt. 3.7 TEOREMA. Sea {ui }n una base del espacio vectorial de dimensi´n i=1 ofinita V sobre un campo K = I o C . Entonces existe una base ortonormal R I{vi }n de V tal que la matriz de transici´n es triangular. i=1 o Demostraci´n. Utilizaremos inducci´n sobre n = dim V . Si n = 1, con- o o u1sideremos v1 = , luego {v1 } es ortonormal. Supongamos que el conjunto ||u1 || wn{v1 , v2 , . . . , vn−1 } es ortonormal. Veamos que si vn = , donde wn = un − ||wn || un , v1 v1 − un , v2 v2 − un , v3 v3 − · · · − un , vn−1 vn−1 , entonces el conjunto
  • 111. 106 Cap´ ıtulo III Formas y operadores{v1 , . . . , vn } es ortonormal. Pero un c´lculo directo nos muestra que wn , v1 = a wn , v2 = · · · = wn , vn−1 = 0. As´ wn es ortogonal a cada v1 , . . . , vn−1 . Luego, ı,el conjunto {v1 , . . . , vn } es ortonormal. Nos resta probar que el conjunto ortonormal es linealmente independiente: con-sidere λ1 v1 + · · · + λn vn = 0 y calculemos 0, vi : 0 = 0, vi = λ1 v1 + · · · + λn vn , vi = λ1 v1 , vi + · · · + λi vi , vi + · · · + λn vn , vi = λi .Luego {vi }n es una base de i=1 V . Resumiendo, la base ortogonal se obtiene comosigue: u1 v1 = ||u1 || u2 − u2 , v1 v1 v2 = ||u2 − u2 , v1 v1 || u3 − u3 , v1 v1 − u3 , v2 v2 v3 = ||u3 − u3 , v1 v1 − u3 , v2 v2 || . . . un − un , v1 v1 − · · · − un , vn−1 vn−1 vn = ||un − un , v1 v1 − · · · − un , vn−1 vn−1 ||Claramente, la matriz de transici´n de la base {ui } a {vi } es triangular. o 3.8 EJEMPLO. Sean u1 = (1, 0, 0), u2 = (1, 1, 0) y u3 = (1, 1, 1) los elementosde una base para I 3 . Utilizando el procedimiento de 3.7 obtengamos una base Rortonormal v1 , v2 , v3 para I 3 . R u1 (1, 0, 0) Sea v1 = = √ = (1, 0, 0). Luego, ||u1 || 1 w2 = u2 − u2 , v1 v1 = (1, 1, 0) − (1, 1, 0), (1, 0, 0) (1, 0, 0) = (1, 1, 0) − (1, 0, 0) = (0, 1, 0) w2 (0, 1, 0)Consideremos v2 = = √ = (0, 1, 0). ||w2 || 1Luego w3 = u3 − u3 , v1 v1 − u3 , v2 v2 = (1, 1, 1) − (1, 1, 1), (1, 0, 0) (1, 0, 0) − (1, 1, 1), (0, 1, 0) (0, 1, 0) = (1, 1, 1) − (1, 0, 0) − (0, 1, 0) = (0, 0, 1).
  • 112. § 3 Producto escalar 107 w3 (0, 0, 1)Normalizando w3 obtenemos v3 = = √ = (0, 0, 1). Luego ||w3 || 1 3{v1 , v2 , v3 } es una base ortonormal para I . R 3.9 TEOREMA. Si U es un subespacio de un espacio vectorial V dedimensi´n finita sobre un campo K , entonces V ∼ U ⊕ U ⊥ . o = Demostraci´n. Sea {u1 , . . . , us } una base de U . Exti´ndase a una base o e{u1 , . . . , un } de V y aplique el procedimiento de Gram-Schmidt para obtener unabase ortonormal {v1 , . . . , vn } de V . Por lo tanto {v1 , . . . , vs } es una base ortonor-mal de U y {vs+1 , . . . , vn } ⊂ U ⊥ . Veamos que V = U + U ⊥ : si v ∈ V entoncesv = λ1 v1 + · · · + λn vn donde λ1 v1 + · · · + λs vs ∈ U y λs+1 vs+1 + · · · + λn vn ∈ U ⊥ .Luego V = U + U ⊥ . Veamos que U ∩ U ⊥ = {0}: si u ∈ U ∩ U ⊥ entonces u, u = 0y por el problema 3.7, u = 0. Luego U ∩ U ⊥ = {0}. ∼ Observe que si V = U ⊕ U ⊥ entonces existe una proyecci´n unica o ´ ⊥(I.2.4) pU : V −→ V tal que im pU = U y ker pU = U llamada proyecci´n oortogonal de V en U . Por ejemplo, sea V = I 3 , U = {(0, 0, η) | η ∈ I y U ⊥ = R R} R}. Entonces I 3 = U ⊕ U ⊥ y pU (λ, µ, η) = im pU = (0, 0, η) es{(λ, µ, 0)|λ, µ ∈ I Rla proyecci´n ortogonal de I 3 en U . o R Otro ejemplo es el siguiente: denotemos con AX = 0 al sistema de m ecuacioneslineales homog´neo con n inc´gnitas con coeficientes reales. El espacio soluci´n U e o oes el n´cleo del operador lineal A. Es decir, U es el conjunto de todos los vectores uortogonales a cada rengl´n de A. Luego, U es el complemento ortogonal del espacio ogenerado por los renglones de A. Adem´s, por I.3.10, el teorema 3.9 nos dice que adim U = n − rango A.PROBLEMAS3.1 Verifique que los ejemplos de 3.2 son efectivamente productos escalares.3.2 Sea V = C[0,1] el espacio de las funciones continuas sobre el intervalo [0,1]y K = I o C . Compruebe que , : C[0,1] × C[0,1] −→ K dado por f, g = R I 1 0 f (x)g(x)dx, x ∈ [0, 1] es un producto escalar en V = C[0,1] sobre K.
  • 113. 108 Cap´ ıtulo III Formas y operadores3.3 Compruebe utilizando los resultados de la secci´n III.2 que o , : I 2 × I 2 −→ I dado por X, Y = 2x1 y1 − 3x1 y2 − 3x2 y1 + 2x2 y2 donde R R RX = (x1 , x2 ) y Y = (y1 , y2 ) es un producto escalar.3.4 Calcule la norma del vector u = (6, 7) ∈ I 2 con respecto al producto escalar Rdel problema 3.3.3.5 Sea f = x2 + x + 1 y g = 3x + 2i. Calcule f, g , ||f || y ||g|| con respecto alproducto escalar del problema 3.2.3.6 Encuentre una base ortonormal para el subespacio de C[0,1] generado por{1, x, x2 } con el producto escalar definido en el problema 3.2.3.7 Sea U un espacio vectorial sobre un campo K = I o C . Pruebe que R I (i) si u, u = 0 entonces u = 0, u ∈ U y (ii) ||u|| = 0 si y s´lo si u = 0. o3.8 Sea {v1 , . . . , vs } un subconjunto ortogonal de un espacio vectorial V de di-mensi´n finita n. Pruebe que para cualquier v ∈ V , o s | v, vi |2 ≤ ||v||2 i=1 ||vi ||2(desigualdad de Bessel).3.9 Pruebe que, (i) si U es un subespacio de un espacio vectorial V de dimensi´n o ⊥⊥finita, entonces U = U ; (ii) si V no es de dimensi´n finita entonces U ⊂ (U ⊥ )⊥ . o3.10 Sea V un espacio vectorial de dimensi´n finita con producto escalar. Pruebe o ⊥ ⊥que (U + U ) = U ∩ U y que (U ∩ U ) = U ⊥ + U . ⊥ ⊥ ⊥3.11 Sea {v1 , . . . , vn } una base ortonormal de un espacio vectorial V sobre uncampo K. Pruebe que si v ∈ V entonces v = v, v1 v1 + v, v2 v2 + · · · + v, vn vn ,y que si ρ: V −→ V es un operador lineal entonces el elemento ij de la matrizasociada A a ρ con respecto a la base dada es ρ(vj ), vi .
  • 114. § 4 Operadores adjuntos 109 III.4 OPERADORES ADJUNTOSEn esta secci´n K denota al campo I o C . o R I Sea V un espacio vectorial con producto escalar sobre el campo K. Sea g: V −→ V ∗ tal que v −→ gvla funci´n dada por gv (u) = u, v . Efectivamente, como gv (λu1 + µu2 ) = o λu1 + µu2 , v = λ u1 , v + µ u2 , v = λgv (u1 ) + µgv (u2 ), tenemos que gv ∈ V ∗ .Entonces cada elemento v ∈ V nos proporciona un funcional gv . Veamos que si Ves de dimensi´n finita sucede lo inverso: o 4.1 TEOREMA. Sea V un espacio vectorial de dimensi´n finita sobre oel campo K con producto escalar. Sea f : V −→ K un funcional. Entoncesexiste un unico v ∈ V tal que f (u) = u, v para toda u ∈ V . ´ Demostraci´n. Sea {u1 , . . . , un } una base ortonormal de V . Sea v = f (u1 )u1 + o· · · + f (un )un un elemento de V . Definamos gv (ui ) = ui , v = ui , f (u1 )u1 + · · · + f (un )un = f (ui ).Luego gv = f pues coinciden en los elementos de la base. Veamos que v es unico: ´supongamos que v ∈ V es tal que f (u) = u, v para toda u ∈ V . Entonces u, v = u, v , i.e. u, v−v = 0. Consideremos u = v−v luego v−v , v−v = 0.Por lo tanto v − v = 0 y v = v . 4.2 TEOREMA. Sea V como en 4.1 y ρ: V −→ V un operador lineal.Entonces existe un operador lineal unico ρ∗ : V −→ V tal que ´ ρ(v), u = v, ρ∗ (u)para toda u, v ∈ V . Demostraci´n. Sea u ∈ V un elemento fijo de V . Consideremos la aplicaci´n o of : V −→ K dada por f (v) = ρ(v), u la cual es un funcional de V . Por 4.1 existe unelemento unico u ∈ V tal que ρ(v), u = v, u para toda v ∈ V . Sea ρ∗ : V −→ V ´ ∗tal que ρ (u) = u . Entonces ρ(v), u = v, ρ∗ (u)
  • 115. 110 Cap´ ıtulo III Formas y operadorespara toda u, v ∈ V . Veamos que ρ∗ es lineal: v, ρ∗ (λu1 + µu2 ) = ρ(v), λu1 + µu2 = λ ρ(v), u1 + µ ρ(v), u2 = λ v, ρ∗ (u1 ) + µ v, ρ∗ (u2 ) = v, λρ∗ (u1 ) + µρ∗ (u2 )u1 , u2 , v ∈ V ; λ, µ ∈ K. Como v es arbitraria, por la unicidad de 4.1 ρ∗ (λu1 + µu2 ) = λρ∗ (u1 ) + µρ∗ (u2 ),y por lo tanto ρ∗ es lineal. Dejamos probar la unicidad de ρ∗ al lector (problema4.1). Si la base de V es ortonormal se tiene la siguiente 4.3 PROPOSICION. Si A = (aij ) es la matriz asociada a ρ con respectoa una base ortonormal {u1 , . . . , un } de V entonces la matriz asociada a ρ∗es A∗ . Demostraci´n. Por el problema 3.11 los elementos ij de las matrices aso- ociadas a ρ y ρ son ρ(uj ), ui y ρ∗ (uj ), ui respectivamente. Pero ρ∗ (uj ), ui ∗ ui , ρ∗ (uj ) = ρ(ui ), uj = aji . Luego A∗ es la matriz asociada a ρ∗ . 4.4 DEFINICION. Sea V un espacio con producto escalar. Un operadorρ: V −→ V posee un operador adjunto ρ∗ en V si ρ(v), u = v, ρ∗ (u) . Observe que si V es un espacio vectorial de dimensi´n finita, por 4.2 siempre oexiste un operador adjunto. 4.5 EJEMPLO. Sea ρ: C 3 −→ C 3 dado por I I ρ(x, y, z) = (2x + 3iy + 4z, 8x + 9iy + 10z, 6x + 7iy + 8z).La matriz A asociada a ρ con respecto a la base can´nica es o 2 3i 4 A= 8 9i 10 6 7i 8
  • 116. § 4 Operadores adjuntos 111Entonces la matriz asociada a ρ∗ es 2 8 6 A∗ = −3i −9i −7i 4 10 8Luego ρ∗ (x, y, z) = (2x + 8y + 6z, −3ix − 9iy − 7iz, 4x + 10y + 8z). 4.6 PROPOSICION. Sean ρ, η: V −→ V operadores lineales de un espaciovectorial de dimensi´n finita sobre K . Entonces o (i) (ρ + η)∗ = ρ∗ + η ∗ (ii) (ρη)∗ = η ∗ ρ∗(iii) (λρ)∗ = λρ∗(iv) (ρ∗ )∗ = ρ (v) I ∗ = I(vi) Si ρ es invertible entonces (ρ−1 )∗ = (ρ∗ )−1 . Demostraci´n. Tomando en cuenta la proposici´n 4.3, la demostraci´n puede o o ohacerse utilizando las propiedades de las matrices, pero tambi´n se puede hacer edirectamente como sigue: (i) Considere las igualdades siguientes: (ρ + η)(v), u = ρ(v) + η(v), u = ρ(v), u + η(v), u = v, ρ∗ (u) + v, η ∗ (u) = v, ρ∗ (u) + η ∗ (v) = v, (ρ∗ + η ∗ )(u) ; u, v ∈ V.Por la unicidad de 4.2, (ρ + η)∗ = ρ∗ + η ∗ . (ii) (ρη)(v), u = ρ(η(v)), u = η(v), ρ∗ (u) = v, η ∗ (ρ∗ (u)) = v, (η ∗ ρ∗ )(u) ; u, v ∈ V . Por la unicidad de 4.2, (ρη)∗ = η ∗ ρ∗ .(iii) (λρ)(v), u = λρ(v), u = λ ρ(v), u = λ v, ρ∗ (u) = v, λρ∗ (u) = v, (λρ∗ )(u) ; u, v ∈ V ; λ ∈ K. Por la unicidad de 4.2, (λρ)∗ = λρ∗ .(iv) ρ∗ (v), u = u, ρ∗ (v) = ρ(u), v = v, ρ(u) ; u, v ∈ V . Por 4.2, (ρ∗ )∗ = ρ. (v) Lo dejamos como ejercicio al lector.(vi) Como I = I ∗ por (v), I ∗ = (ρρ−1 )∗ = (ρ−1 )∗ ρ∗ . As´ que (ρ−1 )∗ = (ρ∗ )−1 . ı
  • 117. 112 Cap´ ıtulo III Formas y operadores Considere el conjunto AV = HomK (V, V ) de todos los operadores linealesρ: V −→ V donde V es un espacio vectorial de dimensi´n finita con producto oescalar. Sabemos que AV posee una estructura de espacio vectorial. Considere eloperador φ: AV −→ AV dado por φ(ρ) = ρ∗ . ıfico en que φ(ρ) = ρ∗ es ρ−1 . A continuaci´n estudiaremos el caso espec´ o 4.7 DEFINICION. Sean V y V espacios vectoriales con producto escalar , V y , V respectivamente. Un isomorfismo entre espacios vectoriales conproducto escalar es un isomorfismo f : V −→ V que preserva productos escalares,es decir, f (v), f (u) V = v, u V para toda v, u ∈ V . 4.8 DEFINICION. Un operador unitario (ortogonal) ρ: V −→ V definidoen un espacio vectorial V con producto escalar sobre K = C (K = I es un I R)isomorfismo ρ: V −→ V de espacios vectoriales con producto escalar. Por el problema 4.4, ρ: V −→ V es unitario (ortogonal) si K = C (K = I I R) ∗ −1y ρ = ρ . Observe que, por 4.3, si K = C , la matriz asociada a un operador Iunitario ρ es A (llamada matriz unitaria) si, y s´lo si A∗ = A−1 , i.e. AA∗ = oI = A∗ A. Tambi´n, si K = I la matriz asociada a un operador ortogonal ρ e R,es A (llamada matriz ortogonal) si, y s´lo si t A = A−1 (pues A∗ = t A), i.e. oA(t A) = I = t AA. Si A es una matriz ortogonal, A(t A) = I y como |A| = |t A|, |At A| = |I| = 1.Pero |At A| = |A||t A| = |A|2 . Luego |A| = ±1. Observe que el conjunto de la matrices ortogonales de n × n cumplen las pro-piedades (ii), (iii) y (iv) de I.1.1, es decir, forman un grupo que llamaremos grupoortogonal denotado con O(n). El conjunto de matrices ortogonales que poseendeterminante 1 lo denotaremos con SO(n) y lo llamaremos grupo ortogonal es-pecial. 4.9 DEFINICION. Diremos que un operador ρ: V −→ V es normal si conmutacon su adjunto, es decir, si ρρ∗ = ρ∗ ρ. Diremos que una matriz compleja A esnormal si conmuta con su conjugada traspuesta, es decir, si AA∗ = A∗ A. Observe que los operadores ortogonales y unitarios son normales.
  • 118. § 4 Operadores adjuntos 113PROBLEMAS4.1 Compruebe la unicidad de ρ∗ del teorema 4.2.4.2 Pruebe que, si ρ: V −→ V es un operador de V y U un subespacio invariantebajo ρ entonces U ⊥ es un subespacio invariante bajo ρ∗ .4.3 Sea λ un valor caracter´ ıstico de un operador ρ: V −→ V donde V es un espaciovectorial complejo. Pruebe que (i) si ρ∗ = ρ entonces λ ∈ I R. (ii) si ρ∗ = ρ−1 entonces |λ| = 1.4.4 Pruebe que las siguientes afirmaciones son equivalentes: (i) ρ∗ = ρ−1 (ii) ρ(v), ρ(u) = v, u para toda v, u ∈ V(iii) ||ρ(u)|| = ||u|| para toda u ∈ V . Un operador ρ que cumple la afirmaci´n (ii) se dice que preserva productos oescalares y si cumple (iii) se dice que preserva longitudes.4.5 Pruebe que si A es una matriz ortogonal de 2 × 2 con |A| = 1 entonces A esde la forma cos t −sen t para alguna t ∈ I R. sen t cos t4.6 Pruebe que si A es una matriz ortogonal (o unitaria) entonces los renglones ylas columnas forman conjuntos ortonormales y viceversa.
  • 119. 114 Cap´ ıtulo III Formas y operadores III.5 EL TEOREMA ESPECTRALConsidere el operador φ: AV −→ AV dado por φ(ρ) = ρ∗ de la secci´n anterior, odonde V es un espacio vectorial de dimensi´n finita con producto escalar sobre oK = I ´ C. Ro I 5.1 DEFINICION. Diremos que un operador ρ: V −→ V es autoadjuntosi φ(ρ) = ρ∗ = ρ. Si K = I lo llamaremos tambi´n sim´trico; si K = C lo R e e Illamaremos hermitiano. Veamos algunas propiedades de los operadores sim´tricos: e 5.2 PROPOSICION. Sea ρ: V −→ V un operador sim´trico. Entonces el epolinomio caracter´ ıstico pρ (λ) de ρ se factoriza en factores lineales sobre IRy los vectores caracter´ısticos de ρ que corresponden a valores caracter´ ısticosdistintos son ortogonales. Demostraci´n. Sea A la matriz asociada a ρ con respecto a una base ortonor- omal de V . Entonces t A = A. Sea pA (λ) el polinomio caracter´ ıstico de A. Por elproblema 4.3(i) el operador autoadjunto considerado como operador autoadjuntocomplejo ρ posee unicamente valores caracter´ ´ ısticos reales. Entonces pA (λ) = (λ − λ1 )(λ − λ2 ) · · · (λ − λn )donde λi ∈ I R. Si ρ(u) = λu y ρ(v) = λ v con λ = λ entonces λ u, v = λu, v = ρ(u), v =u, ρ(v) = u, λ v = λ u, v . Luego (λ − λ ) u, v = 0. Como λ = λ , u, v = 0. 5.3 TEOREMA. Sea ρ: V −→ V un operador sim´trico (V es un espacio evectorial sobre I ). Entonces ρ posee una matriz asociada diagonal. R Demostraci´n. Utilizaremos inducci´n sobre la dimensi´n de V . o o o Sidim V = 1 entonces el teorema se cumple. Sea dim V = n con n > 1. Por5.2 existe al menos un vector caracter´ ıstico v1 diferente de cero de ρ. Sea U el v1subespacio generado por v1 y sea w1 = . Como v1 es un vector caracter´ ıstico ||v1 ||el subespacio U es invariante bajo ρ. Por el problema 4.2 U ⊥ es invariante bajo
  • 120. § 5 El teorema espectral 115ρ∗ = ρ. As´ ρ|U ⊥ es un operador sim´trico. Por 3.9, V ∼ U ⊕U ⊥ . Como dim U = 1, ı, e =dim U ⊥ = n − 1. Por inducci´n, existe una base ortonormal {w2 , . . . , wn } de U ⊥ oque consta de vectores caracter´ ısticos de ρ|U ⊥ y por lo tanto de ρ. Como wi ∈ U ⊥ , w1 , wi = 0 para i = 2, . . . , n y por lo tanto {wi }n es un conjunto ortonormal de i=1vectores caracter´ ısticos de ρ y por II.1.12 posee una matriz asociada diagonal. 5.4 COROLARIO. Sea A una matriz sim´trica real. Entonces existe una ematriz ortogonal N tal que la matriz B = N −1 AN = t N AN es diagonal. Observe que por el problema 5.1 y el teorema anterior tenemos que un espaciovectorial sobre I posee una base ortonormal que consiste de vectores caracter´ R ısticosde ρ si, y s´lo si, ρ es autoadjunto. o A continuaci´n veamos un resultado semejante al teorema 5.3 para operadores onormales en espacios complejos. 5.5 TEOREMA. Sea ρ: V −→ V un operador normal donde V es un es-pacio vectorial complejo con producto escalar. Entonces ρ posee una matrizasociada diagonal. Demostraci´n. Utilizaremos el proceso de inducci´n sobre la dimensi´n de V . o o oSi dim V = 1 el teorema es v´lido. Supongamos que dim V = n para n > 1. aComo el campo es C , ρ posee al menos un valor caracter´ I ıstico y por ende un vectorcaracter´ıstico w = 0. Sea U el subespacio generado por w y sea v1 un vectorunitario de U . Como w es un vector caracter´ ıstico de ρ, U es invariante bajo ρ. Porel problema 5.4(i), w es tambi´n un vector caracter´ e ıstico de ρ∗ y por lo tanto, Ues invariante bajo ρ . Por el problema 4.2, U es invariante bajo ρ = ρ∗∗ . Ahora, ∗ ⊥contin´e la demostraci´n en forma an´loga a 5.3. u o a 5.6 COROLARIO. Sea A una matriz normal. Entonces existe una ma-triz unitaria N tal que la matriz B = N −1 AN = N ∗ AN es diagonal. 5.7 EJEMPLO. Consideremos la matriz sim´trica A = e 7 −2 −2 4 . Encon-tremos una matriz ortogonal N tal que B = t N AN sea diagonal. El polinomiocaracter´ ıstico pA (λ) de A es pA (λ) = |λI − A| = λ − 7 2 = (λ − 3)(λ − 8). 2 λ−4
  • 121. 116 Cap´ ıtulo III Formas y operadoresEntonces λ = 3 y λ = 8 son los valores caracter´ ısticos. Para λ = 3, obtenemos 7 −2 x x −2 4 y =3 ylo que nos da el sistema de ecuaciones 4x − 2y = 0 . 2x − y = 0El vector (−2, −4) es una soluci´n del sistema y por lo tanto es un vector carac- oter´ ıstico correspondiente al valor caracter´ ıstico λ = 3. Para λ = 8, obtenemos 7 −2 x x −2 4 y =8 ylo que nos da el sistema de ecuaciones x + 2y = 0 . 2x + 4y = 0El vector (−4, 2) es una soluci´n del sistema y por lo tanto es un vector caracter´ o ısticocorrespondiente al valor caracter´ ıstico λ = 8. Por la proposici´n 5.2 sabemos que dichos vectores caracter´ o ısticos son ortogo-nales. Normalizamos los vectores caracter´ ısticos y obtenemos una base ortonormal √ √ √ √ −2/ 20, −4/ 20 , −4/ 20, 2/ 20 .Definamos N como la matriz √ √ −2/√20 −4/ 20 √ . −4/ 20 2/ 20Luego t N AN = 3 0 = B. Observe que la diagonal de B consiste de los valores 0 8caracter´ ısticos correspondientes a los vectores caracter´ ısticos. A continuaci´n estableceremos el teorema espectral. o 5.8 TEOREMA. Sea ρ: V −→ V un operador sim´trico (normal) donde eV es un espacio vectorial de dimensi´n finita con producto escalar sobre oK = I (K = C ). Entonces existen proyecciones ortogonales pVλi de V en R IVλi tales que
  • 122. § 5 El teorema espectral 117 (i) ρ = λ1 pVλ1 + λ2 pVλ2 + · · · + λs pVλs (ii) pVλ1 + · · · + pVλs = I(iii) pVλi ◦ pVλj = 0 si j = i. Demostraci´n. (i) Como ρ es sim´trico (normal), por 5.3 (5.5) existe una base o eortonormal que consiste de vectores caracter´ ısticos asociados a valores caracter´ ıs-ticos λ1 , . . . , λs de ρ. Luego V ∼ Vλ1 ⊕ · · · ⊕ Vλs . Sea v = v1 + · · · + vs donde =vi ∈ Vλi . Entonces ρ(v) = ρ(v1 ) + · · · + ρ(vs ) = λ1 v1 + · · · + λs vs . Denote-mos con W = Vλ1 ⊕ · · · ⊕ Vλi ⊕ · · · ⊕ Vλs . Sea u ∈ Vλi , w = j=i wj dondewj ∈ Vλj . Entonces u, w = u, j=i wj = j=i u, wj . Por el problema 5.4, ⊥esta ultima igualdad es 0 y por lo tanto W = Vλi . As´ por definici´n, el operador ´ ı, opVλi : V −→ V dado por pVλi (v) = vi es la proyecci´n ortogonal sobre Vλi . Luego oρ(v) = λ1 pVλ1 (v) + · · · + λs pVλs (v) y ρ = λ1 pVλ1 + · · · + λs pVλs . (ii) Sea v = v1 +· · ·+vs . Por (i), v = pVλ1 (v)+· · ·+pVλs (v) = (pVλ1 +· · ·+pVλs )(v). Luego I = pVλ1 + · · · + pVλs . ⊥(iii) (pVλi ◦ pVλj )(v) = pVλi (pVλj (v)) = pVλi (vj ) con vj ∈ Vλi . Pero pVλi (vj ) = 0 pues pVλi es la proyecci´n ortogonal. Luego pVλi ◦ pVλj = 0. o La descomposici´n de ρ del teorema anterior se llama descomposici´n o reso- o oluci´n espectral de ρ. o 5.9 EJEMPLO. Considere el operador ρ: I 3 −→ I 3 dado por ρ(x, y, z) = R R(4x + 5y, 5x + 4y, 3z). Su matriz asociada es 4 5 0 A= 5 4 0 0 0 3la cual es sim´trica (y por ende ρ lo es) y posee una descomposici´n espectral en e oproyecciones ortogonales. Veamos como se obtienen. Los valores caracter´ısticos seobtienen de λ−4 −5 0 −5 λ−4 0 = (λ − 4)2 (λ − 3) − 25(λ − 3) 0 0 λ−3 = (λ − 4)2 − 25 (λ − 3) = (λ − 9)(λ + 1)(λ − 3).Sean λ1 = 9, λ2 = −1 y λ3 = 3 los valores caracter´ ısticos. Ahora encontremos losespacios caracter´ ısticos generados por los vectores caracter´ısticos asociados a λ1 , λ2y λ3 :
  • 123. 118 Cap´ ıtulo III Formas y operadores 5 −5 0 (i) Para λ1 = 9, λ1 I − A = −5 5 0 , luego 0 0 6 5 −5 0 x 0 −5 5 0 y = 0 0 0 6 z 0  5x − 5y = 0  y obtenemos el sistema de ecuaciones −5x + 5y = 0 cuya soluci´n es o   6z = 0x = y = a y z = 0. −5 −5 0 (ii) Para λ2 = −1, λ2 I − A = −5 −5 0 , luego 0 0 −4 −5 −5 0 0 x −5 −5 0 0 y = 0 0 −4 0 z  −5x − 5y = 0  y obtenemos el sistema de ecuaciones −5x − 5y = 0 cuya soluci´n es x = c, o   −4z = 0y = −c y z = 0. (iii) An´logamente, para λ3 = 3 obtenemos x = y = 0 y z = b. As´ los espacios a ı,caracter´ısticos son Vλ1 = {(a, a, 0)|a ∈ I R}, dim Vλ1 = 1 Vλ2 = {(c, −c, 0)|c ∈ I R}, dim Vλ2 = 1 y Vλ3 = {(0, 0, b)|b ∈ I R}, dim Vλ3 = 1.Luego I 3 ∼ Vλ1 ⊕ Vλ2 ⊕ Vλ3 . Si (x, y, z) ∈ I 3 entonces R = R (x, y, z) = (a, a, 0) + (c, −c, 0) + (0, 0, b) = (a + c, a − c, b).Como x = a + c, y = a − c y z = b, x + y = 2a y − x + y = −2c x+y −x + y x−yde donde a = ,c= = . Las proyecciones ortogonales son 2 −2 2 x+y x+y pVλ1 = , ,0 2 2 x−y y−x pVλ2 = , ,0 2 2 pVλ3 = (0, 0, z)
  • 124. § 5 El teorema espectral 119y podemos expresar ρ como x+y x+y x−y y−x ρ(x, y, z) = 9 , ,0 − , , 0 + 3(0, 0, z). 2 2 2 2 Es f´cil comprobar que ρ(x, y, z) = (4x + 5y, 5x + 4y, 3z). aPROBLEMAS5.1 Pruebe que si V es un espacio vectorial sobre I de dimensi´n finita con R oproducto escalar y ρ: V −→ V es un operador lineal para el cual existe una baseortonormal que consiste de vectores caracter´ ısticos de ρ entonces ρ es sim´trico, i.e. ees autoadjunto sobre IR.5.2 (i) Proporcione una demostraci´n del corolario 5.4. o (ii) Pruebe que si A es una matriz hermitiana entonces existe una matriz unitaria N tal que N ∗ AN es diagonal.5.3 Pruebe que si ρ es un operador normal entonces (i) ρ − λI es normal (ii) ρ∗ (v) = 0 si, y s´lo si, ρ(v) = 0 o5.4 Sea ρ un operador normal. Pruebe que (i) si ρ(v) = λv entonces ρ∗ (v) = λv (ii) si ρ(v) = λv y ρ(v ) = λ v y λ = λ entonces v, v = 0.5.5 Escriba con detalle el final de la demostraci´n de 5.5. o5.6 (i) Pruebe que si p es una proyecci´n entonces p2 = p. o (ii) Veifique y pruebe en caso de ser v´lida la doble implicaci´n del siguiente a o enunciado: Un operador ρ: V −→ V es normal si, y s´lo si ρ es autoadjunto. o5.7 Pruebe que si ρ es un operador normal y f un polinomio sobre C , entonces If (ρ) es un operador normal.5.8 Sea A = 9 −2 una matriz sim´trica. Encuentre una matriz ortogonal e −2 6 tN tal que B = N AN sea diagonal.
  • 125. 120 Cap´ ıtulo III Formas y operadores5.9 Encuentre la descomposici´n espectral de ρ: I 3 −→ I 3 dado por ρ(x, y, z) = o R R(5x − 2y, −2x + 2y, 4z).
  • 126. Cap´ ıtulo IVALGEBRA MULTILINEAL YK-TEORIA ALGEBRAICA CLASICA IV.1 PRODUCTO TENSORIALA continuaci´n definiremos un espacio vectorial en el cual solamente se tienen rela- ociones bilineales. 1.1 DEFINICION. Sean U y V espacios vectoriales de dimensi´n finita sobre oun campo K. El producto tensorial de U y V , es la pareja (T, f ) donde T es unespacio vectorial de dimensi´n finita y f : U × V −→ T es una funci´n bilineal, tal o oque si W es un espacio vectorial de dimensi´n finita y g: U × V −→ W es bilineal, oentonces existe una funci´n lineal unica h: T −→ W tal que g = h ◦ f . o ´ La condici´n g = h ◦ f se puede representar mediante el diagrama o f U ×V −→ T  g h W Veamos a continuaci´n que, si existe, el producto tensorial de dos espacios vecto- o
  • 127. 122 Cap´ ıtulo IV Algebra Multilineal y K-Teor´ Algebraica Cl´sica ıa ariales de dimensi´n finita es unico. Es decir, dados dos productos tensoriales (T, f ) o ´y (T , f ) de U y V existe un isomorfismo entre T y T . Esto es inmediato, pues, porser T un producto tensorial, existe h: T −→ T tal que f = h ◦ f . An´logamente, acomo T es un producto tensorial, existe h : T −→ T tal que f = h ◦ f . Consid-eremos los siguientes diagramas T T f   h f h f f U ×V −→ T 1T U ×V −→ T 1T   f h f h T TPor ser T un producto tensorial, y como 1T : T −→ T es tal que 1T ◦f = f y tambi´n eh ◦ h ◦ f = f , por la unicidad tenemos que h ◦ h = 1T . De manera semejante,por ser T un producto tensorial, y como 1T : T −→ T es tal que 1T ◦ f = f ytambi´n h ◦ h ◦ f = f , se tiene, por unicidad, que h ◦ h = 1T . Por lo tanto, h es eun isomorfismo. Entonces podemos hablar de el producto tensorial T de U y V , denotado conT = U ⊗K V o simplemente U ⊗ V . En otras palabras, 1.1 nos dice que cualquier funci´n bilineal g: U × V −→ W opuede expresarse en t´rminos de f : U ×V −→ T = U ⊗K V como g(u, v) = h(f (u, v)) epara una funci´n lineal unica h: U ⊗K V −→ W . o ´ Ahora veamos que, dados dos espacios vectoriales de dimensi´n finita sobre un ocampo K, siempre existe su producto tensorial. 1.2 PROPOSICION. Sean U y V espacios vectoriales de dimensi´n finita osobre un campo K . Entonces existe un espacio vectorial T de dimensi´n ofinita sobre K que cumple la definici´n 1.1. o Demostraci´n. Sea {u1 , . . . , um } una base de U y {v1 , . . . , vn } una base de V . o mnSea T = K el espacio vectorial de dimensi´n mn sobre K y {eij } con 1 ≤ i ≤ m oy 1 ≤ j ≤ n la base can´nica. Los elementos de T se pueden expresar en forma ounica como´ m n λij eij con λij ∈ K. i=1 j=1Sea f : U × V −→ T la funci´n dada por o m n f (u, v) = f (α1 u1 + · · · + αm um , β1 v1 + · · · + βn vn ) = αi βj eij . i=1 j=1
  • 128. § 1 Producto tensorial 123En particular, f (ui , vj ) = eij . Veamos que se cumple 1.1. Comprobemos que f es bilineal: sea u = α1 u1 +· · · + αm um . m n f (u + u , v) = (αi + αi )βj eij i=1 j=1 m n = (αi βj + αi βj )eij i=1 j=1 m n = (αi βj eij + αi βj eij ) i=1 j=1 m n m n = αi βj eij + αi βj eij i=1 j=1 i=1 j=1 = f (u, v) + f (u , v)An´logamente se tiene que f (u, v + v ) = f (u, v) + f (u, v ) y que f (λu, v) = aλf (u, v) = f (u, λv). Finalmente, sea g: U × V −→ W una funci´n bilineal. Por la proposici´n I.5.2 o oexiste una funci´n lineal unica h: T −→ W tal que h(eij ) = g(ui , vj ). As´ g(u, v) = o ´ ı, m n m ng i=1 αi ui , j=1 β j vj = i=1 j=1 αi βj g(ui , vj ) = m nh i=1 j=1 αi βj eij = h(f (u, v)). La funci´n bilineal f se llama funci´n bilineal universal (cualquier otra funci´n o o obilineal g: U ×V −→ W se obtiene de f ). Decimos que debido a la propiedad univer-sal, el espacio vectorial U ⊗K V est´ determinado en forma unica salvo isomorfismo. a ´Es decir, que si en la construcci´n del espacio vectorial U ⊗K V hubi´ramos tomado o ebases diferentes para U y V obtendr´ ıamos un espacio vectorial isomorfo a U ⊗K V .A´n m´s, podr´ u a ıamos haber construido el producto tensorial U ⊗K V sin utilizarbases de U y V tal que 1.1 se cumpla, v´ase [LL1, p.60]. e Para cada u ∈ U y v ∈ V , el elemento f (u, v) lo escribiremos en la forma u ⊗ v.Es f´cil comprobar (problema 1.9) que f (U × V ) genera el producto tensorial T , ael cual denotamos U ⊗K V . De manera que cada elemento de U ⊗K V se puede rescribir en la forma i=1 λi (ui ⊗ vi ) con λi ∈ K, ui ∈ U , vi ∈ V . Esta expresi´n ono es unica pues de la bilinealidad de f se tiene que ´ (λ1 u1 + λ2 u2 ) ⊗ v = λ1 (u1 ⊗ v) + λ2 (u2 ⊗ v) y u ⊗ (µ1 v1 + µ2 v2 ) = µ1 (u ⊗ v1 ) + µ2 (u ⊗ v2 ),donde λ1 , λ2 , µ1 , µ2 , ∈ K; u1 , u2 , u ∈ U y v1 , v2 , v ∈ V .
  • 129. 124 Cap´ ıtulo IV Algebra Multilineal y K-Teor´ Algebraica Cl´sica ıa aComo caso particular se tiene que (λu) ⊗ v = λ(u ⊗ v) = u ⊗ (λv).Si λ = −1 se tiene que (−u) ⊗ v = −(u ⊗ v) = u ⊗ (−v) y si λ = 0 se tiene que0 ⊗ v = 0 = u ⊗ 0. Por lo tanto, cualquier elemento de U ⊗K V puede escribirse en la forma r (ui ⊗ vi ) i=1donde ui ∈ U , vi ∈ V . A continuaci´n estableceremos algunas propiedades del producto tensorial. o 1.3 PROPOSICION. Sea V un espacio vectorial de dimensi´n finita n osobre un campo K . Entonces V ⊗K K ∼ V ∼ K ⊗K V. = = Demostraci´n. Sea g: V × K −→ V la funci´n bilineal dada por g(v, λ) = λv, o oλ ∈ K, v ∈ V . Entonces por 1.1 existe una funci´n lineal unica o ´h: V ⊗K K −→ V tal que h ◦ f = g, es decir, el siguiente diagrama conmuta: f V ×K −→ V ⊗K K  g h V La funci´n bilineal g es suprayectiva pues g(v, 1) = 1 · v = v. Como h ◦ f = g oentonces h es suprayectiva. Veamos que h es inyectiva: sea x ∈ V ⊗K K. Sea {vi }n una base de V , x es i=1 n nde la forma i=1 (vi ⊗ λi ) para vi ∈ V , λi ∈ K y tal que x = i=1 (vi ⊗ λi ) = n n i=1 (λi vi ⊗ 1) = ( i=1 λi vi ) ⊗ 1 = v ⊗ 1. Luego h(x) = h(v ⊗ 1) = h(f (v, 1)) =g(v, 1) = 1 · v = v. Si h(v ⊗ 1) = 0 entonces v = 0 y por lo tanto x = v ⊗ 1 = 0.As´ h es inyectivo. Dejamos al lector probar que V ∼ K ⊗K V (Problema 1.1). ı, = 1.4 DEFINICION. Sean V1 , V2 , . . . , Vm , W una colecci´n de espacios vectori- oales sobre un campo K. Diremos que una funci´n o f : V1 × V2 × · · · × Vm −→ W
  • 130. § 1 Producto tensorial 125es multilineal si para cada i = 1, . . . , m f (v1 , . . . , vi + vi , . . . , vm ) = f (v1 , . . . , vi , . . . , vm ) + f (v1 , . . . , vi , . . . , vm ) y f (v1 , . . . , λvi , . . . , vm ) = λf (v1 , . . . , vi , . . . , vm )donde λ ∈ K, vi , vi ∈ Vi . Es decir, f es lineal en cada variable cuando las otras se mantienen fijas. Tam-bi´n llamaremos forma multilineal a una funci´n multilineal con codominio K. e oPodemos enunciar la definici´n equivalente a 1.1 para productos multitensoriales. o 1.5 DEFINICION. Sean {Vi }m espacios vectoriales sobre un campo K. El i=1producto tensorial de {Vi } es una pareja (T, f ) donde T es un espacio vectorialsobre K y f es una funci´n multilineal f : V1 × · · · × Vm −→ T tal que si W es oun espacio vectorial sobre un campo K y g: V1 × · · · × Vm −→ W es multilineal,entonces existe una funci´n lineal unica h: T −→ W tal que g = h ◦ f , es decir, tal o ´que el siguiente diagrama conmuta: f V1 × · · · × Vm −→ T  g h WDenotaremos a T con V1 ⊗ · · · ⊗ Vm o con ⊗m Vi y es f´cil comprobar la unicidad i=1 ay existencia de T . 1.6 PROPOSICION. Sean U, V, W espacios vectoriales sobre un campoK . Entonces (U ⊗ V ) ⊗ W ∼ U ⊗ (V ⊗ W ) ∼ U ⊗ V ⊗ W . = = Demostraci´n. Consideremos la funci´n bilineal g : U × V −→ U ⊗ V ⊗ W o odada por g (u, v) = u ⊗ v ⊗ w para w ∈ W fija, la cual induce una funci´n lineal ohw : U ⊗ V −→ U ⊗ V ⊗ W tal que hw (u ⊗ v) = u ⊗ v ⊗ w. Sea g: (U ⊗ V ) × W −→U ⊗ V ⊗ W dada por g(t, w) = hw (t). g es bilineal y por lo tanto induce una funci´n olineal h: (U ⊗ V ) ⊗ W −→ U ⊗ V ⊗ W tal que h((u ⊗ v) ⊗ w) = u ⊗ v ⊗ w. Construyamos ahora una funci´n h : U ⊗ V ⊗ W −→ (U ⊗ V ) ⊗ W tal que oh ◦ h = 1(U ⊗V )⊗W y h ◦ h = 1U ⊗V ⊗W . Para construir h considere la funci´n og : U × V × W −→ (U ⊗ V ) ⊗ W dada por g (u, v, w) = (u ⊗ v) ⊗ w. g es lineal encada variable, luego induce una funci´n lineal h : U ⊗ V ⊗ W −→ (U ⊗ V ) ⊗ W tal oque h(u ⊗ v ⊗ w) = (u ⊗ v) ⊗ w. Es inmediato comprobar que h ◦ h = 1(U ⊗V )⊗W
  • 131. 126 Cap´ ıtulo IV Algebra Multilineal y K-Teor´ Algebraica Cl´sica ıa ay que h ◦ h = 1U ⊗V ⊗W y, por lo tanto, h y h son isomorfismos. La demostraci´n ode que U ⊗ (V ⊗ W ) ∼ U ⊗ V ⊗ W es an´loga. = a 1.7 DEFINICION. Sean V1 , . . . , Vm espacios vectoriales de dimensi´n finita osobre un campo K. Diremos que la sucesi´n o f0 f1 f2 fm−1 fm 0 −→ V1 −→ V2 −→ · · · −→ Vm−1 −→ Vm −→ 0es exacta en Vi si im fi−1 = ker fi . Diremos que la sucesi´n es exacta si es exacta oen cada Vi , para toda i = 1, . . . , m. 1.8 PROPOSICION. Sean V1 , . . . , Vm espacios vectoriales de dimensi´n ofinita sobre un campo K y f0 f1 f2 f3 fm−2 fm−1 fm 0 −→ V1 −→ V2 −→ V3 −→ · · · −→ Vm−1 −→ Vm −→ 0una sucesi´n exacta. Entonces o dim V1 − dim V2 + dim V3 − · · · + (−1)m−1 dim Vm = 0. Demostraci´n. Utilizaremos el proceso de inducci´n sobre m. o o Para f0 f1m = 1 tenemos la sucesi´n 0 −→ V1 −→ 0. Por exactitud, im f0 = 0 = ker f1 = V1 . oLuego V1 = 0 y dim V1 = 0. Supongamos que la proposici´n es v´lida para o am − 1. Como f2 : V2 −→ V3 posee n´cleo ker f2 = im f1 , induce una funci´n lineal u oV2 /im f1 −→ V3 (problema II.4.8) que es inyectiva. Luego, se tiene una sucesi´n oexacta 0 −→ V2 /im f1 −→ V3 −→ · · · −→ Vm−1 −→ Vm −→ 0y, por hip´tesis de inducci´n dim V2 /im f1 − dim V3 + · · · = 0, es decir, por II.4.5 o odim V2 − dim (im f1 ) − dim V3 + · · · = 0 y por I.3.11 dim V1 = dim (im f1 ) +dim (ker f1 ) = dim (im f1 ) + 0 = dim (im f1 ) pues im f0 = 0 = ker f1 . Luegodim V2 − dim V1 − dim V3 + · · · = 0. 1.9 COROLARIO. Si 0 −→ V1 −→ V2 −→ V3 −→ 0 es una sucesi´n exacta ocorta de espacios vectoriales de dimensi´n finita sobre un campo K entonces oV2 ∼ V1 ⊕ V3 . = Demostraci´n. Por 1.8, dim V1 − dim V2 + dim V3 = 0. Luego dim V2 = odim V1 + dim V3 y por lo tanto V2 ∼ V1 ⊕ V3 . =
  • 132. § 1 Producto tensorial 127PROBLEMAS1.1 Pruebe que K n ⊗ K m = K nm y que K ⊗K V ∼ V para V un espacio vectorial =como en 1.3.1.2 Proporcione con todo detalle la demostraci´n de 1.6 o1.3 Pruebe que U ⊗ V ∼ V ⊗ U . =1.4 Pruebe que si f g h T −→ U −→ V −→ Wes una sucesi´n exacta de espacios vectoriales sobre un campo K, entonces o (i) h es inyectiva si, y s´lo si, g es trivial (i.e. g(U ) = 0) o (ii) g es trivial si, y s´lo si, f es suprayectivo. o1.5 Pruebe que, en una sucesi´n exacta de espacios vectoriales sobre un campo K o f g h k S −→ T −→ U −→ V −→ Wf es suprayectiva y k es inyectiva si, y s´lo si, U = 0. o1.6 Pruebe que, si 0 −→ V −→ 0 es una sucesi´n exacta de espacios vectoriales osobre un campo K, entonces V = 0. f g h k q1.7 Sea R −→ S −→ T −→ U −→ V −→ W una sucesi´n exacta de espacios ovectoriales sobre un campo K. Pruebe que g, k son funciones lineales triviales si,y s´lo si, h es isomorfismo, y que h es isomorfismo si, y s´lo si, f es suprayectiva y o oq es inyectiva. h1.8 Pruebe que, si 0 −→ U −→ V −→ 0 es una sucesi´n exacta de espacios ovectoriales sobre un campo K, entonces h es un isomorfismo.1.9 Verifique que f (U × V ) genera a U ⊗K V . (Sugerencia: defina una funci´n olineal i: U × V −→ U ⊗K V y utilice la unicidad de 1.1 para mostrar que i essuprayectiva.)
  • 133. 128 Cap´ ıtulo IV Algebra Multilineal y K-Teor´ Algebraica Cl´sica ıa a IV.2 PRODUCTO EXTERIOR 2.1 DEFINICION. Sean V y W espacios vectoriales de dimensi´n finita sobre oun campo K. Diremos que la funci´n bilineal f : V × V −→ W es alternante si of (v, v) = 0 para toda v ∈ V . 2.2 DEFINICION. La potencia exterior (de grado 2) de un espacio vectorialV de dimensi´n finita sobre un campo K, es una pareja (V ∧ V, f ) en donde V ∧ V oes un espacio vectorial sobre K y f : V × V −→ V ∧ V es una funci´n bilineal oalternante, tal que para todo espacio vectorial W y toda g: V × V −→ W funci´n obilineal alternante, existe una funci´n lineal unica h: V ∧ V −→ W tal que g = h ◦ f , o ´es decir, tal que el siguiente diagrama conmuta: f V ×V −→ V ∧ V  g h W An´logamente al caso de suma directa y al de producto tensorial se demuestra a(problema 2.1) que, si existe, la potencia exterior es unica. ´ La existencia se demuestra f´cilmente utilizando los conceptos de producto ten- asorial y espacio vectorial cociente: 2.3 PROPOSICION. Sea V un espacio vectorial de dimensi´n finita osobre K y (V ⊗ V, f ) el producto tensorial. Sea U el subespacio de V ⊗ Vgenerado por los elementos v ⊗ v con v ∈ V . Sea p: V ⊗ V −→ (V ⊗ V )/U laproyecci´n can´nica. Entonces la pareja ((V ⊗ V )/U, f ), con f = pf es la o opotencia exterior V ∧ V . Demostraci´n. Veamos que f es bilineal alternante. En efecto, es bilineal oporque f lo es y p es lineal; es alternante porque f (v, v) = pf (v, v) = p(v ⊗ v) =(v ⊗ v) + U = U que es el cero de (V ⊗ V )/U .
  • 134. § 2 Producto exterior 129 Demostraremos que satisface (la propiedad universal de) la definici´n de potencia oexterior. Dada una funci´n o bilineal alternante arbitrariag: V × V −→ W consideremos el diagrama f p V ×V −→ V ⊗ V −→ V ⊗ V /U = V ∧ V  g h h (f = pf ) WPor ser V ⊗ V el producto tensorial existe h , funci´n lineal tal que g = h f . As´ o ı,h (v ⊗ v) = h f (v, v) = g(v, v) = 0. Luego, h (v ⊗ v) = h f (v, v) = 0 para todav ∈ V , lo cual implica que h (U ) = 0. Entonces existe una funci´n lineal unica h o ´tal que h = hp. Por lo tanto g = hpf = hf . Observe que como im f genera a V ⊗ V y p es suprayectiva, resulta que im fgenera a V ∧ V . Si f : V ×V −→ V ∧V es la funci´n bilineal alternante que da la potencia exterior oV ∧ V usaremos la notaci´n o f (u, v) = u ∧ v. 2.4 EJEMPLO. Con la notaci´n anterior, tambi´n resulta que u ∧ v = −v ∧ u. o eEn efecto, ya que f (u+v, u+v) = 0, se tiene que f (u, u)+f (u, v)+f (v, u)+f (v, v) =0 de donde f (u, v) = −f (v, u). 2.5 EJEMPLO. Sea V un espacio vectorial de dimensi´n 3 y (V ∧ V, f ) la o 3 3 3potencia exterior. Sea {ui }i=1 una base de V . Si u = i=1 αi ui , v = i=1 βi uientonces f (u, v) = f αi ui , βj uj = α1 β1 f (u1 , u1 ) + α1 β2 f (u1 , u2 ) + α1 β3 f (u1 , u3 ) + α2 β1 f (u2 , u1 ) + α2 β2 f (u2 , u2 )α2 β3 f (u2 , u3 ) + α3 β1 f (u3 , u1 ) + α3 β2 f (u3 , u2 ) + α3 u3 f (u3 , u3 ) 3 3 = αi βj f (ui , uj ). i=1 j=1
  • 135. 130 Cap´ ıtulo IV Algebra Multilineal y K-Teor´ Algebraica Cl´sica ıa aPor ser f alternante f (ui , ui ) = 0, f (u2 , u1 ) = −f (u1 , u2 ), f (u3 , u1 ) = −f (u1 , u3 )y f (u3 , u2 ) = −f (u2 , u3 ). As´ obtenemos ıf (u, v) = (α1 β2 − α2 β1 )f (u1 , u2 ) + (α1 β3 − α3 β1 )f (u1 , u3 ) + (α2 β3 − α3 β2 )f (u2 , u3 ),es decir, u ∧ v = (α1 β2 − α2 β1 )u1 ∧ u2 + (α1 β3 − α3 β1 )u1 ∧ u3 + (α2 β3 − α3 β2 )u2 ∧ u3 . Demostraremos a continuaci´n que {u1 ∧ u2 , u1 ∧ u3 , u2 ∧ u3 } es una base de oV ∧ V y, por lo tanto la dimensi´n de la potencia exterior, en este caso, es 3. o Acabamos de demostrar que todo elemento de im f es combinaci´n lineal de estos otres vectores y como la im f genera a V ∧ V , el conjunto {u1 ∧ u2 , u1 ∧ u3 , u2 ∧ u3 }genera a V ∧ V . Para demostrar que son linealmente independientes podemos utilizar la propie-dad universal de la manera siguiente. Sea W un espacio vectorial de dimensi´n 3 y o{t12 , t13 , t23 } una base de W . Sea g: V × V −→ W la funci´n dada por o g(u, v) = (αi βj − αj βi )tij 1≤i,j≤3 3 3en donde u = i=1 αi ui , v = j=1 βj uj . En particular se tiene que g(ui , uj ) = tij .Esta funci´n (problema 2.3) es bilineal y alternante. Entonces, por la propiedad ouniversal, existe una funci´n lineal unica h: V ∧V −→ W tal que g = hf . Obtenemos o ´as´ g(u, v) = hf (u, v) = h(u ∧ v) y, en particular, h(ui ∧ uj ) = g(ui , uj ) = tij . ıSupongamos ahora que λij ui ∧ uj = 0 para (1 ≤ i < j ≤ 3). Entonces como h eslineal, h( λij ui ∧ uj ) = λij h(ui ∧ uj ) = λij g(ui , uj ) = λij tij = 0. Como{t12 , t13 , t23 } es base de W , entonces λ12 = λ13 = λ23 = 0. 2.6 EJEMPLO. Si V = I 3 , recu´rdese que el producto vectorial o producto R ecruz de dos vectores u = (α1 , α2 , α3 ) y v = (β1 , β2 , β3 ) se define como u × v =(α2 β3 − α3 β2 , α3 β1 − α1 β3 , α1 β2 − α2 β1 ), es decir, u × v = (α2 β3 − α3 β2 )e1 + (α3 β1 − α1 β3 )e2 + (α1 β2 − α2 β1 )e3lo cual puede expresarse como e1 e2 e3 u × v = α1 α2 α3 β1 β2 β3
  • 136. § 2 Producto exterior 131En particular e1 × e2 = e3 , e2 × e3 = e1 , e3 × e1 = e2 , por lo que podemos escribir u × v = (α1 β2 − α2 β1 )e1 × e2 + (α1 β3 − α3 β1 )e1 × e3 + (α2 β3 − α3 β2 )e2 × e3 .Si comparamos esta expresi´n de u × v con la expresi´n para u ∧ v del ejemplo o oanterior (con {u1 , u2 , u3 } = {e1 , e2 , e3 }) vemos que I ∧ I 3 = I 3 y u ∧ v = u × v; R3 R Rla potencia exterior, en este caso, es el producto vectorial. n 2.7 PROPOSICION. Si dim V = n entonces dim V ∧ V = . 2 Demostraci´n. Sea {vi }n una base de V . Sabemos que {vi ⊗ vj } (i, j = o i=11, . . . , n) es una base de V ⊗ V y como p: V ⊗ V −→ V ∧ V es suprayectiva, {vi ∧ vj }(i, j = 1, . . . n) genera a V ∧ V . Como vi ∧ vj = 0 (i = j) y vi ∧ vj = −vj ∧ vi(i = j) de este conjunto podemos eliminar los vectores innecesarios y quedarnoscon {vi ∧ vj } (1 ≤ i < j ≤ n) y sigue generando V ∧ V . Adem´s (problema 2.4) aeste conjunto es linealmente independiente, por lo que es base de V ∧ V . Como el n(n − 1) n nn´mero de vectores es u = , la dimensi´n de V ∧ V es o . 2 2 2 El concepto de potencia exterior puede extenderse a m´s de dos factores. Di- aremos que una funci´n multilineal f : ×k Vi −→ W con Vi = V es alternante si o i=1f (v1 , . . . , vk ) = 0 siempre que vi = vj para algunas i = j. 2.8 DEFINICION. La potencia exterior de grado k de un espacio vectorial k kV de dimens´n finita sobre un campo K es una pareja ( V, f ) en donde o V k kes un espacio vectorial y f : ×i=1 Vi −→ V (Vi = V ) es una funci´n multilineal oalternante tal que para todo espacio vectorial W y toda g: ×k Vi −→ W (Vi = V ) i=1 kfunci´n multilineal alternante, existe una unica funci´n lineal h: o ´ o V −→ W talque g = h ◦ f , es decir, tal que el siguiente diagrama conmuta: f k ×k Vi i=1 −→ V (Vi = V )  g h W La demostraci´n de la unicidad y existencia de la potencia exterior sigue exac- o 2tamente los mismos pasos que para el caso de V =V ∧V. Dejamos al lector imitar el caso k = 2 para probar (problema 2.6) que si{v1 , . . . , vn } es una base de V entonces {vj1 ∧ · · · ∧ vjk | 1 ≤ j1 < · · · < jk ≤ n}
  • 137. 132 Cap´ ıtulo IV Algebra Multilineal y K-Teor´ Algebraica Cl´sica ıa a k nes base de V . Puesto que este conjunto tiene elementos, la dimensi´n de o k k n V es . k Si denotamos J = {j1 , . . . , jk } con 1 ≤ j1 < · · · < jk ≤ n entonces los elementos kv∈ V son de la forma v = J αJ vJ en donde vJ = vj1 ∧ · · · ∧ vjk . k 0 1 Para completar la definici´n de o V definimos V =K y V = V . Obs´r- e kvese que para ´ ındices k > n = dim V , claramente V = 0. En lo que sigue analizaremos la relaci´n que existe entre los conceptos de potencia oexterior y determinante. Sea V un espacio vectorial de dimensi´n n y A: V −→ V un endomorfismo o(sin´nimo de operador lineal) de V , es decir una funci´n lineal de V en V . Def´ o o ınase n nuna funci´n g = gA : ×i=1 Vi −→ o V (Vi = V ) dada por gA (v1 , . . . , vn ) = A(v1 ) ∧ · · · ∧ A(vn )para {v1 , . . . , vn } una base de V . Como g es multilineal alternante existe una n nfunci´n lineal unica h = hA : o ´ V −→ V tal que hA (v1 ∧ · · · ∧ vn ) = gA (v1 , . . . , vn ) = A(v1 ) ∧ · · · ∧ A(vn ) f f × n Vi i=1 −→ ∧n V (v1 , . . . , vn ) −→ v1 ∧ · · · ∧ vn   g h g h n A(v1 ) ∧ · · · ∧ A(vn ) ∧ V n nPero dim V = 1, es decir V = K por lo que hA : K −→ K es una funci´n olineal y por lo tanto hA es la multiplicaci´n por un escalar. Entonces, si denotamos ocon |A| a este escalar, tenemos hA (v1 ∧ · · · ∧ vn ) = |A|(v1 ∧ · · · ∧ vn ) = A(v1 ) ∧ · · · ∧ A(vn ).Entonces definimos el determinante de A: V −→ V como el escalar |A|. Si (αij ) es la matriz de la funci´n lineal A: V −→ V con respecto a la base o n{v1 , . . . , vn }, es decir, si A(vi ) = j=1 αij vj (1 ≤ i ≤ n) entonces obtenemosA(v1 ) ∧ · · · ∧ A(vn ) = α1j1 · · · αnjn vj1 ∧ · · · ∧ vjn ; 1 ≤ ji ≤ n, i = 1, . . . , nAhora bien, en esta suma los productos vj1 ∧ · · · ∧ vjn con dos (o m´s) ´ a ındicesiguales valen 0. Es decir, solamente quedan aquellos productos tales que los ´ ındices
  • 138. § 2 Producto exterior 133j1 , . . . , jn son todos distintos entre s´ Dicho de otra manera, los ´ ı. ındices son laspermutaciones de 1, . . . , n, es decir σ(i) = ji . Adem´s, como vj1 ∧ · · · ∧ vjn = sigσv1 ∧ · · · ∧ vn obtenemos a A(v1 ) ∧ · · · ∧ A(vn ) = sigσα1σ(1) · · · αnσ(n) v1 ∧ · · · ∧ vn σy como |A|v1 ∧ · · · ∧ vn = A(v1 ) ∧ · · · ∧ A(vn ) obtenemos |A| = sigσα1σ(1) · · · αnσ(n) .Entonces definimos el determinante de una matriz (αij ) como el determinante nde la funci´n lineal A: V −→ V dada por A(vi ) = j=1 αij vj (i = 1, . . . , n). Se odenotar´ con |αij |. a A continuaci´n definiremos una multiplicaci´n la cual denotaremos tambi´n con o o eel s´ ımbolo ∧ por conveniencia. Sea k k+ ∧: V × V −→ Vdado por ∧(u1 ∧ · · · ∧ uk , v1 ∧ · · · ∧ v ) = u1 ∧ · · · ∧ uk ∧ v1 ∧ · · · ∧ v .Esta multiplicaci´n suele llamarse producto exterior y posee las siguientes propie- odades: (i) ∧ es asociativo (ii) ∧ es distributivo con respecto a la suma directa.(iii) u1 ∧ · · · ∧ uk ∧ v1 ∧ · · · ∧ v = (−1)k v1 ∧ · · · ∧ v ∧ u1 ∧ · · · ∧ uk .PROBLEMAS2.1 Pruebe la unicidad de la potencia exterior.2.2 Sea V un espacio vectorial sobre un campo K y u, v ∈ V . Pruebe que si u yv son linealmente dependientes entonces u ∧ v = 0.2.3 Pruebe que la funci´n g definida en el ejemplo 2.5 es bilineal y alternante. o2.4 Pruebe que el conjunto {vi ∧ vj } (1 ≤ i < j ≤ n) de la demostraci´n de 2.7 es olinealmente independiente. (Siga el m´todo usado en el ejemplo 2.5). e
  • 139. 134 Cap´ ıtulo IV Algebra Multilineal y K-Teor´ Algebraica Cl´sica ıa a2.5 Pruebe que si σ es una permutaci´n de {1, 2, . . . , k} entonces ovσ(1) ∧ · · · ∧ vσ(k) = sig(σ)v1 ∧ · · · ∧ vk , en donde sig(σ) denota el signo de lapermutaci´n. o2.6 Pruebe que si {v1 , . . . , vn } es una base de V entonces {vj1 ∧ · · · ∧ vjk | k1 ≤ j1 < · · · < jk ≤ n} es base de V y que el n´mero de tales vectores es u n . k2.7 Pruebe que si A, B: V −→ V son endomorfismos de V entonces (i) |AB| = |A| |B| (ii) |1V | = 1(iii) |A−1 | = |A|−1 para A biyectivo (i.e. A automorfismo de V )2.8 Pruebe que si una columna de la matriz (αij ) es combinaci´n de las dem´s, o aentonces |αij | = 0.2.9 Verifique que el producto exterior posee las tres propiedades mencionadas.
  • 140. § 3 Estructuras algebraicas 135 IV.3 ESTRUCTURAS ALGEBRAICASEn esta secci´n definiremos varias estructuras algebraicas algunas de las cuales ya ohan sido impl´ ıcitamente estudiadas. Tiene como finalidad la de (i) presentar unbreve panorama de las estructuras algebraicas; (ii) definir el ´lgebra tensorial y aexterior, (iii) situar al lector en la posibilidad de entender los objetos de estudiodel ´lgebra lineal y (iv) proporcionar los objetos necesarios para el estudio de la aK-Teor´ Algebraica Cl´sica que haremos en la pr´xima secci´n. ıa a o o Sea (V, +, µ) un espacio vectorial sobre un campo K tal como se defini´ en I.1.1. oSi quitamos la multiplicaci´n escalar µ nos quedaremos con un conjunto con una ooperaci´n binaria + que cumple (i) a (iv) de I.1.1. Entonces diremos que (V, +) es oun grupo conmutativo bajo +. Formalmente tenemos la siguiente: 3.1 DEFINICION. Un grupo es una pareja (G, +) donde G es un conjunto y+: G × G −→ G es una operaci´n binaria (u, v) −→ +(u, v) donde, por abuso de onotaci´n se escribe +(u, v) = u + v, tal que o (i) (u + v) + w = u + (v + w) (ii) existe un elemento 0 ∈ G tal que v + 0 = v(iii) para cada v ∈ G existe un elemento, denotado con −v, tal que v + (−v) = 0. Diremos que el grupo es conmutativo si adem´s satisface a(iv) u + v = v + u. Si en la definici´n anterior consideramos un conjunto S con una operaci´n binaria o o+ que cumpla (i) diremos que (S, +) es un semigrupo. Tambi´n, si en la definici´n 3.1 consideramos un conjunto M con una operaci´n e o obinaria + que cumpla (i) y (ii) diremos que (M, +) es un monoide. 3.2 EJEMPLOS. El lector podr´ comprobar que (Z +), (Q , +), a Z, I(Q ∗ = Q − {0}, ·), ( I +), ( I ∗ = I − {0}, ·), (C , +), (C ∗ = C − {0}, ·), (Z n , +), I I R, R R I I I Z(V, +), (Mn K, +) son grupos. Para relacionar dos grupos es necesario definir una funci´n que preserve la es- otructura de grupo.
  • 141. 136 Cap´ ıtulo IV Algebra Multilineal y K-Teor´ Algebraica Cl´sica ıa a 3.3 DEFINICION. Sean (G, ) y (G , ) dos grupos. Un homomorfismo degrupos es una funci´n f : G −→ G tal que f (u v) = f (u) f (v). o 3.4 DEFINICION. Un anillo es una terna (Λ, +, ·) donde Λ es un conjunto,+ y · son operaciones binarias tales que (i) (Λ, +) es un grupo conmutativo (ii) (Λ, ·) es un semigrupo(iii) u(v + w) = uv + uw y (u + v)w = uw + vw 3.5 EJEMPLOS. El lector podr´ comprobar que (Z +, ·), (Z n , +, ·), a Z, Z(Q , +, ·), ( I +, ·), (Mn K, +, ·), (K, +, ·), (K[x], +, ·), (C , +, ·) son anillos. I R, I Si un anillo (Λ, +, ·) satisface(iv) (Λ, ·) es un semigrupo conmutativo, entonces (Λ, +, ·) se llamar´ anillo con- a mutativo. Si en 3.4 (Λ, ·) es un monoide, diremos que (Λ, +, ·) es un anillo con identidado con uno. Si el anillo (Λ, +, ·) no posee divisores de cero, se llamar´ dominio entero. Si aun dominio entero posee un inverso multiplicativo para cada elemento no nulo, sedice que es un anillo con divisi´n. Un dominio euclidiano es un dominio entero oΛ junto con una funci´n d: Λ −→ Z + tal que (i) para todo x, y ∈ Λ, distintos de o Zcero, d(x) ≤ d(xy) y (ii) para todo x, y ∈ Λ, distintos de cero, existen q, r ∈ Λ talesque x = qy + r donde r = 0 o d(r) < d(y) (algoritmo de la divisi´n). Finalmente, oun campo es un anillo conmutativo con divisi´n. o ¿C´mo se relacionan dos anillos? Mediante funciones que preserven la estructura ode anillos. Si (Λ, , ) y (Λ , +, ·) son anillos, un homomorfismo de anillos esuna funci´n que es un homomorfismo del grupo conmutativo de Λ en el grupo oconmutativo de Λ y que tambi´n es un homomorfismo del semigrupo de Λ en el esemigrupo de Λ , es decir, f (u v) = f (u) + f (v) y f (u v) = f (u) · f (v). Si en la definici´n I.1.1 consideramos un anillo (Λ, +, ·) conmutativo con 1 en olugar de un campo K, obtendremos una estructura algebraica llamada Λ-m´dulo o
  • 142. § 3 Estructuras algebraicas 137(izquierdo). Entonces, como caso particular de los Λ-m´dulos est´n los K-modulos, o ai.e. los espacios vectoriales sobre un campo K. Todos los puntos tratados en las secciones I.1 y I.2 son v´lidos para los Λ- am´dulos, basta tomar K = Λ un anillo conmutativo con 1. En particular, rela- ocionamos dos Λ-m´dulos mediante un homomorfismo de Λ-m´dulos (definici´n o o oI.1.7). Los Λ-m´dulos son generalizaciones de los conceptos de grupo conmutativo y ode espacio vectorial, y son los objetos de estudio del Algebra Homol´gica. Imitando oa los espacios vectoriales, si un Λ-m´dulo posee una base, le llamaremos Λ-m´dulo o olibre. No todo Λ-m´dulo posee base, es decir, no todo Λ-m´dulo es libre, pero todo o oespacio vectorial o K-m´dulo es libre, es decir, s´ posee una base. Diremos que un o ıΛ-m´dulo es proyectivo si es sumando directo de un libre y que es finitamente ogenerado si posee un conjunto finito de generadores. Un ´lgebra sobre Λ es un conjunto A que simult´neamente es un anillo y un a aΛ-m´dulo. Es decir, un algebra (A, +, µ, ·) es un Λ-m´dulo con otra operaci´n o o obinaria, llamada multiplicaci´n con una condici´n extra que hace compatibles las o ooperaciones binarias y multiplicaci´n escalar, la cual es la siguiente: o (λu + λ v)w = λ(uw) + λ (vw) y w(λu + λ v) = λ(wu) + λ (wv) para λ, λ ∈ Λ; u, v, w ∈ AEn particular se tiene que (λu)v = λ(uv) = u(λv) y por lo tanto λuv es un elementobien definido de A. Dejamos al lector proporcionar la definici´n de homomorfismo de ´lgebras as´ o a ıcomo percatarse de varios ejemplos de ´lgebras ya introducidos impl´ a ıcitamente. Si se imponen condiciones en la multiplicaci´n de un ´lgebra se obtienen ´lgebras o a aconmutativas, ´lgebras asociativas, ´lgebras con uno. Un ´lgebra asociativa a a acon uno tal que todo elemento diferente de cero sea invertible se llama ´lgebra con adivisi´n. o Definimos un ´lgebra graduada como una sucesi´n a o A = (A0 , A1 , A2 , . . .)de ´lgebras Ai , una para cada ´ a ındice i ∈ I N. 3.6 EJEMPLO. Sea T k (V ) = ⊗k V = V ⊗K · · · ⊗K V el producto tensorial deun espacio vectorial V sobre un campo K, k veces. Llamaremos a T k (V ) espaciotensorial de grado k de V . Si definimos una multiplicaci´n o ·: T k V × T V −→ T k+ V mediante (u1 ⊗ · · · ⊗ uk ) · (v1 ⊗ · · · ⊗ v ) = u1 ⊗ · · · ⊗ uk ⊗ v1 ⊗ · · · ⊗ v
  • 143. 138 Cap´ ıtulo IV Algebra Multilineal y K-Teor´ Algebraica Cl´sica ıa atenemos un ´lgebra graduada (donde definimos T 0 V = K y T 1 V = V ) T V = a(K, V, T 2 V, T 3 V, T 4 V, . . .) llamada ´lgebra tensorial de V . a k 3.7 EJEMPLO. Sea V = V ∧ · · · ∧ V el producto exterior de un espaciovectorial V sobre un campo K, k veces. Consideremos la multiplicaci´n exterior odefinida en la secci´n 2, a saber o k k+ ∧: V × V −→ V.Entonces tenemos un ´lgebra graduada a 2 3 V = (K, V, V, V, . . .)llamada ´lgebra exterior o ´lgebra de Grassmann de V . a a Sea V ∗ el espacio dual de V . Consideremos el espacio tensorial de grado k deV , T k V , del ejemplo 3.6. Consideremos tambi´n T V ∗ y denotemos con T k (V ) el eproducto (⊗k V ) ⊗ (⊗ V ∗ ). Es decir, T k V ⊗ T (V ∗ ) = T k (V ). Con esta notaci´n o k k k 0 ∗ 0se tiene que T0 (V ) = T (V ) = ⊗ V , T (V ) = ⊗ V y T0 (V ) = K. Llamaremos aT k V espacio tensorial de tipo (k, ) y cada uno de sus elementos lo llamaremostensor de tipo (k, ). Un tensor de tipo (k, 0) se llamar´ tensor contravariante ade grado k y uno de tipo (0, ) tensor covariante de grado . Un tensor de 1tipo (0, 0) es simplemente un escalar. Un elemento de T0 V = V se llama vectorcontravariante y uno de T1 V = V ∗ se llama vector covariante. Si k = 0 y = 0, 0un tensor mixto es un tensor de tipo (k, ).PROBLEMAS3.1 Verifique que los conjuntos con operaci´n binaria del ejemplo 3.2 son grupos. o3.2 Verifique que los conjuntos con operaciones binarias del ejemplo 3.5 son anillosy que Z K y K[x] son dominios euclidianos. Z,3.3 Considere la “parte aditiva” de un espacio vectorial (V, +, µ) sobre un campoK. Entonces (V, +) es un grupo conmutativo bajo la suma. Si U es un subespaciode V , (U, +) es un subgrupo conmutativo de (V, +). Proporcione una definici´n o
  • 144. § 3 Estructuras algebraicas 139adecuada de subgrupo de un grupo. Considere el espacio cociente V /U definido enII.4. Recuerde que (V /U, +, µ) posee una estructura de espacio vectorial sobre K. Sinos fijamos solamente en la parte aditiva (V /U, +) recibe el nombre grupo cocientey consiste tambi´n de las clases laterales de U en V . Considere el subgrupo nZ de Z e Z Zy describa las clases laterales de Z Z/nZ Compruebe que existe una correspondencia Z.biyectiva entre los conjuntos Z Z/nZ y Z n . Defina adecuadamente el concepto de Z Zisomorfismo de grupos y compruebe que Z Z es isomorfo a Z n . Z/nZ Z3.4 Establezca un resultado an´logo al del problema II.4.8 para grupos. a3.5 Sea (G, +) un grupo conmutativo. Una base de G es un conjunto {vi }n , i=1n ≥ 1 de elementos de G tal que cualquier elemento v ∈ G puede escribirse demanera unica como ´ v = λ1 v 1 + · · · + λn v ncon λ1 , . . . , λn ∈ Z Demuestre que, si G es un grupo conmutativo con base {vi }n , Z. i=1G es otro grupo conmutativo y {vi }n es cualquier conjunto de elementos de G i=1entonces existe un homomorfismo de grupos unico h: G −→ G tal que h(vi ) = vi ´para toda i = 1, . . . , n. Diremos que (G, +) es un grupo abeliano libre si G esconmutativo y posee una base. Observe que el concepto de base para un grupoabeliano se define de una manera similar a la de base para un espacio vectorialtomando en cuenta que los coeficientes λi son enteros.3.6 Sea U un subespacio de un espacio vectorial V sobre un campo K. Considereel espacio cociente V /U . Sea i: U −→ V la inclusi´n y p: V −→ V /U la proyecci´n o oal cociente. Pruebe que i p (i) 0 −→ U −→ V −→ V /U −→ 0 es una sucesi´n exacta y o (ii) cualquier sucesi´n de la forma o 0 −→ M −→ M −→ M −→ 0llamada sucesi´n exacta corta de espacios vectoriales es esencialmente una suce- osi´n del tipo del inciso (i), es decir, una sucesi´n con un subespacio y un espacio o ocociente en los extremos.3.7 Sea {vi }n una base de V y {f j }n la base dual de {vi } en V ∗ (con ´ i=1 j=1 ındicessuperiores). Compruebe que los tensores vi1 ⊗ · · · ⊗ vik ⊗ f j1 ⊗ · · · ⊗ f j
  • 145. 140 Cap´ ıtulo IV Algebra Multilineal y K-Teor´ Algebraica Cl´sica ıa acon iµ , jη = 1, . . . , n, µ = 1, . . . , k y η = 1, . . . , forman una base de T k (V ).Entonces cualquier tensor del tipo (k, ) puede escribirse en forma unica como ´ t= ξj1 ,...,ik vi1 ⊗ · · · ⊗ vik ⊗ f j1 ⊗ · · · ⊗ f j . i 1 ,...,jLos ´ ındices iµ se llaman ´ ındices contravariantes, los jη ´ ındices covariantes y i1 ···ikξj1 ···j se llaman componentes de t con respecto a la base {vi }.3.8 Sean ρ1 y ρ2 elementos de HomK (V, V ). Defina una operaci´n binaria en oHomK (V, V ) mediante ρ2 ρ1 (v) = ρ2 (ρ1 (v)) para toda v ∈ V y compruebe queHomK (V, V ) es un ´lgebra asociativa sobre K tambi´n denotada con AK (V ). a e
  • 146. § 4 K0 y K1 141 IV.4 K0 Y K1En esta secci´n estudiaremos algunos conceptos de la K-Teor´ Algebraica Cl´sica o ıa ala cual es parte del Algebra Lineal. Intuitivamente, la K-Teor´ Algebraica Cl´sica ıa aes una generalizaci´n del teorema que establece la existencia y unicidad de las bases opara espacios vectoriales y tambi´n de la Teor´ de Grupos del grupo lineal general e ıasobre un campo K. Recordemos la construcci´n de Z a partir de I en el conjunto I o Z N: N× I definimos Nla relaci´n o (a, b) ∼ (c, d) ⇐⇒ a + d = b + c.Es muy f´cil (problema 4.1(i)) ver que es de equivalencia. Entonces se tiene el aconjunto de clases de equivalencia I × I ∼. Si denotamos con (a, b) a la clase N N/de equivalencia de (a, b) es f´cil demostrar que la f´rmula a o (a, b) + (c, d) = (a + c, b + d)define una operaci´n binaria en I × I ∼ y que con esta operaci´n el conjunto o N N/ o I × I ∼ constituye un grupo conmutativo que se denotar´ K0 ( I o con Z N N/ a N) Z.(Se debe demostrar primero que la adici´n dada por la f´rmula anterior “est´ bien o o adefinida”, es decir, es independiente de los representantes de las clases de equiva-lencia. Despu´s debe comprobarse que satisface los axiomas de grupo conmutativo, e(problema 4.1(ii)). Adem´s se tiene un homomorfismo (de monoides) f : I −→ K0 ( I dado por a N N)a −→ (a, 0). Esta misma construcci´n sirve para cualquier monoide conmutativo o(X, ⊕) si alteramos la relaci´n de equivalencia de la siguiente manera: en X × X, o (a, b) ∼ (c, d) ⇔ a ⊕ d ⊕ h = b ⊕ c ⊕ hpara alguna h ∈ X. Es f´cil ver que ∼ es de equivalencia (problema 4.2). (En el acaso de los naturales se puede tomar la misma h = 0 siempre. En el caso en que nose cuente con la ley de cancelaci´n se necesitan estos “sumandos de compensaci´n”.) o o Se define entonces la operaci´n ⊕ en X × X/ ∼ y se obtiene un grupo conmu- otativo que se denota K0 (X) el cual se llama grupo de Grothendieck del monoideconmutativo X. Tambi´n se tiene el homomorfismo de monoides f : X −→ K0 (X) edado por f (x) = (x, 0).
  • 147. 142 Cap´ ıtulo IV Algebra Multilineal y K-Teor´ Algebraica Cl´sica ıa a 4.1 PROPOSICION. f : X −→ K0 (X) satisface la siguiente propiedad uni-versal: para cada homomorfismo (de monoides) g: X −→ G de X en ungrupo abeliano G existe un unico homomorfismo (de grupos) h: K0 (X) −→ G ´tal que g = hf , es decir, tal que el siguiente diagrama conmuta: f X −→ K0 (X)  g h G La demostraci´n es f´cil (problema 4.3). Tambi´n, siguiendo los mismos pasos o a eque en el producto tensorial ⊗ y que en la potencia exterior , es f´cil demostrar aque K0 (X) es unico (problema 4.3). ´ As´ para el conjunto de los n´meros naturales I = {0, 1, 2, . . .} con la operaci´n ı, u N ode sumar (el cual es un monoide conmutativo en donde vale la ley de cancelaci´n) oel grupo de Grothendieck K0 ( I de este monoide es el grupo aditivo Z es decir, N) Z,K0 ( I = Z N) Z. Ahora, sea K un campo y consideremos los espacios vectoriales de dimensi´n ofinita sobre K, es decir, los K-m´dulos proyectivos finitamente generados. Denote- omos con V la clase de isomorfismo del espacio vectorial V de dimensi´n finita, es odecir, la clase de todos los espacios vectoriales que son isomorfos a V . Es inme-diato verificar que el conjunto X = { V } de clases de isomorfismo es un monoideconmutativo cuya operaci´n binaria est´ dada por o a V + W = V ⊕W . Sea g: X −→ Z dado por g( V ) = dim V un homomorfismo de monoides, i.e. Zg( V + W ) = g( V ⊕ W ) = dim (V ⊕ W ) = dim V + dim W= g( V ) + g( W ). Sea F el grupo abeliano libre con base el conjunto de clases de isomorfismo delos espacios vectoriales, es decir, con base { V } | V es un espacio vectorial}. SeaR el subgrupo de F generado por las expresiones de la forma V ⊕ W − V − Wdonde 0 −→ V −→ V ⊕ W −→ W −→ 0 recorre todas la posibles sucesionesexactas cortas para los espacios vectoriales. Sea K0 (K) = F/R el grupo cociente ydenotemos con [V ] la proyecci´n o imagen de V en el cociente. Entonces, siempre oque se tenga una sucesi´n exacta corta de espacios vectoriales o 0 −→ V −→ V ⊕ W −→ W −→ 0
  • 148. § 4 K0 y K1 143tendremos una expresi´n de la forma [V ⊕ W ] = [V ] + [W ] en K0 (K), es decir, oK0 (K) est´ generado por {[V ] | V es un espacio vectorial} sujeta a las relaciones ade la forma [V ] + [W ] = [V ⊕ W ]El homomorfismo g: X −→ Z da lugar a un homomorfismo h: K0 (K) −→ Z dado Z Zpor h([V ]) = dim V . Pero h es inyectivo, pues si h([V ]) = h([W ]) entoncesh([V ] − [W ]) = 0, lo cual implica que dim V − dim W = 0 y que dim V = dim Wy por lo tanto V ∼ W . Tambi´n, h es suprayectivo pues h([K]) = 1. En resumen, = epara los espacios vectoriales sobre un campo K, los cuales podemos representar por ımbolo EVK se tiene que K0 (EVK ) = K0 (K) ∼ Z Aqu´ hemos denotado, porel s´ = Z. ıabuso de notaci´n, K0 (K) en lugar de K0 (EVK ). o ¿Qu´ sucede para otras estructuras cuando consideramos anillos que no necesa- eriamente son campos? Para los Z odulos proyectivos finitamente generados Ab, Z-m´es decir, los grupos abelianos libres de rango finito (i.e. con base finita) se sabe queK0 (Z ∼ Z Z) = Z. Sin embargo, para los Z odulos finitos Abf se sabe que K0 (Abf ) ∼ Q + . Z-m´ = IPero para los Z odulos finitamente generados Abfg se tiene que K0 (Abfg) ∼ Z Z-m´ = Z.V´ase [LL1] para una demostraci´n de ´stos resultados. e o e Como antes, sea K un campo y denotemos con K n el producto K × · · · × Kn veces. El producto tensorial de dos espacios vectoriales sobre K es un espaciovectorial sobre K. Como K n ⊗K m ∼ K nm los espacios vectoriales son cerrados bajo =el producto tensorial. Entonces (v´ase el problema 4.4) podemos darle a K0 (K) euna estructura de anillo mediante [V ] · [W ] = [V ⊗K W ]. A continuaci´n estudiaremos el conjunto de las transformaciones lineales inverti- obles a trav´s de uno asociado de matrices. Sea V un espacio vectorial de dimensi´n e on sobre un campo K. Denotemos con GL(V ) (o con AutK (V )) el conjunto detodas las funciones lineales de V en V que sean biyectivas (invertibles). Podemosproporcionarle a este conjunto una estructura de grupo definiendo una operaci´n obinaria ◦: GL(V ) × GL(V ) −→ GL(V )mediante la composici´n o
  • 149. 144 Cap´ ıtulo IV Algebra Multilineal y K-Teor´ Algebraica Cl´sica ıa a (f ◦ g)(v) = f (g(v)).Claramente (problema 4.5) GL(V ) es un grupo bajo ◦. Ahora definamos otro conjunto. Denotemos con GLn (K) el conjunto de lasmatrices de n × n con elementos en el campo K que poseen inverso, es decir, elconjunto de todas las matrices invertibles o no singulares de n × n con elementosen K. Podemos definir en GLn (K) una operaci´n binaria o ·: GLn (K) × GLn (K) −→ GLn (K)mediante (A, B) −→ A · Bdonde · denota la multiplicaci´n de matrices. Es f´cil comprobar (problema 4.6) o aque (GLn (K), ·) es un grupo cuyo elemento de identidad es la matriz diagonal 1n .Llamaremos a GLn (K) grupo lineal general de grado n sobre K. Existe una estrecha relaci´n entre los grupos GL(V ) y GLn (K), a saber, si oescogemos una base fija de V , cada funci´n lineal biyectiva de V en V posee una omatriz asociada de n × n con elementos en K la cual es no singular o invertible.Esta correspondencia establece un isomorfismo entre los grupos GL(V ) y GLn (K)debido a que cuando se componen dos funciones lineales, ´sta composici´n est´ e o arepresentada por la multiplicaci´n de sus matrices asociadas. o Consideremos un tipo especial de matrices de GLn (K), que llamaremos elemen-tales * y que son aquellas que difieren de la matriz identidad 1n en un s´lo elemento oλ ∈ K fuera de la diagonal. Dichas matrices las denotaremos con el s´ ımbolo eλ , el ijcual nos indica que tenemos una matriz con unos en la diagonal y λ en el lugar i, jcon i = j. Por ejemplo eλ representa dentro de GL3 (K) a la matriz 13 1 0 λ 0 1 0 . 0 0 1* Tambi´n se acostumbra llamar matriz elemental (en otros textos) a aquella matriz obtenida ede la matriz 1n mediante una sola operaci´n elemental y dicho concepto no coincide con el aqu´ o ıdefinido. Tambi´n, en algunos textos se le llama transvecciones a las matrices que arriba definimos ecomo elementales. El nombre de elementales es el que se utiliza en la K-Teor´ Algebraica desde ıala d´cada de los sesenta. e
  • 150. § 4 K0 y K1 145 Como eλ ∈ GLn (K) entonces es f´cil comprobar que (eλ )−1 = e−λ (problema ij a ij ij4.8). Por ejemplo, en GL3 (K), 1 0 3 1 0 −3 1 0 0 0 1 0 0 1 0 = 0 1 0 0 0 1 0 0 1 0 0 1es decir, e3 · e−3 = 13 . 13 13 λ Es f´cil ver (problema 4.9) que si eij es una matriz elemental y A ∈ GLn (K), amultiplicar A por eλ por la izquierda equivale a sumar λ veces el rengl´n j al ij orengl´n i, y que multiplicar por la derecha equivale a sumar λ veces la columna i a la ocolumna j. Es decir, que la multiplicaci´n eij A o Aeλ equivale a hacer operaciones o λ ij λelementales por rengl´n o columna en matrices. Por ejemplo, en GL3 (K), e23 A es o 1 0 0 a11 a12 a13 a11 a12 a13 0 1 λ a21 a22 a23 = a21 + λa31 a22 + λa32 a23 + λa33 . 0 0 1 a31 a32 a33 a31 a32 a33 ımbolo [A, B] como el producto de las matrices ABA−1 B −1 y lo Definimos el s´llamaremos conmutador de A y B donde A, B ∈ GLn (K). Dejamos al lector probar la siguiente f´rmula para el conmutador de matrices oelementales:   1λµ si j = k, i = µ [eij , ek ] = ei λ si j = k, i =  −λµ ekj si j = k, i = Denotemos con En (K) el subgrupo de GLn (K) generado por todas las matriceselementales eλ , λ ∈ K, 1 ≤ i = j ≤ n, llamado grupo elemental lineal de K. ij Si cada matriz A ∈ GLn (K) la identificamos con la matriz A 0 ∈ GLn+1 (K) 0 1obtenemos inclusiones GL1 (K) ⊂ GL2 (K) ⊂ GL3 (K) ⊂ · · ·. Sea GL(K) =∪∞ GLn (K), la uni´n de los grupos GLn (K) que llamaremos grupo lineal gene- n=1 oral infinito de K. Podemos concebir a GL(K) como el grupo que consta de todaslas matrices invertibles infinitas A = (aij ) con aij ∈ K, 1 ≤ i < ∞, 1 ≤ j < ∞ yaij = δij , la delta de Kronecker para toda i, j excepto un n´mero finito de i, j. En- utonces GLn (K) ⊂ GL(K) y lo vemos como el subgrupo de todas las (aij ) ∈ GL(K)
  • 151. 146 Cap´ ıtulo IV Algebra Multilineal y K-Teor´ Algebraica Cl´sica ıa acon aij = δij para toda i, j > n. La inclusi´n de GLn (K) en GLn+1 (K) se restringe oa la inclusi´n de En (K) en En+1 (K) y, en GL(K), el subgrupo o E(K) = ∪∞ En (K) n=1se llama grupo elemental infinito de K. 4.2 LEMA. (Whitehead) [GL(K), GL(K)] = E(K). Demostraci´n. Primero veamos que cada matriz elemental puede expresarse ocomo el conmutador de otras dos matrices elementales para n ≥ 3. Sea eλ ∈ En (K) ijuna matriz elemental. Consideremos las matrices e1 y eλ con k = i, j. Como n ≥ 3 ik kjsiempre podemos encontrar dicha k. Entonces por la f´rmula para el conmutador o(problema 4.10) [e1 , eλ ] = eλ , 0 ≤ k ≤ n y k = i, j. Pero esto es v´lido para ik kj ij acualquier eλ ∈ En (K), por lo tanto ij En (K) ⊂ [En (K), En (K)], n ≥ 3.Tambi´n, el producto de matrices elementales es una matriz elemental, i.e. el grupo econmutador siempre es un subgrupo, luego En (K) ⊃ [En (K), En (K)].As´ En (K) = [En (K), En (K)] y, por lo tanto, E(K) = [E(K), E(K)]. ı, Por otro lado, E(K) ⊂ GL(K), luego [E(K), E(K)] ⊂ [GL(K), GL(K)]. As´ ıque E(K) ⊂ [GL(K), GL(K)]. Ahora veamos que E(K) ⊃ [GL(K), GL(K)]: sean A, B ∈ GLn (K). Veamosque ABA−1 B −1 ∈ E(K), i.e. que ABA−1 B −1 es una matriz elemental, i.e. que sepuede expresar como producto de matrices elementales. Consideremos la siguientematriz en GL2n (K) ABA−1 B −1 0 0 IPero ABA−1 B −1 0 = A 0 B 0 (BA)−1 0 . 0 I 0 A−1 0 B −1 0 BA
  • 152. § 4 K0 y K1 147Esto significa que podemos descomponerla como el producto de tres matrices de laforma X 0 donde X ∈ GLn (K). 0 X −1Veamos que cada matriz de la forma X 0 es producto de matrices elemen- 0 X −1tales (o lo que es lo mismo, invertibles) y as´ tendremos que ı X 0 ∈ E2n (K). 0 X −1 Como X 0 = I X I 0 I X 0 −I 0 X −1 0 I −X −1 I 0 I I 0las tres primeras elementales (i.e. pueden reducirse a I2n mediante operacioneselementales por rengl´n) y como o 0 −I = I −I I 0 I −I I 0 0 I I I 0 I X 0 es producto de matrices elementales. Luego ABA−1 B −1 ∈ E(K) y 0 X −1por lo tanto [GL(K), GL(K)] ⊂ E(K). 4.3 DEFINICION. El grupo cociente GL(K)/E(K) es el K-grupo algebraicode ´ ındice uno del campo K denotado con K1 (K). As´ K1 (K) = GL(K)/[GL(K), GL(K)]. ı, Obs´rvese que si f : K −→ K es un homomorfismo de campos se tiene un homo- emorfismo de grupos inducido por f f∗ : GL(K) −→ GL(K )que env´ E(K) en E(K ), siendo as´ que f induce un homomorfismo de grupos ıa ıK1 (f ): K1 (K) −→ K1 (K ). Como K es conmutativo podemos considerar el determinante de una matriz comoun homomorfismo det: GL(K) −→ K ∗ donde K ∗ denota las unidades de K, i.e.los elementos λ ∈ K tal que λ divide al 1, o sea, elementos λ tales que λλ = 1 paraalguna λ ∈ K. En un campo K, todo elemento diferente de cero es una unidad.
  • 153. 148 Cap´ ıtulo IV Algebra Multilineal y K-Teor´ Algebraica Cl´sica ıa a Definamos SL(K) = ker (det), o sea, todas las matrices de GL(K) con de-terminante uno, y lo llamaremos grupo especial lineal o infinito de K. N´tese oque SL(K) = ∪∞ SLn (K) n=1donde SLn (K) = ker (det: GLn (K) −→ K ∗ ) y que las matrices elementales siempretienen determinante 1, as´ que, para toda n ı En (K) ⊂ SLn (K) y E(K) ⊂ SL(K). N´tese que det: GLn (K) −→ K ∗ es invariante bajo la inclusi´n o oGLn (K) −→ GLn+1 (K) y, por lo tanto, det: GL(K) −→ K ∗ est´ bien definido. aLuego, det induce un homomorfismo, que por abuso de notaci´n, tambi´n deno- o etaremos con det: K1 (K) = GL(K)/E(K) −→ K ∗el cual posee un inverso GL(K) K ∗ = GL1 (K) −→ GL(K) −→ = K1 (K). E(K) Si definimos SK1 (K) = SL(K)/E(K) = ker (det: K1 (K) −→ K ∗ )resulta que (problema 4.11) K1 (K) ∼ SK1 (K)⊕K ∗ , i.e., se tiene la sucesi´n exacta = ocorta que se escinde det −→ 1 −→ SL(K)/E(K) −→ GL(K)/E(K) ←− K ∗ −→ 1. Como K ∗ puede considerarse conocido, el c´lculo de K1 (K) se limita al de aSK1 (K). Obs´rvese que SK1 (K) es trivial si, y s´lo si, para cualquier matriz e oA ∈ SLn (K) podemos transformar la matriz A 0 0 Ik
  • 154. § 4 K0 y K1 149para k adecuada, en la identidad In+k mediante operaciones elementales por rengl´n oo columna. Si SK1 (K) es trivial, entonces K1 (K) ∼ K ∗ . Este resulta ser el caso =para el campo K. (V´ase el problema 4.12). e Podemos generalizar todo lo anterior poniendo, en lugar de un campo K, unanillo conmutativo Λ. V´anse [LL1], [LL2], [V] y [L] para una lectura posterior. ePROBLEMAS4.1 (i) Pruebe que en I × I (a, b) ∼ (c, d) ⇐⇒ a + d = b + c es una relaci´n N N, ode equivalencia. (ii) Pruebe que la adici´n en I × I ∼ dada por (a, b) + (c, d) = (a + c, b + d) o N N/est´ bien definida y I × I ∼ es un grupo conmutativo. a N N/4.2 Pruebe que si (X, ⊕) es un monoide conmutativo, la relaci´n (a, b) ∼ (c, d) o⇐⇒ a ⊕ b ⊕ h = b ⊕ c ⊕ h para alguna h ∈ X es una relaci´n de equivalencia. o4.3 Pruebe que f : X −→ K0 (X) satisface la propiedad universal de 4.1.4.4 Un ideal I de un anillo conmutativo Λ es un subconjunto de Λ que es unsubgrupo aditivo y tal que ΛI ⊂ I (es decir, si α ∈ I y λ ∈ Λ entonces αλ ∈ I).El grupo cociente Λ/I hereda de Λ una multiplicaci´n bien definida que lo hace un oanillo, llamado anillo cociente. Defina en K0 (K) = F/R una estructura de anillomediante V · W = V ⊗K W en F . Compruebe que R es un ideal de F .4.5 Sea V un espacio vectorial de dimensi´n n sobre un campo K. Pruebe que o(GL(V ), ◦) o (AutK (V ), ◦) es un grupo. Observese que AutK (V ) es el grupo de lasunidades de EndK (V ).4.6 Pruebe que (GLn (K); ·) es un grupo.4.7 Sea V un espacio vectorial sobre un campo K. Establezca detalladamente elisomorfismo de grupos GL(V ) ∼ GLn (K). =
  • 155. 150 Cap´ ıtulo IV Algebra Multilineal y K-Teor´ Algebraica Cl´sica ıa a −λ4.8 Pruebe que (eλ )−1 = eij . ij4.9 Demuestre que si eλ es una matriz elemental y A ∈ GLn (K), multiplicar A ijpor eλ por la izquierda equivale a sumar λ veces el reng´n j al rengl´n i, y que ij o omultiplicar por la derecha equivale a sumar λ veces la columna i a la columna j.4.10 Pruebe la f´rmula dada por el conmutador [eλ , eµ ] y observe que no existe o ij kuna f´rmula sencilla para [eλ , eµ ], o sea, para el caso j = k, i = . o ij ji4.11 Demuestre que K1 (K) ∼ S K1 (K) ⊕ K ∗ . =4.12 Pruebe que si Λ es un dominio euclidiano entonces K1 (Λ) ∼ Λ∗ . En parti- =cular K1 (K) = ∼ K ∗ , K1 (K[x]) ∼ K ∗ y K1 (Z ∼ {−1, +1}. (Sugerencia: Considere = Z) =el isomorfismo K1 (Λ) ∼ SK1 (Λ) ⊕ Λ∗ . Pruebe que SK1 (Λ) = 0, es decir, que =SL(Λ) = E(Λ). Para probar que si A = (aij ) ∈ SLn (Λ) entonces A ∈ En (Λ),sea ε = minj {|a1j | : a1j = 0}. Supongamos que ε = |a1k |. Despu´s de restarelos m´ltiplos adecuados de la columna k de las otras columnas, pasamos a una unueva matriz B = (bij ), con minj {|b1j | : b1j = 0} < ε. Continuando de estamanera obtenemos una matriz C = (cij ) con minj {|c1j | : c1j = 0} = 1, es decir,alguna c1k es una unidad. De hecho, podemos suponer que c11 es una unidad (¿porqu´?). Despu´s de transformaciones por columna y rengl´n, podemos suponer que e e oel primer rengl´n, y la primera columna de C son cero, excepto c11 . Una vez logrado oesto, repita el proceso al menor de c11 en C. Finalmente se llegar´ a una matriz aδ = diag(d1 , . . . , dn ) donde necesariamente d1 · · · dn = 1. Luego, δ ∈ En (Λ).)
  • 156. APENDICENOTAS HISTORICAS El Algebra Lineal una de las ramas m´s antiguas de la Matem´tica a a y a la vez una de las m´s nuevas.[B] aAI.1, A.I.2 y A.I.3 Espacios Vectoriales, Funciones Lineales,Subespacios Vectoriales y Espacios Vectoriales de Dimensi´n oFinitaHermann Gunther Grassmann (1809 -1877) fue el primero en presentar una teor´ ıadetallada de espacios vectoriales de dimensi´n mayor que tres [K]. En sus dos ver- osiones del C´lculo de Extensi´n (1844 y 1862), expresa simb´licamente las ideas a o ogeom´tricas sobre espacios vectoriales y distingue el Algebra Lineal como una teor´ e ıaformal, donde la geometr´ solo es una aplicaci´n particular. El trabajo de Grass- ıa omann no fue entendido por sus contempor´neos debido a su forma abstracta y afilos´fica. [K] o La definici´n de espacio vectorial antes llamado espacio lineal lleg´ a ser o oampliamente conocida alrededor del a˜o 1920, cuando Hermann Weyl (1885-1955) ny otros publicaron la definici´n formal. De hecho, tal definici´n (para dimensi´n o o ofinita e infinita) hab´ sido dada treinta a˜os antes por Peano (1858-1932), quien ıa nfue uno de los primeros matem´ticos que apreciaron en todo su valor la obra de aGrassmann, y adem´s con una notaci´n completamente moderna dio la definici´n a o ode funci´n lineal. Grassmann no dio la definici´n formal de funci´n lineal, ya que el o o olenguaje no estaba disponible, sin embargo no hay duda de que conoc´ el concepto. ıa Grassmann comienza su trabajo en 1862 con el concepto de un vector como
  • 157. 152 Ap´ndice eun segmento de l´ ınea recta con longitud y direcci´n fija. Dos vectores pueden ser osumados uniendo el punto inicial del segundo vector con el punto final del primero.La resta es simplemente la suma del negativo, esto es, el vector con la mismalongitud y direcci´n contraria. [K] o A partir de estas ideas geom´tricas, Grassmann define el espacio vectorial egenerado por las “unidades” e1 , e2 , e3 , . . ., considerando combinaciones lineales αi ei donde las αi son n´meros reales. Establece la suma y la multiplicaci´n por u oun n´mero real de la siguiente manera: u αi ei + βi ei = (αi + βi )ei α( αi ei ) = (ααi )eiy demuestra formalmente las propiedades de espacio vectorial para esas operacio-nes (no es claro si el conjunto de unidades puede ser infinito, pero la finitud esimpl´ ıcitamente asumida en algunas de sus demostraciones). Desarrolla la teor´ de ıaindependencia lineal similarmente a la presentaci´n que uno encuentra en los textos oactuales sobre Algebra Lineal. [F-S] Grassmann denota a la funci´n lineal que env´ los elementos de la base o ıae1 , e2 , . . . , en a los de la base b1 , b2 , . . . bn respectivamente como b1 , b2 , . . . , bn Q= e1 , e2 , . . . , eny considera a Q como un cociente generalizado. Mientras que hay problemas obvioscon esta notaci´n, ´sta tiene cierta elegancia; por ejemplo, si b1 , b2 , . . . , bn son o elinealmente independientes, entonces el inverso de Q es e1 , e2 , . . . , en . b1 , b2 , . . . , bnDa la representaci´n matricial de Q como Q = o αr,s Er,s donde 0, . . . , 0, es , 0, . . . , 0 Er,s = e1 , . . . , er , . . . enEl determinante de Q lo define como el n´mero u b1 b2 · · · bn . [F − S] e1 e2 · · · en Define los conceptos de subespacio vectorial, independencia lineal, espaciogenerado, dimensi´n de un espacio vectorial, intersecci´n de subespacios y se da o o
  • 158. Ap´ndice e 153cuenta de la necesidad de demostrar que cualquier base de un espacio vectorial tieneel mismo n´mero de elementos. Entre otras cosas prueba que todo espacio vectorial ude dimensi´n finita tiene un subconjunto linealmente independiente que genera el omismo espacio y que cualquier subconjunto linealmente independiente se extiendea una base. Demuestra la identidad importante dim (U + V ) = dim U + dim V − dim (U ∩ V ). William Rowan Hamilton (1805-1865), presenta paralelamente a Grassmann unateor´ de espacios vectoriales, s´lo que lo hace en el caso de dimensi´n cuatro. Llama ıa o ocuaterniones a los vectores y demuestra que forman un espacio vectorial sobre elcampo de los n´meros reales, definiendo su suma y la multiplicaci´n por un escalar. u oAI.5 La Matriz Asociada a una Funci´n Lineal oEl Algebra Matricial se obtuvo como una consecuencia del tratamiento de la teor´ ıaaritm´tica de formas cuadr´ticas binarias aX 2 + 2bXY + cY 2 contenidas en las e aDisquisiciones Aritm´ticas de Gauss (1777-1855). Durante su estudio, Gauss in- etrodujo nuevas convenciones notacionales. Luego, para sustituciones (funciones)lineales en dos variables x = αx + βy (1) y = γx + δydecidi´, “por brevedad”, referirse a ellas por sus coeficientes: o α β γ δCuando estaba tratando con ejemplos num´ricos, modific´ la notaci´n anterior, e o oagreg´ndole llaves: a 1 0 0 −2Cada sustituci´n lineal la denot´ con una sola letra may´scula cuando no era nece- o o usario referirse a los coeficientes. La composici´n de sustituciones lineales tambi´n fue una parte importante en o ela teor´ aritm´tica de formas. Como en el caso binario, Gauss observ´ que si la ıa e osustituci´n definida por (1) transforma una forma F = ax2 + 2bxy + cy 2 en F y si oF es transformada en F por una segunda sustituci´n lineal o x = εx + ζy y = ηx + θy
  • 159. 154 Ap´ndice eentonces existe una nueva sustituci´n lineal que transforma F directamente en F : o x = (αε + βη)x + (αζ + βθ)y y = (γε + δη)x + (γη + δθ)y Gauss escribi´ la matriz de coeficientes de esta nueva sustituci´n lineal, la cual o oes el producto de las dos matrices de coeficientes de las dos sustituciones linealesoriginales. Tambi´n realiz´ un c´lculo an´logo en su estudio de formas cuadr´ticas e o a a a 2 2 2ternarias Ax + 2Bxy + Cy + 2Dxz + 2Eyz + F z , obteniendo la regla para multi-plicar matrices de 3 × 3. Sin embargo no design´ expl´ o ıcitamente este proceso comoun tipo de multiplicaci´n de objetos que no son n´meros. Esto no significa que o utales ideas fueran muy abstractas para ´l, ya que fue el primero en introducirlas, epero en un contexto diferente. [K] Cauchy (1789-1857) escribi´ en 1815 una memoria sobre la teor´ de determi- o ıanantes, su trabajo fue inspirado tanto en forma como en contenido por las Dis-quisiciones de Gauss. Siguiendo la direcci´n de Gauss, introdujo un “sistema osim´trico” e a1,1 , a1,2 , a1,3 , · · · , a1,n a2,1 , a2,2 , a2,3 , · · · , a2,n . . . . . . . . . . . . . . . an,1 , an,2 , an,3 , · · · , an,n ,que represent´ en forma abreviada (aij ), al cual se le asocia un determinante. oA´n m´s, en su formulaci´n del teorema del producto para deteminantes, Cauchy u a oreconoci´ expl´ o ıcitamente la idea de Gauss de componer dos sistemas (aij ) y (bij ) npara formar un nuevo sistema (mij ) donde mij = k=1 ai,k bk,j . Entonces demostr´ oque el determinante del nuevo sistema (mij ) es el producto de los determinantes de(aij ) y (bij ). James Joseph Sylvester (1814-1897) en 1850, utiliza el t´rmino matriz para edenotar un arreglo rectangular de n´meros. u Ferdinand Gotthold Eisenstein (1823-1852) hizo un estudio cuidadoso de lasDisquisiciones Aritm´ticas, que inspiraron gran parte de su trabajo. Introdujo ela notaci´n S × T para “la sustituci´n compuesta de S y T ” y S para “el sistema o oinverso del sistema S” en un art´ ıculo sobre formas cuadr´ticas ternarias publicado aen 1844. Eisenstein consider´ a las sustituciones lineales como entes que pueden ser suma- odos y multiplicados como si fueran n´meros ordinarios, solo que la multiplicaci´n no u oes conmutativa. Consideraba lo anterior como algo generalmente conocido ya quees sugerido por el teorema del producto para determinantes formulado por Cauchy.
  • 160. Ap´ndice e 155Gauss hab´ empleado un simbolismo para la composici´n de formas binarias que ıa oreflejaban su analog´ con la aritm´tica ordinaria, luego Eisenstein lo emple´ para ıa e osustituciones lineales. Eisenstein nunca desarroll´ plenamente su idea de un ´lgebra o ade sustituciones. El simbolismo de Eisenstein fue adoptado por su contempor´neo, Charles Her- amite. Tanto Hermite como Eisenstein emplearon el simbolismo como un medio deresumir resultados y no como un modo de razonamiento. Su estudio del ´lgebraasimb´lica no lo desarrollaron m´s all´ de lo que necesitaban en su trabajo sobre la o a aTeor´ de N´meros y Funciones El´ ıa u ıpticas. El problema de Cayley-Hermite [H] es muy importante para el entendimientodel desarrollo hist´rico del ´lgebra simb´lica de matrices. Hermite fue el primero o a oen formular dicho problema y le interes´ por la relevancia en su trabajo sobre ola teor´ aritm´tica de formas cuadr´ticas ternarias. Tres matem´ticos, quienes ıa e a allevaron la investigaci´n m´s all´ que Eisenstein y Hermite (Cayley, Laguerre y o a aFrobenius), estuvieron preocupados por este problema. Al menos en el caso deCayley y Frobenius, fue lo primero que motiv´ su estudio del ´lgebra simb´lica de o a omatrices. En 1855 Cayley introdujo la notaci´n o   a, b, c, ··· a, b, c, ··· a , b , c , ···   . . .para representar lo que hoy llamamos una matriz y not´ que el uso de matrices es omuy conveniente para la teor´ de ecuaciones lineales. Luego escribi´ ıa o   a, b, c, · · ·  a , b , c , ··· x (u, v, w, . . .) =  a , b , c , · · ·    y . z . .para representar el sistema de ecuaciones u = ax + by + cz + · · · , v = a x + b y + c z + ···, w = a”x + b”y + c”z + · · · , . . .
  • 161. 156 Ap´ndice eTambi´n determin´ la soluci´n del sistema usando lo que llam´ la inversa de la e o o omatriz:  −1 a, b, c, · · ·  a , b , c , ··· u (x, y, z) =  a , b , c , · · ·    v . w . . En 1858, Cayley introdujo la notaci´n de una sola letra para matrices y defini´ o ono solamente c´mo multiplicarlas sino tambi´n c´mo sumarlas y restarlas. o e o De esas innovaciones notacionales surge la idea de que las matrices se comportancomo entes que pueden ser sumadas y multiplicadas: la ley de adici´n de matrices oes precisamente similar a la adici´n de cantidades algebraicas ordinarias, y como se opuede ver en su multiplicaci´n, en general no es conmutativa. o As´ Cayley desarroll´ el ´lgebra matricial, haciendo uso constante de su analog´ ı, o a ıacon las manipulaciones algebraicas ordinarias, pero notando cuidadosamente d´nde ofallan estas analog´ıas. Luego, usando la f´rmula para la inversa de una matriz, oescribi´ que “la noci´n de inversa de una matriz falla cuando el determinante es o ocero; la matriz en este caso se dice que es indeterminada; y que el producto de dosmatrices puede ser cero sin que alguno de los factores sea cero”. Las innovaciones notacionales sugeridas por el problema de Cayley-Hermite lepermitieron a Cayley obtener el teorema de Hamilton-Cayley. Laguerre en 1867 contin´a el trabajo de Eisenstein y Hermite en la aplicaci´n del u oa´lgebra simb´lica de las funciones lineales a problemas en la Teor´ Aritm´tica de o ıa eFormas y a la Teor´ de Funciones El´ ıa ıpticas. Las memorias de Laguerre constan dedos partes: la primera est´ dedicada al desarrollo del ´lgebra simb´lica de funciones a a olineales en la l´ ınea de la memoria de Cayley de 1858. La segunda parte contiene elproblema de Cayley-Hermite. El trabajo de Laguerre es importante hist´ricamente oporque muestra que el desarrollo del ´lgebra simb´lica de matrices fue una conse- a ocuencia del trabajo de Eisenstein y Hermite ya que Laguerre no conoc´ las notas ıade Cayley de 1855 ni sus memorias de 1858. Sin conocer las memorias de Cayley y Laguerre, Georg Frobenius tambi´n in- evestig´ el ´lgebra simb´lica de matrices en su trabajo de formas bilineales de 1878. o a oFrobenius hizo m´s contribuciones a la teor´ de matrices, en particular estudi´ a ıa oalgunas propiedades de varias clases especiales de matrices, como las sim´tricas, ehermitianas, ortogonales y unitarias. A´n en sus ultimas memorias de 1858 y 1866, Cayley nunca us´ su ´lgebra u ´ o asimb´lica de matrices como un modo de razonamiento, mientras que Frobenius s´ o ı
  • 162. Ap´ndice e 157lo hizo. En 1878, Frobenius demostr´ convincentemente la potencia del m´todo o esimb´lico de razonamiento cuando lo combina con los resultados de la teor´ espec- o ıatral de formas bilineales. Fue Emmy Noether (1882-1935) quien liber´ al Algebra Lineal de las matrices y odeterminantes.AII.1 Valores y Vectores Caracter´ ısticosEl concepto de matriz similar, como muchos otros conceptos de la teor´ de ıamatrices provienen del trabajo de Cauchy. En 1826, en su trabajo sobre formascuadr´ticas demostr´ que, si dos formas cuadr´ticas est´n relacionadas mediante a o a aun cambio de variable, esto es, si sus matrices son similares, entonces sus polinomioscaracter´ ısticos son iguales. Sin embargo Georg Frobenius (1849-1917) fue el primeroque analiz´ y defini´ formalmente el concepto de similaridad, bajo el nombre de o otransformaci´n contragrediente, en un art´ o ıculo de 1878. Comenz´ analizando el ocaso general: estableci´ que dos matrices A y D son equivalentes, si existen matri- oces invertibles P y Q tales que D = P AQ. Trat´ los casos especiales de P = t Q o(matrices congruentes) y de P = Q−1 , y demostr´ varios resultados sobre matrices osimilares incluyendo el teorema que dice: si A es similar a D, entonces f (A) essimilar a f (D), donde f es cualquier funci´n matricial polinomial. o El concepto de valor caracter´ ıstico se origin´ independientemente de la teor´ o ıade matrices. El contexto en el cual se obtuvieron los primeros problemas de valorescaracter´ ısticos durante el siglo XVIII fue en la soluci´n de sistemas de ecuaciones odiferenciales lineales con coeficientes constantes. En 1743, Leonhard Euler (1707-1783) introdujo por primera vez el m´todo est´ndar de resoluci´n de una ecuaci´n e a o odiferencial de orden n con coeficientes constantes y n + an−1 y (n−1) + · · · + a1 y 1 + a0 y 0 = 0usando funciones de la forma y = eλ t donde λ es una ra´ de la ecuaci´n carac- ız oter´ ıstica z n + an−1 z n−1 + · · · + a1 z + a0 = 0.Esta es la misma ecuaci´n que se obtiene al sustituir o y1 = y, y2 = y , y3 = y , · · · , yn = y (n−1)reemplazando la unica ecuaci´n de orden n por un sistema de n ecuaciones de ´ o
  • 163. 158 Ap´ndice eprimer orden y1 = y2 y2 = y3 . . . yn = − a0 y1 − a1 y2 − · · · − an−1 yny, por ultimo, calculando el polinomio caracter´ ´ ıstico de la matriz de coeficientes deeste sistema. [F-B] Veinte a˜os m´s tarde, Lagrange (1736 -1813) dio una versi´n m´s expl´ n a o a ıcitade esta misma idea al hallar la soluci´n de un sistema de ecuaciones diferenciales oencontrando las ra´ıces del polinomio caracter´ ıstico de la matriz de coeficientes. Elsistema particular de ecuaciones diferenciales surgi´ del examen de los “movimientos oinfinitesimales” de un sistema mec´nico en la vecindad de su posici´n de equilibrio. a oEn 1774, Lagrange resolvi´ un problema similar de Mec´nica Celeste usando la o amisma t´cnica. e Por otro lado, D’Alembert en trabajos que datan de 1743 a 1758, y motivadopor la consideraci´n del movimiento de una cuerda cargada con un n´mero finito o ude masas (restringidas aqu´ por simplicidad a tres), hab´ considerado el sistema ı ıa 3 d2 yi + aik yk = 0 i = 1, 2, 3. dt2 k=1Para resolver este sistema decidi´ multiplicar la i-´sima ecuaci´n por una constante o e ovi para cada i y sumar las ecuaciones para obtener 3 3 d2 yi vi 2 + vi aik yk = 0. i=1 dt i,k=1 3Si las vi son elegidas tal que i=1 vi aik + λvk = 0 para k = 1, 2, 3, esto es, si(v1 , v2 , v3 ) es un vector caracter´ ıstico correspondiente al valor caracter´ ıstico −λpara la matriz A = (aik ), la sustituci´n u = v1 y1 + v2 y2 + v3 y3 reduce el sistema ooriginal a la unica ecuaci´n diferencial ´ o d2 u + λu = 0. dt2Tal ecuaci´n, despu´s del trabajo de Euler sobre ecuaciones diferenciales, fue re- o esuelta f´cilmente y permiti´ encontrar las soluciones para las tres yi . Un estudio de a o
  • 164. Ap´ndice e 159las tres ecuaciones en las cuales esto aparece demuestra que λ est´ determinada por auna ecuaci´n c´bica la cual tiene tres ra´ o u ıces. D’Alembert y Lagrange, un poco m´s atarde, se dieron cuenta de que para que las soluciones tuvieran sentido f´ısico ten´ ıanque ser acotadas cuando t −→ ∞. Esto deber´ ser verdadero si los tres valores de λ ıafueran distintos, reales y positivos. Cuando Lagrange consider´ sistemas similares oderivados de sus estudios de Mec´nica Celeste, tambi´n hab´ determinado los va- a e ıalores para λ, los cuales en muchos casos satisfac´ ecuaciones de grado mayor que ıantres. No pod´ determinar la naturaleza de esos valores matem´ticamente, luego ıa aargumentaba que de la estabilidad del sistema solar se obten´ que los valores fueran ıatales que las correspondientes soluciones a las ecuaciones diferenciales permanec´ ıanacotadas. Cauchy fue el primero que resolvi´ el problema de determinar en un caso es- opecial los valores caracter´ ısticos de la matriz (aik ). Se considera que no estuvoinfluenciado por el trabajo de D’Alembert ni de Lagrange sobre ecuaciones diferen-ciales, sino que lo hizo como resultado de su estudio sobre superficies cuadr´ticas a(el cual formaba parte del curso de Geometr´ Anal´ ıa ıtica que ense˜aba en el Ecole nPolytechnique desde 1815). Una superficie cuadr´tica (centrada en el origen) est´ a adada por una ecuaci´n f (x, y, z) = k, donde f es una forma cuadr´tica ternaria o aAx2 + 2Bxy + Cy 2 + 2Dxz + 2Eyz + F z 2 . Para clasificar tales superficies, Cauchy,como Euler m´s tempranamente, necesitaban encontrar una transformaci´n de a ocoordenadas bajo las cuales f se convert´ en una suma o diferencia de cuadra- ıados. En t´rminos geom´tricos, este problema significa encontrar un nuevo conjunto e ede ejes ortogonales en un espacio de tres dimensiones en el cual expresar la su-perficie. Pero entonces, Cauchy generaliz´ el problema a formas cuadr´ticas con o an variables, cuyos coeficientes pueden ser escritos como una matriz sim´trica. Por eejemplo, la forma cuadr´tica binaria ax2 + 2bxy + cy 2 determina la matriz sim´trica a ede 2 × 2 a b . b cEl prop´sito de Cauchy fue encontrar una funci´n lineal tal que la matriz resultante o ode ´sta fuera diagonal, lo cual logr´ en un art´ e o ıculo de 1829. Debido a que la esenciade la demostraci´n de Cauchy reside en el caso de dos variables, veremos este ocaso: para encontrar una transformaci´n lineal la cual mande a la forma cuadr´tica o a 2 2binaria f (x, y) = ax +2bxy +cy en una suma de cuadrados, es necesario encontrarel m´ximo y m´ a ınimo de f (x, y) sujeto a la condici´n x2 +y 2 = 1. El punto en el cual otal valor extremo de f ocurre es un punto sobre el c´ ırculo unitario, el cual tambi´n eest´ al final de un eje de uno de la familia de elipses (o hip´rbolas) descritas por la a eforma cuadr´tica. Si se toma la l´ a ınea del origen a ese punto como uno de los ejes y la
  • 165. 160 Ap´ndice eperpendicular a esa l´ ınea como el otro, la ecuaci´n en relaci´n a esos ejes contendr´ o o aunicamente los cuadrados de las variables. Por el principio de los multiplicadores´de Lagrange, los valores extremos ocurren cuando los cocientes fx /2x y fy /2y soniguales. D´ndole a cada uno de ellos el valor de λ, obtenemos las ecuaciones a ax + by bx + cy =λ y =λ x ylas cuales pueden reescribirse como el sistema (a − λ)x + by = 0 bx + (c − λ)y = 0. Cauchy sab´ que su sistema tiene soluciones no triviales si, y s´lo si, su deter- ıa ominante es igual a cero, esto es, si (a − λ)(c − λ) − b2 = 0. En t´rminos de matrices, e´sta es la ecuaci´n caracter´e o ıstica det(A − λI) = 0, la cual Cayley trabaj´ unos otreinta a˜os m´s tarde. n a Para ver c´mo las ra´ o ıces de esta ecuaci´n nos permiten diagonalizar la matriz, osean λ1 y λ2 las ra´ de la ecuaci´n caracter´ ıces o ıstica y (x1 , y1 ), (x2 , y2 ) las solucionescorrespondientes para x, y. Luego (a − λ1 )x1 + by1 = 0 (a − λ2 )x2 + by2 = 0.Si se multiplica la primera de esas ecuaciones por x2 , la segunda por x1 , y se restan,el resultado es la ecuaci´n o (λ2 − λ1 )x1 x2 + b(y1 x2 − x1 y2 ) = 0.Similarmente, comenzando con las dos ecuaciones y utilizando −λi , se obtiene laecuaci´n o b(y2 x1 − y1 x2 ) + (λ2 − λ1 )y1 y2 = 0.Sumando estas dos ecuaciones, tenemos que (λ2 − λ1 )(x1 x2 + y1 y2 ) = 0. Luego, siλ1 = λ2 (y esto es verdadero en el caso considerado, a menos que la forma originalya sea diagonal), entonces x1 x2 + y1 y2 = 0. Las condiciones del problema tambi´n e 2 2 2 2implican que x1 + y1 = 1 y x2 + y2 = 1. En t´rminos modernos, la funci´n lineal e o x = x1 u + x2 v y = y1 u + y2 v
  • 166. Ap´ndice e 161es ortogonal. Se puede calcular f´cilmente que la nueva forma cuadr´tica que se a aobtiene de esta transfomaci´n es λ1 u2 + λ2 v 2 , como se quer´ Que λ1 y λ2 son o ıa.reales, se sigue de suponer lo contrario, que son complejos y conjugados uno delotro. En ese caso, x1 debe ser el conjugado de x2 y y1 el de y2 , adem´s x1 x2 + y1 y2 ano puede ser cero. Por consiguiente, Cauchy hab´ demostrado que todos los valores ıacaracter´ısticos de una matriz sim´trica son reales y al menos en el caso en el que eson todos distintos, la matriz puede ser diagonalizada utilizando transformacionesortogonales. [K] Por otro lado, veamos c´mo se demostr´ que los vectores caracter´ o o ısticos no tri-viales correspondientes a valores caracter´ ısticos diferentes son linealmente indepen-dientes: supongamos que f (x) = λxdonde x = ξi ei = 0. Escribiendo Ci = (λI − f )(ei ), se tiene que ξi Ci = 0;luego C1 , C2 , · · · , Cn son linealmente dependientes, de aqu´ que ı [(λI − f )(e1 )][(λI − f )(e2 )] · · · [(λI − f )(en )] = 0. Como e1 e2 · · · en = 0, esto es equivalente a que el determinante de la funci´n olineal λI − f sea cero, con lo cual queda demostrado el teorema. Este teorema fuedemostrado por Cauchy en 1829 y posteriormente por Weierstrass en 1858.AII.2 Teorema de Cayley-HamiltonCayley menciona en su art´ ıculo de 1858, el que ahora es llamado Teorema deCayley-Hamilton para matrices cuadradas de cualquier orden. Demuestra el teo-rema para el caso de matrices de 3×3 y afirma que la demostraci´n del caso general ono es necesaria. El uso de la notaci´n de una unica letra para representar matrices fue lo que o ´probablemente le sugiri´ a Cayley el teorema que establece que o det a−M b =0 c d−Mdonde M representa la matriz a b . c d Cayley le comunic´ a Sylvester este notable teorema en una carta el 19 de noviem- obre de 1857. En ella y en el art´ ıculo de 1858, Cayley hizo c´lculos con M como asi fuera una cantidad algebraica ordinaria y demostr´ que (a − M )(d − M ) − bc = o
  • 167. 162 Ap´ndice e(ad − bc)M 0 − (a + d)M 1 + M 2 = 0 donde M 0 = 1 0 . Lo que motiv´ a Cay- 0 1 oley a establecer este resultado fue demostrar que “cualquier matriz satisface unaecuaci´n algebraica de su mismo orden” y por lo tanto que “toda funci´n racional o oy entera (de la matriz) puede ser expresada como una funci´n racional y entera de oun orden a lo m´s igual al de la matriz menos la unidad”. Despu´s demostr´ que a e oeste resultado es cierto para funciones irracionales. En particular demuestra comocalcular L2 = M , donde M es una matriz de 2 × 2. Supongamos que M= a b y L= α β c d γ δComo L satisface L2 − (α + δ)L + (αδ − βγ) = 0 y L2 = M , sustituyendo obtenemos 1 L= [M + (αδ − βγ)] . α+δ El prop´sito era expresar X = α+δ y Y = αδ −βγ en t´rminos de los coeficientes o ede la matriz M . Cayley resuelve esto haciendo notar que la expresi´n anterior para oL implica que   a+Y b  X  L= X c d + Y . X XComo la suma de las diagonales de esta matriz es X y el determinante es Y , seobtienen dos ecuaciones para las variables X y Y que involucran unicamente los ´coeficientes de la matriz original. Hamilton enunci´ el teorema en t´rminos de funciones lineales y no en t´rminos o e ede matrices. En particular, escribi´ el resultado para dimensi´n 3 en t´rminos de o o euna funci´n lineal de vectores y para dimensi´n 4 en t´rminos de una funci´n lineal o o e ode cuaterniones. Cabe se˜alar que no dio una demostraci´n general del teorema. n oSu principal inter´s estuvo en derivar una expresi´n para la inversa de una funci´n e o o 2 −1lineal. Por ejemplo, si la ecuaci´n M + aM + b = 0 entonces bM = −(a + M ) y oM −1 puede ser f´cilmente encontrada. Luego, se puede explotar esta idea tratando acon potencias negativas de una matriz dada. [K] Frobenius en un art´ ıculo de 1878 dio la primera demostraci´n general del Teo- orema de Cayley-Hamilton.AII.3 El Polinomio M´ ınimoFrobenius define en 1878 el polinomio m´ ınimo, como el polinomio de menor gradoel cual satisface la matriz. Establece que est´ formado por los factores del polinomio a
  • 168. Ap´ndice e 163caracter´ ısitico y que es unico. Sin embargo no fue hasta 1904 que Kurt Hensel ´(1861-1941) demostr´ la afirmaci´n de unicidad de Frobenius. [KL] o oAII.5 Forma Can´nica de Jordan oGrassmann demuestra para un operador lineal ρ (construyendo una base apro-piada), que el espacio completo se puede descomponer como la suma directa desubespacios invariantes ker(ρ − λI)k donde λ recorre las ra´ıces caracter´ ısticas deρ y k es la multiplicidad algebraica de λ. Grassmann fue el primero en demostrareste resultado el cual es llamado teorema de descomposici´n primaria. o ıculos, Peirce (1809-1880) introduce la idea de elemento nilpo- En uno de sus art´tente. [K] El trabajo de Cauchy proviene de una teor´ que trata de los valores carac- ıater´ ısticos de varios tipos de matrices. Sin embargo, estos resultados fueron escritosen t´rminos de formas y no en t´rminos de matrices a mediados del siglo XIX. Las e eformas cuadr´ticas nos conducen a matrices sim´tricas. El caso m´s general de a e aformas bilineales, funciones de 2n variables de la forma n aij xi yj i,j=1conducen a matrices cuadradas. Estas fueron estudiadas primero en detalle porJacobi alrededor del a˜o 1850 y un poco m´s tarde por Weierstrass y Jordan, entre n aotros. Lo principal de este estudio fue encontrar maneras para clasificar tales for-mas, usualmente determinando las funciones lineales las cuales transforman unasformas en otras de un tipo particularmente simple. La idea central de determinardichas funciones fue, como en el trabajo de Cauchy, la consideraci´n del polinomio ocaracter´ıstico det(A − λI), donde A es la matriz que representa la forma bilin-eal. En 1851 Sylvester demostr´ que un cierto conjunto de factores del polinomio ocaracter´ıstico son preservados bajo cualquier sustituci´n lineal. Estos factores, los odivisores elementales, resultan fundamentales en el proceso de clasificaci´n. Luego, oWeierstrass en 1868, tratando con valores complejos y teniendo todos los polinomiosirreducibles lineales, demostr´ el converso del resultado de Sylvester el cual dice que o“una forma bilineal dada A puede ser transformada en otra forma B, si y s´lo si, oambas formas tienen el mismo conjunto de divisores elementales”. En notaci´n omoderna, una forma bilineal puede ser expresada como XAY donde X es una ma-triz de 1 × n, Y una matriz de n × 1, y A una matriz de n × n. Una funci´n lineal osobre X se puede expresar como X = X P donde P es una matriz invertible den × n. Similarmente, una funci´n lineal sobre Y puede escribirse como Y = QY . o
  • 169. 164 Ap´ndice eSe sigue que la forma bilineal transformada se puede expresar como X P AQY .Weierstrass demostr´ que se pueden encontrar P y Q tales que la matriz P AQ se opuede escribir como   D1 0 0 · · · 0  0 D2 0 · · · 0   . . . .. .   . . . . .  . . . . 0 0 0 · · · Dkdonde cada submatriz Di es de la forma   0 ··· 0 0 1 u 0 ··· 0 1 u 0 .. .. . . . . . . . . . . . . . . u ··· 0 0 0 0con u una ra´ del polinomio caracter´ ız ıstico. Dos a˜os m´s tarde, Jordan desarroll´ la misma forma can´nica en su Tra- n a o otado de Sustituciones. Jordan no lleg´ al problema de clasificaci´n a trav´s o o edel estudio de formas bilineales, sino a trav´s del estudio de las funciones lineales emismas. Hab´ hecho un estudio detallado del trabajo de Galois sobre soluciones de ıaecuaciones algebraicas y especialmente sobre la resoluci´n de ecuaciones de grado la opotencia de un primo. Estas soluciones involucran el estudio de funciones lineales,funciones cuyos coeficientes pod´ ser considerados como elementos de un campo ıanfinito de orden p. Tal funci´n lineal, con las ra´ x1 , x2 , . . . , xn puede ser expresada o ıcesen t´rminos de una matriz A. En otras palabras, si X representa la matriz de n × 1 ede las ra´ ıces xi , entonces la funci´n puede ser escrita como X ≡ AX(mod p). El oprop´sito de Jordan fue encontrar lo que llam´ una “transformaci´n de ´ o o o ındices”tal que la funci´n pudiera ser expresada en los t´rminos m´s simples posibles. En o e anotaci´n matricial, esto significa que quer´ encontrar una matriz invertible P de o ıan × n, tal que P A ≡ DP donde D es la matriz m´s “simple” posible. a Luego, si Y ≡ P X, entonces P AP −1 Y ≡ P AX ≡ DP X ≡ DY y la sustituci´n osobre Y es “simple”. Usando otra vez el polinomio caracter´ ıstico para A, Jordannot´ que si todas las ra´ o ıces de det(A − λI) = 0 son distintas, entonces D puedeser diagonal, donde los elementos de la diagonal son los valores caracter´ ısticos.Por otro lado, si hay ra´ m´ltiples, Jordan demostr´ que puede encontrarse una ıces u osustituci´n tal que la D resultante tenga forma de bloque, como en la forma anterior ode Weierstrass, donde cada bloque Di es una matriz de la forma   k 1 0 ··· 0 0 0 k 1 ··· 0 0 . . . .  . . . .. . .  . . . . . . . 0 0 0 ··· k 1 0 0 0 ··· 0 k
  • 170. Ap´ndice e 165y k = 0 (mod p) es una ra´ del polinomio caracter´ ız ıstico. La forma can´nica, oconocida hoy como forma can´nica de Jordan, donde los valores k de la diagonal omayor de la matriz son todos sustituidos por el valor 1, fue introducida por Jordanen 1871 cuando se dio cuenta que su m´todo pod´ ser aplicado a la soluci´n de e ıa osistemas de ecuaciones diferenciales lineales, cuyos coeficientes, en lugar de sertomados en un campo de p elementos, fueran n´meros reales o complejos. [K] uAIII.1 Formas BilinealesMientras los matem´ticos mostraban una tendencia a desde˜ar las ecuaciones de a nprimer grado, la resoluci´n de ecuaciones diferenciales fue un problema muy impor- otante. Las ecuaciones lineales se distinguieron desde el principio y su estudio con-tribuy´ a poner de manifiesto la linealidad correspondiente. D’Alembert, Lagrange oy Euler estudiaron esto, pero el primero es el unico que considera util indicar que la ´ ´soluci´n general de la ecuaci´n no homog´nea es suma de una soluci´n particular y o o e ode la soluci´n general de la ecuaci´n homog´nea correspondiente; adem´s, cuando o o e aestos autores enuncian que la soluci´n general de la ecuaci´n lineal homog´nea o o ede orden n es combinaci´n lineal de n soluciones particulares, no mencionan que o´stas deben ser linealmente independientes. Este punto, como tantos otros, no seeaclarar´n hasta la ense˜anza de Cauchy en la Escuela Polit´cnica. a n e Lagrange introdujo (aunque solamente para el C´lculo y sin darle nombre) la aecuaci´n adjunta L∗ (y) = 0 de una ecuaci´n diferencial lineal L(y) = 0, la cual es o oun ejemplo t´ ıpico de dualidad en virtud de la relaci´n o zL(y) dx = L∗ (z)y dxv´lida para y y z anul´ndose en los extremos del intervalo de integraci´n. Con m´s a a o aprecisi´n, y treinta a˜os antes de que Gauss definiera expl´ o n ıcitamente la traspuestade una sustituci´n lineal de 3 variables, vemos aqu´ el primer ejemplo de un operador o ıfuncional L∗ traspuesto de un operador L dado mediante una funci´n bilineal (en oeste caso la integral) yz dx. Posteriormente, el estudio de las formas cuadr´ticas y bilineales, y de sus ma- atrices y sus invariantes conduce al descubrimiento de principios generales sobre laresoluci´n de sistemas de ecuaciones lineales; principios que Jacobi no hab´ alcan- o ıazado por carecer de la noci´n de rango. [B] oAIII.3 Producto EscalarA principios de 1840, Grassmann hab´ desarrollado el concepto de producto in- ıaterior (escalar) de dos vectores como el “producto algebraico de un vector mul-
  • 171. 166 Ap´ndice etiplicado por la proyecci´n perpendicular del segundo sobre ´l” y estableci´ alge- o e obraicamente el producto interior α|β de α y β (cuando n = 3) como α|β = α1 β1 + α2 β2 + α3 β3donde α = α1 e1 + α2 e2 + α3 e3 y β = β1 e1 + β2 e2 + β3 e3 son hipern´meros, ulas αi y βi son n´meros reales y e1 , e2 y e3 son unidades primarias represen- utadas geom´tricamente por vectores de longitud unitaria, dibujados desde un origen ecom´n tal como lo determina un sistema de ejes ortogonales de la mano derecha. Las uαi ei son m´ltiplos de las unidades primarias y son representadas geom´tricamente u epor las longitudes αi a lo largo de los ejes respectivos, mientras que α esta represen-tada por un vector en el espacio cuyas proyecciones sobre los ejes son las longitudesαi . Se cumple lo mismo para βi y β. Para el producto interior Grassmann postulaque ei |ei = 1 y que ei |ej = 0 para i = j.El valor num´rico o magnitud de un hipern´mero α lo define como e u a= α|α = 2 2 2 α1 + α2 + α3 .Luego, la magnitud de α es num´ricamente igual a la longitud del vector, el cual se erepresenta geom´tricamente. Tambi´n desarrolla la f´rmula para el cambio de coor- e e odenadas bajo cambio de base e introduce algunas de las ideas b´sicas relacionadas acon las funciones lineales. Finalmente, aplic´ algunas de estas ideas en el desarrollo ode la geometr´ simb´lica. ıa o Hamilton tambi´n define el producto escalar de dos vectores, pero en dimensi´n e oa lo m´s cuatro y demuestra su bilinealidad. aAIV.1 Producto TensorialEl C´lculo Tensorial se inicia a principios del siglo XIX con Grassmann y Cayley, apero prospera hasta fines del mismo. Riemann multiplic´ el poder del c´lculo o atensorial adoptando las coordenadas curvil´ ıneas de Gauss. Un nuevo progreso fuerealizado por Christoffel en 1869 al organizar sistem´ticamente el nuevo algoritmo, adescubriendo las derivadas que despu´s se han llamado invariante y covariante. eFinalmente Ricci y su disc´ıpulo Levi Civita le dieron la forma definitiva en 1888. La f´ ısica relativista de Einstein sac´ del olvido este poderoso instrumento, hoy ode uso frecuente en las m´s diversas teor´ a ıas. El ejemplo m´s importante es la curvatura de un espacio y precisamente este atensor de Riemann fue el que le permiti´ a Einstein expresar su ley de gravitaci´n o oy su teor´ general de relatividad. [R] ıa
  • 172. Ap´ndice e 167AIV.2 Producto ExteriorGrassmann introduce el producto exterior denotado con [ ], para el cual postulaque para las unidades primarias ei [ei ej ] = −[ej ei ] i = j, [ei ei ] = 0. Estos corchetes son llamados unidades del segundo orden y no son reducidos porGrassmann (mientras que Hamilton s´ lo hace) a unidades del primer orden. Sin ıembargo eran equivalentes a unidades del primer orden [e1 e2 ] = e3 , y as´ sucesiva- ımente. Con la ayuda del producto exterior de las unidades primarias, el productoexterior P de los hipern´meros α = α1 e1 + α2 e2 + α3 e3 y β = β1 e1 + β2 e2 + β3 e3 ulo expres´ como sigue: o P = [αβ] = (α2 β3 − α3 β2 )[e2 e3 ] + (α3 β1 − α1 β3 )[e3 e1 ] + (α1 β2 − α2 β1 )[e1 e2 ].Este producto es un hipern´mero del segundo orden y est´ expresado en t´rminos u a ede unidades independientes del segundo orden. Su magnitud |P | se obtiene a partirde la definici´n del producto interior, P |P , de dos hipern´meros del segundo orden o uy es |P | = P |P = (α2 β3 − α3 β2 )2 + (α3 β1 − α1 β3 )2 + (α1 β2 − α2 β1 )2 α1 β1 α2 β2 α3 β3 2 = |α||β| 1 − ( + + ) |α||β| |α||β| |α||β| = |α||β|senθdonde θ es el ´ngulo entre los vectores α y β. a Luego, la magnitud |P | del producto exterior [αβ], se representa geom´trica- emente por el ´rea del paralelogramo construido sobre los vectores, los cuales son alas representaciones geom´tricas de α y β. e Hamilton estableci´ el producto exterior de dos vectores, como el que ahora es odado para el sistema de los n´meros complejos. Durante 15 a˜os estuvo tratando u nde generalizarlo a un espacio de tres dimensiones. Un d´ mientras caminaba por ıael canal Royal se le ocurri´ la f´rmula i2 = j 2 = k 2 = ijk que le permiti´ definir el o o oproducto exterior de dos vectores, pero en un espacio de dimensi´n cuatro (cuater- oniones).AIV.4 K0 y K1La K-Teor´ Algebraica comienza por el hecho de que no todos los m´dulos proyec- ıa otivos son libres.
  • 173. 168 Ap´ndice e La K-Teor´ Algebraica comenz´ a finales de la d´cada de los cincuentas con la ıa o eanalog´ de Serre entre haces vectoriales y m´dulos proyectivos: existe una corres- ıa opondencia biyectiva entre clases de isomorfismo de haces vectoriales reales sobre X yclases de isomorfismo de m´dulos finitamente generados sobre el anillo de funciones oreales continuas sobre X. Por medio de esta correspondencia, el conocimiento de loshaces vectoriales se utiliza para sugerir resultados, demostraciones y construccionespara los m´dulos proyectivos. o En geometr´ algebraica, los haces vectoriales sobre variedades algebraicas se ıadefinen como gavillas localmente libres. De hecho, existe una correspondenciabiyectiva entre haces vectoriales y gavillas localmente libres de rango finito. Elespacio af´ An sobre un campo k es el espectro primo Spec k[t1 , · · · , tn ]. Este es ın kun esquema af´ sobre k[t1 , · · · , tn ] y las gavillas localmente libres corresponden a ınm´dulos proyectivos finitamente generados sobre k[t1 , · · · , tn ]. As´ pues, correspon- o ıden a haces vectoriales sobre An los m´dulos proyectivos finitamente generados. k o La conjetura de Serre era la siguiente: ¿Es todo haz vectorial sobre An un haz ktrivial? o equivalentemente, ¿son libres todos los m´dulos proyectivos finitamente ogenerados sobre k[t1 , · · · , tn ]? Una de las metas de la K-Teor´ Algebraica fue en un principio, la de proveer ıanuevas t´cnicas para atacar el problema de Serre. Sin embargo, ninguna de las esoluciones independientes de Suslin y Quillen en 1976 se bas´ en la K-Teor´ Alge- o ıabraica. La K-Teor´ Algebraica Cl´sica es una parte del Algebra Lineal General. Es, in- ıa atuitivamente, una generalizaci´n del teorema que establece la existencia y unicidad ode las bases para espacios vectoriales y tambi´n de la Teor´ de Grupos del grupo e ıalineal general sobre un campo. La K-Teor´ Algebraica tiene sus ra´ ıa ıces en el trabajo de Grothendieck sobre elteorema de Riemann-Roch, donde introdujo el funtor K0 . Sea Λ un anillo conunidad. Definimos K0 (Λ) como el grupo abeliano con un generador [P ] para cadaΛ-m´dulo proyectivo finitamente generado P , y una relaci´n [P ] = [P ] + [P ] para o ocada sucesi´n exacta o 0 −→ P −→ P −→ P −→ 0.Llamamos a K0 (Λ) el grupo de Grothendieck de Λ, i.e., el grupo abeliano declases de isomorfismo de Λ-m´dulos proyectivos finitamente generados. o El c´lculo de K0 de un campo mide, hasta cierto punto, cu´nto les falta a los a aΛ-m´dulos proyectivos finitamente generados para poseer una teor´ de dimensi´n o ıa ocomo la de los espacios vectoriales. As´ podemos considerar aquella parte de la ı,
  • 174. Ap´ndice e 169K-Teor´ Algebraica correspondiente a K0 como un intento de generalizar ciertas ıapropiedades elementales del Algebra Lineal a m´dulos sobre un anillo cualquiera. o Observamos que la operaci´n aditiva en K0 (Λ) proviene de la suma directa de om´dulos, i.e., [P ] + [Q] = [P ⊕ Q] y que, si Λ es conmutativo, entonces el producto otensorial de m´dulos hace de K0 (Λ) un anillo conmutativo, i.e., [P ] · [Q] = [P ⊗ Q]. o Sea GLn Λ el grupo lineal general de matrices invertibles de n×n con coeficientesen Λ. Si identificamos cada matriz A ∈ GLn Λ con la matriz A 0 ∈ GLn+1 (Λ) 0 1obtenemos inclusiones GL1 (Λ) ⊂ GL2 (Λ) ⊂ GL3 (Λ) · · ·. Denotaremos su l´ ımitedirecto con GL(Λ). En 1939, Whitehead demostr´ que el subgrupo E(Λ) ⊂ GL(Λ) ogenerado por todas las matrices elementales era igual al subgrupo conmutador[GL(Λ), GL(Λ)]. LEMA (Whitehead) [GL(Λ), GL(Λ)] = E(Λ). Por lo tanto, E(Λ) es un subgrupo normal de GL(Λ) y el cocienteGL(Λ)/E(Λ) es un grupo abeliano bien definido. Este grupo se define como K1 Λ yse llama grupo de Whitehead de Λ. Es inmediato comprobar que K1 es un funtorde la categor´ de anillos en la categor´ de grupos abelianos. ıa ıa Durante los ultimos a˜os de la d´cada de los sesenta, uno de los problemas ´ n emayores de la K-Teor´ Algebraica era el de definir funtores Kn Λ para toda n ∈ Z. ıaEsto fue sugerido por analog´ con la K-Teor´ Topol´gica. ıa ıa o En 1969, Milnor propuso una definici´n de K2 (Λ) que pose´ propiedades an´- o ıa alogas a K0 y K1 . El observ´ que, en el grupo En (Λ), las matrices elementales oeλ satisfac´ ciertas relaciones obvias. Siguiendo a Steinberg, Milnor introdujo ij ıanun grupo abstracto Stn (Λ) definido por generadores xλ y relaciones que imita- ijban el comportamiento de esas matrices elementales. Definiendo el homomorfismocan´nico o φn : Stn (Λ) −→ En (Λ) ⊂ GLn (Λ)dado por φn (xλ ) = eij , y pasando al l´ ij λ ımite directo obtenemos φ: St(Λ) −→ GL(Λ)tal que φ(St(Λ)) = E(Λ). Entonces Milnor defini´ K2 (Λ) = ker φ. o La K-Teor´ Algebraica se convirti´ en un tema importante porque relaciona ıa odos ´reas de las matem´ticas. El desarrollo de la K-Teor´ Algebraica superior de a a ıaQuillen relaciona la Topolog´ con el Algebra de una manera nueva y fundamental. ıaLa K-Teor´ Algebraica utiliza m´todos topol´gicos para encontrar invariantes al- ıa e ogebraicos, y tambi´n proporciona una manera de traducir conceptos algebraicos en e
  • 175. 170 Ap´ndice econceptos topol´gicos. La K-Teor´ Algebraica estudia las propiedades de ciertos o ıagrupos Ki (Λ), construidos a partir de un anillo Λ. Quillen en los setentas defini´, para i ≥ 1, el i-´simo K-grupo algebraico de Λ o ecomo Ki Λ = πi (BGLΛ+ ). Como en los casos i = 1, 2, Ki es un funtor covariantede la categor´ de anillos a la categor´ de grupos. [LL1] y [LL2] ıa ıaBibliograf´ de las Notas Hist´ricas ıa o [B] Bourbaki, N. Elementos de Historia de las Matem´ticas. Madrid. a Alianza. (1976). Boyer, C. B. A History of Mathematics. New York. Wiley. (1989). Cajori, F. A History of Mathematics. New York. The Macmillan. (1929). Crowe, M. J. A History of Vector Analysis. University of Notre Dame Press. (1967). Dieudonn´, J. A History of Algebraic and Differential Topology e 1900-1960. Birkhauser. (1989). [F-S] Fearnley, D., Sander. Hermann Grassmann and the Creation of Linear Algebra. Mathematical Monthly 86. p.809-817. (1879). [F-B] Fraleigh, J. B., Beauregard R. A. Linear Algebra. Addison-Wesley. (1989). Gauss, C. F. Recherches Arithm´tiques. Jaques Gabay. (1807). e Grassmann, H. G. Teor´ de la Extensi´n. Espasa Calpe. (1947). ıa o [H] Hawkins, T. Another Look at Cayley and the Theory of Matrices. Ar- chives Internationales D’histoire des Sciences. Vol. 27 No.100. Boston (1977). Hawkins, T. Cauchy and the Spectral Theory of Matrices. Historia Matematica. Vol. 2. p.1-29. (1975). [K] Katz, V. J. Historical Ideas in Teaching Linear Algebra and about some concepts of Linear Algebra. Comunicaci´n personal no publi- o cada. (1993). [KL] Kline, M. Mathematical Thought from Ancient to Modern Times. Oxford University Press. (1972).
  • 176. Ap´ndice e 171 [LL1] Lluis-Puebla, E. Algebra Homol´gica, Cohomolog´ de Grupos y o ıa K-Teor´ Algebraica Cl´sica. Addison Wesley Ib. (1990). ıa a [LL2] Lluis-Puebla, E., Loday J.-L., Gillet H., Soul´ C., Snaith V. Higher e Algebraic K-Theory: an overview. Lecture Notes in Mathematics. Vol. 1491. Springer Verlag. (1992). [R] Rey, P., Babini, J. Historia de la Matem´tica. Espasa Calpe. (1951). a van der Waerden, B. L. A History of Algebra. Springer Verlag. (1985). van der Waerden, B. L. Hamilton’s Discovery of Quaternions. Mathe- matics Magazine. Vol. 49. No.5. p.227-234. (1976).
  • 177. BIBLIOGRAFIA Birkhoff, G., Mac Lane S. Algebra. Macmillan. (1968). Birkhoff, G., Mac Lane S. A survey of Modern Algebra. Macmillan. (1977). Bourbaki, N. Elements of Mathematics. Algebra I. Addison Wesley. (1974). Fraleigh, J.B., Beauregard R.A. Algebra Lineal. Addison Wesley Ib. (1989). Guelfand, I.M. Lecciones de Algebra Lineal. U. del Pa´ Vasco. (Tra- ıs ducci´n de la versi´n rusa de 1971). o o Herstein, I.N. Algebra Moderna. Trillas. (1970). Hoffman, K., Kunze R. Linear Algebra. Prentice Hall. (1961). Hungerford, T.W. Algebra. Springer Verlag. (1980). [L] Lam, T.Y., Siu, M.K. K0 and K1 -An Introduction to Algebraic K- Theory. Amer. Math. Monthly. April, p.329-364. (1975). Lang, S. Algebra. Addison Wesley. (1971). Lang, S. Linear Algebra. Addison Wesley. (1971). Lipschutz, S. Linear Algebra. McGraw-Hill. (1974). [LL1] Lluis-Puebla, E. Algebra Homol´gica, Cohomolog´ de Grupos y o ıa K-Teor´ Algebraica Cl´sica. Addison Wesley Ib. (1990). ıa a [LL2] Lluis-Puebla, E., Loday J.-L., Gillet H., Soul´ C., Snaith V. Higher e
  • 178. 174 Bibliograf´ ıa Algebraic K-Theory: an overview. Lecture Notes in Mathematics 1491. Springer Verlag. (1992). Nomizu, K. Fundamentals of Linear Algebra. McGraw-Hill. (1966). Northcott, D. Multilinear Algebra. Cambridge U. Press. (1984). [V] Vaserstein, L.N. Linear Algebra and Algebraic K-Theory. Contempo- rary Mathematics vol. 82. p.191-198. (1989).
  • 179. LISTA DE SIMBOLOS K, 21 S , 31 Mm×n K, 23 dim V , 38 K S , 23 K[x], 23 rango f , 43 U ∼ V , 25 = nul f , 43 1V , 26 [f ]β , 49 β OV , 26 [u]β , 49 tr, 26 [f (u)]β , 49 det, 26, 147 γ Nβ , 50 HomK (U, V ), 26 EndK (V ), 52 L(U, V ), 26 Uα , 57 A(U, V ), 26 pA (λ), 62 Mn K, 27 |Nij |, 63 ker f ,27 Aij , 63 im f , 27 ˜ A, 63 U + V , 28 mA (λ), 67 U ⊕ V , 29 n V /U , 70 i=1 Vi , 31 ρU , 71 Jij , 83
  • 180. 176 Lista de s´ ımbolos L2 (V, V ; K), 88 T k (V ), 137 L2 (V ; K), 88 T V , 138 k Bil(V ), 88 V , 138 1 L (V ; K), 89 V , 138 V ∗ , 89 T k (V ), 138 [f ]γ , 91 AK (V ), 140 V ∗∗ , 94 K0 (X), 141 a U , 96 V , 142 rg(f ), 96 [V ], 142 n+ , 100 EVK , 143 n− , 100 Ab, 143 sgf , 101 Abf , 143 A∗ , 102 Abfg, 143 , , 103 GL(V ), 143 || ||, 104 AutK (V ), 143 U ⊥ , 105 GLn (K), 144 ρ∗ , 109 λ eij , 144 A∗ , 112 [A, B], 145 O(n), 112 GL(K), 145 SO(n), 112 En (K), 145 U ⊗k V , 121 E(K), 145 ui ⊗ vj , 122 K1 (K), 147 V ∧ V , 128 SL(K), 147 u ∧ v, 129 SLn (K), 147 u × v, 130 SK1 (K), 148 k V , 131 |A|, 132
  • 181. INDICE ANALITICOA´lgebraa de Grassmann, 138 exterior, 138 C graduada, 137 campo, 136 tensorial, 138 Cauchy-Schwarz´lgebra sobre un anillo, 137a desigualdad de, 104 asociativa, 137 Cayley-Hamilton con uno, 137 teorema de, 63 conmmtativa, 137 clase lateral, 70algoritmo de la divisi´n, 136 o coeficientes, 31anillo, 136 cofactor, 63 cociente, 149 combinaci´n lineal, 31 o con divisi´n, 136 o componente de un tensor, 140 con identidad, 136 conjunto con uno, 136 base, 36 conmutativo, 136 de generadores, 35aniquilador, 96 linealmente dependiente, 33, 36anulador, 96 linealmente independiente, 33, 35aplicaci´n o ortogonal, 105 lineal, 24 ortogonal a un subconjunto, 105 natural, 95 ortonormal, 105automorfismo, 134 soluci´n, 32 o conmutador, 145Bbase, 36 can´nica, 36 o de un m´dulo, 137 o D dual, 90 descomposici´n espectral, 117 oBessel desigualdad desigualdad de, 108 de Bessel, 108 de Cauchy-Schwarz, 104 del tri´ngulo, 104 a determinante, 132 de una matriz, 133
  • 182. 178 Indice anal´ ıticodiagrama trivial, 26,127 conmutativo, 31 funcional lineal, 89dimensi´n, 38 odominio G entero, 136 Gram-Schmidt euclidiano, 136 procedimiento de, 105 generadores, 35E grupo, 135endomorfismo, 52, 132 abeliano libre, 139escalar, 22, 138 base de un, 139espacio cociente, 139 caracter´ıstico, 57 conmutativo, 22, 135 cociente, 70 de Grothendieck, 141 con producto escalar, 103 elemental infinito, 145 dual, 89 elemental lineal, 145 euclidiano, 103 especial infinito, 147 unitario, 103 especial lineal, 147espacio vectorial lineal general, 144 dimensi´n de, 38 o lineal general infinito, 145 invariante bajo un operador lineal, 71 ortogonal, 112 sobre un campo, 21 ortogonal especial, 112 tensorial de grado k , 138 tensorial de tipo (k, ), 138 Hespacios isomorfos, 25 homomorfismo de anillos, 136F de espacios vectoriales, 24forma bilineal, 88 de grupos, 136 alternante, 100 de identidad, 26 antisim´trica, 100 e definida positivamente, 101 de Λ-m´dulos, 137 o degenerada, 96 natural, 95 no degenerada, 96 trivial, 26 rango de una, 96 semidefinida no negativamente, 101 I signo de una, 101 ideal, 149 sim´trica, 97 e imagen, 27forma can´nica, 56, 70 o ´ ındice de Jordan, 83 contravariante, 140 normal, 76 covariante, 140forma cuadr´tica, 97 a de nilpotencia, 79 compleja, 101 invariante bajo similaridad, 60, 65 hermitiana,101 isomorfismoforma hermitiana, 101 de espacios vectoriales, 25forma lineal, 89 de grupos, 139forma multilineal, 125 de espacios con producto escalar, 112funci´n o bilineal, 87 K bilineal alternante, 128 K-grupo algebraico de ´ ındice uno, 147 multilineal, 125funci´n lineal, 24 o L matriz que representa a una, 49 lema de Whitehead, 145 nulidad de una, 43 ley de la inercia de Sylvester, 101 rango de una, 43 longitud de un vector, 104
  • 183. Indice anal´ ıtico 179M descomponible, 77matriz determinante de un, 132 adjunta cl´sica, 63 a diagonalizable, 56 antisim´trica, 100 e invertible, 44 asociada a una funci´n lineal, 49 o nilpotente, 79 asociada a una forma bilineal, 91 no singular, 44 asociada con respecto a una base, 50 representado por matriz triangular, 73 asociada relativa a una base, 50 singular, 44 caracter´ıstica, 62 congruente a, 99 P cuadrada, 27 permutaciones, 133 de transici´n, 50 o polinomio determinante de una, 133 caracter´ıstico, 62 elemental, 144 m´ınimo, 67 equivalente a, 60, 76 potencia hermitiana, 102 exterior de grado dos, 128 nilpotente, 79 exterior de grado k , 131 normal, 112 procedimiento de Gram-Schmidt, 105 ortogonal, 112 producto semejante a, 55 escalar, 95, 103 sim´trica, 27 e exterior, 133 similar a, 55 interno, 103 traza de una, 26, 60 tensorial, 121 unitaria, 112 propiedad universalmenor del elemento, 63 de la potencia exterior, 128, 131m´dulo o de la suma directa, 30 finitamente generado, 137 del producto tensorial, 121 izquierdo, 137 proporci´n divina, 61 o libre, 137 proyecci´n ortogonal, 107 o proyectivo, 137 sobre un anillo, 137 Rmonoide, 135 rango, 43multiplicaci´n, 137 o resoluci´n espectral, 117 omultiplicaci´n escalar, 22 o SN secci´n ´urea, 61 o anorma de un vector, 104 semigrupo, 135n´ cleo, 27 u subconjunto independiente m´ximo, 41 anulidad, 43 subespacion´ meros de Fibonacci, 61 u generado por, 31 invariante bajo un operador, 71O ortogonal, 105operador trivial, 27 adjunto, 110 vectorial, 27 autoadjunto, 114 subgrupo, 139 hermitiano, 114 sucesi´n o normal, 112 de Fibonacci, 61 ortogonal, 112 exacta, 126 que preserva longitudes, 113 exacta corta, 139 que preserva productos escalares, 113 suma sim´trico, 114 e de subespacios vectoriales, 28 unitario, 112 directa, 29operador lineal, 44 directa externa, 29
  • 184. 180 Indice anal´ ıtico directa interna, 29 vectorSylvester, ley de la inercia, 101 caracter´ ıstico, 56 contravariante, 138T covariante, 138tensor longitud de un, 104 componente de un, 140 norma de un, 104 contravariante de grado k , 138 normalizado, 104 covariante de grado , 138 propio, 56 de tipo (k, ), 138 unitario, 104 mixto, 138 vectores, 22teorema linealmente dependientes, 33 de Cayley-Hamilton, 63 linealmente independientes, 33 de descomposici´n primaria, 78 o ortogonales, 105 espectral, 116transformaci´n lineal, 24 o Wtransvecci´n, 144 o Whiteheadtraza, 26, 60 lema de, 145Vvalor caracter´ ıstico, 56 propio, 56
  • 185. La intenci´n de la presente obra es la de proveer a los estudiantes de las carreras ocient´ıficas de un enfoque serio, fundamentado y moderno de los conceptos b´sicos a ´ ´del Algebra Lineal. Se ha incluido el Algebra Multilineal, tema de fundamentalimportancia as´ como algunos conceptos de la K-Teor´ Algebraica Cl´sica, una de ı ıa alas ramas m´s recientes de la Matem´tica. Se incluyen diversos ejercicios de c´lculo a a aexpl´ıcito, as´ como una gran cantidad de problemas interesantes que le brindan al ıestudiante la oportunidad de crear y redactar matem´tica. aEn la introducci´n se presenta un panorama del libro y se incluye un ap´ndice que o econtiene notas hist´ricas sobre los conceptos definidos. El texto est´ escrito en un o alenguaje claro, conciso y elegante. Est´ dise˜ado para un curso de un a˜o o dos a n nsemestres al nivel licenciatura o bien de un semestre para algunos posgrados.Este libro cumple ya m´s de diez a˜os de ser utilizado exitosamente como texto a nsobre la materia en diversas universidades del Continente Americano, incluyendoalgunas universidades de Estados Unidos de Norteam´rica y, desde luego, en M´xico. e eEmilio Lluis naci´ en la Ciudad de M´xico en septiembre de 1952. Realiz´ sus o e oEstudios Profesionales y de Maestr´ en Matem´tica en M´xico. En 1980 obtuvo ıa a esu Doctorado (Ph.D.) en Matem´tica en Canad´. Es catedr´tico de la Universidad a a aNacional Aut´noma de M´xico en sus Divisiones de Estudios Profesionales y de o ePosgrado desde hace treinta a˜os. Ha formado varios profesores e investigadores nque laboran tanto en M´xico como en el extranjero. e ´Es autor de varios libros sobre K-Teor´ Algebraica, Algebra Homol´gica, Algebra ıa o ´Lineal y Teor´ Matem´tica de la M´sica publicados en las editoriales con dis- ıa a utribuci´n mundial Addison Wesley, Birkh¨user y Springer Verlag entre otras. o aSu trabajo matem´tico ha quedado establecido en sus art´ a ıculos de investigaci´n y odivulgaci´n que ha publicado sobre la K-Teor´ Algebraica, la Cohomolog´ de Gru- o ıa ıapos y la Teor´ Matem´tica de la M´sica en las m´s prestigiadas revistas nacionales ıa a u ae internacionales. Ha sido Profesor Visitante en Canad´. aRecibi´ varias distinciones acad´micas, entre otras, la medalla Gabino Barreda al o em´s alto promedio en la Maestr´ Investigador Nacional (1984-1990) y C´tedra a ıa, aPatrimonial de Excelencia del Conacyt (1992-1993).Es miembro de varias asociaciones cient´ ıficas como la Real Sociedad Matem´tica aEspa˜ola y la American Mathematical Society. Es presidente de la Academia nde Ciencias del Instituto Mexicano de Ciencias y Humanidades, presidente de laAcademia de Matem´tica de la Sociedad Mexicana de Geograf´ y Estad´ a ıa ıstica ypresidente 2000-2002 de la Sociedad Matem´tica Mexicana. a