Algebra lineal
Upcoming SlideShare
Loading in...5
×
 

Algebra lineal

on

  • 1,344 views

 

Statistics

Views

Total Views
1,344
Views on SlideShare
1,344
Embed Views
0

Actions

Likes
0
Downloads
47
Comments
0

0 Embeds 0

No embeds

Accessibility

Categories

Upload Details

Uploaded via as Adobe PDF

Usage Rights

© All Rights Reserved

Report content

Flagged as inappropriate Flag as inappropriate
Flag as inappropriate

Select your reason for flagging this presentation as inappropriate.

Cancel
  • Full Name Full Name Comment goes here.
    Are you sure you want to
    Your message goes here
    Processing…
Post Comment
Edit your comment

    Algebra lineal Algebra lineal Document Transcript

    • ´Algebra Lineal Jorge Luis Arocha versi´ n compilada el o 31 de enero de 2012
    • Jorge Luis Arocha P´ rez eInstituto de Matem´ ticas aUniversidad Nacional Aut´ noma de M´ xico o eM´ xico D.F. 04510 eBibTeX:@textbook{ArochaLA AUTHOR = {Arocha, Jorge L.} TITLE = {’Algebra Lineal} YEAR = {2011} NOTE = {Available at combinatoria.matem.unam.mx}}Mathematics Subject Classification 2000: 00–01, 12–01, 15–01 c°2011 Jorge Luis Arocha P´ rez ePermitida la reproducci´ n para uso individual y no comercial. oTodos los dem´ s derechos est´ n reservados. a a
    • Introducci´ n o ı a ´ Este libro lo escrib´ como texto b´ sico para el curso de “Algebra Lineal” para estudiantesde Licenciatura que he impartido por muchos a˜ os en la Facultad de Ciencias de la Univer­ nsidad Nacional Aut´ noma de M´ xico. o e ´ Se presupone que los estudiantes hayan cursado ya las materias de “Algebra superior” y“Geometr´a Anal´tica” o sea tengan ciertos conocimientos sobre matrices, vectores, polino­ ı ımios, n´ meros complejos, etc. u ´ ´ El objetivo es desarrollar el algebra lineal sobre campos arbitrarios pero se hace enfasisen los reales, los complejos y los residuos m´ dulo un n´ mero primo. Despu´ s de una intro­ o u educci´ n corta a la teor´a de campos se estudian los espacios vectoriales, las transformaciones o ılineales, los determinantes y finalmente los teoremas de descomposici´ n de operadores. o Por ahora, este libro no contiene pr´ cticamente nada de transformaciones bilineales, pro­ aductos escalares, espacios duales, ortogonalidad, tensores etc. En mis planes est´ escribir auna segunda parte o aumentar este libro con cap´tulos sobre estos temas. ı El material que comprende este libro es demasiado para un semestre y usualmente yoimparto en un semestre de los cap´tulos I—IV aquellas secciones que no est´ n marcadas ı acomo avanzadas. Un segundo semestre podr´a comenzar con las secciones de polinomios so­ ıbre campos, continuar con la descomposici´ n de operadores lineales y terminar con aquellos otemas que ya se˜ al´ , faltan aqu´. Otras secciones las escrib´ porque me parecieron un buen n e ı ımaterial de lectura complementaria para los alumnos curiosos. Este libro es inusualmente colorido y visualmente agresivo. La raz´ n de esto es que ocuando estaba en el papel de alumno yo prefer´a estudiar por las libretas de notas de mis ıcompa˜ eras de clase. Se me hac´a muy f´ cil memorizar la imagen completa de una p´ gina n ı a allena de rayas, ores, corazones etc. y dentro de todo esto, las matem´ ticas. La idea es que acada p´ gina luzca visualmente diferente. He tratado dentro de lo posible, lograr esto. a Los caracteres de matem´ ticas est´ n en un color diferente. El texto y las secciones avan­ a azadas est´ n marcados con un birrete. Uso unos lentes para marcar aquello que el lector no adebe dejar pasar. Errores comunas que cometen los que no est´ n familiarizados con el mate­ arial est´ n marcados con calaveras. Los teoremas est´ n resaltados visualmente, etc. a a Se incluyen m´ s de un centenar de ejercicios. Los ejercicios m´ s notables consisten en a amaterial adicional que un estudiante de matem´ ticas o f´sica debe conocer tarde o temprano. a ıLas soluciones de los ejercicios no rutinarios se dan al final del libro. He compilado un glosario de t´ rminos que es a la vez un ´ndice del libro y un diccionario e ıde los conceptos introducidos y/o usados. Finalmente, incluyo una gu´a de estudio. De esta gu´a yo escojo las preguntas para los ı ıex´ menes. Esto representa una ventaja enorme para los estudiantes ya que una de las dificul­ atades m´ s importantes de ser estudiante es comprender que es lo que se espera de ellos. a Jorge Arocha M´ xico D.F. Diciembre de 2010 e
    • IV
    • Cap´tulo 1 Campos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ı 1 1.1 Operaciones binarias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 Conmutatividad (3). Asociatividad (3). Elementos neutros (4). Elementos inversos (5). ´ Distributividad (5). El algebra “abstracta”(5). 1.2 N´ meros . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . u 6 Naturales (6). Enteros (6). Grupos (7). Anillos (7). Racionales (8). Reales (8). Com­ plejos (9). 1.3 Morfismos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10 Morfismos de grupos (10). Morfismos de anillos (11). Isomorfismos (12). Composi­ ci´ n de morfismos (13). o 1.4 Campos de restos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14 El anillo de los enteros m´ dulo n (14). Dominios de integridad (15). El campo de los o enteros m´ dulo p (15). o 1.5 Campos primos. Caracter´stica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ı 16 Campos primos (17). Caracter´stica (18). ı 1.6 Aritm´ tica de campos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . e 19 M´ ltiplos y exponentes enteros (19). Asociatividad general (19). Distributividad gene­ u ral (20). F´ rmula multinomial (20). La expansi´ n de ΠΣαij (21). o o *1.7 Anillos con divisi´ n . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . o 22 Quaterniones (22). Caso finito (24).Cap´tulo 2 Espacios vectoriales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ı 25 2.1 El plano cartesiano . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25 2.2 Definici´ n y ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . o 26 El espacio de n­adas Kn (27). El espacio de polinomios K [x] (28). El espacio de sucesiones K (28). El espacio de series K [[x]] (28). El espacio de funciones KN (29). El espacio de N­adas KN (29). El espacio de N­adas con soporte finito K{N } (30). Subcampos (30). El espacio de N­adas de vectores EN (30). El espacio de NM­ matrices KN M (31). El espacio de tensores (32). 2.3 Subespacios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32 Uni´ n e intersecci´ n de subespacios (33). Combinaciones lineales (33). Cerradura li­ o o neal (34). 2.4 Bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35 Conjuntos generadores (36). Conjuntos linealmente independientes (36). Bases (38). Dimensi´ n (39). Bases can´ nicas (41). o o 2.5 Clasificaci´ n de espacios vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . o 42 Isomorfismos lineales (42). Coordinatizaci´ n (44). Clasificaci´ n (44). Campos de Ga­ o o lois (45). Como pensar en espacios vectoriales (45). 2.6 Suma de subespacios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
    • VI Contenido Subespacios de Rn (46). Suma de conjuntos y subespacios (47). La igualdad modular (47). Suma directa (49). Isomorfismo can´ nico entre la suma y la suma directa. (49). o Subespacios complementarios (50). Espacios vectoriales versus conjuntos (51). 2.7 Espacios cocientes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52 Subespacios afines (52). El espacio cociente (53). El isomorfismo con los complemen­ tarios (54). *2.8 El espacio af´n. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ı 55 La regla del paralelogramo (56). Cerradura af´n (56). Generadores e independencia ı (57). Bases afines (57). *2.9 El caso de dimensi´ n infinita . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . o 59 El Lema de Zorn (59). Existencia de bases (59). Cardinales (60). Equicardinalidad de las bases (60).Cap´tulo 3 Transformaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ı 63 3.1 Definici´ n y ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . o 63 Imagenes de subespacios (63). Homotecias (64). Inmersiones (65). Proyecciones (65). 3.2 Operaciones entre transformaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66 El espacio vectorial de las transformaciones lineales (67). Composici´ n de transfor­ o ´ maciones lineales (67). El algebra de operadores lineales (68). El grupo general lineal (69). 3.3 Extensiones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70 Extensiones y restricciones (70). El isomorfismo entre F N y Mor (E, F) (71). Un cri­ terio de isomorfismo (71). 3.4 Coordinatizaci´ n de transformaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . o 72 El producto escalar can´ nico (73). El producto de matrices (74). Productos de matri­ o ces y vectores (74). La transformaci´ n lineal de una matriz (75). La matriz de una o transformaci´ n lineal (75). Composici´ n de TLs y producto de matrices (76). Matrices o o inversas (77). 3.5 Cambios de base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78 Cambios de base en un espacio vectorial (78). Cambios de base en el espacio de trans­ formaciones lineales (79). Cambios de base en el espacio de operadores lineales (80). La transformaci´ n lineal tanspuesta (80). o 3.6 El nucleo y la imagen de una transformaci´ n lineal . . . . . . . . . . . . . . . . . . . . . o 82 Definiciones (82). Transformaciones lineales con nucleo trivial (82). Descomposici´ no de transformaciones lineales (83). La descomposici´ n de la transpuesta (84). Un crite­ o rio de isomorfismo (84). Descomposici´ n can´ nica de transformaciones lineales (85). o o *3.7 Trasformaciones semilineales y coalineaciones . . . . . . . . . . . . . . . . . . . . . . . . . 86 Trasformaciones semilineales reales (86). Propiedades de las transformaciones semili­ neales (87). Automorfismos semilineales. (87). Coalineaciones (88). Estructura de las coalineaciones (89).Cap´tulo 4 Determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ı 93 4.1 Permutaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93 El grupo sim´ trico (93). Ciclos (94). El grupo alternante (95). El signo de una permu­ e taci´ n (96). o 4.2 Propiedades b´ sicas de los determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . a 96
    • Contenido VII Definici´ n de los determinantes (97). Determinantes de matrices peque˜ as (97). El de­ o n terminante de la identidad (98). Matrices con filas nulas (99). El determinante de la transpuesta (99). Matrices con filas iguales (99). Permutaciones de columnas y renglo­ nes (100). El determinante del producto (100). Matrices de permutaciones (101). 4.3 Expansi´ n de Laplace . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . o 102 Cambios de ´ndices (102). Complementos algebraicos (104). La expansi´ n de un de­ ı o terminante por sus renglones (104). La expansi´ n de Laplace en forma gr´ fica (105). o a Multinearidad de los determinantes (106). La inversa de una matriz (107). El determi­ nante de un operador lineal (109). *4.4 La expansi´ n generalizada de Laplace. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . o 109 Matrices diagonales y triangulares por bloques (110). La expansi´ n generalizada de o Laplace en forma gr´ fica (111). a 4.5 El rango de una matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113 Matrices no singulares (113). Espacios de columnas y renglones (113). Lema de au­ mento de matrices no singulares (114). Bases de una matriz (114). 4.6 Sistemas de ecuaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115 Regla de Cramer (116). Existencia de soluciones (117). Eliminaci´ n de ecuaciones o dependientes (118). El nucleo y la imagen de una matriz (119). Bases del subespacio af´n de soluciones (119). ı 4.7 M´ todo de eliminaci´ n de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . e o 120 Transformaciones elementales (120). Ejemplo (121). El caso general (121). Soluci´ n o de ecuaciones matriciales, matriz inversa (122).Soluciones de ejercicios selectos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125Glosario . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135Notaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143Gu´a de estudio. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ı 147
    • VIII El algebra es la oferta hecha por el Diablo a los matem´ ticos. ´ a El Diablo dice: “Yo te dar´ a ti esta poderosa maquinaria e que responder´ cualquier pregunta que tu quieras. a Todo lo que se necesita que tu hagas es entregarme tu alma: dame la geometr´a y tendr´ s esta maravillosa m´ quina” ı a a ... el da˜ o a nuestra alma est´ ah´, n a ı porque cuando usted pasa a hacer c´ lculos algebraicos, a esencialmente usted deja de pensar ... Sir Michael Atiyah
    • Capítulo primero Campos ´ l objeto del algebra lineal es el estudio de los espacios vectoriales. Estos espacios son estructuras algebraicas cuyos objetos son de dos tipos los vectores y los escalares. Las operaciones definidas en los espacios vectoriales son la suma y resta de vectores,la suma resta multiplicaci´ n y divisi´ n de escalares y la multiplicaci´ n de escalares por o o ovectores. La mayor´a de los temas estudiados en este libro no dependen del conjunto de ıescalares y el lector puede casi siempre considerar que los escalares son los reales R y queel espacio vectorial es el espacio “geom´ trico” com´ n Rn . e u Sin embargo, como esta teor´a no depende (al menos en gran parte) del conjunto de ıescalares (y teniendo en cuenta diferentes aplicaciones a otras areas de las matem´ ticas y alas ciencias naturales) es conveniente elevar un paso el nivel de abstracci´ n y pensar que el oconjunto de escalares es un campo arbitrario K . El primer objetivo de este cap´tulo es dar al lector un conocimiento b´ sico de lo que es ı aun campo. Esto se pretende lograr por tres medios: dando la definici´ n formal, estudiando o ıalgunas propiedades (como la caracter´stica) de los mismos, viendo que las reglas usuales demanipulaci´ n de f´ rmulas en un campo no se diferencian esencialmente de las f´ rmulas en o o olos reales y sobre todo, dando los ejemplos fundamentales de campos. Posteriormente, estudiaremos las principales propiedades de los polinomios con coefi­cientes en un campo. En particular, los teoremas de descomposici´ n en factores de polino­ omios complejos y reales ser´ n fundamentales para, en un cap´tulo posterior, desarrollar la a ıdescomposici´ n de Jord´ n de operadores lineales. o a 1.1 Operaciones binarias Sea A un conjunto. Una operaci´ n binaria es una funci´ n del producto cartesiano A×A o oen A. O sea, es una regla mediante la cual a cualesquiera dos elementos de A se le hacecorresponder un tercer elemento de A. Demos algunos ejemplos sencillos:
    • 2 Cap´tulo 1. Campos ı 1) a + b suma 5) ab exponenciaci´ n o 2) a − b resta 6) loga b logaritmo 3) ab producto 7) mcd (a, b) m´ x com´ n divisor a u 4) a b divisi´ n o 8) mcm (a, b) m´n com´ n m´ ltiplo ı u u Lo primero que observamos de los ejemplos anteriores es que no hemos definido en cualconjunto est´ definida la operaci´ n. Esto no es correcto formalmente, as´ por ejemplo la a o ıdivisi´ n es una operaci´ n que no est´ definida en el conjunto de los n´ meros enteros. Sin o o a uembargo el lector podr´ f´ cilmente encontrar los conjuntos en los cuales estos ejemplos son a aoperaciones binarias.Ejercicio 1 ¿En cuales conjuntos las operaciones 1­8 est´ n correctamente definidas? [125] aEjercicio 2 ¿Que es una operaci´ n unaria? De ejemplos. [125] oEjercicio 3 Dados tres n´ meros reales a, b, c definamos A (a, b, c) como el area del tri´ n­ u agulo con lados a, b y c. ¿Es esta una operaci´ n ternaria en R? [125] o Lo segundo que debemos de observar, es la variedad de notaciones usadas para represen­tar las operaciones binarias. Sobre todo, son complicadas las notaciones de la operaciones4­6. Lo que tienen en com´ n, es que no nos alcanza una l´nea de s´mbolos para escribirlas. u ı ıNecesitamos subir y/o bajar adem´ s de movernos de derecha a izquierda. O sea, necesitamos ados dimensiones para escribirlas. Quiz´ sea m´ s ilustrativo, poner un ejemplo m´ s complejo a a ade notaci´ n dos dimensional. La integral en el recuadro a la π/4 ¡ o R ¢derecha est´ bien definida para cualesquiera valores reales a, b 0 a a sin x + b sin x dx 2y por lo tanto es una operaci´ n binaria definida en R. o M´ s sencillos son los ejemplos de notaciones lineales 1­3,7­8. En realidad, para las no­ ataciones lineales solo hay tres posibilidades: ◦ (a, b) notaci´ n prefija o funcional o a◦b notaci´ n operacional o (a, b) ◦ notaci´ n sufija o Las operaciones 1­3 est´ n en notaci´ n operacional y las operaciones 7­8 est´ n en nota­ a o a o o ´ci´ n prejija. La notaci´ n sufija es util sobre todo en la programaci´ n de compiladores para olenguajes de computadoras (tales como pascal o C++) ya que frecuentemente lo m´ s f´ cil a aes decirle a una computadora “toma el n´ mero a” , “toma el n´ mero b” ,“s´ malos” y no u u uhacerlo de otra manera.Ejercicio 4 La notaci´ n sufija para a (b + c) /2 es bc + a × 2÷ . ¿Cual ser´ la notaci´ n o a osufija para la expresi´ n (a + b) (x + y)? [125] o
    • Secci´ n 1.1 o Operaciones binarias 3 Cualquier intento, de tratar de unificar las notaciones usadas en la comunicaci´ n entre ohumanos, solo llevar´a a confusiones mucho peores. Sin embargo, tenemos la libertad de es­ ıcoger una notaci´ n unificada para las operaciones binarias abstractas que definamos. De una ovez, postularemos que siempre usaremos la notaci´ n operacional para definir operaciones obinarias abstractas. Recalquemos que una operaci´ n “abstracta” no significa nada m´ s que es una operaci´ n o a oque puede ser una de muchas. Primero aprendemos lo que quiere decir 3 + 2. Despu´ s, etempranamente en el estudio de las matem´ ticas, la expresi´ n a+b significa que a un n´ mero a o ua (no se sabe cual) le sumamos un n´ mero b (tampoco se sabe cual). Ahora, la expresi´ n a+ u ob significar´ que a un objeto a (n´ mero, polinomio, matriz , quien sabe que) le “sumamos” a u(no se sabe lo que quiere decir “suma”) un objeto b (del que tampoco se sabe mucho).Conmutatividad ¿Es 3 + 2 igual a 2 + 3? Si. ¿Es 32 igual a 23 ? No. Una operaci´ n binaria o∀a, b ∈ A denotada por ◦ y definida en el conjunto A se dice que es conmutativa sia◦b=b◦a se cumple la propiedad en el recuadro a la izquierda. Ser o no conmutativaes la propiedad m´ s sencilla que diferencia las operaciones binarias. aEjercicio 5 ¿Cuales de las operaciones 1­9 son conmutativas? [125]Asociatividad ¿Que quiere decir 2 + 3 + 5? ¿Acaso debemos sumar 2 + 3 y al resultado sumarle 5? ¿Noser´ que debemos sumar 2 al resultado de la suma 3 + 5? Claro, no hay ninguna diferencia aentre los dos procedimientos. Este hecho se expresa como (2 + 3) + 5 = 2 + (3 + 5) . Una operaci´ n binaria denotada por ◦ y definida en el con­ ojunto A se dice que es asociativa si se cumple la propiedad en ∀a, b, c ∈ Ael recuadro de la derecha. a ◦ (b ◦ c) = (a ◦ b) ◦ c Los estudiantes preuniversitarios se encuentran por primeravez con la dificultad de una operaci´ n no asociativa en el caso de la operaci´ n de exponen­ o o 3ciaci´ n. A esta temprana edad es muy necesario insistir que la expresi´ n 22 es ambigua o o ¡ ¢3porque 2(2 ) = 256 6= 64 = 22 . 3Ejercicio 6 ¿Cuales de las operaciones 1­9 son asociativas? [125] La asociatividad de una operaci´ n es una propiedad crucial. Sin esta propiedad, el manejo oalgebraico de una operaci´ n se complica bastante. o
    • 4 Cap´tulo 1. Campos ı Es m´ s, gracias a ella podemos introducir la notaci´ n de la operaci´ n “re­ a o opetida”. Si tenemos 11 elementos a1 , a2 , . . . , a11 entonces, para denotar la suma P 11 aa1 +a2 +· · ·+a11 podemos usar la notaci´ n (mucho m´ s c´ moda) que se muestra n=1 n o a oen el recuadro a la derecha. Esta notaci´ n no requiere de la conmutatividad de la ooperaci´ n “suma” gracias a que los ´ndices tienen un orden y sabemos cual elemento debe ir o ıprimero y cual despu´ s. e Si tenemos que la operaci´ n es no solamente asociativa sino tambi´ n conmutativa enton­ o eces podemos ser m´ s generosos con esta notaci´ n. a o P Supongamos que aρ , a` , a , a9 y a∇ son elementos de un conjunto con una suma an asociativa y conmutativa. Entonces la suma de estos (¡no importa el orden!) la n∈N podemos denotar por la expresi´ n en el recuadro a la izquierda, donde N es el oconjunto de ´ndices {ρ, κ, `, ∇, 9}. ı Si la operaci´ n binaria definida no se llama “suma” sino “producto”,Q o P entonces es usual,en lugar de usar la letra griega (sigma may´ scula), usar la letra griega u (pi may´ scula). uPodemos, en este caso, usar la primera o segunda notaci´ n dependendiendo de si nuestro oproducto es conmutativo o no.Elementos neutros ´ La suma de n´ meros naturales tiene un elemento especial y unico: el cero. Su propie­ udad definitoria es que cualquier n´ mero sumado con cero da el mismo n´ mero. La misma u upropiedad la tiene el uno con respecto al producto de n´ meros naturales. u Para una operaci´ n binaria denotada por ◦ y definida en el con­ ∀a ∈ A ojunto A se dice que e ∈ A es un elemento neutro si este cumple la a ◦ e = e ◦ a = apropiedad en el recuadro. Una operaci´ n binaria no puede tener m´ s de un elemento neutro. Efectivamente, sean o ae y e0 elementos neutros. Por ser e neutro, tenemos e ◦ e0 = e0 . Por ser e0 neutro, tenemose ◦ e0 = e. De estas dos igualdades obtenemos e = e0 .Ejercicio 7 ¿Cuales de las operaciones 1­9 tienen neutro? [125] Los elementos neutros juegan un papel importante en las notaciones para operacionesrepetidas. Supongamos que tenemos un producto asociativo y conmutativo. Sean adem´ s Na Q Q Q y M dos conjuntos finitos de ´ndices disjuntos. Naturalmen­ ı ai • ai = ai te, de la definici´ n se sigue la propiedad del recuadro a la o i∈N i∈M i∈N∪M izquierda. Pero ¿que pasa si alguno de los conjuntos de ´ndices (digamos M) es vac´o? Si queremos ı ıque esta propiedad se conserve entonces observamos que Y Y Y Y ai • ai = ai = ai i∈N i∈ i∈N∪ i∈N Qpor lo que necesariamente i∈ ai tiene que ser el elemento neutro de nuestra operaci´ n (si ono hay neutro entonces estamos en problemas).
    • Secci´ n 1.1 o Operaciones binarias 5 Es por esto, como el lector seguramente ya sabe, que la suma vac´a de n´ meros es igual ı ua cero y el producto vac´o de n´ meros es igual a uno. ı uElementos inversos u ´ Para cada n´ mero entero a hay un unico n´ mero −a tal que sumado con a da cero. Ge­ uneralizemos esta propiedad a operaciones binarias arbitrarias. Sea ◦ una operaci´ n binaria en o el conjunto A con elemento neutro. Se dice que a ∈ A tiene elemento a ◦ b = b ◦ a = e inverso b si se cumple la propiedad en el recuadro a la izquierda. ´ Para cualquier operaci´ n binaria asociativa el elemento inverso de otro es unico. Efecti­ ovamente si b y c son inversos de a entonces b = b◦e = b◦(a ◦ c) = (b ◦ a)◦c = e◦c = co sea que b y c tienen que ser el mismo.Ejercicio 8 Describa los inversos en las operaciones 1­9. [126]Distributividad Frecuentemente nos encontramos con conjuntos en los cuales hay m´ s de una operaci´ n a obinaria definida. El ejemplo m´ s sencillo son los naturales en los que sabemos sumar y sabe­ amos multiplicar. Estas dos operaciones est´ n relacionadas con la propiedad de que podemos asacar factor com´ n o sea ax + ay = a (x + y). u Sean ◦ y ¦ dos operaciones binarias definidas en el ∀a, b, c ∈ Aconjunto A. Se dice que la operaci´ n ¦ es distributiva a ¦ (b ◦ c) = (a ¦ b) ◦ (a ¦ c) orespecto a la operaci´ n ◦ si se cumple la propiedad en el (b ◦ c) ¦ a = (b ¦ a) ◦ (c ¦ a) orecuadro. Que ¦ sea distributiva respecto a ◦ no es lo mismo que ◦ sea distributiva respecto a ¦. Por ejemplo, en los naturales el producto es distributivo con respecto a la suma: a (b + c) = (ab) + (ac) y sin embargo, la suma de naturales no es distributivarespecto al producto: a + (bc) = (a + b) (a + c). 6Ejercicio 9 De un ejemplo de dos operaciones binarias tales que ambas son distributivasuna con respecto a la otra. [126] ´El algebra “abstracta” Filos´ ficamente, el concepto de “abstracci´ n” es la propiedad, que tiene el pensamiento o ohumano, de que podemos fijarnos solamente en ciertas propiedades “esenciales” de un objetoo fen´ meno, y olvidarnos de las restantes. o La abstracci´ n es imprescindible para el lenguaje. El concepto “silla” nos permite reco­ onocer una silla, independientemente si esta es de madera, de hierro, pl´ stica, grande, c´ moda, a o
    • 6 Cap´tulo 1. Campos ıcon tres, cuatro o cinco patas etc. Casi cada palabra del espa˜ ol (y de cualquier idioma) re­ npresenta un concepto abstracto, sea esta verbo, sustantivo o adjetivo. La ciencia lleva este nivel de abtracci´ n a un nivel a´ n mayor. Parte de este conoci­ o umiento cient´fico, pasa al conocimiento p´ blico. Baste recordar conceptos como: velocidad, ı uvolumen, higiene, ADN, penicilina, electr´ n, metal, colesterol, tri´ ngulo, etc. Algunos de los o amencionados, son muy antiguos, otros surgieron hace muy poco. Sin embargo, la mayor´a ıde estos conocimientos queda solamente en manos de los especialistas en la materia. Con las matem´ ticas pasa igual. No hace falta saber que la suma de naturales es una aoperaci´ n binaria conmutativa para saber que 2 + 3 = 3 + 2. Sin embargo, el concepto de o“operaci´ n” y que estas operaciones pueden cumplir o no ciertas propiedades es relativa­ omente “nuevo”. En la primera mitad del siglo XX, progresivamente, la comunidad matem´ tica se fu´ dan­ a edo cuenta de las ventajas del pensamiento algebraico en el lenguaje de operaciones abstrac­tas. Tanto fu´ el entusiasmo, que muchos, en un principio, le llamaron a esta forma de pensar e“Algebra moderna”. Otros a´ n m´ s entusiastas, m´ s fr´volos y con muchas ganas de vender u a a ısus libros le llamaron “Matem´ tica moderna”. En la actualidad este lenguaje es parte in­ atr´nseca e indivisible del pensamiento en matem´ ticas y cualquier calificaci´ n de “moderna” ı a osuena muy tonta. Otros, por otro lado, prefierieron referirse a esta forma de pensar como “Algebra abstrac­ o a u ´ta”. Esto, en mi opini´ n, aunque m´ s moderado, tampoco tiene ning´ n sentido. Toda algebraes abstracta, de hecho, todas las matem´ ticas son abstractas. Estoy convencido de que, el atiempo se encargar´ de acabar con todos estos calificativos. a ´ 1.2 Numeros En esta secci´ n repasaremos los principales tipos de n´ meros que el lector ya conoce: o unaturales, enteros, racionales, reales y complejos. Esto nos dar´ la posibilidad de introducir a ´las definiciones m´ s b´ sicas del algebra: grupos, anillos y campos. a aNaturalesab = a + {z + a = | + {z + b Hay una frase famosa que dice “Dios hizo los naturales | ... } b ... } y el hombre todo lo dem´ s”. El conjunto de los n´ meros a u b veces a veces naturales N = {0, 1, 2, ...} es el conjunto de los cardinalesde los conjuntos finitos. En N hay dos operaciones binarias bien definidas: la suma y elproducto. De hecho, el producto es una operaci´ n derivada de la suma y la suma solo se opuede definir en t´ rminos de conjuntos. Por ejemplo, a + b es el cardinal de la uni´ n de dos e oconjuntos finitos y disjuntos uno de cardinal a y otro de cardinal b. Como la uni´ n de conjuntos es asociativa tambi´ n lo es la suma de naturales. De la o edefinici´ n se obtiene que el producto de naturales tambi´ n es asociativo. Tanto la suma como o eel producto son conmutativos. La suma tiene elemento neutro 0 y el producto tiene elementoneutro 1. El producto es distributivo respecto a la suma.
    • Secci´ n 1.2 o N´ meros u 7Enteros Ning´ n elemento de N salvo el cero tiene inverso para ula suma. Para lograr la existencia de inversos inventamos los −b + a = c ⇔ a = b + cn´ meros negativos Z− = {−1, −2, −3, ...} y en el conjunto −b + (−a) = − (a + b) uZ = N ∪ Z− de los n´ meros enteros definimos la suma como ula operaci´ n conmutativa definida por las propiedades en el orecuadro a la derecha.Grupos Nuevamente la suma de enteros es asociativa con neutro cero pero ahora, cada elementotiene inverso. O sea los enteros dan el primer ejemplo G1) la operaci´ n es asociativa ode grupo. A un conjunto no vac´o con una operaci´ n bi­ G2) tiene elemento neutro ı onaria se le llama grupo si se cumplen los tres axiomas G3) todo elemento tiene inverso G1­G3. A los grupos cuya operaci´ n es o conmutativa se les llama abelianos en honor al matem´ tico noruego Niels a Henrik Abel (1802­1829). Abel fu´ el que resolvi´ el problema algebraico e o a ´ m´ s importante de su epoca. Demostr´ , que no existen f´ rmulas en radicales o o para resolver las ecuaciones polinomiales de grado 5 o mayor (a diferencia de las ecuaciones de grado ≤ 4 para las cuales si hay f´ rmulas generales). o Al momento de encontrar esta demostraci´ n, el problema ya duraba varios o siglos sin resolverse. Abel muri´ a los 26 a˜ os a causa de una neumon´a. o n ıAnillos La operaci´ n de producto de naturales se extiende f´ cilmente al o a a (−b) = − (ab)conjunto de los enteros mediante las reglas en el recuadro. Nuevamente (−a) b = − (ab)el producto es asociativo,conmutativo y distributivo con respecto a la (−a) (−b) = absuma. O sea los enteros tambi´ n dan el primer ejemplo de anillo. e Un conjunto A no vac´o con dos operaciones bi­ ı A1) (A, +) es un grupo abeliano narias + y • se le llama anillo si se cumplen los A2) • es asociativa axiomas en el recuadro a la izquierda. Si el anillo A3) • es distributiva con respecto a + es tal que la operaci´ n • es conmutativa entonces o A4) • tiene elemento neutro se dice que tenemos un anillo conmutativo. En un anillo al neutro para la suma se le llama cero y se denota por 0. Al neutro para elproducto se le llama uno y se denota por 1. Al inverso de un elemento con respecto a la sumade un elemento se le llama su opuesto. Al inverso con respecto al producto de un elementose le llama inverso multiplicativo o simplemente inverso a secas. Observemos que si a es un elemento de un anillo entonces a • 0 + a = a • (0 + 1) = ay debido a la unicidad del 0 obtenemos que a • 0 = 0. De la misma manera vemos que0 • a = 0. Si 1 = 0 entonces, a = 1 • a = 0 • a = 0 por lo que el anillo consta de unsolo elemento. Para descartar esta trivialidad supondremos siempre que 1 6= 0. De aqu´ se ıdesprende que 0 no puede tener inverso ya que 0 = a • 0 = 1 es una contradicci´ n.o
    • 8 Cap´tulo 1. Campos ı En cualquier anillo −a denota al opuesto de a y a−1 (si existe) denota al inverso de a.Como 1 × 1 = 1 tenemos 1−1 = 1. Tambi´ n (−1)−1 = −1 ya que si a = −1 entonces e0 = a (a + 1) = aa + a por lo que aa = −a o sea, (−1) (−1) = 1. Luego, en todo anillo1 y −1 tienen inversos. En Z ning´ n elemento salvo 1 y −1 tiene inverso. u Normalmente en la definici´ n de anillo no se pide el axioma A4. En este caso, a los anillos que o tienen elemento neutro para el producto se le llaman anillos unitarios. Un ejemplo de anillo no unitario es el conjunto de todos los enteros pares. Con el objetivo de simplificar, para nosotros todos los anillos son unitarios.Racionales Para lograr que cada elemento diferente de cero tenga inverso inventamos las fraccio­nes y con ellas el conjunto de n´ meros racionales Q. Una fracci´ n es un par ordenado de u o a c n´ meros enteros denotado por a/b donde b 6= 0. Dos fraccio­ u = ⇔ a • d = c • b nes son iguales cuando se cumple la igualdad en el recuadro. b d Los n´ meros racionales Q son las fracciones con la relaci´ n de u oigualdad as´ definida. Los enteros son parte de los racionales por cuanto podemos identificar ıcada n´ mero entero a ∈ Z con la fracci´ n a/1. u o La suma y el producto de n´ meros racionales se definen por ulas igualdades en el recuadro. Nuevamente los racionales con la a + c = a • d + c • bsuma forman un grupo abeliano y otra vez el producto es aso­ b d b•dciativo, conmutativo, tiene elemento neutro y es distributivo con a c a•c • =respecto a la suma. La diferencia es que ahora todo elemento di­ b d b • dferente de cero tiene inverso multiplicativo. O sea los racionalesnos dan el primer ejemplo de campo. Un conjunto K no vac´o con dos operaciones bi­ ı C1) (K, +) es un grupo abeliano narias + y • se le llama campo si se cumplen los C2) (K0, •) es un grupo abeliano tres axiomas C1­C3. En otras palabras un campo C3) • es distributiva con respecto a + es un anillo conmutativo en la cual todo elemento diferente de cero tiene inverso multiplicativo.Ejercicio 10 Si ◦ es una operaci´ n en A entonces, en A2 est´ definida la operaci´ n por o a ocoordenadas (x, y) ◦ (x0 , y0 ) = (x ◦ x0 , y ◦ y0 ). Pruebe que si (A, ◦) es un grupo entonces¡ 2 ¢ ¡ ¢ A , ◦ es un grupo, si (A, +, •) es un anilloentonces, A2 , +, • es tambi´ n un anillo. eEjercicio 11 Sea ¡(K, +, •)¢un campo. Como K es un anillo conmutativo entonces, por elejercicio anterior, K , +, • tambi´ n es un anillo conmutativo. ¿Ser´ K un campo? [126] 2 e 2 aReales
    • Secci´ n 1.2 o N´ meros u 9 Dicen que cuando Pit´ goras (Samos 569­475 A.C.) descubri´ que a ola longitud de la hipotenusa de un tri´ ngulo rect´ ngulo con cate­ a a tos de longitud uno no es un n´ mero racional u √ qued´ horrorizado. A nosotros nos parece esto o 2 una exageraci´ n. Sin embargo, si nos ponemos 1 o en el lugar de Pit´ goras comprenderemos que a 1 en aquel momento era inconcebible que existan n´ meros que no sean cociente de dos enteros. u √ p 2 6= La pintura a la izquierda es un detalle del fres­ q co de Rafael “La escuela de Atenas” en la cual supuestamente, se muestra a Pit´ goras. a √ Sigamos a Pit´ goras y probemos que efectivamente 2 no es un racional. Para esto a √denotemos por kak2 el n´ mero de veces que el natural a se divide entre 2. Tenemos 2 = ° ° ° ° upq ⇒ °2q2 °2 = °p2 °2 ⇒ 1 + 2 kqk2 = 2 kpk2 lo que es una contradicci´ n ya que un on´ mero impar no puede ser igual a uno par. u √Ejercicio 12 Sea n un n´ mero natural. Pruebe que n es un natural o no es racional. [126] u √Ejercicio 13 Basandose en el anterior de otra prueba de que 2 no es racional. [126] Esto motiva la construci´ n de los n´ meros reales R. La construci´ n de los reales es o u oun proceso complicado y se han descubierto muchas formas de formalizar esta construci´ n osiendo la m´ s popular la de las cortaduras de Dedekind. Para nuestros prop´ sitos basta una a odefinici´ n menos formal y m´ s intuitiva: un n´ mero real es simplemente un l´mite de ra­ o a u ıcionales. Las propiedades de la suma y producto de racionales se traspasan f´ cilmente a los areales usando las propiedades del l´mite de sucesiones. De esta manera obtenemos nuestro ıcampo principal (R, +, •) . El campo de los reales se destaca porque es ordenado (siemprepodemos decidir si un n´ mero real es mayor, menor o igual a cero) y porque es cerrado (el ul´mite de reales si existe es un real). Por otro lado, no es un factor a despreciar el hecho de ıque el espacio en que vivimos es (o al menos nos parece que es) R3 .Ejercicio 14 Pruebe que la longitud de un segmento de recta es un n´ mero real. [126] uComplejos En 1546 Gerolamo Cardano public´ su libro “Ars Magna” en el cual di´ m´ todos (basa­ o o edos en parte en el trabajo de otros matem´ ticos) para el calculo de las raices de los polinomios ade grado 3 y 4. Estos m´ todos, a veces requer´an el extraer raices cuadradas de n´ meros ne­ e ı ugativos, incluso cuando el resultado final era un n´ mero real. Rafael Bombelli estudi´ este u oasunto en detalle y es considerado como el descubridor de los n´ meros complejos. u
    • 10 Cap´tulo 1. Campos ı Para lograr que todos los polinomios tengan raices inven­ √tamos el imaginario i = −1 y definimos que un n´ mero (a + bi) + (a0 + b0 i) = ucomplejo es algo de la forma a + bi donde a, b ∈ R. La (a + a0 ) + (b + b0 ) isuma y el producto de complejos se definen por las f´ rmulas oen los recuadros a la derecha y abajo a la izquierda. Las propiedades de la suma y el producto se desprenden in­ (a + bi) × (a + b i) = 0 0 mediatamente de sus definiciones y es f´ cil comprobar que a (C, +, •) es un anillo conmutativo. Para ver que es un cam­ (aa0 − bb0 ) + (ab0 + a0 b) i ¡ ¢−1 po, observamos que (a + bi)−1 = a2 + b2 (a − bi).La principal propiedad que hace que para muchas cosas el campo C sea el m´ s simple es aque el (a diferencia de R) es algebraicamente cerrado, o sea que todo polinomio de gradon > 0 con coeficientes en complejos tiene n raices complejas. 1.3 Morfismos En esta secci´ n estudiaremos las funciones entre conjuntos con operaciones binarias. oMorfismos de grupos Sean ◦ y • operaciones binarias definidas en los conjuntos A y B respectivamente. Unafunci´ n f : A → B se le llama morfismo si para cualesquiera a1 y a2 elementos de A se ocumple que f (a1 ◦ a2 ) = f (a1 ) • f (a2 ). Todo morfismo conserva las propiedades fundamentales de las operaciones binarias. M´ s precisamente, si f : (A, ◦) → (B, •) es un morfismo entonces, a 1. • es una operaci´ n binaria dentro de la imagen de f. o 2. Si ◦ es conmutativa entonces • es conmutativa en la imagen de f. 3. Si ◦ es asociativa entonces • es asociativa en la imagen de f. 4. Si e es neutro de ◦ entonces f (e) es neutro de • en la imagen de f. 5. Si a0 es inverso de a en A entonces f (a0 ) es inverso de f (a) en B.Prueba. Sean b1 , b2 y b3 elementos cualesquiera en la imagen de f. Existen a1 , a2 y a3 enA tales que f (ai ) = bi para i ∈ {1, 2, 3}. Como f es un morfismo, obtenemos la igualdad b1 • b2 = f (a1 ) • f (a2 ) = f (a1 ◦ a2 ) (*)que prueba la primera afirmaci´ n. Si ◦ es conmutativa entonces, usando (*) obtenemos o b1 • b2 = f (a1 ◦ a2 ) = f (a2 ◦ a1 ) = b2 • b1por lo que • es tambi´ n conmutativa. Si ◦ es asociativa entonces, usando (*) obtenemos e (b1 • b2 ) • b3 = f (a1 ◦ a2 ) • f (a3 ) = f ((a1 ◦ a2 ) ◦ a3 ) = = f (a1 ◦ (a2 ◦ a3 )) = f (a1 ) • f (a2 ◦ a3 ) = b1 • (b2 • b3 )
    • Secci´ n 1.3 o Morfismos 11y por lo tanto • es asociativa en la imagen de f. Si e es neutro de la operaci´ n ◦ entonces, o b1 • f (e) = f (a1 ) • f (e) = f (a1 ◦ e) = f (a1 ) = b1 f (e) • b1 = f (e) • f (a1 ) = f (e ◦ a1 ) = f (a1 ) = b1por lo que f (e) es el neutro de • en la imagen de f. Sea a0 el inverso de a en A entonces, f (a) • f (a0 ) = f (a ◦ a0 ) = f (e) f (a0 ) • f (a) = f (a0 ◦ a) = f (e)de lo que concluimos que f (a0 ) es el inverso de f (a).Ejercicio 15 Justifique todas las igualdades utilizadas en la prueba de 1.1. ´ ¿Y porqu´ siempre dentro de la imagen de f y no en todo B? La respuesta es que lo unico eque sabemos de B est´ dado por el morfismo. Aquellos elementos de B que no tienen pre­ aimagen no los podemos enlazar con los de A y por lo tanto no podemos decir nada de ellos.De aqu´ en lo adelante a la imagen de cualquier funci´ n f (y en particular de un morfismo) ı ola denotaremos por Im f. Si (A, ◦) es un grupo entonces (Im f, •) es un grupo.Prueba. Por 1.1.1 • es una operaci´ n binaria en Im f. Por 1.1.3 esta operaci´ n es asociativa. o oPor 1.1.4 esta operaci´ n tiene elemento neutro. Por 1.1.5 cada elemento b = f (a) ∈ Im f otiene su inverso f (a0 ) donde a0 es el inverso de a en A. Esto completa la prueba de todos losaxiomas de grupo. Recordemos que si f : A → B es una funci´ n entonces al conjunto A se le llama dominio ode f y al conjunto B codominio de f. Si el dominio y el codominio de un morfismo son gruposentonces se dice que este es un morfismo de grupos.Ejercicio 16 Construya un morfismo inyectivo de (R, +) en (R, •). ¿Cual es su imagen?Morfismos de anillos ¿Y que pasa con la distributividad? ¿Tambi´ n se conserva? El primer problema que te­ enemos que resolver es que en la distributividad est´ n involucradas dos operaciones. Sean a(A, +, •) y (B, +, •) dos conjuntos cada uno con dos operaciones binarias. Observese queestas son cuatro operaciones distintas pero hemos usado estas notaciones porque el trabajarcon cuatro s´mbolos diferentes ya es demasiada confusi´ n. ı o Una funci´ n f : A → B se le llama morfismo si para cualesquiera a1 y a2 elementos de oA se cumple que f (a1 + a2 ) = f (a1 ) + f (a2 ) y f (a1 • a2 ) = f (a1 ) • f (a2 ). Recalquemosque el “y” quiere decir que se tienen que cumplir las dos propiedades. O sea, si hay dosoperaciones entonces, se requiere que la funci´ n sea morfismo para cada una de ellas. o
    • 12 Cap´tulo 1. Campos ı Si • es distributiva con + en A entonces, • es distributiva con + en la imagen de f.Prueba. Sean x, y, z ∈ A tales que f (x) = a, f (y) = b y f (z) = c. Tenemos a • (b + c) = f (x) • (f (y) + f (z)) = f (x) • f (y + z) = f (x • (y + z)) = = f (x • y + x • z) = f (x • y) + f (x • z) = f (x) • f (y) + f (x) • f (z) = a • b + a • cy esto prueba la tesis. Si el dominio y el codominio de un morfismo son anillos entonces se dice que este es unmorfismo de anillos. Si el dominio y el codominio de un morfismo son campos entonces sedice que este es un morfismo de campos.Ejercicio 17 Demuestre que si (A, +, •) es un anillo y f : A → B es un morfismo entonces,(Im f, +, •) es un anillo. Demuestre que lo mismo ocurre para los campos.Ejercicio 18 Pruebe que si f : A → B es un morfismo de anillos y A es un campo entoncesf es inyectivo. En particular todo morfismo de campos es inyectivo. [126]Isomorfismos A los morfismos biyectivos se les llama isomorfismos. Esto se aplica tanto para con­juntos con una como tambi´ n con dos operaciones binarias. As´ que tenemos isomorfismos e ıde grupos, de anillos y de campos. Para cada isomorfismo f existe una funci´ n inversa f−1 . o¿Cuando ser´ f un morfismo? La respuesta es que siempre. a −1 La inversa de un isomorfismo es un isomorfismo.Prueba. Sea f : (A, ◦) → (B, •) un isomorfismo. Sean b1 , b2 cualesquiera elementos de B.Denotemos a1 = f−1 (b1 ) y a2 = f−1 (b2 ). Tenemos f−1 (b1 • b2 ) = f−1 (f (a1 ) • f (a2 )) = f−1 (f (a1 ◦ a2 )) = a1 ◦ a2 = f−1 (b1 ) ◦ f−1 (b2 )que es lo que se requer´a demostrar. Si el isomorfismo involucra dos operaciones binarias ıentonces el mismo argumento aplicado a las dos operaciones, nos da la prueba de la tesis. Ahora podemos aplicar 1.1 en los dos sentidos. Si f : (A, ◦) → (B, •) es un isomorfismoentonces de que • es conmutativa implica que ◦ es conmutativa y en conclusi´ n ◦ es conmu­ otativa si y solo si • es conmutativa. Lo mismo ocurre con la asociatividad, con la existenciade neutros e inversos y para el caso de dos operaciones con la distributividad. O sea que ◦tiene ex´ ctamente las mismas propiedades de •. a Pero no solo son operaciones parecidas sino que son en cierto sentido la misma. Paraconvencernos de esto supongamos que conocemos la operaci´ n ◦ y conocemos el isomorfis­ o
    • Secci´ n 1.3 o Morfismos 13mo f pero no sabemos nada de la operaci´ n •. ¿Podremos calcular b1 • b2 ? La respuesta es o ¡ ¢si, lo podemos calcular por la identidad b1 • b2 = f f−1 (b1 ) ◦ f−1 (b2 ) . Rec´procamen­ ı ´te, ◦ se define de forma unica por la operaci´ n • y el isomorfismo f mediante la identidad oa1 • a2 = f (f (a1 ) ◦ f (a2 )). En conclusion ambas operaciones se definen una a otra. −1 Para que el lector comprenda mejor eso de que ◦ y• son la misma operaci´ n veamos un ejemplo. Sea A el o ◦ u v • 1 −1conjunto de letras {u, v} y B el conjunto de los n´ meros u u u v 1 1 −1{1, −1}. Definamos las operaciones ◦ y • mediante las v v u −1 −1 1tablas del recuadro a la derecha. El lector debe observar que la segunda tabla es la tabla usual de multiplicaci´ n de enteros. o ´Adem´ s, para obtener la segunda tabla de la primera lo unico que necesitamos es cambiar ◦ apor • , u por 1 y v por −1. Esto lo que quiere decir, es que la funci´ n u 7→ 1 , v 7→ −1 es oun isomorfismo de (A, ◦) en (B, •). El lector puede ver que ambas tablas son en esencia lamisma, solamente que las notaciones para los elementos y la operaci´ n est´ n cambiadas. o a Si para dos grupos (o anillos o campos) existe un isomorfismo entre ellos entonces sedice que ellos son isomorfos. Etimol´ gicamente, la palabra “isomorfo” significa que “tie­ onen la misma forma”. En forma intuitiva, que ellos sean isomorfos quiere decir que los dosson iguales con la salvedad de que podemos cambiar las notaciones de los elementos y lasoperaciones. Ciertos tipos de morfismos tienen nombres especiales. A los morfismos sobreyectivos seles llama epimorfismos, a los injectivos se les llama monomorfismos. A los morfismos deun conjunto en si mismo se les llama endomorfismos y a los endomorfismos biyectivos seles llama automorfismos. En otras ramas de las matem´ ticas tambi´ n se definen morfismos e isomorfismos. Sin embargo no a e siempre es suficiente la biyectividad para definir los isomorfismos. Por ejemplo, en topolog´a los ı morfismos son las funciones continuas. Pero la inversa de una biyecci´ n continua no siempre es ocontinua. Por esto, un isomorfismo de espacios topol´ gicos hay que definirlo como una biyecci´ n continua o ocuya inversa es continua.Composici´ n de morfismos o Sean A, B y C tres conjuntos y f : A → B , g : B → C dos funciones. A la funci´ n og ◦ f : A → C definida por (g ◦ f) (a) = g (f (a)) se le llama la composici´ n de f con g. A opartir de ahora el s´mbolo ◦ solo lo utilizaremos para denotar la composici´ n de funciones. ı oObservese el orden en que escribimos las funciones ya que la composici´ n de funciones no oes conmutativa. La composici´ n de funciones es asociativa. oPrueba. Sean f : A → B , g : B → C y h : C → D tres funciones. Por definici´ n de ocomposici´ n para cualquier a ∈ A tenemos o (h ◦ (g ◦ f)) (a) = h ((g ◦ f) (a)) = h (g (f (a))) = (h ◦ g) (f (a)) = ((h ◦ g) ◦ f) (a)
    • 14 Cap´tulo 1. Campos ıque es lo que se quer´a probar ı Ahora, supongamos que en A, B y C hay definidas operaciones binarias. Entonces f, g yg ◦ f pueden ser morfismos o no. Sin embargo, si f y g lo son entonces f ◦ g tambi´ n lo es. e Las composici´ nes de morfismos son morfismos. oPrueba. Denotemos las operaciones en A, B y C con el mismo s´mbolo •. Como f y g ıson morfismos tenemos (g ◦ f) (a • b) = g (f (a • b)) = g (f (a) • f (b)) = g (f (a)) •g (f (b)) = (g ◦ f) (a) • (g ◦ f) (b) que es lo que se necesitaba probar.Ejercicio 19 Pruebe que el conjunto de todos los automorfismos de un conjunto con una odos operaciones binarias es un grupo con respecto a la composici´ n de funciones. o 1.4 Campos de restos Hasta ahora los campos que conocemos son Q, R y C que se supone que ya son muyconocidos por el lector. Es imprescindible, para dar una intuici´ n saludable de lo que es un ocampo, introducir otros que no sean tan usuales. En esta secci´ n presentaremos ciertos cam­ opos que tienen un n´ mero finito de elementos. Para construirlos, usaremos las propiedades ude los morfismos de la secci´ n anterior. oEl anillo de los enteros m´ dulo n o Sea n un n´ mero natural mayor que 1. Para un entero a la a ¢ b = (a + b) mod n unotaci´ n a mod n significa el resto de la divisi´ n de a entre n. a ¡ b = (ab) mod n o oO sea, el menor natural k tal que existe un entero t para loscuales a = k + tn. Por definici´ n a mod n ∈ Zn = {0, 1, ..., n − 1} por lo que en Zn hay onaturalmente definidas dos operaci´ nes binarias como se muestra en el recuadro. oEjercicio 20 Construya las tablas de sumar y multiplicar en Z2 , Z3 y Z4 . (Zn , ¢, ¡) es un anillo conmutativo.Prueba. Probemos que la funci´ n f : (Z, +, •) → (Zn , ¢, ¡) dada por f (a) = a mod n es oun morfismo de anillos. Observemos que por definici´ n a¢b = f (a + b) y a¡b = f (ab) . o Para cualesquiera x, y ∈ Z por definici´ n de f existen enteros p, q tales que x = f (x) + oqn, y = f (y) + pn y por lo tanto f (x) = f (y) si y solo si x − y es multiplo de n.
    • Secci´ n 1.4 o Campos de restos 15 Tenemos que f (x) + f (y) = x + y − (q + p) n y por lo tanto (f (x) + f (y)) − (x + y)es m´ ltiplo de n. Luego, f (x + y) = f (f (x) + f (y)) o lo que es lo mismo, f (x + y) = uf (x) ¢ f (y) y esto prueba que f es morfismo para la suma. Por otro lado f (x) f (y) = (x − qn) (y − pn) = xy + (nqp − yq − xp) n y por lotanto (f (x) f (y)) − (xy) es m´ ltiplo de n. Luego, f (xy) = f (f (x) f (y)) o lo que es lo umismo, f (xy) = f (x) ¡ f (y) y esto prueba que f es morfismo para el producto. Como f es sobre, (Z, +, •) es anillo conmutativo y los morfismos preservan las propie­dades de las operaciones, concluimos que (Zn , ¢, ¡) es tambi´ n un anillo conmutativo. e Hemos denotado la suma y el producto en Zn con los s´mbolos extra˜ os ¢ y ı n ¡. El objetivo de esto fu´ el asegurarnos que en la demostraci´ n del resultado e o anterior el lector no se confundiera con la suma y el producto habitual de n´ me­ uros enteros. De ahora en lo adelante no haremos m´ s esto. La suma en Zn se denotar´ con el a as´mbolo + y el producto, con la ausencia de s´mbolo alguno, o a lo m´ s, con un punto. Para ı ı apoder hacer esto es necesario que el lector comprenda (muchas veces solo del contexto) enque sentido estamos utilizando estas notaciones. As´ por ejemplo, 2 + 3 = 5 si la suma es la ıhabitual de enteros o es la de Z11 pero 2 + 3 = 1 si la suma es la de Z4 .Dominios de integridad Despu´ s de saber que (Zn , +, ·) es un anillo conmutativo, lo natural es preguntarnos si e ´este es un campo, ya que lo unico que le falta a un anillo conmutativo para ser campo, es laexistencia de inversos para el producto. Veamos por ejemplo el caso de Z6 . Aqu´ tenemos ı2·3 = 0. Que raro, el producto de dos n´ meros diferentes de cero es igual a cero. ¿Es posible ueso en un campo? Veremos que no. Un anillo conmutativo se le llama dominio de integridad si el producto elementos dis­tintos de cero es siempre diferente de cero. Sabemos que Z, Q, R y C son dominios deintegridad. Tambi´ n, ya vimos que Z6 no es dominio de integridad. e Todo campo es un dominio de integridad.Prueba. Supongamos pq = 0 y p 6= 0 entonces multiplicando la primera igualdad por elinverso multiplicativo de p obtenemos 0 = p−1 0 = p−1 pq = q. Luego, q = 0. Luego, Z6 no es un campo. Este ejemplo se generaliza f´ cilmente. Sea n = pq una adescomposici´ n en factores no triviales (ambos diferentes a 1) de n. Sabemos que p y q oest´ n en Zn y que pq = n = 0 mod n. Luego, si n es un n´ mero compuesto (no primo) a uentonces, Zn no es un dominio de integridad y por lo tanto no es un campo.El campo de los enteros m´ dulo p o Y ¿que pasa cuando p es primo?
    • 16 Cap´tulo 1. Campos ı Zp es un dominio de integridad.Prueba. Sean x, y ∈ {1, . . . , p − 1} . Si xy = 0 en Zp entonces xy = 0 mod p. Luego, en Ztenemos que xy = kp. Como p es primo entonces, p divide a x o y pero esto no puede serya que ambos son menores que p. Este resultado no es suficiente para probar que Zp es un campo ya que hay dominios deintegridad que no son campos (por ejemplo Z). Nos hace falta el siguiente resultado. Todo dominio de integridad finito es un campo.Prueba. Sea A un dominio de integridad finito. Para ver que A es un campo solo hay quedemostrar que todo elemento no nulo tiene inverso. Sea a un elemento arbitrario no nulo deA. Denotemos por fa la funci´ n A 3 x 7→ ax ∈ A. Esta funci´ n es inyectiva ya que o o (ax = ay) ⇒ (a (x − y) = 0) ⇒ (x − y = 0) ⇒ x = yComo fa es una funci´ n inyectiva de un conjunto finito en si mismo es tambi´ n sobreyectiva. o eLuego tiene que existir b tal que fa (b) = ab = 1. Como el producto es conmutativo, estodemuestra que a tiene inverso. Como Zp es finito, concluimos inmediatamente que Zp es un campo si y solo si p es un n´ mero primo. Los campos Zp son los primeros ejemplos de u campos que tienen un n´ mero finito de elementos. A los campos finitos se u les lama campos de Galois en honor al matem´ tico franc´ s Evariste Galois a e (1811­1832). Al resolver el problema de encontrar cuales ecuaciones poli­ nomiales son solubles en radicales y cuales no, Galois de facto invent´ la o Teor´a de Grupos. Galois muri´ a los 20 a˜ os en un duelo provocado por ı o nasuntos amorosos y/o pol´ticos. El apellido Galois se pronuncia en espa˜ ol como “galu´ ” ı n aEjercicio 21 Halle los inversos de los elementos no nulos de Z5 . [126]Ejercicio 22 Demuestre que todo subgrupo finito con q elementos del grupo multiplicativode un campo es isomorfo a (Zq , +) . En particular, (Zp 0, •) es isomorfo a (Zp−1 , +). [127]Ejercicio 23 Demuestre que Z2 con las operaciones (a, b) + (a0 , b0 ) = (a + a0 , b + b0 ) y 11(a, b) (a0 , b0 ) = (aa0 + 7bb0 , ab0 + a0 b) es un campo de 121 elementos. [128] 1.5 Campos primos. Caracter´stica ı Sea K un campo. Un subcampo de K es sencillamente un subconjunto de K que escampo para las mismas operaciones. Si L es un subcampo de K entonces ∀a, b ∈ L ∀c ∈L{0} se tienen que cumplir las siguientes propiedades
    • Secci´ n 1.5 o Campos primos. Caracter´stica ı 17 1. a + b ∈ L, −a ∈ L, (L es un subgrupo aditivo) 2. ab ∈ L, c−1 ∈ L, (L{0} es un subgrupo multiplicativo) Rec´procamente, si se cumplen las propiedades 1 y 2 entonces, las operaciones de suma, ıopuesto, producto e inverso est´ n correctamente definidas dentro de L y el tiene que contener aa 0 y a 1. Como los axiomas de campo se cumplen dentro de todo K, con m´ s raz´ n se a ocumplen dentro de L. Esto indica que para comprobar si L es un subcampo basta comprobarlas propiedades 1 y 2. El ejemplo m´ s sencillo de esto es Q, que es subcampo R, que a su avez es subcampo de C. El concepto de subcampo incluye las operaciones. Si por un lado podemos consi­ derar a Zp = {0, 1, ..., p − 1} como subconjunto de Q, por el otro, Zp NO es un subcampo de Q (ya que por ejemplo 2 (p − 1) = p − 2 en Zp lo que no es cierto en Q). De la misma manera, ning´ n Zp es subcampo de Zq para p 6= q. uCampos primos Todo campo es subcampo de si mismo. A los campos que no tienen ning´ n subcampo udistinto de si mismo se les llama campos primos. Los campos primos son los m´ s sencillos ay deduciremos cuales todos ellos. Todo campo K contiene un unico subcampo primo ´ que est´ contenido en cualquier subcampo de K. aPrueba. La intersecci´ n de una colecci´ n arbitraria de subcampos de K es un subcampo. o oPara ver esto observamos que si a y b pertenecen a todos los subcampos de la colecci´ n oentonces a + b tambi´ n. Por lo tanto, a + b est´ en la intersecci´ n de ellos. Lo mismo e a oocurre para el producto, para los neutros y los inversos. En particular, si nos fijamos en laintersecci´ n de todos los subcampos de K, vemos que esta es un subcampo que no contiene osubcampos y que est´ contenida en cualquier subcampo de K. a El campo Q de los n´ meros racionales es primo. uPrueba. Sea K un subcampo de Q. Tenemos 1 ∈ K y por lo tanto todas las sumas 1 + ... + 1y sus opuestos aditivos tienen que estar en K. Luego, todos los enteros est´ n en K. Tambi´ n a elos inversos multiplicativos de los n´ meros enteros y sus productos tienen que estar todos en uK. Luego, todos los racionales est´ n en K. a Los campos Zp de los restos m´ dulo un n´ mero primo son campos primos. o uPrueba. Sea K un subcampo de Zp . Tenemos 1 ∈ K y por lo tanto todas las sumas 1+...+1
    • 18 Cap´tulo 1. Campos ıest´ n en K. Como cualquier elemento de Zp es suma de unos obtenemos que Zp ⊆ K. a Teorema de Clasificaci´ n de Campos Primos o Los campos Zp y el campo Q son los unicos campos primos. ´ n veces z }| {Prueba. Sea un K campo primo. Para un n´ mero natural n denotemos por n = 1 + ... + 1 udonde 1 es el neutro multiplicativo de K. Observese que 0 = 0. Obviamente, n es un ele­mento del campo. Denotemos por P = {n ∈ K | n ∈ N} . Hay dos posibilidades excluyentes 1. La aplicaci´ n n 7→ n es una biyecci´ n de en N en P. o o 2. Existen dos naturales distintos n y m tales que n = m. En el primer caso K contiene a los naturales. Como K es un campo tambi´ n tiene que econtener a los opuestos de los naturales, o sea a los enteros. Por la misma raz´ n, K tiene oque contener a los inversos de los enteros con lo que se prueba que los racionales son unsubcampo de K. Como K es primo obtenemos que K = Q. En el segundo caso, sea p el natural m´ s peque˜ o para el cual existe n < p tal que n = p. a nTenemos n = p ⇒ p − n = p − n = 0. Si n > 0 entonces, p − n < p y adem´ s p − n = 0 alo que contradice la minimalidad de p. Luego, n = 0 y por lo tanto p = 0. Sea ahora x > p. Como sabemos dividir los enteros con resto entonces, existen naturalesa, k tales que x = a + kp y a < p. De aqu´ ı kp veces k veces z }| { z }| { x = a + kp = a + kp = a + 1 + ·{z· + 1 + · · · + 1 + ·{z· + 1 = a + 0 + · · · + 0 = a | · } | · } p veces p veceslo que muestra que P es el anillo Zp de los restos m´ dulo p. Si p no es primo entonces, en oZp ⊆ K hay dos elementos a, b no cero tales que ab = 0. Como en un campo esto no esposible entonces, deducimos que p es primo. Luego, Zp es un subcampo de K. Como K esprimo obtenemos que K = Zp .Caracter´stica ı Por el teorema anterior cualquier campo o contiene a Q o contiene a Zp . Se dice que uncampo es de caracter´stica 0 si este contiene a Q. Se dice que un campo es de caracter´stica ı ıp si este contiene a Zp . La caracter´stica de un campo es un n´ mero primo o es cero. La ı upropiedad fundamental de la caracter´stica de un campo es la siguiente: ı Si K es un campo de caracter´stica t ı entonces, ta = 0 para cualquier a ∈ K.Prueba. Si t = 0 la afirmaci´ n es trivial. Si t es primo entonces, el campo contiene a Zt y o t veces z }| { tx = x + ... + x = 1x + ... + 1x = (t1) x
    • Secci´ n 1.6 o Aritm´ tica de campos e 19Como 1 ∈ Zt entonces tambi´ n t1 ∈ Zt . En Zt se tiene que t1 = 0. Luego tx = 0x = 0. eEjercicio 24 ¿Contradice o no 1.15 que todo campo es un dominio de integridad? [128]Ejercicio 25 ¿Es cierto o no que en todo campo (a = −a) ⇒ (a = 0)? [128] 1.6 Aritm´ tica de campos e Los campos se comportan en la mayor´a de las cosas importantes como los n´ meros ı ureales. Por m´ s que tratemos construir un campo raro pero muy raro (lo que es posible) no alograremos que se dejen de cumplir todas las propiedades de la aritm´ tica las cuales nos eson familiares desde temprana edad. Pasemos a describir en toda su generalidad algunasconsecuencias simples y otras un poco m´ s complicadas de los axiomas de campo lo que nos aconvencer´ de lo afirmado. a ´Multiplos y exponentes enteros En todo campo para cualquier n´ mero entero n y cualquier elemento del campo a se uusan las siguientes notaciones ⎧ n veces ⎧ n veces ⎪ z }| { ⎨ a + a + ... + a si n > 0 ⎪ z }| { ⎨ aa...a si n > 0 n na = si n = 0 a = si n = 0 ⎪ ⎩ 0 ⎪ 1 ⎩ (−n) (−a) si n < 0 1 a− n si n < 0y se cumplen las propriedades usuales: (n + m) a = na + ma y an+m = an am .Asociatividad general Recordemos nuevamente el uso del s´mbolo de sumatoria Σ. Si A es un conjunto ıXn finito de elementos del campo entonces podemos escribir la expresi´ n en el re­ o ai cuadro a la izquierda para expresar que queremos sumar todos los elementos del i=1 conjunto A = {a1 , ..., an }. o o ´ La asociatividad de la operaci´ n de suma nos dice que esta expresi´ n tiene sentido unicoya que no es necesario explicitar las sumas hay que realizar primero y cuales despu´ s. e En realidad incluso esta notaci´ n es redundante, m´ s consisa es esta otra nota­ X o aci´ n en el recuadro a la derecha que podemos usar gracias a la conmutatividad de o ala suma. O sea no importa si en la suma a1 est´ delante de a2 o al rev´ z. Solo es a∈A a enecesario especificar cual es el conjunto A de elementos que se est´ n sumando. a Como tenemos que el producto de elementos de un campo es tambi´ n e Yn Y asociativo y conmutativo podemos usar las expresiones equivalentes de ai = a la izquierda para denotar el producto de todos los elementos del conjunto i=1 a∈A A = {a1 , ..., an } .
    • 20 Cap´tulo 1. Campos ıDistributividad general Mucho m´ s dif´cil es dar una forma general de la ley distributiva. Usando las leyes de a ılos campos obtenemos (a + b) (c + d) = a (c + d) + à !à !b (c + d) = ac + ad + bc + bd y el lector podr´ con­ a X X XXvencerse f´ cilmente haciendo el c´ lculo para conjuntos a a a b = abpeque˜ os A y B que en general se cumple la f´ rmula n o a∈A b∈B a∈A b∈Bde la derecha. M´ s general, para muchos factores tenemos a à !à ! à ! X X X XX X a b ··· c = ... ab · · · c a∈A b∈B c∈C a∈A b∈B c∈CA esta igualdad la llamaremos forma general de la ley distributiva y tendremos muchasocaciones en que la usaremos.F´ rmula multinomial o Aplicando la forma general de la ley distributiva al caso en que todos los conjuntos seaniguales obtenemos la siguiente f´ rmula: o à !n X X X a = ... a1 · · · an (*) a∈A a 1 ∈A a n ∈A Esta f´ rmula aunque relativamente sencilla tiene un gran defecto. Por ejemplo, el pro­ oducto aabacccbba que pudiera aparecer como sumando a la derecha de la igualdad tiene(gracias a la asociatividad y conmutatividad del producto) una manera mucho m´ s sencilla ade expresarse como a b c . Para arreglar este defecto, d´ mosle nombres a los elementos de 4 3 3 eA y pongamos A = {x1 , ..., xm }. Ahora si n1 , ..., nm son naturales entonces, un monomio Pxn1 · · · xnm aparece como sumando a la derecha en la f´ rmula (*) si y solo si Pni = n (ya 1 m oque los sumandos en (*) son productos de n elementos de A). Supongamos que ni = n. Sitodos los ni son uno o cero entonces en (*) hay n! sumandos iguales al monomio xn 1 · · · xnm 1 m(ya que podemos ordenarlos de ese n´ mero de maneras). Si digamos n7 es mayor que 1 en­ utonces tenemos que dividir por n7 ! ya que al permutar x7 ...x7 no obtenemos nuevos suman­dos en (*). Lo mismo sucede con los otros ni . Como por definici´ n 0! = 1! = 1, finalmente oobtenemos la siguiente expresi´ n conocida como f´ rmula multinomial. o o à m !n X X n! xi = xn 1 · · · xnm m i=1 n1 !...nm ! 1donde la suma a la derecha de la igualdad recorre todas las soluciones en n´ meros naturales P ude la ecuaci´ n o ni = n. En el caso particular m = 2, haciendo el cambio de variablen1 = k obtenemos
    • Secci´ n 1.6 o Aritm´ tica de campos e 21 n X n! n 1 n 2 X n n! (x + y) = x y = xk yn−k n 1 +n 2 =n n1 !n2 ! k=0 k! (n − k) !que es la famosa f´ rmula del binomio de Newton. o Si bien las f´ rmulas que hemos demostrado parecen ser complicadas o los argumentos que llevan a ellas son muy sencillos. Es importante ´ que el estudiante que desee estudiar el algebra lineal a profundidad se familiarize bien con estos argumentos ya que las formas multili­ neales y en particular los determinantes son muy parecidos a la parte derecha de la igualdad (*). Sir Isaac Newton (Inglaterra 1643­1727). Probablemente el cien­ t´fico m´ s renombrado de todos los tiempos. Fundador de la mec´ ni­ ı a a ´ ca, la optica y el c´ lculo diferencial. Sus tres leyes de la mec´ nica a a fundaron la base de la ingenier´a que llev´ a la revoluci´ n industrial. ı o oEjercicio 26 Sea K un campo de caracter´stica p > 0. Demuestre que la funci´ n K 3 ı ox 7→ xp ∈ K es un morfismo de campos. Demuestre que si K es un campo finito entoncesesta funci´ n es un automorfismo de K. A este automorfismo se le llama automorfismo de oFrobenius. [128]La expansi´ n de ΠΣαij o Ahora deduciremos otra consecuencia de la forma general de la ley distri­ Y Xbutiva que usaremos mucho m´ s adelante. Supongamos que N es un conjunto a αijfinito de ´ndices y que para cada pareja de ´ndices (i, j) tenemos un elemento i∈N j∈N ı ıdel campo K que denotaremos por αij . Nuestro objetivo es usar la ley distri­butiva para expresar el elemento del campo del recuadro a la derecha como una suma deproductos. Para esto lo m´ s c´ modo es pensar que el conjunto N es {1, . . . , n} y expresar la forma a ogeneral de la ley distributiva en nuestro caso de la siguiente manera à ! à ! X X X X XY α1j1 · · · αnjn = ... α1j1 · · · α1jn = αiji j1 ∈N jn ∈N j1 ∈N jn ∈N i∈Ndonde la suma m´ s a la derecha en esta igualdad recorre todos los elementos (j1 , . . . , jn ) adel producto cartesiano N × · · · × N de n copias de N o sea, Nn . Otra manera de pensara (j1 , . . . , jn ) es que tenemos una funci´ n f : N = {1, . . . , n} 3 i 7→ ji = f (i) ∈ N y en onuestra suma tenemos que recorrer todas estas posibles funciones o sea, el conjunto NN detodas las funciones de N en N. Luego, en estas notaciones finalmente obtenemos
    • 22 Cap´tulo 1. Campos ı YX XY αij = αif(i) i∈N j∈N f∈N N i∈Nque es una f´ rmula que ya no depende de cual es el conjunto N. o Debemos recalcar una vez m´ s que todo lo dicho en esta secci´ n es v´ lido para cual­ a o aquier campo, sea este R, C, Q, Zp o cualquier otro campo que a´ n no conoscamos. Esta es ula ventaja intr´nseca de la abstracci´ n. No tenemos que demostrar el teorema de Pit´ goras ı o apara tri´ ngulos de acero, madera, etc. Estas propiedades no tienen nada que ver con que el acuadrado de la hipotenusa sea igual a la suma de los cuadrados de los catetos. De la mismamanera el binomio de Newton no tiene nada que ver con que si los n´ meros son reales o ucomplejos u otros. Solo basta que nuestros n´ meros formen un campo. u Un lector atento, podr´a observar que en las pruebas de todas las f´ rmulas en ning´ n momento usa­ ı o u mos la existencia de inversos en el campo. Luego, estas son v´ lidas en cualquier anillo conmutativo. a A diferencia de las matem´ ticas elementales en matem´ ticas superiores, por aritm´ tica se entiende a a eel estudio de las propiedades de divisibilidad en anillos. En este sentido, la aritm´ tica de campos es trivial ya eque todo elemento se divide entre cualquier otro no nulo. 1.7 Anillos con divisi´ n o Si en los axiomas de campo eliminamos la condici´ n de que el producto es conmutativo oobtenemos el concepto de anillo con divisi´ n (tambi´ n se le llama cuerpo). o e O sea, un anillo con divisi´ n es un conjunto D o AD1) (D, +) es un grupo abeliano con una suma y un producto tal que se cumplen AD2) (D0, •) es un grupo los axiomas del recuadro a la izquierda. En par­ AD3) • es distributivo con respecto a + ticular, todo campo es anillo con divisi´ n. oEjercicio 27 Pruebe que si (D, +, •) es tal que (D, +) es un grupo, (D {0} , •) es un grupoy el producto es distributivo respecto a la suma entonces, la suma es conmutativa. En otraspalabras en los axiomas de anillo con divisi´ n la conmutatividad de la suma es consecuencia odel resto de los axiomas. [128]Quaterniones No es muy f´ cil construir anillos con divisi´ n que no sean campos. Para esto, supon­ a ogamos que en lugar de un solo n´ mero imaginario i tenemos tres diferentes imaginarios i, uj y k que cumplen que i2 = j2 = k2 = −1. Un quaterni´ n es un n´ mero de la forma o ua + bi + cj + dk donde a, b, c, d son n´ meros reales. El lector debe observar la analog´a u ıcon los n´ meros complejos. Podemos sumar quaterniones por coordenadas u
    • Secci´ n 1.7 o Anillos con divisi´ n o 23 (a + bi + cj + dk) + (a0 + b0 i + c0 j + d0 k) = ((a + a0 ) + (b + b0 ) i + (c + c0 ) j + (d + d0 ) k)y es f´ cil comprobar que el conjunto de todos los quaterniones H es un grupo abeliano arespecto a la suma. Para poder mutiplicar quaterniones postulamos que si a es un real y x es un imaginarioentonces ax = xa. Tambi´ n postulamos que si x y y son dos imaginarios distintos entonces exy = −yx. Esto nos dice que nuestra multiplicaci´ n de quaterniones no es conmutativa. o Ahora, si a+bi+cj+dk y a0 +b0 i+c0 j+d0 k son dos quaterniones arbitrarios entonces losmultiplicamos como si fueran polinomios en las variables no conmutativas i, j, k y usandolos postulados obtenemos que su producto es igual a aa0 − bb0 − cc0 − dd0 + + (ab + ba ) i + (ac0 + ca0 ) j + (da0 + ad0 ) k+ 0 0 + (bc0 − cb0 ) ij + (cd0 − dc0 ) jk + (db0 − bd0 ) ki. Para poder concluir la definici´ n de la multiplicaci´ n o o a00 = aa0 − bb0 − cc0 − dd0de quaterniones postulamos que ij = k, jk = i y ki = j. b00 = ab0 + ba0 + cd0 − dc0As´ definitivamente, obtenemos que el producto de nues­ ı c00 = ac0 + ca0 + db0 − bd0tros quaterniones es (a00 + b00 i + c00 j + d00 k) donde los co­ d00 = da0 + ad0 + bc0 − cb0eficientes a00 , b00 , c00 y d00 son los definidos en el recuadroa la derecha. O sea, el producto de quaterniones es un quaternion. No es dif´cil (pero si ımuy laborioso) probar directamente de la definici´ n que este producto es asociativo tiene oelemento neutro 1 = 1 + 0i + 0j + 0k y que es distributivo respecto a la suma. Para comprobar la existencia de inversos multiplicativos definimos para un quaternion no o ˉnulo x = a + bi + cj + dk su quaterni´ n conjugado x = a − bi − cj − dk. De la definici´ n o x ˉde producto de quaterniones tenemos que xˉ = xx = a + b + c + d es un n´ mero real 2 2 2 2 uque tiene inverso multiplicativo. De esto se deduce que x (xˉ )−1 es el inverso multiplicativo ˉ xde x. En resumen, el conjunto de los quaterniones H son un anillo con divisi´ n pero no son oun campo. Los quaterniones fueron descubiertos en 1843 por el f´sico, ma­ ı tem´ tico y astr´ nomo irland´ s Sir William Rowan Hamilton (1805 a o e – 1865). De aqu´ la notaci´ n H para denotar el anillo de qua­ ı o terniones. Los quaterniones jugaron un papel fundamental en la matem´ tica y la f´sica del siglo XIX. Por ejemplo, James Clerk a ı Maxwell us´ los quaterniones para desarrollar sus equaciones del o electromagnetismo. En la actualidad son importantes por ejemplo, para las aplicaciones en las cuales se requiere describir en forma eficiente rotaciones espaciales (rob´ tica, control de naves espacia­ o les, gr´ ficos por computadoras, etc.). a
    • 24 Cap´tulo 1. Campos ıEjercicio 28 Muestre que la tabla de multiplicar de los imaginarios i, j, k es consecuenciade las igualdades de Hamilton i2 = j2 = k2 = ijk = −1. [129]Ejercicio 29 Muestre que los quaterniones que son raices cuadradas de −1 forman natural­mente una esfera en R3 . M´ s precisamente (a + bi + cj + dk)2 = −1 si y solo si se cumple aque b + c + d = 1. [129] 2 2 2Ejercicio 30 Constraste ?? con el hecho de que hay un infinito n´ mero de quaterniones que uson raices de −1 (ejercicio 29). ¿Que falla en la prueba de ?? para el caso de los quaternio­nes? [129]Caso finito Los quaterniones son un anillo con divisi´ n infinito y es natural preguntarse si se pueden oconstruir anillos con divisi´ n finitos que no sean campos. El siguiente teorema responde esta opregunta en forma negativa. Teorema de Wedderburn Todo anillo con divisi´ n finito es un campo. o La prueba de este teorema involucra un an´ lisis del grupo multiplicativo del anillo y usa at´ cnicas de teor´a de grupos que se salen fuera de los objetivos de este libro. e ı
    • Capítulo segundo Espacios Vectoriales ´ ste es el objeto central del algebra lineal. Motivaremos la introducci´ n de este concep­ o to en el ejemplo geom´ trico del plano cartesiano. Daremos las definici´ n de espacio e o vectorial complementandola con los ejemplos m´ s fundamentales. Profundizaremos aen la estructura de estos estudiando sus subespacios, sus bases, su dimensi´ n etc. lo que nos ollevar´ a entender todos los espacios vectoriales (al menos los de dimensi´ n finita). Finaliza­ a oremos este cap´tulo con el estudio de las operaciones entre subespacios y subespacios afines ılo que nos llevar´ a entender los espacios cocientes. a 2.1 El plano cartesiano u ´ Hubo alg´ n tiempo, en que el algebra y la geometr´a eran dos cosas to­ ı talmente aparte. Los algebristas trabajaban con n´ meros, polinomios, u raices, f´ rmulas, etc. y los ge´ metras con puntos, lineas, pol´gonos, o o ı etc. Ren´ Descartes (Francia 1596­1650) fu´ el que tuvo la brillante e e idea de introducir los ejes de coordenadas. Tomamos dos rectas per­ pendiculares, a la horizontal se le llama “eje y de las equis” y a la vertical se le llama “eje de las yes”. Para cada punto del plano p tra­ p pyzamos la perpendicular al eje x y al eje y y de esta manera obte­nemos los puntos px en el eje x y py en el eje y. Por cuanto, el ejede las x lo podemos identificar (escogiendo una unidad de medida)con R donde el cero es el origen de coordenadas (la intersecci´ n ode los dos ejes) por tanto, px es simplemente un n´ mero real. De la u px xmisma manera py es otro n´ mero real. As´, a cada punto del plano u ıp se le hace corresponder biun´vocamente una pareja de n´ meros ı ureales (px , py ). Adem´ s, es conveniente representar cada punto del plano como el segmento adirigido desde el origen de coordenadas hasta el punto o sea como vectores. A los elementosde R (para diferenciarlos de los vectores) los llamaremos escalares.
    • 26 Cap´tulo 2. Espacios vectoriales ı Desde ahora denotaremos los vectores por letras latinas en negritas. A diferen­ cia de estos, los escalares se denotar´ n por letras latinas y griegas normales. a y a + b Si a = (ax , ay ) y b = (bx , by ) son dos vectores la suma de los mismos a se define como a + b = (ax + bx , ay + by ) . La suma, geom´ tricamen­ e te no es nada m´ s que la diagonal del paralelogramo generado por a y a b . Del hecho que (R, +) es un grupo abeliano se desprende f´ cilmente a b que nuestro plano cartesiano R2 es tambi´ n un grupo con respecto a la e x suma de vectores. Si a = (ax , ay ) es un vector y α un escalar el producto αa se define y 2acomo (αax , αay ) . Geom´ tricamente este producto es aumentar (o reducir) een un factor α el vector a. Si el factor es negativo entonces el resultado aapunta en la direcci´ n opuesta. Si el factor es cero entonces el vector se odegenera al origen de coordenadas. x El producto por escalares es distributivo con respecto a la sumaα (a + b) = αa+αb de vectores y tambi´ n con respecto a la suma de escalares o sea e(α + β) a =αa+βa se cumplen las igualdades en el recuadro. Estas dos leyes distri­ butivas (¡son diferentes!) se cumplen porque son ciertas en cadacoordenada. Adem´ s, obviamente tenemos que α (βa) = (αβ) a. Todo esto nos dice que el aplano cartesiano es nuestro primer ejemplo de espacio vectorial sobre los reales.Ejercicio 31 Demuestre geom´ tricamente que la diagonal del paralelogramo generado por ea y b tiene coordenadas (ax + bx , ay + by ). [129]Ejercicio 32 ¿Es la multiplicaci´ n de un escalar por un vector una operaci´ n binaria? [129] o oEjercicio 33 ¿Cuantas diferentes operaciones hay en α (βa) y (αβ) a? [129]Ejercicio 34 ¿Que es la resta de dos vectores? ¿Cual es su interpretaci´ n geom´ trica? o e 2.2 Definici´ n y ejemplos o
    • Secci´ n 2.2 o Definici´ n y ejemplos o 27 La primera definici´ n de espacio vectorial la dio Giuseppe Peano (Italia, o 1858 ­1932), en su libro “C´ lculo Geom´ trico” publicado en 1888. Pea­ a e no es m´ s conocido por su axiom´ tica de los n´ meros naturales, o por la a a u “Curva de Peano” que es una inmersi´ n continua sobreyectiva del inter­ o valo en el cuadrado. Sea K un campo cuyos elementos los llamaremos escalares y (E, +) un grupo abeliano cuyos elementos los llamaremos vectores. Diremos que es un espacio vectorial sobre Ksi est´ definida una operaci´ n de producto de escalares E1) α (a + b) = αa + αb a opor vectores K×E → E que cumple las propiedades E1­ (α + β) a =αa+βaE3. A los axiomas E1 y E2 se les llama distributividad E2) α (βa) = (αβ) ay asociatividad respectivamente del producto por escala­ E3) 1a = ares. El 1 que aparece en el axioma E3 es el 1 del campo. Como (E, +) es un grupo abeliano entonces, tiene que tener un vector neutro que deno­taremos por 0. El opuesto del vector a se denota por −a. Por otro lado el campo de escalarestiene un neutro para la suma: el 0, un neutro para el producto: el 1, opuestos para la suma −αe inversos multiplicativos α−1 . Las relaciones que cumplen estos con respecto al productopor escalares nos las da el siguiente resultado b´ sico. a En todo espacio vectorial para cualquier vector a y cualquier escalar α se cumple que 0a = 0, (−1) a = −a y α0 = 0.Prueba. La demostraci´ n se realiza mediante las siguentes tres cadenas de igualdades o E3 E1 0a = 0a + 1a − a = (0 + 1) a − a = a − a = 0 E3 E1 (−1) a = (−1) a + 1a − a = (−1 + 1) a − a = 0a − a = −a E3 E1 ¡ ¢ ¡ ¢ E2 E3 α0 = α0 + 1 · 0 = α 0 + α−1 0 = α α−1 0 = 1 · 0 = 0donde signos “=” est´ n marcados con los axiomas por los que son v´ lidos. a aEjercicio 35 Demuestre que αa = 0 ⇒ α = 0 o a = 0. [129]Ejercicio 36 ¿Cual es el m´nimo n´ mero de elementos que puede tener un espacio vecto­ ı urial? [129] Veamos ahora algunos ejemplos de espacios vectoriales. Es muy importante que el lectorno se pierda en la cantidad de “ejemplos” que sigue. La mayor´a de ellos son fundamentales ıpara entender este libro. En particular, introduciremos notaciones b´ sicas que ser´ n usadas a aconstantemente.El espacio de n­adas Kn
    • 28 Cap´tulo 2. Espacios vectoriales ı Consideremos el producto cartesiano de n copias del Kn = {(a , a , ..., a ) | a ∈ K} 1 2 n icampo K. Este producto se denota por Kn y est´ forma­ado por todas las n­adas (a1 , a2 , ..., an ). Al escalar ai se le llama la i­´ sima coordenada de ela n­ada (a1 , a2 , ..., an ). Luego, una n­ada tiene n coordenadas. Los vectores ser´ n las n­adas, los escalares ser´ n los elementos a a (a1 , ..., an ) de K. En Kn se introduce f´ cilmente la suma por coordenadas co­ a + (b1 , ..., bn ) mo se muestra en el recuadro a la izquierda. Del hecho de que las (a1 + b1 , ..., an + bn ) propiedades necesarias se cumplen en cada coordenada se des­ prende que (Kn , +) es un grupo abeliano. La multiplicaci´ n por escalares tambi´ n se introduce por coor­ o edenadas. El axioma E1 se reduce en cada coordenada a la distribu­ (a1 , ..., an )tividad del producto respecto a la suma en el campo K. El axioma × αE2 a la asociatividad del producto en K. Finalmente, el axioma E3 (αa1 , αa2 , ..., αan )se reduce en cada coordenada a que 1 es el neutro para el productoen el campo K. De esta manera obtenemos que Kn es un espacio vectorial sobre K.El espacio de polinomios K [x] Podemos sumar polinomios, esta suma se hace coefi­ ± n ²ciente por coeficiente. Tambi´ n sabemos multiplicar un e X ai ∈ Kelemento de K por un polinomio. Es muy conocido que K [x] = ai xi | n∈Ntodos los axiomas de espacio vectorial se cumplen. En i=0cierto sentido este espacio vectorial es parecido al anterior. Podemos asociar a cada polino­ Pmio n ai xi la (n + 1)­ada (a0 , a1 , , ..., an ) y la multiplicaci´ n por escalar es la misma i=0 oque en K . Para la suma podemos tener un problema si son de grados diferentes pero esto n+1 Pse resuelve agregando suficientes ceros o sea si m bi xi es otro polinomio con n > m i=0entonces podemos asociarle la n­ada (b0 , b1 , ..., bn , 0, ..., 0) con suficientes ceros para com­pletar las n coordenadas y entonces la suma es la misma que en Kn+1 . Aunque sepamosmultiplicar polinomios, esto no tiene ning´ n papel en el concepto de espacio vectorial. uEl espacio de sucesiones K Dos sucesiones se suman por coordenadas como se muestra (a1 , a2 , ..., an , ...) en el recuadro. La mutiplicaci´ n un escalar es tambi´ n por o e + (b1 , b2 , ..., bn , ...) coordenadas. Los axiomas de espacio vectorial se comprue­ ban f´ cilmente. El lector debe observar que los elementos(a1 + b1 , , ..., an + bn , ....) a de la sucesi´ n pueden estar en un campo arbitrario y no ne­ ocesariamente en R como estamos acostumbrados. La noci´ n de convergencia de sucesiones ono tiene nada que ver con el concepto de espacio vectorial.El espacio de series K [[x]]
    • Secci´ n 2.2 o Definici´ n y ejemplos o 29 Las series se suman coeficiente por coeficiente. Para ±∞ ²multiplicar por un escalar se multiplican todos los coefi­ Xcientes por el escalar. Los axiomas de espacio vectorial K [[x]] = ai xi | ai ∈ Kse cumplen porque se cumplen para cada coeficiente. De i=0 Phecho, este ejemplo es el mismo que el del espacio de sucesiones. Cada serie ∞ ai xi se i=0determina un´vocamente por la sucesi´ n (a0 , a2 , ..., an , ...) de sus coeficientes y no hay di­ ı oferencia entre sumar series y sumar las correspondientes sucesiones. Lo mismo pasa con lamultiplicaci´ n por un escalar. Al igual que con los polinomios, el concepto de producto de oseries no juega ning´ n papel en el hecho de que K [[x]] sea un espacio vectorial. uEl espacio de funciones KN Hay una biyecci´ n natural entre las n­adas (a1 , a2 , ..., an ) ∈ Kn y las funciones {1, ..., n} 3 oi 7→ ai ∈ K. Igualmente las sucesiones (a0 , a1 , ..., an , ...) se corresponden biun´vocamen­ ıte con las funciones N 3 i 7→ ai ∈ K. Ahora, generalicemos estos ejemplos. Si N es unconjunto arbitrario (no necesitamos de operaci´ n alguna en N) entonces el conjunto de to­ odas las funciones de N en K se denota por KN . Dadas dos funciones f, g ∈ KA la sumade ellas se define como es habitual por (f + g) (i) = f (i) + g (i) para cualquier i ∈ N. Elproducto por un escalar se define por (λf) (i) = λf (i). Los axiomas de espacio vectorial secomprueban f´ cilmente. Por ejemplo, la suma de funciones es conmutativa porque para cada ai en N se cumple que f (i) +g (i) = g (i) +f (i) gracias a la conmutatividad de la suma en elcampo. Como hemos visto, el espacio Kn y el espacio de sucesiones son un caso particularde este ejemplo cuando N es {1, ..., n} y N respectivamente. Adem´ s, ya observamos que aK [[x]] = K . NEl espacio de N­adas KN En lo adelante una funci´ n en KN se denotar´ por αN . M´ s precisamente, αN o a a es la funci´ n que a cada i ∈ N le hace corresponder el escalar αi . Por ejemplo, o si N = {1, . . . , n}, entonces αN = (α1 , . . . , αn ). La bondad de esta notaci´ n oes que podemos pensar los elementos de K (funciones) como si fueran n­adas. Para poder Nseguir pensando en αN como si fuera en una n­ada necesitamos las palabras adecuadas. Alos elementos αN de KN los llamaremos N­adas. Al conjunto N lo llamaremos conjuntode ´ndices de αN y a los elementos de N los llamaremos ´ndices. Si i es un ´ndice, entonces ı ı ıdiremos que αi es la i­´ sima coordenada de αN . En estas notaciones la suma de dos N­adas ees por coordenadas. O sea, la i­´ sima coordenada de αN + βN es αi + βi . El producto por eescalares tambi´ n es por coordenadas. O sea, la i­´ sima coordenada de λαN es λαi . e e Si el conjunto N es finito y tiene n elementos entonces, la diferencia fundamental entreuna N­ada y una n­ada es que las coordenadas de la N­ada no necesariamente est´ n or­adenadas. Por ejemplo, si el conjunto N es un conjunto de tres vectores entonces, estos notienen un orden natural. Para poder identificar una N­ada de estos con una 3­ada, necesita­mos definir artificialmente cual es el primer vector cual es el segundo y cual es el tercero.
    • 30 Cap´tulo 2. Espacios vectoriales ıSin embargo, si al lector le cuesta trabajo pensar en las N­adas cuando N es un conjunto, lesugiero olvidarse de que N es un conjunto y pensar que N es un n´ mero natural. uEl espacio de N­adas con soporte finito K{N} Sea αN ∈ KN una N­ada. El soporte αN es por definici´ n el conjunto de ´ndices i tales o ıque αi 6= 0. Si el conjunto de ´ndices N es finito entonces, cualquier N­ada tiene soporte ıfinito (porque un subconjunto de un conjunto finito es finito). Sin embargo, si el conjunto de´ndices es infinito entonces habr´ N­adas con soporte infinito.ı a Si sumamos dos N­adas de soporte finito el resultado ser´ una N­ada de soporte finito a(porque 0 + 0 = 0). Si multiplicamos una N­ada de soporte finito por un elemento delcampo el resultado ser´ una N­ada de soporte finito (porque λ0 = 0). Los axiomas de aespacio vectorial se cumplen porque ya sabemos que se cumplen para cualesquiera N­adas.Al espacio de N­adas con soporte finito se le denota por K{N} . Como ejemplo de espacio de N­adas de soporte finito veamos el siguiente. Cada polino­ Pmio n ai xi determina un´vocamente una N­ada a donde ai = 0 si i > n. Esta N­ada i=0 ıes de soporte finito. Rec´procamente, si a es una N­ada de soporte finito entonces, nece­ ısariamente, hay un natural n tal P ai = 0 para cualquier i > n. As´, le podemos hacer que ı ncorresponder a a el polinomio i=0 ai x . Esta correspondencia es biun´voca y las opera­ i ıciones son las mismas en ambos espacios. Esto nos muestra que, el espacio de polinomioses el espacio de N­adas con soporte finito. En otras palabras K{} = K [x]. Un caso importante es cuando N es finito y en este caso K{N} = KN . O sea, cada N­adaes de soporte finito. En particular, si N = {1, . . . , n} entonces K{N} = KN = Kn .Subcampos Sea L un subcampo de K. Podemos sumar los elementos de K y al multiplicar un ele­mento de L por uno de K obtenemos un elemento de K. Esto significa que tenemos unaoperaci´ n binaria en K (la suma) y una multiplicaci´ n por escalares L × K → K. En este o ocaso, los axiomas de espacio vectorial se desprenden directamente de las definiciones decampo y subcampo y obtenemos que K es un espacio vectorial sobre L. Un caso muy par­ticular es que todo campo es espacio vectorial sobre si mismo. Otro ejemplo importante esque R es subcampo de C. Como cada complejo se puede escribir como una pareja (a, b)con coordenadas en R y la suma de complejos y el producto por un real son las mismasoperaciones que en R2 tenemos que C como espacio vectorial sobre R es lo mismo que R2 .Otro ejemplo m´ s es que R es un espacio vectorial sobre Q. Este caso es suficientemente a ´complicado para que no digamos nada sobre el.El espacio de N­adas de vectores EN Ahora, nos debemos preguntar, cual es el m´nimo de condiciones que le debemos pedir ıa las coordenadas de una N­ada, para poder definir un espacio vectorial. Ya vimos que, silas coordenadas est´ n en un campo entonces, obtenemos un espacio vectorial. Pero esto es apedir mucho. En realidad, solo necesitamos saber sumar las coordenadas y multiplicar cada
    • Secci´ n 2.2 o Definici´ n y ejemplos o 31coordenada por un escalar, o sea, necesitamos que las coordenadas sean vectores. M´ s precisamente. Sea E un espacio vectorial sobre el campo K. Denotaremos por EN ael conjunto de todas las N­adas de E. Si aN y bN son dos elementos de EN entonces, lai­´ sima coordenada de aN + bN es ai + bi . Esto lo podemos hacer porque sabemos sumar elos elementos de E. Ahora, si λ es un elemento de K entonces, la i­´ sima coordenada de eλaN es λai . Esto lo podemos hacer porque sabemos multiplicar los escalares en K por losvectores en E. Los axiomas de espacio vectorial se demuestran f´ cilmente debido a que se acumplen en cada coordenada.El espacio de NM­matrices KNM Un caso particular de N­adas de vectores es cuando estos vectores son M­adas de esca­ ¡ ¢Nlares. Este espacio es KM . Para aclarar un poco que sucede en este caso, supongamos ¡ ¢Nque N = {1, 2} y que M = {1, 2, 3}. Entonces, un elemento del espacio KM es una 2­ada(a1 , a2 ) de vectores y cada uno de ellos es una 3­ada de escalares. Los dos vectores los po­ a1 = (α11 , α12 , α13 ) demos representar como en el recuadro a µ α ¶ 11 α12 α13 a2 = (α21 , α22 , α23 ) la izquierda y para simplificar nos queda­ α21 α22 α23 mos con la tabla que vemos a la derecha. Esta tabla es un elemento del espacio de (N × M)­adas KN×M , o sea, los ´ndices son ı ¡ M ¢Nparejas en el producto cartesiano N × M. Esto nos permite identificar K con KN×My como las operaciones en ambos espacios son las mismas estos espacios son en esencia elmismo. Cambiando el orden en que ponemos los indices obtenemos las igualdades ¡ M ¢N ¡ ¢M K = KN×M = KM×N = KNque el lector debe comparar con (ax )y = axy = ayx = (ay )x para n´ meros naturales a, x, y. u Desde ahora, para simplificar la notaci´ n, a una (N × M)­ada cualquiera la llamaremos oNM­ada. Tambi´ n, en lugar de usar la notaci´ n α(N×M) para denotar una NM­ada concreto, e ousaremos la notaci´ n αNM . A una coordenada de esta NM­ada la denotaremos αij en lugar ode usar la m´ s complicada α(i,j) . En esta notaci´ n, es m´ s c´ modo pensar que hay dos con­ a o a ojuntos de ´ndices (N y M) en lugar de uno solo (N × M). O sea, una NM­ada es un conjunto ıde elementos del campo indexado por dos conjuntos de ´ndices. Cuando N = {1, . . . , n} ıy M = {1, . . . , m} entonces obtenemos una matriz con n renglones y m columnas. En elejemplo anterior obtuvimos una matriz con 2 renglones y 3 columnas. Para conjuntos N y M arbitrarios (por ejemplo, conjuntos de jerogl´ficos chinos), la ıdiferencia es que no hay un orden preestablecido entre los elementos de los conjuntos de´ndices por lo que no sabr´amos cual columna o rengl´ n poner primero y cual despu´ s. Comoı ı o eesta diferencia no es tan importante y para no formar confusi´ n en la terminolog´a desde o ıahora, a las NM­adas los llamaremos NM­matrices. Escribiremos K NM para denotar elespacio vectorial de todas las NM­matrices. Como ya sabemos, en este espacio las matricesse suman por coordenadas y se multiplican por escalares tambi´ n por coordenadas. e Sea αNM una NM­matriz. Es costumbre llamarle a las coordenadas αij de αNM entra­das de la matriz. Si i ∈ N entonces la M­ada αiM ∈ KM es el i­´ simo rengl´ n de la matriz e o
    • 32 Cap´tulo 2. Espacios vectoriales ıαNM . Si j ∈ M entonces la N­ada αNj ∈ KN es la j­´ sima columna. Al conjunto N se ele llama conjunto de ´ndices de los renglones. An´ logamente, al conjunto M se le llama ı aconjunto de ´ndices de las columnas. ı Si N0 , M0 son subconjuntos no vac´os de N y M respectivamente entonces a la matriz ıαN 0 M 0 se le llama submatriz de αNM . Si |N0 | = |M0 | = 1 entonces la submatriz es unaentrada. Un rengl´ n es una submatriz donde |N0 | = 1 y M0 = M o sea una submatriz del otipo αiM . Una columna es una submatriz donde |M0 | = 1 y N = N0 o sea una submatriz ´del tipo αNj . Una ultima observaci´ n acerca de las matrices, es que toda esta terminolog´a o ıde “columnas” y “renglones” viene de la manera usual en forma de tabla en que escribimosuna matriz concreta.El espacio de tensores Bueno, ¿y si tenemos m´ s de dos conjuntos de ´ndices? Pues es lo mismo. Una NML­ada a ıes una (N × M × L)­ada. Al igual que en las matrices denotaremos por αNML a una NML­ada con tres conjuntos de ´ndices o sea un tensor de exponente 3. Las matrices son tensores ıde exponente 2 y las N­adas son tensores de exponente 1. Los tensores de exponente 0 sonlos elementos del campo. Si bien podemos pensar un tensor de exponente 1, co­mo una serie de elementos del campo uno al lado de otroy pensar los de exponente 2, como una tabla rectangular deelementos del campo, tambi´ n podemos pensar los tensores ede exponente 3, como un conjunto de elementos del campodispuestos en un arreglo que llenan un cubo en el espacio.Para cada i ∈ N tenemos que αiML es un tensor de exponen­te 2 o sea una matriz. Todo αNML nos lo podemos imaginarcomo muchas matrices puestas una encima de la otra. Sin embargo cuando el exponente del tensor es grande ya nuestra imaginaci´ n no da opara visualizar geom´ tricamente un arreglo de los elementos del campo dispuestos en un e a ´cubo de dimensi´ n grande. Es mucho m´ s util el manejo algebraico de estos, que tratar ode visualizarlos. En este contexto, la terminolog´a de “renglones” y “columnas” se hace ıinutilizable. Como es l´ gico, los tensores con conjuntos de ´ndices fijos forman un espacio o ıvectorial. La suma se hace por coordenadas y tambi´ n la multiplicaci´ n por un escalar. e o 2.3 Subespacios Sea E un espacio vectorial sobre K. Un subespacio es un conjunto no vac´o de vectores ıque es un espacio vectorial para las mismas operaciones.
    • Secci´ n 2.3 o Subespacios 33 Un conjunto de vectores F no vac´o es un subespacio si y solo si para ı cualesquiera a, b ∈ F y λ ∈ K los vectores a + b y λa est´ n en F. aPrueba. Si F es un subespacio de E entonces, por definici´ n a + b y λa est´ n en F. o aRec´procamente, sea F un conjunto de vectores de E que cumple las hip´ tesis. Como la ı osuma de vectores es asociativa y conmutativa en E, tambi´ n lo es en F. Sea a ∈ F (existe por eser F no vac´o). Tenemos 0a = 0 ∈ F. Adem´ s ∀b ∈ F (−1) b = −b ∈ F. Con esto se ı acomprueba que (F, +) es grupo abeliano. Los axiomas de espacio vectorial se cumplen en Fpor ser este un subconjunto de E.Uni´ n e intersecci´ n de subespacios o o ¿Ser´ n la intersecci´ n (y la uni´ n) de subespacios un subespacio? La uni´ n de subespa­ a o o ocios no es un subespacio. Un ejemplo de esto son el eje x y el eje y en el plano cartesiano(veremos prontamente que son subespacios) sin embargo, la uni´ n de los mismos no es un osubespacio ya que por ejemplo (0, 1) + (1, 0) = (1, 1) que no pertenece a la uni´ n de los dos oejes. Por el contrario, la intersecci´ n de subespacios si es un subespacio. o La intersecci´ n de un conjunto de subespacios es un subespacio. oPrueba. La intersecci´ n de subespacios nunca es vac´a porque cada subespacio contiene al o ı0. Si a y b son dos vectores en cada uno de los subespacios de un conjunto entonces, a + btambi´ n est´ en cada uno de los subespacios del conjunto. Lo mismo sucede para αa. e aCombinaciones lineales Veamos unos ejemplos importantes de subespacios. Sea a un vectorno nulo en R2 . El conjunto hai = {αa | α ∈ R} de todos los m´ ltiplos del u avector a es un subespacio de R2 ya que αa + βa = (α + β) a, y α (βa) =(αβ) a. Geom´ tricamente, teniendo en cuenta la identificaci´ n de vectores e ocon los puntos del plano cartesiano, podemos ver que los vectores en este haiespacio son los puntos de la recta por el origen que pasa por a. Sean ahora a y b dos vectores en R3 no colineales o sea a 6= βb. Consideremos elconjunto de vectores {αa + βb | α, β ∈ R}. Este conjunto de vectores se denota por ha, biy es un subespacio ya que αa+βb+α0 a+β0 b = (α + α0 ) a+(β + β0 ) by λ (αa + βb) =λαa+λβb. Geom´ tricamente, vemos que este conjunto contiene a la recta hai que pasa por ea y a la l´nea hbi que pasa por b. ı
    • 34 Cap´tulo 2. Espacios vectoriales ı En R3 hay un solo plano que contiene estas dos rectas. ¿Ser´ es­ a te plano el subespacio ha, bi? Pues, claro que si. Para cada a punto p de este plano dibujemos la paralela a la l´nea hai que ı p pasa por p obteniendo un punto de intersecci´ n con la recta o b hbi el cual es βb para alg´ n β ∈ R. An´ logamente, dibujan­ u a ha, bi do la paralela a hbi obtenemos el punto αa en la recta hai y vemos que p = αa + βb. Luego, p ∈ ha, bi. Estos ejemplos nos motivan a la siguiente definici´ n. Sea N un conjunto de X ovectores. Una combinaci´ n lineal de N es cualquier vector de la forma que se o αi imuestra en el recuadro a la derecha. A los escalares αi se les llama coeficientes i∈Nde la combinaci´ n lineal. o Es posible que no se entienda esta notaci´ n. El conjunto de ´ndices es el conjunto de o ıvectores N por lo que en la suma hay tantos sumandos como vectores hay en N. As´ por ıejemplo si N = {a, b, c, d} entonces una combinaci´ n lineal de N es un vector de la forma P oαa+βb + γc+δd. En otras palabras, la notaci´ n i∈N αi i debe interpretarse as´: “t´ mese o ı olos vectores de N, cada uno de ellos multipl´quese por un escalar y s´ mese los resultados”. ı u Todo esto est´ muy bien si el conjunto N es finito. Si N es infinito tenemos un problema. a¿Que es una suma infinita de vectores? La manera de evitar este problema es que le pedire­mos a los coeficientes αi que todos salvo un n´ mero finito sean cero o sea, que la N­ada αN ucuyas coordenadas son los coeficientes de la combinaci´ n lineal es de soporte finito. Como opodemos despreciar los sumandos iguales a cero, tenemos que una combinaci´ n lineal es osiempre una suma de un n´ mero finito de vectores. u El conjunto de todas las combinaciones lineales de N es un subespacio. P PPrueba. Sean i∈N αi i y i∈N βi i dos combinaciones lineales de N entonces, de la aso­ciatividad y conmutatividad de la suma de vectores y de la distributividad del producto porescalares obtenemos: X X X αi i+ βi i = (αi + βi ) i i∈N i∈N i∈Nque es una combinaci´ n lineal de N yaP todos¢los (αi + βi ) salvo un n´ mero finito tienen o ¡ que P uque ser cero. Lo mismo ocurre con γ i∈N αi i = i∈N γαi i.Cerradura lineal Denotaremos por hNi al conjunto de todas las combinaciones lineales de N. Si F es un subespacio que contiene a N entonces, F contiene a hNi.Prueba. Si F contiene a N entonces, F contiene a todos los m´ ltiplos de los vectores en N uy a todas sus sumas finitas. Luego, cualquier combinaci´ n lineal de N est´ en F. o a
    • Secci´ n 2.3 o Subespacios 35 Los siguientes tres conjuntos de vectores coinciden 1. El conjunto de todas las combinaciones lineales de N. 2. La intersecci´ n de todos los subespacios que contienen a N. o 3. El subespacio m´ s peque˜ o que contiene a N. a nPrueba. Denotemos por F1 , F2 y F3 a los tres conjuntos del enunciado de la proposici´ n. Por odefinici´ n F1 = hNi. Por la proposici´ n 2.3 el conjunto F2 es un subespacio que contiene a o oN y de 2.5 obtenemos que F1 ⊆ F2 . Por definici´ n de intersecci´ n tenemos que F2 ⊆ F3 . o oPor definici´ n, F3 est´ contenido en cualquier subespacio que contiene a N y en particular o aF3 ⊆ F1 . La prueba termina usando la transitividad de la inclusi´ n de conjuntos. o A cualquiera de los tres conjuntos (¡son iguales!) de la proposici´ n anterior se le denota opor hNi y se le llama cerradura lineal de N o tambi´ n el subespacio generado por N. e Propiedades de la cerradura lineal La cerradura lineal cumple las siguientes propiedades: ¨ N ⊆ hNi (incremento), ¨ N ⊆ M ⇒ hNi ⊆ hMi (monoton´a), ı ¨ hhNii = hNi (idempotencia).Prueba. El incremento es inmediato de 2.6.3. Supongamos ahora que N ⊆ M. Cualquiercombinaci´ n lineal de N es tambi´ n combinaci´ n lineal de M (haciendo cero todos los o e ocoeficientes de los vectores en MN). Finalmente, por 2.6.3 hhNii es el subespacio m´ s apeque˜ o que contiene a hNi. Como hNi es un subespacio entonces, hhNii = hNi. n En matem´ ticas las palabras “clausura”, “cerradura” y “envoltura” son sin´ nimos. Por a o ´esto con el mismo exito, otros autores le llaman “clausura lineal” o “envoltura lineal” anuestro concepto de cerradura lineal. Adem´ s, es bueno que el lector encuentre el parecido aentre el concepto de cerradura lineal y el concepto de “cerradura” en an´ lisis (la intersecci´ n a ode todos los cerrados que contienen a un conjunto). En general una funci´ n que a un conjunto N le hace corresponder otro conjunto hNi y que cumple o las propiedades 1­3 se le llama operador de cerradura (clausura, envoltura). En este caso a los conjuntos tales que N = hNi se le llaman cerrados. Que se cumplan las propiedades 1­3 es, engeneral, equivalente a que el operador de cerradura se defina como la intersecci´ n de todos los cerrados que ocontienen al conjunto. En todas las ramas de las matem´ ticas se encuentran operadores de cerradura. aEjercicio 37 Demuestre que N es un subespacio si y solo si N = hNi.Ejercicio 38 Demuestre que (x ∈ hN ∪ yi hNi) ⇒ (y ∈ hN ∪ xi). [129]
    • 36 Cap´tulo 2. Espacios vectoriales ı 2.4 Bases X Observemos que la definici´ n de combinaci´ n lineal de N de­ o oK{N} 3 αN 7→ αi i ∈ E termina la funci´ n fN del recuadro a la izquierda que a ca­ o i∈NP da N­ada de soporte finito αN le hace corresponder el vector i∈N αi i. Esta funci´ n no tiene porque que ser sobreyectiva ni inyectiva, depende del con­ ojunto de vectores N. Por ejemplo, sea N = {x, y, z} donde x = (0, 0, 1), y = (0, 1, 0) yz = (0, 1, 1) son tres vectores en R3 . En este caso fN (2, 2, 0) = fN (0, 0, 2) = (0, 2, 2) porlo que fN no es inyectiva. Tampoco es sobreyectiva porque (1, 0, 0) no tiene preimagen. En esta secci´ n estableceremos que en todo espacio vectorial existen conjuntos N para olos cuales la funci´ n fN es biyectiva. Este hecho es fundamental, porque en este caso existe la ofunci´ n inversa f−1 : E → K{N} que nos permitir´ introducir coordenadas en cualquier espa­ o N acio vectorial. Es m´ s, veremos que los conjuntos de vectores para los cuales fN es biyectiva atienen la misma cantidad de vectores. Esto quiere decir que cada vector de E se define porun cierto n´ mero de elementos del campo (coordenadas) y que este n´ mero es independiente u udel vector a definir. Solo depende del espacio. As´, en R nos hacen falta siempre dos reales ı 2para dar un vector y en R7 nos hacen falta siete.Conjuntos generadores Primero, lo m´ s f´ cil. La imagen de la funci´ n fN es hNi , la cerradura de N. Diremos a a oque N es un conjunto generador si hNi es todo el espacio o sea, si fN es sobreyectiva. Los generadores son un filtro Todo sobreconjunto de un conjunto generador es generador.Prueba. Supongamos M ⊇ N. Por monoton´a de la cerradura lineal tenemos hNi ⊆ hMi. ıSi hNi es todo el espacio entonces, necesariamente hMi tambi´ n lo es. eConjuntos linealmente independientes Ahora, veamos cuando fN es inyectiva. Observese que en un lenguaje m´ s descriptivo, aun fN es inyectiva si y solo si se cumple la propiedad 3 del siguiente resultado.
    • Secci´ n 2.4 o Bases 37 Teorema de Caracterizaci´ n de Conjuntos Linealmente Independientes o Sea N un conjunto de vectores. Las siguientes afirmaciones son equivalentes 1. Cualquier subconjunto propio de N genera un subespacio m´ s peque˜ o a n que todo N. 2. Cualquier vector en N no es combinaci´ n lineal de los restantes. o 3. Si dos combinaciones lineales de N son iguales entonces, todos sus coeficientes son iguales. 4. Si una combinaci´ n lineal de N es cero entonces, todos sus coeficientes o son cero.Prueba. (1 ⇔ 2) Si 1 no es cierto entonces existe a ∈ N tal que hNi = hNai peroentonces a ∈ hNai lo que contradice 2. Rec´procamente, si 2 no es cierto entonces existe ıa ∈ N tal que a∈ hNai. Por incremento Na ⊆ hNai y como adem´ s a ∈ hNai aentonces N ⊆ hNai. Por monoton´a e idempotencia hNi P hNai lo que contradice 1. ¡P ı P ¢ ¡ ⊆ ¢ (3 ⇔ 4) Observese que i∈N αi i = i∈N βi i ⇔ i∈N (αi − βi ) i = 0 y adem´ s a(αi = βi ) ⇔ (αi − βi = 0). Luego, la existencia de combinaciones lineales iguales con al­gunos coeficientes diferentes es equivalente a la existencia de combinaciones lineales igualesa cero con algunos coeficientes no cero. (2 ⇔ 4) Si no se cumple 2 entonces hay un vector a ∈ N que es combinaci´ n lineal de oNa. Pasando todos los sumandos hacia un lado de la igualdad obtenemos una combinaci´ n olineal de N igual a cero con un coeficiente distinto de cero. Esto contradice 4. Rec´proca­ ımente, si no se cumple 4 entonces hay un vector a ∈ N y una combinaci´ n lineal de N igual oa cero y con αa 6= 0. Despejando a, obtenemos que a ∈ hNai. Esto contradice 2.Ejercicio 39 Busque en la prueba del Teorema de Caracterizaci´ n de Conjuntos Linealmen­ ote Independientes (2.9) donde se usan los inversos nultiplicativos. [130] Diremos que un conjunto de vectores N es linealmente independiente si se cumplealguna (y por lo tanto todas) las afirmaciones de la proposici´ n anterior. Los conjuntos de ovectores que no son linealmente independiente se les llama linealmente dependientes. A partir de ahora para no repetir constantemente frases largas a los conjuntos de vectores linealmente independientes los llamaremos conjuntos LI. An´ lo­ a gamente a los conjuntos de vectores linealmente dependientes los llamaremosconjuntos LD. Estas notaciones se deben pronunciar “ele i” y “ele de”. Los independientes son un ideal Todo subconjunto de un conjunto LI es LI.
    • 38 Cap´tulo 2. Espacios vectoriales ıPrueba. Sea N ⊆ M tal que M es LI. Cualquier combinaci´ n lineal de N es combinaci´ n o olineal de M. Luego toda combinaci´ n lineal de N igual a cero tiene todos sus coeficientes oiguales a cero Antes de pasar a la definici´ n de base, demostremos un peque˜ o resultado que usaremos o nrepetidamente en lo adelante. Lema de Aumento de un Conjunto LI Si N es independiente y N∪a es dependiente entonces a ∈ hNi.Prueba. Si N ∪ a es LD entonces, por la caracterizaci´ n 2.9.4 de los conjuntos LI, hay ouna combinaci´ n de N ∪ a igual a cero cuyos coeficientes no todos son igual a cero. Si el ocoeficiente en a fuera igual a cero obtendr´amos una contradicci´ n con que N es LI. Luego, ı oel coeficiente en a es diferente a cero y despejando a obtenemos a ∈ hNi.Bases La relaci´ n entre los conjuntos generadores y los conjun­ o Etos LI la podemos ver intuitivamente en la figura a la derecha.Aqu´ est´ n representados los subconjuntos del espacio E que ı a Conjuntos generadoresson generadores o que son LI. Mientras m´ s arriba m´ s gran­ a ade es el subconjunto. Nuestro inter´ s ahora se va a concentrar een la franja del centro donde hay subconjuntos que a la vez Conjuntos LIson generadores y LI. La siguiente proposici´ n nos dice que o“esta franja no puede ser muy ancha”. ∅ Teorema de Caracterizaci´ n de Bases o Sea N un conjunto de vectores. Las siguientes afirmaciones son equivalentes 1. N es generador y N es LI, 2. N es LI y cualquier sobreconjunto propio de N es LD, 3. N es generador y cualquier subconjunto propio de N no es generador.Prueba. (1 ⇒ 2) Sea N independiente y generador. Sea a ∈ N. Como N es generador /a ∈ hNi . De la caracterizaci´ n 2.9.2 de los conjuntos LI se sigue que N ∪ a es LD. Luego otodo sobreconjunto propio de N es LD. (2 ⇒ 3) Sea N independiente maximal. Por incremento N ⊆ hNi. Si a ∈ N entonces /N ∪ a es LD. Por el Lema de Aumento de un Conjunto LI (2.11) tenemos a ∈ hNi . Luego,N es generador. Si alg´ n subconjunto propio de N fuera generador entonces existir´a a ∈ N u ıtal que a ∈ hNai y por la caracterizaci´ n 2.9.2 de los conjuntos LI esto contradice la osuposici´ n de que N es LI. o (3 ⇒ 1) Sea N generador minimal. Si N es LD entonces, por la caracterizaci´ n 2.9.1 o
    • Secci´ n 2.4 o Bases 39de los conjuntos LI existe subconjunto propio M de N tal que hMi = hNi . Como N esgenerador entonces M tambi´ n lo es. Esto contradice la suposici´ n de que N es minimal. e o Sea F un subespacio. Un conjunto de vectores que es generador de F y que es LI se lellama base de F. Las bases de todo el espacio se llaman simplemente bases. El ser base esequivalente a ser un conjunto LI lo m´ s grande posible o ser un conjunto generador lo m´ s a achico posible. Tambi´ n, el ser base es equivalente a que nuestra funci´ n fN del principio de e oesta secci´ n sea biyectiva. o Lema de Incomparabilidad de las Bases Dos bases diferentes no est´ n contenidas una dentro de la otra. aPrueba. Si N ⊆ M son dos bases diferentes entonces N es un subconjunto propio de M ypor el Teorema de Caracterizaci´ n de Bases (2.12) esto es una contradicci´ n. o o Teorema de Existencia de Bases Sea N un conjunto generador y L ⊆ N un conjunto LI. Entonces, existe una base M tal que L ⊆ M ⊆ N.Prueba. Sean L y N como en las hip´ tesis del teorema. Sea M un conjunto LI tal que oL ⊆ M ⊆ N. Si M es maximal con estas propiedades (∀a ∈ NM M ∪ a es LD)entonces, por el Lema de Aumento de un Conjunto LI (2.11) tenemos N ⊆ hMi. Como Nes generador, esto significa que M tambi´ n lo es y por lo tanto M es una base. e Nuestra tarea es encontrar un M que es maximal con estas propiedades. Esto es f´ cil si ael conjunto N es finito. Primero ponemos M igual a L. Si M es maximal terminamos, si no,entonces existe a ∈ NM tal que M ∪ a es LI. Agregamos a al conjunto M y repetimoseste proceso. Como N es finito este proceso tiene que terminar.Ejercicio 40 Pruebe que las siguientes afirmaciones son consecuencia directa del Teoremade Existencia de Bases (2.14): 1. Todo espacio vectorial tiene base. 2. Cualquier conjunto LIesta contenido en una base. 3. Cualquier conjunto generador contiene a una base. [130]Dimensi´ n o Ahora lo que queremos ver es que todas las bases tienen el mismo n´ mero de vectores. uPara probar esto se necesita ver primero una propiedad cl´ sica de las bases. a
    • 40 Cap´tulo 2. Espacios vectoriales ı Propiedad del Cambio de las Bases Si M y N son dos bases entonces, para cualquier a ∈ M existe b ∈ N tal que (Ma) ∪ b es base.Prueba. Sea a un vector fijo pero arbitrario en M. Para un vector b ∈ N denotemosMb = (Ma) ∪ b. Si para todos los b ∈ N (Ma) el conjunto Mb fuera LD entonces,por el Lema de Aumento de un Conjunto LI (2.11) todo b ∈ N ser´a combinaci´ n lineal ı ode Ma. O sea, N ⊂ hMai y por monoton´a e idempotencia tendr´amos hNi ⊆ hMai . ı ıComo hNi es todo el espacio en particular tendr´amos a ∈ hMai lo que no es posible ya ıque M es LI. Hemos demostrado que existe b ∈ N (Ma) tal que Mb es LI. Demostremos que Mbes generador. Sea v un vector arbitrario. Por ser M base tenemos que b y v son combinacio­nes lineales de M o sea existen escalares apropiados tales que X X b = αa a + αx x v = λa a + λx x x∈Ma x∈MaComo Mb es LI entonces, b no es una combinaci´ n lineal de Ma y por lo tanto αa 6= 0. oLuego, podemos despejar a de la primera ecuaci´ n, substituirla en la segunda y as´ obtener o ıque v ∈ hMb i. Esto significa que Mb es generador. Equicardinalidad de las Bases Dos bases cualesquiera de un espacio vectorial tienen el mismo cardinal.Prueba. Sean A = {a1 , ..., an } y B dos bases. Por la Propiedad del Cambio de las Bases(2.15) existe otra base A1 = {b1 , a2 , ..., an } donde b1 ∈ B. Observese que |A1 | = n yaque en otro caso A1 Ã A lo que contradice el Lema de Incomparabilidad de las Bases(2.13). Aplicando la Propiedad del Cambio de las Bases (2.15) a A1 obtenemos otra baseA2 = {b1 , b2 , a3 , ..., an } tal que b2 ∈ B. Observese que |A2 | = n ya que en otro casoA2 Ã A1 lo que contradice el Lema de Incomparabilidad de las Bases (2.13). Repitiendoeste proceso obtenemos bases A3 , A4 , ..., An todas con n vectores y adem´ s An ⊆ B. Como aB es base obtenemos An = B y por lo tanto B tambi´ n tiene n vectores. e Al cardinal de una base (cualquiera) se le llama dimensi´ n del espacio vectorial. La di­ omensi´ n de un espacio vectorial E se denotar´ por dim E. Los espacios vectoriales que tienen o auna base finita se les llama finito dimensionales o de dimensi´ n finita. Por el contrario, si osus bases son infinitas entonces, el espacio vectorial es de dimensi´ n infinita. La teor´a de o ılos espacios vectoriales de dimensi´ n finita es m´ s sencilla pero m´ s completa que la de los o a aespacios de dimensi´ n infinita. Para darnos cuenta de que hay muchas cosas que se cumplen oen el caso finito dimensional pero no en el caso infinito dimensional veamos como ejemploel siguiente resultado que tendremos m´ ltiples ocaciones para utilizarlo. u
    • Secci´ n 2.4 o Bases 41 Sea F un espacio vectorial finito dimensional y E un subespacio de F. Si dim E = dim F entonces E = F.Prueba. Sea N una base de E. Por el Teorema de Existencia de Bases (2.14) existe una baseM del espacio F que contiene a N. Como M es finita entonces, N tambi´ n es finita. Como elas dimensiones coinciden, el n´ mero de vectores en N es igual al n´ mero de vectores en M. u uLuego N = M y por lo tanto E = hNi = hMi = F. Observese que la prueba de Equicardinalidad de las Bases (2.16) la hemos he­ cho solamente para el caso que el espacio tiene una base finita. Nuestra prueba del Teorema de Existencia de Bases (2.14) es solo para el caso que el con­junto generador es finito. Finalmente, solo hemos probado que los espacios vectoriales quetienen un conjunto generador finito tienen base. Es importante que el lector sepa que estastres afirmaciones son v´ lidas en general. Sin embargo, las pruebas generales dependen de un aconocimiento m´ s profundo de la Teor´a de Conjuntos que no presuponemos que lo posea el a ı ´lector. A los interesados en esto les recomiendo leer ahora la ultima secci´ n de este cap´tulo. o ıEjercicio 41 Pruebe que si E un subespacio de F entonces dim E ≤ dim F. [130]Ejercicio 42 Encuentre un ejemplo donde no se cumple 2.17. [130]Bases can´ nicas o Ya sabemos que todo espacio vectorial tiene bases. Sin embargo no solamente tienen unabase sino muchas. Por esto es conveniente construir bases que son las m´ s “sencillas” para alos ejemplos de espacios vectoriales que construimos en la Secci´ n 2.2. o Comenzemos con R . Sean e1 = (1, 0) y e2 = (0, 1). Cualquier vector (a, b) en R2 2tiene una manera de expresarse como combinaci´ n lineal de N = {e1 , e2 }. Efectivamente, otenemos la igualdad (a, b) = ae1 + be2 . Esto quiere decir que el conjunto N es generador.Por otro lado, si αe1 + βe2 = (α, β) = 0 = (0, 0) entonces, necesariamente, α y β sonambos cero. De aqu´ obtenemos que conjunto N es una base que la llamamos base can´ nica ı ode R . Los vectores e1 y e2 se pueden visualizar geom´ tricamente como los dos vectores de 2 elongitud 1 en ambos ejes de coordenadas. Luego, la dimensi´ n de R2 es 2. o Pasemos ahora a K . Para cada i en el conjunto de ´ndices {1, . . . , n} denotemos por ei n ıel vector cuya i­esima coordenada es 1 y todas las dem´ s son cero (recuerde que todo cam­ apo tiene uno y cero). Sea N el conjunto de todos esos vectores. Tenemos (α1 , . . . , αn ) =Pn ´ i=1 αi ei y esto significa que cada vector en K se expresa de forma unica como combina­ nci´ n lineal de N. O sea, N es generador y por la caracterizaci´ n 2.9.3 de los conjuntos LI el o oconjunto N es LI. A la base N se le llama base can´ nica de Kn . © dimensi´ n de Kn es n. o La ªo Veamos el espacio de polinomios K [x]. Sea N el conjunto x | i ∈ N . Es claro que i ´todo polinomio se puede escribir de forma unica como combinaci´ n lineal finita de N. A la o
    • 42 Cap´tulo 2. Espacios vectoriales ıbase N se le llama base can´ nica de K [x]. Luego, K [x] es de dimensi´ n infinita contable. o oDesafortunadamente, para el espacio de series no se puede dar explicitamente una base. Para el espacio K{M} de todas las M­adas de soporte finito ya hicimos casi todo el trabajo(v´ ase Kn ). Para cada i en el conjunto de ´ndices M denotemos por ei el vector cuya i­esima e ıcoordenada es 1 y las dem´ s son cero. Sea N el conjunto de todos esos vectores. Tenemos P aαN = i∈N αi eN donde los coeficientes son distintos de cero solamente en un subconjuntofinito de indices. Luego, N es una base de este espacio la cual es su base can´ nica. La odimensi´ n de K es el cardinal de N ya que hay una biyecci´ n entre N y M. o {M} o Recordemos al lector que lo de soporte finito es no trivial solo para cuando el conjuntoM es infinito. Si el conjunto de ´ndices es finito entonces estamos hablando de todas las ıM­adas o sea de K . Luego, en el caso de que M es finito K{M} = KM y la base can´ nica M ode K es la construida en el p´ rrafo anterior. En el caso de que el conjunto M sea infinito M aentonces el espacio KM no tiene una base can´ nica. o El campo de los n´ meros complejos como espacio vectorial sobre los reales tienen como ubase can´ nica al conjunto {1, i} y por lo tanto tiene dimensi´ n 2. Los reales como espacio o ovectorial sobre los racionales no tienen una base can´ nica. o Todos los espacios que hemos visto que no tienen base can´ nica son de dimensi´ n infi­ o onita. Sin embargo, no todos los espacios de dimensi´ n finita tienen una base can´ nica. El o oejemplo m´ s sencillo de esto es tomar un subespacio de un espacio de dimensi´ n finita. Si a oeste subespacio es suficientemente general, entonces no hay manera de construir una basecan´ nica del mismo incluso en el caso de que todo el espacio tenga una base can´ nica. o oEjercicio 43 Demuestre que el conjunto {(x − x0 )i | i ∈ N} es una base de K [x]. [130]Ejercicio 44 ¿Cual es la base can´ nica del espacio de las NM­matrices? [130] o 2.5 Clasificaci´ n de espacios vectoriales o En esta secci´ n veremos que todo espacio vectorial es isomorfo a un espacio de N­ o ´adas de soporte finito. Para el caso finito dimensional esto quiere decir que el unico (salvoisomorfismos) espacio vectorial de dimensi´ n n sobre un campo K que existe es el espacio ode las n­adas Kn .Isomorfismos lineales En el Cap´tulo 1 vimos los morfismos de operaciones binarias, grupos, anillos y campos. ı ´Para los espacios vectoriales es igual, la unica diferencia es que en ellos hay definida unaoperaci´ n que no es interna del espacio: el producto de un escalar por un vector. Sin embargo, oesto no presenta mayores dificultades.
    • Secci´ n 2.5 o Clasificaci´ n de espacios vectoriales o 43 Sean E y F dos espacios vectoriales sobre el mismo campo f (a + b) = f (a) + f (b) K. Una funci´ n f : E → F se le llama morfismo de espacios o f (αa) = αf (a) vectoriales si para cualesquiera a, b ∈ E y cualquier α ∈ K se cumplen las propiedades del recuadro. A los morfismos de espacios vectoriales tambi´ n se les llama transformaciones lineales. e ´Esta ultima expresi´ n ser´ la que usemos porque tiene dos importantes ventajas. Primero, o aes m´ s corta que la primera. Segundo es mucho m´ s antigua, hay mucha m´ s cantidad de a a apersonas que la conoce y por lo tanto facilita la comunicaci´ n con ingenieros y cient´ficos o ıde diversas areas.Ejercicio 45 Demuestre que la composici´ n de morfismos es un morfismo. [130] o El estudio de las transformaciones lineales lo pospondremos hasta el siguiente cap´tulo. ıAqu´ estaremos interesados en los isomorfismos de espacios vectoriales. Una transformaci´ n ı olineal f : E → F es un isomorfismo de espacios vectoriales o isomorfismo lineal si esta esbiyectiva. An´ logamente al caso de operaciones binarias tenemos el siguiente resultado: a La inversa de cualquier isomorfismo lineal es un isomorfismo lineal.Prueba. Sea α ∈ K y x, y ∈ F. Como f es una biyecci´ n existen a, b ∈ E tales que of (a) = x , f (b) = y. Como f es isomorfismo tenemos f−1 (x + y) = f−1 (f (a) + f (b)) = f−1 (f (a + b)) = a + b = f−1 (x) + f−1 (y) f−1 (αx) = f−1 (αf (a)) = f−1 (f (αa)) = αa =αf−1 (x)que es lo que se quer´a demostrar. ı Ya observamos, que los isomorfismos son nada m´ s que un cambio de los nombres de los aelementos y las operaciones. Esto quiere decir que “cualquier propiedad” debe conservarseal aplicar un isomorfismo. La siguiente proposici´ n es un ejemplo de esta afirmaci´ n. o o Un isomorfismo transforma conjuntos LI en conjuntos LI, con­ juntos generadores en conjuntos generadores y bases en bases.Prueba. Sea f : E → F un isomorfismo de espacios vectoriales. Sea M ⊆ E y denotemosN = f (M) ⊆ F. Sean adem´ s! ∈ E , y = f (x) ∈ F.! à a x à Como f es isomorfismo tenemos à ! X X X αi i = x ⇔ αi f (i) = y ⇔ αj j = y i∈M i∈M j∈Ndonde el conjunto de coeficientes {αi | i ∈ M} es exactamente el mismo que {αj | j ∈ N}. Si M es generador entonces, para cualquier y ∈ F el vector x = f−1 (y) es combinaci´ nolineal de M y por la equivalencia anterior el vector y es combinaci´ n lineal de N. Luego, si oM es generador entonces N tambi´ n lo es. e
    • 44 Cap´tulo 2. Espacios vectoriales ı Supongamos que M es LI entonces, poniendo x = 0 obtenemos à ! à ! X X αi i = 0 ⇔ αj j = 0 i∈M j∈Nluego, cualquier combinaci´ n lineal de N que es nula tambi´ n es combinaci´ n lineal nula de o e oM y por lo tanto todos sus coeficientes son cero. Luego, N es LI.Ejercicio 46 Demuestre que los isomorfismos conmutan con el operador de cerradura linealy que trasforman subespacios en subespacios de la misma dimensi´ n. oCoordinatizaci´ n o Sea N un conjunto de vectores del espacio vectorial F. Al principio de la secci´ n ante­ orior introducimos la funci´ n fN que a cada N­ada de soporte finito le hace corresponder la ocombinaci´ n lineal cuyos coeficientes son dicha N­ada. Esta funci´ n es siempre una trans­ o oformaci´ n lineal ya que o X X X fN (αN + βN ) = (αi + βi ) i = αi i + βi i = fN (αN ) + fN (βN ) i∈N X i∈N X i∈N fN (λαN ) = (λαi ) i = λ αi i = λfN (αN ) . i∈N i∈NPor otro lado, ya vimos que fN es sobreyectiva si y solo si N es generador, que fN es inyectivasi y solo si N es LI y por lo tanto fN es un isomorfismo si y solo si N es una base. En el casode que N sea una base, la funci´ n inversa f−1 : F → K{N} es un isomorfismo lineal llamado o Ncoordinatizaci´ n de F mediante la base N. En otras palabras, si N es una base de F, y x es o P ´un vector de F entonces, existe una unica N­ada αN ∈ K{N} tal que x = i∈N αi i. En estecaso, a los coeficientes αi se les llama coordenadas de x en la base N.Clasificaci´ n o Se dice que dos espacios son isomorfos si existe una funci´ n que es un isomorfismo oentre ellos. No hay ninguna raz´ n (por ahora) para que deseemos distinguir dos espacios ovectoriales que son isomorfos. Si esto sucede, uno es igual a otro salvo los “nombres” de losvectores y las operaciones. La clave para ver que los espacios vectoriales son isomorfos esque estos tengan la misma dimensi´ n. o Dos espacios vectoriales sobre el mismo campo son isomorfos si y solo si tienen la misma dimensi´ n. oPrueba. Sean E y F dos espacios vectoriales. Si E y F son isomorfos entonces por 2.19 unisomorfismo entre ellos transforma biyectivamente una base de uno en una base del otro porlo que tienen la misma dimensi´ n. Rec´procamente, sean N y M bases de E y F respecti­ o ıvamente. Mediante los isomorfismos de coordinatizaci´ n podemos pensar que E = K{N} y o
    • Secci´ n 2.5 o Clasificaci´ n de espacios vectoriales o 45F = K{M} . Si los dos tienen la misma dimensi´ n entonces, hay una biyecci´ n f : M → N. o oSea g : K{N} 3 αN 7→ βM ∈ K{M} la funci´ n tal que βi = αf(i) . La funci´ n g la po­ o odemos pensar como la que simplemente le cambia el nombre a los ´ndices de una N­ada. ıEsta es claramente un isomorfismo de espacios vectoriales (ya que la suma de N­adas es porcoordenadas y lo mismo con el producto por un escalar). Esta proposici´ n nos permite saber como son TODOS los espacios vectoriales. Ya vimos o(mediante la base can´ nica) que el espacio vectorial de todas las N­adas (funciones) de osoporte finito tiene dimensi´ n |N|. Escogiendo el conjunto N adecuadamente obtenemos otodas las dimensiones posibles. En el caso de que N sea finito con n elementos , este espacioes Kn por lo que es v´ lido el siguiente teorema. a Teorema de Clasificaci´ n de Espacios Vectoriales o Todo espacio vectorial es isomorfo a un espacio de N­adas de soporte finito. Todo espacio vectorial finito dimensional es isomorfo a Kn .Campos de Galois Una aplicaci´ n sencilla del Teorema de Clasificaci´ n de Espacios Vectoriales (2.21) es o ola siguiente. Sea E un espacio vectorial finito dimendional sobre el campo K. Tenemos paracierto natural n un isomorfismo E ←→ Kn y si el campo K es finito entonces en E hayexactamente |K|n vectores. El n´ mero de elementos en un campo finito es potencia de un n´ mero primo. u uPrueba. Ya vimos que siempre que se tenga un subcampo L del campo K entonces, K es unespacio vectorial sobre L. Esto es en esencia porque podemos sumar vectores (los elementosde K) y podemos multiplicar escalares (los elementos de L) por vectores. Si K es finito entonces su caracter´stica no puede ser 0 y por lo tanto es igual a un n´ mero ı uprimo p. Esto quiere decir que K contiene como subcampo Zp . La dimensi´ n de K sobre Zp otiene que ser finita ya que si no, entonces K ser´a infinito. Luego, K es isomorfo a Zn que ı ptiene exactamente pn elementos.Como pensar en espacios vectoriales A partir de ahora el lector debe siempre tener en mente el Teorema de Clasificaci´ n deoEspacios Vectoriales (2.21). Al hablar de un espacio vectorial en primer lugar, se debe pensaren R2 y R3 . La interpretaci´ n geom´ trica de estos dos espacios como los segmentos dirigidos o econ origen en el cero da una intuici´ n saludable acerca de lo que es cierto y lo que no. o En segundo lugar el lector debe pensar en el ejemplo Rn . Si el lector lo prefiere, eln´ mero n puede ser un n´ mero fijo suficientemente grande digamos n = 11. Ya en este caso, u upara entender es necesario usar varios m´ todos: las analog´as geom´ tricas en dimensiones e ı e
    • 46 Cap´tulo 2. Espacios vectoriales ıpeque˜ as, el c´ lculo algebraico con s´mbolos y los razonamientos l´ gicos. Casi todo lo que n a ı ose puede demostrar para espacios vectoriales finito dimensionales se demuestra en el casoparticular de Rn con la misma complejidad. Las demostraciones de muchos hechos v´ lidos aen R se copian tal cual para espacios vectoriales de dimensi´ n finita sobre cualquier campo. n o En tercer lugar se debe pensar en Cn . El espacio vectorial Cn es extremadamente impor­tante dentro de las matem´ ticas y la f´sica. Adem´ s, el hecho de que C es algebraicamente a ı acerrado hace que para Cn algunos problemas sean m´ s f´ ciles que en Rn . Hay una manera a ade pensar en C que ayuda un poco para tener intuici´ n geom´ trica. Como ya vimos {1, i} n o ees una base de C como espacio vectorial sobre R. De la misma manera Cn es un espaciovectorial sobre R de dimensi´ n 2n o sea, hay una biyecci´ n natural entre Cn y R2n (la bi­ o oyecci´ n es (a1 + b1 i, a2 + b2 i, ..., an + bn i) 7→ (a1 , b1 , a2 , b2 , ..., an , bn )). Sin embargo oesta biyecci´ n no es un isomorfismo. Si E es un subespacio de Cn sobre R entonces no ne­ ocesariamente E es un subespacio de Cn sobre C . Desde este punto de vista podemos pensar(no rigurosamente) a Cn como un R2n en el que hay menos subespacios. Los que se interesan en las ciencias de la computaci´ n deben tambi´ n pensar en Zn y o e pen general en cualquier K donde K es un campo finito. Las aplicaciones m´ s relevantes n aincluyen la codificaci´ n de informaci´ n con recuperaci´ n de errores y la criptograf´a, que es o o o ıla ciencia de cifrar mensajes. Ahora, si el lector no le tiene miedo al concepto de campo (que es uno de los objetivos deeste libro) entonces, lo m´ s f´ cil es pensar en Kn . Esto tiene una gran ventaja en el sentido a ade que no hay que pensar en los detalles particulares que se cumplen en uno u otro campo. Sin embargo, en el caso infinito dimensional la situaci´ n es m´ s fea. Nuestros teoremas o anos garantizan que hay un isomorfismo entre R como espacio vectorial sobre Q y las funcio­nes de soporte finito de una base de este espacio a Q. El problema es que nadie conoce (niconocer´ nunca) una base de este espacio, as´ que realmente, estos teoremas no dicen mucho a ıpara espacios vectoriales de dimensi´ n mayor que el cardinal de los naturales ℵ0 . o 2.6 Suma de subespacios En esta secci´ n introduciremos las operaciones m´ s b´ sicas entre subespacios. Pero an­ o a ates, es saludable dar una interpretaci´ n geom´ trica de los subespacios para que el lector o epueda comparar el caso general con el caso de los espacios R2 y R3 .Subespacios de Rn ¿Cuales son todos los subespacios de Rn ? Del Teorema de Clasificaci´ n de Espacios oVectoriales (2.21) sabemos que estos tienen que ser isomorfos a Ri para i ∈ {0, 1, . . . , n}seg´ n sea su dimensi´ n. Si i = 0 entonces todo el subespacio es el vector 0 (el origen de u ocoordenadas). Si i = n entonces, el subespacio es por 2.17 todo el espacio. Luego, los casosinteresantes son los que 0 < i < n. Si i = 1 entonces, el subespacio tiene que ser isomorfo a R y tiene que tener una basede un vector. O sea, existe un vector a tal que el subespacio es igual a hai. Ya vimos que
    • Secci´ n 2.6 o Suma de subespacios 47hai es la recta que pasa por el origen y por el punto a que es el final del vector a. Luego,los subespacios de dimensi´ n 1 de Rn son las rectas que pasan por el origen. Para R2 este oan´ lisis termina con todas las posibilidades. a Si i = 2 entonces, el subespacio tiene que ser isomorfo a R2 y tiene que tener una base{a, b} de dos vectores. La base {a, b} tiene que ser LI y en este caso eso quiere decir que bno es un m´ ltiplo escalar de a. En otras palabras, los puntos finales de los vectores a, b y u ´el origen de coordenadas no est´ n alineados. En este caso hay un unico plano (R2 ) que pasa apor estos tres puntos y tambi´ n ya vimos que este plano es ha, bi. Luego, los subespacios de edimensi´ n 2 de Rn son los planos que pasan por el origen. Para R3 este an´ lisis termina con o atodas las posibilidades: sus subespacios son: el origen, las rectas por el origen, los planos porel origen y todo el espacio. Ahora tenemos que pensar por lo menos en los subespacios de R4 y ya se nos acaba laintuici´ n y la terminolog´a geom´ trica. Por esto, pasemos al caso general. Un subespacio de o ı edimensi´ n i en R esta generado por una base {a1 , . . . , ai } de i vectores LI. Que sean LI o nlo que quiere decir es que sus puntos y el origen no est´ n contenidos en un subespacio de a ´dimensi´ n menor que i. Si este es el caso entonces hay un unico Ri que contiene a todos oestos puntos y este es el subespacio ha1 , . . . , ai i.Suma de conjuntos y subespacios Sean E y F dos subespacios sobre un campo K. En la proposici´ n 2.3 vimos que E ∩ F es oun subespacio. Por definici´ n de intersecci´ n E ∩ F es el subespacio m´ s grande contenido o o aen E y F. Ya observamos adem´ s que E ∪ F no es un subespacio. Sin embargo, hay un asubespacio que es el m´ s peque˜ o que contiene a los dos y este es hE ∪ Fi. El subespacio a nhE ∪ Fi tiene una estructura muy simple: hE ∪ Fi = {a + b | a ∈ E, b ∈ F}Prueba. Todo a + b es una combinaci´ n lineal de E ∪ F. Rec´pro­ X o ı Xcamente, toda combinaci´ n lineal de E ∪ F se puede escribir como o αx x + βy y x∈E y∈Fen el recuadro a la derecha. Como E y F son subespacios entonces,el primero y el segundo sumando son elementos de E y F respectivamente. Esto quiere decirque todo elemento de hE ∪ Fi es de la forma a + b con a en E y b en F. Dados dos conjuntos cualesquiera de vectores A y BA + B = {a + b | a ∈ A, b ∈ B} definimos la suma de estos como en el recuadro a laizquierda. Despu´ s de esta definici´ n el resultado 2.23 se puede reformular como hE ∪ Fi = e oE + F. Es por esto que al subespacio hE ∪ Fi se le llama la suma de los subespacios E y Fy desde ahora se le denotar´ por E + F. a
    • 48 Cap´tulo 2. Espacios vectoriales ıLa igualdad modular Sean E y F dos subespacios. Ahora trataremos de calcular la dimensi´ n de E + F. Para oesto necesitaremos primero encontrar bases de E ∩ F y E + F. Existen E una base de E y F una base de F tales que E ∩ F es base de E ∩ F y E ∪ F es base de E + F.Prueba. Sea N una base de E∩F . Como N es LI y est´ contenida en E entonces, por el Teo­ arema de Existencia de Bases (2.14) existe una base E de E que contiene a N. An´ logamente, aexiste una base F de F que contiene a N. Demostremos primero que E ∩ F = N. Efectivamente, por la forma en que contruimos Ey F tenemos N ⊆ E ∩ F. Para la prueba de la otra inclusi´ n sea a ∈ E ∩ F. Como N ∪ a ⊆ E oentonces, tenemos que N ∪ a es LI. Como N es base de E ∩ F y las bases son los conjuntosLI m´ s grandes, obtenemos que a ∈ N. Luego, E ∩ F ⊆ N. a Solo nos queda probar que E ∪ F es una base de E + F. En primer lugar, cualquiera + b ∈ E + F es combinaci´ n lineal de E ∪ F por lo que E ∪ F es generador de E + F. oNecesitamos probar que E ∪ F es LI. Para esto supongamos que X X X X 0= αi i = αi i+ αi i+ αi i i∈E∪F i∈EN i∈N i∈FNy demostremos que todos los αi son cero. Sean x, y, z el primer, segundo y tercer sumandorespectivamente en la igualdad anterior. Por construcci´ n, tenemos x ∈ E, y ∈ E ∩ F y oz ∈ F. Adem´ s, como z = − (y + x) y E es un subespacio, obtenemos z ∈ E ∩ F. a P Como N es una base de E∩F el vector z es combinaci´ n lineal de N, o sea z = i∈N λi i opara ciertos coeficientes λi . De aqu´ obtenemos que X ı X 0=x+y+z= αi i+ (αi + λi ) i i∈EN i∈NComo E es LI, todos los coeficientes de esta combinaci´ n lineal son cero. En particular, oαi = 0 para todo i ∈ EN y por lo tanto x = 0. Substituyendo x obtenemos X X 0=y+z= αi i+ αi i i∈N i∈FNy como F es LI deducimos que los restantes coeficientes tambi´ n son cero. e Igualdad modular Si E y F son dos subespacios entonces, dim E + dim F = dim (E + F) + dim (E ∩ F).Prueba. Por 2.24 existen bases E y F de E y F tales que E ∪ F es base de E + F y E ∩ Fes base de E ∩ F. Luego, la f´ rmula se reduce a la conocida igualdad entre cardinales de oconjuntos |E| + |F| = |E ∪ F| + |E ∩ F|.
    • Secci´ n 2.6 o Suma de subespacios 49Ejercicio 47 Use la igualdad modular para cons­ E F (E + F) E F (E + F)truir ejemplos de subespacios reales E y F tales que 1 1 1 1 2 3ellos y E + F tienen las dimensiones definidas en la 1 1 2 2 2 3tabla del recuadro a la derecha. ¿Puede tener E + F 1 2 2 2 2 4dimensi´ n diferente a las de la tabla? oSuma directa Para dos espacios vectoriales Ey F (no necesariamente contenidos en otro espacio) sobreun mismo campo K definiremos la suma directa de ellos como el espacio vectorial ¡ E ⊕ 0F = ¡ b) 0| a ∈ E,¢ ∈ F} 0 ¢ {(a, 0 b (a, b) + a , b = a + a ,b + b λ (a, b) = (λa, λb)Observese que como conjunto la suma directa es el producto cartesiano de conjuntos. Ladiferencia est´ en que la suma directa ya trae en su definici´ n las operaciones de suma de a ovectores y multiplicaci´ n por un escalar. Deber´amos probar que la suma directa es efectiva­ o ımente un espacio vectorial, o sea que cumplen todos los axiomas. Nosotros omitiremos estaprueba por ser trivial y aburrida. Mejor nos concentraremos en algo m´ s interesante. a dim (E ⊕ F) = dim E + dim F.Prueba. Sea E0 = {(a, 0) | a ∈ E} y F0 = {(0, b) | b ∈ F}. Es claro que los espacios E y E0son isomorfos y por lo tanto tienen la misma dimensi´ n. Otro tanto ocurre con F y F0 . Por odefinici´ n de suma de subespacios tenemos que E0 + F0 = E ⊕ F . De la Igualdad modular o(2.25) obtenemos dim (E0 + F0 ) = dim E0 + dim F0 − dim (E0 ∩ F0 ) = dim E + dim F.Isomorfismo can´ nico entre la suma y la suma directa. o ´ De esta ultima proposici´ n y de la igualdad modular se deduce que si dos subespacios E oy F son tales que E ∩ F = {0} entonces dim (E ⊕ F) = dim (E + F) o sea E ⊕ F es isomorfoa E + F. A continuaci´ n probaremos solo un poquito m´ s. Sin embargo, este poquito nos o allevar´ a profundas reexiones. a Isomorfismo Can´ nico entre la Suma y la Suma directa o Si E y F son subespacios tales que E ∩ F = {0} entonces la funci´ n o E ⊕ F 3 (a, b) 7→ a + b ∈ E + F es un isomorfismo de espacios vectoriales.
    • 50 Cap´tulo 2. Espacios vectoriales ıPrueba. Sea f la funci´ n definida en el enunciado. Tenemos o f (λ (a, b)) = f (λa, λb) = λa + λb = λ (a + b) = λf (a, b) f ((a, b) + (x, y)) = f (a + x, b + y) = a + x + b + y = f (a, b) + f (x, y)por lo que solo queda demostrar que f es biyectiva. Por definici´ n de suma de subespacios of es sobreyectiva. Para probar la inyectividad supongamos que f (a, b) = f (x, y) entonces,a − x = y − b. Como a, x ∈ E entonces a − x ∈ E. Como b, y ∈ F entonces y − b ∈ F.Luego a − x = y − b ∈ E ∩ F = {0} por lo que a = x y b = y. Observemos que el isomorfismo (a, b) 7→ a + b no depende de escoger base algunaen E ⊕ F. Todos los isomorfismos que construimos antes de esta proposici´ n se construye­ oron escogiendo cierta base en alguno de los espacios. Los isomorfismos que no dependende escoger alguna base juegan un papel importante en el algebra lineal y se les llama iso­ ´morfismos can´ nicos. Decimos que dos espacios vectoriales son can´ nicamente isomorfos o osi existe un isomorfismo can´ nico entre ellos. As´ por ejemplo todo espacio vectorial E de o ıdimensi´ n 3 es isomorfo a K pero no es can´ nicamente isomorfo a K3 porque no se pue­ o 3 ode construir de cualquier espacio vectorial de dimensi´ n 3 un isomorfismo con K3 que no odependa de escoger alguna base. Cuando veamos los productos escalares veremos que hayfuertes razones para que diferenciemos las bases. Los isomorfismos no can´ nicos no ne­ ocesariamente preservan una u otra propiedad de las bases. Por otro lado, los isomorfismoscan´ nicos si las preservan. Si por un lado, debe haber cierta resistencia a considerar iguales oa dos espacios vectoriales isomorfos por el otro, los espacios can´ nicamente isomorfos no ose diferencian en nada uno del otro, por lo que se puede pensar que es el mismo espacio.Ejercicio 48 1. Demuestre que E ⊕ F y F ⊕ E son can´ nicamente isomorfos. o 2. ¿Como se debe llamar esta propiedad de la suma directa de espacios? 3. Demuestre que la suma directa de espacios es asociativa. 4. ¿Tiene la suma directa elemento neutro? [130]Subespacios complementarios Sea S un espacio vectorial y E un subespacio de S . Diremos que el subespacio F escomplementario de E en S si S = E ⊕ F. Esta igualdad por el Isomorfismo Can´ nico entre ola Suma y la Suma directa (2.27) lo que quiere decir es que S = E + F y E ∩ F = {0}. EnR2 dos rectas por el origen diferentes son complementarias una a otra. En R3 un plano y unarecta no contenida en el plano (ambos por el origen) son complementarios uno a otro. Todo subespacio tiene complementario.Prueba. Sea E un subespacio de S. Sea A una base de E. Por el Teorema de Existencia deBases (2.14) hay una base C de S que contiene a A. Sea F el espacio generado por B = CA.Como C es generador de S, todo elemento en S es combinaci´ n lineal de C y en particular otodo elemento de S se expresa como a + b con a ∈ E y b ∈ F. Luego S = E + F.
    • Secci´ n 2.6 o Suma de subespacios 51 Por otro lado, si x ∈ E ∩ F entonces, tienenà existir combinaciones ! à ! que lineales tales que X X X X x= αa a = αa a ⇒ αa a − αa a = 0 . a∈A a∈B a∈A a∈B ´Como C es LI entonces, por la caracterizaci´ n 2.9.4 de los conjuntos LI la ultima combina­ oci´ n lineal tiene todos sus coeficientes iguales a cero. Luego, E ∩ F = {0}. o Si E y F son dos subespacios complementarios entonces cada vector x se expresa de forma unica como x = a + b donde a ∈ E y b ∈ F. ´Prueba. Si E y F son complementarios entonces E + F es todo el espacio y por lo tanto todovector es de la forma a + b. Si a + b = a0 + b0 entonces a − a0 = b0 − b ∈ E ∩ F = {0} ´por lo que la descomposici´ n x = a + b es unica. oEjercicio 49 Demuestre el rec´proco de 2.29: Si cada vector se expresa de forma unica ı ´como x = a + b con a ∈ E y b ∈ F entonces, los subespacios son complementarios. [130]Ejercicio 50 Pruebe que E = E1 ⊕ E2 ⊕ · · · ⊕ En si y solo si cualquier vector x ∈ E se ´expresa de forma unica como x = x1 + · · · + xn con xi ∈ Ei . Sugerencia: Usar 2.29, elejercicio anterior y la asociatividad de la suma directa para aplicar inducci´ n en el n´ mero o ude sumandos n.Espacios vectoriales versus conjuntos Hemos demostrado ya unos cuantos resultados que se parecen mucho a los de Teor´a ıde Conjuntos y siempre es saludable establecer analog´as con resultados ya conocidos. Para ıacentuar m´ s esta similitud hagamos un diccionario de traducci´ n a o Conjunto ←→ Espacio vectorial Subconjunto ←→ Subespacio vectorial Cardinal ←→ Dimensi´ n o Intersecci´ n de subconjuntos ←→ Intersecci´ n de subespacios o o Uni´ n de subconjuntos o ←→ Suma de subespacios Uni´ n disjunta o ←→ Suma directa Complemento ←→ Subespacio complementario Biyecciones ←→ Isomorfismos Si nos fijamos atentamente muchos de los resultados que hemos demostrado para espa­cios vectoriales tienen su contraparte v´ lida para conjuntos usando el diccionario que hemos aconstruido. Probablemente, el ejemplo m´ s notable de esto son las igualdades modulares apara conjuntos y para espacios vectoriales. Sin embargo, es preciso ser cuidadosos en tratar de llevar resultados de los conjuntos a los ´espacios vectoriales. Por ejemplo, el complemento de un subconjunto es unico y no siempre ´hay un unico subespacio complementario. Otro ejemplo, un poco m´ s substancial, es que la a
    • 52 Cap´tulo 2. Espacios vectoriales ıintersecci´ n de conjuntos distribuye con la uni´ n o sea A ∩ (B ∪ C) = (A ∩ B) ∪ (A ∩ C) . o oPor otro lado la intersecci´ n de subespacios en general no distribuye con la suma o sea, la oigualdad A∩(B + C) = (A ∩ B)+(A ∩ C) no siempre es verdadera. Para ver esto t´ mese enoR los subespacios A = h(0, 0, 1) , (1, 1, 0)i , B = h(1, 0, 0)i y C = h(0, 1, 0)i . Calculamos 3A ∩ (B + C) = h(1, 1, 0)i y (A ∩ B) + (A ∩ C) = {(0, 0, 0)} y vemos que son distintos.Ejercicio 51 Si A y B son dos conjuntos entonces la diferencia sim´ trica de los mismos es eel conjunto A +2 B = (A ∪ B) (A ∩ B). Demuestre que todos los conjuntos finitos de unconjunto cualquiera U forman un espacio vectorial de dimensi´ n |U| sobre el campo Z2 para ola suma +2 y el producto 1A = A, 0A = ∅. Vea, que los conceptos de nuestro diccionariode traducci´ n se aplican a este caso en forma directa. o 2.7 Espacios cocientes Ya vimos que para un subespacio E del espacio F, siempre existen subespacios comple­mentarios a el. Sin embargo hay muchos de estos subespacios complementarios y no hayuna manera can´ nica de escoger alguno de ellos. En esta secci´ n nos dedicaremos a cons­ o otruir can´ nicamente el espacio cociente F/E que es el espacio de todos los subespacios afines oparalelos a E y que es isomorfo a cualquier subespacio complementario de E.Subespacios afines Ya vimos que en el plano cartesiano R2 los subespacios son el origen{0}, todo R2 y las rectas que pasan por el origen. Sin embargo, hay otras 2rectas en el plano que no pasan por el origen. Para obtener una de estas `0 Rrectas lo que tenemos que hacer es trasladar una recta por el origen `mediante un vector x (v´ ase la figura). De esta manera, obtenemos la e ` xrecta `0 que se obtiene sumandole x a cada vector en la l´nea `. Observese ıque si x 6= 0 entonces las rectas ` y `0 no se intersectan. Esto nos motiva a la siguiente definici´ n. Sea A un conjunto de vectores y x un vector. oAl conjunto A + x = {a + x | a ∈ A} se le llama la traslaci´ n de A con el vector x. El olector debe observar que la operaci´ n de trasladar es un caso particular (cuando uno de los osumandos solo contiene a un solo vector) de la operaci´ n de suma de conjuntos de vectores ointroducida en la secci´ n anterior. o Un subespacio af´n es el trasladado de un subespacio. En otras palabras, un conjunto de ıvectores E es un subespacio af´n si existen un subespacio E y un vector x tales que E = E+x. ıObservese que los subespacios son tambi´ n subespacios afines. Basta trasladar con el vector ecero. Esto causa una confusi´ n lingu´stica: el adjetivo “af´n” se usa para hacer el concepto o ı ıde “subespacio” m´ s general, no m´ s espec´fico. Por esto, cuando se habla de subespacios a a ıafines es com´ n referirse a los subespacios como subespacios vectoriales. u
    • Secci´ n 2.7 o Espacios cocientes 53 Las traslaciones de un subespacio cumplen una propiedad muy sencilla pero fundamen­tal: que es posible trasladar el subespacio vectorial con diferentes vectores y obtener el mis­mo subespacio af´n. M´ s precisamente: ı a E+x=E+a Si a ∈ E + x entonces, E + x = E + a. x a 0 EPrueba. Probemos primero el caso que x = 0. Tenemos y ∈ E ⇔ y−a ∈ E ⇔ y ∈ E+a.Ahora por el caso general. Sabemos que, z = a − x ∈ E y del primer caso, E = E + z.Luego, E + x = E + z + x = E + a. Ahora observemos, que un trasladado de un subespacio af´n es a su vez un subespacio ıaf´n ya que (E + x) + y = E + (x + y). Dos subespacios afines se le llaman paralelos ısi uno es un trasladado del otro. La relaci´ n de paralelismo entre subespacios afines es de oequivalencia ya que si E = F + x y G = E + y entonces, G = F + (x + y). Esto significa queel conjunto de los subespacios afines se parte en clases de paralelismo y dos subespaciosson paralelos si y solo si est´ n en la misma clase de paralelismo. a Ahora veremos que en cada clase de paralelismo hay un solo subespacio af´n que pasa ıpor el origen. Todo subespacio af´n es paralelo a un solo subespacio vectorial. ıPrueba. Si E + x = F + y entonces, E = F + y − x. Como F + y − x contiene al ceroentonces, x − y ∈ F. Como F es un subespacio, y − x ∈ F y 2.30 nos da F = F + y − x. Este resultado nos permite definir la dimensi´ n de un subespacio af´n. Cada uno de ellos o ı ´es paralelo a un unico subespacio y su dimensi´ n es la dimensi´ n de ese subespacio. En o ootras palabras, si E = E + x entonces dim E = dim E. Es com´ n utilizar la terminolog´a u ıgeom´ trica para hablar de los subespacios afines de dimensi´ n peque˜ a. As´, un punto es e o n ıun subespacio af´n de dimensi´ n cero, una recta es un subespacio af´n de dimensi´ n uno, un ı o ı oplano es un subespacio af´n de dimensi´ n dos. ı o Dos subespacios afines paralelos o son el mismo o no se intersectan.Prueba. Si y ∈ (E + x) ∩ (E + x0 ) entonces, por 2.30, E + x = E + y = E + x0 . Es un error com´ n (debido al caso de rectas en el plano) pensar que es equivalente u que dos subespacios sean paralelos a que estos no se intersecten. Para convencerse de que esto no es cierto, el lector debe pensar en dos rectas no coplanares en R3 .
    • 54 Cap´tulo 2. Espacios vectoriales ıEl espacio cociente Sea D un espacio vectorial y E un subespacio vectorial de D. Si x + x0E = E+x y F = E+y son dos subespacios afines paralelos entonces R2E + F = (E + x) + (E + y) = (E + E) + (x + y) = E + (x + y) x x0lo que muestra que E + F est´ en la misma clase de paralelismo a y0que E y F. En otras palabras (v´ ase la figura a la derecha) la suma e y + y0 0 yde cualquier vector en E con cualquier otro en F esta en un mismoespacio paralelo a E y F. Denotemos ahora por D/E al conjunto de todos los subespacios afines de D paralelos aE. Esta observaci´ n nos dice que la suma de subespacios afines es una operaci´ n binaria o odentro de D/E. Esta suma es asociativa y conmutativa debido a la asociatividad y conmuta­tividad de la suma de los vectores en D. El subespacio E es el neutro para esta operaci´ n y oel opuesto de E + x es E − x. Luego, D/E es un grupo abeliano para la suma. Para convertir a D/E en un espacio vectorial nos falta el producto por escalares. Sea λA = {λa | a ∈ A} A un conjunto arbitrario de vectores y λ un escalar. Definiremos λA como en el recuadro a la izquierda. Sean E = E + x un subespacio af´n paralelo a E y λ un escalar. Tenemos ıλE = λ (E + x) = λE + λx = E + λx lo que muestra que λE est´ en la misma R x a 2 2xclase de paralelismo que E. En otras palabras (v´ ase la figura a la derecha) el e 2yproducto de un escalar por todos los vectores en E resulta en espacio paralelo 0 ya E. Este producto convierte a D/E en un espacio vectorial llamado espacio cociente de Dpor E.Ejercicio 52 Compruebe los axiomas de espacio vectorial para el espacio cociente D/E.Ejercicio 53 ¿Cual es el espacio cociente de R3 por el plano xy?Ejercicio 54 ¿Que pasa si sumamos dos espacios afines no paralelos? [130]El isomorfismo con los complementarios R2 Sea F un subespacio complementario a E. Entonces, cualquier subespacio af´n paralelo ı a E intersecta a F en un y solo un vector. F EPrueba. Sea E = E + x cualquier subespacio af´n paralelo a E. Como D = E ⊕ F existen ı ´unos unicos vectores y ∈ E y z ∈ F tales que x = y+z. Luego por 2.30 E+x = E+y+z =E + z y por lo tanto z ∈ E + x o sea, z ∈ E ∩ F. Si z0 es otro vector en E ∩ F entonces, existea ∈ E tal que z0 = a + x. De aqu´ x = −a + z0 y por la unicidad de la descomposici´ n de ı oun vector en suma de vectores de espacios complementarios, y = −a y z = z0 .
    • Secci´ n 2.8 o El espacio af´n ı 55 Sea F un subespacio complementario a E. Entonces, f : F 3 x 7→ (E + x) ∈ D/E es un isomorfismo de espacios vectoriales.Prueba. Por 2.33 la aplicaci´ n f : F 3 x 7→ (E + x) ∈ D/E tiene inversa (que a cada o ´E + x ∈ D/E le hace corresponder el unico vector en (E + x) ∩ F). Luego, f es biyectiva.Adem´ s, a f (x + y) = E + (x + y) = (E + x) + (E + y) = f (x) + f (y) f (λx) = E + (λx) = λ (E + x) = λf (x)por lo que f es un isomorfismo. Observese que el isomorfismo f es can´ nico. Luego, cualquier subespacio complemen­ otario a E es can´ nicamente isomorfo a D/E. Esta proposici´ n tambi´ n nos dice que la di­ o o emensi´ n de D/E es la misma que la de un complementario a E o sea, es dim D − dim E. o ´ Es posible (gracias al isomorfismo con los complementarios) desarrollar toda el algebra lineal sin la introducci´ n de los espacios cocientes. Si embargo, es m´ s c´ modo hacerlo con ellos. Adem´ s o a o a es importante que el lector se familiarize con el concepto, ya que, en el estudio de estructurasalgebraicas m´ s generales, no siempre existen estructuras “complementarias” (por ejemplo en la teor´a de a ıgrupos). Por otro lado, las estructuras cocientes si se pueden construir. Por ejemplo, todo grupo tiene un cocientepor cualquier subgrupo normal. 2.8 El espacio af´n ı Recordemos de la secci´ n anterior que un subespacio af´n del espacio vectorial F es el o ıtrasladado E + x de un subespacio vectorial E de F. La dimensi´ n de E + x es por definici´ n o ola dimensi´ n de E. o Los subespacios afines de dimensi´ n peque˜ a reciben nombres especiales seg´ n la tradi­ o n uci´ n geom´ trica. Los de dimensi´ n 0 se le llaman puntos. Los de dimensi´ n 1 se le llaman o e o orectas y los de dimensi´ n 2 se le llaman planos. o Un punto es, en otras palabras, un subespacio af´n E + x donde E es de dimensi´ n cero. ı o ´Pero el unico subespacio vectorial de dimensi´ n cero es {0} . Luego, un punto es un conjunto ode la forma {0} + x = {x}. Esto nos da una biyecci´ n obvia {x} 7→ x entre los puntos del oespacio af´n y los vectores del espacio vectorial. ı Al conjunto de todos los puntos del espacio vectorial F se le llama el espacio af´n de F. ıPero como, dir´ el lector, si la diferencia entre {x} y x es puramente formal entonces, ¿cual aes la diferencia entre el espacio af´n y el espacio vectorial? La respuesta es ambivalente pues ı ı ´es la misma pregunta que ¿que diferencia hay entre geometr´a y algebra? Antes de Descartes ´eran dos cosas completamente distintas, despues de el, son cosas muy parecidas. Intuitivamente, un espacio af´n es lo mismo que el espacio vectorial pero sin coordenadas. ıEl espacio afin de R2 es el plano de Euclides en el que estudiamos la geometr´a m´ s cl´ sica ı a ay elemental: congruencia de tri´ ngulos, teorema de Pit´ goras, etc. Los resultados de esta a ageometr´a no dependen de cual es el origen de coordenadas. Dos tri´ ngulos son congruentes ı a
    • 56 Cap´tulo 2. Espacios vectoriales ıo no independientemente de en que lugar del plano se encuentran. A un nivel m´ s alto, podemos pensar el espacio af´n de un espacio vectorial como una a ıestructura matem´ tica adecuada para poder estudiar las propiedades de los espacios vecto­ ariales que son invariantes por traslaciones, o sea, que no cambian al mover un objeto de unlugar a otro en el espacio.La regla del paralelogramo La conocida regla del paralelogramo para la suma de vectores en el plano R2 se generalizaa todas las dimensiones y sobre cualquier campo. Postularemos que el conjunto vac´o es un subespacio af´n de dimensi´ n −1. Eso nos ı ı oevitar´ muchos problemas en la formulaci´ n de nuestros resultados. a o La intersecci´ n de subespacios afines es un subespacio af´n. o ıPrueba. Sea x un punto en la intersecci´ n. Cada uno de los subespacios afines, es E+x para ocierto subespacio E del espacio vectorial. Si F es la intersecci´ n de todos estos subespacios oentonces F + x es la intersecci´ n de los subespacios afines. o Regla del paralelogramo Si a y b son vectores LI de un espacio vectorial entonces, a + b es la intersecci´ n de los subespacios afines hai + b y hbi + a. oPrueba. Obviamente a+b ∈ (hai + b)∩(hbi + a). Por otro lado, ambos hai+b y hbi+atienen dimensi´ n 1 y por lo tanto su intersecci´ n tiene dimensi´ n 0 o 1. Si esta dimensi´ n es o o o ocero entonces terminamos. Si esta dimensi´ n es uno entonces hai + b = hbi + a y por lo otanto a ∈ hai + b. Por 2.30 tenemos que hai + b = hai + a = hai, Por lo tanto b ∈ hai yesto contradice que {a, b} es LI.Cerradura af´n ı Para un conjunto A de puntos en el espacio af´n, la cerradura af´n de A es la intersecci´ n ı ı ode todos los subespacios afines que contienen a A. A la cerradura af´n de A la denotaremos ıpor [A]. Esto la diferencia claramente de la cerradura lineal hAi. Para la cerradura afin, tenemos las mismas propiedades que para la cerradura lineal. [A] es el subespacio afin m´ s peque˜ o que contiene a A. a nPrueba. [A] es un subespacio afin. Si B es un subespacio af´n que contiene a A entonces ı[A] ⊆ B pues para hallar [A] tuvimos que intersectar con B.
    • Secci´ n 2.8 o El espacio af´n ı 57 La cerradura af´n cumple las siguientes propiedades: ı 1. A ⊆ [A] (incremento) 2. A ⊆ B ⇒ [A] ⊆ [B] (monoton´a) ı 3. [[A]] = [A] (idempotencia).Prueba. La prueba es exactamente la misma que para el caso de la cerradura lineal.Generadores e independencia Un conjunto de puntos A es generador af´n si [A] es todo el espacio af´n. Los conjuntos ı ıafinmente independientes los definiremos con el siguiente resultado. Definici´ n de conjuntos afinmente independientes o Sea A un conjunto de puntos. Las siguientes afirmaciones son equivalentes 1. Cualquier subconjunto propio de A genera un subespacio af´n m´ s pe­ ı a que˜ o que todo A. n 2. Cualquier punto en A no est´ en la cerradura af´n de los restantes. a ıPrueba. Es an´ loga a la prueba (1 ⇔ 2) de la caracterizaci´ n de conjuntos LI. a o Los conjuntos de puntos que no son afinmente independientes los llamaremos afinmentedependientes. Nuevamente para evitarnos largas oraciones, a los conjuntos afinmente inde­ pendientes los llamaremos conjuntos AI y a los conjuntos afinmente depen­ dientes los llamaremos conjuntos AD. Todo sobreconjunto de un generador afin es un generador afin. Todo subconjunto de un conjunto AI es AI.Prueba. Sea A un generador af´n y B ⊇ A. Tenemos [A] ⊆ [B] y como [A] es todo el ıespacio afin entonces [B] tambi´ n lo es. e Sea A que es AI y B ⊆ A. Si B fuera AD entonces existir´a b ∈ B tal que b ∈ [Bb] ⊆ ı[Ab] y esto no puede ser pues A es AI.Bases afines Una base afin es un conjunto de puntos que es AI y generador afin. Ahora podriamosseguir por el mismo camino demostrando que las bases afines son los generadores afinesm´ s peque˜ os o los AI m´ s grandes. Despues, el teorema de existencia de base, el lema del a n acambio para las bases afines, la prueba de que dos bases afines tienen el mismo cardinal, etc.
    • 58 Cap´tulo 2. Espacios vectoriales ı Este camino aunque se puede realizar, sin embargo, tiene dos desventajas. La primera esque a´ n no hemos definido combinaciones afines y estas se necesitan para probar todo esto. uLa segunda, y m´ s obvia, es que todo esto es muy largo. Por suerte, hay una sencilla relaci´ n a oque enlaza las bases afines con las bases del espacio vectorial y esto nos ahorrar´ mucho atrabajo. Sea A = {x0 , x1, . . . , xn } un conjunto de puntos. Defina­ mos A0 = {x1 − x0 , . . . , xn − x0 }. Entonces, A es una ba­ se af´n si y solo si A0 es una base del espacio vectorial. ıPrueba. Veamos que [A] = hA0 i + x0 . Efectivamente, hA0 i + x0 es un subespacio af´n que ıcontiene a A y por lo tanto [A] ⊆ hA0 i + x0 . Por otro lado [A] − x0 es un subespacio por elorigen que contiene a A0 y por lo tanto [A] − x0 ⊇ hA0 i. De aqu´ inmediatamente obtenemos que A es generador af´n si y solo si A0 es un genera­ ı ıdor. Luego, podemos suponer por el resto de la prueba que tanto A como A0 son generadores.Nos queda probar que A es AI si y solo si A0 es LI. Supongamos que A0 es LD. Sea B0 una base lineal tal que B0 ⊂ A0 . Como al principiode la prueba B = {x0 }∪(B0 + x0 ) es un generador af´n del espacio. Como B0 6= A0 entonces, ıB 6= A y por lo tanto A es AD. Supongamos que A es AD. Entonces, hay un subconjunto propio B de A que generaal espacio. Sea y ∈ B Como al principio de la prueba B0 = {xi − y | xi ∈ B {y}} es ungenerador lineal del espacio. Luego la dimensi´ n del espacio es estrictamente menor que n oy por lo tanto A0 no puede ser LI. Ahora podemos traspasar todos los resultados probados para las bases del espacio vecto­rial a las bases afines. En particular, es cierto que: 1. Las bases afines son los conjuntos generadores afines minimales por inclusi´ n. o 2. Las bases afines son los conjuntos AI maximales por inclusi´ n. o 3. Si A es un conjunto AI y B es un conjunto generador af´n tal que A ⊆ B entonces hay ı una base af´n C tal que A ⊆ C ⊆ B. ı 4. Dos bases afines cualequiera tienen el mismo n´ mero de puntos (uno m´ s que la di­ u a mensi´ n). o Las demostraciones de estos resultados son obvias dada la correspondencia entre lasbases afines y las bases del espacio vectorial.Ejercicio 55 Formule el lema del cambio para las bases afines. El siguiente resultado es el an´ logo del lema Lema de Aumento de un Conjunto LI (2.11) apara el caso af´n y es consecuencia directa de la correspondencia entre las bases afines y las ıbases del espacio vectorial.
    • Secci´ n 2.9 o El caso de dimensi´ n infinita o 59 Si A es un conjunto AI entonces A ∪ b es AD si y solo si b ∈ [A]. 2.9 El caso de dimensi´ n infinita o En la Secci´ n 2.4 enunciamos el Teorema de Existencia de Bases (2.14) y la Equicar­ odinalidad de las Bases (2.16) pero solo los probamos para el caso de que el espacio tienedimensi´ n finita. En esta secci´ n demostramos estos resultados para los casos faltantes. Por­ o oque siempre aparece un curioso que quiere saber. Como estas demostraciones dependen de resultados de Teor´a de Conjuntos y una expo­ ısici´ n de esta nos llevar´a a escribir otro libro, lo haremos todo en forma minimalista: Antes o ıde cada una de las dos pruebas daremos las definiciones y resultados exclusivamente quenecesitamos. Los resultados complicados de Teor´a de Conjuntos no los demostraremos. ıEl Lema de Zorn Un conjunto ordenado es un conjunto con una relaci´ n de orden, o sea una relaci´ n o oreexiva antisim´ trica y transitiva (v´ ase el glosario). Sea P un conjunto ordenado y A un e esubconjunto de P. Diremos que x ∈ P es una cota superior de A si para cualquier y ∈ Ase cumple que y ≤ x. Diremos que x ∈ A es elemento maximal de A si para cualquiery ∈ A se cumple que x ­ y. Se dice que A es una cadena si para cualesquiera x, y ∈ A secumple que x ≤ y o que y ≤ x. Diremos que A esta inductivamente ordenado si A 6= ∅ ycualquier cadena contenida en A tiene una cota superior que est´ en A. El siguiente resultado aes cl´ sico en teor´a de conjuntos. a ı Lema de Zorn Cualquier conjunto inductivamente ordenado tiene un elemento maximal.Existencia de bases Teorema de Existencia de Bases (caso general) Sea N un conjunto generador y L ⊆ N un conjunto LI. Entonces, existe una base M tal que L ⊆ M ⊆ N.Prueba. Sean L y N como en las hip´ tesis. Denotemos o T = {M | M es linealmente independiente y L ⊆ M ⊆ N} .El conjunto T est´ naturalmente ordenado por inclusi´ n. Sea M un elemento maximal de T. a oEntonces ∀x ∈ NM M ∪ x es dependiente y por el Lema de Aumento de un Conjunto LI
    • 60 Cap´tulo 2. Espacios vectoriales ı(2.11) tenemos N ⊆ hMi. Como N es generador, esto significa que M tambi´ n lo es y por elo tanto M es una base. Nuestra tarea es encontrar un elemento maximal de T. Probemos que el conjunto Test´ inductivamente ordenado. Efectivamente, T es no vac´o ya que L ∈ T. Sea {Bi }i∈I una a S ıcadena arbitraria en T y denotemos B = i∈I Bi . El conjunto B es una cota superior de lacadena {Bi }i∈I y tenemos que convencernos que B est´ en T. Como para cualquier i tenemos aBi ⊆ N entonces, B ⊆ N. Supongamos que B es linealmente dependiente. Entonces, existeun subconjunto finito B0 de B y una combinaci´ n lineal de B0 igual a cero tal que todos sus ocoeficientes son no cero, o sea B es linealmente dependiente. Como B0 es finito, y {Bi }i∈I es 0una cadena entonces, tiene que existir i0 tal que B0 ⊆ Bi0 y esto contradice que todo sub­conjunto de un conjunto linealmente independiente es linealmente independiente. Luego, Test´ inductivamente ordenado y por el Lema de Zorn (2.43) el conjunto T tiene un elemento amaximal.Cardinales Dados dos conjuntos A y B denotaremos |A| ≤ |B| si existe una inyecci´ n de A en B. oLa relaci´ n A ∼ B definida como |A| ≤ |B| y |B| ≤ |A| es una relaci´ n de equivalencia o oentre todos los conjuntos. A la clase de equivalencia que contiene al conjunto A se le llamacardinal del conjunto A y se denota por |A|. Los cardinales est´ n ordenados por la relaci´ n a ode orden que ya definimos. Los cardinales pueden ser finitos o infinitos. El cardinal infinitom´ s peque˜ o es ℵ0 que es el cardinal de los naturales (ℵ es la primera letra del alfabeto a nhebreo y se llama “´ lef”). La suma de cardinales se define como el cardinal de la uni´ n de a odos conjuntos disjuntos. El producto de cardinales se define como el cardinal del productocartesiano de conjuntos. Necesitaremos dos resultados acerca de los cardinales de conjuntos. El primero es muy ´sencillo y daremos una demostraci´ n para el. o P Si ∀i |Ai | ≤ t entonces, i∈I |Ai | ≤ t |I|.Prueba. Podemos pensar que los Ai son disjuntos. Sea T un conjunto de cardinal t. Por Ship´ tesis existen inyecciones fi : Ai 7→ T . Sea ϕ : i∈I Ai → T × I definida por ϕ (a) = o(fi (a) , i) si a ∈ Ai . Por definici´ n de ϕ si ϕ (a) = ϕ (b) entonces, a y b est´ n en el o amismo conjunto Ai , fi (a) = fi (b) y por lo tanto a = b. Luego, ϕ es inyectiva. El siguiente resultado que necesitamos se demuestra (usando muchas cosas) en la Teor´a ıde Conjuntos (v´ ase por ejemplo: Kamke E., Theory of sets. Dover, New York, 1950. p´ gina e a121). Nosotros omitiremos la prueba. Si |A| es infinito entonces, ℵ0 |A| = |A|.
    • Secci´ n 2.9 o El caso de dimensi´ n infinita o 61Equicardinalidad de las bases Equicardinalidad de las Bases (caso infinito) Dos bases cualesquiera tienen el mismo cardinal.Prueba. Sean A y B dos bases. Ya probamos el caso de que una de las dos bases es finita.Luego, podemos suponer que A y B son infinitos. Como B es una base y debido a la finitudde las combinaciones lineales entonces ∀a ∈ A el m´nimo subconjunto Ba ⊆ B tal que ıa ∈ hBa i existe y es finito. Construyamos la relaci´ n R ⊆ A × B de manera que (a, b) ∈ R si y solo si b ∈ Ba . oTenemos |B| ≤ |R| ya que si hubiera un b0 ∈ B no relacionado con ning´ n elemento de uA entonces, A ⊆ hBb0 i y como A es base obtendr´amos que Bb0 es generador lo que ıcontradice que B es base. Por otro lado, como |A| es infinito y |Ba | es finito entonces, usando 2.45 y 2.46 obtenemos X |B| ≤ |R| = |Ba | ≤ ℵ0 |A| = |A| . a∈ALuego |B| ≤ |A| y por simetr´a de nuestros razonamientos|A| ≤ |B|. ı
    • 62
    • Capítulo tercero Transformaciones Lineales as transformaciones lineales son uno de los objetos m´ s estudiados y m´ s importan­ a a tes en las matem´ ticas. El objetivo de este cap´tulo es familiarizar al lector con el a ı concepto de transformaci´ n lineal y sus propiedades b´ sicas. Introduciremos las ma­ o atrices y estudiaremos la relaci´ n de las mismas con las transformaciones lineales. Veremos oel concepto de nucleo e imagen de una transformaci´ n lineal etc... o 3.1 Definici´ n y ejemplos o Sean E y F dos espacios vectoriales sobre K. Una funci´ n of : E → F se le llama transformaci´ n lineal de E en F si para f (a + b) = f (a) + f (b) ocualesquiera vectores a y b y cualquier escalar λ se cumplen f (λa) = λf (a)las propiedades del recuadro a la derecha. Nuevamente, para no reescribir constantemente frases largas, en lugar de decir que f es una transformaci´ n lineal, diremos que f es una TL. En plural escribi­ o remos TLs.Imagenes de subespacios Toda TL transforma subespacios en subespacios.Prueba. Sea f : E → F una TL y E0 un subespacio de E. Denotemos F0 = f (E0 ) la imagende E0 . Sean a y b vectores en F0 . Por definici´ n existen vectores x,y tales que f (x) = a y of (y) = b. Tenemos, f (x + y) = a + b por lo que a + b ∈ F0 . Sea ahora λ un escalar.Tenemos f (λx) = λa por lo que λa ∈ F0 . Luego, F0 es un subespacio de F.
    • 64 Cap´tulo 3. Transformaciones lineales ı Las TLs NO necesariamente transforman conjuntos LI en conjuntos LI ni tampoco conjuntos generadores en conjuntos generadores. El rec´proco de la proposici´ n anterior NO es cierto. Hay funciones que transforman subespacios ı o en subespacios y no son TLs. Un ejemplo sencillo es la funci´ n R 3 x 7→ x3 ∈ R. Esta manda el o cero en el cero y a R en R. Sin embargo no es lineal. Para obtener una funci´ n contraejemplo en oRn basta usar coordenadas esf´ ricas, dejar fijos los angulos y elevar al cubo el m´ dulo del vector. e ´ oHomotecias Veamos el ejemplo m´ s simple de TL. Si a cada vector x de un espacio E le hacemos acorresponder el vector 2x obtenemos la funci´ n h2 : E 3 x 7→ 2x ∈ E . Esta funci´ n es una o oTL ya que h2 (a + b) = 2 (a + b) = 2a + 2b = h2 (a) + h2 (b) h2 (λa) = 2λa = λ2a = λ = λh2 (a)Observese que en la segunda recta usamos la conmutatividad del producto de escalares. Lo mismo ocurre si en lugar del escalar 2 usamos cualquier otro escalar α ∈ K obtenien­do la TL dada por hα : E 3 x 7→ αx ∈ E. A las funciones hα se les llama homotecias. Hay dos casos particulares de homotecias especialmente importantes. Si α = 1 entoncesobtenemos la funci´ n identidad x 7→ x. A esta funci´ n se la denotar´ por Id. Si α = 0 o o aentonces obtenemos la funci´ n nula tambi´ n llamada funci´ n constante cero x 7→ 0. o e o En el caso del campo R las homotecias tienen una interpretaci´ n geom´ trica muy clara. Si o eα > 0 entonces cada punto x ∈ R se transforma en el punto αx que est´ en la misma recta n apor el origen que x pero a una distancia del origen α veces mayor que x. Esto quiere decirque hα es la dilataci´ n de raz´ n α. Si 0 < α < 1 entonces hα es realmente una contracci´ n o o opero interpretaremos las contracciones como dilataciones con raz´ n m´ s peque˜ a que 1. o a n En la figura de la derecha observamos la dilataci´ n x 7→ 2x en el oplano cartesiano R . La curva interior (que es la gr´ fica de la funci´ n 2 a o R25 + sin 5θ en coordenadas polares) se transforma en la misma curvapero del doble de tama˜ o (10 + 2 sin 5θ). n Si α = −1 entonces a la homotecia h−1 : x 7→ −x se le llamafunci´ n antipodal. El nombre viene de la siguiente interpretaci´ n. Si o o v 7→ 2vtrazamos una recta que pase por el centro de la Tierra intersectaremos lasuperficie en dos puntos. Estos puntos se dicen que son ant´podas o sea, nuestros ant´podas ı ıson la personas que viven “pies arriba” del “otro lado” de la Tierra. Si coordinatizamos laTierra con unos ejes de coordenadas con origen en el centro de la misma, nuestros ant´podas ıse obtienen multiplicando por −1.
    • Secci´ n 3.1 o Definici´ n y ejemplos o 65 En la figura de la izquierda est´ representada la funci´ n ant´podal en a o ı R2 R2 . En ella hay dos curvas cerradas de cinco p´ talos. La primera es e la misma que la de la figura anterior (10 + 2 sin 5θ). La segunda es la ant´poda de la primera (−10 − 2 sin 5θ). La figura es expresamente ı complicada para que el lector tenga la oportunidad de pensar un poco en que punto se va a transformar cada punto. Cualquier homotecia hα v 7→ −v con α < 0 se puede representar como h−1 (h−α ) por lo que hα se puedeinterpretar geom´ tricamente como una dilataci´ n seguida de la funci´ n ant´podal. A pesar e o o ıde su simplicidad las homotecias juegan un papel fundamental en la comprensi´ n de las TL oy este papel se debe a que ellas son todas las TL en dimensi´ n 1. o Si dim E = 1 entonces toda TL de E en E es una homotecia.Prueba. Sea {a} una base de E y f una TL de E en E. Como {a} es una base tiene que existirun escalar λ ∈ K tal que f (a) = λa. Sea x = αa un vector arbitrario en E . Como f eslineal tenemos f (x) = f (αa) = αf (a) = αλa = λαa = λx lo que demuestra que f esuna homotecia.Inmersiones Hasta ahora las TL que hemos visto (las homotecias) est´ n definidas de un espacio en asi mismo. Las inmersiones son la TL m´ s simples que est´ n definidas de un espacio en otro a adistinto. Sea E un subespacio de F. A la funci´ n i : E 3 x 7→ x ∈ F se le llama inmersi´ n o ode E en F. Las inmersiones son TLs inyectivas y son las restriciones a subespacios de lafunci´ n identidad. No hay mucho que decir de las inmersiones excepto de que hay una para ocada subespacio.Proyecciones Ahora supongamos al rev´ s (de las inmersiones) que F es subespacio de E . ¿Habr´ algu­ e ana TL natural de E en F? Lo que podemos hacer es buscarnos un espacio G complementariode F (existe por 2.28) De esta manera E = F ⊕ G y por 2.29 tenemos que cada vector x ∈ E ´se descompone de manera unica como a + b donde a es un vector en F y b es un vector en ı ´G . As´ para cada x ∈ E tenemos un unico a ∈ F y esto nos da una funci´ n que denotaremos opor πF y la llamaremos proyecci´ n de E en F a lo largo de G . Cualquier proyecci´ n πF o orestringida a F es la identidad por lo que necesariamente es sobreyectiva. La notaci´ n πF sugiere erroneamente que esta funci´ n solo depende del subespa­ o o cio F . Esto no es cierto, el subespacio F puede tener muchos subespacios comple­ mentarios diferentes y la proyecci´ n depende del subespacio complementario que o escojamos.
    • 66 Cap´tulo 3. Transformaciones lineales ı Las proyecciones son transformaciones lineales.Prueba. Escojamos un subespacio G complementario de F . De esta manera πF es unafunci´ n fija y bien definida. o ´ Si x, y son dos vectores entonces hay descomposiciones unicas x = πF (x) + πG (x) yy = πF (y) + πG (y) . Luego x + y = (πF (x) + πF (y)) + (πG (x) + πG (y)) . El primersumando de la derecha est´ en F y el segundo en G . Por la unicidad de la descomposici´ n a onecesariamente tenemos πF (x + y) = πF (x) + πF (y) . Sea ahora λ ∈ K. Tenemos λx = λπF (x)+λπG (x) . Nuevamente, el primer sumando dela derecha est´ en F y el segundo en G y por la unicidad de la descomposici´ n necesariamente a otenemos πF (λx) = λπF (x) . ¿Como son geom´ tricamente las proyecciones? En esencia el problema es el siguiente. eDados dos espacios complementarios F , G y un vector a como hallar un vector en F y otroen G que sumados den a. Esto ya lo hicimos una vez cuando introducimos las coordenadascartesianas en R2 . Dado un vector a trazamos la recta paralela al eje y que pasa por a yla intersecci´ n del eje x con esta recta es un vector πx (a) . De manera an´ loga obtenemos o aπy (a) y sabemos que a = πx (a) + πy (a). En el caso general es exactamente igual. Esta construc­ci´ n se ilustra en la figura de la derecha. Tenemos que F oes un subespacio de dimensi´ n k y uno de sus complemen­ otarios G es de dimensi´ n n − k. Hay un solo subespacio oaf´n paralelo a F que pasa por a y este es F + a. La in­ ıtersecci´ n (F + a) ∩ G es un solo punto y este punto es oel vector πG (a) . An´ logamente se observa que πF (a) = a(G + a)∩F. Como es l´ gico, no pudimos dibujar el espacio oR as´ que el lector deber´ contentarse con el caso n = 3, n ı ak = 2 y con la prueba general. Si F y G son complementarios entonces, para cualquier vector a se cumple a = ((G + a) ∩ F)+((F + a) ∩ G).Prueba. Como F y G son complementarios (G + a) ∩ F es un solo punto que denotaremosx. Sea −y ∈ G tal que x = −y + a. Tenemos que F + a = F + x + y = F + y y por lotanto y ∈ (F + a) . Luego y = (F + a) ∩ G.
    • Secci´ n 3.2 o Operaciones entre transformaciones lineales 67 3.2 Operaciones entre transformaciones lineales Ahora, veremos que operaciones se definen naturalmente entre las TLs.El espacio vectorial de las transformaciones lineales Sea f una TL y λ un escalar. Denotaremos por λf a la funci´ n a 7→ λf (a). A esta ooperaci´ n se le llama producto de un escalar por una TL. o El producto de un escalar por una TL es una TL.Prueba. Efectivamente, tenemos (λf) (a + b) = λf (a + b) = λ (f (a) + f (b)) = (λf) (a) + (λf) (b) (λf) (αa) = λf (αa) = λαf (a) = αλf (a) = α (λf) (a)lo que significa que λf es una TL. Sean ahora f y g dos transformaciones lineales. Denotaremos por f + g a la funci´ n oa 7→ f (a) + g (a). A esta operaci´ n se le llama suma de TLs. o La suma de dos TLs es una TL.Prueba. Denotemos h = f + g. Tenemos h (αa) = f (αa) + g (αa) = α (f (a) + g (a)) = αh (a) h (a + b) = f (a + b) + g (a + b) = f (a) + g (a) + f (b) + g (b) = h (a) + h (b)lo que significa que h es una TL. Luego, podemos sumar transformaciones lineales y multiplicarlas por escalares. Losaxiomas de espacio vectorial se comprueban de manera muy simple usando las definiciones.Por ejemplo, la prueba de la distributividad del producto por escalares con respecto a la su­ma es la siguiente: (λ (f + g)) (a) = λ (f (a) + g (a)) = λf (a) + λg (a) = (λf + λg) (a).Al espacio vectorial de todas las TLs del espacio E en el espacio F lo denotaremos porMor (E, F). Esta notaci´ n es debido que a las transformaciones lineales tambi´ n se les llama o emorfismos de espacios vectoriales. Debido a todo lo dicho es v´ lido el siguiente resultado: a Mor (E, F) es un espacio vectorial.Composici´ n de transformaciones lineales o Sean f ∈ Mor (E, F) y g ∈ Mor (F, G) dos TLs. La composici´ n h = g ◦ f se define ocomo la funci´ n E 3 a → g (f (a)) ∈ G. Demostremos que h = g ◦ f ∈ Mor (E, G) o sea, o 7que h es una TL.
    • 68 Cap´tulo 3. Transformaciones lineales ı La composici´ n de TLs es una TL. oPrueba. Sea h = g ◦ f la composici´ n de dos TLs. Tenemos o h (a + b) = g (f (a + b)) = g (f (a) + f (b)) = g (f (a)) + g (f (b)) = h (a) + h (b) h (αa) = g (f (αa)) = g (αf (a)) = αg (f (a)) = αh (a)que es lo que se quer´a demostrar. ı La composici´ n de TLs cumple las siguientes propiedades: o 1. f ◦ (g ◦ h) = (f ◦ g) ◦ h (asociatividad) 2. f ◦ (g + h) = f ◦ g + f ◦ h (distributividad a la izquierda) 3. (f + g) ◦ h = f ◦ h + g ◦ h (distributividad a la derecha) 4. f ◦ λg = λf ◦ g = λ (f ◦ g) (conmuta con el producto por escalares)Prueba. Como (f ◦ (g ◦ h)) (a) = f (g (h (a))) = ((f ◦ g) ◦ h) (a), la composici´ n esoasociativa. Con (f ◦ (g + h)) (a) = f ((g + h) (a)) = f (g (a) + h (a)) = = f (g (a)) + f (h (a)) = (f ◦ g) (a) + (f ◦ h) (a) = ((f ◦ g) + (f ◦ h)) (a)probamos la distributividad a la izquierda. Para la distributividad a la derecha usamos lasigualdades ((f + g) ◦ h) (a) = (f + g) (h (a)) = f (h (a)) + g (h (a)) = = (f ◦ h) (a) + (g ◦ h) (a) = ((f ◦ h) + (g ◦ h)) (a)Finalmente para probar que la composici´ n conmuta con el producto por escalares tenemos o (f ◦ λg) (a) = f (λg (a)) = λf (g (a)) = (λ (f ◦ g)) (a) = = λf (g (a)) = (λf) (g (a)) = (λf ◦ g) (a) . El lector debe ya debe poder encontrar por si mismo el porqu´ de la validez de cada una ede las igualdades utilizadas en esta prueba. ´El algebra de operadores lineales A una TL de un espacio vectorial en si mismo se le llama operador lineal. Nuevamente,usaremos la abreviatura OL para referirnos a los operadores lineales. Los OLs juegan (comoveremos m´ s adelante) un papel muy importante en el estudio de las TLs y por esto es que amerecen un nombre especial. El conjunto de todos los OLs de E se denotar´ por End E. Lo ahacemos as´ porque a los OLs tambi´ n se les llama endomorfismos de un espacio vectorial. ı ePor definici´ n tenemos End E = Mor (E, E). La principal diferencia entre las TLs y los OLs oes que la operaci´ n de composici´ n es una operaci´ n interna en espacio vectorial End E. O o o osea, si componemos dos OLs, obtenemos otro OL.
    • Secci´ n 3.2 o Operaciones entre transformaciones lineales 69 Si un espacio vectorial cualquiera (elcual ya trae definidos la suma y el pro­ Alg1) ∗ es asociativaducto por escalares) tiene otra operaci´ n Alg2) ∗ es distributiva con respecto a + obinaria ∗ que cumple los axiomas en el Alg3) ∗ tiene elemento neutrorecuadro a la derecha entonces, se le lla­ Alg4) ∗ conmuta con el producto por escalares ´ma algebra . Observese que los primeros tres axiomas los podemos resumir en uno: lasuma de vectores y ∗ definen un anillo en el espacio vectorial. El cuarto axioma lo quequiere decir es que para cualquier escalar λ y cualesquiera vectores a y b se cumple queλa ∗ b = a ∗ λb = λ (a ∗ b). Ya vimos (3.9 ) que la operaci´ n de composici´ n de OLs cumple los axiomas Alg1, Alg2 o o ´y Alg4. Para ver que End E es un algebra solo nos queda comprobar que la composici´ n tiene oelemento neutro. Pero esto es obvio ya que la funci´ n identidad cumple que f ◦ I = I ◦ f = f. oO sea, es el neutro para la composici´ n. Hemos demostrado el siguiente resultado o El espacio vectorial End E en un algebra con respecto a la composici´ n. ´ o ´ Hay otras dos algebras importantes que deben ser muy conocidas por el lector. Primero,el conjunto de los polinomios con coeficientes reales R [x] es un espacio vectorial sobre R,pero adem´ s sabemos multiplicar polinomios. Este producto cumple todos los axiomas de aAlg1­Alg4. Este ejemplo se generaliza a los polinomios sobre cualquier campo. El segundoejemplo son los n´ meros complejos. Estos son un espacio vectorial de dimensi´ n dos so­ u obre los reales pero adem´ s sabemos multiplicar n´ meros complejos. La multiplicaci´ n de a u ocomplejos tambi´ n cumple todos los axiomas Alg1­Alg4. e Un algebra se le llama conmutativa si el producto de vectores es conmutativo. El algebra de los ´ ´ ´ n´ meros complejos y el algebra de polinomios sobre un campo son conmutativas. Las algebras u ´ End E casi nunca son conmutativas (salvo en dimensi´ n 1). Por ejemplo en el plano cartesiano R2 ola rotaci´ n f en 45◦ y la reecci´ n g en el eje y son (como veremos despu´ s) OLs. Sin embargo, (g ◦ f) (1, 0) = o o e(−1, 1) 6= (−1, −1) = (f ◦ g) (1, 0).El grupo general lineal Una funci´ n cualquiera es biyectiva si y solo si esta tiene inversa. En el cap´tulo anterior, o ıcuando vimos los isomorfismos de espacios vectoriales, demostramos que si una TL tiene in­versa entonces esta inversa tambi´ n es una TL. En particular, la funci´ n inversa de un OL es e oun operador lineal. Un operador lineal se le llama singular si este no tiene inverso. En el casocontrario se le llama no singular. A los OLs no singulares tambi´ n se les llama automor­ efismos del espacio vectorial. En otras palabras los automorfismos son los endomorfismosbiyectivos. Al conjunto de todos los OLs no singulares del espacio vectorial E se le denota porGL (E). La suma de OLs no singulares puede ser singular ya que, por ejemplo, la funci´ n onula cumple que 0 = f − f. Sin embargo, la composici´ n de OLs no singulares es siempre un oOL no singular. Luego, la composici´ n es una operaci´ n binaria en GL (E) que ya sabemos o o
    • 70 Cap´tulo 3. Transformaciones lineales ıque es asociativa y tiene elemento neutro. Adem´ s, cada elemento tiene inverso ya que f ◦ af−1 = f−1 ◦ f = I. Luego, GL (E) es un grupo para la composici´ n al cual se llama grupo ogeneral lineal del espacio vectorial E. 3.3 Extensiones lineales Estudiaremos en esta secci´ n una manera universal de construir TLs. Pero antes, veamos oalgunas consideraciones de tipo general acerca de funciones entre conjuntos arbitrarios.Extensiones y restricciones Sean A y B dos conjuntos y A0 un subconjunto de A. Cada vez que se tiene una funci´ n of : A → B tambi´ n se tiene una funci´ n f0 : A0 → B definida por f0 (a) = f (a) para e ocualquier a ∈ A0 . A la funci´ n f0 se le llama restricci´ n de f a A0 y la denotaremos por fA 0 . o oTodas las diferentes restricciones de f se obtienen al tomar diferentes subconjuntos A0 . Si h y g son dos funciones tales que h es una restricci´ n de g entonces se dice que g oes una extensi´ n de h. Si est´ dada una funci´ n g : A0 → B y A es un sobreconjunto de o a oA0 entonces, pueden haber muchas extensiones h : A → B de g, ya que podemos escogerarbitrariamente los valores de h (x) para todos los x ∈ AA0 . Es un problema frecuente en matem´ ticas el encontrar extensiones que cumplan ciertas apropiedades. En nuestro caso, debemos encontrar extensiones que sean TLs. Formulemosnuestro problema m´ s precisamente. Sean E y F dos espacios vectoriales sobre K y N un aconjunto de vectores de E. Sea h : E → F una TL. Sabemos que N ⊂ E y por lo tantotenemos la restricci´ n hN : N → F. ¿Ser´ posible para cualquier funci´ n g : N → F o a o o a´encontrar una extensi´ n h : E → F de g que sea TL? ¿Ser´ unica tal extensi´ n? Veremos oque ambas preguntas tienen respuesta positiva si N es una base. Para demostrar la existencia de la extensi´ n debemos construirla. Sea N una base de E oy g : N → F una funci´ n arbitraria de N P F. Cualquier x ∈ E se expresa de forma unica o en ´como combinaci´ n lineal de N o sea x = i∈N αi i. A la funci´ n h del o o Xrecuadro a la derecha se le llama extensi´ n lineal de g. Observese que o x 7→ αi g (i)(como debe ser) la restricci´ n de h a N es igual a g ya que si x ∈ N o i∈Nentonces, la descomposici´ n de x en la base N tiene coeficientes αi = 0 opara i 6= x y αi = 1 para i = x. Las extensiones lineales son transformaciones lineales.Prueba. Tenemos X X X h (x + y) = (αi + βi ) g (i) = αi g (i) + βi g (i) = h (x) + h (y) i∈N X i∈N X i∈N h (λx) = λαi g (i) = λ αi g (i) = λh (x) i∈N i∈N
    • Secci´ n 3.3 o Extensiones lineales 71y esto prueba que h es una TL. Para demostrar la unicidad de la extensi´ n debemos convencernos de que dos TLs dis­ otintas no pueden coincidir en una base. Las TLs est´ n predeterminadas por sus valores en una base. aPrueba. Sean f, g : E → F dos TLs y N una base de E. Supongamos que f (i) = g (i) para P ´cualquier i ∈ N. Cualquier x ∈ E se expresa de forma unica como combinaci´ n lineal de N oo sea x = i∈N αi i. Luego à ! à ! X X X X f (x) = f αi i = αi f (i) = αi g (i) = g αi i = g (x) i∈N i∈N i∈N i∈Ny por lo tanto las TLs f y g son iguales.El isomorfismo entre FN y Mor (E, F) Recordemos ahora de la Secci´ n 2.2 que el conjunto de todas las funciones de N en F es oel conjunto de las N­adas de vectores de F, que este es un espacio vectorial para la suma yel producto por escalares definidos por coordenadas y que se denota por FN . Si N es una base de E entonces, hemos construido una correspondencia biun´voca entre ıFN y Mor (E, F). A cada N­ada hN ∈ FN le corresponde su extensi´ n lineal h ∈ Mor (E, F) oy a cada TL h ∈ Mor (E, F) le corresponde hN su restricci´ n a N (que es una N­ada). oQueremos ver que esta correspondencia es un isomorfismo de espacios vectoriales. Si N es una base de E entonces, la biyecci´ n o r : Mor (E, F) 3 h 7→ hN ∈ F N es un isomorfismo de espacios vectoriales.Prueba. Solo nos queda probar que r es una TL. Efectivamente, sean h, h0 ∈ Mor (E, F) yλ un escalar. Tenemos r (h + h0 ) = (h + h0 )N = hN + h0N = r (h) + r (h0 ) r (λh) = (λh)N = λhN = λr (h)que se cumplen por las definiciones de suma y producto por escalares de las N­adas.Un criterio de isomorfismo
    • 72 Cap´tulo 3. Transformaciones lineales ı Al establecer que los espacios Mor (E, F) y FN son isomorfos es natural que esperemosque cualquier propiedad de las TL se tradusca de alguna u otra manera al lenguaje de lasN­adas de vectores. En este caso queremos hacer la traduci´ n de la propiedad de una TL ode ser o no un isomorfismo de espacios vectoriales. Ya vimos en el cap´tulo anterior que ıun isomorfismo transforma una base del dominio en una base del codominio. ¿Ser´ esta apropiedad suficiente para comprobar que una TL es un isomorfismo?. La (1, 0, 0) 7→ (1, 0)respuesta es NO. Por ejemplo, la extensi´ n lineal de la funci´ n definida o o (0, 1, 0) 7→ (0, 1)en la base can´ nica de R3 como en el recuadro a la derecha transforma a o (0, 0, 1) 7→ (0, 1)esta base en la base can´ nica de R2 y sin embargo no es inyectiva. Nos ofalta la propiedad evidentemente necesaria de que la restricci´ n de la TL debe ser inyectiva. o Una TL es un isomorfismo si y solo si su restricci´ n a una o base es inyectiva y la imagen de esta restricci´ n es una base. oPrueba. Ya hemos probado la necesidad. Para la suficiencia sea N una base de E y hN ∈ FNuna N­ada de vectores de F tal que sus coordenadas son todas diferentes (la inyectividad) yque el conjunto de sus coordenadas (la imagen) es una base M = h (N) de F. Probemos que Pla extensi´ n lineal h : E → F de hN es un isomorfismo. Efectivamente, si x = i∈N αi i y P oy = i∈N βi i son dos vectores cualesquiera en E y h (x) = h (y) entonces, X X αi h (i) = βi h (i) i∈N i∈Ny como todos los h (i) = hi son diferentes, estas son dos combinaciones lineales iguales dela base M. Por la caracterizaci´ n 2.9.3 de los conjuntos LI los coeficientes de estas combi­ onaciones lineales tienen que coincidir αi = βi y por lo tanto x = y. Luego, h es inyectiva. Para ver que h es sobreyectiva sea z vector en F. Como M es una base P F existen P decoeficientes γi tales que z = i∈N γi h (i) y por lo tanto z = h (v) donde v = i∈N γi i. 3.4 Coordinatizaci´ n de transformaciones lineales o Para darle coordenadas a una TL lo primero es darle coordenadas a los espacios entrelos cuales est´ definida la TL. Sean N y M bases de E y F respectivamente. Tenemos los aisomorfismos de coordinatizaci´ n E ↔ K{N} y F ↔ K{M} . Para cada f ∈ Mor (E, F) tenemos o f ¡ ¢la composici´ n g : K{N} → E → F → K{M} que es una TL en Mor K{N} , K{M} . o ¡ ¢ Rec´procamente para cada g ∈ Mor K{N} , K{M} tenemos la ı g fcomposici´ n f : E → K{N} → K{M} → F que es una TL en o E −→ FMor (E, F). Es f´ cil ver y es intuitivamente claro que esta corres­ a ¡ ¢ l lpondencia biun´voca Mor (E, F) ↔ Mor K{N} , K{M} es un isomor­ K{N} −→ K{M} ı gfismo de espacios vectoriales.
    • Secci´ n 3.4 o Coordinatizaci´ n de transformaciones lineales o 73Ejercicio 56 Sean E ↔ E0 y F ↔ F0 isomorfismos de espacios vectoriales. Construya unisomorfismo Mor (E, F) ↔ Mor (E0 , F0 ). Podemos pensar a N como la base can´ nica de K{N} . Luego, aplicando 3.13 obtenemos o ¡ {N} {M} ¢ ¡ {M} ¢Nel isomorfismo Mor K , K ↔ K = K{M}×N que es el conjunto de las MNmatrices tales que cada columna es de soporte finito. Para el caso que m´ s nos interesa en a ¡ M ¢Nque N y M son bases finitas obtenemos Mor (E, F) ↔ K = K . Sea f ∈ Mor (E, F). MNA la matriz αMN que le corresponde a f mediante el isomorfismo construido se le llamamatriz de la TL f en las bases M y N. Los resultados de la secci´ n anterior nos dicen como oconstruir αMN dada f. Para cada i ∈ N la columna αMi es el vector f (i) coordinatizado en Pla base M. O sea f (i) = a∈M αai a. Pn PEjercicio 57 Pruebe que la funci´ n K [x] 3 o i=0 ai xi 7→ n ai (x + 1)i ∈ K [x] es un i=0isomorfismo de espacios vectoriales. Construya algunas columnas de la matriz α de estaTL en la base can´ nica del espacio de polinomios. Demuestre que las entradas de esta matriz oest´ n definidas por la ecuaci´ n recursiva αkn = αk,(n−1) + α(k−1),(n−1) con las condiciones a ode frontera αkn = 0 si k > n y αkn = 1 si k = 0 o k = n. P La f´ rmula f (i) = o a∈M αai a nos dice tambi´ n como construir f dada αMN . Las eimagenes de los i ∈ N las calculamos por la f´ rmula y a f la construimos por extensi´ n P o olineal. O sea, si E 3 x = i∈N βi i entonces, Ã ! X X X X X F 3 f (x) = βi f (i) = βi αai a = αai βi a i∈N i∈N a∈M a∈M i∈N PLa expresi´ n i∈N αai βi es un escalar y hay uno para cada a ∈ M por lo que son las ocoordenadas de una M­ada. A esta M­ada se le llama producto de la matriz αMN por elvector βN y se denota por αMN βN . X Observese que este producto lo podemos escribir como en el re­ αMN βN = αMi βi cuadro a la izquierda. Esto quiere decir que este producto se obtie­ i∈N ne multiplicando las columnas de αMN por las correspondientescoordenadas de βN y sumando los resultados. En otras palabras αMN βN es la combinaci´ n olineal de las columnas de αMN cuyos coeficientes son las coordenadas de βN . En esta secci´ n estudiaremos m´ s sistem´ ticamente el isomorfismo entre las TLs y las o a amatrices repitiendo m´ s detalladamente todo lo dicho en esta introducci´ n. Si el lector no a oentendi´ muy bien, le recomiendo seguir adelante y despu´ s releer esta introducci´ n. o e oEl producto escalar can´ nico o Sean αN y βN dos N­adas. El producto escalar de estas N­adas X αN βN = αi βies el escalar del recuadro a la derecha. De esta manera, el producto i∈Nescalar de dos vectores es un elemento del campo.
    • 74 Cap´tulo 3. Transformaciones lineales ı No se debe confundir el “producto por un escalar” con el “producto escalar”. El primero es un producto de un escalar por un vector y el segundo es un produc­ to de dos vectores. M´ s adelante veremos que hay otros productos definidos en acualquier espacio vectorial. Por esto a este producto lo llamaremos can´ nico y solamente oest´ definido en el espacio vectorial de las N­adas para cierto conjunto finito de ´ndices N. a ı El producto escalar cumple las siguientes propiedades: 1. xy = yx (conmutatividad) 2. x (y + z) = xy + xz (distributividad a la izquierda) 3. (y + z) x = yx + zx (distributividad a la derecha) 4. x (λy) = (λx) y = λ (xy) (conmuta con el producto por escalares)Ejercicio 58 Pruebe las principales propiedades del producto de N­adas (3.15).Ejercicio 59 Busque tres vectores x y z en el plano R2 tales que (xy) z 6= x (yz). [130]Ejercicio 60 Pruebe que ∀αN ∈ RN se cumple que α2 = αN αN ≥ 0. NEl producto de matrices Sean αMN y βNL dos matrices. Observese que el conjunto de ´ndices de las columnas ıde la primera, coincide con el conjunto de ´ndices de los renglones de la segunda. As´, tanto ı ıun rengl´ n αiN como una columna βNj son vectores del espacio K de N­adas y podemos o Nformar su producto αiN βNj . Cuando hacemos esto, para todos los i ∈ M y todos los j ∈ Lobtenemos una ML­matriz formada por todos estos productos. A esta matriz se le llama elproducto de las matrices αMN y βNL y se denotar´ por αMN βNL . Resumiendo, si γML = aαMN βNL entonces γij = αiN βNj . Por ejemplo, si los conjuntos de ´ndices son M = {1, 2}, ıN = {1, 2, 3} y L = {1, 2} entonces, en forma gr´ fica tenemos a ⎛ ⎞ µ ¶ β11 β12 µ ¶ α11 α12 α13 ⎝ ⎠ = α1N βN1 α1N βN2 β21 β22 α21 α22 α23 α2N βN1 α2N βN2 β31 β32y por definici´ n de producto escalar de vectores tenemos o µ ¶ µ P3 P3 ¶ α1N βN1 α1N βN2 i=1 α1i βi1 Pi=1 α1i βi2 = P3 3 . α2N βN1 α2N βN2 i=1 α2i βi1 i=1 α2i βi2Productos de matrices y vectores Sean αMN y βNL dos matrices. Si el conjunto de indices L tiene un solo elemento en­tonces la matriz βNL tiene una sola columna. En este caso podemos escribir βNL = βN1y diremos que βN1 es un vector columna o una N­ada columna. Obviamente, podemospensar que βN1 es una N­ada βN . En este caso podemos hacer el producto de matricesαMN βN1 = αMN βN y este es el producto de una matriz por un vector definido al princi­
    • Secci´ n 3.4 o Coordinatizaci´ n de transformaciones lineales o 75pio de esta secci´ n. An´ logamente se define el producto por el otro lado. Si el conjunto de o aindices M tiene un solo elemento entonces la matriz αMN tiene un solo rengl´ n. En este caso opodemos escribir αMN = α1N y diremos que α1N es un vector rengl´ n o N­ada rengl´ n. o oObviamente, podemos pensar que α1N es una N­ada αN . En este caso podemos hacer elproducto de matrices α1N βNL = αN βNL y esta es la definici´ n del producto de un vector opor una matriz. En este libro, no haremos distinciones entre N­adas, N­adas columna y N­adas rengl´ n oo sea α1N = αN1 = αN . Para esto, dimos las definiciones de producto de una matriz por unvector y al rev´ s. Intuitivamente, el lector debe pensar que cuando aparesca un vector en un eproducto de matrices este se convierte en vector fila o columna seg´ n sea conveniente. u Claro, este abuso de la notaci´ n aunque es muy c´ modo puede llevar (si nos pone­ o o mos pedantes) a contradicciones. Por ejemplo, podemos sumar dos N­adas pero no podemos sumar una N­ada columna con una N­ada rengl´ n. o Observese que, no solo el producto de matrices por vectores y al rev´ s son casos particu­ elares del producto de matrices, sino tambi´ n el producto escalar de dos vectores al constatar eque αN βN = α1N βN1 .Ejercicio 61 Tome dos matrices con entradas enteras y multipl´quelas. Repita este ejercicio ıhasta que usted comprenda muy bien el concepto de producto de matrices.La transformaci´ n lineal de una matriz o Sea αMN una MN­matriz. Esta matriz define una funci´ n KN 3 βN → αMN βN ∈ KM . oEsta ¡ funci´ n es una TL como ya vimos al principio de esta secci´ n utilizando el isomorfismo o ¢ oMor KN , KM ↔ KMN . Sin embargo, la prueba directa de este hecho es muy sencilla. El multiplicar una matriz fija por N­adas es una TL.Prueba. Sea αMN una matriz cualquiera pero fija. Por las propiedades del producto de vec­tores tenemos que para todo i ∈ M se cumple que αiN (βN + γN ) = αiN βN + αiN γN y queαiN (λβN ) = λ (αiN βN ). Esto significa que son v´ lidas las igualdades αMN (βN + γN ) = aαMN βN + αMN γN y αMN (λβN ) = λ (αMN βN ).La matriz de una transformaci´ n lineal o En la proposici´ n anterior vimos que al mutiplicar MN­matrices por N­adas obtenemos oejemplos de TLs. Ahora queremos ver que estos son todos los ejemplos posibles, o sea, quecualquier TL de KN en KM se obtiene multiplicando por una MN­matriz. En¡realidad, ¢ estoya lo probamos al principio de esta secci´ n al construir el isomorfismo Mor K , K o N M ↔KMN . Sin embargo, aqu´ es m´ s simple ya que tenemos bases can´ nicas de KN y KM . Sea ı a o
    • 76 Cap´tulo 3. Transformaciones lineales ıE = {ei : i ∈ N} la base can´ nica de KN . Recordemos que ei es la N­ada con coordenadas oδji = 1 si i = j y δji = 0 si i 6= j. Sea f : KN → KM una TL. Denotemos αMi = f (ei ) ∈KM . A la matriz αMN cuyas columnas son las imagenes de la base can´ nica mediante la TL of la llamaremos matriz de la TL f. Sea f : KN → KM una TL y αMN su matriz. Entonces, pa­ ra cualquier βN ∈ KN se cumple que f (βN ) = αMN βN .Prueba. Sea f0 : βN 7→ αMN βN . Sabemos que f y α e = P α δ = α MN i j∈N Mj ji Mif0 son TLs. Si i ∈ N entonces, por definici´ n de la base ocan´ nica y del producto de una matriz por un vector tenemos la igualdad del recuadro. Luego of y f0 coinciden en la base can´ nica y por extensi´ n lineal ambas son la misma funci´ n. o o oEjercicio 62 Halle la matriz de la rotaci´ n con angulo α en R2 . [131] o ´Composici´ n de TLs y producto de matrices o La matriz de la composici´ n de dos TLs es o igual al producto de las matrices de las TLs. ¡ ¢ ¡ ¢Prueba. Sean f ∈ Mor KN , KM y g ∈ Mor KM , KL dos TLs. Sean αMN y βLM lasmatrices de f y g respectivamente. Para cualquier γN ∈ KN y cualquier i ∈ L tenemos X X X βiM (αMN γN ) = βij (αjN γN ) = βij αjk γk = j∈M j∈M k∈N XX X = βij αjk γk = (βiM αMk ) γk = (βiM αMN ) γN k∈N j∈M k∈Ny por lo tanto βLM (αMN γN ) = (βLM αMN ) γN . Como γN 7→ βLM (αMN γN ) es la TL g ◦ fentonces, tenemos (g ◦ f) (γN ) = (βLM αMN ) γN que es lo que se quer´a probar. ı El producto de matrices es asociativo, distribuye por ambos lados con la suma de matrices y conmuta con el producto por un escalar.Prueba. Sean f, g y h TLs cuyas matrices son αMN , βLM y γKL respectivamente. Lamatriz de (h ◦ g) ◦ f es (γKL βLM ) αMN . La matriz de h ◦ (g ◦ f) es γKL (βLM αMN ). Co­mo la composici´ n de TLs es asociativa tenemos (h ◦ g) ◦ f = h ◦ (g ◦ f) y por lo tanto o(γKL βLM ) αMN = γKL (βLM αMN ). Esto prueba la asociatividad. Las dem´ s propiedades se prueban exactamente igual o sea, se desprenden de las respec­ ativas propiedades de las TLs y de la proposici´ n 3.18. o
    • Secci´ n 3.4 o Coordinatizaci´ n de transformaciones lineales o 77Ejercicio 63 Pruebe la asociatividad del producto de matrices directamente de la definici´ n ode producto o sea, sin usar TLs. [131] El espacio de todas las NN­matrices ¡ ¢ es un algebra isomorfa a End KN . ´Prueba. Ya sabemos que KNN es un espacio vectorial para la suma de matrices y el productode una matriz por un escalar. El resultado anterior hace la mayor parte del trabajo necesario ´para mostrar que KNN es un algebra. Solo falta el neutro para el producto que es la matrizde la identidad en KN . Esta matriz es INN que cumple que Iij = δij (el delta de Kronecker)y que la llamaremos matriz identidad. Adem´ s, ya sabemos que la aplicaci´ n que a un OL en KN le hace corresponder su a omatriz es un isomorfismo de espacios vectoriales. La proposici´ n 3.18 completa la tarea de o ´demostrar que esta aplicaci´ n es un isomorfismo de algebras. o Matrices inversas ¡ ¢ Sea f ∈ Mor KN , KM y αMN¡ la matriz de f. La ¡ ¢ −1 funci´ n f es biyectiva si y solo si, o ¢existe la TL f tal que f ◦ f = I K y f ◦ f = I K . A la matriz de la TL f−1 se −1 −1 N Mle llama matriz inversa de αMN y se denota por α−1 . De la proposici´ n 3.18 obtenemos MN oque la matriz inversa cumple que α−1 αMN = INN y αMN α−1 = IMM . Observese que el MN MNconjunto de ´ndices de las columnas de α−1 es M y no N. An´ logamente, el conjunto de ı MN a´ndices de los renglones de α−1 es N y no M.ı MN De la definici´ n es inmediato que una matriz tiene inversa si y solo si su TL es un iso­ omorfismo de espacios vectoriales. En particular los conjuntos de ´ndices N y M tienen que ıtener el mismo cardinal ya que estos cardinales son las dimensiones del dominio y el codo­minio de esta TL. O sea, la matriz debe ser cuadrada. Ahora nos preocuparemos en traducirnuestro criterio de isomorfismo 3.14 al lenguaje de matrices. Una matriz cuadrada αMN tiene inversa si y solo si sus columnas son todas diferentes y son una base de KM . ¡ ¢Prueba. Sea αMN una matriz cuadrada y f ∈ Mor KN , KM su TL. La resticci´ n de f oa la base can´ nica de KN es la N­ada de las columnas de la matriz αMN . Por 3.14 para oque f tenga funci´ n inversa es necesario y suficiente que esta restricci´ n sea inyectiva (las o ocolumnas diferentes) y que su imagen (el conjunto de columnas) sea una base de KM . Es posible probar un criterio an´ logo al anterior substituyendo las columnas por los ren­ aglones. Sin embargo, su prueba aqu´ se nos har´a innecesariamente complicada. Mejor lo ı ıdejaremos para el pr´ ximo cap´tulo donde esto ser´ una f´ cil consecuencia de un resultado o ı a amucho m´ s importante. a
    • 78 Cap´tulo 3. Transformaciones lineales ıEjercicio 64 Sean f y g las rotaciones del plano R2 en los angulos α y β respectivamente. ´Use el ejercicio 62 para hallar las matrices en la base can´ nica de f, g y f ◦ g. Use 3.18 para o ´hallar f´ rmulas para el seno y el coseno de la suma de dos angulos. [131] o 3.5 Cambios de base Es usual en las aplicaciones que sea conveniente realizar ciertos c´ lculos en un sistema de a e a ´coordenadas y despu´ s realizar otros c´ lculos en otro sistema de coordenadas. En el algebralineal estos cambios de coordenadas son lineales o sea, la transformaci´ n que lleva unas ocoordenadas a otras es una TL.Cambios de base en un espacio vectorial Sean V y N dos bases del espacio E. Conocemos los isomorfismos de coordinatizaci´ n oKV ↔ E ↔ KN . Nuestro problema ahora es: dado una V­ada βV que son las coordenadasdel vector x en la base V como hallar las coordenadas γN de x en la base N. En este caso lasletras V y N tienen el sentido de que V es la base “vieja” y que N es la base “nueva”. Sea αNV la matriz cuyas columnas son los vectores de la base V expre­ Xsados en las coordenadas de N. O sea, para cualquier v ∈ V tenemos la v = αiv if´ rmula en el recuadro a la derecha. A la matriz αNV se le llama matriz de o i∈Ncambio de base (de V a N). Esta matriz no es otra cosa que la matriz delisomorfismo KV → E → KN . Si βV es la V­ada de las coordenadas de un vector en la base V entonces, αNV βV es la N­ada de las coordenadas del mismo vector en la base N. P PPrueba. Descompongamos x ∈ E en las dos bases. Tenemos, x = v∈V βv v = i∈N γi i à ! à !y por lo tanto X X X X X x= βv αiv i = αiv βv i = γi i v∈V i∈N i∈N v∈V i∈NP la unicidad de las coordenadas de cualquier vector en la base N obtenemos la igualdadDe v∈V αiv βv = γi que es la que se necesitaba demostrar.Ejemplo. Queremos calcular las coordenadas de un vector u = (x, y) ∈ R2 en la baseN = {a1 , a2 } donde a1 = (2, 3) y a2 = (1, 2). Las coordenadas (x, y) son las coordenadasde u en la base can´ nica. Luego, V = {e1 , e2 } es la base can´ nica y para construir la matriz o oαNV de cambio de base necesitamos las coordenadas de V en la base N. Estas coordenadasse pueden hallar resolviendo dos sistemas de ecuaciones lineales pero es m´ s sencillo usar ala siguiente argumentaci´ n. Como un cambio de base es un isomorfismo entonces la matriz oαNV tiene inversa que es la matriz de cambio de la base N a la base V. Las columnas de estamatriz ya las tenemos, son a1 y a2 . Luego, denotando p y q las coordenadas que buscamos,
    • Secci´ n 3.5 o Cambios de base 79o sea, u = pa1 + qa2 tenemos: µ ¶ µ ¶−1 µ ¶ µ ¶µ ¶ µ ¶ p 2 1 x 2 −1 x 2x − y = = = . q 3 2 y −3 2 y 2y − 3x ´y en estos c´ lculos lo unico que no conoce el lector es como calcular la matriz inversa. Pero, aesto lo pospondremos hasta el pr´ ximo cap´tulo. o ıCambios de base en el espacio de transformaciones lineales Veamos como cambia la matriz de una TL cuando cambian las bases. Sean V, N dosbases del espacio E y W, M dos bases del espacio F. Conocemos los isomorfismos decoordinatizaci´ n KWV ↔ Mor (E, F) ↔ KMN . El problema ahora es: dada una WV­matriz oαWV que es la matriz de la TL f : E → F en las bases V y W como hallar la matriz βMN de fen las bases N y M. Nuevamente, V, W son las bases “viejas” y M, N son las bases nuevas. Sea γNV la matriz de cambio de base de V a N en E. Sea λMW la Xmatriz de cambio de base de W a M en F. O sea, para cualquier v ∈ V v= γiv i i∈N Xy cualquier w ∈ W tenemos las f´ rmulas en el recuadro a la derecha. oEstas matrices no son otra cosa que las matrices de los isomorfismos de w= λjw j j∈Mcoordinatizaci´ n KV → E → KN y KW → F → KM . o Si αWV es la matriz de f en las bases V y W entonces, λMW αWV γ−1 es la matriz de f en las bases N y M. NVPrueba. Las columnas de αWV son las imagenes por f de la base XV expresadas en la base W o sea, ∀v ∈ V se cumple la f´ rmula o f (v) = αwv w w∈Wdel recuadro a la derecha. Denotemos por βMN la matriz de f en las X bases N, M. Las columnas de βMN son las imagenes por f de la base f (i) = βji j N expresadas en la base M. O sea, para cualquier i ∈ N se cumple la j∈M f´ rmula del recuadro a la izquierda. o Substituyendo en la f´ rmula de la derecha à f´ rmulas que definen las matrices λMW y o las o !γNV obtenemos X X X γiv f (i) = λjw αwv j i∈N j∈M w∈Wy en esta igualdad substituimos f (i) por la f´ rmula de la izquierda para obtener à ! o à ! X X X X βji γiv j = λjw αwv j. j∈M i∈N j∈M w∈WDe la unicidad de la representaci´ n de cualquier vector en la base M obtenemos que para o P Pcualesquiera j ∈ M y v ∈ V se cumple que i∈N βji γiv = w∈W λjw αwv y por lo tantoβMN γNV = λMW αWV . Como γNV es la matriz de un isomorfismo entonces, γNV tieneinversa por lo que podemos despejar βMN .
    • 80 Cap´tulo 3. Transformaciones lineales ı αWV La proposici´ n anterior la podemos interpretar gr´ ficamen­ o a KV −→ KW te de la siguiente manera. Las matrices αWV , βMN , γNV , y γNV ↓ ↓ λMW λMW son las matrices de TLs entre espacios como se muestra KN −→ KM en el diagrama a la izquierda. Se dice que un diagrama de βMN funciones es conmutativo si cualesquiera dos caminos di­rigidos entre dos cualesquiera conjuntos son funciones iguales. En nuestro caso, el que eldiagrama a la izquierda sea conmutativo lo quiere decir es que βMN γNV = λMW αWV .Cambios de base en el espacio de operadores lineales Si f ∈ End (E) = Mor (E, E) es un OL entonces, no tiene sentido escoger bases diferen­tes para el dominio y el codominio ya que estos son iguales. Sean V, N dos bases de E. Elproblema ahora es: dada una VV­matriz αVV que es la matriz del OL f en la base V, hallar lamatriz βNN de f en la base N. Sea γNV la matriz de cambio de αVVbase de V a N en E. En este caso, el diagrama es el de la dere­ KV −→ KVcha. Ya no hay que probar la conmutatividad de este ya que el, γNV ↓ ´ ↓ γNV Nes un caso particular del anterior. Luego, βNN γNV = γNV αVV K −→ KN βNNy despejando obtenemos que βNN = γNV αVV γ−1 . NV µ ¶ Ejemplo. Sea f la TL del plano R2 que tiene la matriz del recuadro a cos α − sin α la izquierda en la base V = {a1 , a2 } donde a1 = (2, 3) y a2 = (1, 2). sin α cos α ¿Cual ser´ la matriz de f en la base can´ nica? La matriz de cambio a ode base a la base can´ nica es la que tiene como columnas a los vectores a1 y a2 . Luego, la omatriz de f en la base can´ nica es o µ ¶µ ¶µ ¶−1 µ ¶ 2 1 cos α − sin α 2 1 cos α + 8 sin α −5 sin α = 3 2 sin α cos α 3 2 13 sin α cos α − 8 sin αy esto es una advertencia de que un operador lineal puede tener en una base una matriz quees igual a la de la rotaci´ n en la base can´ nica y sin embargo no es una rotaci´ n. o o oLa transformaci´ n lineal tanspuesta o Las f´ rmulas de cambios de base nos permiten definir propiedades de las transforma­ ociones lineales que est´ n definidas solo para las matrices. La idea es la siguiente: para una atransformaci´ n lineal f se encuentra su matriz A en ciertas bases se define la “propiedad” opara la matriz A y definimos a esta como “propiedad” de f. Finalmente, se prueba que si Bes matriz de f en otras bases entonces, la “propiedad” de la matriz A es tambi´ n “propiedad” ede la matriz B. Con esto logramos que nuestra definici´ n de “propiedad” de f sea correcta o osea, no depende de las bases en las cuales se defini´ . Ahora seguiremos esta idea para definir ola transformaci´ n lineal transpuesta. o Sea A = αNM una matriz. A la matriz B = βMN definida por βij = αji se le llama lamatriz transpuesta de A y se denotar´ por AT . Un ejemplo de matrices transpuestas es el asiguiente ⎛ ⎞ µ ¶T 1 6 1 2 3 =⎝ 2 5 ⎠ 6 5 4 3 4
    • Secci´ n 3.5 o Cambios de base 81o sea, los renglones de A son las columnas de AT y viceversa. Es comodo pensar en la transpuesta como la operaci´ n de transposici´ n que a una matriz o ole hace corresponder su transpuesta. ¡ ¢T Las principales propiedades de la transposici´ n son o 1) AT = A las que se muestran en el recuadro a la derecha. 2) (AB)T = BT AT ¡ ¢T ¡ ¢−1 3) A−1 = ATPrueba. La propiedad 1 es consecuencia trivial de la definici´ n. Para convencernos de la opropiedad 2 sean A = αNM , B = βML y γNL = αNM βML = AB. Denotemos AT = α0MN ,BT = β0LM y (AB)T = γ0LN . Tenemos que ∀i ∈ N y ∀j ∈ M X X γ0ji = αiM βMj = αik βkj = β0jk α0ki = β0jM α0Mi k∈M k∈My esto prueba la propiedad 2. Para probar la propiedad 3 vemos que por la propiedad 2tenemos ¡ −1 ¢T T ¡ ¢T A A = AA−1 = IT = Iy la prueba concluye por la unicidad de los inversos. Ahora, sea f : E → F una TL y A la matriz de f en ciertas bases. Definamos la TLtranspuesta fT : F → E como la TL de la matriz transpuesta AT . Tenemos que comprobarque esta definici´ n no depende de como escogimos las bases. Si B es la matriz de f en otras obases entonces existen matrices invertibles C y D tales que B = CAD y por la propiedad2 tenemos BT = DT AT CT . Por la propiedad 3 las matrices DT y CT son invertibles y estosignifica que BT es la matriz de fT en las nuevas bases. La transpuesta de una inmersi´ n es una proyecci´ n y rec´procamente. o o ıPrueba. Sea F un subespacio de E y f : F → E la inmersi´ n ⎛ o ⎞ 1 ··· 0correspondiente. Sea A una base de F. Por el Teorema de Existencia ⎜ ··· ··· ··· ⎟de Bases existe una base B de E que contiene a A. El conjunto de ⎜ ⎜ 0 ··· 1 ⎟ ⎟vectores C = BA es una base de cierto subespacio complementario ⎜ ⎜ 0 ··· 0 ⎟ ⎟G de tal manera que E = F ⊕ G. Si coordinatizamos a F con la ⎝ ⎜ ⎟ ··· ··· ··· ⎠base A y a E con la base B entonces, en estas bases, la matriz de 0 ··· 0f se ve como en el recuadro a la derecha. O sea, en los renglonescorrespondientes a A tenemos la matriz identidad y en los renglones correspondientes a Ctenemos una matriz nula. Si transponemos esta matriz entonces fT es la TL que a un vector a + b con a ∈ F yb ∈ G le hace corresponder a. Luego fT es la proyecci´ n de E a F a lo largo de G. El o“rec´procamente” se prueba an´ logamente. ı a
    • 82 Cap´tulo 3. Transformaciones lineales ıEjercicio 65 Pruebe que las propiedades 3.24 son tambi´ n propiedades de la transposici´ n e ode TL o sea, son invariantes por cambios de bases. [131] ´ Este ultimo ejercicio llama la atenci´ n. ¿Acaso no es trivial? La respuesta es si, pero con la trans­ o puesta hay que ser cuidadosos. Por ejemplo, podemos definir para un operador lineal f = fT si en ¡ ¢T cierta base A = AT y de aqu´ podr´amos concluir que BAB−1 = BAB−1 para cualquier matriz ı ıinvertible B. Esto NO es verdadero. La raz´ n profunda de esto es que la transpuesta de un operador “vive” onaturalmente en el espacio dual y para poder definir f = fT hay que identificar el espacio con su dual mediantealg´ n isomorfismo no can´ nico. u o 3.6 El nucleo y la imagen de una transformaci´ n lineal o En esta secci´ n queremos ver que para describir todas las transformaciones lineales nos oes suficiente conocer las inmersiones, las proyecciones y los isomorfismos. Despu´ s, vere­ emos interesantes consecuencias de este resultado.Definiciones Para esto comenzaremos con dos definiciones fundamentales. Sea f : E → F una TL.Al conjunto {y ∈ F | ∃x ∈ E f (x) = y} se le llama imagen de la TL. La imagen de f sedenotar´ por Im f. Al conjunto {x ∈ E | f (x) = 0} se le llama nucleo de la TL. El nucleo de af se denotar´ por ker f. Esta notaci´ n es debido a que en ingl´ s nucleo es “kernel”. Descrip­ a o etivamente la imagen es el conjunto de los vectores en el codominio que tienen preimagen yel nucleo es el conjunto de los vectores en el dominio cuya imagen es el vector 0. La imagen y el nucleo de una TL son subespacios.Prueba. Sean x, y vectores en Im f y λ ∈ K. Por definici´ n existen a, b tales que f (a) = ox, f (b) = y. Como f es lineal tenemos f (a + b) = f (a) + f (b) = x + y y adem´ s af (λa) = λf (a) = λx. Esto quiere decir que Im f es un subespacio. Sean a, b vectores en ker f y λ ∈ K. Tenemos f (a + b) = f (a) + f (b) = 0 + 0 = 0 yf (λa) = λf (a) = λ0 = 0. Esto quiere decir que ker f es un subespacio. El nucleo y la imagen de una TL son subespacios de espacios diferentes. Si f : E → F entonces ker f ⊂ E e Im f ⊂ F. Solamente en el caso que la TL es un OL o sea, cuando E = F el nucleo y la imagen son subespacios del mismo espacio. Sinembargo, como veremos m´ s adelante, en este caso pasan cosas raras ya que, aunque estos asubespacios tienen dimensiones complementarias ellos NO son complementarios en general.
    • Secci´ n 3.6 El nucleo y la imagen de una transformaci´ n lineal o o 83Transformaciones lineales con nucleo trivial Observese que, como para cualquier TL se tiene que f (0) = 0 entonces el vector cerosiempre es un elemento del nucleo. Si el nucleo solo contiene al vector cero se dice que ftiene nucleo trivial. Cualquier TL lineal inyectiva tiene nucleo trivial ya que en este caso la ´preimagen de cualquier vector es unica. Lo importante es que el rec´proco tambi´ n es cierto. ı e Una TL es inyectiva si y solo si su nucleo es trivial.Prueba. Sea f una TL. Sean x,y dos vectores en el dominio de f. Tenemos (f (x) = f (y)) ⇔ (f (x) − f (y) = 0) ⇔ (f (x − y) = 0) ⇔ (x − y ∈ ker f)y por lo tanto el que halla dos vectores diferentes cuyas imagenes sean iguales es equivalentea la existencia de un vector no nulo en el nucleo de la TL.Descomposici´ n de transformaciones lineales o Ahora, demostraremos el resultado prometido al principio de la secci´ n. Sea f : E → oF una TL. Sea K un subespacio complementario cualquiera pero fijo del ker f. Sea fK larestricci´ n de f al subespacio K. Denotemos i : Im f → F la inmersi´ n del subespacio Im f o oen F. Por ultimo, denotemos πK : E ³ K la proyecci´ n de E a K a lo largo del ker f. ´ o Teorema de Descomposici´ n de una TL o f = i ◦ fK ◦ πK y fK es un isomorfismo.Prueba. Sea x un vector arbitrario en el dominio de f. Por 2.29 (p´ gina 51) existen unos a´ nicos vectores a ∈ K, b ∈ ker f tales que x = a + b. De aqu´ obtenemosu ı (i ◦ fK ◦ πK ) (x) = i (fK (πK (x))) = i (fK (a)) = f (a) = f (a) + f (b) = f (x)y con esto queda probado que f = i ◦ fK ◦ πK . Para probar que fK es un isomorfismo sea f (x) ∈ Im f. Por 2.29 existen unos unicos ´vectores a ∈ K, b ∈ ker f tales que x = a + b. Como fK (a) = f (a) = f (a) + f (b) =f (x) entonces fK es sobreyectiva. Si fK (a) = fK (b) entonces, fK (a − b) = 0. Como(a − b) ∈ K ∩ ker f entonces, a − b = 0 o sea a = b. Luego, fK es inyectiva. Este teorema lo podemos visualizar m´ s f´ cilmente si observa­ a a fmos el diagrama de la derecha. La primera afirmaci´ n del Teorema o E −→ Fde Descomposici´ n de una TL (3.28) lo que dice es que este dia­ πK ↓ o ↑igrama es conmutativo. K −→ Im f fK Para cualquier transformaci´ n lineal f : E → F, o dim E = dim ker f + dim Im f.Prueba. Por el teorema anterior Im f es isomorfo a un complementario de ker f.
    • 84 Cap´tulo 3. Transformaciones lineales ıLa descomposici´ n de la transpuesta o Veamos una primera aplicaci´ n del Teorema de Descomposici´ n de una TL (3.28). Como o overemos en el pr´ ximo cap´tulo, este resultado es clave para poder encontrar el conjunto de o ıtodas las soluciones de un sistema de ecuaciones lineales. Para cualquier transformaci´ n lineal f : E → F se cumple o que dim Im f = dim Im fT y que dim ker f = dim ker fT .Prueba. Por 3.29 es suficiente demostrar la primera igualdad. Descompongamos f = i◦g◦πdonde i es una inmersi´ n, g un isomorfismo y π una proyecci´ n. O sea, f es la composici´ n o o o π g i E −→ K −→ Im f −→ FPor 3.24.2 tenemos que f = πT ◦ gT ◦ iT . M´ s detalladamente, fT es la composici´ n T a o T T T i g π F −→ Im f −→ K −→ EDe 3.24.3 obtenemos que gT es un isomorfismo y de 3.25 obtenemos que πT es una inmersi´ no T T T T T Ty que i es una proyecci´ n. Como g ◦ i es sobreyectiva Im f = Im π y como π es una oinmersi´ n Im πT = K. El hecho de que K y Im f son isomorfos termina nuestra prueba. oUn criterio de isomorfismo Veamos otra aplicaci´ n. Recordemos un sencillo resultado de teor´a de conjuntos: toda o ıfunci´ n inyectiva de un conjunto finito en otro con el mismo n´ mero de elementos es biyec­ o utiva. De hecho, esto lo usamos en el primer cap´tulo para probar que Zp es un campo para ıp primo. El objetivo ahora, es mostrar que “exactamente” el mismo resultado (simple pero ´muy util) se cumple para espacios vectoriales de dimensi´ n finita. Esto es una consecuencia odel Teorema de Descomposici´ n de una TL (3.28). o Sean E y F dos espacios de dimensiones finitas e iguales. Una TL f : E → F es inyectiva si y solo si es sobreyectiva.Prueba. Por 3.29 tenemos dim ker f = dim E − dim Im f. Si f es sobreyectiva entonces,F = Im f. Por hip´ tesis dim F = dim E. De aqu´, debido a que todas las dimensiones son o ıfinitas, dim ker f = 0 y por lo tanto ker f = {0}. De 3.27 concluimos que f es inyectiva. Si f es inyectiva entonces, la funci´ n f : E → Im f es un isomorfismo y por lo tanto odim E = dim Im f. Por hip´ tesis dim F = dim E. Como Im f es un subespacio de F entonces, oaplicando 2.17 (p´ gina 41) obtenemos F = Im f. a Como consecuencia de este resultado probaremos que para comprobar que dos opera­dores lineales f y g en un espacio de dimensi´ n finita son el inverso uno del otro, solo es onecesario comprobar una de las dos igualdades g ◦ f = I o f ◦ g = I.
    • Secci´ n 3.6 El nucleo y la imagen de una transformaci´ n lineal o o 85 Sean f, g : E → E dos OLs de un espacio finito dimen­ sional. Entonces, f ◦ g = I si y solo si g ◦ f = I.Prueba. La funci´ n identidad es sobreyectiva. Luego, si f◦g = I entonces, f es sobreyectiva. oPor 3.31 f es inyectiva y por lo tanto tiene inversa f−1 . Componiendo con f−1 obtenemosf−1 ◦ f ◦ g = f−1 ◦ I y por lo tanto g = f−1 .Descomposici´ n can´ nica de transformaciones lineales o o Para aplicar el Teorema de Descomposici´ n de una TL (3.28) necesitamos escoger (ya oque hay muchos) un subespacio complementario K del nucleo de f. Ya vimos (v´ ase 2.34) eque cualquier tal subespacio es isomorfo al cociente E/ ker f. Queremos substituir K porE/ ker f en el Teorema de Descomposici´ n de una TL (3.28) para as´ obtener otra versi´ n o ı odel mismo que no dependa de escoger nada, o sea que sea can´ nico. o En el Teorema de Descomposici´ n de una TL (3.28) est´ n o ainvolucradas tres funciones: la proyecci´ n πK (que es sobreyec­ o f E −→ Ftiva), la restricci´ n fK (que es biyectiva) y la inmersi´ n i (que es o o ?↓ ↑i ´inyectiva). Esta ultima no depende de K y podemos quedarnos E/ ker f ←→ Im fcon ella. As´ que todas nuestras incognitas est´ n representadas ı a ?en el diagrama de la derecha. ¿Cuales funciones podemos escoger para nuestras incognitas? No tenemos muchas va­riantes. El espacio cociente E/ ker f est´ formado por todos los subespacios afines ker f + x. a El espacio Im f est´ formado por todas las imagenes f (x). Luego, la a x 7→ ker f + x ´ unica posible respuesta a nuestra pregunta son las funciones definidas f (x) 7→ ker f + x en el recuadro a la izquierda. La primera de estas funciones tiene dominio E, codominio E/ ker f, se le llama funci´ n onatural y se denota por “nat”. La funci´ n natural es una TL ya que o nat (x + y) = ker f + x + y = ker f + x + ker f + y = nat (x) + nat (y) nat (λx) = ker f + λx = λ ker f + λx = λ (ker f + x) = λ nat (x)y adem´ s es evidentemente sobreyectiva. a La segunda de estas funciones es nuestra preocupaci´ n fundamental ya que tenemos que oprobar que es un isomorfismo. Esta funci´ n tiene dominio Im f, codominio E/ ker f y la odenotaremos por g. La funci´ n g es una TL ya que o g (f (x) + f (y)) = g (f (x + y)) = ker f + x + y = g (f (x)) + g (f (y)) g (λf (x)) = g (f (λx)) = ker f + λx =λ (ker f + x) = λg (f (x))y es tambi´ n evidentemente sobreyectiva. e ¿Que quiere decir que g es inyectiva? Lo que quiere decir es que si los subespacios afinesker f + x y ker f + y son el mismo entonces, f (x) = f (y). Como para un subespacio af´n ıE paralelo al ker f se cumple que (E = ker f + x) ⇔ (x ∈ E) entonces, la inyectividad de ges equivalente a que la funci´ n f sea constante en cualquier subespacio af´n paralelo al ker f. o ı
    • 86 Cap´tulo 3. Transformaciones lineales ıLa cadena de equivalencias (y ∈ ker f + x) ⇔ (∃a ∈ ker f | y = a + x) ⇔ (f (y − x) = 0) ⇔ (f (y) = f (x))nos convence de que g es inyectiva independientemente de quien sea f. Los subespacios afines paralelos a ker f son precisamente los conjuntos de vectores en que la funci´ n f es constante. o Luego, g es un isomorfismo y por lo tanto tiene un isomor­fismo inverso que denotaremos por f0 . El isomorfismo f0 es el f E −→ Fque a un subespacio af´n ker f + x le hace corresponder f (x). ı nat ↓ ↑iAs´ completamos nuestro diagrama como en el recuadro a la E/ ker f −→ Im f ıderecha. Solo nos falta demostrar que este es conmutativo. Sin f0embargo esto es muy f´ cil porque la composici´ n de funciones a o nat f0 i x 7−→ ker f + x 7−→ f (x) 7−→ f (x)es evidentemente igual a la funci´ n f. o 3.7 Trasformaciones semilineales y coalineaciones Una funci´ n f : E → F de espacios vectoriales sobre K se ole llama transformaci´ n semilineal si existe un automorfismo f(a + b) = f(a) + f(b) o 7 ˉλ → λ del campo K tal que para cualesquiera vectores a, b y f (λa) = λf (a)ˉcualquier escalar λ se cumplen las propiedades del recuadro. Observese que las trasformaciones lineales son semilineales usando como automorfismodel campo la funci´ n identidad. Para construir otras trasformaciones semilineales necesita­ omos automorfismos del campo que no sean la identidad. El ejemplo m´ s importante es la aconjugaci´ n a + bi → a − bi en el campo de los n´ meros complejos (v´ ase el ejercicio ??). o 7 u eEjercicio 66 Pruebe que para una transformaci´ n semilineal no nula f el correspondiente o ´automorfismo del campo es unico. [131]Trasformaciones semilineales reales En el caso del campo de los n´ meros reales no hay trasformaciones semilineales que no usean lineales debido al siguiente resultado: El unico automorfismo de R es la identidad. ´ √Prueba. Sea f un automorfismo de R. Supongamos que x > 0 y sea y = x entonces,f (x) = f(y2 ) = f (y)2 > 0. En particular si x = b − a > 0 entonces f (b − a) =
    • Secci´ n 3.7 o Trasformaciones semilineales y coalineaciones 87f (b) − f (a) > 0. En otras palabras, f es mon´ tona b > a ⇒ f (b) > f (a). Como f−1 otambi´ n es mon´ tona entonces, f conmuta con el supremo y el ´nfimo (v´ ase el ejercicio 67). e o ı e Como f (1) = 1 y 1 es generador del grupo aditivo de Z obtenemos que f es la identidaden Z. Como f (a/b) = f (a) /f (b) obtenemos que f es la identidad en Q. Sea x un irracionaly denotemos por A el conjunto de todos los racionales menores que x. Sabemos que x =sup A y por lo tanto f (x) = f (sup A) = sup f (A) = sup A = x.Ejercicio 67 Sea R un conjunto ordenado y f : R → R una isoton´a (biyecci´ n tal que f y ı of−1 son mon´ tonas). Pruebe que si sup A existe entonces, f (sup A) = sup f (A). [131] oEjercicio 68 Sea f 6= I un automorfismo de C. Las siguientes afirmaciones son equivalen­tes: 1. f es la conjugaci´ n compleja. 2. f es continua. 3. f es la identidad en R. [131] oPropiedades de las transformaciones semilineales Al igual que las TL las transformaciones semilineales preservan subespacios. Toda trasformaci´ n semilineal trans­ o forma subespacios en subespacios.Prueba. Sea f : E → F una trasformaci´ n semilineal y F un subespacio de E. Sean a, b ∈ F oy α ∈ K. Tenemos f(a + b) = f(a) + f(b) por lo que f (F) es cerrado para la suma. Sea ˉ ˉλ ∈ K tal que λ = α. Tenemos αf (a) = λf (a) = f (λa) o sea f (E) es cerrado para elproducto por escalares. Toda trasformaci´ n semilineal transforma o subespacios afines en subespacios afines.Prueba. Sea f : E → F una trasformaci´ n semilineal y F un subespacio de E. Si F + x es oun subespacio af´n entonces, f (F + x) = f (F) + f (x) que es tambi´ n un subespacio af´n ı e ıpuesto que por el resultado anterior f (F) es un subespacio.Automorfismos semilineales. A diferencia de las TL las transformaciones semilineales no forman un espacio vectorial.Esto es debido a que si λ 7→ λ y λ 7→ e son dos automorfismos del campo entonces λ 7→ λ+e λ λno necesariamente es un automorfismo. A las transformaciones semilineales f : E → Ebiyectivas las llamaremos automorfismos semilineales.
    • 88 Cap´tulo 3. Transformaciones lineales ı La composici´ n de automorfismos semi­ o lineales es un automorfismo semilineal.Prueba. Sean f y g dos automorfismos semilineales. De la misma manera que para los ˜operadores lineales se prueba que (f ◦ g) (a + b) = (f ◦ g) (a) + (f ◦ g) (b). Sean λ 7→ λy λ 7→ λˉ los automorfismos del campo correspondientes a f y g respectivamente. Tenemos ¡ ¢que (f ◦ g) (λa) = f λa = e y la prueba termina al observar que λ 7→ e siendo una ˉ ˉ λa ˉ λcomposici´ n de automorfismos del campo es automorfismo del campo. o ˉEjercicio 69 Sea λ 7→ λ un automorfismo del campo K. Pruebe que la transformaci´ n Kn 3 o(x1 , . . . , xn ) 7→ (x1 , . . . , xn ) ∈ Kn es un automorfismo semilineal. A tales automorfismossemilineales los llamaremos estandar. Pruebe que toda transformaci´ n semilineal de Kn en oKn es la composici´ n de un automorfismo semilineal estandar con una TL. [132] o La inversa de un automorfismo semi­ lineal es un automorfismo semilineal..Prueba. Sea f : E → E una automorfismo semilineal. Sean λ ∈ K y x, y ∈ E. Seana, b ∈ E tales que f (a) = x , f (b) = y. Tenemos f−1 (x + y) = f−1 (f¢(a) + f¡ ¡ (b)) =¢f−1 (f (a + b)) = a + b = f−1 (x) + f−1 (y) −1 ˉ −1 ˉ f λx = f λf (a) = f−1 (f (λa)) = λa =λf−1 (x) o ˉque es lo que se quer´a demostrar puesto que la funci´ n λ 7→ λ es un automorfismo de K. ı ´ Estos dos ultimos resultados significan que el conjunto de todos los automorfismos se­milineales forman un grupo respecto a la composici´ n de funciones. oCoalineaciones Una biyecci´ n f : E → E en un espacio vectorial sobre un campo le llama coalineaci´ n o osi la imagen de cualquier subespacio af´n es un subespacio af´n y la preimagen de cualquier ı ısubespacio af´n es un subespacio af´n de E. En otras palabras, tanto f como f−1 transforman ı ısubespacios afines en subespacios afines. Obviamente, si f es una coalineaci´ n entonces f−1 otambi´ n lo es. El siguiente resultado nos dice que la definici´ n de coalineaci´ n es posible e o ohacerla de diversas maneras.
    • Secci´ n 3.7 o Trasformaciones semilineales y coalineaciones 89 Sea f : E → F una biyecci´ n entre dos espacios afines. Entonces, las o siguientes afirmaciones son equivalentes: 1. f y f−1 transforman subespacios afines en subespacios afines. 2. f y f−1 transforman generadores afines en generadores afines. 3. f y f−1 transforman bases afines en bases afines. 4. f y f−1 transforman conjuntos AI en conjuntos AI. 5. f y f−1 conmutan con la cerradura af´n. ıPrueba. (1 ⇒ 2) Sea A un conjunto generador af´n de E y B = f (A). Sea C = f−1 [B] ıque es un subespacio af´n por ser la preimagen de un subespacio. Tenemos, B ⊆ [B] y por ılo tanto A = f−1 (B) ⊆ f−1 [B] = C. Luego E = [A] ⊆ C y por lo tanto C = E. Deaqu´ f (E) = [B] y como f es sobreyectiva tenemos que B es generador. Por simetr´a, si B es ı ıgenerador entonces f−1 (B) tambi´ n lo es. e (2 ⇒ 3) Sea ahora A una base af´n de E y B = f (A). Sabemos que B es generador af´n. ı ıSi B no fuera AI entonces existir´a b tal que Bb es generador y por lo tanto, tendr´amos ı ıque f−1 (Bb) = Af−1 (b) es generador af´n. Esto contradecir´a que A es una base af´n. ı ı ıPor simetr´a, si B es una base af´n entonces f (B) tambi´ n lo es. ı ı −1 e (3 ⇒ 4) Sea ahora A un conjunto AI. Sea A0 una base af´n que lo contiene. Sabemos que ıf (A ) es una base af´n. Como f (A) ⊆ f (A ) tenemos que f (A) es AI. Por simetr´a, si B es 0 ı 0 ıAI entonces f (B) tambi´ n lo es. −1 e (4 ⇒ 1) Sea A una base af´n del subespacio af´n [A]. Como A es AI entonces B = f (A) ı ıtambi´ n lo es. Si b ∈ [A] entonces A∪b es AD y por lo tanto B∪f (b) tambi´ n lo es. Luego, e epor el corolario 2.42, tenemos f (b) ∈ [B] y por lo tanto f [A] ⊆ [B]. Si b ∈ [B] entoncesB ∪ b es AD y por lo tanto A ∪ f−1 (b) tambi´ n lo es. Luego, por el corolario 2.42, tenemos ef (b) ∈ [A] y por lo tanto [B] ⊆ f [A]. Esto significa que f transforma el subespacio [A] −1en el subespacio [B]. Por simetr´a, f−1 tambi´ n transforma subespacios en subespacios. ı e (5 ⇒ 1) Si f [A] = [f (A)] entonces la imagen del subespacio af´n [A] es el subespa­ ıcio af´n [f (A)]. O sea, f trasforma subespacios en subespacios. Por simetr´a, f−1 tambi´ n ı ı etransforma subespacios en subespacios. (1 ⇒ 5) Sea f una coalineaci´ n. Sea A un conjunto de puntos. Como f transforma subes­ opacios afines en subespacios afines la restricci´ n de f a [A] es una coalineaci´ n del espacio o oafin [A] en el espacio afin f [A]. Como esta restricci´ n transforma generadores en generado­ ores tenemos que f (A) es generador de f [A]. Luego f [A] = [f (A)]. Para probar de que f−1conmuta con la cerradura af´n usamos que f−1 es una coalineaci´ n. ı oEjercicio 70 Sea A un conjunto con un operador de cerradura y f : A → A una biyecci´ n. oSi f y f−1 conmutan con el operador de cerradura entonces f es una isoton´a del conjunto ıordenado de cerrados.
    • 90 Cap´tulo 3. Transformaciones lineales ıEstructura de las coalineaciones La composici´ n de coalineaciones de un espacio af´n en si mismo es una coalineaci´ n. o ı oLo mismo sucede con la inversa de una coalineaci´ n. Luego el conjunto de todas las coali­ oneaciones de un espacio af´n F es un grupo respecto a la composici´ n de funciones. ı o Si dim E = 1 entonces cualquier biyecci´ n de E en E es una coalineaci´ n ya que en este o ocaso todos los subepacios afines son puntos y la condici´ n de preservar puntos no es ninguna orestricci´ n. o Un importante subgrupo de colineaciones son las traslaciones o sea, las funciones de laforma ta : F 3 x 7→ x + a ∈ F y de estas hay una para cada vector a en el espacio vectorialF. Como ta ◦ tb = ta+b observamos que el subgrupo de traslaciones es isomorfo al grupoaditivo del espacio vectorial F. Sea f una coalineaci´ n en E. Denotemos a = f (0) y ta la traslaci´ n x 7→ x + a. Obser­ o ovemos que la coalineaci´ n f = t−a ◦ f es tal que f (0) = 0. Luego, cualquier coalineaci´ n o 0 0 oes la composici´ n f = ta ◦ f0 de una coalineaci´ n que preserva 0 seguida de una traslaci´ n. o o o Si f es un automorfismo semilineal entonces f transforma subespacios afines en subes­pacios afines y por lo tanto es una coalineaci´ n que preserva 0. o Ahora, comenzaremos a probar el resultado principal de esta secci´ n: que en dimensi´ n o oal menos 2 toda coalineaci´ n que preserva 0 es semilineal. En todo lo que sigue, E es un oespacio vectorial de dimensi´ n al menos 2 sobre el campo K. o Toda coalineacion en E preserva el paralelismo de rectas.Prueba. Sea f una coalineaci´ n y `, `0 dos rectas paralelas diferentes. Como f es un au­ otomorfismo del conjunto ordenado de subespacios afines dim [` ∪ `0 ] = dim f [` ∪ `0 ] =dim [f (`) ∪ f (`0 )] y por lo tanto f (`) y f (`0 ) son coplanares. Tambi´ n dim [` ∩ `0 ] = dim f [` ∩ `0 ] = dim [f (`) ∩ f (`0 )] y por lo tanto f (`) y f (`0 ) no ese intersectan. Toda coalineacion en E que preserva 0 es un automorfismo del grupo aditivo de vectores.Prueba. Sea f una coalineaci´ n de E que preserva 0. Recordemos que para cualquier vector ox el subespacio hxi es la recta por el origen que pasa por x. Y como f preserva 0 tenemosf hxi = hf (x)i o sea, f tambi´ n conmuta con la cerradura lineal. e Sean a, b ∈ E dos vectores. Tenemos que probar que f (a + b) = f (a) + f (b). Esto estrivial si {a, b} contiene a 0 por lo que podemos suponer que a 6= 0 y b 6= 0. Supongamosprimero que {a, b} es LI. Por la regla del paralelogramo sabemos que a + b = (hai + b) ∩ (hbi + a) , f (a) + f (b) = (hf (a)i + f (b)) ∩ (hf (b)i + f (a)) .
    • Secci´ n 3.7 o Trasformaciones semilineales y coalineaciones 91 Como f preserva el paralelismo f (hai + b) es una recta paralela a f (hai) = hf (a)ique pasa por f (b) , o sea f (hai + b) = hf (a)i + f (b). An´ logamente, f (hbi + a) = ahf (b)i + f (a). Como f conmuta con la intersecci´ n (el ´nfimo) tenemos o ıf (a + b) = f (hai + b)∩f (hbi + a) = (hf (a)i + f (b))∩(hf (b)i + f (a)) = f (a)+f (b)y esto concluye el caso de que {a, b} es LI. Es claro que si {a, b} es LI entonces, tambi´ n lo es {a − b, b} y por lo tanto e f (a) = f (a − b + b) = f (a − b) + f (b) .Luego, si {a, b} es LI entonces, f (a − b) = f (a) − f (b). Supongamos que {a, b} es LD. Entonces, hai = hbi. Como dim E > 1 existe c ∈ hai /tal que los conjuntos {a, c}, {b, c} son LI. Si b 6= −a entonces, {a + c, b − c} es LI y por el caso anterior tenemos que f (a + b) = f (a + c + b − c) = f (a + c) + f (b − c) = f (a) + f (b)y en particular cuando b = a obtenemos f (2a) = 2f (a). Si b = −a entonces, {a + c, b + c} es LI y tenemos que 2f (c) = f (2c) = f (a + c + b + c) = f (a + c) + f (b + c) = f (a) + f (b) + 2f (c)y por lo tanto f (a) + f (b) = 0 = f (0) = f (a + b).Ejercicio 71 Complete la demostraci´ n del resultado anterior mostrando que si {a, c} es LI, ob = ρa y ρ = −1 entonces {a + c, b − c} es un conjunto LI. [132] 6 Si f es una coalineaci´ n en E que preserva 0 entonces, existe un automorfis­ o ˉ ˉ mo λ 7→ λ del campo K tal que f (λa) = λf (a) para todo vector a ∈ E.Prueba. Sea a ∈ E0. Como f preserva 0 tenemos que f (hai) = hf (a)i. Sabemos queαa ∈ hai y por lo tanto f (αa) ∈ hf (a)i. Como en hf (a)i est´ n precisamente los m´ ltiplos a ude f (a) existe un escalar que denotaremos αa tal que f (αa) = αa f (a). De esta maneraest´ definida una funci´ n K 3 α 7→ αa ∈ K que es biyectiva pues f es una biyecci´ n de hai a o oen hf (a)i. Queremos probar que αa no depende de a. O sea que para cualesquiera a, b ∈ E0tenemos que αa = αb . Supongamos que {a, b} es LI. Usando 3.41 obtenemos que αa f (a) + αb f (b) = f (αa) + f (αb) = f (αa + αb) = = f (α (a + b)) = αa+b f (a + b) = αa+b f (a) + αa+b f (b)y como {f (a) , f (b)} es LI obtenemos αa = αa+b = αb . Supongamos que {a, b} es LD entonces, como dim E > 1 existe c tal que {a, c} y {c, b}son dos conjuntos LI. Por el caso anterior αa = αc = αb . ˉ Como αa no depende de a denotaremos α = αa . Sabemos que para cualquier vector ˉ ˉa ∈ E tenemos f (αa) = αf (a). Solo falta probar que α 7→ α es un automorfismo de K.
    • 92 Cap´tulo 3. Transformaciones lineales ı Sea a un vector no nulo. Usando 3.41 obtenemos que ¡ ¢ ˉ ˉ (α + β)f (a) = f ((α + β) a) = f (αa + βa) = f (αa) + f (βa) = α + β f (a) ˉ ˉˉ (αβ)f (a) = f (αβa) = αf (βa) = αβf (a) ˉ ˉ ˉˉy como f (a) es no nulo obtenemos α + β = α + β y αβ = αβ. ´ Resumiendo los dos ultimos resultados obtenemos: Caracterizaci´ n de las coalineaciones o Si dim E ≥ 2 entonces, cualquier coalineaci´ n en o E que preseva 0 es un automorfismo semilineal. Combinando esto con 3.34 vemos que el caso de los reales es m´ s sencillo. a Toda coalineaci´ n en un espacio vectorial real de dimensi´ n dos o o o m´ s es un automorfismo lineal seguido por una traslaci´ n. a o
    • Capítulo cuarto Determinantes os determinantes son una funci´ n que a cada matriz cuadrada le hace corresponder o un elemento del campo. Todo lo que se digamos acerca de la importancia de los de­ terminantes en las matem´ ticas es poco. Este es uno de los conceptos sin los cuales arealmente no se puede entender nada en las matem´ ticas superiores. En este cap´tulo dare­ a ımos la definici´ n de los determinantes, estudiaremos sus propiedades, m´ todos de c´ lculo o e ay seremos capaces, gracias a ellos, de resolver los sistemas de ecuaciones lineales de formageneral. 4.1 Permutaciones La definici´ n de determinante de una matriz pasa inevitablemente por la definici´ n del o osigno de una permutaci´ n. El lector debe entender bien esta secci´ n para poder pasar al o oestudio de los determinantes.El grupo sim´ trico e Sea N un conjunto finito. Una permutaci´ n de N es una biyecci´ n de N en N. Al o oconjunto de todas las permutaciones de N lo denotaremos por SN . La composici´ n de biyec­ ociones es una biyecci´ n y toda biyecci´ n tiene inversa, por lo tanto, SN es un grupo respecto o oa la composici´ n. Al grupo (SN , ◦) se le llama el grupo sim´ trico de N. Denotaremos por o eIN a la funci´ n identidad que es el neutro de SN . Es importante recordar nuestra notaci´ n de o ola composici´ n (σ ◦ ω) (a) = σ (ω (a)) ya que la composici´ n no es conmutativa. o o Si |M| = |N| entonces los grupos SM y SN son isomorfos.Prueba. Sean M y N son dos conjuntos del mismo cardi­ σnal. Si ω : M → N es una biyecci´ n entonces fij´ ndonos en o a M −→ Mel diagrama conmutativo del recuadro a la derecha obtenemos ω↓ ↑ ω−1una funci´ n ∆ : SM 3 σ 7→ ωσω−1 ∈ SN . Observemos, que o N −→ N ωσω−1∆ tiene inversa SN 3 ρ 7→ ω−1 ρω ∈ SM .
    • 94 Cap´tulo 4. Determinantes ı Adem´ s, ∆ (σθ) = ωσθω−1 = ωσω−1 ωθω−1 = ∆ (σ) ∆ (θ) y por lo tanto, ∆ es un aisomorfismo de los grupos SM y SN . El lector debe interpretar este resultado como que, en el grupo SM podemos cambiarle elnombre a los elementos de M mediante la biyecci´ n δ : M → N y obteniendo el grupo SN . oEn particular, el n´ mero de elementos de SN solo depende del n´ mero de elementos en N. u u El n´ mero de permutaciones de un conjunto con n elementos es n!. uPrueba. Para la prueba es m´ s claro encontrar ρ (n) el n´ mero de biyecciones f : M → N a udonde |M| = |N| = n. Si n = 1 entonces ρ (n) = 1 = 1!. Hagamos inducci´ n en n. Sioi ∈ M entonces, el conjunto de biyecciones lo podemos partir en n partes disjuntas seg´ nucual sea j = f (i). Cada parte tiene tantos elementos como biyecciones f : Mi → Nj ypor hip´ tesis de inducci´ n este n´ mero es (n − 1) !. Luego, ρ (n) = n (n − 1) ! = n!. o o uCiclos Sea M = {x0 , . . . , xn−1 } ⊆ N. A la permutaci´ n o ¯ xi+1 mod n si y = xiσ mostrada en el recuadro a la derecha se le llama ci­ σ (y) = y si y ∈ M /clo de orden n. A esta permutaci´ n se le denotar´ por o a(x0 , . . . , xn−1 ). . Dos ciclos (x0 , . . . , xn−1 ) y (y0 , . . . , ym−1 ) se les llama disjuntos si ning´ n uxi es igual a alg´ n yj . u Es importante notar que la composici´ n de ciclos disjuntos es conmutativa pero la com­ oposici´ n de ciclos en general no lo es. Tambi´ n debemos notar que debido a las propiedades o ede la funci´ n mod n se tiene que (a, . . . , b, c) es la misma permutaci´ n que (c, a, . . . , b) en o ootras palabras, siempre podemos escoger el principio del ciclo. Sea σ ∈ SN una permutaci´ n. La relaci´ n en N definida o o por ∃n ∈ Z tal que a = σ (b) es de equivalencia. nPrueba. Tenemos a = σ1 (a) y por lo tanto es reexiva. Si a = σn (b) y b = σm (c)entonces a = σn+m (c) y por lo tanto es transitiva. Si a = σn (b) entonces, b = σ−n (a)por lo que la relaci´ n es sim´ trica. o e o ´ A las clases de equivalencia de esta relaci´ n se le llaman orbitas de la permutaci´ n. o La restricci´ n de una permutaci´ n a una orbita es un ciclo. o o ´ ´Prueba. Supongamos que M es una orbita. Sea a ∈ M. Tenemos M = {σn (a) | n ∈ Z}. Elconjunto M no puede ser infinito por lo que existe un natural p m´ s peque˜ o tal que σp (b) a nya apareci´ antes en la sucesi´ n a, σ (a) , . . .. Observemos que σ (a) = a porque si no, o o phabr´a un n´ mero k mayor que cero y menor que p tal que σp (a) = σk (a) o sea, σk (a) ı u
    • Secci´ n 4.1 o Permutaciones 95tendr´a dos preimagenes diferentes σk−1 (a) 6= σp−1 (a) y esto no puede ser ya que σ es una ıbiyecci´ n. Dividiendo con resto ¡ o cualquier entero n entre p tenemos que n = kp + r con ¢0 ≤ r < p. Luego, σ (a) = σ σkp (a) = σr (a) y M = {σn (a) | n ∈ Zp }. Esto quiere n r ¡ ¢decir que la restricci´ n de σ a M es el ciclo a, σ (a) , . . . , σp−1 (a) . o ¡ ¢ Supongamos que la restricci´ n de σ a M es el ciclo a, σ (a) , . . . σp−1 (a) . Como oσ (M) = M tenemos que σp (a) ∈ M y de la misma manera que antes vemos que σp (a) = ´a y que M = {σn (a) | n ∈ Z} es una orbita. Toda permutaci´ n es composici´ n de ciclos disjuntos. o o ´Prueba. Solo tenemos que tomar los ciclos correspondientes a todas las orbitas y compo­nerlos en cualquier orden. o o ´ Observese que la descomposici´ n en ciclos disjuntos de una permutaci´ n es unica salvoel orden de la composici´ n. oEl grupo alternante Una permutaci´ n se le llama par si en su descomposici´ n en ciclos disjuntos hay un o on´ mero par de ciclos de orden par. En otro caso se le llama impar. A los ciclos de orden u2 se les llama transposiciones. Las transposiciones son impares. La inversa de cualquiertransposici´ n es ella misma. o La composici´ n de una permutaci´ n con una trans­ o o posici´ n cambia la paridad de la permutaci´ n. o oPrueba. Sea σ una permutaci´ n y τ = (a, b) una transposici´ n. Distingamos dos casos: o o ´que a y b est´ n en una misma orbita de σ o que no. a ´ Si est´ n en la misma orbita M entonces escogiendo el principio del ciclo en M y renu­ amerando los elementos de N podemos lograr que τ = (1, k) con k > 1 y que la restricci´ n ode σ a M es (1, 2, . . . , n) con n ≥ k. Como τ (σ (k − 1)) = 1 y τ (σ (n)) = k, obtenemos (1, k) ◦ (1, 2, . . . n) = (1, . . . , k − 1) ◦ (k, . . . , n) .Si n es par entonces, k − 1 y n − k + 1 tienen la misma paridad por lo que la paridad deσ cambia. Si n es impar entonces k − 1 y n − k + 1 tienen diferente paridad por lo que laparidad de σ cambia. ´ Si est´ n en diferentes orbitas M1 y M2 entonces escogiendo los principios de los ciclos aen M1 , M2 y renumerando los elementos de N podemos lograr que τ = (1, k) con k > 1y que la restricci´ n de σ a M1 es (1, . . . , k − 1) y la restricci´ n de σ a M2 es (k, . . . , n). o oComo τ (σ (k − 1)) = k y τ (σ (n)) = 1, obtenemos que (1, k) ◦ (1, . . . , k − 1) ◦ (k, . . . , n) = (1, 2, . . . n)y ya vimos que (1, . . . , k − 1) ◦ (k, . . . , n) tiene paridad diferente que (1, 2, . . . n). Con esto hemos demostrado que la paridad de τ◦σ es diferente a la de σ. La demostraci´ n o
    • 96 Cap´tulo 4. Determinantes ıde que a paridad de σ ◦ τ es diferente a la de σ es an´ loga. a Toda permutaci´ n es composici´ n de transposiciones. o oPrueba. Se comprueba f´ cilmente que (x0 , . . . , xn−1 ) = (xn−1 , x0 )◦. . .◦(x2 , x0 )◦(x1 , x0 ) y aesto demuestra que todo ciclo se descompone en composici´ n de transposiciones. La prueba ose completa porque toda permutaci´ n es composici´ n de ciclos. o o Una consecuencia directa de 4.6 y 4.7 es que una permutaci´ n es par si y solo si es ocomposici´ n de un n´ mero par de transposiciones. Al conjunto de todas las permutaciones o upares de N se le denotar´ por AN . La composici´ n de dos permutaciones pares es par y la a oinversa de una permutaci´ n par es tambi´ n par. Luego AN es un grupo para la composici´ n o e oy se le llama grupo alternante. Al conjunto de las permutaciones impares lo denotaremospor A− y lo llamaremos la clase lateral de las permutaciones impares. Observese que AN Ny A− tienen la misma cantidad de permutaciones e igual a n!/2 ya que el componer con una Ntransposici´ n fija es una biyecci´ n entre AN y A− . o o NEl signo de una permutaci´ n o En todo campo K hay dos elementos notables, 1 y −1. El primero es el neutro parael producto y el segundo es el opuesto para la suma del primero. Observese que estos doselementos son diferentes si y solo si la caracter´stica del campo es diferente de 2. El signo ıde una permutaci´ n es la funci´ n sgn : SN → K que es 1 si la permutaci´ n es par y es −1 si o o ola permutaci´ n es impar. o ¨ sgn (π ◦ ρ) = sgn π sgn ρ ¨ sgn π−1 = sgn πPrueba. La composici´ n de dos permutaciones de la misma paridad es una permutaci´ n o o ´par. La composici´ n de dos permutaciones de diferente paridad es impar. Las orbitas de una opermutaci´ n no cambian al tomar la inversa. o La funci´ n sgn jugar´ un papel vital en todo lo que sigue. En particular, en la definici´ n o a ode determinante de una matriz los signos de los sumandos est´ n definidos precisamente amediante la funci´ n sgn. Por esto, el lector debe familiarizarse muy bien con la definici´ n de o oesta funci´ n y sus propiedades. o ¡ ¢ ¡ ¢ ¡ ¢Ejercicio 72 Pruebe que sgn π−1 ◦ ρ = sgn π ◦ ρ−1 = sgn ρ−1 ◦ π . El resultado 4.8 lo que quiere decir es que la funci´ n sgn : SN → K es un morfismo del grupo o SN al grupo multiplicativo del campo. Su im´ gen es {1, −1} y su nucleo es AN si el campo es de a caracter´stica diferente de dos. ı
    • Secci´ n 4.2 o Propiedades b´ sicas de los determinantes a 97 4.2 Propiedades b´ sicas de los determinantes a¯ Resolvamos el sistema de ecuaciones lineales de la iz­ ax + by = 1 cx + dy = 1 quierda. Denotemos ∆ = ad − bc. Despejando x en x = d − b la primera ecuaci´ n y substituyendo en la segunda ob­ o ∆ a−ctenemos y. Substituyendo este y en alguna de las ecuaciones obtendremos y = ∆x. Esta soluci´ n es la del recuadro a la derecha. o Sean ahora u = (a, b) y v = (c, d) dos vectores en el plano R2 y u + v como se muestra en la figura a la izquierda. Estos dos vectores v q definen un paralelogramo cuyos v´ rtices son 0, u, u + v, v. Que­ e R2 remos calcular el area de este paralelogramo. Para esto, sea q el u punto de intersecci´ n de la recta u, u + v con la recta paralela al o 0 p x eje x que pasa por v. Sea p el punto de intersecci´ n de la recta o u, u + v con el eje x. Es f´ cil ver que el tri´ ngulo v, q, u + v es a a ´igual al tri´ ngulo 0, p, u. Luego, el paralelogramo 0, u, u + v, v tiene area igual a la del aparalelogramo 0, v, q, p. En la figura a la derecha los tri´ ngulos ap, a, u y 0, v,d tienen dos angulos iguales o sea son congruentes. y ´ v R2 qDe esto, por el Teorema de Tales obtenemos d (b ÷ (a − p) = d ÷ c) ⇒ (pd = ad − cb) ´Sabemos que, pd es el area (base por altura) del paralelogramo b u0, v, q, p. Luego, hemos demostrado que el area del paralelogra­ 0 c pa xmo 0, u, u + v, v es igual a ∆ = ad − bc. Estos dos ejemplos nos dan una idea de la importancia del n´ mero ∆ = ad − bc para ula soluci´ n de sistemas de dos ecuaciones lineales y para el c´ lculo de areas en R2 . Los o adeterminantes son la generalizaci´ n de este n´ mero a dimensiones arbitrarias. o uDefinici´ n de los determinantes o Sea N un conjunto finito. Recordemos que SN es el conjunto de todas las las permutacio­nes de N. Si σ ∈ SN e i ∈ N entonces, denotaremos por σi la imagen de i por la permutaci´ n oσ, o sea σi es una forma corta de escribir σ (i). Recordemos tambi´ n que el signo de una epermutaci´ n sgn σ es 1 si σ es par y es −1 si σ es impar. o El determinante de una matriz αNN es por definici´ n o X Yel elemento del campo definido por la f´ rmula en el re­ det αNN = o sgn σ αiσicuadro de la derecha. A esta f´ rmula se la conoce como o σ∈ N i∈Nf´ rmula de Leibniz. o Recalquemos que los determinantes est´ n definidos solo cuando los conjuntos a de ´ndices de renglones y columnas coinciden y es un conjunto finito. Por este ı motivo en este cap´tulo todos los espacios ser´ n finito dimensionales y todos ı alos conjuntos de ´ndices ser´ n finitos. ı a
    • 98 Cap´tulo 4. Determinantes ı ˜Determinantes de matrices pequenas Interpretemos esta definici´ n para conjuntos N con pocos elementos. Si |N| = 1 entonces ola matriz αNN consta de una sola entrada y su determinante es precisamente esta entrada. µ ¶ Si, digamos N = {1, 2} entonces tenemos 2 permutaciones de N que son α11 α12 – I y (1, 2). A la primera le corresponde el sumando α11 α12 y a la segunda α21 α22 + el sumando −α12 α21 . Gr´ ficamente, cuando N = {1, 2} un determinante aes la suma de los dos productos que se muestran en el recuadro a la izquierda. Pongamos ahora N = {1, 2, 3}. Hay 6 permutaciones de N y estas son I, (1, 2, 3),(1, 3, 2), (2, 3), (1, 2) y (1, 3). Las tres primeras son de signo positivo y se corresponden conlos tres sumandos α11 α22 α33 , α12 α23 α31 y α13 α21 α32 . Gr´ ficamente, ⎛ a ⎞ α11 α12 α13estos tres sumandos se pueden representar por la diagonal principal ⎝ α21 α22 α23 ⎠de la matriz y los dos “tri´ ngulos” con lados paralelos a esta diagonal a α31 α32 α33como se muestra en el recuadro de la derecha. Las otras tres permutaciones tienen signo negativo y se corresponden con los sumandos ⎛ ⎞ −α11 α23 α32 , −α12 α21 α33 y −α13 α22 α31 . Gr´ ficamente, estos tres a α11 α12 α13 ⎝α21 α22 α23 ⎠ sumandos se pueden representar por la diagonal alterna de la matriz y los dos “tri´ ngulos” con lados paralelos a esta diagonal como se a α31 α32 α33 muestra en el recuadro de la izquierda. El n´ mero de sumandos en la definici´ n del determinante es SN = |N| !. Este n´ mero u o ucrece r´ pidamente con |N| como se ve en la siguiente tabla a n 1 2 3 4 5 6 7 8 9 10 n! 1 2 6 24 120 720 5040 40 320 362 880 3628 800Por esto, calcular determinantes con el uso directo de su definici´ n es muy ineficiente para omatrices de m´ s de tres renglones y columnas. aEl determinante de la identidad ´ Ya vimos que el conjunto de matrices αNN es un algebra respecto al producto y sumade matrices y multiplicaci´ n por elementos del campo. El elemento neutro para el producto olo llamamos matriz identidad, denotamos INN y es la matriz cu­ ¯ 1 si i = jyas entradas son iguales al delta de Kronecker δij definido en el δij = 0 si i 6= jrecuadro a la derecha. Cuando el conjunto de ´ndices est´ ordena­ ı a µ ¶ do, la matriz identidad se puede representar gr´ ficamente como una que tiene a 1 0 unos en la diagonal y ceros en todas las dem´ s entradas como se muestra en el a 0 1 recuadro a la izquierda para una matriz de dos renglones y columnas. El determinante de la matriz identidad es 1. det INN = 1Prueba. Si laQpermutaci´ n σ ∈ SN no es la identidad entonces hay un i ∈ N tal que i 6= σi oy por lo tanto i∈N δiσi = 0. Luego,
    • Secci´ n 4.2 o Propiedades b´ sicas de los determinantes a 99 X Y Y det INN = sgn σ δiσi = sgn (IN ) δii = 1. σ∈ N i∈N i∈NMatrices con filas nulas Si una matriz tiene una columna o un ren­ gl´ n nulo entonces, su determinante es cero. o QPrueba. Cada sumando de los determinantes i∈N αiσi contiene como factor una entradade cada rengl´ n. Si un rengl´ n es nulo entonces, todos estos sumandos tienen un factor cero o oy por lo tanto la suma de todos ellos es cero. Lo mismo ocurre con las columnas.El determinante de la transpuesta Recordemos del cap´tulo anterior que dada una matriz ı ⎛ ⎞αMN su transpuesta se define como la matriz βNM = α11 α12 α13 α14αT tal que βij = αji . Gr´ ficamente la operaci´ n de ⎜α21 α22 α23 α24 ⎟ MN a o ⎜ ⎟transponer una matriz es hacer una reexi´ n con respecto ⎝α31 α32 α33 α34 ⎠ oa la diagonal de la matriz. Observese que el conjunto de α41 α42 α43 α44 T´ndices de los renglones de la matriz αT es M y no Nı NMcomo se podr´a pensar de los sub´ndices. La notaci´ n es ı ı oas´ porque pensamos la transpuesta como la aplicaci´ n de la operaci´ n de transposici´ n. ı o o o El determinante no se altera al transponer una matriz. det A = det ATPrueba. Tenemos que demostrar que det αNN = det αT . Efectivamente, por la definici´ n NN o X Y ∙ ¸ X Y cambio de variable det αT = sgn σ ασi i = = sgn ω αω − 1 (i)i = NN ω = σ−1 ∙ σ∈ N i∈N ¸ X Y ω∈ N i∈N cambio de variable = −1 = sgn ω αjω j = det αNN . j = ω (i) ω∈ N j∈NMatrices con filas iguales Si una matriz tiene dos columnas o dos renglo­ nes iguales entonces su determinante es cero.Prueba. Supongamos que para αNN se tiene que αjM = αkM o sea, las columnas j y k soniguales. Todo sumando del determinante depende exactamente de una entrada en la columna
    • 100 Cap´tulo 4. Determinantes ıj y de otra en la columna j. Luego, podemos escribir X Y det αNN = αjσj αkσk sgn σ αiσi . σ∈ N i∈N{j,k}Denotemos ρ la transposici´ n (j, k). La funci´ n Φ : SN 3 σ 7→ σ ◦ ρ ∈ SN es una biyecci´ n o o oy el sumando correspondiente a σ ◦ ρ es igual a Y αjσk αkσj sgn (σ ◦ ρ) αiσi i∈N{j,k}pero como αjM = αkM entonces, αjσk αkσj sgn (σ ◦ ρ) = −αjσj αkσk sgn σ. Esto signifi­ca que Φ es una biyecci´ n que transforma a un sumando en su negativo y por lo tanto el odeterminante es cero. La prueba para los renglones se obtiene transponiendo la matriz.Permutaciones de columnas y renglones Dada una matriz αMN y una permutaci´ n ω ∈ SN definimos la operaci´ n de permu­ o otar las columnas de αMN mediante la permutaci´ n ω como la que resulta en la matriz oαMω(N) cuyas columnas son αMω − 1 (i) (¡observese el uso de la permutaci´ n inversa ω−1 !). o Gr´ ficamente esta operaci´ n resulta en cambiar el orden de las a o ⎛ ⎞ columnas. As´ por ejemplo, el aplicar el ciclo (1, 2, 4) resulta en ı α11 α12 α13 α14 ⎜α21 α22 α23 α24 ⎟ el intercambio de columnas representado en el recuadro a la iz­ ⎜ ⎟ ⎝α31 α32 α33 α34 ⎠ quierda. An´ logamente se define la operaci´ n de permutar los a o α41 α42 α43 α44 renglones, para una permutaci´ n ρ ∈ SM la matriz αρ(M)N es o aquella cuyos renglones son αρ− 1 (j)N . Al permutar las columnas o los renglones de det αNω(N) = sgn ω det αNN una matriz con la permutaci´ n ω el determi­ o nante se altera por un factor igual a sgn ω.Prueba. Sea ω ∈ SN una permutaci´ n. Hay que demostrar det αNω(N) = sgn ω det αNN . oEfectivamente, por la definici´ n tenemos o ∙ ¸ X Y cambio de variable det αNω(N) = sgn σ αiω − 1 (σi ) = = ρ = ω−1 ◦ σ X σ∈ N Y i∈N X Y = sgn (ω ◦ ρ) αiρi = sgn ω sgn ρ αiρi = sgn ω det αNN ρ∈ N i∈N ρ∈ N i∈NCon esto demostramos la proposici´ n para las columnas. La demostraci´ n para los renglones o ose obtiene transponiendo la matriz.El determinante del producto ´ La ultima propiedad b´ sica de los determinantes es probablemente la m´ s importante a a ´para el algebra lineal. Como la demostraci´ n de esta propiedad es complicada, le recomiendo oal lector omitirla en una primera lectura. La complejidad de esta demostraci´ n es el precio oque tenemos que pagar por dar una definici´ n directa del determinante. o
    • Secci´ n 4.2 o Propiedades b´ sicas de los determinantes a 101 El determinante del producto de dos matrices es igual det AB = det A det B al producto de los determinantes de las dos matrices.Prueba. Sean A = αNN y B = βNN . Para el objeto de esta demostraci´ n denotemos por oFN el conjunto de todas las funciones de N en N. Claramente SN ⊂ FN . Denotemos adem´ s aTN al conjunto FN SN que es el de todas las funciones no biyectivas de N en N. Por la definici´ n de determinante y de producto de matrices tenemos o X YX det AB = sgn σ αij βjσi σ∈ N i∈N j∈N Q P P Qy usando la f´ rmula i∈N j∈N γij = ω∈ N i∈N γiω i (Sec. 1.6, p´ g. 22) obtenemos o a X X Y X X Y det AB = sgn σ αiω i βω i σi + sgn σ αiω i βω i σi σ∈ N ω∈ N i∈N σ∈ N ω∈ N i∈NDenotando por ∇ el primer sumando nuestro determinante se convierte en X X Y ∙ ¸ cambio de variable =∇+ sgn σ αiω i βω i σi = = σ=ρ◦ω σ∈ N X X ω∈ N i∈N Y Y ∙ ¸ cambio de var =∇+ sgn (ρ ◦ ω) αiω i βω j ρ(ω j ) = = k = ωj à ρ∈ N ω∈ N !à i∈N j∈N ! X Y X Y =∇+ sgn ω αiω i sgn ρ βkρk = ∇ + det A det B ω∈ N i∈N ρ∈ N k∈NO sea, para completar la demostraci´ n tenemos que probar que ∇ = 0. Para esto recordemos oque AN es el subgrupo de las permutaciones pares e A− es la clase lateral de todas las Npermutaciones impares. Si observamos detenidamente la definici´ n de ∇ o X X Y ∇= sgn σ αiω i βω i σi ω∈ N σ∈ N i∈Nvemos que para probar ∇ = 0 es suficiente construir para cada ω ∈ TN una biyecci´ n of : AN → A− tal que si θ = f (σ) entonces, N Y Y αiω i βω i σi = αiω i βω i θi i∈N i∈NEsto nos garantizar´ que cada sumando positivo se cancele con otro negativo. a Sea ω ∈ TN arbitraria pero fija. Como ω no es una biyecci´ n existen j, k ∈ N tales que oω (j) = ω (k) . Sea t ∈ AN la transposici´ n que intercambia j y k. Sea f : AN 3 σ 7→ − oσ ◦ t ∈ A− . La funci´ n f es biyectiva ya que su inversa es θ 7→ θ ◦ t. Adem´ s, tenemos N o a Y Y Y αiω i βω i (σ◦t)i = αjω j βω j σk αkω k βω k σj αiω i βω i σi = αiω i βω i σi i∈N i∈N{j,k} i∈N ´donde la ultima igualdad es v´ lida porque ωj = ωk . a
    • 102 Cap´tulo 4. Determinantes ıMatrices de permutaciones Ahora queremos ver que 4.13 es un caso particular de 4.14. Esta es una buena disculpapara introducir las matrices de permutaciones. Sea INω(N) la matriz identidad a la que se lehan permutado las columnas con la permutaci´ n ω ∈ SN . A INω(N) se le llama matriz de la opermutaci´ n ω. Lo interesante de las matrices de permutaciones es que al multiplicar por oellas se permutan renglones o columnas. El resultado del producto αMN INω(N) (de IMω(M) αMN ) es la matriz αMN a la que se le han permutado las columnas (los renglones) usando la permutaci´ n ω (la permutaci´ n ω−1 ). o o PPrueba. Sea γMN = αMN INω(N) . Tenemos γij = k∈N αik δkω − 1 (j) . Cada sumando escero a no ser que ω−1 (j) = k. Luego γij = αiω − 1 (j) lo que prueba la proposici´ n para las ocolumnas. La demostraci´ n para los renglones es igual. o Observemos que det INω(N) = sgn ω. Efectivamente, en la definici´ n de Q Q o determinantecada producto i∈N δiω − 1 (σi ) es cero para cada ω 6= σ. Para ω = σ tenemos i∈N δii = 1que est´ multiplicado por sgn ω. De aqu´, 4.14 y 4.15 dan una nueva prueba de 4.13. a ıEjercicio 73 Haga la mutiplicaci´ n de matrices del µ o ⎛ ¶ 0 0 1 ⎞recuadro a la derecha. ¿La matriz de que permutaci´ n es o 11 12 13 ⎝ 1 0 0 ⎠la de m´ s a la derecha? ¿Concuerdan o no sus c´ lculos a a 21 22 23 0 1 0con el resultado 4.15? Denotemos M (ω) = IN ω (N ) . No es dif´cil probar que M (σ ◦ ω) = M (σ) M (ω) y que cualquier ı ¡ ¢ matriz de permutaciones tiene inversa (igual a su transpuesta). Luego M : SN → GL KN es un morfismo ¢de grupos que es inyectivo. Esto significa que las matrices de permutaciones son un ¡subgrupo de GL KN que es isomorfo a SN . Esto es v´ lido para cualquier campo K. a 4.3 Expansi´ n de Laplace o En esta secci´ n encontraremos una descomposici´ n de los determinantes como una com­ o obinaci´ n lineal de determinantes de matrices m´ s peque˜ as. Despu´ s veremos dos importan­ o a n etes consecuencias de esta expansi´ n: que los determinantes son funcionales multilineales y oque una matriz tiene inversa si y solo si esta tiene determinante diferente de cero.Cambios de ´ndices ı Sea αMN y φ : N → L una biyecci´ n. Podemos construir una matriz βML = αMφ(N) opor la f´ rmula βij = αiφ − 1 (j) (¡observese el uso de la inversa φ−1 !). A esta operaci´ n la o ollamaremos cambio de ´ndices de las columnas de la matriz αMN mediante la biyecci´ n ı o
    • Secci´ n 4.3 o Expansi´ n de Laplace o 103φ. De la misma manera se definen los cambios de ´ndices de los renglones. Observese que ılas permutaciones de las columnas y los renglones son un caso particular de los cambios de´ndices ya que una permutaci´ n no es m´ s que una biyecci´ n de un conjunto en si mismo.ı o a o Una matriz cuadrada es una matriz cuyas cantidades de renglones y columnas coinci­den. A este n´ mero com´ n se le llama orden de la matriz. Necesitaremos los cambios de u u´ndices para definir los determinantes de las matrices cuadradas. As´, si φ : N → M es unaı ı o ı ´biyecci´ n entonces, podr´amos definir det αMN = det αMφ(N) . El unico “pero” es que, enprincipio, esta definici´ n no solo depende de la matriz αNM sino tambi´ n de la biyecci´ n φ. o e oEl cuanto depende esta definici´ n de φ lo responde la siguiente proposici´ n. o o Si φ y ϕ son dos biyecciones de N¢en M enton­ ¡ ces, det αMφ(N) = sgn φ ◦ ϕ−1 det αMϕ(N) .Prueba. Observese que θ = φ ◦ ϕ−1 es una permutaci´ n de M y que las matrices αMφ(N) y oαMϕ(N) solo se diferencian en la permutaci´ n de las columnas θ. Apl´quese 4.13. o ı No podemos poner la conclusi´ n de este resultado como sgn φ det αMφ(N) = o sgn ϕ det αMϕ(N) ya que como φ y ϕ son biyecciones de N en M ninguna de las dos tiene signo. Como el signo de cualquier permutaci´ n es o 1 o −1 esto quiere decir que el determi­ onante det αNM est´ definido “salvo signo” o sea, que hay un elemento a ∈ K tal que el adeterminante es a o es −a. En un campo de caracter´stica dos esto es irrelevante ya que en ıeste caso 1 = −1. Sin embargo en los casos m´ s importantes (R y C) de que el campo sea de acaracter´stica diferente de dos tenemos una ambig¨ edad al definir el determinante det αNM . ı u Esta ambig¨ edad se resuelve en diferentes casos de varias maneras. En muchos casos no unos interesa el valor concreto det αMN sino solamente saber si es cierto o no que det αMN =0. Si este es el caso entonces, en realidad no nos importa que biyecci´ n se escogi´ para o ocalcular el determinante. Por ejemplo, una matriz cuadrada αMN se le llama singular sidet αMN = 0, en el caso contrario se le llama no singular. Es claro, que el ser singular o nosingular NO depende de la biyecci´ n escogida para definir det αMN . Otro ejemplo, es que si ouna matriz tiene una columna o rengl´ n nulo entonces su determinante es cero. o En otros casos lo importante no es el valor de alg´ n determinante sino una igualdad entre uestos. Al cambiar los ´ndices en ambos lados de la igualdad los determinantes cambian en el ımismo signo y la igualdad es cierta independientemente de los cambios de ´ndices escogidos. ıPor ejemplo, las igualdades det αMN = det αT y det (αLM βMN ) = det αLM det βMN son MNv´ lidas independientemente de los cambios de ´ndices usados para definir los determinantes. a ı ¡ ¢Ejercicio 74 Pruebe que det αω(L)M βMθ(N) = det αω(L)M det βMθ(N) ∀ω, θ. [132] En otros casos hay una biyecci´ n natural que nos dice cual debe ser el valor de det αMN . o
    • 104 Cap´tulo 4. Determinantes ıEsto sucede por ejemplo si los conjuntos N y M son conjuntos de naturales. En este caso ´podemos siempre escoger la unica biyecci´ n que conserva el orden. Por ejemplo si N = o{2, 3, 7} y M = {1, 4, 5} entonces la biyecci´ n adecuada es 2 → 1, 3 → 4, 7 → 5. o ¿Y por que no escoger de los dos posibles valores aquel que sea mayor que cero? Primero, a veces se necesita el valor del signo del determinante y segundo ¿que quiere decir que 0 < x ∈ Z5 ? La desigualdad 0 < x solo tiene sentido si en elcampo est´ dada una relaci´ n de orden. Este es el caso de R pero no el de Zp ni el de C. a o ´ En muchos de los textos de algebra lineal esta ambig¨ edad se resuelve postulando que los conjuntos u de ´ndices siempre tienen que ser conjuntos de naturales. Esto no solamente es innecesario, sino ı que tambi´ n hace la exposici´ n m´ s compleja y conceptualmente menos clara. Por ejemplo, las e o amatrices de cambio de bases est´ n naturalmente indexadas por conjuntos de vectores que no poseen un orden anatural. M´ s a´ n, en algunos textos, las pruebas son incompletas ya que inevitablemente hay que renumerar los a urenglones y/o columnas y no se demuestra que los resultados son independientes de la renumeraci´ n. oComplementos algebraicos Estos razonamientos nos interesan ahora por el siguiente caso particular en el cual todoes m´ s f´ cil. Sea αNN una matriz y sean i, j ∈ N. La matriz αNi Nj se obtiene de la a amatriz αNN eliminando el rengl´ n i y la columna j. ¿Habr´ una manera natural de definir el o adeterminante de αNi Nj ?. Veremos que si. Sea ϕ : Nj → Ni. una biyecci´ n cualquiera. Podemos definir ϕ (j) = i y de esta omanera ϕ se convierte en una permutaci´ n de N. Definamos el de­ o sgn ϕ det αNi ϕ(Nj)terminante det αNi Nj con la expresi´ n del recuadro a la derecha. oParecer´a que no hemos hecho nada ya que en principio esta definici´ n depende de ϕ. ı o La expresi´ n sgn ϕ det αNi ϕ(Nj) no depende de ϕ. oPrueba. Sea ω otra permutaci´ n de N tal que ω (j) = i. Aqu´ hay que tener cuida­ o ıdo. Por un lado ω es una biyecci´ n de Nj en Ni y por otro es una permutaci´ n de N. o oOtro tanto ocurre con ϕ. Para evitar confuciones, a las permutaciones de N las denotaremosen esta demostraci´ n por ω y ϕ respectivamente. Por 4.16 tenemos que det αNi ω(Nj) = ¡ ¢ o ^ ^sgn ω ◦ ϕ−1 det αNi ϕ(Nj) . Observese que ω◦ϕ−1 es una permutaci´ n de Ni. ¿Que pasa ocon ω◦ ϕ ¡? Pues, en todo elemento de ¢ ^ ^ −1 ¢ ¡ Ni coincide con ω◦ϕ y adem´ s ω◦ ϕ−1 (i) = i. −1 a ^ ^Luego sgn ω ◦ ϕ −1 = sgn ω ◦ ϕ ^ ^ −1 y por las propiedades de la funci´ n signo se tiene o ¡ −1 ¢que sgn ω ◦ ϕ ^ ^ = sgn ω sgn ϕ. Luego det αNi ω(Nj) = sgn ω sgn ϕ det αNi ϕ(Nj) y ^ ^ ^ ^pasando sgn ω al otro lado de la igualdad terminamos la prueba. ^ Ahora, podemos dar la siguiente definici´ n. Si αij es una entrada de la matriz A = αNN oentonces el complemento algebraico de αij es α∗ = sgn ω det αNi ω(Nj) donde ω es ijcualquier permutaci´ n de N tal que ω (j) = i. A los complementos algebraicos tambi´ n se o eles llama cofactores. La matriz αNN cuyas entradas son los complemento algebraicos α∗ es ∗ ijla matriz de los complementos algebraicos de αNN o matriz de cofactores de αNN .
    • Secci´ n 4.3 o Expansi´ n de Laplace o 105La expansi´ n de un determinante por sus renglones o Teorema de Expansi´ n de Laplace o X Sea αiN un rengl´ n arbitrario de la matriz αNN . o det αNN = αiN α∗ = iN αij α∗ ij El determinante de αNN es igual a la suma de j∈N las entradas del rengl´ n por sus cofactores. oPrueba. Si i ∈ N entonces tenemos la partici´ n del grupo sim´ trico en el o e [recuadro a la derecha donde Si→j = {σ ∈ SN | σ (i) = j} . Luego, aplicando la N Si→j Ndefinici´ n de determinante y sacando factor com´ n obtenemos o X Xu Y j∈N det αNN = αij sgn σ αnσn j∈N i→ σ∈ N j n∈Ni Sea ω una permutaci´ n de N tal que ω (j) = i. Hagamos el cambio de variable ρ = ω◦σ oen la sumatoria interior. Tenemos ρ (i) = i o sea, ρ ∈ Si→i = SNi . Luego, X X Y N X det αNN = αij sgn ω sgn ρ αnω − 1 (ρn ) = αij α∗ ij j∈N ρ∈ N i n∈Ni j∈N ´donde la ultima igualdad se obtiene por la definici´ n de α∗ . o ij Como es natural hay un teorema exactamente igual a este correspondiente a las columnas.La expansi´ n de Laplace en forma gr´ fica o a El Teorema de expansi´ n de Laplace es la primera herramienta (aparte de la definici´ n) o ode que disponemos para calcular determinantes. Este reduce el problema a calcular varios a n ´determinantes de matrices m´ s peque˜ as. Es especialmente util cuando hay renglones (ocolumnas) con muchos ceros. Sin embargo, todav´a debemos precisar el como calcular los cofactores en forma gr´ fica. ı aSi bien, la definici´ n de estos es sencilla necesitamos encontrar una biyecci´ n simple de Ni o oen Nj que facilite los c´ lculos cuando N est´ ordenado o sea N = {1, ..., n}. a a Sea por ejemplo i = 2 y j = 7. En este caso la biyec­ 1 3 4 5 6 7 8 ... n ci´ n natural de N2 en N7 es la que se muestra en el o ↓ ↓ ↓ ↓ ↓ ↓ ↓ ↓ recuadro a la izquierda y la llamaremos ϕ. Tenemos que 1 2 3 4 5 6 8 ... n definir ϕ (2) = 7 para completar una permutaci´ n de N. o Sabemos que ϕ transforma 7 7→ 6 7→ 5 7→ 4 7→ 3 7→ 2 7→ 7 y que deja fijos a todos losdem´ s elementos de N. Luego, ϕ es un ciclo de longitud j − i + 1 (si i > j entonces es un aciclo de longitud i − j + 1). Como todo ciclo de longitud par tiene signo negativo y todo de ⎛ ⎞ i+j + − + −longitud impar tiene signo positivo obtenemos sgn ϕ = (−1) lo ⎜ − + − + ⎟que es muy sencillo ya que es la “regla del tablero de ajedrez”. A ⎜ ⎝ + − + − ⎠ ⎟la derecha se muestra el sgn ϕ para una matriz con 4 renglones y − + − +columnas. Observese el parecido con el tablero.
    • 106 Cap´tulo 4. Determinantes ı Con estas permutaciones, los complementos algebraicos tienen una interpretaci´ n gr´ fi­ o aca muy sencilla. Si se quiere sacar el complemento algebraico de αij entonces t´ chese el a ⎛ ⎞ rengl´ n i, t´ chese la columna j, s´ quese el determinan­ o a a α11 α12 α13 α14 te de la matriz que queda y finalmente multipl´quese ı ⎜ α21 α22 α23 α24 ⎟ por el signo de la regla del tablero de ajedrez. As´ por ı − det ⎜ ⎟ ⎝ α31 α32 α33 α34 ⎠ ejemplo, en el recuadro a la izquierda se muestra una α41 α42 α43 α44 matriz de orden cuatro en la cual estamos calculando el complemento algebraico de α23 . Al matem´ tico y f´sico Pierre­Simon Laplace (Francia 1749­1827) a ı se le conoce fundamentalmente por sus trabajos en mec´ nica celes­ a te, ecuaciones diferenciales y teor´a de las probabilidades. El pu­ ı blic´ la demostraci´ n del Teorema de Expansi´ n de Laplace (4.18) o o o ´ en 1772 en un art´culo donde estudiaba las orbitas de los planetas ı interiores del sistema solar. En este art´culo, Laplace analiz´ el ı o problema de soluci´ n de sistemas de ecuaciones lineales mediante o el uso de determinantes.Ejercicio 75 T´ me una matriz y calcule su determinante usando el teorema de descompo­ osici´ n de Laplace. Repita hasta que usted est´ satisfecho. o eEjercicio 76 Demuestre que el determinante de la matriz αij = xi−1 j Y (xj − xi )es igual a la expresi´ n en el recuadro a la derecha. A este determinante o 1≤i<j≤nse le conoce como determinante de Vandermonde.[132] La expansi´ n de Laplace reduce el c´ lculo del determinante de una matriz al c´ lculo de determi­ o a a nantes de matrices m´ s peque˜ as. Por esto es tambi´ n usada para dar la definici´ n de determinante a n e o mediante inducci´ n. En este caso, la f´ rmula de Leibniz es una consecuencia de esta definici´ n. o o oMultinearidad de los determinantes El determinante se puede ver como una funci´ n del espacio de matrices en el cam­ o µ ¶ po. ¿Ser´ el determinante una TL? ¿Se cumplir´ que det (A + B) = a a 1 0 A= det A+det B? La respuesta es NO. Para probar que no, basta ver un ejem­ µ 0 0 ¶ plo. Consideremos las matrices A y B definidas a la izquierda. Tenemos 0 0 B= det A + det B = 0 = 1 = det (A + B). Sin embargo, los determinantes 6 0 1 cumplen una propiedad bastante parecida. Sea E un espacio vectorial sobre el campo K. A las TL de E en K se le llama funcio­nales lineales del espacio E. En esta terminolog´a vemos que la propiedad det (A + B) 6= ıdet A + det B lo que quiere decir es que el determinante NO es un funcional lineal del es­pacio vectorial de las matrices. Pasemos a considerar una funci´ n f con valor en K de dos ovariables x, y que toman sus valores en E o sea, f : E2 3 (x, y) 7→ f (x, y) ∈ K. Como
    • Secci´ n 4.3 o Expansi´ n de Laplace o 107E2 es un espacio vectorial sobre K entonces podr´a suceder que f sea un funcional lineal. ıSin embargo, hay una propiedad un poco m´ s sutil que podr´a cumplir la funci´ n f y es a ı oque sea lineal en la primera variable. En otras palabras, que ∀y ∈ E se cumple quef (a + b, y) = f (a, y) + f (b, y) y f (λa, y) = λf (a, y). An´ logamente, se define la apropiedad de que f sea lineal en la segunda variable. Si f es lineal en las dos variablesentonces, se dice que f es un funcional bilineal (el “bi” es porque son dos variables). Evidentemente todo esto se puede hacer cuando tenemos muchas variables en cuyo casonos referiremos a los funcionales multilineales. M´ s rigurosamente, sea f : EN → K una afunci´ n donde N es un conjunto de variables. Sea i ∈ N una variable. Podemos pensar oa f como una funci´ n de dos variables f : ENi ⊕ E → K. Si ∀y ∈ ENi la funci´ n o oE 3 x → f (y, x) ∈ K es un funcional lineal entonces, diremos que f es lineal en la 7variable i. Diremos que f es un funcional multilineal si f es lineal en todas sus variables.Por ejemplo, la funci´ n f : R3 3 (x, y, z) 7→ x+y+z ∈ R es un funcional lineal. La funci´ n o og : R 3 (x, y, z) 7→ xyz ∈ R es un funcional multilineal porque (x + x ) yz = xyz + x yz 3 0 0y tambi´ n para las otras variables. Observese que f no es multilineal y que g no es lineal. e Ahora queremos ver que los determinantes son funcionales multilineales. El espacio de ¡ ¢Nmatrices KNN es isomorfo a KN . Un isomorfismo de estos es el que a cada matriz le hacecorresponder la N­ada de sus renglones. Luego, podemos pensar el determinante como unfuncional cuyas variables son los renglones y que toma valores en el campo. El determinante es un funcional multilineal de los renglones.Prueba. Para probar que un funcional es multilineal hay que probar que es lineal en cadavariable. Sea i ∈ N arbitrario pero fijo en toda esta prueba. Sea A = αNN una matriz talque su i­´ simo rengl´ n es la suma de dos N­adas xN y yN . Sea B la misma matriz que A e oexcepto que su i­´ simo rengl´ n es xN . Sea C la misma matriz que A excepto que su i­´ simo e o erengl´ n es yN . Tenemos que probar que det A = det B + det C. (Si el lector no entiende oporqu´ entonces, debe regresar al principio de esta secci´ n y volver a pensar la definici´ n de e o ofuncional multilineal y el porqu´ el determinante es un funcional de los renglones.) Usando ela descomposici´ n de Laplace por el rengl´ n i obtenemos o o det αNN = αiN αiN = (xN + yN ) α∗ = xN α∗ + yN α∗ = det B + det C ∗ iN iN iN ´donde la ultima igualdad se cumple porque los cofactores de las matrices B y C de lasentradas del rengl´ n i son los mismos que los de la matriz αNN . o Sea ahora A = αNN una matriz tal que su i­´ simo rengl´ n es λxN . Sea B la misma matriz e oque A excepto que su i­´ simo rengl´ n es xN . Usando la descomposici´ n de Laplace por el e o orengl´ n i obtenemos det αNN = αiN α∗ = λxN α∗ = λ det B. o iN iN Por transposici´ n el determinante es tambi´ n un funcional multilineal de las columnas. o e ´ Los determinantes son los unicos funcionales multilineales de los renglones que son iguales a 1 en la matriz identidad y que cambian por un factor de sgn θ cuando se permutan los renglones con la permutaci´ n θ. Esto permite dar una definici´ n alternativa de los determinantes. El primer o oproblema aqu´ es demostrar la existencia del determinante. ı
    • 108 Cap´tulo 4. Determinantes ıLa inversa de una matriz Recordemos que, dada una matriz αMN decimos que βNM = α−1 es la matriz inversa MNde αMN si se cumple que αMN α−1 = IMM y α−1 αMN = INN . Mediante el isomorfismo MN MNde las matrices con las TLs concluimos que αMN y α−1 son la matrices de dos TLs una MNla inversa de otra y por lo tanto estas TLs son isomorfismos. Luego, si αMN tiene inversaentonces, ella es cuadrada. Sea ϕ : N → M cualquier biyecci´ n. Es f´ cil ver usando la definici´ n de cambio de o a o´ndices que βNM = αMN si y solo si βϕ(N)M = αMϕ(N) . O sea, cualquier cambio de ´ndicesı −1 −1 ıapropiado reduce el c´ lculo de matrices inversas al caso en que el conjunto de columnas acoincide con el conjunto de renglones. Por esto, nos olvidaremos un poco de los ´ndices para ıpoder enunciar m´ s f´ cilmente nuestros resultados. a a La siguiente proposici´ n nos dice que para probar que una matriz es inversa de otra es osuficiente comprobar una de las dos igualdades involucradas en la definici´ n. Aqu´, la clave o ıes que las matrices son finitas y cuadradas lo que significa que sus TLs son entre espacios dela misma dimensi´ n finita. o Si AB = I entonces, BA = I.Prueba. Sea f, g : KM → KM las TLs de las matrices A y B respectivamente. Medianteel isomorfismo de las matrices con las TLs concluimos que f ◦ g = I. De 3.32 (p´ gina 85) aobtenemos que g ◦ f = I y por lo tanto BA = I. Si una matriz tiene inversa entonces ella es no singular. Adem´ s, det A−1 = (det A)−1 . a ¡ ¢Prueba. Por definici´ n de matriz inversa tenemos 1 = det I = det AA−1 = det A det A−1 oy por lo tanto det A 6= 0 y det A−1 = (det A)−1 . Para probar que el rec´proco de esta afirmaci´ n tambi´ n es cierto, lo que haremos es ı o econstruir la matriz inversa en el caso de que el determinante sea diferente de cero. Si A es una matriz no singular entonces, su A∗T A−1 = inversa es la transpuesta de la matriz de sus det A cofactores dividida por el determinante de A.Prueba. Para hacer la demostraci´ n lo que hay que hacer es multiplicar. Sea αMM = A oy B = βMM = (det A)−1 A∗T . Tenemos βMj = (det A)−1 α∗ y de la definici´ n de pro­ jM oducto de matrices obtenemos que la entrada ij de la matriz AB es igual a αiM βMj =(det A)−1 αiM α∗ . Si i = j entonces αiM α∗ es la expansi´ n de Laplace del det A por jM jM oel rengl´ n i de lo que obtenemos que αiM βMj = 1. o
    • Secci´ n 4.4 o La expansi´ n generalizada de Laplace o 109 Solo queda probar que αiM α∗ = 0 si i 6= j. Si nos fijamos atentamente, vemos que esta jMes la expansi´ n de Laplace por el rengl´ n j del determinante de la matriz C obtenida de la o omatriz A substituyendo el rengl´ n j por el rengl´ n i. Como la matriz C tiene dos renglones o oiguales entonces, su determinante es cero y necesariamente αiM α∗ = 0. jMEl determinante de un operador lineal Sea f ∈ End E un OL. Si escogemos una base de E entonces en esta base el OL f tienepor coordenadas una matriz A. Podr´amos definir det f = det A. Sin embargo, no nos queda ıclaro si esta definici´ n depende o no de como hallamos escogido la base. o Si A y B son las matrices de f ∈ End E en dos bases entonces, det A = det B.Prueba. Sean A = αMM y B = βNN las matrices de f en las bases M y N respectivamente.Por la f´ rmula del cambio de bases para matrices (3.23) tenemos B = γNM Aγ−1 donde o NMγNM es la matriz de cambio de la base M a la base N. Tenemos ¡ ¢ det βNN = det γNM αMM γ−1 = det γNM det αMM det γ−1 = det αMM NM NM −1ya que por 4.21 la igualdad det γNM (det γNM ) = 1 es cierta e independiente del cambiode ´ndices que se utilize para definir el determinante de γNM . ı Luego, el determinante del OL f es por definici´ n del determinante de su matriz en oalguna base y esto no depende de la base escogida. 4.4 La expansi´ n generalizada de Laplace o Ahora generalizaremos dram´ ticamente el teorema de expansi´ n de Laplace. Sea αNN a ouna matriz y I, J subconjuntos de N de la misma cardinalidad. Para ahorrarnos mucha escritu­ra, denotemos I0 = NI y J0 = NJ. Adem´ s, denotemos por ∇IJ = det αIJ el determinante ade la matriz cuyas columnas son las de J y cuyos renglones son los de I. Claro, este de­terminante est´ definido solo salvo signo. De los signos no nos preocuparemos ahora sino asolo m´ s adelante. Por otro lado, denotemos por ∆IJ = det αI0 J0 el determinante de la matriz acuyas columnas son las que no est´ n en J y cuyos renglones son los que no est´ n en I (no nos a apreocupemos por los signos). En estas notaciones, un sumando del Teorema de expansi´ n deoLaplace es de la forma ∇IJ ∆IJ donde I y J son subconjuntos de cardinal 1. Nos gustar´a tener ıun teorema de expansi´ n donde los subconjuntos sean de un cardinal fijo pero arbitrario. o Para esto, ahora si nos tenemos que preocupar por los signos. Sin embargo, la siguienteproposici´ n nos dice que esto realmente no es un proble­ o ¯ φ1 (x) si x ∈ Jma. Sean φ1 : J → I y φ2 : J → I dos biyecciones. φ (x) = 0 0 φ2 (x) si x ∈ LDenotemos φ = φ1 ∪ φ2 la permutaci´ n de N definida en oel recuadro a la derecha.
    • 110 Cap´tulo 4. Determinantes ı La expresi´ n sgn φ det αIφ 1 (J) det αI0 φ 2 (J0 ) o no depende de las biyecciones φ1 y φ2 .Prueba. Sean ¢ 1 y ϕ2 otras dos biyecciones y ϕ = ϕ1 ∪ϕ2 . Por 4.16 tenemos det αIφ 1 (J) = ¡ ϕ ¡ ¢sgn φ1 ◦ ϕ−1 det αIϕ 1 (J) y det αI0 φ 2 (J0 ) = sgn φ2 ◦ ϕ−1 det αI0 ϕ 2 (J0 ) . Multiplicando estas 1 2dos igualdades vemos que solo nos¢ ¡ queda probar que ¡ ¢ ¡ ¢ sgn φ1 ◦ ϕ1 sgn φ2 ◦ ϕ−1 = sgn φ ◦ ϕ−1 . −1 2Para esto, denotemos θ1 = φ1 ◦ ϕ−1 , θ2 = φ2 ◦ ϕ−1 y θ = φ ◦ ϕ−1 . De las definiciones es 1 2inmediato que θ (y) = θ1 (y) si y ∈ I y θ (y) = θ2 (y) si y ∈ I0 . Como θ1 ∈ SI , θ2 ∈ SI0 ,θ ∈ SN y los conjuntos I, I0 son complementarios en N entonces, θ = θ1 ◦ θ2 = θ2 ◦ θ1 yesto implica la igualdad de los signos que necesitabamos. Ahora, para I, J subconjuntos de N definamos ∇IJ y ∆IJ con ∇ = det α IJ Iφ(J)las f´ rmulas de la derecha donde φ denota una permutaci´ n (ar­ ∆ = sgn φ det α 0 0 o o IJ I φ(J )bitraria pero la misma para las dos definiciones) tal que φ (J) = I(y en consecuencia φ (J0 ) = I0 ). Esta definici´ n no es correcta en el sentido de que ambos o∇IJ y ∆IJ dependen de φ. Sin embargo ∇IJ ∆IJ no depende de φ y esto es lo importante. Expansi´ n Generalizada de Laplace o X Si I un conjunto de p renglones de la matriz αNN en­ det αNN = ∇IJ ∆IJ P tonces, det αNN = ∇IJ ∆IJ donde la suma recorre to­ |J|=p dos los subconjuntos de columnas J de cardinalidad p.Prueba. Si I ⊆ N y |I| = p entonces, tenemos la partici´ n del grupo sim´ trico o e [a la derecha donde SN = {σ ∈ SN | σ (I) = J}. Aplicando la definici´ n de I→J o SI→J Ndeterminante obtenemos X X Y det αNN = sgn σ αnσn |J|=p |J|=p σ∈ I → J n∈N NSea φ una permutaci´ n de N tal que φ (J) = I. Hagamos el cambio de variable ρ = φ ◦ σ. oEntonces, X X Y det αNN = sgn φ sgn ρ αiφ − 1 (ρn ) |J|=p I→ ρ∈ N I n∈NComo ρ (I) = I entonces, ρ (I ) = I . Luego ρ se puede descomponer en la composici´ n de 0 0 odos permutaciones θ ◦ ω donde θ ∈ SI y ω ∈ SI0 . Substituyendo ρ por θ ◦ ω la suma seconvierte en suma doble y si sacamos factores comunes⎛ obtendremos: ⎞ Ã ! X X Y X Y det αNN = sgn φ sgn θ αiφ − 1 (θn ) ⎝ sgn ω αiφ − 1 (ω n ) ⎠ |J|=p θ∈ I n∈I ω∈ I 0 n∈I0Lo contenido en el primer par´ ntesis es det αIφ(J) = ∇IJ . Lo contenido en el segundo epar´ ntesis es det αI0 φ(J0 ) y este determinante multiplicado por sgn φ es ∆IJ . e Como ya es costumbre tediosa, hagamos la observaci´ n de que tambi´ n es v´ lida la o e aExpansi´ n Generalizada de Laplace cuando la hacemos por un conjunto de columnas. o
    • Secci´ n 4.4 o La expansi´ n generalizada de Laplace o 111Matrices diagonales y triangulares por bloques Sea αMM una matriz. Supongamos que existe una partici´ n M1 ∪ · · · ∪ Mt = M y que oαij = 0 si i y j pertenecen a bloques diferentes. Entonces decimos que αMM es diagonalpor bloques. Si cada Mi contiene un solo ´ndice entonces decimos que αMM es diagonal. ı Supongamos ahora que, para la partici´ n M1 ∪ · · · ∪ Mt = M se cumple que si i ∈ Mp , oj ∈ Mq y p < q entonces αij = 0. En este caso, decimos que αMM es triangular porbloques. Si cada Mi tiene un solo ´ndice entonces decimos que αMM es triangular. Es ıclaro de las definiciones que toda matriz diagonal por bloques es triangular por bloques. Enparticular, toda matriz diagonal es triangular. Si αMM es una matriz triangular por bloques entonces, Q det αMM = t det αM i M i . i=1Prueba. Haremos la prueba por inducci´ n en el n´ mero de bloques t. Para t = 1 la propo­ o usici´ n es trivial. Denotemos M0 = MM1 . Aplicando la expansi´ n generalizada de Laplace o P oal conjunto de renglones I = M1 obtenemos det αMM = |J|=|I| ∇IJ ∆IJ . Si J = I entonces, en αIJ hay una columna j ∈ M1 y por lo tanto j ∈ Mq con 1 < q. 6 /Luego, por definici´ n de matriz triangular, ∀i ∈ I = M1 se tiene que αij = 0. O sea, la ocolumna j es cero en αIJ e independientemente de la biyecci´ n que se escoja para calcu­ olar el deteminante tenemos ∇IJ = 0. Luego, det αMM = ∇II ∆II = det αM 1 M 1 det αM 0 M 0 .La matriz M0Q triangular por bloques con un bloque menos y por hip´ tesis de inducci´ n es o o tdet αM 0 M 0 = i=2 det αM i M i .Ejercicio 77 ¿Cuales de las siguentes matrices son triangulares? ⎛ ⎞ ⎛ ⎞ ⎞ ⎛ a 0 0 a 1 1 a 1 1 A =⎝ 1 b 0 ⎠B =⎝ 0 b 1 ⎠C =⎝ 0 b 0 ⎠ [133] 1 1 c 0 0 c 0 1 cEjercicio 78 Sean M = {1, . . . , 5} y αMM una matriz triangular por los bloques M1 ={1, 2}, M2 = {3} y M3 = {4, 5}. ¿Cual es el aspecto de αMM en forma gr´ fica? [133] aLa expansi´ n generalizada de Laplace en forma gr´ fica o a Ahora, precisaremos los signos de las biyecciones en la expansi´ n generalizada de La­ o a a ´place cuando la matriz est´ dada en forma gr´ fica. Como esto es util solo para calcular eldeterminante de matrices concretas y hacerlo as´ es por lo general extremadamente inefi­ ıciente y complicado, recomiendo omitir en una primera lectura lo que resta de esta secci´ n. o Si N = {1, . . . , n} entonces, entre dos cualesquiera subconjuntos I, J ⊆ N del mismocardinal hay una biyecci´ n natural que conserva el orden. Para esto, introduscamos la nota­ oci´ n {m1 , m2 , . . . , mt }< para se˜ alar que ∀p ∈ {2, . . . , t} se tiene que ip−1 < ip . Ahora, si o nI = {i1 , . . . , it }< y J = {j1 , . . . , jt }< entonces, la biyecci´ n es φ1 : I 3 ip 7→ jp ∈ J. Tam­ o
    • 112 Cap´tulo 4. Determinantes ıbi´ n, tenemos una biyecci´ n natural entre los complementos de I y J. Para esto sean K = e oNI = {k1 , . . . , ks }< y L = NJ = {`1 , . . . , `s }< y definamos φ2 : K 3 kp 7→ `p ∈ L. Luego,para cualesquiera subconjuntos I, J ⊆ N del mismo cardinal la permutaci´ n φJ = φ1 ∪ φ2 o Icumple lo necesario para calcular el signo de un sumando de la expansi´ n generalizada de oLaplace, o sea φJ (I) = J y φJ (NI) = NJ. I I Observese, que la biyecci´ n φ1 es la natural de renglones a columnas que se obtiene si oen una matriz αNN tachamos todos los renglones con ´ndices en K y todas las columnas con ı´ndices en L. De la misma manera φ2 es la biyecci´ n de renglones a columnas si tachamosı otodos los renglones con ´ndices en I y todas las columnas con ´ndices en J. ı ı Calculemos el signo de φJ . Al estudiar la expansi´ n (normal) de Laplace en forma gr´ fica I o avimos que si I = {i} y J = {j} entonces, φJ = φj es (j, j − 1, · · · , i + 1, i) si j > i I iel ciclo que se muestra a la derecha y por lo tanto (j, j + 1, · · · , i − 1, i) si j < isgn φj = (−1)i+j (la regla del “tablero de ajedrez”). i Jj sgn φJ = sgn φj1 sgn φIi1 . I i1 1 ¡ ¢−1 JjPrueba. Sea θ = φJ I ◦ φIi1 . Tenemos que demostrar que sgn θ = (−1)i1 +j1 . Para 1esto, recordemos que K = NI = {k1 , . . . , ks }< y L = NJ = {`1 , . . . , `s }< . Sea p el menor´ndice tal que i1 < kp y sea q el menor ´ndice tal que j1 < `q (es admisible que p = s+1 y/oı ı q = s + 1). Usando la definici´ n de θ calculamos o (kp , kp+1 , · · · , kq−1 , i1 ) si p < q que esta permutaci´ n es igual a la del recuadro a la o (kp−1 , kp−2 , · · · , kq , i1 ) si p > q izquierda. Luego, θ es siempre un ciclo de longitud I si p = q |p − q| + 1 y por lo tanto sgn θ = (−1)p+q . Como i1 y j1 son los elementos m´ s peque˜ os de I y J respectivamente entonces, tenemos a nque {k1 , . . . , kp−1 , i1 }< = {1, . . . , p − 1, p} y {`1 , . . . , `q−1 , j1 }< = {1, . . . , q − 1, q} y deaqu´ finalmente, p = i1 y q = j1 . ı Iterando este resultado obtenemos sgn φJ = sgn φj1 sgn φj2 · · · sgn φjt . Observese que I i1 i2 itαir jr son las entradas en la diagonal de la submatriz αIJ de αNM . Luego, para hallar sgn φJ lo Ique hay que hacer es multiplicar los signos de la regla del tablero de ajedrez de los elementos P Pen la diagonal de αIJ . Tambi´ n se puede hacer, calculando la paridad de i∈I i + j∈J j. e⎛ ⎞ Ejemplo. Calculemos el determinante de una matriz αNN del recuadro 4 5 1 1⎜ 1⎜ 2 3 2 ⎟ ⎟ a la izquierda haciendo la expansi´ n generalizada de Laplace por el con­ o⎝ 4 5 2 3 ⎠ junto I del segundo y cuarto renglones. Tenemos que recorrer todos los 1 2 3 4 subconjuntos J de dos columnas. Observese, que si la columna 4 no est´ en J entonces la matriz αIJ tiene dos renglones aiguales por lo que todos los sumandos correspondientes en la expansi´ n ser´ n cero. Adem´ s, o a apara J = {3, 4} la matriz αNI NJ tiene dos renglones iguales por lo que tambi´ n el corres­ epondiente sumando es cero.
    • Secci´ n 4.5 o El rango de una matriz 113 Solo nos quedan dos sumandos cuando J = {1, 4} y cuan­ J = {1, 4} J = {2, 4}do J = {2, 4}. Para ellos podemos extraer del tablero de aje­ µ − + ¶ µ + + ¶drez las submatrices del recuadro a la derecha y multiplican­ − + + + {1,4}do los signos en las diagonales obtenemos sgn φI = −1 y {2,4}sgn φI = 1. Luego, por la expansi´ n generalizada de Laplace el determinante de nuestra omatriz es igual a ¯ ¯¯ ¯ ¯ ¯¯ ¯ ¯ 2 2 ¯¯ 4 1 ¯ ¯ 1 2 ¯¯ 5 1 ¯ ¯ ¯¯ ¯−¯ ¯¯ ¯ ¯ 2 4 ¯¯ 4 2 ¯ ¯ 1 4 ¯¯ 5 2 ¯ = 4 × 4 − 2 × 5 = 6donde usamos las barras verticales para ahorrar espacio al denotar los determinantes. 4.5 El rango de una matriz En esta secci´ n definiremos las bases de una matriz como las submatrices m´ s grandes o acon determinante diferente de cero. Probaremos que las bases de una matriz definen y est´ n adefinidas por las bases de los espacios de columnas y renglones. Esto es el fundamento delos diversos m´ todos de solucion de los sistemas de ecuaciones lineales. eMatrices no singulares Agrupemos en un solo resultado lo que hemos probado para las matrices no singulares. Caracterizaci´ n de Matrices No Singulares o Para cualquier matriz cuadrada A las siguientes afirmaciones son equivalentes: 1. A tiene inversa, 3. los renglones de A son LI, 2. A es no singular, 4. las columnas de A son LI.Prueba. La implicaci´ n 1⇒2 es el resultado 4.21. La implicaci´ n 2⇒1 es el resultado 4.22. o oLa equivalencia 1⇔4 es el resultado 3.21 (p´ gina 77). De aqu´, 2⇔4 y como los determi­ a ınantes no cambian por transposici´ n obtenemos 2⇔3. oEspacios de columnas y renglones Al subespacio de KN generado por los renglones de la matriz αMN se le llama espacio derenglones de la matriz. Aqu´ tenemos un peque˜ o problema: es posible que halla renglones ı niguales y los conjuntos no distinguen elementos iguales. Por esto, diremos que un conjuntode renglones es LI si ellos son distintos dos a dos y es LI en el espacio de renglones dela matriz. Un conjunto de renglones distintos dos a dos que es una base del espacio derenglones lo llamaremos base de los renglones de αMN . An´ logamente se define el espacio ade columnas de una matriz, los conjuntos de columnas LI y las bases de las columnas. Reformulemos el resultado 3.30 (p´ gina 84) en el lenguaje de matrices. a
    • 114 Cap´tulo 4. Determinantes ı Las dimensiones del espacio de columnas y del espacio de renglones de una matriz coinciden.Prueba. Sea αMN una matriz. Observemos que la TL de esta matriz definida por f : KN 3βN 7→ αMN βN ∈ KM tiene como imagen al espacio de columnas de la matriz αMN ya quef evaluada en los vectores de la base can´ nica de KN resulta en las columnas de αMN . Por o Tlo mismo, la TL transpuesta f tiene como imagen al espacio de renglones de αMN . Por 3.30las dimensiones de estos espacios coinciden. A la dimensi´ n de los espacios de renglones y columnas se le llama rango de la matriz. oLema de aumento de matrices no singulares El siguiente lema es parte importante de las demostraciones de los que siguen. Su de­mostraci´ n es cl´ sica e ingeniosa. Este lema es en cierta manera an´ logo al lema de aumento o a ade conjuntos LI que vimos en el Cap´tulo 2. ı Lema de Aumento de Submatrices No Singulares Sea αIJ una submatriz cuadrada no singular de αMN . Sea m ∈ MI tal que el conjunto de renglones indexado por I ∪ m es LI. Entonces, existe n ∈ N tal que la matriz αI∪m J∪n es no singular.Prueba. Denotemos Bn = αI∪m J∪n . Al absurdo, supongamos que ∀n ∈ NJ se cumpleque det Bn = 0. Si n ∈ J entonces, denotemos por Bn la matriz αI∪m J a la que artificialmen­te le agregamos otra columna n. En este caso Bn tiene dos columnas iguales y por lo tantotambi´ n det Bn = 0. Para cualquier n, podemos pensar la matriz Bn gr´ ficamente como se e amuestra en el recuadro. Sean Bin los cofactores de las entradas de µ ¶ αIJ αIn ´la ultima columna en la matriz Bn . Observemos que en la defi­ Bn = αmJ αmn o a ´nici´ n de los Bin no est´ n involucradas las entradas de la ultimacolumna. Luego, Bin no depende de n y podemos denotar Bin = βi ∈ K. De la expansi´ n o ´de Laplace por la ultima columna en la matriz Bn obtenemos: X X 0 = det Bn = αin Bin = αin βi . i∈M i∈MComo esto es v´ lido ∀n ∈ N concluimos que βM αMN = 0N . Como βm = det αIJ 6= 0 esto asignifica que los renglones de αMN est´ n en una combinaci´ n lineal nula con coeficientes no a otodos nulos. Esto contradice la hip´ tesis de que sus renglones son LI. oBases de una matriz Sea αMN una matriz. Entre las submatrices cuadradas no singulares de αMN tenemos larelaci´ n de contenci´ n o o (αI0 J0 ⊆ αIJ ) ⇔ (I0 ⊆ I y J0 ⊆ J)Una base de αMN es una submatriz no singular maximal por contenci´ n. o
    • Secci´ n 4.5 o El rango de una matriz 115 Caracterizaci´ n de las Bases de una Matriz o Una submatriz αIJ es una base de una matriz si y solo si el con­ junto de renglones indexado por I es una base de los renglones y el conjunto de columnas indexado por J es una base de las columnas.Prueba. Sea αIJ una submatriz de αMN . Es conveniente deno­ µ ¶ αIJ αIYtar X = M I y Y = N J y pensar que αMN es de la forma en αMN = αXJ αXYel recuadro a la derecha. Supongamos que αIJ es cuadrada y quees una base de αMN . Entonces, por la Caracterizaci´ n de Matrices No Singulares (4.28) los orenglones y las columnas de αIJ son LI y con m´ s raz´ n los renglones de αIN y las columnas a ode αMJ son LI . Si estos renglones de αIN no son una base de los renglones de αMN entonces, existe otrorengl´ n indexado por m ∈ X tal que el conjunto de renglones indexado por I ∪ m es LI y por oel Lema de Aumento de Submatrices No Singulares (4.30) existe n ∈ Y tal que αI∪m J∪n esno singular y esto contradice la suposici´ n de que αIJ es una base. Luego, los renglones de oαIN son una base de los renglones y por 4.29 las columnas de αMJ son una base del espaciode columnas. Rec´procamente, supongamos que los renglones de αIN y las columnas αMJ son bases ıde los renglones y las columnas de αMN respectivamente. Por 4.29, la submatriz αIJ escuadrada. Sabemos que los renglones de αIN son LI. Las columnas de αMJ es un generadordel espacio de columnas de αMN y con m´ s raz´ n las columnas de αIJ son un generador del a oespacio de columnas de αIN . Aplicando 4.29 a la matriz αIN obtenemos que las columnasde αIJ son un generador con la misma cantidad de vectores que la dimensi´ n del espacio y opor lo tanto son LI. Por la Caracterizaci´ n de Matrices No Singulares (4.28) la matriz αIJ es ono singular. Si hubiera una submatriz αI∪m J∪n no singular entonces por la Caracterizaci´ n de Matri­ oces No Singulares (4.28) sus renglones ser´an LI y con m´ s raz´ n los renglones de αI∪m N ı a oser´an LI. Esto contradice que los renglones de αIN es una base de los renglones de αMN . ıLuego, αIJ es una base de la matriz αMN . Una consecuencia importante de la Caracterizaci´ n de las Bases de una Matriz (4.31) es oque todas las bases de una matriz tienen orden igual al rango de la matriz.Ejercicio 79 Sean E = F ⊕ G espacios vectoriales y xi = (yi , zi ) vectores donde xi ∈ E,yi ∈ F y zi ∈ G. Pruebe que si los yi son LI entonces los xi son LI. Pruebe que si losxi son generadores entonces los yi son generadores. Esto es lo que se usa en la prueba dela Caracterizaci´ n de las Bases de una Matriz (4.31) cada vez que se usa la frase “con m´ s o araz´ n”. o
    • 116 Cap´tulo 4. Determinantes ı 4.6 Sistemas de ecuaciones lineales Sea A = αNM una matriz y xM = xM1 una columna. El producto Xde estas matrices es nuevamente una columna αNM xM1 = bN1 = bN . Si αij xj = bidesarrollamos este producto por la definici´ n de producto de matrices en­ j∈M otonces obtenemos para cada i ∈ N la igualdad en el recuadro a la derecha. Como ya es usual podemos interpretar la columna xM como un vector x en el espaciovectorial KM y a bN como un vector b en el espacio KN y en estas notaciones la igualdad seescribe en una forma m´ s simple Ax = b. Supongamos que A es una matriz fija. Si hacemos avariar x en K entonces esta igualdad la podemos pensar como una TL de KM en KN . Como Nes l´ gico, si conocemos x entonces como sabemos multiplicar matrices hallamos b = Ax. oM´ s dif´cil es el problema inverso, si se conoce b entonces, ¿como hallar x tal que Ax = b? a ı A una igualdad de la forma Ax = b donde A y b son conocidos y x es inc´ gnita ose le llama sistema de ecuaciones lineales. ¡Oh, gran confusi´ n! ¿porqu´ sistema? ¿por­ o equ´ ecuaciones en plural si nada m´ s tenemos UNA?. La respuesta a estas preguntas no es e agran misterio, es un problema hist´ rico. Cuando sobre la faz de la Tierra a´ n no viv´an las o u ımatrices y los vectores, los humanos necesitaban encontrar unos numeritos xj tales que para Pcualquier i ∈ N se cumpla que j∈M αij xj = bi . Obs´ rvese que se necesitan encontrar |M| enumeritos. En el caso de que |N| = 1 se dec´a que tenemos que resolver una ecuaci´ n lineal. ı oPara el caso |N| > 1 los numeritos xj deber´an de cumplir todas y cada una de las ecuacio­ ınes (para cada i ∈ N) y entonces, se dec´a que se necesitaba resolver un sistema (conjunto, ıcolecci´ n, cualquier cosa que signifique que hay muchas) de ecuaciones lineales. De hecho, opara acercarnos m´ s a la verdad, debemos substituir en todo lo dicho los “se dec´a” por “se a ıdice” en presente. Luego, hay dos formas de ver los sistemas de ecuaciones lineales: ¨ Tenemos que encontrar |M| elementos del campo xj tales que P para cualquier i, se cumple la igualdad j∈M αij xj = bi , ¨ Tenemos que encontrar un vector x ∈ KM tal que Ax = b. Ambas formas son en esencia la misma ya que encontrar un vector x es lo mismo queencontrar todas sus coordenadas xj . Sin embargo, la elegancia de la segunda forma haceque nuestra manera de pensarlo sea mucho m´ s simple y sistem´ tica (a costo de aprender a asobre matrices y vectores). Por ejemplo, si ocurre que la matriz A es no singular entoncesmultiplicando por A−1 a la izquierda obtenemos Ax = b ⇒ A−1 Ax = A−1 b ⇒ x = A−1 by como ya sabemos encontrar la matriz inversa y sabemos multiplicar matrices la soluci´ nodel sistema de ecuaciones lineales est´ a la mano. Esto no significa que ya sepamos resolver atodos los sistemas de ecuaciones lineales ya que para que una matriz sea no singular senecesita primero que sea cuadrada y que adem´ s el determinante sea diferente de cero. aRegla de Cramer Sea Ax = b un sistema de ecuaciones lineales. A la matriz A se le llama matriz delsistema y al vector b lo llamaremos vector de coeficientes libres. Denotaremos por A (j) la
    • Secci´ n 4.6 o Sistemas de ecuaciones lineales 117matriz obtenida de la matriz del sistema substituyendo la j­´ sima columna por el vector de ecoeficientes libres. Un ejemplo de esta substituci´ n es el siguiente o µ ¶ µ ¶ µ ¶ 1 2 3 7 1 7 3 A= , b= , A (2) = . 4 5 6 8 4 8 6 Regla de Cramer Si la matriz A es no singular entonces, la j­´ sima e det A (j) xj = coordenada xj del vector x es igual al determi­ det A nante de A (j) dividido entre el determinante de A.Prueba. Sea αNM es una matriz no singular. Ya observamos que en este caso necesariamentex = α−1 b. Denotemos por βij las entradas de α−1 entonces, tenemos xj = βjN bN . Por NM NM4.22 tenemos que βjN = α∗ / det αNM y de aqu´ xj det αNM = bN α∗ . Para terminar la Nj ı Njdemostraci´ n basta observar que la expresi´ n a la derecha de la igualdad es la expansi´ n de o o oLaplace de A (j) por la columna j. Gabriel Cramer (Suiza 1704­1752) public´ su famosa regla en el o art´culo “Introducci´ n al an´ lisis de las curvas algebraicas” (1750). ı o a Esta surgi´ del deseo de Cramer de encontrar la ecuaci´ n de una cur­ o o va plana que pasa por un conjunto de puntos dado. El escribe su regla en un ap´ ndice del art´culo y no da prueba alguna para ella. Este es e ı uno de los or´genes hist´ ricos del concepto de determinante. Es cu­ ı o rioso (y educativo) ver con que palabras Cramer formula su regla: “Uno encuentra el valor de cada indeterminada formando n fracciones el com´ n denominador de las cuales tiene tantos t´ rminos u e como las permutaciones de n cosas.” Cramer contin´ a explicando como se calculan estos t´ rminos como productos de ciertos u ecoeficientes de las ecuaciones y como se determina el signo. El tambi´ n se˜ ala como los e nnumeradores de las fracciones se pueden encontrar substituyendo ciertos coeficientes de losdenominadores por los coeficientes libres del sistema. Para nosotros, con m´ s de dos siglos de ventaja, es mucho m´ s f´ cil. Las “n fracciones” a a ason det A (j) / det A y el “com´ n denominador” es det A (que tiene tantos sumandos como ulas permutaciones de n cosas). La Regla de Cramer (4.32) tiene fundamentalmente un inter´ s hist´ rico por ser uno de e olos or´genes del concepto de determinante. Es necesario recalcar que esta regla solo funciona ıpara el caso de que la matriz es no singular. O sea, cuando en el sistema se tienen tantasincognitas como ecuaciones y el determinante de la matriz del sistema no es nulo.
    • 118 Cap´tulo 4. Determinantes ıExistencia de soluciones Cuando se tiene un sistema de ecuaciones se deben contestar tres preguntas: ¨ ¿Existe una soluci´ n? o ¨ ¿Como encontrar una soluci´ n en el caso de que exista? o ¨ ¿Como encontrar TODAS las soluciones?La Regla de Cramer da la respuesta a las tres preguntas para cuando A es una matriz no ´singular: la soluci´ n existe, es unica y se halla por la Regla de Cramer. Ahora responderemos oen general la primera pregunta. Primero, una definici´ n. Si Ax = b es un sistema de ecuaciones lineales entonces la omatriz ampliada del sistema denotada por (A|b) es la matriz que se obtiene de la matrizdel sistema a˜ adiendo el vector columna de coeficientes libres b. n Teorema de Existencia de Soluciones El sistema Ax = b tiene una soluci´ n si y solo si el rango de la o matriz del sistema coincide con el rango de la matriz ampliada.Prueba. Por definici´ n de rango de una matriz siempre se tiene que rank A ≤ rank (A|b) . oQue coincidan es equivalente por la Caracterizaci´ n de las Bases de una Matriz (4.31) a que ob sea combinaci´ n lineal de las columnas de A. El que b sea combinaci´ n lineal de las o ocolumnas de A es equivalente a la existencia de escalares xj tales que αiN xN = bi o sea aque Ax = b tenga al menos una soluci´ n. oEliminaci´ n de ecuaciones dependientes o Lema de Eliminaci´ n de Ecuaciones Dependientes o Sea I el conjunto de ´ndices de una base de renglones de la ma­ ı triz ampliada (αMN |bM ). Entonces, el conjunto de soluciones de αMN xN = bM es exactamente el mismo que el de αIN xN = bI .Prueba. Como αMN xN = bM tiene m´ s ecuaciones que αIN xN = bI entonces cada solu­ aci´ n de αMN xN = bM es soluci´ n de αIN xN = bI . o o Rec´procamente, sea xN tal que αIN xN = bI y m ∈ MI. El rengl´ n (αmN |bm ) es com­ ı obinaci´ n lineal de los indexados por I. Luego existen escalares λi tales que o αmN = λI αINse cumplen las igualdades a la derecha. Multiplicando la primera igualdad bm = λI bIpor xN y usando la definici´ n de xN obtenemos αmN xN = λI αIN xN = oλI bI = bm y por lo tanto xN satisface todas las ecuaciones del sistema αMN xN . Otra manera, m´ s algor´tmica, de ver este lema es que si tenemos un sistema de ecua­ a ıciones αMN xN = bM y un rengl´ n de este sistema es combinaci´ n lineal de los dem´ s o o a
    • Secci´ n 4.6 o Sistemas de ecuaciones lineales 119entonces, debemos eliminar la ecuaci´ n correspondiente a este rengl´ n. El Lema de Eli­ o ominaci´ n de Ecuaciones Dependientes (4.34) nos garantiza que esta operaci´ n no altera el o oconjunto de soluciones. Repitiendo esta operaci´ n una cierta cantidad de veces, obtenemos ouna matriz ampliada con renglones LI.El nucleo y la imagen de una matriz Sea αMN una MN­matriz. Ella es la matriz de la TL f : KN 3 xN 7→ αMN xN ∈ KM .Luego, podemos definir la imagen de la matriz αMN como Im αMN = Im f y el nucleo dela matriz αMN como ker αMN = ker f. Pasemos ahora a analizar la imagen. Por definici´ n ode imagen tenemos Im αMN = {βM | ∃xN αMN xN = βM }. O sea, Im αMN es el conjuntode vectores βM tales que el sistema de ecuaciones lineales αMN xN = βM tiene al menos una Psoluci´ n. Tenemos αMN xN = i∈N αMi xi que es una combinaci´ n lineal de las columnas. o oLuego, Im αMN es el subespacio generado por las columnas de la matriz αMN . Adem´ s, si aγN es una soluci´ n de αMN xN = βM entonces, 3.33 (p´ gina 86) nos dice que el conjunto o ade todas sus soluciones es el subespacio af´n γN + ker αMN . Resumamos todo lo dicho en ı4.35 para referencias futuras. ¨ El subespacio ker αMN es el conjunto de soluciones de αMN xN = 0M . ¨ El subespacio Im αMN es el generado por las columnas de αMN . ¨ Si γN es una soluci´ n de αMN xN = βM entonces, el conjunto de todas o sus soluciones es el subespacio af´n γN + ker αMN . ıBases del subespacio af´n de soluciones ı Ahora daremos la soluci´ n general de los sistemas de ecuaciones lineales. Sea αMN xN = obM un sistema de ecuaciones. Primero, podemos suponer que la matriz del sistema αMNtiene el mismo rango que la matriz ampliada [αMN |bM ] porque si no entonces, el conjuntode soluciones es vac´o. Segundo, podemos suponer que la matriz ampliada [αMN |bM ] tiene ırenglones linealmente independientes porque si no, entonces podemos descartar aquellos queson combinaci´ n lineal de otros. o Luego existe un conjunto de columnas J ⊆ M tal que αMJ es una base de la matrizampliada [αMN |bM ]. Denotando por Y al conjunto de columnas que no est´ n en la base po­ a αMJ xJ + αMY xY = bM demos representar nuestro sistema de ecuaciones lineales como se muestra en el recuadro a la izquierda. Aqu´ las inc´ gnitas xJ y xY son aquellas que se corresponden con las columnas en J y Y ı orespectivamente. Por ejemplo, en el sistema de ecuaciones 2x1 + 1x2 + 1x3 + 0x4 = 5 3x1 + 2x2 + 0x3 + 1x4 = 5podemos tomar J al conjunto de las dos primeras columnas y Y al conjunto de la tercera y
    • 120 Cap´tulo 4. Determinantes ıcuarta columnas. Luego a este sistema lo podemos escribir como µ ¶µ ¶ µ ¶µ ¶ µ ¶ 2 1 x1 1 0 x3 5 3 2 x + 0 1 x = 5 . 2 4 Ahora, como la matriz αMJ tiene inversa, lo que hacemos es simplemente despejar xJ yobtenemos xJ = α−1 bM − α−1 αMY xY . En nuestro ejemplo obtenemos µ ¶ µ MJ MJ ¶ µ ¶µ ¶ µ ¶ x1 5 2 −1 x3 2x3 − x4 + 5 x = −5 + −3 2 x = −3x + 2x − 5 2 4 3 4 Esto describe en forma ¡ am´ trica el conjunto de¢todas las soluciones, para cualquier par´ evector xY hay una soluci´ n α−1 bM − α−1 αMY xY , xY del sistema. Otra manera de descri­ o MJ MJbir el conjunto soluci´ n es ponerlo en la forma descrita en 4.35. Para encontrar una soluci´ n o oponemos xY = 0 y en nuestro ejemplo el vector soluci´ n es (5, −5, 0, 0). Para encontrar oel nucleo de la matriz del sistema ponemos bM = 0. Para encontrar una base del nucleorecorremos con xY a la base can´ nica de KY . En nuestro ejemplo o (x3 , x4 ) = (1, 0) ⇒ (x1 , x2 ) = (7, −8) (x3 , x4 ) = (0, 1) ⇒ (x1 , x2 ) = (4, −3)y finalmente obtenemos que el conjunto de soluciones (x1 , x2 , x3 , x4 ) es el subespacio af´n ı (5, −5, 0, 0) + ρ (1, 0, 7, −8) + τ (0, 1, 4, −3)donde ρ y τ son escalares cualesquiera. 4.7 M´ todo de eliminaci´ n de Gauss e o La idea del m´ todo de eliminaci´ n de Gauss es realizar ciertas transformaciones de las e omatrices que no cambian lo que se pretende calcular y que convierte a las matrices en otrascon muchas entradas iguales a cero. Este es el m´ todo m´ s universal y eficiente (al menos e amanualmente) para calcular los determinantes, el rango, el nucleo, las matrices inversas, etc.Aqu´, estudiaremos brevemente este m´ todo. ı eTransformaciones elementales Sea αMN una matriz. Sean αiN , αjN dos renglones de αMN y λ ∈ K un escalar. Deno­temos βjN = λαiN + αjN y sea βMN la matriz obtenida de αMN reemplazando el rengl´ n oαjN por la N­ada βjN . A la operaci´ n que dados αMN , i, j y λ obtenemos βMN se le llama o ´transformaci´ n elemental de los renglones. Otra manera util de pensar las transformacio­ ones elementales de los renglones es que en la matriz αMN al rengl´ n αjN le sumamos el orengl´ n αiN multiplicado por λ. De forma an´ loga, se definen las transformaciones ele­ o amentales de las columnas. Una transformaci´ n elemental es de renglones o de columnas. o Las transformaciones elementales no cambian los determinantes.Prueba. Sean αMM , βMM y γMM matrices que se diferencian solo en el rengl´ n indexado o
    • Secci´ n 4.7 o M´ todo de eliminaci´ n de Gauss e o 121por j para el cual se tiene que βjM = λαiM + αjM y γjM = αiM . Como el determinante esun funcional lineal de los renglones tenemos det βMM = λ det γMM + det αMM y como lamatriz γMM tiene dos renglones iguales entonces, det βMM = det αMM . La prueba terminaal recordar que el determinante no cambia por transposici´ n de la matriz. o Las bases y el rango de una matriz dependen exclusivamente de los determinantes de sussubmatrices y por lo tanto no son afectados por las transformaciones elementales. Sin em­bargo, las trasformaciones elementales de las columnas cambian los nucleos y el subespacioaf´n soluci´ n de un sistema de ecuaciones lineales. Para las transformaciones elementales de ı olos renglones la situaci´ n es diferente. o Las transformaciones elementales de los renglones de la matriz ampliada no cambian el subespacio af´n soluci´ n de un sistema de ecuaciones lineales. ı oPrueba. Sea αMN xN = bM un sistema de ecuaciones lineales. Sea βMN xN = cM otrosistema que se diferencia solo en la ecuaci´ n j para la cual se tiene βjN = λαiN + αjN y ocj = λbi + bj . Si γN es una soluci´ n del primer sistema entonces, βjN γN = λαiN γN + oαjN γN = λbi + bj = cj por lo que γN es una soluci´ n del segundo sistema. Si γN es una osoluci´ n del segundo sistema entonces, αjN γN = βjN γN − λαiN γN = cj − λbi = bj por lo oque γN es una soluci´ n del primer sistema. oEjemplo El m´ todo de Gauss se puede precisar en todo detalle para convertirlo en un algoritmo eprogramable en una computadora. Pero como tratamos de ense˜ ar a humanos y no a compu­ ntadoras la mejor manera no es dar todos los detalles sino dejar a la creatividad individual y ala imitaci´ n de ejemplos el como aplicar las transformaciones elementales. o La matriz ampliada siguiente arriba a la izquierda representa un sistema de ecuacioneslineales. Despues de las 4 transformaciones elementales de los renglones que se muestran ´obtenemos la matriz de abajo a la derecha. La soluci´ n del sistema de esta ultima es obvia. o à ¯ ! à ¯ ! à ¯ ! 1 1 0 ¯ 3 1 1 0 ¯ 3 1 1 0 ¯ 3 ¯ 2 r 2 :=r 2 −2r 1 ¯ −4 r 3 :=r 3 −3r 1 ¯ −4 2 3 4 ¯ −→ 0 1 4 ¯ −→ 0 1 4 ¯ 3 3 1 ¯ 1 3 3 1 ¯ 1 0 0 1 ¯ −8 à ¯ ! à ¯ ! 1 1 0 ¯ 3 1 0 0 ¯ −25 r 2 :=r 2 −4r 3 ¯ 28 r 1 :=r 1 −r 2 ¯ 28 −→ 0 1 0 ¯ −→ 0 1 0 ¯ 0 0 1 ¯ −8 0 0 1 ¯ −8Aqu´ las transformaciones elementales realizadas est´ n marcadas en las echas. Por ejemplo, ı ala primera es r2 := r2 − 2r1 lo que significa que al segundo rengl´ n le sumamos el primero omultiplicado por −2. Observese que despu´ s de dos transformaciones ya vemos que el de­ eterminante de la matriz del sistema es 1 porque en una matriz triangular el determinante esel producto de las entradas diagonales.
    • 122 Cap´tulo 4. Determinantes ıEl caso general Para el c´ lculo de los determinantes no hay mucho m´ s que decir. Podemos utilizar trans­ a aformaciones elementales de columnas y renglones para convertir nuestra matriz cuadrada enmatriz triangular. Si en el proceso nos aparece un rengl´ n o columna cero entonces el deter­ ominante es cero. Para resolver los sistemas de ecuaciones lineales trabajamos con la matriz ampliada y so­lo podemos realizar transformaciones elementales de los renglones. Podemos adem´ s multi­ aplicar un rengl´ n por un escalar porque esto no afecta la ecuaci´ n correspondiente al rengl´ n. o o oSi nos aparece un rengl´ n cero podemos descartarlo como combinaci´ n lineal de los otros. o oSi nos aparece un rengl´ n que es cero en la matriz del sistema pero su coeficiente libre no es ocero entonces el sistema no tiene soluci´ n porque el rango de la matriz ampliada es mayor oque el rango de la matriz del sistema. Finalmente, si en alg´ n momento nos aparece una uconfiguraci´ n del tipo o ⎛ ¯ ⎞ a ∗ ··· ∗ ∗ ∗ ¯ ∗ ¯ ⎜ 0 b ··· ∗ ∗ ∗ ¯ ∗ ⎟ ⎝ ··· ··· ··· ··· ··· ··· ¯ ··· ⎠ ¯ 0 0 ··· c ∗ ∗ ¯ ∗donde a, b, . . . , c son diferentes de cero entonces las primeras columnas forman una base dela matriz y tenemos m´ s inc´ gnitas que ecuaciones. En este caso debemos seguir diagonali­ a ozando la parte correspondiente a las primeras columnas hasta obtener ⎛ ¯ ⎞ 1 0 ··· 0 ∗ ∗ ¯ ∗ ¯ ⎜ 0 1 ··· 0 ∗ ∗ ¯ ∗ ⎟ ⎝ ··· ··· ··· ··· ··· ··· ¯ ··· ⎠. ¯ 0 0 ··· 1 ∗ ∗ ¯ ∗Para este sistema procedemos como en la secci´ n anterior y pasamos restando las inc´ gnitas o oque sobran como par´ metros hacia la parte derecha del sistema de ecuaciones. Tomemos el amismo ejemplo de la secci´ n anterior oµ ¯ ¶ µ ¯ ¶ µ ¯ ¶ 2 1 1 0 ¯ 5 r2 :=3r2 −2r1 2 1 1 0 ¯ 5 r −r r 1 := 1 2 2 1 0 2 −1 ¯ 5 ¯ −→ ¯ −→ ¯ 3 2 0 1 ¯ 5 0 1 −3 2 ¯ −5 0 1 −3 2 ¯ −5y por lo tanto la soluci´ n de este sistema es x1 = 5 − 2x3 + x4 y x2 = −5 + 3x3 − 2x4 donde ox3 y x4 pueden tomar cualquier valor. Aqu´ es cuando el lector se preguntar´ ¿Para qu´ diagonalizar la primera y segunda co­ ı a elumna si ya la tercera y cuarta est´ n en forma diagonal? Pues tiene toda la raz´ n, simplemente a oest´ escogiendo otra base de la matriz. La soluci´ n del sistema se obtiene directamente de a ola matriz ampliada original en la forma x3 = 5 − 2x1 − x2 y x4 = 5 − 3x1 − 2x2 donde x1y x2 pueden tomar cualquier valor. Que es mejor es cuesti´ n de gustos u otras necesidades. oPor ejemplo, si se necesita substituir x1 y x2 en otras f´ rmulas entonces, la mejor soluci´ n o oes la primera. Si por el contrario se necesita substituir x3 y x4 en otras f´ rmulas entonces, la omejor soluci´ n es la segunda. o
    • Secci´ n 4.7 o M´ todo de eliminaci´ n de Gauss e o 123Soluci´ n de ecuaciones matriciales, matriz inversa o Si tenemos varios sistemas de ecuaciones lineales αMN xN1 = bM1 , . . . , αMN xN` = bM`todos con la misma matriz del sistema αMN entonces, podemos denotar L = {1, . . . , `}y escribirlos todos en la forma αMN xNL = bML . Esta ecuaci´ n matricial tiene la matriz oampliada [αMN |bML ] y podemos aplicarle a esta matriz la eliminaci´ n de Gauss para resolver otodos nuestros sistemas al mismo tiempo. Esto lo podremos hacer porque en la eliminaci´ n ode Gauss no se reordenan columnas y solo se aplican transformaciones elementales a losrenglones, as´ que no nos importa cuantas columnas halla despu´ s de la barra vertical. ı e ´ En particular, si M = N entonces, la unica soluci´ n posible (si existe) a la ecuaci´ n o omatricial αMM xMM = IMM ser´a xMM = αMM . Esta es la forma en que con el m´ todo de ı −1 eeliminaci´ n de Gauss se calculan las matrices inversas. Por ejemplo: o à ¯ ! à ¯ ! ¯ 1 0 0 1 1 0 1 1 0 ¯ 1 0 0 ¯ 0 1 0 r 2 :=r 2 −2r 1 ¯ −2 1 0 r 2 :=r 2 −4r 3 ¯ 2 3 4 −→ 0 1 4 ¯ −→ ¯ 0 0 1 3 3 1 r 3 :=r 3 −3r 1 0 0 1 ¯ −3 0 1 à ¯ ! à ¯ ! 1 1 0 ¯ 1 0 0 1 0 0 ¯ −9 −1 4 ¯ 10 1 −4 0 1 0 ¯ r 1 :=r 1 −r 2 ¯ 10 1 −4 −→ 0 1 0 ¯ 0 0 1 ¯ −3 0 1 0 0 1 ¯ −3 0 1y por lo tanto à !à ! à ! 1 1 0 −9 −1 4 1 0 0 2 3 4 10 1 −4 = 0 1 0 . 3 3 1 −3 0 1 0 0 1Ejercicio 80 Tome un sistema de ecuaciones lineales y resuelvalo por el m´ todo de elimi­ enaci´ n de Gauss. Rep´ta cuantas veces le sea necesario. o ı No est´ de m´ s recalcar aqu´ que el m´ todo de eliminaci´ n de Gauss funciona en espacios a a ı e ovectoriales sobre cualquier campo sea este Q, R, C, Zp u otro campo cualquiera. Solo hayque realizar las operaciones de suma, producto y divisi´ n como est´ n definidas en el campo o aen particular.
    • 124
    • Ejercicio 1 (Secci´ n 1.1 p´ gina 2) La suma y el producto est´ n bien definidas en N, Z, o a aQ, R y C. La resta en Z, Q, R y C. La divisi´ n en Q, R y C. La exponenciaci´ n es m´ s o o acomplicada ya que aunque est´ bien ´ ³ en N no est´ ´ a definida a bien definida en Z, Q y R ya ¡ −1 1 ¢ ³ 1/2 √ 1/2que 2 = 2 ∈ Z , 2 = 2 ∈ Q y (−1) = i ∈ R . Por otro lado, la exponencia­ / / /ci´ n si esta bien definida en √+ (los mayores que cero). Para ver esto. usamos las f´ rmulas o R o(p/q)a = pa /qa , ap/q = q ap , (l´mi→∞ ai )b = l´mi→∞ ab y finalmente si c = l´m ai ı ı i ı √ i→∞entonces bc = l´mi→∞ bai . Con ellas reducimos la prueba a demostrar que n m es un re­ ı ´al para cualesquiera (diferentes de cero) naturales n y m. Esto ultimo es equivalente a verque la funci´ n f (x) = x − m alcanza el valor cero. Como f (x) es continua, f (1) ≤ 0 y o nf (m) ≥ 0 esto necesariamente tiene que ocurrir. No es dif´cil ver, que la funci´ n y = ax ı oes estrictamente creciente en la variable x por lo que esta tiene una funci´ n inversa log a y odefinida en R+ . Las operaciones m´ ximo com´ n divisor y m´nimo com´ n m´ ltiplo est´ n a u ı u u adefinidas para los naturales (y polinomios).Ejercicio 2 (Secci´ n 1.1 p´ gina 2) Una operaci´ n unaria en el conjunto A es una funci´ n o a o ode A en A. Por ejemplo para cada entero x hay otro entero −x. De esta manera la operaci´ n ox 7→ −x es una operaci´ n unaria. Otros ejemplos comunes son el hallar el complemento de oun conjunto o el hallar el complejo conjugado de un n´ mero complejo. uEjercicio 3 (Secci´ n 1.1 p´ gina 2) El area del tri´ ngulo con lados a, b y c no es una opera­ o a aci´ n ternaria en R ya que no para cualesquiera a, b y c existe un tri´ ngulo con lados de esas o alongitudes.Ejercicio 4 (Secci´ n 1.1 p´ gina 2) La f´ rmula (a + b) (x + y) se expresa en notaci´ n sufija o a o ocomo ab + xy + ×.Ejercicio 5 (Secci´ n 1.1 p´ gina 3) La suma, el producto, el m´ ximo com´ n divisor el m´ni­ o a a u ımo com´ n m´ ltiplo y el m´ ximo son operaciones conmutativas. Las dem´ s no lo son. u u a aEjercicio 6 (Secci´ n 1.1 p´ gina 3) Ya vimos en el texto que la exponenciaci´ n no es asocia­ o a otiva. Observemos que 4 = 4 − (2 − 2) 6= (4 − 2) − 2 = 0 por lo que la resta no es asociativa.Tenemos 4 = 4/ (2/2) 6= (4/2) /2 = 1 y por lo tanto la divisi´ n no es asociativa. Tampoco oes asociativa el logaritmo. El resto de las operaciones si son asociativas.Ejercicio 7 (Secci´ n 1.1 p´ gina 4) La resta no tiene elemento neutro ya que de a − e = a o ase sigue que e = 0 pero por otro lado 0 − a = −a = a. Lo mismo ocurre con la divisi´ n. 6 oLa operaci´ n de exponenciaci´ n no tiene elemento neutro ya que e1 = 1 ⇒ e = 1 pero o o
    • 126 Soluciones de ejercicios selectos12 = 1 6= 2. Lo mismo ocurre con el logaritmo. El neutro de la suma es el cero, el neutro delproducto es el uno. El 1 tambi´ n es el neutro para el m´nimo com´ n m´ ltiplo. La operaci´ n e ı u u ode m´ ximo com´ n divisor no tiene neutro. a uEjercicio 8 (Secci´ n 1.1 p´ gina 5) Es importante se˜ alar que el inverso tiene sentido solo o a nsi hay neutro. El inverso de a para la suma es −a, para el producto es a . Aunque el m´nimo 1 ıcom´ n m´ ltiplo tiene neutro 1, esta operaci´ n no tiene inversos. u u oEjercicio 9 (Secci´ n 1.1 p´ gina 5) Fij´ monos en un conjunto U y en el conjunto de todos o a elos subconjuntos de U que denotaremos por 2U . En 2U est´ n bien definidas las operaciones ade uni´ n e intersecci´ n de conjuntos. Estas operaciones cumplen las propiedades requeridas o ocomo se puede observar en los dos siguientes diagramas de Venn. A A B B C C A ∩ (B ∪ C) = A ∪ (B ∩ C) = = (A ∩ B) ∪ (A ∩ C) = (A ∪ B) ∩ (A ∪ C)Ejercicio 11 (Secci´ n 1.2 p´ gina 8) No porque (1, 0) × (0, 1) = (0, 0) lo que muestra que o aK no es dominio de integridad y por lo tanto no es un campo. 2 √Ejercicio 12 (Secci´ n 1.2 p´ gina 9) Supongamos que n es un√ o a racional. Decomponiendosu numerador y denominador en factores primos obtenemos que n = pn 1 pn2 . . . pnt para 1 2 tciertos naturales primos p1 p2 . . . pt y ciertos n´ meros enteros n1 , n2 , . . . , nt . Pero entonces, un = p2n 1 p2n2 . . . p2nt y por √ tanto ∀i ∈ {1, ..., t} 2ni ≥ 0. Luego, todos los ni son 1 2 t lonaturales lo que significa que n es natural. √ √Ejercicio 13 (Secci´ n 1.2 p´ gina 9) Tenemos 1 < 2 < 2 y por lo tanto 2 no es natural. o aPor el ejercicio anterior, no es racional.Ejercicio 14 (Secci´ n 1.2 p´ gina 9) Siempre podemos medir un segmento de recta con o acada vez m´ s precisi´ n (al menos te´ ricamente). Cada medici´ n nos da un n´ mero racional. a o o o uLuego, la longitud del segmento es un l´mite de racionales por lo que es un real. ıEjercicio 18 (Secci´ n 1.3 p´ gina 12) Por 1.1.4 sabemos que f (0)¡= 0 y ¢ (1) = 1. Si f (a) = o a f ¡ ¢0 y a no fuera el cero de A entonces tendr´amos 1 = f (1) = f aa−1 = f (a) f a−1 = ¡ −1 ¢ ı0f a = 0 lo que no puede ser, o sea si f (a) = 0 entonces a = 0. Luego, si f (x) = f (y)entonces, f (x − y) = 0 y por lo tanto x = y.Ejercicio 21 (Secci´ n 1.4 p´ gina 16) o a
    • Soluciones de ejercicios selectos 127La tabla de multiplicar en Z5 es la derecha. Luego el elemento in­verso de 1 es 1, el elemento inverso de 2 es 3, el elemento inverso • 0 1 2 3 4de 3 es 2 y el elemento inverso de 4 es 4. Observese que en la tabla 0 0 0 0 0 0 1 0 1 2 3 4de multiplicar de Z5 0 en cada columna y en cada rengl´ n nos en­ o 2 0 2 4 1 3contramos con todos los elementos posibles. Esto es una propiedad 3 0 3 1 4 2de las operaci´ nes binarias de los grupos. De hecho, un conjunto o 4 0 4 3 2 1con una operaci´ n binaria asociativa y con elemento neutro es un ogrupo si y solo si su tabla de multiplicar cumple esta propiedad.Ejercicio 22 (Secci´ n 1.4 p´ gina 16) Sea K un campo y G un subgrupo finito de (K 0, •). o aSi x ∈ G entonces al natural n m´ s peque˜© tal que xn = 1 lo llamaremos orden de x. a no ªEn este caso todos los elementos de hxi = 1, x, x2 . . . xn−1 son diferentes y la funci´ n of : (hxi , •) 3 x 7→ i ∈ (Zn , +) es un isomorfismo de grupos. Luego, lo que hay que probar ies que en G existe un elemento de orden q = |G|. 1. Sea F un subgrupo de G. Para x ∈ G el conjunto xF = {xf | f ∈ F} se le llama clase lateral de x. Tenemos que si f ∈ F entonces fF ¡ F ya que F¢es un subgrupo. De ¡ ¢ = −1 (y ∈ xF) ⇒ (y = xf) ⇒ x = yf ⇒ xF = yf−1 F ⇒ (xF = yF) (y ∈ xF ∩ zF) ⇒ (xF = yF = zF) obtenemos que las clases laterales forman una partici´ n de G. La funci´ n F 3 f 7→ o o xf ∈ xF es la inversa de xF 3 xf 7→ f ∈ F y por lo tanto cualquier clase lateral tiene la misma cantidad de elementos que F. Luego |F| es un divisor de |G| y el cociente |G|÷|F| es el n´ mero de clases laterales. Este hecho se conoce como Teorema de Lagrange. u En particular, el orden de cada x ∈ G es un divisor de q = |G|. 2. Sea x de orden n y denotemos ϕ(n) el n´ mero de elementos de orden n en hxi. u Como x tiene orden n entonces, ϕ(n) ≥ 1. La funci´ n ϕ(n) no depende de x pues o cualesquiera dos x, y de orden n son tales que los grupos hxi y hyi son isomorfos. Luego, ϕ(n) solo depende del natural n. Como cualquier z ∈ hxi tiene cierto orden que por el Teorema de Lagrange es un P divisor de n y el n´ mero de elementos en hxi es n entonces, d|n ϕ (d) = n donde u la suma recorre todos los divisores de n. A ϕ se la conoce como Funci´ n de Euler. o 3. Denotemos por ρ (n) al n´ mero de elementos de orden n en nuestro grupo G. Como u cualquier z ∈ G tiene cierto orden que por el Teorema de Lagrange es un divisor de P |G| = q entonces, d|q ρ (d) = q donde la suma recorre los divisores de q. 4. Si en G no hay un elemento de orden n entonces ρ (n) = ¡ Si por el contrario x ∈ G 0. ¢ n tiene orden n entonces,∀y = x ∈ hxi tenemos que y = xk = (xn )k = 1. Luego, k n todos los n elementos de hxi son raices del polinomio zn − 1. Como el polinomio zn − 1 no puede tener m´ s de n raices en el campo K (v´ ase el resultado ??) entonces, a e todos los elementos de G de orden n est´ n en hxi y por lo tanto ρ (n) = ϕ (n). De a aqu´, para cualquier n se tiene que ϕ (n) − ρ (n) ≥ 0. ı
    • 128 Soluciones de ejercicios selectos 5. De (2) y (3) tenemos que X X X 0= ϕ (d) − ρ (d) = (ϕ (d) − ρ (d)) d|q d|q d|q y como por (4) ϕ (d) − ρ (d) ≥ 0 entonces, para cualquier d divisor de q = |G| tenemos ϕ (d) = ρ (d). En particular, ρ (q) = ϕ (q) ≥ 1. Esto significa que en G hay un elemento de orden q = |G|.Ejercicio 23 (Secci´ n 1.4 p´ gina 16) La prueba de que es un anillo conmutativo es direc­ o ata de las definici´ nes de suma y producto. Para ver que es un campo observamos que el oproducto (a, b) (x, y) = (ax + 7by, ay + xb) tiene neutro (1, 0). Para hallar los inversosmultiplicativos resolvemos el sistema de ecuaciones lineales ¯ ax + 7by = 1 ay + xb = 0 o ´que tiene como soluci´ n unica x = a/∆ , y = −b/∆ donde ∆ = a2 − 7b2 . Nos quedacomprobar que si ∆ = 0 entonces a = b = 0. Efectivamente, observando la siguiente tablacalculada en Z11 x 1 2 3 4 5 6 7 8 9 10 x2 1 4 9 5 3 3 5 9 4 1 7x2 7 6 8 2 10 10 2 8 6 7vemos que ning´ n a2 puede ser igual a un 7b2 . uEjercicio 24 (Secci´ n 1.5 p´ gina 19) No, porque t no es un elemento del campo al contrario, o at es un n´ mero natural. Lo que quiere decir tx es x + · · · + x , t veces. uEjercicio 25 (Secci´ n 1.5 p´ gina 19) De que a = −a obtenemos que o a 0 = a + a = 1a + 1a = (1 + 1) aComo todo campo es dominio de integridad obtenemos que a = 0 o 1 + 1 = 0. Si lacaracter´stica del campo es diferente de 2 entonces, 1 + 1 6= 0 por lo que la afirmaci´ n del ı oejercicio es cierta. Si la caracter´stica del campo es 2 entonces, 1 + 1 = 0 y por lo tanto ıa = −a para cualquier elemento del campo.Ejercicio 26 (Secci´ n 1.6 p´ gina 21) En cualquier campo (xy)p = xp yp . Por el binomio o a X p p!de Newton (x + y)p = xk yn−k . El coeficiciente binomial p!/k! (p − k) ! k=0 k! (p − k) !se divide entre p si k ∈ [1, ..., n − 1]. Esto quiere decir (ver 1.15) que en un campo de ´caracter´stica p todos los sumandos del binomio de Newton excepto el primero y el ultimo ı pson cero. Luego (x + y) = x + y . Esto muestra que x 7→ x es un morfismo. Como p p ptodo morfismo de campos es inyectivo (ver ejercicio 18) y toda funci´ n inyectiva de un oconjunto finito en si mismo es sobreyectiva obtenemos que este morfismo es automorfismopara campos finitos. ¡ ¢ ¡ ¢Ejercicio 27 (Secci´ n 1.7 p´ gina 22) (a + b) = a 1 + a−1 b = a a−1 b + 1 = (b + a) . o a
    • Soluciones de ejercicios selectos 129Ejercicio 28 (Secci´ n 1.7 p´ gina 23) Las seis igualdades necesarias se pueden obtener de o ala siguiente manera (ijk = −1) ⇒ (ijkk = −k) ⇒ (ij = k) ⇒ (ijj = kj) ⇒ (kj = −i) (ijk = −1) ⇒ (iijk = −i) ⇒ (jk = i) ⇒ (jkk = ik) ⇒ (ik = −j) (ijk = −1) ⇒ (kijkkj = −kkj) ⇒ (ki = j) ⇒ (kii = ji) ⇒ (ji = −k)Ejercicio 29 (Secci´ n 1.7 p´ gina 24) Por definici´ n de producto de quaterniones o a o ³ ´ µ 2 ¡ 2 ¢ ¶ 2 a − b + c2 + d2 = −1 (a + bi + cj + dk) = −1 ⇔ . ab = ac = ad = 0Como a es un real b2 + c2 + d2 6= 0 por lo que cualquier soluci´ n de estas ecuaciones orequiere que a = 0.Ejercicio 30 (Secci´ n 1.7 p´ gina 24) En los quaterniones (x − i) (x + i) = x2 −ix+xi+1 6= o ax + 1 lo que quiere decir que no es posible definir correctamente el producto de polinomios. 2Ejercicio 31 (Secci´ n 2.1 p´ gina 26) o aEl tri´ ngulo abc es semejante al tri´ ngulo uvw de hecho son con­ a a ugruentes porque ac = uw (lados opuestos de un paralelogramo tie­ b cnen la misma longitud). Luego bc = wv y por lo tanto la coordenada w v → →en x del vector − es igual a la de − m´ s bc. La prueba para la otra au aw a acoordenada es igual.Ejercicio 32 (Secci´ n 2.1 p´ gina 26) T´ cnicamente hablando no ya que en el Cap´tulo 1 o a e ıdefinimos una operaci´ n binaria como una funci´ n A × A → A y la multiplicaci´ n de un o o oescalar por un vector es una funci´ n del tipo B × A → A. Pero si es una operaci´ n binaria o oen el sentido de que tiene dos argumentos.Ejercicio 33 (Secci´ n 2.1 p´ gina 26) En la expresi´ n α (βa) se utiliza un solo tipo de o a ooperaci´ n (la de un escalar por un vector). En la expresi´ n (αβ) a se utilizan dos operaciones o odiferentes primero la del producto de escalares y despu´ s la de un escalar por un vector. eEjercicio 35 (Secci´ n 2.2 p´ gina 27) Si α 6= 0 entonces tiene inverso y por lo tanto o a αa = 0 ⇒ a = α−1 αa = α−1 0 = 0Ejercicio 36 (Secci´ n 2.2 p´ gina 27) El m´nimo n´ mero de elementos en un espacio vecto­ o a ı urial es 1 ya que al menos necesita tener el neutro para la suma de vectores. Y efectivamenteun conjunto formado por un solo elemento es un espacio vectorial sobre cualquier campodefiniendo α0 = 0 para cualquier α en el campo.Ejercicio 38 (Secci´ n 2.3 p´ gina 35) P o a Supongamos que x ∈ hN ∪ yi hNi. Entonces, existeuna combinaci´ n lineal x = αy y + i∈N αi i. Tenemos que αy 6= 0 (ya que x ∈ hNi). o /Luego, despejando y obtenemos que y ∈ hN ∪ xi.
    • 130 Soluciones de ejercicios selectosEjercicio 39 (Secci´ n 2.4 p´ gina 37) Solo en la prueba de que 2⇒4 al despejar a. o aEjercicio 40 (Secci´ n 2.4 p´ gina 39) 1.­ El conjunto vac´o es LI y todo el espacio E es o a ıgenerador. Luego existe N tal que ∅ ⊆ N ⊆ E que es base. 2.­ Si M es LI entonces existeuna base N tal que M ⊆ N ⊆ E. 3.­ Si L es generador entonces existe una base N tal que∅ ⊆ N ⊆ L.Ejercicio 41 (Secci´ n 2.4 p´ gina 41) Sea A una base de E. Como F es generador y A ⊆ F es o aLI entonces por el Teorema de Existencia de Bases (2.14) existe una base B de F que contienea A. De aqu´ tenemos dim E = |A| ≤ |B| = dim F. Esta prueba es v´ lida independientemente ı ade si los cardinales de A y B son finitos o no. PEjercicio 42 (Secci´ n 2.4 p´ gina 41) El conjunto de todos los polinomios ai xi tales que o aa0 = 0 es un subespacio de K [x] de la misma dimensi´ n que K [x]. oEjercicio 43 (Secci´ n 2.4 p´ gina 42) Es consecuencia directa del ?? alrededor del punto x0 . o aEjercicio 44 (Secci´ n 2.4 p´ gina 42) La diferencia entre el espacio de las (N × M)­adas o ay las NM­matrices es solo en las notaciones. Luego, el espacio de las NM­matrices tienedimensi´ n |N × M| = |N| |M|. Para cada pareja i, j con i ∈ N y j ∈ M hay una matriz eij oen la base can´ nica la cual tiene su entrada ij igual a 1 y todas las dem´ s igual a cero. o a f gEjercicio 45 (Secci´ n 2.5 p´ gina 43) Sean E → F → G transformaciones lineales. Tenemos o aque f (g (x + y)) = f (g (x) + g (y)) = f (g (x)) + f (g (y)) y f (g (λx)) = f (λg (x)) =λf (g (x)) y esto era todo lo que se quer´a probar. ıEjercicio 48 (Secci´ n 2.6 p´ gina 50) 1.­ Es f´ cil probar que la aplicaci´ n E⊕F 3 (a, b) 7→ o a a o(b, a) ∈ F ⊕ E es un isomorfismo can´ nico. 2.­ Conmutatividad. 3.­ El isomorfismo can´ ni­ o oco es ((a, b) , c) 7→ (a, (b, c)) 7→ (a, b, c). 4.­ Si, la aplicaci´ n E ⊕ {0} 3 (a, 0) 7→ a ∈ E oes un isomorfismo can´ nico. Por esto podemos considerar que E ⊕ {0} = E. oEjercicio 49 (Secci´ n 2.6 p´ gina 50) Denotemos por S a todo el espacio. Como cada vector o ase expresa como a + b con a ∈ E y b ∈ F tenemos S = E + F. Supongamos quea 6= 0 ∈ E ∩ F entonces 0 = 0 + 0 = a − a lo que contradice que la descomposici´ n o ´de 0 es unica. Luego E ∩ F = {0} y por lo tanto S = E ⊕ F.Ejercicio 54 (Secci´ n 2.7 p´ gina 54) Si E = E + x y F = F + y son dos subespacios o aparalelos o no entonces E + F es igual a (E + F) + (x + y) o sea, es un espacio af´n paralelo ıa E+F. Si E es paralelo a F entonces, E = F y por lo tanto E+F = E. Si E y F se intersectanen z entonces z ∈ hE ∪ zi ⊆ hE ∪ Fi = E + F y por lo tanto E + F = E + F.Ejercicio 59 (Secci´ n 3.4 p´ gina 74) T´ mese x = (1, 0) , y = (0, 1) y z = (1, 1) . Tenemos o a o(xy) z = 0 (1, 1) = (0, 0) y x (yz) = (1, 0) 1 = (1, 0) por lo que (xy) z = x (yz) . 6
    • Soluciones de ejercicios selectos 131 µ ¶ cos α − sin αEjercicio 62 (Secci´ n 3.4 p´ gina 76) o a sin α cos αEjercicio 63 (Secci´ n 3.4 p´ gina 77) Para cualesquiera n ∈ N y k ∈ K tenemos o a X XX (αnM βML ) γLk = (αnM · βMl ) γlk = αnm βml γlk = X X l∈L X l∈L m∈M αnm βml γlk = αnm (βmL · γLk ) = αnM (βML γLk ) m∈M l∈L m∈MEjercicio 64 (Secci´ n 3.4 p´ gina 78) Las matrices de f, g y f ◦ g tienen que cumplir: o a µ ¶ µ ¶µ ¶ cos (α + β) − sin (α + β) cos α − sin α cos β − sin β = = sin (α + β) cos (α + β) sin α cos α sin β cos β µ ¶ cos α cos β − sin α sin β − cos α sin β − sin α cos β = cos α sin β + sin α cos β cos α cos β − sin α sin βy por lo tanto cos (α + β) = cos α cos β − sin α sin β sin (α + β) = cos α sin β + sin α cos βEjercicio 65 (Secci´ n 3.5 p´ gina 82) La prueba de la propiedad 1 es directa, la prueba de la o apropiedad 3 es consecuencia de la propiedad 2. Probemos la propiedad 2. Sean f g E −→ F −→ GTLs y h = g ◦ f. Sean A y B las matrices de f y g en ciertas bases. Observese que labase de F debe ser com´ n para la definici´ n de las matrices A y B y entonces la matriz u ode h es BA. La matriz de h en estas bases es (BA)T = AT BT . Sean X, Y y Z matrices Tde cambio de base en E, F y G respectivamente. Entonces, la matriz de h en las nuevas ¡ ¢ ¡ ¢Tbases es ZBAX = ZBY −1 (YAX) y la matriz de hT es (YAX)T ZBY −1 y por lo tantoindependientemente de las bases hT = fT ◦ gT .Ejercicio 66 (Secci´ n 3.7 p´ gina 86) Sea f semilineal y σ y ρ dos automorfismos del campo o atales que para cualquier escalar λ y cualquier vector a se cumple que f (λa) = σ (λ) f (a) =ρ (λ) f (a). Podemos escoger a tal que f (a) 6= 0 y por lo tanto ((σ (λ) − ρ (λ)) f (a) = 0) ⇒(σ (λ) = ρ (λ)).Ejercicio 67 (Secci´ n 3.7 p´ gina 87) Supongamos que sup A existe. Entonces, ∀b ∈ R te­ o anemos (∀a ∈ A b ≥ a) ⇒ (b ≥ sup A) . Usando que f es una isoton´a vemos que ∀f (b) ∈ ıf (R) = R tenemos (∀f (a) ∈ f (A) f (b) ≥ f (a)) ⇔ (∀a ∈ A b ≥ a) ⇒ (b ≥ sup A) ⇒(f (b) ≥ f (sup A)) y esto prueba que f (sup A) = sup f (A).Ejercicio 68 (Secci´ n 3.7 p´ gina 87) (1 ⇒ 2) La conjugaci´ n compleja es continua. (2 ⇒ 3) o a oTenemos (v´ ase la prueba de 3.34) que f es la identidad en Q. De que los reales son los l´mi­ e ıtes de los racionales y f es continua obtenemos que f es la identidad ¡ ¢ (3 ⇒ 1) Si f es en R.la identidad en R entonces, f (a + bi) = a + bf (i). Como f (i)2 = f i2 = f (−1) = −1 yf (i) 6= i entonces, f (i) = −i.Para ver que hay muchos automorfismos de C que no son la conjugaci´ n compleja v´ ase por o e
    • 132 Soluciones de ejercicios selectosejemplo: Yale, Paul B., Automorphisms of the complex numbers, Mathematics Magazine,May­June 1966, 135–141.Ejercicio 69 (Secci´ n 3.7 p´ gina 88) La funci´ n (x1 , . . . , xn ) 7→ (x1 , . . . , xn ) es biyectiva o a oya que λ 7→ λˉ es biyectiva. Adem´ s, tenemos a (x1 + y1 , . . . , x¡ + yn ) = (x1 + y1 , . . . , xn + y¢ ) = (x1 , . . . , xn ) + (y1 , . . . , yn ) n ¢ ¡ n ˉ ˉ ˉ λx1 , . . . , λxn = λx1 , . . . , λxn = λ (x1 , . . . , xn )y esto muestra que la funci´ n es un automorfismo semilineal. oSi f es una transformaci´ n semilineal arbitraria cuyo automorfismo del campo es σ enton­ oces, su composici´ n con el automorfismo semilineal estandar correspondiente a σ−1 es una otransformaci´ n lineal. oEjercicio 71 (Secci´ n 3.7 p´ gina 91) Supongamos que 0 = αa+αc+βb−βc = (α − β) c+ o a(α + βρ) a. Como {a, c} es LI entonces, α = β y α (1 + ρ) = 0. Como ρ = −1 entonces, 60 = α = β.Ejercicio 74 (Secci´ n 4.3 p´ gina 103) Denotemos γMM = αω(L)M y ηMM = βMθ(N) . o aSabemos que det (γMM ηMM ) = det (γMM ) det (ηMM ) y esto es todo lo que se necesitabaprobar.Ejercicio 76 (Secci´ n 4.3 p´ gina 106) Es saludable poner la matriz de Vandermonde en o aforma gr´ fica como se muestra en el recuadro a la derecha. ⎛ a ⎞ 1 1 ··· 1Denotemos por v (x1 , x2 , . . . , xn ) al determinante de esta ⎜ ⎜ x1 x2 · · · xn ⎟ ⎟matriz. Denotemos ⎜ x1 Y ⎜ 2 x2 · · · x2 ⎟ 2 n ⎟ f (x1 , x2 , . . . , xn ) = (xj − xi ) ⎝ ··· ··· ··· ··· ⎠ n−1 1≤i<j≤n x1 xn−1 · · · xn−1 2 nVeamos que v (x1 , x2 , . . . , xn ) = f (x1 , x2 , . . . , xn ).Por inducci´ n en n. Para n = 1 tenemos f (x1 ) = v (x1 ) = 1. Supongamos que est´ pro­ o abado hasta n − 1. Pongamos y = xn . Tenemos que probar que v (x1 , . . . , xn−1 , y) =f (x1 , . . . , xn−1 , y). Para esto veamos ambos lados de la igualdad como polinomios en lavariable y. Ambos polinomios tienen grado n − 1. ´Haciendo la expansi´ n de Laplace por la ultima columna vemos que el coeficiente principal ode v (x1 , . . . , xn−1 , y) es igual a v (x1 , . . . , xn−1 ). Por otro lado Y Y f (x1 , . . . , xn−1 , y) = (xj − xi ) (y − xi ) 1≤i<j≤n−1 1≤i≤n−1que tiene coeficiente principal f (x1 , . . . , xn−1 ). Por hip´ tesis de induccion v (x1 , . . . , xn−1 ) = of (x1 , . . . , xn−1 ) y por lo tanto nuestros dos polinomios tienen el mismo coeficiente principal.Adem´ s, las raices de v (x1 , . . . , xn−1 , y) son x1 , . . . , xn−1 porque evaluando y en estos valo­ ares obtenemos una matriz con dos columnas iguales. Es obvio que x1 , . . . , xn−1 son tambi´ n elas raices de f (x1 , . . . , xn−1 , y).Luego, v (x1 , . . . , xn−1 , y) y f (x1 , . . . , xn−1 , y) son dos polinomios del mismo grado, conlos mismos coeficientes principales y las mismas raices y por lo tanto son polinomios iguales.
    • Soluciones de ejercicios selectos 133Ejercicio 77 (Secci´ n 4.4 p´ gina 111) Las tres. Para la matriz A los bloques son M1 = {1} , o aM2 = {2} y M3 = {3}. Para la matriz B los bloques son M1 = {3} , M2 = {2} y M3 = {3}.Para la matriz C los bloques son M1 = {2} , M2 = {3} y M3 = {1} ya que α23 = α21 =α31 = 0. Los determinantes de las tres matrices son iguales a abc.Ejercicio 78 (Secci´ n 4.4 p´ gina 111) o aEl aspecto es el del recuadro a la derecha. Aqu´ hemos denotado ı ∗ ∗ 0 0 0por ∗ las entradas que pueden ser diferentes de cero. Las entradas ∗ ∗ 0 0 0con 0 son las que obligatoriamente tienen que ser cero. Adem´ s, a ∗ ∗ ∗ 0 0hemos dividido con rectas los tres bloques de la matriz. El de­ ∗ ∗ ∗ ∗ ∗terminante de una matriz de este tipo es igual al producto de los ∗ ∗ ∗ ∗ ∗determinantes de sus tres bloques diagonales.
    • 134
    • ´Algebra. Espacio vectorial con un producto de columnas diferentes que son una base del de vectores asociativo, distributivo, con ele­ espacio de columnas . . . . . . . . . . . . . . . . . . . . 113 mento neutro y que conmuta con el producto Base de los renglones. Conjunto por escalares. . . . . . . . . . . . . . . . . . . . . . 69, 77, 98 de renglones diferentes que son una base del´Algebra conmutativa. ´ Algebra en la cual el espacio de renglones . . . . . . . . . . . . . . . . . . . . 113 producto de vectores es conmutativo . . . . 69 Base de una matriz. Submatriz no singularAnillo. Conjunto con maximal por contenci´ n. . . . . . . . . . . 114, 120 o dos operaciones binarias denotadas por + y Binomio de Newton. • que es grupo abeliano para la suma, que el F´ rmula para expandir (x + y)n . . . . . . . . . 21 o producto es asociativo con elemento neutro Cadena. y distributivo respecto a la suma . . 7, 12, 69 Subconjunto de un conjunto ordenado queAnillo conmutativo. Anillo en el cual el est´ totalmente ordenado. . . . . . . . . . . . . . *, 59 a producto es conmutativo . . . . . . . . . . 7, 14, 22 Cambio de ´ndices. ıAsociatividad. Propiedad de algunas Biyecci´ n mediante la cual los ´ndices de o ı operaciones binarias que consiste en que una N­ada (o columnas, o renglones) obtie­ a ◦ (b ◦ c) = (a ◦ b) ◦ c nen nuevos nombres. Es la operaci´ n en que o para cualesquiera elementos a, b y c del una biyecci´ n ω : N → L se le aplica a las o conjunto en el cual est´ definida la opera­ a columnas de una matriz αMN para obtener ci´ n . . . . . . . . . . . . . . . . . . . . . . . . 3, 13, 19, 68, 76 o la matriz βML = αMω(N) que cumple queAsociatividad del producto por escalares. βij = αiω − 1 (j) . An´ logamente se definen a Axioma de espacio vectorial: los cambios de ´ndices de los renglones . 102 ı (βa) = (αβ) a . . . . . . . . . . . . . . . . . . . . . . . . . . 27 Campo. Anillo conmutativo enAutomorfismo. Endomorfismo biyectivo . 13 el cual todo elemento diferente de cero tieneAutomorfismo de Frobenius. inverso . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8, 15, 16 La funci´ n K 3 x 7→ xp ∈ K donde K es o Campo algebraicamente cerrado. un campo finito de caracter´stica p > 0. . 21 ı Campo en el cual todo polinomio de gra­Automorfismo semilineal. do al menos uno tiene una ra´z. Campo el ı Transformaci´ n semilineal biyectiva de un o cual los polinomios irreducibles son todos espacio en si mismo. . . . . . . . . . . . . . . . . . . . . . 87 de grado uno . . . . . . . . . . . . . . . . . . . . . . . . . 10, 45Base. Conjunto de vectores que es generador y Campo ordenado. Campo con una relaci´ n o LI. Conjunto generador minimal. Conjunto de orden en el cual todo elemento es com­ LI maximal . . . . . 39, 43, 47, 59, 71, 78, 113 parable con el cero. Los elementos mayoresBase can´ nica. o que cero se les llama positivos y los menores El conjunto de N­adas {ei | i ∈ N} donde la que cero negativos. Los axiomas que debe j­´ sima coordenada de ei es el delta de Kro­ e cumplir la relaci´ n de orden son: o necker δij . . . . . . . . . . . . . . . . . . . . . . . . . 41, 75, 80 1. El opuesto de un positivo es negativo,Base de las columnas. Conjunto 2. El opuesto de un negativo es positivo,
    • 136 cam – coo P 3. La suma de positivos es positiva, la forma i∈N αi i (donde solo un n´ mero u 4. El producto de positivos es positivo. finito de los ai es diferente de cero) . 34, 47 Los campos R y Q est´ n ordenados. Cual­ a Complemento algebraico. Cofactor . . . 104 quier campo ordenado tiene que ser de ca­ Composici´ n de funciones. o racter´stica cero. Adem´ s, C no se puede or­ ı a Operaci´ n entre dos funciones que consiste o denar. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . *, 9, 104 en aplicar primero una funci´ n y despu´ s la o eCampo primo. Campo cuyo unico subcampo ´ otra . . . . . . . . . . . . . . . . . . . . . . . 13, 43, 68, 76, 93 es el mismo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17 Conjunto acotado inferiormente.Caracter´stica de un campo. ı Conjunto que tiene una cota inferior. . . . . . * Es cero si el campo contiene como sub­ Conjunto acotado superiormente. campo a Q. Es igual al n´ mero primo p u Conjunto que tiene una cota superior . . . . . * si el campo contiene como subcampo a Conjunto generador. Conjunto Zp . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .18, 96, 103 de vectores cuya cerradura lineal es todo elCerradura lineal. El conjun­ espacio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36, 43 to de todas las combinaciones lineales de un Conjunto inductivamente ordenado. conjunto de vectores . . . . . . . . . . . . . 35, 43, 47 Conjunto ordenado no vac´o dentro del cual ıCiclo. Permutaci´ no cada cadena tiene cota superior . . . . . . . . . . 59 σ del grupo sim´ trico de N que cambia un e Conjunto LD. Acr´ nimo de conjunto o conjunto {x0 , . . . , xn−1 } ⊆ N seg´ n la regla u linealmente dependiente . . . . . . . . . . . . . . . . . 37 σ (xi ) = xi+1 mod n y deja todos los dem´ s a Conjunto LI. Acr´ nimo de conjunto o elementos de N fijos . . . . . 94, 100, 105, 112 linealmente independiente . . . . . . . . . . . . . . . 37Ciclos disjuntos. Ciclos tales Conjunto linealmente dependiente. que los conjuntos de elementos que ellos no Conjunto de vectores que no es LI . . . . . . . 37 dejan fijos no se intersectan . . . . . . . . . . . . . . 94 Conjunto linealmente independiente.Clases de equivalencia. Si ≈ es una Conjunto de vectores A tal que ∀a ∈ A se relaci´ n de equivalencia en A entonces, las o cumple que hAai 6= hAi. . . . . . . . . . . 37, 113 clases de equivalencia son los subconjuntos Conjunto ordenado. Conjunto en el cual de A para los cuales a ≈ b si y solo si a y est´ definida una relaci´ n de orden . . . *, 59 a o b est´ n en la misma clase . . . . . . . . . *, 53, 60 a Conjunto totalmente ordenado.Coalineaci´ n.o Funci´ n biyectiva de o Conjunto ordenado en el cual dos elementos un espacio vectorial en si mismo que tal que cualesquiera son comparables . . . . . . . . . . . . * f y f−1 preservan subespacios afines. . . . . 88 Conmutatividad. Propiedad de algunasCodominio de una funci´ n. o Sea operaciones binarias que consiste en que f : A → B una funci´ n. Al conjunto B se le o a◦b=b◦a llama codominio de la funci´ n f . . . . . 11, 82 o ∀ elementos a y b del conjunto en el cualCofactor. De la entrada αij es el escalar est´ definida la operaci´ n . . . . . . . . . . . . . . . . . 3 a o sgn ω det αNi ω(Nj) Contracci´ n. o Homotecia cuyo escalar es un donde ω es cualquier permutaci´ n de N tal o real mayor que 0 y menor que 1 . . . . . . . . . 64 que ω (j) = i . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104 Coordenada. De la n­ada (a1 , a2 , ..., an ) esColumna de una matriz. Dada una matriz alguno de los ai . De la N­ada aN es alguno αNM y j ∈ M a la N­ada αNj (j est´ fijo, los a de los ai para i ∈ N . . . . . . . . . . . . . . . . . . . . . 28 elementos de N var´an) se le llama j­´ sima ı e Coordinatizaci´ n. o columna de la matriz αNM . . . . . . . . . . 31, 74 Dada una base N de F, es el isomorfismo PCombinaci´ n lineal. o Los vectores de F 3 i∈N αi i 7→ αN ∈ K{N} . . . . . . . 44, 78
    • cot – ext 137Cota inferior. Una cota inferior de cero . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15, 19 un subconjunto A de un conjunto ordenado Dominio de una funci´ n. Sea f : A → B una o B es un elemento b de B tal que cualquier funci´ n. Al conjunto A se le llama dominio o elemento de A es mayor o igual que B . . . * de la funci´ n f . . . . . . . . . . . . . . . . . . . . . . . . 11, 82 oCota superior. Una cota superior de un sub­ Ecuaci´ n lineal. o Ecuaci´ n αN xN = βN o conjunto A de un conjunto ordenado B es un donde las N­adas αN y βN son conocidos y elemento b de B tal que cualquier elemento el vector xN es inc´ gnito . . . . . . . . . . . . . . . 116 o de A es menor o igual que B . . . . . . . . . . *, 59 Ecuaci´ n matricial. o Ecuaci´ n AX = B oDeterminante. QEl determinante de αNN es P donde la matrices A y B son conocidas y la σ∈ N sgn σ i∈N αiσ i . . . . . . .97, 21, 120 matriz X es inc´ gnita. . . . . . . . . . . . . . . . . . . . 123 oDeterminante de un OL. Elemento maximal. Determinante de su matriz en una base. No Elemento tal que cualquier otro no es mayor depende de la base escogida . . . . . . . . . . . . 109 que el . . . . . . . . . . . . . . . . . . . . . . . . . *, 38, 59, 114Diagrama. Reperesentaci´ n o Elemento minimal. Elemento tal que gr´ fica de una familia de conjuntos y de fun­ a cualquier otro no es menor que el. . . . . *, 38 ciones entre ellos mediante la utilizaci´ n de o Elementos comparables. Dos elementos a y echas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80 b de un conjunto ordenado para los cuales oDiagrama conmutativo. Diagrama en el cual a ¹ b o b ¹ a o los dos . . . . . . . . . . . . . . *, 39 cualesquiera dos caminos dirigidos (que si­ Endomorfismo. Morfismo cuyo dominio y guen el orden de las echas) de un conjunto codominio coinciden . . . . . . . . . . . . . . . . . . . . . 13 a otro representan dos descomposiciones de Entensi´ n lineal de una funci´ n. Extensi´ n o o o la misma funci´ n como composici´ n de las o o que es transformaci´ n lineal. Si la funci´ n o o funciones de las echas de los caminos . 80 tiene como dominio una base, entonces laDilataci´ n. Homotecia cuyo escalar es un real o extensi´ n lineal existe y es unica . . . . . . . . 70 o ´ mayor que 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64 Entrada de una matriz.Dimensi´ n. o Coordenada de una NM­ada . . . . . . . . . . . . 31 El cardinal de cualquier base 40, 48, 53, 83 Epimorfismo. Morfismo sobreyectivo . . . 13Dimensi´ n de un subespacio af´n. o ı Si E es Escalar. Elemento del cam­ una traslaci´ n del subespacio E entonces la o po (¡la escala!) sobre el cual est´ definido el a dimensi´ n de E es la dimensi´ n de E . . . . 53 o o espacio vectorial . . . . . . . . . . . . . . . . . . . . . 25, 27Distributividad. Relaci´ n de una operaci´ n o o Espacio cociente. Si binaria ¦ con respecto a otra ◦ que consiste E es un subespacio de F entonces, el espa­ en que las igualdades cio cociente F/E es el conjunto de todos los a ¦ (b ◦ c) = (a ¦ b) ¦ (a ¦ c) subespacios afines paralelos a E dotado con (b ◦ c) ¦ a = (b ¦ a) ◦ (c ¦ a) la suma de subespacios afines y el producto se cumplen para cualesquiera elementos a, de subespacios afines por escalares . . 54, 85 b y c del conjunto en el cual est´ definida la a Espacio de columnas. El espacio generado operaci´ n . . . . . . . . . . . . . . . . . . . . . . 5, 20, 68, 76 o por las columnas de una matriz . . . . . . . . . 113Distributividad del producto por escalares. Espacio de renglones. El espacio generado Axioma de espacio vectorial: α (a + b) = por los renglones de una matriz . . . . . . . . . 113 αa + αb y (α + β) a =αa+βa . . . . . . . 27 Espacio vectorial. Grupo abelianoDominio de integridad. con un producto por escalares distributivo, Anillo conmutativo en el cual el producto de asociativo y con neutro. . . 27, 45, 51, 54, 67 elementos diferentes de cero es diferente de Extensi´ n de una funci´ n. o o
    • 138 for – iso Si f es una restricci´ n de g entonces g es o Grupo. Conjunto con una ope­ una extensi´ n de f . . . . . . . . . . . . . . . . . . . . . . . . 70 o raci´ n binaria asociativa que tiene elemento oF´ rmula multinomial. o F´ rmu­ o neutro y en el cual todo elemento tiene in­ la para expandir la n­sima potencia de una verso . . . . . . . . . . . . . . . 7, 11, 14, 16, 55, 70, 93 suma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20 Grupo abeliano. Grupo en el cual laFunci´ n. o Informalmente es una regla operaci´ n es conmutativa . . . . . . . . . . . . . . . . . 7 o o procedimiento mediante el cual para cada Grupo alternante. elemento de un conjunto a podemos obtener El subgrupo (del grupo sim´ trico) de todas e ´ (calcular) otro unico elemento f (a) de otro las permutaciones pares . . . . . . . . . . . . . . . . . . 96 conjunto y que llamamos la imagen de a Grupo general lineal. El grupo de auto­ mediante la funci´ n f. Formalmente, una o morfismos de un espacio vectorial. El grupo funci´ n f : A → B es un subconjunto del o de operadores lineales no singulares . . . . . 69 producto cartesiano f ⊆ A × B que cumple Grupo sim´ trico. e que para cualquier a ∈ A existe una unica ´ El grupo de todas las permutaciones con la pareja (a, b) ∈ f. . . . . . . . . . . . . . . . . . . . . . . . . . . * operaci´ n de composici´ n . . . . . . . . . . . . . . . 93 o oFunci´ n antipodal. La funci´ n x 7→ −x . 64 o o Homotecia. Transformaci´ n oFunci´ n biyectiva. o Funci´ n inyectiva. y o lineal que consiste en la multiplicaci´ n por o sobreyectiva . . . . . . . . . . . . . . . . . . . . . . *, 93, 102 un escalar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64Funci´ n identidad. o La que a todo elemento Idempotencia. Propiedad de una funci´ n que o le corresponde el mismo . . . . . . . . . . . . . . . . . 64 consiste en que f ◦ f = f2 = f . . . . . . . . . . . 35Funci´ n inversa. o La inversa de una Imagen de un elemento. (v´ ase: Funci´ n). * e o funci´ n f : A → B es una funci´ n g tal que o o Imagen de una funci´ n. o El conjunto de los f ◦ g = IB y g ◦ f = IA . Una funci´ n tiene o elementos del codominio que tienen alguna inversa si y solo si esta es biyectiva. . . *, 43 preimagen. Se denota por Im f . . . . . . . . *, 82Funci´ n inyectiva. o Cada elemento de la Imagen de una matriz. ´ imagen tiene una unica preimagen . . . . *, 83 La imagen de su transformaci´ n lineal. oFunci´ n nula. o La que a todo elemento le Su espacio de columnas . . . . . . . . . . . . . . . . . 119 corresponde el cero . . . . . . . . . . . . . . . . . . . . . . 64 ´ Infimo.Funci´ n sobreyectiva. o Funci´ n tal que su o El m´ ximo de las cotas superiores . . . . . . . . * a imagen coincide con su codominio . . . *, 84 Inmersi´ n. o Restricci´ n de la funci´ n o oFuncional. Funci´ n de un espacio vectorial o identidad a un subconjunto . . . . . . . . . . 65, 83 en su campo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106 Inverso. De un elemento a para la operaci´ n oFuncional bilineal. binaria ◦ es un elemento b que cumple que Funcional lineal en sus dos variables . . . 106 a ◦ b = b ◦ a = e para cualquier elemen­Funcional lineal. to a del conjunto en el cual est´ definida la a Funcional que es una TL . . . . . . . . . . . . . . . . 106 operaci´ n. Si un elemento tiene inverso en­ oFuncional lineal en una variable. ´ tonces este es unico. En los anillos y campos Funci´ n de muchas variables con imagenes o es el inverso para el producto . . . . . . . . . . . . . 5 en un campo que para cualesquiera valores Isomorfismo. Morfismo biyec­ fijos de las dem´ s variables determina un a tivo. La inversa de cualquier isomorfismo es funcional lineal de la variable que se tra­ tambi´ n un isomorfismo . . . . . . . . . . . . . 12, 49 e ta. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106 Isomorfismo can´ nico. o Isomorfismo cu­Funcional multilineal. ya construcci´ n no depende de escoger algo o Funcional lineal en todas sus variables . 106 (una base, un complementario, etc.) . 49, 54
    • iso – mor 139Isomorfismo de espacios vectoriales. de Kronecker: unos en la diagonal y ceros Transformaci´ n lineal biyectiva . . . . . 43, 72 o en el resto de las entradas. La matriz de laIsomorfismo lineal. transformaci´ n lineal identidad . . . . . . 77, 98 o Isomorfismo de espacios vectoriales . . . . . 43 Matriz inversa. La matriz cuadrada αMNMatriz. Es una NM­ada o sea un conjunto es la inversa de βNM si βNM αMN = INN indexado por dos conjuntos . . . . . . . . . . . . . . 31 y αMN βNM = IMM . Si ambos N y M sonMatriz ampliada. finitos entonces, basta comprobar una de las Del sistema Ax = b es la matriz (A|b) . 118 dos igualdades. Una matriz cuadrada tieneMatriz cuadrada. Matriz con la misma inversa si y solo si su determinante es dife­ cantidad de columnas y renglones . . 103, 77 rente de cero. . . . . . . . . . . . . . 77, 108, 113, 123Matriz de cambio de base. Matriz singular. Matriz cuadrada con Escogidas dos bases V y N de un espacio determinante igual a cero . . . . 103, 113, 117 vectorial la matriz αNV cuyas columnas son Matriz triangular. los coeficientes de las expresiones de la ba­ Matriz triangular por bloques en la cual cada se V como combinaci´ n lineal de la base N. o bloque es de cardinalidad 1 . . . . . . . . . . . . . 111 O sea, para cualquier v ∈ V se cumple que P Matriz triangular inferior. Matriz αMM v = i∈N αiv i. Si βV son las coordenadas en la cual M = {1, . . . , m} y tal que en su de un vector en la base V entonces αNV βV representaci´ n gr´ fica todas las entradas por o a son las coordenadas del mismo vector en la encima de la diagonal son cero . . . . . . . . . 111 base N . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78 Matriz triangular por bloques. Matriz αMMMatriz de permutaci´ n. o La matriz en la cual hay una partici´ n del conjunto de o que se obtiene al permutar las columnas o ´ndices M1 ∪ · · · ∪ Mt = M y que αij = 0 ı los renglones de la matriz identidad. Matriz si i ∈ Mp , j ∈ Mq y p < q . . . . . . . . . . . . 111 que tiene exactamente un 1 en cada rengl´ n o Matriz triangular superior. Matriz αMM y columna y todas las dem´ s entradas son a en la cual M = {1, . . . , m} y tal que en su cero . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102 representaci´ n gr´ fica todas las entradas por o aMatriz de una transformaci´ n lineal. o debajo de la diagonal son cero . . . . . . . . . . 111 Escogidas una base N en el dominio y otra M´ ximo. a El m´ ximo de a M en el codominio de una TL f la matriz un subconjunto A de un conjunto ordenado αMN cuyas columnas son los coeficientes B es una cota superior que pertenece a A. Si de las expresiones de las imagenes de la ba­ ´ existe entonces, el m´ ximo es unico . . . . . . * a se N como combinaci´ n lineal de la base M. o M´nimo. ı El m´nimo de ı O sea, para cualquier j ∈ N se cumple que P un subconjunto A de un conjunto ordenado f (j) = i∈M αij i . . . . . . . . . . . . . . . 76, 73, 79 B es una cota inferior que pertenece a A. SiMatriz del sistema. La matriz A del sistema ´ existe entonces, el m´nimo es unico . . . . . . * ı de ecuaciones lineales Ax = b . . . . . . . . . 117 Monomorfismo. Morfismo inyectivo . . . 13Matriz diagonal. Matriz αMM en la cual si Monoton´a.ı Propiedad de una i 6= j entonces, αij = 0 . . . . . . . . . . . . . . . . . 111 funci´ n de un conjunto ordenado a otro que oMatriz diagonal por bloques. Matriz αMM consiste en que x ≤ y ⇒ f (x) ≤ f (y) . . 35 en la cual hay una partici´ n del conjunto de o Morfismo. Es una funci´ n f : A → B que o ´ndices M1 ∪ · · · ∪ Mt = M y que αij = 0 ı cumple que f (x ◦ y) = f (x) • f (y) donde si i y j pertenecen a bloques diferentes . 111 ◦ es una operaci´ n definida en A y • es una oMatriz identidad. operaci´ n definida en B . . . . . . . . . . . . . . 10, 42 o La matriz INN cuyas entradas son el delta Morfismo de anillos.
    • 140 mor – pro Funci´ n entre dos anillos que es morfismo o Operador singular. OL no biyectivo . . . 69 para la suma y para el producto . . . . . . . . . . 12 Opuesto. El inverso de un elemento de unMorfismo de campos. anillo o campo respecto a la suma . . . . . . . . 7 Funci´ n entre dos campos que es morfismo o ´ Orbita de una permutaci´ n. o Clase para la suma y para el producto . . . . . . . . . . 12 de equivalencia de la relaci´ n (a ∼ b) ⇔ oMorfismo de espacios vectoriales. (a = σn (b)) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94 Funci´ n f de un espacio vectorial a otro so­ o Orden de un ciclo. El n´ mero de elementos u bre el mismo campo que es un morfismo de que un ciclo no deja fijos. . . . . . . . . . . . . . . . . 94 los grupos abelianos de vectores y que cum­ Orden de una matriz. ple f (αa) = αf (a) para cualquier vector El n´ mero de renglones y columnas de una u a y cualquier escalar α . . . . . . . . . . . . . . . . . . 42 matriz cuadrada . . . . . . . . . . . . . . . . . . . . . . . . . 103Morfismo de grupos. Permutaci´ n. Biyecci´ n de un conjunto finito o o Morfismo cuyo dominio y codominios son en si mismo . . . . . . . . . . . . . . . . . . . . . . . . . 93, 102 grupos . . . . . . . . . . . . . . . . . . . . . . . . . . .11, 93, 102 Permutaci´ n de las columnas. o Esn­ada. Elemento (a1 , a2 , ..., an ) del la operaci´ n en que una permutaci´ n ω se o o producto cartesiano An . . . . . . . . . . . . . . . . . . 28 le aplica a las columnas de una matriz αMNN­ada. Funci´ n en una notaci´ n o o para obtener la matriz βMN = αMω(N) que diferente, αN : N 3 i → αi ∈ A. A N se le cumple que βij = αiω − 1 (j) . . . . . . . . . . . . . 100 llama el conjunto de ´ndices y a las αi se le ı Permutaci´ n de los renglones . o Es llaman coordenadas . . . . . . . . . . . . . . . . . . 29, 75 la operaci´ n en que una permutaci´ n ω se o oNeutro. le aplica a los renglones de una matriz αMN De una operaci´ n binaria ◦ es un elemento e o para obtener la matriz βMN = αω(M)N que que cumple que a ◦ e = e ◦ a = a para cual­ cumple que βij = αω − 1 (i)j . . . . . . . . . . . . . 100 quier a del conjunto en el cual est´ definida a Permutaci´ n impar. o Permutaci´ n o la operaci´ n. Si una operaci´ n tiene neutro o o que se descompone en la composici´ n de un o ´ entonces este es unico . . . . . . . . . . . . . . . . . . . . . 4 n´ mero impar de transposiciones . . . . . . . . 96 uNucleo de un morfismo. El el caso Permutaci´ n par. o Permutaci´ n o de grupos la preimagen del neutro. Para ani­ que se descompone en la composici´ n de un o llos y espacios vectoriales la preimagen del n´ mero par de transposiciones . . . . . . . . . . . 96 u cero . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82 Plano.Nucleo de una matriz. El nucleo de su Subespacio af´n de dimensi´ n dos . . . 53, 34 ı o transformaci´ n lineal. El conjunto soluci´ n o o Preimagen de un elemento. de un sistema de ecuaciones con vector de Sea b un elemento del codominio de f. La coeficientes libres igual a cero . . . . . . . . . . 119 preimagen de b es el conjunto de todos x enNucleo de una TL. La preimagen del cero 82 dominio tales que f (x) = b. . . . . . . . . . . *, 82Nucleo trivial. Nucleo igual a {0} . . . . . 83 Producto de matrices.OL. Acr´ nimo de operador lineal . . . . . 68 o Si αMN y βNL son dos matrices entoncesOperaci´ n binaria. o γML = αMN βN,L es la matriz cuyas en­ Funci´ n mediante la cual para cualesquiera o tradas son los productos escalares can´ nicos o dos elementos a y b de un conjunto A po­ γij = αiN βNj de los renglones de αMN por demos encontrar otro elemento de A que es las columnas de βNL . . . . . . . . . . . . . . . . 74, 101 el resultado de la operaci´ n . . . . . . . . . . . . . . . 2 o Producto de un escalar por una funci´ n. oOperador lineal. Transformaci´ n lineal de un o Si en el codominio de f est´ definido un pro­ a espacio en si mismo . . . . . . . . . . . . . . . . . . . . . . 68 ducto por escalares entonces λf es la fun­
    • pro – sub 141 ci´ n tal que (λf) (a) = f (λa) . . . . . . . . . . . 67 o Si a ≈ b y b ≈ c entonces, b ≈ a . . . . . . . *Producto de un vector por una matriz. Es Rengl´ n de una matriz. o Dada una matriz la combinaci´ n lineal de los renglones de la o αNM e i ∈ N a la M­ada αiM (i est´ fi­ a matriz cuyos coeficientes son las coordena­ jo, los elementos de M var´an) se le llama ı das del vector. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75 i­´ simo rengl´ n de la matriz αNM . . 31, 74 e oProducto de una matriz por un vector. Es Restricci´ n de una funci´ n. o o la combinaci´ n lineal de las columnas de la o Una funci´ n f : A0 → B se le llama restric­ o matriz cuyos coeficientes son las coordena­ ci´ n de g : A → B si A0 ⊆ A y para cual­ o das del vector. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75 quier a ∈ A0 se cumple f (a) = g (a) . . . 70Producto escalar. Producto bilineal de dos Serie. P Expresi´ n formal del o ∞ vectores cuyo resultado es un escalar . . . . 74 tipo i=0 ai x i . A los elementos del campoProducto escalar can´ nico. o ai se le llaman coeficientes de la serie. . . 28 Producto escalar definido en K{N} como: P Signo de una permutaci´ n. o αN βN = i∈N αi βi . . . . . . . . . . . . . . . . . . . . 74 Funci´ n que a cada permutaci´ n le hace co­ o oProyecci´ n. o Si C = A × B entonces, rresponder 1 si esta es par y −1 si esta es la funci´ n f : c = (a, b) 7→ a se le llama o impar. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96 proyecci´ n de C a A a lo largo de B. En par­ o Sistema de ecuaciones lineales. ticular, nosotros la usamos en el caso de que Ecuaci´ n Ax = b donde la matriz A y o E = F ⊕ G (¡la suma directa es un producto el vector b son conocidos y el vector x es cartesiano!). En este caso las proyecciones inc´ gnito . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116, 84 o son TLs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65, 83 Soporte. De una funci´ n f es oPunto. Subespacio af´n de dimensi´ n cero 53 ı o el conjunto de elementos del dominio cuyaRango de una matriz. El orden de sus bases. imagen es diferente de cero. De una N­ada La dimensi´ n de su espacio de columnas. o es el conjunto de ´ndices cuyas coordenadas ı La dimensi´ n de su espacio de renglo­ o son diferentes de cero. De una combinaci´ n o nes. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115 lineal es el conjunto de sumandos con coefi­Recta. ciente diferente de cero . . . . . . . . . . 30, 34, 44 Subespacio af´n de dimensi´ n uno. . . 53, 33 ı o Subanillo. Subconjunto de un anillo queRegla del tablero de ajedrez. Regla mediante es un anillo para las mismas operaciones del la cual se hallan los signos de los cofactores anillo m´ s grande . . . . . . . . . . . . . . . . . . . . . . . . 17 a de una matriz en forma gr´ fica. El signo del a Subcampo. Subconjunto de i+j cofactor de αij es (−1) . . . . . . . . . . . . . . 105 un campo que es un campo para las mismasRelaci´ n antisim´ trica. o e operaciones del campo m´ s grande . . 17, 30 a Si a ≈ b y b ≈ a entonces, a = b . . . . . . . * Subespacio. SubconjuntoRelaci´ n de equivalencia. o Relaci´ n o de un espacio vectorial que es a su vez es­ sim´ trica, reexiva y transitiva. . . . . . . . *, 53 e pacio vectorial para las mismas operacionesRelaci´ n de orden. o Relaci´ n antisim´ trica, o e que las de todo el espacio . . . . 32, 46, 50, 82 reexiva y transitiva . . . . . . . . . . . . . . *, 59, 114 Subespacio af´n. ıRelaci´ n en un conjunto. o Subconjunto del Traslaci´ n de un subespacio . . . . . 52, 66, 86 o producto cartesiano A × A = A2 . . . . . . . . * Subespacio generado. Cerradura lineal . . 35Relaci´ n reexiva. o Subespacios afines paralelos. Para todo a se tiene a ≈ a . . . . . . . . . . . . . . . . * Dos subespacios afines son paralelos si unoRelaci´ n sim´ trica. (a ≈ b) ⇒ (b ≈ a) . * o e es traslaci´ n del otro . . . . . . . . . . . . . . . . . . . . . 53 oRelaci´ n transitiva. o Subespacios complementarios.
    • 142 sub – vec Dos subespacios cuya suma es todo el multiplicado por un escalar. An´ logamente a espacio y cuya intersecci´ n es el ori­ o se definen las transformaciones elementales gen. . . . . . . . . . . . . . . . . . . . . . . . 50, 52, 54, 65, 83 de las columnas . . . . . . . . . . . . . . . . . . . . . . . . . 120Subgrupo. Subconjunto Transformaci´ n lineal. o Morfismo de de un grupo que es un grupo para la misma espacios vectoriales . . . . . . . . . . . . . . 42, 63, 70 operaci´ n del grupo m´ s grande . . . . . . . . . 17 o a Transformaci´ n lineal de una matriz. oSubmatriz. Dada una matriz αNM a cualquier Dada la matriz αMN es la funci´ n: o matriz αN 0 M 0 tal que N0 ⊆ N y M0 ⊆ M se KN 3 βN → αMN βN ∈ KM . . . . . . . . . . . 75 le llama submatriz de αNM . . . . . . . . . 32, 114 Transformaci´ n semilineal. o Funci´ n de un oSucesi´ n. o Elemento (a0 , a1 , ..., an , ...) del espacio vectorial a otro que es morfismo pa­ conjunto A de funciones f : N → A . . . 28 ra la suma y que cumple que f (λx) = λf (x) ˉSuma de conjuntos. para cierto automorfismo λ 7→ λ ˉ del campo Si A y B son conjuntos y entre sus elemen­ de escalares. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86 tos hay una operaci´ n de suma entonces: o Transposici´ n. o Ciclo de orden dos . . . . 95 A + B = {a + b | a ∈ A y b ∈ B} . . . . . . 47 Transpuesta. Matriz que se obtiene de otraSuma de funciones. intercambiando los sub´ndices de sus entra­ ı Si en el codominio mutuo de f y g est´ defi­ a das, o sea si A = αNM y AT = B = βMN nida una suma entonces f + g es la funci´ n o entonces αij = βji . . . . . . . . . . . . . . . . . . . . . . . 99 tal que (λ + g) (a) = f (a) + g (a) . . . . . 67 Traslaci´ n de un conjunto de vectores. oSuma directa de espacios. El produc­ Si A es un conjunto de vectores y x otro vec­ to cartesiano de los subespacios con la suma tor entonces A + x es la traslaci´ n de A con o definida por coordenadas y tambi´ n el pro­ e el vector x . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52 ducto por escalares. Si la intersecci´ n de dos o Vector. Elemento de un espacio vectorial. En subespacios tiene dimensi´ n cero entonces, o Rn son los segmentos dirigidos del origen a la suma directa de ellos es can´ nicamente o un punto del espacio . . . . . . . . . . . . . . . . . 25, 27 isomorfa a la suma . . . . . . . . . . . . . . . . . . . . . . . 48 Vector columna. ıSupremo. El m´nimo de las cotas inferiores * Matriz con una sola columna . . . . . . . . . . . . 75Tensor de exponente n. Un conjunto Vector de coeficientes libres. El indexado por n conjuntos de ´ndices . . . . 32 ı vector b del sistema de ecuaciones linealesTL. Acr´ nimo de transformaci´ n lineal . . 63 o o Ax = b. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117Transformaci´ n elemental. o Una trans­ Vector rengl´ n. o formaci´ n elemental de los renglones de una o Matriz con un solo rengl´ n . . . . . . . . . . . . . . 75 o matriz consiste en sumarle a un regl´ n otro o
    • AN El conjunto de todas las funciones∀ Para todo. f : N → A. El conjunto de todos∃ Existe. las N­adas aN donde ∀i ∈ N el∃! ´ Existe y es unico. elemento ai pertenece a A. Si N =P⇒Q Si P entonces Q. {1, . . . , n} entonces AN = An . P implica Q. P es suficiente para Q. 0 El vector cero. El origen de coor­P ⇐ Q P solo si Q. denadas. P es necesario para Q. 0 Cero es elemento neutro para laP ⇔ Q P si y solo si Q. suma de un anillo o campo. P y Q son equivalentes. 1 Uno es el elemento neutro para el P es necesario y suficiente para Q. producto de un anillo o campo. −1 Menos uno es el opuesto de 1 enb∈B b pertenece a B. un anillo o campo.B3b B contiene a b. INN Matriz identidad.A⊆B A es subconjunto de B. I La funci´ n identidad. La permuta­ oA⊇B A es sobreconjunto de B. ci´ n identidad oAÃB A es subconjunto propio de B. O La funci´ n nula. La matriz nula o O sea, A ⊆ B y A 6= B. ℵ0 El cardinal de N.A ! B A es sobreconjunto propio de B. O sea, A ⊇ B y A 6= B. K Un campo arbitrario.A∪B La uni´ n de A y B. o Kn El espacio de las n­adas.A∩B La intersecci´ n de A y B. o KN El espacio de las N­adas.AB La resta de conjuntos. El conjunto K [x] ´ El algebra de polinomios en la va­ de los elementos de A que no per­ riable x con coeficientes en K. tenecen a B. K [[x]] ´ El algebra de series en la variableA×B El producto cartesiano de dos con­ x con coeficientes en K. juntos. El conjunto de todas las pa­ K (x) El campo de funciones racionales rejas (a, b) con a ∈ A y b ∈ B. en x con coeficientes en K.2A El conjunto de todos los subcon­ juntos del conjunto A. El conjunto N El conjunto de los naturales. de todas las funciones Z El anillo de los enteros. f : A → {0, 1}. Zn El anillo de restos m´ dulo n. oA n El producto cartesiano de A con­ Para n primo Zn es un campo. sigo mismo n veces. El conjunto Q El campo de los racionales. de todos las n­adas (a1 , . . . , an ) R El campo de los reales. donde todos los ai est´ n en A. a C El campo de los complejos. SN El grupo sim´ trico de N. e
    • 144 NotacionesAN El grupo alternante de N. tores.A− N Las permutaciones impares de N. λA El producto de un escalar por un conjunto de vectores.f:A→B A+x El conjunto de vectores A trasla­ Una funci´ n que tiene dominio A o dado mediante el vector x. Si A es y codominio B. un subespacio entonces, es un sub­f : A 3 a 7→ f (a) ∈ B espacio af´n. ı Usada para denotar funciones con­ E⊕F La suma directa de dos espacios. cretas por ejemplo, Si E y F son subespacios que se f : R 3 a 7→ a2 ∈ R+ intersectan solo en el origen enton­ es la funci´ n con dominio R y co­ o ces es can´ nicamente isomorfa a la o dominio R+ que a cada real le hace suma de E y F. corresponder su cuadrado. αMN Una matriz cuyos renglones est´ n ap mod q El resto de la divisi´ n de p entre o indexados por M y cuyas colum­ q. Est´ bien definido en cualquier a nas est´ n indexadas por N. a anillo con divisi´ n. Por ejemplo, o αij La entrada αij de una matriz αMN . en los n´ meros enteros y en los u αiN El i­´ simo rengl´ n de la matriz e o polinomios con coeficientes en un αNM . campo. αMj La j­´ sima columna de la matriz en! El factorial del natural n. Se define αNM . como n! = 1 × 2 × · · · × n. αMω(N) Si ω es una permutaci´ n de N, o|A| El cardinal del conjunto A. Puede es la matriz αMN cuyas columnas ser finito o infinito. est´ n permutadas mediante ω. Si akzk El m´ dulo del n´ mero complejo z. o u ω : N → L es una biyecci´ n, es la ohNi La cerradura lineal de N. El con­ matriz cuyas columnas est´ n inde­ a junto de todas las combinaciones xadas por L mediante el cambio de lineales de N. ´ndices ω. ıl´m zk ı El l´mite de la sucesi´ n {zk }. ı o αω(M)N Lo mismo que el anterior pero pa­dim E La dimensi´ n de E. o ra los renglonessgn π El signo de la permutaci´ n π. o α∗ ij El cofactor de la entrada αij de unadet A El determinante de la matriz A. matriz cuadrada.Im f La im´ gen de la funci´ n f. a o A∗ La matriz de cofactores de A.ker f El nucleo del morfismo f. AT La matriz transpuesta de A.A+B La suma de dos conjuntos de vec­ (A|b) La matriz ampliada del sistema Ax = b.
    • Notaciones 145 Alfabeto g´ tico o A B C D E F G H I J K L M A B C D E F G H I J K L M N O P Q R S T U V W X Y Z N O P Q R S T U V W X Y Z a b c d e f g h i j k l m a b c d e f g h i j k l m n o p q r s t u v w x y z n o p q r s t u v w x y z Alfabeto caligr´ fico a A B C D E F G H I J K L M A B C D E F G H I J K L M N O P Q R S T U V W X Y Z N O P Q R S T U V W X Y Z Alfabeto griego A B Γ ∆ E Z H Θ I α β γ δ ²ε ζ η θϑ ι ´alfa beta gamma delta epsilon zeta eta zita iota K Λ M N Ξ O Π P Σ κκ λ μ ν ξ o π ρ σ ´ kappa lamda mu nu xi omicron pi ro sigma T Υ Φ X Ψ Ω τ υ φϕ χ ψ ω ´ tau upsilon fi chi psi omega
    • 146
    • 21. Los campos Zp son primos. Cap´tulo 1 ı 22. Teorema de Clasificaci´ n de Campos Pri­ o mos.1. Defina los siguientes conceptos: 23. Defina la caracter´stica de un campo. ı • Operaci´ n binaria. o 24. En un campo de caracter´stica t para cual­ ı • Propiedad conmutativa. quier elemento x se cumple que tx = 0 . • Propiedad asociativa. 25. Demuestre la f´ rmula del binomio de New­ o • Propiedad distributiva. ton en base a la f´ rmula multinomial. o • Elemento neutro. • Elemento inverso. Cap´tulo 2 ı2. En cualquier campo 0x = 0.3. Defina los siguientes conceptos: 1. Definici´ n de espacio vectorial. o • Grupo y grupo abeliano. 2. ¿Que es una n­ada? ¿Que es una N­ada? • Anillo y anillo conmutativo. ¿Cual es su conjunto de ´ndices? ¿ Que son ı • Campo. sus coordenadas?4. Defina los morfismos. 3. ¿Que es una NM­matriz? ¿Que es una en­5. Los morfismos preservan las operaciones bi­ trada, rengl´ n, columna? o narias. 4. Definici´ n de subespacio. o6. Los morfismos preservan la conmutatividad. 5. Los subespacios son los conjuntos cerrados7. Los morfismos preservan la asociatividad. para la suma y el producto por escalares.8. Los morfismos preservan el neutro. 6. La uni´ n de subespacios no es un subespa­ o9. Los morfismos preservan el inverso. cio.10. Los morfismos preservan la distributividad. 7. La intersecci´ n de subespacios es un subes­ o11. La inversa de un isomorfismo es un isomor­ pacio. fismo. 8. Definici´ n de combinaci´ n lineal y sus co­ o o12. Defina la suma y el producto en Zn . eficientes.13. (Zn , +, •) es un anillo conmutativo. 9. El conjunto de todas las combinaciones li­14. Todo campo es un dominio de integridad. neales de un conjunto de vectores es un su­15. Zn es un dominio de integridad si y solo si bespacio. n es primo. 10. Los siguientes tres conjuntos de vectores co­16. Todo dominio de integridad finito es un inciden: campo. • El conjunto de todas las combinaciones17. Definici´ n de subcampo. o lineales de N.18. Definici´ n de campo primo o • La intersecci´ n de todos los subespacios o ´19. Todo campo K contiene un unico subcampo que contienen a N. primo que est´ contenido en cualquier sub­ a • El subespacio m´ s peque˜ o que contiene a n campo de K. a N.20. Q es un campo primo. 11. Propiedades b´ sicas de la cerradura lineal: a
    • 148 Gu´a de estudio ı • incremento, forma unica como x = a + b donde a ∈ E ´ • monoton´a, ı y b ∈ F. • idempotencia. 34. Defina los subespacios afines.12. Todo sobreconjunto de un conjunto genera­ 35. ¿Que es el paralelismo de subespacios afi­ dor es generador. nes?13. Teorema de caracterizaci´ n de conjuntos LI. o 36. Todo subespacio af´n es paralelo a un solo ı14. Todo subconjunto de un conjunto LI es LI. subespacio vectorial.15. Lema de aumento de un conjunto LI. 37. Dos diferentes subespacios afines paralelos16. Teorema de caracterizaci´ n de bases. o no se intersectan17. Teorema de existencia de bases. 38. ¿Que es el espacio cociente? ¿Cuales son18. Propiedad del cambio de las bases. sus operaciones?19. Dos bases cualesquiera de un espacio vecto­ 39. Cualquier subespacio complementario a E rial tienen el mismo cardinal. intersecta al subespacio af´n (E + x) en un ı20. Si E es un subespacio de F y dim E = solo punto. dim F < ∞ entonces, E = F. 40. D/E es can´ nicamente isomorfo a cualquier o21. Describa las bases can´ nicas de los espacios o complementario de E. vectoriales K{N} y K [x].22. La inversa de un isomorfismo lineal es un Cap´tulo 3 ı isomorfismo lineal. 1. Definici´ n de transformaci´ n lineal. o o23. Un isomorfismo transforma conjuntos LI en 2. Toda TL transforma subespacios en subes­ conjuntos LI, conjuntos generadores en con­ pacios. juntos generadores y bases en bases. 3. Toda TL de un espacio de dimensi´ n 1 eso24. Describa el isomorfismo de coordinatiza­ una homotecia. ci´ n en una base. o 4. Definici´ n de proyecci´ n. Toda proyecci´ n o o o25. Dos espacios vectoriales sobre un mismo es una TL. campo son isomorfos si y solo si tienen la 5. El producto de un escalar por una TL es una misma dimensi´ n.o TL.26. Todo espacio vectorial finito dimensional es 6. La suma de dos TLs es una TL. isomorfo a Kn . 7. La composici´ n de TLs es una TL. o27. El n´ mero de elementos en un campo finito u 8. Propiedades de la composici´ n de TLs: aso­ o es potencia de un n´ mero primo. u ciatividad, distributividad y conmutatividad28. hE ∪ Fi = {a + b | a ∈ E, b ∈ F} con el producto por escalares.29. La igualdad modular (incluye la demostra­ ´ 9. Definici´ n de Algebra. De tres ejemplos de o ci´ n del lema). o ´ algebras. ¿Que es el grupo general lineal?30. Si E y F son subespacios tales que E ∩ F = 10. Las extensiones lineales son TLs. {0} entonces la funci´ n o 11. Las TLs est´ n predeterminadas por sus va­ a E ⊕ F 3 (a, b) 7→ a + b ∈ E + F lores en una base. es un isomorfismo de espacios vectoriales. 12. Si N es una base de E entonces, la funci´ no31. Que es un isomorfismo can´ nico. Demues­ o que a cada TL h ∈ Hom (E, F) le hace co­ tre que E ⊕ F y F ⊕ E son can´ nicamente o rresponder su restricci´ n hN ∈ FN es un o isomorfos. isomorfismo de espacios vectoriales.32. Todo subespacio tiene complementario. 13. Una TL es un isomorfismo si y solo si su res­33. Si E y F son dos subespacios complemen­ tricci´ n a una base es inyectiva y la imagen o tarios entonces cada vector x se expresa de de esta restricci´ n es una base. o
    • Gu´a de estudio ı 14914. Propiedades del producto escalar can´ nico o con n elementos es n!. de N­adas conmutatividad, distributividad y ´ 3. Que son las orbitas de una permutaci´ n.o conmutatividad con el producto por escala­ 4. La restricci´ n de una permutaci´ n a una o o res. ´ orbita es un ciclo.15. Definici´ n del producto de matrices. o 5. Definici´ n de permutaciones pares e impa­ o16. ¿Cual es la TL definida por una matriz?. res. Definici´ n del signo. o ¿Cual es la matriz de una TL? 6. La composici´ n de una permutaci´ n con o o17. La matriz de la composici´ n de dos TLs es o una transposici´ n cambia la paridad de la o igual al producto de las matrices de las TLs. permutaci´ n. o18. Defina las matrices de cambio de base. 7. Toda permutaci´ n es composici´ n de trans­ o o19. La N­ada de las coordenadas de un vector posiciones. en la base nueva se obtiene multiplicando la 8. Pruebe que sgn (π ◦ ρ) = sgn π sgn ρ y que matriz de cambio de base por la V­ada de las sgn π−1 = sgn π. coordenadas del vector en la base vieja. 9. Definici´ n de determinante de una matriz. o20. Sea f : E → F una TL. Sean B y C matrices Regla del tri´ ngulo para los determinantes a de cambio de base en E y F respectivamen­ de orden 3. te. Si A es la matriz de f en las bases viejas 10. El determinante de la matriz identidad es 1. entonces CAB−1 es la matriz de f en las ba­ 11. Si una matriz tiene una columna o un ren­ ses nuevas. gl´ n nulo entonces, su determinante es cero. o21. Propiedades principales de la transpuesta de 12. El determinante no se altera al transponer una matriz. una matriz.22. Defina la transpuesta de una TL. 13. Si una matriz tiene dos columnas iguales en­23. La transpuesta de una inmersi´ n es una pro­ o tonces, su determinante es cero. yecci´ n. o 14. Al permutar las columnas o los renglones de24. Definici´ n de nucleo e im´ gen de una TL. o a una matriz con la permutaci´ n ω el determi­ o25. La im´ gen y el nucleo son subespacios. a nante se altera por un factor igual a sgn ω.26. Una TL es injectiva si y solo si su nucleo es 15. Si φ y ϕ son dos cambios de ´ndices de N ı trivial. en M entonces, se cumple la ¢ ¡ igualdad:27. Si K es un subespacio complementario a det αMφ(N) = sgn φ ◦ ϕ−1 det αMϕ(N) . ker f entonces, la restricci´ n de f a K es in­ o 16. Definici´ n de matriz no singular. o yectiva. 17. Definici´ n de cofactores de una entrada de o28. Pruebe que dim Im f = dim Im fT y que una matriz. Pruebe que los cofactores no de­ dim ker f = dim ker fT . penden del cambio de ´ndices usado para ı29. Sean E y F dos espacios tales que dim E = calcular el determinante. dim F < ∞. Una TL de E a F es inyectiva 18. Teorema de expansi´ n de Laplace. o si y solo si es sobreyectiva. 19. Definici´ n de funcional multilineal o30. Los subespacios afines paralelos a ker f son 20. El determinante es un funcional multilineal precisamente los conjuntos de vectores en de los renglones. que la TL f es constante. 21. det A−1 = (det A)−1 . 22. A−1 = A∗T / det A. Cap´tulo 4 ı 23. El determinante de un OL no depende de la base que se use para calcularlo.1. Si |M| = |N| entonces, los grupos sim´ tri­ e 24. Enuncie la expansi´ n generalizada de La­ o cos SM y SN son isomorfos. place2. El n´ mero de permutaciones de un conjunto u
    • 150 Gu´a de estudio ı25. El determinante de una matriz triangular por dientes. bloques es igual al producto de los determi­ 33. Describa el procedimiento general de solu­ nantes de sus bloques. ci´ n de los sistemas de ecuaciones lineales. o26. Enuncie la caracterizaci´ n de matrices no o 34. Las transformaciones elementales no cam­ singulares. bian los determinantes.27. Las dimensiones del espacio de columnas y 35. Las transformaciones elementales de los del espacio de renglones de una matriz co­ renglones de la matriz ampliada no cambian inciden. el subespacio af´n soluci´ n de un sistema de ı o28. Lema de aumento de submatrices no singu­ ecuaciones lineales. lares. 36. Resuelva un sistema de ecuaciones lineales29. Caracterizaci´ n de las bases de una matriz o por el m´ todo de Gauss. e30. Regla de Cramer. 37. Encuentre la inversa de una matriz por el31. Teorema de existencia de soluciones. m´ todo de eliminaci´ n de Gauss e o32. Lema de eliminaci´ n de ecuaciones depen­ o