Sie sind auf Seite 1von 217

MONOGRAF AS MAT E MT I CAS

U T F S M
ALGEBRA LINEAL
Departamento de Matemtica
Universidad Tcnica Federico Santa Mara
Rubn A. Hidalgo
ALGEBRA LINEAL
PRIMERA EDICIN 2006
Rubn A. Hidalgo
Departamento de Matemtica, Universidad Tcnica Federico Santa Mara,
Valparaso, Chile.
E-mail : ruben.hidalgo@usm.cl
Url : http://docencia.mat.utfsm.cl/~rhidalgo
Primera Edicin 2006 .
ISBN XXXXXXX .
Este libro fu patrocinado por los proyectos Fondecyt 1030252 y UTFSM 12.05.21 y un
sabtico otorgado por la Universidad Tcnica Federico Santa Mara durante el periodo
2006.
ALGEBRA LINEAL
PRIMERA EDICIN 2006
Rubn A. Hidalgo
A Betty, Cata y Pucky
INTRODUCCIN
Esta monografa est principalmente dirigida a los estudiantes de Licenciatura en
Ciencias Mencin Matemtica, Licenciatura en Ciencias Mencin Fsica e Inge-
niera Civil Matemtica, pero puede ser tambin de uso para estudiantes de Inge-
niera y otras especialidades. El temario escogido incluye parte de lo que creemos
debe ser una formacin bsica en el tema para estos estudiantes.
En esta monografa los nmeros son elementos de cuerpos K de cualquier tipo,
excepto donde se haga mencin. Para la mayora de los estudiantes slo basta con-
siderar el cuerpo de los nmeros racionales Q el cuerpo de los nmeros reales R
el cuerpo de los nmeros complejos C. Para aquellos estudiantes interesados en
areas como la informtica, pueden tambin pensar en cuerpos nitos, como por
ejemplo Z
2
.
Hemos incluido varios tipos de problemas, siendo algunos de simple clculo, otros
de aspecto ms tericos y otros de aplicaciones.
Muchos temas importantes no han podido ser incluidos en esta versin, pero es-
peramos poder incluirlas en una prxima. Los pre-requisitos para una lectura gen-
eral y obviando algunos de los temas es MAT 023.
Una lectura recomendable para la mayora de los estudiantes es : (i) no considerar
el captulo 1 y cada vez que se mencione un cuerpo K, pensar en K = Q K = R
K = C, (ii) captulos 2, 3, 4, 5, 6, 7, 8, 11, 12.5, 12.6, 13, 16 y 17.
Mis agradecimientos a Betty, Cata y Pucky, a quienes quite tiempo de dedicacin
para escribir esta monografa, por su comprensin durante ese tiempo. Tambin
quiero agradecer al Universidad Tcnica Federico Santa Mara por el apoyo, por
medio de un periodo sabtico, que me permiti poder llevar a cabo este proyecto.
Valparaso, Chile 2006 Rubn A. Hidalgo
TABLA DE MATERIAS
Introduccin. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ix
1. Cuerpos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1. Denicin de cuerpo. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2. Ejemplos de cuerpos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.3. Homomorsmos de cuerpos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.4. Caracterstica de un cuerpo. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.5. Problemas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
2. Algebra Matricial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2.1. Matrices. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2.2. Suma de matrices. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2.3. Amplicacin de matrices. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
2.4. Multiplicacin de matrices. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.5. Transposicin de matrices. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.6. Matrices invertibles. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.7. Problemas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
3. Sistemas Lineales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
3.1. Problemas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
4. Solucin de Ecuaciones Lineales mediante Eliminacin de Gauss . . . . 27
4.1. Sistemas lineales y matriciales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
4.2. Operaciones elementales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
4.3. Encontrando inversas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
4.4. Mtodos iterativos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
4.5. Problemas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
5. Espacios Vectoriales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
5.1. Espacios vectoriales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
5.2. Ejemplos de espacios vectoriales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
5.3. Subespacios vectoriales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
xii TABLA DE MATERIAS
5.4. Problemas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
6. Bases. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
6.1. Conjuntos linealmente independientes. . . . . . . . . . . . . . . . . . . . . . . . . . . 43
6.2. Bases. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
6.3. Existencia de bases. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
6.4. Dimensin. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
6.5. Problemas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
7. Coordenadas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
7.1. coordenadas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
7.2. Coordenadas y cambios de base. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
7.3. Problemas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
8. Transformaciones Lineales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
8.1. Transformaciones lineales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
8.2. El espacio L(V, W). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
8.3. Problemas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
9. Una Relacin entre Espacios Vectoriales Reales y Complejos . . . . . . . . 67
9.1. Estructuras complejas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
9.2. Complexicacin de espacios vectoriales reales. . . . . . . . . . . . . . . . . . . 68
9.3. Complexicacin y estructuras reales. . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
9.4. Problemas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
10. Espacios Duales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
10.1. El espacio L(V, K). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
10.2. Bases duales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
10.3. Espacios duales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
10.4. Teorema de representacin de Riez. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
10.5. Dualidad y transformaciones lineales. . . . . . . . . . . . . . . . . . . . . . . . . . . 78
10.6. Problemas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
11. Representaciones Matriciales de Transformaciones . . . . . . . . . . . . . . . . 83
11.1. Matrices ssociadas a transformaciones lineales. . . . . . . . . . . . . . . . . . . 83
11.2. Problemas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
12. Funciones Multilineales y Determinantes. . . . . . . . . . . . . . . . . . . . . . . . . . 89
12.1. Funciones multilineales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
12.2. Determinates. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
12.3. Relacin entre funciones determinantes. . . . . . . . . . . . . . . . . . . . . . . . . 93
12.4. Determinantes de transformaciones lineales . . . . . . . . . . . . . . . . . . . . . 95
12.5. Determinantes de matrices. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
12.6. Propiedades de determinantes. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
12.7. Problemas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
13. Espacios Vectoriales con Producto Interior. . . . . . . . . . . . . . . . . . . . . . . . 105
TABLA DE MATERIAS xiii
13.1. Productos interiores. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
13.2. Propiedades de la norma y la distancia. . . . . . . . . . . . . . . . . . . . . . . . . . 108
13.3. Como Recuperar <, > a partir de ||. . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
13.4. La desigualdad de Schwarz. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110
13.5. Angulos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
13.6. Ortogonalidad. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112
13.7. Proyecciones ortogonales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
13.8. Existencia de bases ortonormales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
13.9. Teorema de representacin de Riez. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119
13.10. Problemas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120
14. Productos Interiores y Funciones Determinantes . . . . . . . . . . . . . . . . . . 125
14.1. Funciones determinantes y productos interiores. . . . . . . . . . . . . . . . . . 125
14.2. Problemas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128
15. Normas de Transformaciones Lineales. . . . . . . . . . . . . . . . . . . . . . . . . . . . 129
16. Valores y Vectores Propios. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133
16.1. Introduccin. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133
16.2. Valores y vectores propios. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133
16.3. Caso de dimensin nita. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135
16.4. Involuciones. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 139
16.5. Par de involuciones que conmutan : Grupo de Klein. . . . . . . . . . . . . . 140
16.6. Problemas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142
17. Transformaciones Lineales y Producto Interior. . . . . . . . . . . . . . . . . . . . 145
17.1. La transformacin adjunta. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145
17.2. Representacin matricial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 148
17.3. Caso V = W . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149
17.4. Isomorsmos de orden nito. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 152
17.5. Transformaciones simtricas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 157
17.6. Transformaciones antisimtricas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 160
17.7. Rotaciones. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 163
17.8. Problemas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 167
18. Transformaciones Unitarias. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 173
19. Formas Normales : Situacin General . . . . . . . . . . . . . . . . . . . . . . . . . . . . 179
19.1. Algunos preliminares algebraicos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 179
19.2. Polinomios y transformaciones lineales. . . . . . . . . . . . . . . . . . . . . . . . . 182
Referencias. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 197
Indice. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 199
CAPTULO 1
CUERPOS
En este captulo slo recordaremos la denicin de cuerpo y algunas propiedades
bsicas de ellos como as algunos ejemplos para tener a mano.
1.1. Denicin de cuerpo
Primero introduciremos en generalidad el concepto de cuerpo, una estructura al-
gebraica que se dene en el curso de Estructuras Algebraicas, pero que no es
pre-requisito para el curso de Algebra Lineal. La mayora de los estudiantes slo
necesitarn los cuerpos bsicos Q, R y C.
Los cuerpos son estructuras donde es posible tener nociones de suma, resta, mul-
tiplicacin y divisin. La denicin es la siguiente.
Denicin 1.1.1. Un cuerpo es un triple (K, +, ), donde K es un conjunto
no vaci,
+ : K K K : (x, y) x +y
y
: K K K : (x, y) x y
son funciones, llamadas suma y multiplicacin respectivamente, tales que valen
las siguientes propiedades :
1.- La suma es asociativa, es decir, para todo triple x, y, z K vale que
(x +y) +z = x + (y +z);
2.- Existe un neutro para la suma 0 K, es decir, para todo x K vale que
x + 0 = x = 0 +x;
3.- Existen inversos para la suma, es decir, para todo x K existe x K tal
que
x + (x) = 0 = (x) +x;
2 CAPTULO 1. CUERPOS
4.- La suma es conmutativa, es decir, para todo par x, y K vale que
x +y = y +x;
5.- La multiplicacin es asociativa, es decir, para todo triple x, y, z K vale que
(x y) z = x (y z);
6.- Existe un neutro para la multiplicacin 1 K0, es decir, para todo x K
vale que
x 1 = x = 1 x;
7.- Existen inversos para la multiplicacin, es decir, para todo x K0 existe
x
1
K 0 tal que
x x
1
= 1 = x
1
x;
8.- La multiplicacin es conmutativa, es decir, para todo par x, y K vale que
x y = y x;
9.- Vale la propiedad distributiva, es decir, para todo triple x, y, z K vale que
x (y +z) = x y +x z.
Observacin 1.1.2. Observar de nuestra denicin que un cuerpo debe tener
al menos dos elementos. Si no existe confusin alguna, denotaremos un cuerpo
(K, +, ) slo por K. Ms an, usaremos la notacin xy para denotar x y.
Denicin 1.1.3. Sea K un cuerpo. Un subconjunto L K el cual es un
cuerpo con las mismas operaciones de suma y multiplicacin de K es llamado un
subcuerpo de K. Usaremos la notacin L K para denotar esto.
1.2. Ejemplos de cuerpos
En esta seccin daremos algunos ejemplos bsicos de cuerpos, los tres primeros
son los clsicos que conocemos desde el colegio. Los restantes aparecen de man-
era natural en cursos bsicos de informtica y fsica, por ejemplo.
1.2.1. Cuerpo de los nmeros racionales. Si consideramos aquellos
nmeros reales de la forma a/b, donde a, b Z y b ,= 0, entonces obtenemos el
conjunto de los nmeros racionales. La suma y multiplicacin usual de fracciones
nos da la estructura de un cuerpo, denotado por Q y llamado el cuerpo de los
nmeros racionales.
1.2. EJEMPLOS DE CUERPOS 3
1.2.2. Cuerpo de los nmeros reales. El conjunto de los nmeros reales,
junto a la suma y multiplicacin usual forma un cuerpo, llamado el cuerpo de los
nmeros reales y denotado por R. En este caso tenemos que Q es un subcuerpo
de R.
1.2.3. Cuerpo de los nmeros complejos. El conjunto de los nmeros com-
plejos, es decir, de la forma x + iy, donde x, y R, junto a la suma y multipli-
cacin usuales
(x +iy) + (u +iv) = (x +u) +i(y +v)
(x +iy) (u +iv) = (xu yv) +i(xv +yu)
forma un cuerpo, llamado el cuerpo de los nmeros complejos y denotado por C.
En este caso tenemos que Q y R son ambos subcuerpos de C.
1.2.4. Cuerpo Z
p
, donde p N es primo. Consideremos un nmero primo
p N y denamos la siguiente relacin de equivalencia en Z :
x y [x y[ es divisible por p.
Denotemos por x a la clase de equivalencia del entero x Z y por Z
p
al conjunto
de tales clases de equivalencia. Denamos en Z
p
las siguientes operaciones :
+
p
: Z
p
Z
p
Z
p
: (x, y) x +
p
y = x +y

p
: Z
p
Z
p
Z
p
: (x, y) x
p
y = xy.
Teorema 1.2.1. Si p es un primo, entonces Z
p
es un cuerpo con las opera-
ciones binarias +
p
y
p
.
Observacin 1.2.2. Este tipo de cuerpos, en especial cuando p = 2, es de
bastante utilidad en informtica.
1.2.5. Cuerpos cuadrticos. Consideremos d 2, 3, .... tal que

d / Z.
Consideremos los subconjunto de C denidos por :
Q[

d] = a +b

d : a, b Q R
Q[

d] = a +b

di : a, b Q Z
Usando la suma y multiplicacin usual de nmeros reales y complejos tenenos
que ellos son cuerpos. En este caso, Q[

d] es subcuerpo de ambos R y C, pero


Q[

d] es slo subcuerpo de C.
4 CAPTULO 1. CUERPOS
1.2.6. Cuerpos denidos por polinomios. Consideremos un cuerpo K y
denotemos por K[x] el anillo de polinomios en una variable x. Un polinomio
p(x) K[x] K es llamado irreducible si no es posible escribirlo como pro-
ducto de dos polinomios en K[x], ambos de grado positivo ; en caso contrario
diremos que es reducible en K[x]. Por ejemplo, p(x) = x
2
+ 1 es irreducible en
R[x] y es reducible en C[x].
Sea p(x) K[x] irreducible y consideremos la relacin de equivalencia en K[x]
dada por :
u(x) v(x) u(x) v(x) es divisible por p(x)
Denotemos por [u(x)] la clase de equivalencia de u(x) K[x] y por K[x]/p(x))
al conjunto de las clases de equivalencia. Las operaciones de suma y multipli-
cacin
+ : K[x]/p(x))K[x]/p(x)) K[x]/p(x)) : ([u(x)], [v(x)]) [u(x)+v(x)]
: K[x]/p(x)) K[x]/p(x)) K[x]/p(x)) : ([u(x)], [v(x)]) [u(x)v(x)]
dotan a K[x]/p(x)) de la estructura de un cuerpo. Por ejemplo, si tomamos K =
R y p(x) = x
2
+ 1, entonces el cuerpo R[x]/x
2
+ 1) es otra manera de ver al
cuerpo C. Usando K = Q y p(x) = x
2
d, donde d 2, 3, ... tal que

d / Z,
entonces el cuerpo Q[x]/x
2
d) es otra manera de ver a Q[

d].
1.3. Homomorsmos de cuerpos
En el ejemplo anterior hemos dicho que un cuerpo se puede mirar de maneras
diferentes. Qu quiere decir esto ?
Denicin 1.3.1. Sean K
1
y K
2
cuerpos y : K
1
K
2
una funcin.
(1) Diremos que es un homomorsmo entre los cuerpos si
(x +y) = (x) +(y)
y
(xy) = (x)(y)
para todo par x, y K
1
.
(2) Diremos que es un isomorsmo si es bijeccin y un homomorsmo. En
tal caso, diremos que K
1
y K
2
son cuerpos isomorfos.
La idea es que si uno tiene informacin algebraica sobre un grupo K, entonces
esas mismas propiedades valen para otro cuerpo que sea isomorfo a este. El
usar algunas copias isomorfas de un grupo dado permite en muchos casos poder
averiguar informacin del grupo que no son tan claras con otras copias.
1.5. PROBLEMAS 5
1.4. Caracterstica de un cuerpo
Sea K un cuerpo y 1 K su elemento neutro para su multiplicacin. Por cada
entero positivo n 2, 3, 4, .... podemos considerar el valor
1
+n
= 1 + 1 + 1
. .
nveces
K.
Denicin 1.4.1. Si existe n 2, 3, ... tal que 1
n
= 0, entonces existe un
menor de tales enteros con tal propiedad ; tal entero es llamado la caracterstica
de K. En caso contrario, diremos que K tiene caracterstica 0.
Consideremos un cuerpo K y consideremos la funcin
: Z K : n 1
+n
donde para n = 0 denimos 1
+0
= 1 y para n < 0 denimos 1
+n
= (1
+|n|
)
1
.
Tenemos que resulta ser un homomorsmo de anillos. El ncleo de es un
subanillo de Z, luego tiene una de las siguientes formas : (i) 0 ; (ii) nZ. En
el caso (i) vemos, de nuestra denicin de caracterstica de cuerpo, que K tiene
caracterstica 0 y necesariamente K debe ser innito ; de hecho debe contener una
copia de Q. En el caso (ii) se puede ver que necesariamente n es la caracterstica
de K y que K debe contener una copia de Z
n
. Pero como en un cuerpo K la
ecuacin xy = 0 obliga a tener que x = 0 y = 0, entonces n = p es un primo.
Teorema 1.4.2. La caracterstica de un cuerpo es 0 un primo.
Observacin 1.4.3. Ms adelante, cuando veamos espacios vectoriales, vere-
mos que todo cuerpo nito de caracterstica p debe tener cardinalidad una potencia
de p.
1.5. Problemas
1.- Vericar que en un cuerpo (K, +, ) los neutros aditivos y multiplicativos son
nicos.
2.- Sea K un cuerpo. Vericar que si x y = 0, entonces x = 0 bien y = 0.
3.- Vericar que el conjunto Z de los nmeros enteros, junto a la suma y multi-
plicacin usual de nmeros reales, no es un cuerpo.
4.- Vericar que la relacin denida en la denicin del cuerpo Z
p
es una
relacin de equivalencia en Z.
6 CAPTULO 1. CUERPOS
5.- Si p > 1 es un primo, entonces el conjunto 0, 1, 2, ..., p 1 forma una
coleccin maximal de elementos no-equivalentes en el cuerpo Z
p
.
6.- Vericar que las funciones +
p
y
p
denidas sobre Z
p
estn bin denidas.
7.- Vericar que (Z
p
, +
p
,
p
) es un cuerpo si p es un primo. [Indicacin : para
buscar un inverso multiplicativo de x, donde x 2, ..., p 1, usar el hecho
que al ser p primo debemos tener que x y p son relativamente primos, luego
deben existir enteros a, b Z tales que ax +bp = 1.]
8.- Vericar que si reemplazamos p por un nmero entero positivo n que no es
primo, entonces +
n
y
n
denen sobre Z
n
una estructura de anillo. Este anillo
no es un cuerpo ; todo funciona bin con la excepcin que no todo elemento
tiene un inverso multiplicativo.
9.- Considere K = R y p(x) = x
2
+1. Verique que el cuerpo R[x]/x
2
+1) es
isomorfo C.
10.- Usando K = Q y p(x) = x
2
d, donde d 2, 3, ... tal que

d / Z,
vericar que el cuerpo Q[x]/x
2
d) es isomorfo a Q[

d].
11.- Puede ser R isomorfo a Q? Puede ser isomorfo a C?
12.- Sean d
1
, d
2
2, 3, ... tales que
_
d
j
/ Z. Cundo tenemos un isomor-
smo entre Q[

d
1
] y Q[

d
2
] ?
13.- Ver que Q, R, C tienen caracterstica 0, pero para p primo el cuerpo Z
p
tiene
caracterstica p.
14.- Si K
1
y K
2
son cuerpos isomorfos, entonces que puede decir de sus carac-
tersticas.
CAPTULO 2
ALGEBRA MATRICIAL
2.1. Matrices
Denicin 2.1.1. Sea K un cuerpo y sean p, q 2, 3, 4, 5, ....
(i) Una matriz de tamao pq con coecientes a
ij
K es un arreglo rectangular
A = (a
ij
)
pq
=
_
_
_
_
_
a
11
a
12
a
1q
a
21
a
22
a
2q
.
.
.
.
.
.
.
.
.
.
.
.
a
p1
a
p2
a
pq
_
_
_
_
_
(ii) Al conjunto de tales matrices le denotaremos por M(p q; K).
(iii) Si p = q, diremos que esta es una matriz cuadrada de tamao p.
(iv) Una matriz cuadrada A = (a
ij
) tal que a
ij
= 0, para todo i, j, es llamada la
matriz cero y denotada por 0
pq
.
(v) Una matriz cuadrada A = (a
ij
) tal que a
ij
= 0, para todo i ,= j, es llamada
una matriz diagonal ; la denotaremos por diag(a
11
, a
22
, ...., a
pp
.
(vi) La matriz diagonal de tamao p dada por I
p
= diag(1, 1, ...., 1) es llamada
la matriz identidad de tamao p.
(vii) Una matriz A = (a
ij
) de tamao p q tal que a
ij
= 0 para i < j (respecti-
vamente, i > j) es llamada una matriz triangular inferior (respectivamente, una
matriz triangular superior).
(vii) Dos matrices A = (a
ij
), B = (b
ij
) M(p q; K) son iguales si para todo
i, j vale que a
ij
= b
ij
.
2.2. Suma de matrices
Denicin 2.2.1. Sean A = (a
ij
) , B = (b
ij
) M(pq; K) matrices. Den-
imos su suma como
A+B = (c
ij
= a
ij
+b
ij
)
8 CAPTULO 2. ALGEBRA MATRICIAL
Algunas propiedades de la suma de matrices es la siguiente :
(1) Si A, B, C M(p q; K), entonces
(A+B) +C = A+ (B +C)
(2) Si A, B M(p q; K), entonces
A+B = B +A
(3) Si A M(p q; K), entonces
A + 0 = A = 0 +A
(4) Si A = (a
ij
) M(p q; K), entonces A = (a
ij
) M(p q; K) y
adems vale que
A + (A) = 0 = (A) +A
2.3. Amplicacin de matrices
Denicin 2.3.1. Sea K un cuerpo, K y A = (a
ij
) M(p q; K).
Entonces, denimos la amplicacin de A por como
A = (b
ij
= a
ij
)
Algunas propiedades de la amplicacin son las siguientes :
(1) si
1
,
2
K y A M(p q; K), entonces
(
1
+
2
)A =
1
A+
2
A
(2) si
1
,
2
K y A M(p q; K), entonces
(
1

2
)A =
1
(
2
A)
(3) si K y A, B M(p q; K), entonces
(A +B) = A+B
(4) si A M(p q; K), entonces
1A = A
Ejercicio 1. Vericar las igualdades
0A = 0
pq
0
pq
= 0
pq
para todo K y todo A M(p q; K).
2.4. MULTIPLICACIN DE MATRICES 9
2.4. Multiplicacin de matrices
Denicin 2.4.1. Sean K un cuerpo y matrices A = (a
ij
) M(p q; K),
B = (b
ij
) M(q r; K). Denimos su producto como
AB =
_
c
ij
=
q

n=1
a
n
b
nj
_
Denicin 2.4.2. En el caso que A = (a
ij
) , B = (b
ij
) M(p p; K), es
decir matrices cuadradas de tamao p, se dene el corchete de Lie
[A, B] = AB BA
Observacin 2.4.3. En el caso de matrices cuadradas, del mismo tamao,
podemos calcular tanto AB como BA. En general, para se tiene que AB ,= BA,
es decir, [A, B] ,= 0.
Ejercicio 2. Sea K = Q y p = 2. Tenenos que para las matrices cuadradas
A =
_
1 0
0 0
_
, B =
_
0 0
1 0
_
M(2 2, Q)
vale que [A, B] ,= 0
22
.
Algunas propiedades del producto de matrices son las siguientes. Sea K un
cuerpo, entonces (teniendo cuidado con los tamaos para que los productos
tengan sentido) :
(i) A(BC) = (AB)C ;
(ii) A(B +C) = AB +AC ;
(iii) (A +B)C = AC +BC ;
(iv) A
pq
I
q
= A
pq
, I
p
A
pq
= A
pq
;
(v) A
pq
0
qr
= 0
pr
, 0
rp
A
pq
= 0
rq
.
La siguiente denicin de potencias de una matriz cuadrada ser util para estudiar
problemas de iteracin de problemas lineales (por ejemplo, cadenas de Markov).
Denicin 2.4.4. Sea A M(pp; K), donde K es algn cuerpo. Se denen
las potencias siguientes de A :
A
n+1
= AA
n
, n 1, 2, 3, ....
A
0
= I
p
10 CAPTULO 2. ALGEBRA MATRICIAL
2.5. Transposicin de matrices
Denicin 2.5.1. Sea K un cuerpo y una matriz A = (a
ij
) M(p q; K).
La transpuesta de A es denida como la matriz
t
A = (b
ij
= a
ji
) M(q p; K)
Ejemplo 2.5.2.
t
_
1 2 3
4 5 6
_
=
_
_
1 4
2 5
3 6
_
_
Algunas propiedades de la transposicin de matrices son las siguientes :
(i)
t
(
t
A) = A;
(ii)
t
(AB) =
t
B
t
A;
(iii)
t
(A +B) =
t
A+
t
B;
(iv)
t
(A) =
t
A, para K ;
(v)
t
I
p
= I
p
;
(vi)
t
0
pq
= 0
qp
.
Observacin 2.5.3. Cuando K C, es decir, K es un subcuerpo del cuerpo
de nmeros complejos, podemos denir la matriz transpuesta hermitiana de A =
(a
ij
) por
H
A = (b
ij
= a
ji
) =
t
A
Se tienen las mismas propiedades anteriores excepto que la propiedad (iv) es
reeplazada por
(iv)
H
(A) =
H
A, para K
Denicin 2.5.4. Una matriz cuadrada A tal que
t
A = A es llamada una
matriz simtrica. Una matriz cuadrada A tal que
H
A = A es llamada una matriz
hermitiana.
Ejemplo 2.5.5. La matriz
A =
_
1 2
2 3
_
es una matriz simtrica y hermitiana.
La matriz
B =
_
1 2 + 3i
2 3i 3
_
2.7. PROBLEMAS 11
es una matriz hermitiana que no es simtrica.
La matriz
C =
_
1 2
3 4
_
es una matriz que no es simtrica ni hermitiana
Ejercicio 3. Si K C y A = (a
ij
) M(pp; K) es una matriz hermitiana,
entonces a
ii
R.
2.6. Matrices invertibles
Denicin 2.6.1. Sea K un cuerpo. Una matriz cuadrada A M(p p; K)
es llamada invertible si exite una matriz cuadrada A
1
M(p p; K) tal que
AA
1
= I
p
= A
1
A;
en caso contrario diremos que Aes una matriz singular. Denotamos por GL(p; K)
al conjunto de todas las matrices invertibles de tamao p y coecientes en K.
Ejercicio 4. Vericar que GL(p; K) es un grupo con la regla de multipli-
cacin de matrices.
Denicin 2.6.2. Sea A, B M(p p; K) donde K es un cuerpo. Diremos
que A y B son conjugadas si existe una matriz invertible C GL(p; K) tal que
B = CAC
1
.
2.7. Problemas
1.- Encontrar matrices reales A, B M(2 2; R) tales que [A, B] ,= 0.
2.- Producto Cruz. Sea K un cuerpo y consideremos matrices
A = (a
1
a
2
a
3
), B = (b
1
b
2
b
3
) M(1 3; K)
El producto cruz entre A y B se dene como la siguiente matriz
AB = (a
2
b
3
a
3
b
2
a
3
b
1
a
1
b
3
a
1
b
2
a
2
b
1
) M(1 3; K)
Vericar las siguientes propiedades :
(i) AB = B A, es decir, el producto cruz no es conmutativo ;
(ii) A A = 0 ;
12 CAPTULO 2. ALGEBRA MATRICIAL
(iii) existen A, B, C M(1 3; K) tales que
(A B) C ,= A (B C),
en otras palabras, el producto cruz no es asociativo ;
(iv) no existe matriz T M(1 3; K) tal que T A = A para toda
A M(1 3; K), es decir, no hay un elemento neutro para el producto
cruz.
3.- Producto de Kronecker tensorial. Sea K un cuerpo y matrices
A = (a
ij
) M(p q; K)
B = (b
ij
) M(r s; K)
El producto de Kronecker tensorial de A con B es denido como la matriz
AB =
_
_
_
_
_
a
11
B a
12
B a
1q
B
a
21
B a
22
B a
2q
B
.
.
.
.
.
.
.
.
.
.
.
.
a
p1
B a
p2
B a
pq
B
_
_
_
_
_
M(pr qs; K)
Vericar las siguinetes propiedades :
(i) existen matrices A y B tales que A B ,= B A, es decir, el producto
tensorial no es conmutativo ;
(ii) existen A, B, C tales que
(A B) C ,= A (B C),
en otras palabras, el producto cruz no es asociativo ;
(iii) la matriz (1) M(1 1; K) satisface que (1) A = A = A (1)
para toda A M(p q; K), es decir, la matriz (1) es un elemento neutro
para el producto de Kronecker.
4.- Producto componente a componente. El siguiente producto de matrices es de
mucha utilidad en anlisis discreto de Fourier. Sea K un cuerpo y matrices
A = (a
ij
) M(p q; K)
B = (b
ij
) M(p q; K)
El producto componente a componente entre A y B es dada por la siguiente
matriz
AB = (c
ij
= a
ij
b
ij
) M(p q; K)
Vericar las siguientes propiedades :
(i) AB = BA, es decir, el producto componente a componente es con-
mutativo ;
(ii) (AB)C = A(BC), en otras palabras, el producto componente a
componente es asociativo ;
2.7. PROBLEMAS 13
(iii) la matriz
=
_
_
_
_
_
1 1 1
1 1 1
.
.
.
.
.
.
.
.
.
.
.
.
1 1 1
_
_
_
_
_
M(p q; K)
satisface que A = A = A para toda A M(p q; K), es decir,
la matriz es un elemento neutro para el producto componente a compo-
nente.
5.- Convolucin. Sea K un cuerpo y consideremos matrices
A = (a
1
a
2
a
p
), B = (b
1
b
2
b
p
) M(1 p; K)
La convolucin entre A y B se dene como la siguiente matriz
A B = (c
1
c
2
c
p
), M(1 p; K)
donde
c
k
= a
1
b
k
+a
2
b
k1
+ +a
k
b
1
+a
k+1
b
p
+a
k+2
b
p1
+ +a
p
b
k+1
Vericar las siguientes propiedades :
(i) A B = B A, es decir, la convolucin es conmutativa ;
(ii) (AB)C = A(BC), en otras palabras, la convolucin es asociativa ;
(iii) la matriz e
1
= (1 0 0 0) M(1 q; K) satisface que e
1
A = A
para toda A M(1 q; K), es decir, la matriz e
1
es un elemento neutro
izquierdo para la convolucin.
6.- Supongamos que tenemos tres poblaciones, digamos P
1
, P
2
, P
3
, y supong-
amos que la problacin P
1
tiene una cierta enfermedad. Supongamos que
las personas de la poblacin P
2
estn en posible contacto con personas de la
poblacin P
1
, y supongamos que las personas de la poblacin P
3
estn en posi-
ble contacto con personas de la poblacin P
2
. Si p
j
es la cantidad de personas
de la poblacin P
j
, entonces podemos codicar la informacin de contacto
entre las dos poblaciones P
i
y P
j
por una matriz de tamao p
i
p
j
, digamos
A
ij
= (a
uv
), donde a
uv
= 0, 1, 2, ... si la persona u de la poblacin P
i
se
ha puesto en contacto a
uv
veces con la persona v de la poblacin P
j
. Verique
que
A
13
= A
12
A
23
7.- Una matriz de probabilidad es una matriz cuadrada A = (a
ij
) M(p p; R)
de manera que
(i) a
ij
[0, 1] y
(ii)

p
j=1
a
kj
= 1, para todo k = 1, .., p.
Vericar que el producto de matrices de probabilidad es una matriz de prob-
abilidad.
14 CAPTULO 2. ALGEBRA MATRICIAL
.
.
.
.
.
.
Figura 1. Un grafo dirigido
8.- En un torneo de tenis, donde participan n tenistas y todos juegan con todos, los
resultados se colocan en una matriz cuadrada de tamao n, digamos T = (t
ij
),
donde
T
ij
=
_
_
_
1 si el tenista i le gana al tenista j
0 si el tenista i pierde con el tenista j
0 i = j
El puntaje obtenido por el tenista i es dado por
p
i
=
n

j=1
_
T
ij
+
1
2
S
ij
_
donde S = T
2
.
Busque un ejemplo de matriz T para n = 4 que es posible obtener en un
torneo de tal tipo y calcule los puntajes de los tenistas.
9.- Sea A M(p p; K). Verique que
t
AA y A
t
A son simtricas.
10.- Grafos. Un grafo es un objeto que consiste en vrtices y ejes, los cuales
conectan pares de vrtices no necesariamente diferentes. Un grafo dirigido es un
grafo donde hemos escogido para cada eje una direccin, siendo posible dotarla
de ambas direcciones. Grafos son de mucha utilidad en el estudio de interrela-
ciones entre diferentes componentes de un sistema de estudio ; por ejemplo,
estudios de familias en una poblacin, estudio de una enfermedad contagiosa,
estudio de una red computacional, etc.
A cada grafo dirigido ( le podemos asociar una matriz A
G
de la siguiente
manera. Primero enumeramos los vrtices del grafo por los nmeros 1, 2,...,n,
donde n denota el nmero de vrtices de tal grafo. Formamos la matriz A
G
=
(a
ij
) M(nn; R) de manera que A
ij
denota el nmero de ejes que conectan
los vrtices i con j. Por ejemplo, si consideramos el grafo 1 con la enumeracin
2.7. PROBLEMAS 15
6
.
.
.
.
.
.
1
2
3
4
5
Figura 2. Un grafo dirigido con vrtices numerados
mostrada en la gura 2, entonces su matriz es
A =
_
_
_
_
_
_
_
_
_
0 1 0 0 0 0
1 0 1 0 1 0
0 1 0 1 0 0
0 0 1 0 0 0
0 1 0 0 1 1
0 0 0 0 1 0
_
_
_
_
_
_
_
_
_
(a) Vericar que la matriz asociada a un grafo es simtrica.
Grafos simples. Desde ahora en adelante nos preocuparemos de grafos que
satisfacen las siguientes dos propiedades (el cual llamaremos un grafo simple) :
(i) No hay ejes conectando el mismo vrtice consigo mismo (luego el grafo
mostrado en la gura 1 no ser admitido) ;
(ii) dos vrtices tienen a lo ms un eje que los conecta.
Si tenemos un grafo simple, entonces los coecientes de A
G
son 0 y 1 y los
elementos de la diagonal son 0. Llamamos a la matriz de un grafo simple un
amtriz de incidencia.
(b) Determine un grafo simple ( cuya matriz de incidencia es
A
G
=
_
_
_
_
_
_
_
0 1 1 0 0
1 0 0 1 0
0 1 0 0 0
1 0 1 0 1
0 1 1 1 0
_
_
_
_
_
_
_
Cadenas. Una cadena de ejes en un grafo es una coleccin nita de ejes
diferentes de manera que el primer eje termina en el vrtice donde empieza
el segundo, el segundo termina en el vrtice donde comienza el tercero, y as
sucesivamente. Es claro que podemos tener dos cadenas diferentes que conectan
dos vrtices dados. La longitud de una cadena es el nmero de ejes que esta
tiene.
16 CAPTULO 2. ALGEBRA MATRICIAL
Considere un grafo simple ( con matriz de incidencia A
G
. Entonces pode-
mos construir las matrices potencia : A
2
G
, A
3
G
,....
(c) Verique que el coeciete (i, j) de la matriz A
k
G
es el nmero de cadenas
diferentes de longitud k que existen entre los vrtices i y j.
(d) Si el coeciente (i, j) de la matriz A
k
G
es 0 para todo k m y el coe-
ciente (i, j) de la matriz A
m
G
es diferente de 0, entonces la cadena ms corta
que conecta los vrtices i con j tiene ongitud m.
11.- Considere la siguiente informacin obtenida por un socilogo acerca miem-
bros dominantes de un grupo de personas. Hay 6 personas, denotadas por
x
1
, ..., x
6
. La persona x
2
domina a x
4
y a x
5
. La persona x
4
domina a x
1
y
x
3
. La persona x
5
domina a x
3
. La persona x
3
domina a x
6
. La persona x
6
no
domina a nadie del grupo.
Determine un grafo que reeja la situacin anterior y vea que este es un grafo
simple. Calcule su matriz de incidencia A. Calcule las potencias de A para ver
que A
3
detecta el miembro dominante del grupo.
CAPTULO 3
SISTEMAS LINEALES
Denicin 3.0.1. Consideremos un cuerpo K. Un sistema lineal es un sistema
de ecuaciones lineales
_

_
a
11
x
1
+a
12
x
2
+ +a
1q
x
q
= b
1
a
21
x
1
+a
22
x
2
+ +a
2q
x
q
= b
2
.
.
.
.
.
.
.
.
.
a
p1
x
1
+a
p2
x
2
+ +a
pq
x
q
= b
p
donde a
ij
, b
n
K, para i, n 1, 2, ..., p y j 1, 2, ..., q. En el caso que b
j
=
0, para todo j = 1, .., p, decimos que el anterior es un sistema lineal homogneo.
Si consideramos las matrices
A =
_
_
_
_
_
a
11
a
12
a
1q
a
21
a
22
a
2q
.
.
.
.
.
.
.
.
.
.
.
.
a
p1
a
p2
a
pq
_
_
_
_
_
M(p q; K)
B =
_
_
_
_
_
b
1
b
2
.
.
.
b
p
_
_
_
_
_
M(p 1; K)
X =
_
_
_
_
_
x
1
x
2
.
.
.
x
p
_
_
_
_
_
18 CAPTULO 3. SISTEMAS LINEALES
entonces resolver el sistema lineal es equivalente a resolver el sistema
AX = B
En el prximo captulo nos ocuparemos de la existencia de soluciones en K y su
resolucin. Por el momento, slo nos preocuparemos del caso de sistemas lineales
dos por dos.
Ejercicio 5. Verique que el sistema lineal
_
x y = 7
2x 2y = 13
no tiene solucin en C. Qu pasa en Z
2
?
Supongamos que tenemos un sistema lineal
_
ax +by = e
cx +dy = f
el cual queremos resolver.
(i) Si b = 0, entonces de la primera ecuacin obtenemos x =
e
a
y la segunda
ecuacin permite obtener y.
(ii) Si d = 0, entonces de la segunda ecuacin obtenemos x =
f
c
y la primera
ecuacin permite obtener y.
(iii) Si b = d = 0, entonces el sistema tiene solucin slo si una de las ecuaciones
es un mltiplo de la otra. En tal caso, obtenemos innitas soluciones.
(iv) Si bd ,= 0, entonces podemos multiplicar la primera ecuacin por d y la
segunda por b, para obtener el sistema lineal
_
adx +bdy = ed
bcx +bdy = bf
Observemos que las soluciones de este nuevo sistema son las mismas que
para nuestro sistema original. Al hacer la diferencia de las dos nuevas ecua-
ciones obtenemos
(ad bc)x = ed fb
Luego, si ad bc ,= 0, obtenemos
x =
ed fb
ad bc
y al usar cualquiera de las ecuaciones podemos obtener el valor de y. Si ad
bc = 0, entonces tenemos dos posibilidades :
(iv.1) si ed fb ,= 0, entonces el sistema no tiene solucin.
(iv.2) si ed fb ,= 0, entonces tenemos innitas soluciones.
3.1. PROBLEMAS 19
Resumiendo todo lo anterior es el siguiente.
Teorema 3.0.2. Consideremos el sistema lineal
_
ax +by = e
cx +dy = f
entonces :
(i) Si ad bc ,==, tenemos solucin y es nica.
(ii) Si ad bc = 0, bien no hay solucin bien hay innitas soluciones.
Ejercicio 6. Consideremos los siguientes sistemas lineales :
(1)
_
ax +by = c
ax by = c
, (2)
_
ax +by = c
bx +ay = c
, (3)
_
ax by = c
bx +ay = d
(i) Encontrar condiciones para a, b C para que el sistema lineal (1) tenga
nica solucin.
(ii) Encontrar condiciones para a, b, c C para que el sistema lineal (2) tenga
innitas soluciones.
(iii) Encontrar condiciones para a, b, c C para que el sistema lineal (3) no
tenga soluciones.
3.1. Problemas
1.- Sea L = (x, y) R
2
: ax + by = c R
2
una lnea y p = (x
1
, y
1
)
R
2
L. Si denotamos por L

la lneal que pasa por p y que es perpendicular a


L y q = (x
2
, y
2
) = L L

, entonces denimos la distancia de p a L como


d(p, L) =
_
(x
1
x
2
)
2
+ (y
1
y
2
)
2
Vericar que
d(p, L) =
[ax
1
+by
1
c[

a
2
+b
2
Experimente con algunos ejemplos particulares.
2.- La compaia Sansanito produce libros y lpices. Un trabajador, en promedio,
necesita 10 minutos para producir un lpiz mientras que necesita 20 minutos
para producir un libro. La produccin de un lpiz cuesta $20 pesos y la de un
libro cuesta $500 pesos. La compaia Sansanito tiene para su produccin diaria
unos $1500 pesos. Suponiendo que el trabajador trabaja 8 horas diarias y gasta
todo el presupuesto diario, Cuntos productos de cada clase se producen ?
20 CAPTULO 3. SISTEMAS LINEALES
3.- Series discreta de Fourier. Una tcnica usual en ingeniera es la de aproxi-
macin de una funcin
f : [0, L] C
continua a trozos, mediante una serie de Fourier

f(x) =

k=0
c
k
e
2ikx/L
El anlisis discreto de Fourier selecciona un valor entero N > 0 y los coe-
cientes c
k
(coecientes de Fourier de f) de manera que valgan las siguientes
propiedades :
(i) c
k
= 0 para k N ;
(ii) la serie nita
S
N
(x) =
N1

k=0
c
k
e
2ikx/L
coincide con f(x) para los valores x 0, L/N, 2L/N, 3L/N, ...., (N
1)L/N.
Para encontrar los N valores c
0
,...., c
N1
, debemos entonces resolver el sigu-
iente sistema lineal, para z = e
2i/N
:
_

_
c
0
+c
1
+c
2
+ +c
N1
= f(0)
c
0
+c
1
z +c
2
z
2
+c
N1
z
N1
= f(L/N)
c
0
+c
1
z
2
+c
2
z
4
+c
N1
z
2(N1)
= f(2L/N)
.
.
.
.
.
.
.
.
.
c
0
+c
1
z
N1
+c
2
z
2(N1)
+c
N1
z
(N1)
2
= f((N 1)L/N)
El sistema anterior, en forma matricial es dado como :
ZC = f
N
donde
Z =
_
_
_
_
_
1 1 1 1
1 z z
2
z
N1
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
1 z
N1
z
2(N1)
z
(N1)
2
_
_
_
_
_
M(N N; C)
f
N
=
_
_
_
_
_
_
_
f(0)
f(L/N)
f(2L/N)
.
.
.
f((N 1)L/N)
_
_
_
_
_
_
_
3.1. PROBLEMAS 21
C =
_
_
_
_
_
_
_
c
0
c
1
c
2
.
.
.
c
N1
_
_
_
_
_
_
_
La matriz f
N
es llamada la transformada discreta de Fourier de C y C es
llamada la transformada discreta de Fourier de f
N
.
Vericar la propiedad siguiente : Si X, Y M(1 N; K), entonces
Z
t
(X Y ) = Z
t
X Z
t
Y
4.- Una Cadena de Markov. Consideremos una matriz cuadrada A M(p
p; R). Podemos considerar las matrices potencias de A :
A, A
2
, A
3
, .....
Nos podemos preguntar por el lmite
lim
n
A
n
el cual podra existir como no existir.
Dado un vector (que podemos considerar como un estado inicial) x
0

M(p 1; R), podemos considerar los estados futuros x
n
= A
n
x
0
= Ax
n1
,
n = 1, 2, 3, 4, ..... Aqu nos podemos preguntar sobre la tendencia de tales es-
tados futuros.
Supongamos que tenemos un sistema de p empresas, digamos E
1
,...., E
p
,
que producen un mismo artculo, los cuales son adquiridos mensualmente por
una cierta poblacin. Supongamos que durante el primer mes la empresa E
j
tiene como clientes al x
0
j
% de la poblacin. Luego sabemos que debemos tener
la igualdad :
x
0
1
+x
0
2
+ +x
0
p
= 100
Consideremos la matriz
x
0
=
_
_
_
_
_
x
0
1
x
0
2
.
.
.
x
0
p
_
_
_
_
_
Supongamos que al mes siguiente la empresa E
j
ha logrado mantener al
a
jj
% de sus clientes y ha atraido al a
jk
% de los clientes de la empresa E
k
.
Es claro que debemos tener que
a
j1
+a
j2
+ +a
jp
= 100
22 CAPTULO 3. SISTEMAS LINEALES
a
ij
[0, 100]
As, si denotamos por x
1
j
el porcentaje de poblacin que es cliente de la
empresa E
j
en tal mes, entonces vale la igualdad :
x
1
j
=
p

k=1
a
jk
100
x
0
k
De manera matricial lo anterior es expresado por
Ax
0
= x
1
donde
A =
_
_
_
_
_
a
11
/100 a
12
/100 a
1p
/100
a
21
/100 a
22
/100 a
2p
/100
.
.
.
.
.
.
.
.
.
.
.
.
a
p1
/100 a
p2
/100 a
pp
/100
_
_
_
_
_
M(p p; R)
x
1
=
_
_
_
_
_
x
1
1
x
1
2
.
.
.
x
1
p
_
_
_
_
_
Supongamos que el mismo fenmeno comercial se sigue en todos los sigu-
ientes meses. En tal caso, el movimientos de clientes es dado por la matriz
x
r+1
= Ax
r
= A
r+1
x
0
donde
x
r
=
_
_
_
_
_
x
r
1
x
r
2
.
.
.
x
r
p
_
_
_
_
_
y x
r
j
denota el porcentaje de la poblacin que es cliente de la empresa E
j
en el
r-simo mes.
Ver que pasa al futuro con los clientes si tomamos p = 3,
x
0
=
_
_
20
30
50
_
_
A =
_
_
0.8 0.2 0.1
0.1 0.7 0.3
0.1 0.1 0.6
_
_
M(3 3; R)
3.1. PROBLEMAS 23
2
P
v
v
2
p
v
1
v
p1

1
2
p1
p

1
> 0

2
> 0

p1

p
< 0
< 0
f
f
1
2
F=
f
1
f
Figura 1. Una estructura articulada
5.- Una Estructura Articulada. Consideremos p varillas unidas en un extremo P
tales que todas ellas estn conectadas por el otro extremo a una pared. Para
simplicar el problema, supondremos que los puntos de interseccin de todas
esas varillas, denotadas por v
1
,..., v
p
, con la pared son colineales (ver gura
1). Una fuerza f es aplicada sobre el punto P (que supondremos es una fuerza
de dos componentes como se muestra en la misma gura). Si la componente
horizontal de F la denotamos por f
1
y la componente vertical por f
2
, entonces
podemos escribir
F =
_
f
1
f
2
_
La fuerza F induce fuerzas extensivas compresivas T
j
en cada varilla v
j
;
luego :
f
1
= T
1
cos(
1
) T
p
cos(
p
)
f
2
= T
1
sin(
1
) + +T
p
sin(
p
)
Lo anterior puede escriirse de manera matricial como
AT = F
donde
A =
_
cos(
1
) cos(
p
)
sin(
1
) sin(
p
)
_
24 CAPTULO 3. SISTEMAS LINEALES
T =
_
_
_
_
_
T
1
T
2
.
.
.
T
p
_
_
_
_
_
En cada varilla v
j
, la fuerza T
j
causan expansiones compresiones en tal
varilla. Si suponemos que las fuerzas son pequeas, podemos usar la ley de
Hooke : la deformacin e
j
por T
j
es proporcional a T
j
, con constante de
proporcionalidad k
j
(elasticidad de la varilla v
j
)."
Si consideramos la matriz diagonal K = diag(k
1
, k
2
, ..., k
p
) y la matriz de
deformacin
E =
_
_
_
_
_
e
1
e
2
.
.
.
e
p
_
_
_
_
_
,
entonces tenemos la igualdad
E = KT
Las nuevas coordenadas del punto
P =
_
x
0
y
0
_
por efecto de tal fuerza F sern
P

=
_
x
0
+d
1
y
0
+d
2
_
Como debemos tener
e
j
= d
1
cos(
j
) +d
2
sin(
j
)
Si
D =
_
d
1
d
2
_
,
entonces lo anterior dice
E =
t
A D
Todo lo anterior nos da el sistema lineal :
_
_
_
A T = F
K T = E
t
A D = E
Queremos conocer D! !
3.1. PROBLEMAS 25
Por ejemplo, si suponemos que k
j
,= 0 para todo j = 1, .., p, entonces K es
invertible y lo anterior dice que
F = AT = AK
1
E = (AK
1t
A) D
Si tenemos que la matriz cuadrada de tamao 2 dada por AK
1t
A es invert-
ible, entonces tenemos una nica solucin para D. Pero, que condiciones son
necesarias para tener invertibilidad de tal matriz ?
6.- Ajuste Lineal (Mnimos cuadrados : anlisis de regresin). Supongamos que
tenemos algunos datos muestrales
(t, y) (t
1
, y
1
), ...., (t
p
, y
p
)
Podemos gracar tal muestra en un plano Euclidiano

ty (es decir, el plano
con la nocin usual de distancia). Queremos encontrar una recta L en tal plano
que sea lo ms cercano posible a nuestros datos, es decir, queremos encontrar
valores reales a, b R de manera que
L : y = a +bt
se acerque lo ms posible a la reproduccin de nuestros datos. Para concretizar
esto, por cada par (a, b) R
2
consideremos los errores
e
j
= y
j
(a +bt
j
), j = 1, ..., p,
y consideremos el error total
(a, b) =
p

j=1
e
2
j
=
p

j=1
(y
j
a bt
j
)
2
.
De esta manera, obtenemos una funcin polinomial de grado dos en a y b
dada por
: R
2
[0, +) : (a, b) (a, b).
Entonces. lo que andamos buscando es un mnimo global de la funcin poli-
nomial de grado 2. Primero calculamos valores crticos :

a
= 2
p

j=1
(y
j
a bt
j
) = 0

b
= 2
p

j=1
(y
j
a bt
j
)t
j
= 0
Si denotamos por
T =
p

j=1
t
j
, Y =
p

j=1
y
j
, S =
p

j=1
t
2
j
, Q =
p

j=1
t
j
y
j
,
26 CAPTULO 3. SISTEMAS LINEALES
entonces las ecuaciones anteriores para encontrar los puntos crticos es equiva-
lente a resolver el sistema lineal
_
pa +Tb = Y
Ta +Sb = Q
el cual es equivalente al sistema matricial
_
p T
T S
_
. .
A
_
a
b
_
=
_
Y
Q
_
La matriz A M(2 2; R) es simtrica. Un problema ms general es el
siguiente :
Dada una matriz A M(p q; R) y una matriz Y M(p 1; R), en-
contrar una matriz X M(q 1; R de manera que AX sea lo ms prximo
a Y . Si tomamos E(X) = Y AX, entonces queremos minimizar E(X) en
trminos de X, es decir, minimizar
t
E(X) E(X) =
t
(Y AX) (Y AX).
Derivando parcialmente en las coordenadas de X se obtiene que lo anterior nos
lleva al problema de resolver
t
A AX =
t
A Y . Como B =
t
A A es una matriz
simtrica, lo anterior es equivalente a resolver para X la ecuacin BX = Z,
donde B y Z son dadas. Ms adelante estudiaremos las matrices simtricas y
veremos como solucionar este problema.
CAPTULO 4
SOLUCIN DE ECUACIONES LINEALES
MEDIANTE ELIMINACIN DE GAUSS
En este captulo mostraremos un mtodo clsico para resolver sistemas lineales.
Este mtodo, llamado el mtodo de eliminacin de Gauss, el cual es de fcil pro-
gramacin. Por supuesto, existen mtodos computacionales ms rpidos, pero no
los veremos en estas notas.
4.1. Sistemas lineales y matriciales
Ya vimos en el captulo anterior que todo sistema de ecuaciones lineales
_

_
a
11
x
1
+a
12
x
2
+ +a
1q
x
q
= b
1
a
21
x
1
+a
22
x
2
+ +a
2q
x
q
= b
2
.
.
.
.
.
.
.
.
.
a
p1
x
1
+a
p2
x
2
+ +a
pq
x
q
= b
p
donde a
ij
, b
n
K, para i, n 1, 2, ..., p y j 1, 2, ..., q, puede escribirse
como el sistema lineal matricial
AX = B
donde
A =
_
_
_
_
_
a
11
a
12
a
1q
a
21
a
22
a
2q
.
.
.
.
.
.
.
.
.
.
.
.
a
p1
a
p2
a
pq
_
_
_
_
_
M(p q; K)
B =
_
_
_
_
_
b
1
b
2
.
.
.
b
p
_
_
_
_
_
M(p 1; K)
28CAPTULO 4. SOLUCIN DE ECUACIONES LINEALES MEDIANTE ELIMINACIN DE GAUSS
X =
_
_
_
_
_
x
1
x
2
.
.
.
x
p
_
_
_
_
_
Ahora continuaremos con nuestra forma matricial.
Denicin 4.1.1. La matriz aumentada del sistema lineal anterior es dada por
(A[B)
La idea principal del mtodo a presentar (y de la mayora de los mtodos exis-
tentes) es que si tenemos un sistema lineal
AX = B
y multiplicamos a la izquierda por una matriz invertible C (de tamao p), obten-
emos el sistema lineal
CAX = CB
que tiene las mismas soluciones que el anterior. La matriz aumentada del nuevo
sistema lineal es dada por (CA[CB).
Ahora, uno quiere que la matriz CAsea ms simple que A, por ejemplo, que tenga
muchos coecientes que sean 0. En la siguiente seccin veremos algunas matrices
simples C que nos permitirn hacer el procedimiento de simplicacin anterior.
4.2. Operaciones elementales
4.2.1. Matrices de intercambio de las E
ij
. Por cada par (i, j) tales que
1 i < j p, consideramos la matriz E
ij
= (a
uv
) cuyos coecientes a
uv
satisfacen :
a
uu
= 1, u / i, j
a
ij
= a
ji
= 1
a
uv
= 0, para todos los otros coecientes
Multiplicar nuestro sistema por E
ij
a la izquierda es equivalente a intercambiar
las las i con j de nuestro sistema original.
Ejercicio 7. Vericar que E
1
ij
= E
ij
.
4.2. OPERACIONES ELEMENTALES 29
4.2.2. Matrices de amplicacin de las E

j
. Por cada valor K0 y
1 j p, consideramos la matriz E

j
= (a
uv
) cuyos coecientes a
uv
satisfacen :
a
uu
= 1, u ,= j
a
jj
=
a
uv
= 0, para todos los otros coecientes
Multiplicar nuestro sistema por E

j
a la izquierda es equivalente a multiplicar la
la j de nuestro sistema original por el factor .
Ejercicio 8. Vericar que (E

j
)
1
= E
1/
j
.
4.2.3. Matrices de amplicacin y suma de las E

ij
. Por cada par (i, j)
tales que 1 i ,= j p, y cada K, consideramos la matriz E

ij
= (a
uv
)
cuyos coecientes a
uv
satisfacen :
a
uu
= 1
a
ji
=
a
uv
= 0, para todos los otros coecientes
Multiplicar nuestro sistema por E

ij
a la izquierda es equivalente a reemplazar la
la j por la suma de la la j con un multiplo por de la la i.
Ejercicio 9. Vericar que (E

ij
)
1
= E

ij
.
4.2.4. Procedimiento. Multiplicando por la izquierda, de manera adecuada,
estas matrices elementales a nuestro sistema AX = B, podemos obtener uno
nuevo de la forma A

X = B

, donde la matriz A

= (a

ij
) es tal que si a

ii
,= 0,
entonces a

ki
= 0 para k ,= i. Nuestra matriz A

es de la forma MA, donde M


es una matriz invertible de tamao p (al ser producto de las matrices elementales
que son invertibles).
Ejemplo 4.2.1. Consideremos el sistema lineal
_
2x
1
+ 2x
2
4x
3
6x
4
= 4
3x
1
+ 6x
2
+ 3x
3
15x
4
= 3
De manera matricial este sistema es :
_
2 2 4 6
3 6 3 15
_
. .
A
_
_
_
_
x
1
x
2
x
3
x
4
_
_
_
_
. .
X
=
_
4// 3
_
. .
B
30CAPTULO 4. SOLUCIN DE ECUACIONES LINEALES MEDIANTE ELIMINACIN DE GAUSS
Si tomamos M = E
1
21
E
1/3
2
E
3
12
E
1/2
1
, entonces
MA =
_
1 0 5 1
0 1 3 2
_
MB =
_
3
1
_
Luego obtenemos el nuevo sistema lineal
_
x
1
+ 5x
3
+x
4
= 3
x
2
+ 3x
3
2x
4
= 1
el cual tiene las mismas soluciones que el original. Este es de fcil resolucin,
siendo estas :
x
1
= 3 5x
3
x
4
x
2
= 1 3x
3
+ 2x
4
Luego, tenemos innitas soluciones, cada una de ellas dada por cada posible par
(x
3
, x
4
).
Ejercicio 10. Considere el sistema lineal
_
_
_
x
1
+ 2x
2
x
3
+ 2x
4
= 4
2x
1
+ 7x
2
+x
3
+x
4
= 14
3x
1
+ 8x
2
x
3
+ 4x
4
= 17
Proceder como en el caso anterior para ver que este sistema no tiene soluciones.
4.3. Encontrando inversas
Supongamos que tenemos una matriz cuadrada A, de tamao p, y queremos saber
si esta es invertible o no. En otras palabras, queremos saber si existe una matriz
cuadrada X, tambin de tamao p, satisfaciendo la ecuacin
AX = I
p
Usando matrices elementales apropiadas para multiplicar a la izquierda, digamos
E
1
, E
2
, ..., E
m
,
podemos obtener
E
m
E
m1
E
2
E
1
A
. .
N
X = E
m
E
m1
E
2
E
1
donde N es una matriz triangular superior ; adems, tenemos que cada vez que
tenemos un elemento en la diagonal no cero, entonces todos los coecientes
4.5. PROBLEMAS 31
restantes de esas columna son cero. En particular, si A es invertible, entonces
podemos lograra N = I. Esta observacin nos permite obtener el siguiente
resultado.
Teorema 4.3.1. Sea A una matriz de tamao 2. Entonces,
A es invertible

X M(p p; K) solucin de AX = I

existen matrices elementales E


1
, E
2
,..., E
m
, tales que
E
m
E
m1
E
2
E
1
= X = A
1
4.4. Mtodos iterativos
El mtodo de eliminacin de Gauss nos da una manera directa para encontrar
soluciones de un sistema lineal Ax = b. El mtodo de iteracin permite encontrar
soluciones aproximadas. Existen variados mtodos, pero slo mencionares uno de
ellos, el mtodo de Jacobi. Para este mtodo, supondremos que A es una matriz
invertible.
La idea es multiplicar nuestro sistema Ax = b a la izquierda por matrices ele-
mentales de manera que ahora podamos asumir que a
ii
,= 0, para todo i. Luego,
podemos escribir
x = (I A)x +b
El mtodo iterativo es
x
(n+1)
= (I A)x
(n)
+b
donde x
(0)
es un vector de partida de nuestra eleccin. Si los vectores x
(n)
con-
vergen a un vector x, entonces X es la solucin buscada.
Teorema 4.4.1. Si nuestra matriz invertible A = (a
ij
) M(n n; R) satis-
face que
[a
ii
[ > [a
i1
[ + +[a
i(i1)
[ +[a
i(i+1)
[ + +[a
in
[, i = 1, ..., n,
entonces el mtodo converge a la solucin x del sistema lineal Ax = b.
4.5. Problemas
1.- Escribir un programa para el mtodo de eliminacin de Gauss (al menos de-
scriba el algoritmo).
32CAPTULO 4. SOLUCIN DE ECUACIONES LINEALES MEDIANTE ELIMINACIN DE GAUSS
2.- Discutir la problemtica del punto otante en un computador y las progra-
macin que usted realiz.
3.- Considere una matriz de tamao 2 con coecientes reales
A =
_
a b
c d
_
y utilize el mtodo anterior para determinar condiciones en esos coecientes
para que la matriz A sea invertible. En caso que A sea invertible, obtenga la
igualdad
A
1
=
1
ad bc
_
d b
c a
_
4.- Determine la forma de la inversa para una matriz invertible de tamao 3.
5.- Resuelva los siguientes sistemas lineales :
_
_
_
2x
1
+ 4x
2
+ 6x
3
= 18
4x
1
+ 5x
2
+ 6x
3
= 24
2x
1
+ 7x
2
+ 12x
3
= 30
_
_
_
2x
1
+ 4x
2
+ 6x
3
= 18
4x
1
+ 5x
2
+ 6x
3
= 24
2x
1
+ 7x
2
+ 12x
3
= 40
_
_
_
2x
1
+ 4x
2
+ 6x
3
= 18
4x
1
+ 5x
2
+ 6x
3
= 24
3x
1
+x
2
2x
3
= 4
6.- Modelo de entrada-salida de Leontief El siguiente modelo es frecuentemente
usado en economa. Supongamos que tenemos una sistema econmico consi-
tente de n empresas, digamos E
1
, ..., E
n
. Existen dos tipos de demandas en
cada una de esas empresas. La primera es la demanda externa de fuera del sis-
tema (por ejemplo necesidades de importacin desde otro sistema econmico).
La segunda demanda es interna (lo que necesita cada una de las empresas de las
otras del mismo sistema econmico).
Supongamos que la demanda externa de la j-sima empresa E
j
es denotada
por e
j
. Denotemos por a
ij
la demanda interna de la empresa E
j
hecha a la
empresa E
i
, es decir, la empresa E
j
necesita a
ij
unidades producidas por la
empresa E
i
para producir una de sus unidades.
Denotemos por x
j
las unidades producidas por la empresa E
j
.
Supongamos que la produccin de cada empresa es igual a su demanda, es
decir, todo lo que se produce se vende a las otras empresas.
Tenemos que la demanda total de cada empresa es la suma de la deman-
das externa e interna. Por ejemplo, calculemos la demanda de la empresa E
1
.
Primero, veamos la demanda interna. Para que E
j
pueda producir 1 producto,
ella necesita a
1j
productos de la empresa E
1
. Ahora, como E
j
produce x
j
pro-
ductos, tenemos que la demanda interna de la empresa E
1
hecha por E
j
es
4.5. PROBLEMAS 33
a
1j
x
j
. De es ta manera, la demanda total hecha a la empresa E
1
es
a
11
x
1
+a
12
x
2
+ +a
1n
x
n
+e
1
Como estamos suponiendo que toda la produccin de E
1
es usada, debemos
tambin tener la igualdad
a
11
x
1
+a
12
x
2
+ +a
1n
x
n
+e
1
= x
1
De esta manera, obtenemos el sistema lineal
_

_
a
11
x
1
+a
12
x
2
+ +a
1n
x
n
+e
1
= x
1
a
21
x
1
+a
22
x
2
+ +a
2n
x
n
+e
1
= x
2
.
.
. =
.
.
.
a
n1
x
1
+a
n2
x
2
+ +a
nn
x
n
+e
1
= x
n
de manera equivalente,
_

_
(a
11
1)x
1
+a
12
x
2
+ +a
1n
x
n
+e
1
= 0
a
21
x
1
+ (a
22
1)x
2
+ +a
2n
x
n
+e
1
= 0
.
.
. =
.
.
.
a
n1
x
1
+a
n2
x
2
+ + (a
nn
1)x
n
+e
1
= 0
Considere el caso n = 3, a
11
= 0.1, a
12
= 0.2, a
13
= 0.3, a
21
= 0.1,
a
22
= 0.3, a
23
= 0.2, a
31
= 0.1, a
32
= 0.5, a
33
= 0.2, e
1
= 1, e
2
= 2 y
e
3
= 3, y vea que pasa en este caso.
7.- Problemas de gestin de recursos Supongamos que tenemos una empresa con
n ocinas, digamos O
1
, ..., O
n
. Una empresa externa entrega algunos produc-
tos necesarios por cada ocina, digamos P
1
,...,P
m
. La ocina O
i
consume a
ji
productos P
j
por cada persona que trabaja en tal ocina. Si denotamos por p
j
la cantidad de productos P
j
entregados, y todos los productos son usados, y
denotamos por x
j
la cantidad de personas de la ocia O
j
, entonces tenemos el
siguiente sistema lineal.
_

_
a
11
x
1
+a
12
x
2
+ +a
1n
x
n
= p
1
.
.
.
.
.
.
.
.
.
a
m1
x
1
+a
m2
x
2
+ +a
mn
x
n
= p
m
Consideremos el caso n = m = 3, p
1
= 100, p
2
= 50, p
3
= 70, a
ji
=
2(i + j). Es posible distribuir 500 personas de la empresa en las tres oci-
nas de manera que tengamos solucin a nuestro problema de distribucin de
productos ?
8.- Use el mtodo iterativo de jacobi para buscar soluciones aproximadas del
problema lineal Ax = b para
A =
_
1 0
3 4
_
, b =
_
1
2
_
CAPTULO 5
ESPACIOS VECTORIALES
5.1. Espacios vectoriales
Denicin 5.1.1. Sea K un cuerpo. Un triple (V, +, ) es llamado un espacio
vectorial sobre el cuerpo K si V es un conjunto no vaco,
+ : V V V : (v
1
, v
2
) v
1
+v
2
y
: K V V : (, v) v
son funciones, llamadas suma y amplicacin del espacio vectorial, satisfaciendo
las siguentes propiedades :
1.- la suma es asociativa, es decir, para todo triple v
1
, v
2
, v
3
V vale que
(v
1
+v
2
) +v
3
= v
1
+ (v
2
+v
3
)
2.- la suma es commutativa, es decir, para todo par v
1
, v
2
V vale que
v
1
+v
2
= v
2
+v
1
3.- existe un neutro 0
V
V para la suma, es decir, para todo v V vale que
v + 0
V
= v
4.- existen inversos para la suma, es decir, para todo v V existe v V tal
que
v + (v) = 0
V
5.- para todo par , K y v V vale que
(v) = ()v
6.- para todo par , K y v V vale que
( +)v = v +v
36 CAPTULO 5. ESPACIOS VECTORIALES
7.- para todo K y todo par v
1
, v
2
V vale que
(v
1
+v
2
) = v
1
+v
2
8.- para todo v V vale que
1v = v
Los elementos de V sern llamados los vectores del espacio vectorial mientras
que los elementos del cuerpo K sern llamados los escalares.
Ejercicio 11. Sea V un espacio vectorial sobre el cuerpo K.
(i) Vericar que el neutro para la suma y los inversos para la suma son nicos.
(ii) 0
V
= 0
V
para todo escalar .
(iii) 0v = 0
V
para todo vector v.
(iv) (1)v = v para todo vector v.
5.2. Ejemplos de espacios vectoriales
5.2.1. K
n
. Consideremos un cuerpo K y para cada entero n 1, 2, 3, ...
consideremos el producto cartesiano
K
n
= (x
1
, ...., x
n
) : x
1
, ..., x
n
K
Con la suma
(x
1
, ..., x
n
) + (y
1
, ..., y
n
) := (x
1
+y
1
, ..., x
n
+y
n
)
y la amplicacin
(x
1
, ..., x
n
) := (x
1
, ..., x
n
)
tenemos un espacio vectorial sobre K.
5.2.2. M(p q; K). El conjunto de las matrices M(p q; K), K un cuerpo,
con las operaciones usuales de suma de matrices y amplicacin, es un espacio
vetorial sobre K.
5.2.3. Sucesiones. Sea K un cuerpo y sea
V = K
N
= s : N K : n s(n)
el conjunto de todas las sucesiones en K. Deniendo la suma como la suma usual
de funciones
s
1
+s
2
: N K : n s
1
(n) +s
2
(n)
y la amplicacin usual de funciones
s : N K : n s(n)
5.2. EJEMPLOS DE ESPACIOS VECTORIALES 37
obtenemos un espacio vectorial sobre K.
5.2.4. C
r
([a, b]; R). Sea C
r
([a, b]; R) el conjunto de todas las funciones f :
[a, b] R que son r veces derivables (decimos que son de clase C
r
), donde
r 0, 1, 2, 3, ... . Del clculo en una variable sabemos que tanto
la suma usual de funciones de clase C
r
y la amplicacin de una funcin de clase
C
r
por un real siguen sinedo de clase C
r
. Luego, C
r
([a, b]; R) con la suma usual
de funciones y amplicacin usual por reales es un espacio vectorial sobre R.
5.2.5. K[x]. Sea K un cuerpo y K[x] el conjunto de todos los polinomios en
la variable x y coecientes en K. Entonces, con la suma usual de polinomios y
amplicacin usual por escalares tenemos que K[x] es un espacio vectorial sobre
K.
Si denotamos por K
n
[x] el subconjunto de polinomios de grado menor igual a
n, entonces tambin tenemos que es un espacio vectorial sobre K.
5.2.6. Subcuerpos. Sea K un subcuerpo del cuerpo L (decimos que L es
un cuerpo extensin de K). Entonces, con las operaciones usuales de suma y
producto tenemos que L es un espacio vectorial sobre K. Por ejemplo, R es un
espacio vectorial sobre Q sobre Q[

3] sobre R.
5.2.7. Ecuaciones diferenciales. Consideremos la ecuacin diferencial lineal
() a
n
(x)
d
n
y
dx
n
+a
n1
(x)
d
n1
y
dx
n1
+ +a
1
(x)
dy
dx
+a
0
(x)y = 0
donde a
j
C
0
[a, b], para j = 0, 1, ..., n. Denotemos por V al conjunto de las
soluciones de () denida en el intervalo [a, b]. Entonces V , con la suma usual de
funciones y amplicacin usual de funciones por escalares, es un espacio vectorial
sobre R y tambin sobre C.
5.2.8. Ecuaciones integrales. Sea k : [0, a] [0, a] C : (x, t) k(x, t)
una funcin continua y sea C dado. Sea V el conjunto de todas las funciones
continual y : [a, b] C que satisfacen la ecuacin integral
_
a
0
k(x, t)y(t) dt +y(x) = 0, x [0, a]
Entonces V , con la suma usual de funciones y amplicacin usual de funciones
por escalares, es un espacio vectorial sobre C.
38 CAPTULO 5. ESPACIOS VECTORIALES
5.2.9. Suma directa de espacios vectoriales. Sea K un cuerpo y sean V
1
,....,
V
n
espacios vectoriales sobre K. Consideremos el producto cartesiano
V
1
V
2
V
n
= (v
1
, v
2
, ..., v
n
) : v
j
V
j

Si denimos las suma componente a componente


(v
1
, ...., v
n
) + (w
1
, ..., w
n
) := (v
1
+w
1
, ..., v
n
+w
n
)
y la amplicacin
(v
1
, ..., v
n
) := (v
1
, ..., v
n
)
entonces obtenemos un espacio vectorial sobre K, llamado la suma directa de
V
1
,...., V
n
, el cual es denotado por V
1
V
2
V
n
.
Observe que en el caso particular V
j
= K, obtenemos el ejemplo dado en seccin
5.2.1.
5.3. Subespacios vectoriales
Denicin 5.3.1. Sea V un espacio vectorial sobre un cuerpo K. Supongamos
que tenemos un subconjunto W V , W ,= . En caso que
(i) para todo par w
1
, w
2
W vale que w
1
+w
2
W ; y
(ii) para todo K y todo w W vale que w W,
diremos que W es un subespacio vectorial de V , lo cual denotaremos por el sm-
bolo W < V .
Ejercicio 12. Sea V un espacio vectorial sobre K y W < V . Vericar que la
suma y amplicacin en V son heredadas por W para ver W como un espacio
vectorial sobre K. De esta manera, un subespacio vectorial W de un espacio
vectorial V sobre K no es nada ms que un espacio vectorial sobre K con las
mismas operaciones de suma y amplicacin.
Teorema 5.3.2. Sea V un espacio vectorial sobre un cuerpo K. Si tenemos
una coleccin (nita innita) de subespacios vectoriales W
j

jJ
, entonces la
interseccin
W =

jJ
W
j
es tambin un subespacio vectorial de V .
Demonstracin. Como 0
V
W
j
para todo j J, tenemnos que 0
V
W ;
es decir, W ,= . Sean u, v W y K. Como u, v W
j
para todo j J
y cada W
j
< V , tenemos que u + v, u W
j
, para todo j J ; en particular
u +v, u W.
5.3. SUBESPACIOS VECTORIALES 39
Denicin 5.3.3. Sea V un espacio vectorial sobre un cuerpo K y sean
v
1
, ...., v
r
V y
1
, ...,
r
K. Todo vector de la forma

1
v
1
+
2
v
2
+ +
r
v
r
des llamado una combinacin lineal de los vectores v
1
,..., v
r
.
Teorema 5.3.4. Sea V un espacio vectorial sobre un cuerpo K y sea S V ,
S ,= . Ver que el subconjunto de V formado de todas las posibles combinaciones
lineales de los vectores en S es un subespacio vectorial de V .
Demonstracin. Sea W
S
el subconjunto de V formado de todas las posibles
combinaciones lineales de los vectores en S. Ya que S ,= , existe v
0
S. Luego
0
V
= 0v
0
W
S
, es decir, W
S
,= . Como la suma de dos combinaciones lineales
es nuevamente una combiancin lineal y la amplicacin por un escalar de una
combinacin lineal es tambin una combinacin lineal, entonces W
S
< V .
5.3.1. Algunos ejemplos de subespacios vectoriales.
1.- K
n
[x] < K[x], donde K es un cuerpo.
2.- C
s
[a, b] < C
r
[a, b], para s r.
3.- Subespacios generados por subconjuntos. Sea V un espacio vectorial sobre
un cuerpo K y sea S V , S ,= . Lo ms probable es que S no sea un
subespacio vectorial de V . Podemos considerar la interseccin de todos los
subespacios de V que contiene a S. Ya que V contiene a S, esta coleccin es
no vaca. Denotemos tal interseccin por < S >.El teorema 5.3.2 nos asegura
que < S > es un subespacio vectorial de V y, por la construccin, este resulta
ser el subespacio vectorial ms pequeo de V que contiene a S. Claramente
toda combinacin lineal de vectores en S
a
1
s
1
+a
2
s
2
+ +a
r
s
r
donde a
j
K y s
j
S, debe pertenecer a < S > por la propiedad de ser
subespacio de V . De esta manera, el subespacio W
S
< V , formado de todas
las posibles combinaciones lineales de los vectores en S, debe estar contenido
en < S >. Pero ahora la minimalidade < S > nos dice que
< S >= W
S
Denicin 5.3.5. El subespacio < S > es llamado el subespacio generado
por S.
40 CAPTULO 5. ESPACIOS VECTORIALES
4.- Sea K un cuerpo. Tenemos que
W
1
= A M(p q; K) : A es triangular superior < M(p q; K)
W
2
= A M(p q; K) : A es triangular inferior < M(p q; K)
W
3
= A M(p p; K) : trA = 0 < M(p p; K)
donde trAdenota la traza de A(la suma de todos los elementos de su diagonal).
W
4
= A M(p p; K) :
t
A = A < M(p p; K)
Observemos que si A M(p p; K), entonces
A =
A +
t
A
2
+
A
t
A
2
A+
t
A
2
W
4
A
t
A
2
W
3
es decir, toda matriz cuadrada es suma de una matriz simtrica con una de traza
cero.
5.- Sea K un cuerpo y A M(pp; K) y consideremos el sistema lineal AX =
0, donde
X =
_
_
_
_
_
x
1
x
2
.
.
.
x
p
_
_
_
_
_
Entonces
W = (x
1
, ...., x
p
) K
p
: AX = 0, X =
_
_
_
_
_
x
1
x
2
.
.
.
x
p
_
_
_
_
_
< K
p
5.4. Problemas
1.- Completar los detalles de los ejemplos anteriores.
2.- Sea Q = (x, y) R
2
: y > 0. Es Q < R
2
?
3.- Sea K un cuerpo y sea
K(x) =
p(x)
q(x)
: p(x), q(x) K[x], q(x) ,= 0
Es K(x) un espacio vectorial sobre K ?
5.4. PROBLEMAS 41
4.- Sea
H = p(x) R[x] : grado de p(x) = 2
Es H < R[x] ?
5.- Determine el subespacio de M(2 2; K) generado por
S =
__
1 0
0 0
_
,
_
1 1
0 0
_
,
_
1 1
1 0
_
,
_
1 1
1 1
__
6.- Sea V un espacio vectorial sobre un cuerpo K y sea W < V . Denimos en V
la siguiente relacin de equivalencia :
v
1
v
2
v
1
v
2
W
Denotemos por [v] la case de v V , por V/W al conjunto de las clases de
equivalencia y por : V V/W : v [v] a la proyeccin natural.
Vericar que las siguientes operaciones estn bin denidas :
(i) [v
1
] + [v
2
] = [v
1
+v
2
] ;
(ii) [v] = [v].
Una vez vericado lo anterior, vericar que con estas operaciones tenemos
que V/W resulta ser un espacio vectorial ; llamado el espacio vectorial
cociente de V por W. Observar que valen las propiedades :
(iii) (v
1
+v
2
) = (v
1
) +(v
2
) ;
(iv) (v) = (v).
7.- Si V es un espacio vectorial sobre C, entonces V es tambin un espacio vec-
torial sobre R. Ms generalmente, si K es un cuerpo y L K es un subcuerpo
de K, entonces todo espacio vectorial sobre K es tambin un espacio vectorial
sobre L. Ver, en particular, que R es un espacio vectorial sobre Q.
8.- Dar un ejemplo de un espacio vectorial sobre R que no es sobre C.
CAPTULO 6
BASES
6.1. Conjuntos linealmente independientes
Denicin 6.1.1. Sea V un espacio vectorial sobre un cuerpo K. Un subcon-
junto S V es llamado linealmente independiente si para cada coleccin nita
v
1
, ...., v
m
S
la ecuacin

1
v
1
+ +
m
v
m
= 0
V
tiene como nicas soluciones en K a

1
= =
m
= 0
En caso contrario diremos que S es un conjunto linealmente dependiente.
Consideremos un espacio vectorial V sobre un cuerpo K y S V . De nuestra
denicin, vemos que si S = , entonces S es trivialmente un conjunto lineal-
mente independiente : en caso contrario, debe existir una subconjunto nito en
S para el cual existe solucin no trivial en K, una contradiccin al hecho que S
sea vaco. Por otro lado, si S ,= , entonces podemos considerar el subespacio
vectorial W
S
=< S > generado por S. Si S es un conjunto linealmente inde-
pendiente, entonces tenemos que para todo R S, R ,= , R ,= S, vale que
< S >,=< R >. En efecto, si tenemos igualdad, entonces para cada v
0
S R
tenemos que existen vectores v
1
, ..., v
n
R y existen escalares
1
, ...,
n
K tal
que
v
0
=
1
v
1
+ +
n
v
n
Pero en tal caso, tenemos que :
v
0
+
1
v
1
+ +
n
v
n
= 0
V
de donde vemos que S no es un conjunto linealmente independiente, una con-
tradiccin. Recprocamente, supongamos que tenemos un subconjunto S V ,
44 CAPTULO 6. BASES
S ,= , con la propiedad que para todo R S, R ,= , R ,= S vale que
< R >,=< S >. Entonces ocurre que S es necesariamente un conjunto lin-
ealmente independiente. En efecto, en caso contrario tendremos un subconjunto
nito de S, digamos v
1
, ..., v
n
S, y escalares
1
, ...,
n
K 0 tal que

1
v
1
+ +
n
v
n
= 0
V
Esto nos dice que
v
n
=

n
v
1


n1

n
v
n1
,
de donde vemos que si R = S v
n
, entonces < R >=< S >, una con-
tradiccin a la propiedad de S. As, obtenemos una denicin equivalente para
conjuntos linealmente independientes :
Denicin 6.1.2. Sea V un espacio vectorial sobre un cuerpo K y S V .
Diremos que S es un conjunto linealmente independiente si ocurre cualquiera de
las siguientes dos casos :
(i) S = ;
(ii) S ,= y para todo R S, R ,= , R ,= S vale que < R >,=< S >.
Ejemplo 6.1.3. Sea K un cuerpo y V = K[x]. Tomemos S = v
1
= 1, v
2
=
x, v
3
= x
2
. Como S es un conjunto nito, para ver si S es un conjunto lineal-
mente, tenemos que buscar las soluciones en K de la ecuacin

1
v
1
+
2
v
2
+
3
v
3
= 0
K[x]
equivalentemente

1
+
2
x +
3
x
2
= 0
K[x]
Pero por la propiedad de igualdad de polinomios tenemos que
1
=
2
=
3
= 0,
es decir S es un conjunto linelamente independiente. En este caso no es difcil ver
que
< 1, x, x
2
>= K
2
[x]
Por otro lado, si escogemos R = w
1
= 2, w
2
= x, w
3
= x 1, entonces R
resulta ser un conjunto linealmente dependiente. En efecto
w
1
+ 2w
2
w
3
= 0
K[x]
6.2. Bases
Denicin 6.2.1. Sea V un espacio vectorial sobre un cuerpo K y S V .
Diremos que S es una base para V si S es un conjunto linealmente independiente
tal que < S >= V , es decir, S es un conjunto linealmente independiente que
genera V .
6.3. EXISTENCIA DE BASES 45
Ejemplo 6.2.2. Sea K un cuerpo y consideremos el espacio vectorial K
2
[x].
Sea
S = v
1
= 1, v
2
= 2x, v
3
= x
2
x
(i) Si, por ejemplo, K Q, Q[

2], R, C, entonces S es una base de K


2
[x].
(ii) Si K = Z
2
, entonces v
2
= 0
K
2
[x]
, luego S no puede ser una base ya que es
un conjunto linealmente dependiente (aunque S genera K
2
[x]).
6.3. Existencia de bases
Ahora nos preocuparemos por el problema de existencia de bases para espacios
vectoriales. Necesitaremos recordar algunos hechos bsicos.
Denicin 6.3.1.
1.- Un conjunto parcialmente ordenado es un par (A, ), donde A es un conjunto
y es una relacin de orden, es decir,
(i) a a, para todo a A (reexividad) ;
(ii) a b, b a aseguran que a = b (antisimetra) ;
(iii) a b, b c aseguran que a c (transitividad).
2.- Un elemento m A es llamado un elemento maximal si para cada a A tal
que m a asegura que a = m.
3.- Una cadena en (A, ) es un subconjunto de C A con la propiedad que para
todo par x, y C vale que x y bien y x.
4.- Una cota superior de una cadena C A es un elemento s A tal que para
todo x C vale que x s.
Lema 6.3.2 (Lema de Zorn). Sea (A, ) un conjunto parcialmente orde-
nado. Si toda cadema posee una cota superior, entonces existe un elemento
maximal.
Ahora procederemos a nuestro problema de existencia de bases. De hecho, vere-
mos como obtener bases que contegan a algn conjunto linealmente independiente
dado.
Teorema 6.3.3 (Completacin de bases). Sea V un espacio vectorial y S
V un conjunto linealmente independiente. Entonces existe una base B de V con
la propiedad que S B.
46 CAPTULO 6. BASES
Demonstracin. Sea S V un conjunto linealmente independiente. Si S ya
es una base de V , entonces estaremos listos. Supongamos ahora que S no es base
de V . Sea /el conjunto formado por todos los subconjuntos linealmente indepen-
dientes de V que contengan a S. En particular, tenemos que S /. Consideremos
la relacin dada por inclusin, es decir, U, V / son tales que U V s y
slo si U V . Luego, para todo U / vale que S U.
Consideremos una cadena ( / y formemos el subconjunto de V dado por
X =
_
UC
U
Es claro que S X. Veamos que X es un conjunto linealmente independiente. En
efecto, supongamos que tenemos vectores v
1
, ..., v
n
X y escalares
1
, ...,
n

K tales que
1
v
1
+ +
n
v
n
= 0
V
. Supongamos que v
j
U
j
(. Como (
es una cadena, tenemos que existe U ( tal que v
1
, ..., v
n
U. Como U es un
conjunto linealmente independiente, tenemos que
j
= 0, para todo j.
De esta manera, vemos que X / y que X es una cota superior para la cadena
(. Esto nos dice que toda cadena en (/, ) posee cota superior. El lema de Zorn
entonces nos asegura la existencia de un elemento maximal B /. Tenemos que
B V contiene a S y es un conjunto linealmente independiente. Veamos que de
hecho B es la base buscada. Slo nos falta ver que B genere V . Si no fuese as,
existira un vector v
0
V < B >. Esto nos asegurar que B v
0
es tambin
un conjunto linealmente independiente de V que contiene a S y contiene a B de
manera estricta. Esto contradice la maximilidad de B.
Observacin 6.3.4. La demostracin anterior de existencia de bases es ab-
stracta. En la prxima seccin procederemos a dar un algoritmo de completacin
de bases para el caso de espacios vectoriales de dimensin nita.
6.4. Dimensin
Como consecuencia de la proposicin 6.3.3 tenemos que todo espacio vectorial
tiene bases. Un esdpacio vectorial puede tener muchas bases diferentes. Veremos
a continuacin que toda base de un espacio vectorial debe contener la misma
cantidad de vectores.
Teorema 6.4.1. Sea V un espacio vectorial que tiene una base de cardinali-
dad nita. Entonces, toda base de V tiene la misma cardinalidad
6.4. DIMENSIN 47
Demonstracin. Sea K el cuerpo sobre el cual V es espacio vectorial. Basta
vericar la siguiente situacin : Sea B
1
= v
1
, ..., v
n
una base nita dada y B
2
otra base de V que tiene cardinalidad mayor igual a n (incluyendo ), entonces
tal cardinalidad debe ser n.
Procedamos por contradiccin, es decir, siupongamos que B
2
tiene cardinalidad
estrictamente mayor a n. De esta manera podemos escoger un subconjunto de B
2
de cardinalidad n + 1, digamos
S = w
1
, ..., w
n+1
B
2
1.- Como B
1
es base, existen escalares
1
, ....,
n
K tales que
(1) w
1
=
1
v
1
+ +
n
v
n
Como S es un conjunto linelamente independiente, w
1
,= 0
V
, luego, debe existir
alguno de los escalares
j
,= 0. Mdulo permutacin de los ndices, podemos
suponer que
1
,= 0. Luego,
v
1
< w
1
, v
2
, ..., v
n
>
y en particular
< w
1
, v
2
, ..., v
n
>= V
Veamos que S
1
= w
1
, v
2
, ..., v
n
es una base de V . Slo nos falta ver que S
1
es
un conjunto linealmente independiente. Consideremos la ecuacin
( 1)
1
w
1
+
2
v
2
+ +
n
v
n
= 0
V
para
j
K. Luego, al reemplazar (1) en ( 1) obtenemos
( 1)
1

1
v
1
+ (
1

2
+
2
)v
2
+ + (
1

n
+
n
)v
n
= 0
V
Ya que B es un conjunto linealmente independiente, tenemos que

1
= 0

j
+
j
= 0, j = 2, ..., n.
Ya que hemos supuesto
1
,= 0, las ecuaciones anteriores aseguran que
1
=

2
= =
n
= 0, es decir, S
1
es un conjunto linealmente independiente y
luego una base de V .
2.- Ahora, al ser S
1
una base de V , podemos encontrar escalares
1
, ....,
n
K
tales que
(2) w
2
=
1
w
1
+
2
v
2
+ +
n
v
n
Como S es un conjunto linelamente independiente, w
2
,= 0
V
, luego, debe existir
alguno de los escalares
j
,= 0. Veamos que en efecto existe j 2 tal que
j
,= 0.
Si no fuese as, tendramos que w
2
=
1
w
1
, una contradiccin al hecho que S es
48 CAPTULO 6. BASES
linealmente independiente. Otra vez, mdulo permutacin de ndices, podemos
asumir
2
,= 0. Luego,
v
2
< w
1
, w
2
, ..., v
n
>
y en particular
< w
1
, w
2
, v
3
, ..., v
n
>= V
Veamos que S
2
= w
1
, w
2
, v
3
..., v
n
es una base de V . Slo nos falta ver que S
2
es un conjunto linealmente independiente. Consideremos la ecuacin
( 2)
1
w
1
+
2
w
2
+
3
v
3
+ +
n
v
n
= 0
V
para
j
K. Luego, al reemplazar (2) en ( 2) obtenemos
(2) (
1

2
+
1
)w
1
+
2

2
v
2
+(
2

3
+
3
)v
3
+ +(
2

n
+
n
)v
n
= 0
V
Ya que S
1
es un conjunto linealmente independiente, tenemos que

2
= 0

j
+
j
= 0, j = 1, 3, ..., n.
Ya que hemos supuesto
2
,= 0, las ecuaciones anteriores aseguran que
1
=

2
= =
n
= 0, es decir, S
2
es un conjunto linealmente independiente y
luego una base de V .
3.- Podemos proceder de manera inductiva como antes para lograr obtener que
S
n
= w
1
, ..., w
n
resulta una base de V . Esto contradice el hecho que S sea un
conjunto linealmente independiente.
El teorema 6.4.1 nos permite dar la siguiente denicin.
Denicin 6.4.2. Sea V un espacio vectorial sobre un cuerpo K. La di-
mensin de V sobre K, denotada por dim
K
V es dada por la cardinalidad de
cualquiera de sus bases, es decir
dim
K
V = cardinalidad de una base de V
La demostracin hecha para el teorema 6.4.1 nos permite ver los siguientes he-
chos.
Corolario 6.4.3. Sea V un espacio vectorial de dimensin nita n. Entonces,
todo conjunto linealmente independiente S V debe tener cardinalidad a lo ms
n, es decir, todo subconjunto de V de cardinalidad mayor a n debe ser linealmente
dependiente.
6.5. PROBLEMAS 49
Corolario 6.4.4. Sea V un espacio vectorial sobre un cuerpo K de dimensin
nita dim
K
V = n. Si W < V , entonces dim
K
W dim
K
V . Ms an, si
dim
K
W = dim
K
V , entonces W = V .
Ejemplo 6.4.5.
(i) dim
K
K
n
= n. Recordar la base cannica.
(ii) dim
K
K
n
[x] = n + 1. Una base es 1, x, x
2
, ..., x
n
.
(iii) dim
K
M(p q; K) = pq. Recordar la base E
ij
: 1 i p, 1 j q.
(iv) dim
K
K
N
= .
(v) Si V es un espacio vectorial sobre C, entonces V es tambin un espacio vec-
torial sobre R. En este caso, dim
R
V = 2 dim
C
V .
(vi) Si V es un espacio vectorial sobre R, entonces V es tambin un espacio
vectorial sobre Q. En este caso, dim
Q
V = .
(vii) Si V es un espacio vectorial de dimensin 0, entonces V = 0
V
.
6.4.1. Un proceso algortmico para completar bases. Sea V un espacio
vectorial sobre un cuerpo K de dimensin nita dim
K
V = n. Supongamos que
tenemos un subconjunto linealmente independiente S V . Sabemos que la car-
dinalidad de S, digamos m, debe ser menor igual a n y que si m = n, entonces
S es una base de V .
(1) Si m = n, entonces S es una base.
(2) Si m < n, entonces < S >,= V . En este caso, como S es linealmente inde-
pendiente, existe un vector v V < S >. En este caso S v sigue siendo
un subconjunto linealmente independiente de V que contiene a S de manera
estricta. Ahora reemplazamos S por S v y volvemos a (1).
6.5. Problemas
1.- Sea V un espacio vectorial sobre un cuerpo K y S = v
1
, ..., v
n
V .
Vericar que S es un conjunto linealmente independiente s y slo si la ecuacin

1
v
1
+ +
n
v
n
= 0
V
tiene como nicas soluciones en K a

1
= =
n
= 0
2.- Sea V un espacio vectorial sobre un cuerpo K y S V tal que 0
V
S.
Vericar que S es un conjunto linealmente dependiente.
50 CAPTULO 6. BASES
3.- Considere un cuerpo K y el espacio vectorial K
n
, donde n 1, 2, 3, ....
Sean
e
j
= (0, ...., 0, 1, 0, ..., 0)
. .
el 1 en la posicin j-sima
K
n
, j = 1, 2, ..., n.
Entonces
e
1
, e
2
, ...., e
n

es una base de K
n
, llamada la base cannica de K
n
.
4.- Sea K un cuerpo y el espacio vectorial M(p q; K). Sea E
ij
la matriz cuyo
coeciente ij es 1 y todo los dems son igual a 0. Vericar que
E
ij
: 1 i p, 1 j q
es una base de M(p q; K).
5.- Sea K un cuerpo y consideremos el espacio vectorial K
N
de las sucesiones en
K. Sea S K
N
el subconjunto cuyos vectores son
e
j
= (0, ...., 0, 1, 0, ...)
. .
el 1 en la posicin j-sima
K
N
, j = 1, 2, ....
Ver que (1, 1, 1, ......) / < S >. Concluir que S no es una base de K
N
.
6.- Construir un algoritmo computacional (es decir, un pseudo-programa) que
permita decidir si un conjunto nito de vectores es linealmente indeprendiente
no.
7.- Supongamos que V es un espacio vectorial de dimensin innita pero numer-
able. Describir un proceso de diagonalizacin de Gram-Schmidt. Qu pasa si
quitamos la numerabilidad ?
CAPTULO 7
COORDENADAS
7.1. coordenadas
En este captulo slo nos preocuparemos de espacios vectoriales de dimensin
nita. Nuestras bases estarn ordenadas. Partamos con la siguiente observacin.
Teorema 7.1.1. Supongamos que tenemos un espacio vectorial V sobre un
cuerpo K y que la dimensin de V sobre K es nita, digamos dim
K
V = n, y sea
B = v
1
, ..., v
n
una base (ordenada) de V . Si v V , entonces existen nicos
escalares x
1
, ..., x
n
K tales que
v = x
1
v
1
+ +x
n
v
n
Estos escalares (manteniendo el orden) sern llamados las coordenadas de v en
la base B.
Demonstracin. Sabemos de la existencia de escalares x
1
, ..., x
n
K tales
que
v = x
1
v
1
+ +x
n
v
n
por el hecho que B genera V . Si tenemos otros escalares y
1
, ..., y
n
K tales que
v = y
1
v
1
+ +y
n
v
n
,
entonces tenemos la igualdad
x
1
v
1
+ +x
n
v
n
= y
1
v
1
+ +y
n
v
n
,
de donde obtenemos
(x
1
y
1
)v
1
+ + (x
n
y
n
)v
n
= 0
V
Como B es un conjunto linealmente independiente, debemos tener x
j
= y
j
, para
todo j = 1, ..., n.
52 CAPTULO 7. COORDENADAS
Denicin 7.1.2. Sea V un espacio vectorial sobre un cuerpo K con
dim
K
V = n, y sea B = v
1
, ..., v
n
una base de V . Si v V , entonces
tenemos sus coordenadas en tal base x
1
, ..., x
n
K tales que
v = x
1
v
1
+ +x
n
v
n
La matriz
_
_
_
_
_
x
1
x
2
.
.
.
x
n
_
_
_
_
_
M(n 1; K)
es llamado el vector de coordenadas de v respecto a la base B. La coordenada x
j
es llamada la j-sima coordenada de v en la base (ordenada) B.
Ejemplo 7.1.3. Sea K un cuerpo y consideremos el espacio vectorial K
3
[x].
Sabemos que
dim
K
K
3
[x] = 4
y luego toda base de K
3
[x] debe tener cardinalidad cuatro.
Una base (ordenada) de K
3
[x] es dada por
B
1
= v
1
= 1, v
2
= x, v
3
= x
2
, v
4
= x
3

El vector de coordenadas de un vector


v = a
0
+a
1
x +a
2
x
2
+a
3
x
3
+a
4
a
4
en tal base B
1
es
_
_
_
_
_
_
_
a
0
a
1
a
2
a
3
a
4
_
_
_
_
_
_
_
Pero si consideramos la base (ordenada)
B
2
= w
1
= 1, w
2
= x, w
3
= 1 +x
2
, w
4
= x +x
2
+x
3

entonces el vector de coordenadas de un vector


v = a
0
+a
1
x +a
2
x
2
+a
3
x
3
+a
4
a
4
en tal base B
2
es
_
_
_
_
_
_
_
b
0
b
1
b
2
b
3
b
4
_
_
_
_
_
_
_
7.2. COORDENADAS Y CAMBIOS DE BASE 53
donde
a
0
+a
1
x +a
2
x
2
+a
3
x
3
+a
4
a
4
= b
0
w
1
+b
1
w
2
+b
2
w
2
+b
3
w
4
,
es decir
b
0
= a
0
a
2
+a
3
b
1
= a
1
a
3
b
2
= a
2
a
3
b
3
= a
3
Ejercicio 13. Sea B
1
= v
1
, ..., v
n
una base ordenada de un espacio vec-
torial V de dimensin n. Considere la nueva base ordenada de V dada por
B
2
= v
2
, v
1
, v
3
..., v
n
. Cmo se relacionan los vectores de coordenadas de
un mismo vector v V ?
De manera ms general, si permutamos los vectores de B
1
para obtener una nueva
base ordenada, entonces Cmo se relacionan los vectores de coordenadas de un
mismo vector v V ?
7.2. Coordenadas y cambios de base
Hemos visto en el ejemplo anterior que el vector de coordenadas de un mismo
vector puede variar si cambiamos nuestra base ordenada.
Supongamos que tenemos dos bases ordenadas del espacio vectorial V , digamos
B
1
= v
1
, ..., v
n

B
2
= w
1
, ..., w
n

Consideremos el vector de coordenadas de v


j
en la base B
2
, digamos
_
_
_
_
_

1j

2j
.
.
.

nj
_
_
_
_
_
Consideremos la matriz
M(I, B
1
, B
2
) =
_
_
_
_
_

11

12

1n

21

22

2n
.
.
.
.
.
.
.
.
.
.
.
.

n1

n2

nn
_
_
_
_
_
Denicin 7.2.1. La matriz M(I, B
1
, B
2
) es llamada la matriz de cambio de
base de la base B
1
a la base B
2
.
54 CAPTULO 7. COORDENADAS
Si v V , entonces tenemos su vector de coordenadas respecto a la base B
1
,
digamos
x =
_
_
_
_
_
x
1
x
2
.
.
.
x
n
_
_
_
_
_
y su vector de coordenadas respecto a la base B
2
, digamos
y =
_
_
_
_
_
y
1
y
2
.
.
.
y
n
_
_
_
_
_
Ya que
v =
n

j=1
x
j
v
j
=
n

j=1
x
j
(
1j
w
1
+ +
nj
w
n
) =
=
n

k=1
(
k1
x
1
+
k2
x
2
+ +
kn
x
n
)w
k
obtenemos la igualdad matricial
M(I, B
1
, B
2
)x = y
que nos da la relacin entre los dos vectores coordenadas del mismo vector v V .
Teorema 7.2.2. Sean B
1
y B
2
dos bases del mismo espacio vectorial V , de
dimensin nita. Entonces, para cada v V vale la igualdad
M(I, B
1
, B
2
)x = y
donde x es el vector de coordenadas de v en la base B
1
e y es el vector de coor-
denadas de v en la base B
2
.
Ejemplo 7.2.3. Sea K un cuerpo y consideremos el espacio vectorial K
3
[x].
Considremos las bases
B
1
= v
1
= 1, v
2
= x, v
3
= x
2
, v
4
= x
3

B
2
= w
1
= 1, w
2
= x, w
3
= 1 +x
2
, w
4
= x +x
2
+x
3

Tenemos que
M(I, B
1
, B
2
) =
_
_
_
_
1 0 1 1
0 1 0 1
0 0 1 1
0 0 0 1
_
_
_
_
7.3. PROBLEMAS 55
M(I, B
2
, B
1
) =
_
_
_
_
1 0 1 0
0 1 0 1
0 0 1 1
0 0 0 1
_
_
_
_
Observemos que
M(I, B
2
, B
1
) = M(I, B
1
, B
2
)
1
Teorema 7.2.4. Si B
1
y B
2
son dos bases del mismo espacio vectorial V , de
dimensin nita, entonces
M(I, B
2
, B
1
) = M(I, B
1
, B
2
)
1
Demonstracin. Basta con observar que para todo vector x M(n 1; K),
donde n = dim
K
V , debe ocurrir que
M(I, B
2
, B
1
)M(I, B
1
, B
2
)x = x
como consecuencia del hecho que el vector coordenadas est nicamente deter-
minado por el vector y la base ordenada. Luego
M(I, B
2
, B
1
)M(I, B
1
, B
2
) = I
n
De manera similar podemos obtener que
M(I, B
1
, B
2
)M(I, B
2
, B
1
) = I
n
Corolario 7.2.5. La matriz de cambio de base es una matriz invertible ; su
inversa siendo la matriz de cambio de base en el orden inverso.
7.3. Problemas
1.- Sea S un conjunto de generadores de un espacio vectorial V . Vericar que
siempre es posible encontrar una base B S de V .
2.- Es posible extraer una base de M(3 1; R) del conjunto
S =
_
_
_
_
_
1
1
2
_
_
,
_
_
1
0
3
_
_
,
_
_
0
1
5
_
_
,
_
_
3
2
2
_
_
_
_
_
?
3.- Buscar una base del espacio vectorial
(x, y, z) R
3
: x +y = 0
4.- Puede ser Q
5
ser generado por 3 vectores ?
56 CAPTULO 7. COORDENADAS
5.- Sea B
1
= v
1
, v
2
, v
3
una base de un espacio vectorial V . Considere la base
B
2
= v
3
, v
2
, v
1
. Calcular M(I, B
1
, B
2
).
6.- Sea la base de R
3
dada por B = (1, 1, 0), (1, 0, 1), (0, 1, 1). Calcular el
vector de coordenadas de (1, 2, 3).
7.- Sean
B
1
= (1, 2, 2, 1), (1, 0, 2, 0), (2, 0, 4, 3)
B
2
= (0, 2, 0, 1), (2, 1, 4, 1), (1, 2, 2, 4)
Vericar que ellos son dos bases del mismo subespacio vectorial de R
4
y
calcular M(I, B
1
, B
2
).
8.- Determinar si
(1, 3, 7), (2, 1, 0), (3, 1, 1), (4, 3, 2)
y
(1, 1, 1), (1, 1, 3), (1, 2, 5)
generan el mismo subespacio de R
3
.
9.- Para qu valores de k R se tiene que
(3 k, 1, 0), (1, 2 k, 1), (0, 1, 3 k)
genera un subespacio de dimensin 2 ?
10.- Determinar una base del suespacio de R
4
siguiente
(x, y, z, w) R
4
: x +y = z +w
11.- Considere el suespacio de M(n n; Q) dado por
W = A M(n n; Q) : TrA = 0
donde Tr" denota la traza. Calcular una base de W. Existe alguna diferencia
si cambiamos Q por cualquier otro cuerpo ? (Recuerde la caracterstica de un
cuerpo).
CAPTULO 8
TRANSFORMACIONES LINEALES
Muchos problemas de la vida cotidiana involucran transformaciones : tenemos
datos de entrada, los cuales son transformados en datos de salida. Por ejemplo,
datos de entrada pueden ser condiciones laborales y los datos de de salida ser
productividad. En varios de estos problemas las transformaciones son lineales"
(suma de datos nos entrega suma de resultados y amplicacin de datos producen
amplicacin de resultado por el mismo factor). Un estudiante de ingeniera civil
Matemtica debera intentar deducir propiedades de las transformaciones rele-
vantes y aprender sobre las propiedades de las estructuras que se estn modelando.
8.1. Transformaciones lineales
Denicin 8.1.1. Sean V y W espacios vectoriales sobre un mismo cuerpo
K. Una funcin
L : V W
es llamada una transformacin lineal si se satisfacen las siguientes dos
propiedades :
L(v
1
+v
2
) = L(v
1
) +L(v
2
)
L(v) = L(v)
para todo v, v
1
, v
2
V y todo K.
Denotaremos por L(V, W) al conjunto de todas las transformaciones lineales de
V en W.
Observacin 8.1.2. Una denicin ms general es la siguiente : Sean V un
espacio vectorial sobre un cuerpo K y W un espacio vectorial sobre un cuerpo
L. Una funcin L : V W es llamada un morsmo lineal si existe un homo-
morsmo de cuerpos f : K L de manera que se satisfacen las siguientes dos
58 CAPTULO 8. TRANSFORMACIONES LINEALES
propiedades :
L(v
1
+v
2
) = L(v
1
) +L(v
2
)
L(v) = f()L(v)
para todo v, v
1
, v
2
V y todo K. Nosotros no estaremos involucrados con
estos morsmos lineales.
Observacin 8.1.3. Sea V = C. Entonces V es un espacio vectorial sobre R
y tambin sobre C. Sea J : C C : a+ib aib la conjugacin. Se tiene que
J es lineal cuando vemos V como espacio vectorial real, pero no es lineal cuando
lo vemos como un espacio vectorial complejo. Esta observacin nos dice que la
nocin de transformacin lineal est muy ligada al cuerpo K en uso y hay que
tener ciudado con esto.
Ejemplo 8.1.4. Sea W < V , donde V es algn espacio vectorial sobre un
cuerpo K. Anteriormente habamos denido el espacio vectorial cociente V/W
como el conjunto de las clases de equivalencia [v] de vectores v V y la proyec-
cin natural : V V/W : v [v]. Se tiene que las operaciones de suma
y amplicacin que dimos a V/W hacen de la proyeccin una transformacin
lineal sobreyectiva.
Ejemplo 8.1.5. Sea V un espacio vectorial sobre un cuerpo K y supongamos
que dim
K
V = n. Sean
B
1
= v
1
, ..., v
n

B
2
= w
1
, ..., w
n

dos bases de V . La funcin


Q
B
1
,B
2
: V V : v =
n

j=1
x
j
v
j

n

j=1
x
j
w
j
resulta ser una transformacin lineal.
Ejemplo 8.1.6. Sea Z M(p q; K), donde K es algn cuerpo. La funcin
T
Z
: K
q
K
p
: (x
1
, ..., x
q
) (y
1
, ..., y
p
)
8.1. TRANSFORMACIONES LINEALES 59
donde
_
_
_
_
_
y
1
y
2
.
.
.
y
p
_
_
_
_
_
= Z
_
_
_
_
_
x
1
x
2
.
.
.
x
p
_
_
_
_
_
es una transformacin lineal.
Ejemplo 8.1.7. Sea K un cuerpo. La funcin de desplazamiento
S : K
N
K
N
: (x
1
, x
2
, ....) (x
2
, x
3
, ....)
es una transformacin lineal.
Teorema 8.1.8. La composicin de transformaciones lineales es una transfor-
macin lineal.
Denicin 8.1.9. Sea L : V W una transformacin lineal. Entonces :
(i) el ncleo de L es dado por
Ker(L) = v V : L(v) = 0
W

(ii) la imagen de L es dado por


Im(L) = L(v) W : v V
(iii) el rango de L : V W es
rango(L) = dim
K
Im(L)
Teorema 8.1.10. Sea L : V W una transformacin lineal. Entonces :
(i) Ker(L) < V .
(ii) Im(L) < W.
(iii) Kr(L) = 0
V
L es inyectiva.
(iv) Im(L) = W L es sobreyectiva.
(v) Si L es biyectiva, entonces L
1
: W V es una transformacin lineal. En
este caso diremos que L es un isomorsmo y que los espacios vectoriales V y
W son isomorfos lo cual denotaremos por V

= W.
(vi) Sea
L
: V V/Ker(L) la proyeccin natural al espacio cociente de V por
el subespacio Ker(L). Entonces existe una y slo una transformacin lineal

L : V/Ker(L) W tal que

L
L
= L. En particular, Im(L) = Im(

L).
60 CAPTULO 8. TRANSFORMACIONES LINEALES
Ejemplo 8.1.11. Si W < V y : V V/W : v [v], entonces
Ker() = W
Im() = V/W
Ejemplo 8.1.12. Sea V un espacio vectorial sobre un cuerpo K y supongamos
que dim
K
V = n. Sean
B
1
= v
1
, ..., v
n

B
2
= w
1
, ..., w
n

dos bases de V . La transformacin lineal


Q
B
1
,B
2
: V V : v =
n

j=1
x
j
v
j

n

j=1
x
j
w
j
resulta ser un isomorsmo lineal.
Denicin 8.1.13. Sea V un espacio vectorial sobre un cuerpo K. Todo iso-
morsmo de V en si mismo es llamado un automorsmo lineal de V . El conjunto
de todos los automorsmos lineales de V es denotado por GL(V ).
Ejemplo 8.1.14 (Sistemas lineales). Sea Z M(pq; K), donde K es algn
cuerpo y consideremos la transformacin lineal
T
Z
: K
q
K
p
: (x
1
, ..., x
q
) (y
1
, ..., y
p
)
donde
_
_
_
_
_
y
1
y
2
.
.
.
y
p
_
_
_
_
_
= Z
_
_
_
_
_
x
1
x
2
.
.
.
x
p
_
_
_
_
_
Entonces :
Ker(T
Z
) =
_

_
(x
1
, ..., x
n
) K
q
: x =
_
_
_
_
_
x
1
x
2
.
.
.
x
p
_
_
_
_
_
satisface la ecuacin lineal Zx = 0
_

_
As, si queremos buscar las soluciones de Zx = b, alguna b M(p 1; K),
entonces basta con encontrar una solucin particular x
0
M(q 1 : K) y luego
sumarle a x
0
un vector cualquiera x Ker(T
Z
).
8.1. TRANSFORMACIONES LINEALES 61
Ejemplo 8.1.15 (Ecuaciones diferenciales lineales). Sea a
0
, a
1
, ..., a
r

C
(0
[a, b] y consideremos la funcin
D : C
(r)
[a, b] C
(0
[a, b] : y a
r
(x)
d
r
y
dx
r
+a
r1
(x)
d
r1
y
dx
r1
+ +a
1
(x)
dy
dx
+a
0
(x)y
La lineabilidad del operador
d
dx
nos asegura que D es una transformacin lineal.
En este caso,
Ker(D) = soluciones de la ecuacin diferencial lineal Dy = 0
En un curso bsico de ecuaciones diferenciales lineales se ve que la dimensin de
Ker(D) es r (observe que la dimensin de C
(r)
[a, b] es innita).
Ejemplo 8.1.16 (Transformada de Laplace). Sea M > 0, R dados.
Consideremos
V = f : [0, +) R : f es integrable en [0, +) y [f(x)[ Me
x

Entonces V es un espacio vectorial sobre R. Si denotamos por T(, +) al es-


pacio vectorial sobre R formado de las funciones reales denidas en (, +),
entonces la funcin (transformada de Laplace)
L : V T(, +) : f(x) L[f[x]]
donde
L[f[x]]() =
_
+
0
f(x)e
x
dx
es una transformacin lineal.
Teorema 8.1.17. Sea V y W espacios vectoriales sobre el cuerpo K y L :
V W una transformacin lineal. Si dim
K
V < , entonces
dim
K
V = dim
K
Ker(L) +dim
K
Im(L)
Demonstracin. Si L = 0, entonces estamos listos. Supongamos que L ,= 0.
Como Ker(L) < V y V tiene dimensin nita, digamos dim
K
V = n, entonces
dim
K
Ker(L) = m n. Como L ,= 0, m < n. Consideremos una base de
Ker(L), digamos
o = v
1
, ..., v
m

Ahora completamos o a una base de V , digamos


B = v
1
, ..., v
m
, v
m+1
, ..., v
n

Es claro que Im(L) es generado por el subconjunto


L(B) = L(v
m+1
), ..., L(v
n
)
62 CAPTULO 8. TRANSFORMACIONES LINEALES
L(B) es un conjunto es linealmente independiente. Supongamos que hay escalares

m+1
, ...,
n
K tales que

m+1
L(v
m+1
) + +
n
L(v
n
)
. .
L(
m+1
v
m+1
++nvn)
= 0
W
En particular

m+1
v
m+1
+ +
n
v
n
Ker(L)
De esta manera, como o es base de Ker(L), existen escalares
1
, ...,
m
K de
manera que

m+1
v
m+1
+ +
n
v
n
=
1
v
1
+ +
m
v
m
equivalentemente

1
v
1

m
v
m
+
m+1
v
m+1
+ +
n
v
n
= 0
V
Como B es un conjunto linealmente independiente, debemos tener que
j
= 0
para todo valor de j, obteniendo en particular que L(B) es un conjunto linealmente
independiente.
Ahora tenemos que L(B) es una base de Im(L), con lo cual obtenemos nuestro
resultado.
Teorema 8.1.18. Sean V y W espacios vectoriales sobre un cuerpo K y que
dim
K
V = n. Entonces
V

= W dim
K
V = dim
K
W
Demonstracin. Si V

= W, entonces existe un isomorsmo L : V W. En
este caso tenemos que Ker(L) = 0
V
y Im(L) = W. Luego el resultado es
consecuencia de la proposicin 8.1.17.
Recprocamente, supongamos que tenemos que dim
K
V = dim
K
W. Sean
B
V
= v
1
, ..., v
n
y B
W
= w
1
, ..., w
n

bases de V y W, respectivamente. Denamos la funcin


L : V W :
n

j=1
x
j
v
j

n

j=1
x
j
w
j
Se tiene que L es lineal, Ker(L) = 0
V
como consecuencia de la independencia
lineal de B
W
y Im(L) = W como consecuencia del hecho que B
W
genera W.
8.2. EL ESPACIO L(V, W) 63
Corolario 8.1.19. Si V es un espacio vectorial de dimensin nita sobre un
cuerpo K, entonces
V

= K
dim
K
V

= M(dim
K
V 1; K)
Observacin 8.1.20. Si V es un espacio vectorial de dimensin nita sobre un
cuerpo K, entonces un isomorsmo entre V y M(dim
K
V 1; K) se puede dar de
la siguiente manera. Escojamos una base B = v
1
, ..., v
dim
K
V
. El isomorsmo
buscado es dado por la funcin que asigna a cada vector v V su vector de
coordenadas en tal base
L
B
: V M(n 1; K) : v =
n

j=1
x
j
v
j

_
_
_
_
_
x
1
x
2
.
.
.
x
n
_
_
_
_
_
, n = dim
K
V
Usaremos este isomorsmo de manera frecuente en el futuro.
El siguiente concepto de subespacios invariantes ser de utilidad en el futuro.
Denicin 8.1.21. Supongamos que tenemos una transformacin lineal L :
V V y W < V un subespacio de V . Diremos que W es invariante por L si
L(W) < W.
8.2. El espacio L(V, W)
Si V y W son espacios vectoriales sobre el mismo cuerpo K, entonces tenemos
el conjunto L(V, W), formado de todas las transformaciones lineales de V en W.
Teorema 8.2.1. L(V, W) es un espacio vectorial sobre K.
Demonstracin. Ya que L(V, W) es un subconjunto no vaco del espacio vec-
torial de las funciones de V en W, basta vericar que este es de hecho un sube-
spacio vectorial.
Si L
1
, L
2
L(V, W) y K, entonces para todo par de vectores v, w V y
todo escalar K vale que
(L
1
+L
2
)(v +w) = L
1
(v) +L
1
(w) +L
2
(v) +L
2
(w) =
= (L
1
+L
2
)(v) +(L
1
+L
2
)(w)
de donde vemos que L
1
+L
2
L(V, W).
64 CAPTULO 8. TRANSFORMACIONES LINEALES
Teorema 8.2.2. Si adems dim
K
V < y dim
K
W < , entonces
dim
K
L(V, W) = (dim
K
V )(dim
K
W)
Demonstracin. Sean B
V
= v
1
, ..., v
n
una base de V y B
W
= w
1
, ..., w
m

una base W. Por cada i 1, ..., n y cada j 1, ..., m, consideramos la


transformacin lineal

ij
: V W :
n

k=1
x
k
v
k
x
i
w
j
No es dicil ver que

ij
: 1 i n, 1 j m
es una base de L(V, W).
8.3. Problemas
1.- Sea K un cuerpo, q, p 1, 2, 3, .... Vericar que todas las transformaciones
lineales L : K
q
K
p
son de la forma T
Z
para alguna Z M(p q; K).
2.- Demostrar el Teorema 8.1.8.
3.- Demostrar el Teorema 8.1.10.
4.- Sea V un espacio vectorial. Vericar que con la regla de composicin GL(V )
es un grupo.
5.- Determinar todos los automorsmos lineales de K
n
.
6.- Considere la funcin
L : C
(0)
(R) C
(0)
(R) : f(x) L(f)(x) =
_
x
0
f(t) dt
(i) Ver que L es una transformacin lineal.
(ii) Ker(L) = 0.
(iii) Im(L) = C
(1)
(R). Concluir que L no es un isomorsmo.
(iv) L : C
(0)
(R) C
(1)
(R) es un isomorsmo. En particular, tenemos una
biyeccin entre las funciones reales continuas y las derivables.
7.- Sea f : R
n
R
m
una funcin diferenciables en el punto p , donde
es un abierto de R
n
. La diferencial
Df(p) : R
n
R
m
es una transformacin lineal. Interpretar geomtricamente Ker(Df(p)) y
Im(Df(p)).
8.3. PROBLEMAS 65
8.- Vericar que si K es un cuerpo nito, entonces este debe tener cardinalidad p
n
para cierto p primo y cierto entero positivo n. [Indicacin : Sea p la caracters-
tica de K, el cual es un nmero primo. Se tiene que Z
p
es un subcuerpo de K.
Miremos a K como un espacio vectorial sobre el cuerpo Z
p
. Sea v
1
, ..., v
n

una base para K como espacio vectorial sobre Z


p
. Entonces tenemos que K es
isomorfo al espacio vectorial Z
n
p
. ]
9.- Sea K un cuerpo y V un espacio vectorial sobre K (que puede tener dimen-
sin innita). Consideremos una base (indexada) de V
B = v
j

jJ
Por cada vector v V existen nicos escalares x
v
j
K, de manera que slo
para un nmero nito de ndices j J se tiene x
v
j
,= 0 y vale que
v =

jJ
x
v
j
v
j
Sea K
J
el espacio vectorial sobre K formado de todas las funciones f :
J K. En K
J
consideramos el subespacio vectorial K
J
0
formado de aquellas
f K
J
con la propiedad que f(j) = 0 con la posible excepcin de un nmero
nito de ndices de J. Sea
F : V K
J
0
: v =

jJ
x
v
j
v
j
f
v
donde
f
v
: J K : j x
v
j
Vericar que F es un isomorsmo de espacios vectoriales. Comparar con el
caso de dimensin nita.
10.- Demostrar el Teorema 8.2.2.
CAPTULO 9
UNA RELACIN ENTRE ESPACIOS VECTORIALES
REALES Y COMPLEJOS
En este captulo veremos algumas relaciones existentes entre el mundo de los
espacios vectoriales reales y el mundo de los espacios vectoriales complejos.
9.1. Estructuras complejas
Consideremos un espacio vectorial V sobre el cuerpo de los nmeros comple-
jos C. Sabemos que V es tambin un espacio vectorial sobre el cuerpo de los
nmeros reales R; denotemos por V
R
a tal estructura real. Observemos que V
R
como conjunto es igual a V y las operacionn de suma es la misma. Pero en V
R
slo amplicamos por nmeros reales, de la misma manera como lo hacemos en
V . Si v V
R
, entonces v V y luego iv V . Denotamos el vector iv en V
R
como J(v). Luego, la amplicacin por i C induce una funcin
J : V
R
V
R
: v J(v) = iv
Teorema 9.1.1.
(i) J es un automorsmo lineal de V
R
.
(ii) J J = I.
Denicin 9.1.2. Sea V
R
un espacio vectorial real. Un automorsmo lineal
J GL(V
R
) tal que J J = I es llamado una estructura compleja en V
R
.
Como consecuencia de todo lo anterior, todo espacio vectorial complejo induce
un espacio vectorial real con una estructura compleja.
Recprocamente, supongamos que tenemos un espacio vectorial real W con una
estructura compleja J GL(W). Entonces usando la amplicacin
(a +ib)v := av +bJ(v)
68 CAPTULO 9. UNA RELACIN ENTRE ESPACIOS VECTORIALES REALES Y COMPLEJOS
para todo v W y todo a + ib C y usando la misma suma que ya tiene W
permite inducir sobre W una estructura de espacio vectorial complejo, denotado
por W
C
de manera que W = W
C
R
.
Ejercicio 14. Detallar lo anterior.
De esta manera, obtenemos el siguiente resultado.
Teorema 9.1.3. Trabajar con espacios vectoriales complejos es lo mismo que
trabajar con espacios vectoriales reales con una estructura compleja.
Ejemplo 9.1.4. Consideremos el espacio vectorial real R
2
con la estructura
compleja
J(x, y) = (y, x)
En este caso la amplicacin por un nmero complejo ser dado por
(a +ib)(x, y) = a(x, y) +b(y, x) = (ax by, ay +bx)
Si (R
2
, J) es este espacio vectorial complejo y consideramos la funcin
L : (R
2
, J) C : (x, y) x +iy
entonces L es un isomorsmo entre espacios vectoriales complejos.
9.2. Complexicacin de espacios vectoriales reales
Consideremos un espacio vectorial real V y tomemos el producto cruz
V V
con las siguiente operaciones de suma
(v
1
, v
2
) + (w
1
, w
2
) = (v
1
+w
1
, v
2
+w
2
)
y amplicacin por nmeros complejos
(a +ib)(v
1
, v
2
) = (av
1
, av
2
) +b(v
2
, v
1
) = (av
1
bv
2
, av
2
+bv
1
)
Teorema 9.2.1. La suma y amplicacin por nmeros complejos arriba
denida hace de V V de un espacio vectorial complejo V
C
, llamado la
complexicacin de V .
9.3. COMPLEXIFICACIN Y ESTRUCTURAS REALES 69
Ejemplo 9.2.2. Sea V = R. En este caso tenemos que V V = R
2
. En este
caso la suma es
(x
1
, x
2
) + (y
1
, y
2
) = (x
1
+y
1
, x
2
+y
2
)
y la amplicacin por nmeros complejos es
(a +ib)(x, y) = (ax by, ay +bx)
De esta manera, volvemos a tener que el espacio vectorial complejo obtenido
como la complexicacin del espacio vectorial real R, es decir R
C
, es isomorfo
al espacio vectorial complejo C.
9.3. Complexicacin y estructuras reales
Supongamos ahora que tenemos un espacio vectorial real con estructura compleja,
digamos (V, J). Ya hemos visto que la estructura compleja J GL(V ) permite
dotar a V de una estructura de espacio vectorial complejo V
C
. Tenemos, por la
seccin anterior, la complexicacin V
C
de V . Lo que haremos es relacionar estos
dos espacios vectoriales complejos. Consideremos
V
1,0
C
= (u, v) V
C
: (J(u), J(v)) = i(u, v)
= (u, v) V
C
: (J(u), J(v)) = (v, u)
= (u, v) V
C
: J(u) = v
V
0,1
C
= (u, v) V
C
: (J(u), J(v)) = i(u, v)
= (u, v) V
C
: (J(u), J(v)) = (v, u)
= (u, v) V
C
: J(u) = v
Por otro lado, para cada (u, v) V
C
tenemos que
(u, v) =
1
2
((u +J(v), v J(u))
. .
V
1,0
C
+
1
2
(u J(v), v +J(u))
. .
V
0,1
C
y tenemos que
V
1,0
C
V
0,1
C
= 0
V
C

Consideremos las funciones

1,0
: V
C
V
1,0
C
: u (u, J(u))

0,1
: V
C
V
0,1
C
: u (u, J(u))
Ahora tenemos que los espacios vectoriales complejos V
1,0
C
y V
0,1
C
son isomorfos
como espacios vectoriales complejos al espacio vectorial complejo (V
C
. Esto nos
dice como se relacionan V
C
y V
C
: V
C
es suma directa de dos copias isomorfas de
V
C
.
70 CAPTULO 9. UNA RELACIN ENTRE ESPACIOS VECTORIALES REALES Y COMPLEJOS
Ejemplo 9.3.1. Consideremos el espacio vectorial real con estructura com-
pleja (V = R
2
, J(x, y) = (y, x)). En este caso, la estructura compleja J induce
en V = R
2
la estructura de espacio vectorial complejo V
C
isomorfa a C; el iso-
morsmo dado por
(a, b) V
C
a +ib C
La complexicacin de V es en este caso
V
C
= R
2
R
2
donde la amplicacin por i es dada por
i((a, b), (c, d)) = ((c, d), (a, b))
Podemos identicar ((a, b), (c, d) V
C
con (a + ib, c + id) C
2
, siendo esta
identicacin un isomorsmo de espacios vectoriales complejos.
En este caso tenemos que
V
1,0
C
= ((a, b), (b, a)) : (a, b) R
2

y usando el isomorsmo anterior, podemos identicar este ltimo subespacio vec-


torial con el subespacio vectorial de C
2
dado por
V
1,0
C
= (a +ib, b ia) : a +ib C
Tambin tenemos que

1,0
: V
C
V
1,0
C
: (a, b) ((a, b), (b, a))
usando los isomorsmos anteriores

1,0
: C V
1,0
C
: a +ib (a +ib, b ia)
9.4. Problemas
1.- Demostrar el Teorema 9.1.1.
2.- Demostrar el Teorema 9.2.1.
3.- Vericar que R
n
C
es isomorfo a C
n
.
4.- Vericar que V
1,0
C
y V
0,1
C
son ambos subespacios vectoriales complejos de V
C
.
5.- Vericar que existe un isomorsmo de espacios vectoriales complejos entre
V
C
y el espacio vectorial producto V
1,0
C
V
0,1
C
.
6.- Vericar que
1,0
y
0,1
son isomorsmos de espacios vectoriales complejos.
7.- Sea V un espacio vectorial complejo y sean V
R
el espacio vectorial real sub-
yacente y J GL(V
R
) la estructura compleja inducida por la multiplicacin
por i. Sea W < V
R
un subespacio vectorial real y sea W
C
el espacio vectorial
complejo obtenido al complexicar W. Considere las inclusiones
j
W
: W W
C
: w (w, 0)
9.4. PROBLEMAS 71
j
W
: W
C
(V
R
)
C
Ahora consideremos la descomposicin
(V
R
)
C
= (V
R
)
1,0
C
(V
R
)
0,1
C
para escribir cada vector u (V
R
)
C
de manera nica como
u = u
1,0
u
0,1
donde u
1,0
(V
R
)
1,0
C
y u
0,1
(V
R
)
0,1
C
.
Sean

1,0
: (V
R
)
C
(V
R
)
1,0
C
: u
1,0
u
0,1
u
1,0
el isomorsmo
1
1,0
: (V
R
)
1,0
C
V = (V
R
)
C
, y la transformacin lineal com-
pleja

W
=
1
1,0

1,0
j
W
: W
C
V
Verique que
(i)
W
es inyectiva W J(W) = 0
V
.
(ii) dim
R
W = dim
C
V = dim
C
W
C
= dim
C
V y luego
W
es un isomor-
smo.
CAPTULO 10
ESPACIOS DUALES
10.1. El espacio L(V, K)
Cada vez que tenemos un espacio vectorial V sobre un cuerpo K, tenemos el espa-
cio vectorial L(V, K) formado de todas funciones lineales f : V K (recuerde
que K es un espacio vectorial sobre K).
Denicin 10.1.1. El espacio vectorial V

= L(V, K) es llamado el espacio


dual de V .
Si tenemos que dim
K
V = n, entonces, por lo visto anteriormente, dim
K
V

=
dim
K
V .
Teorema 10.1.2. Si V es un espacio vectorial de dimensin nita, entonces
V

= V

.
En caso de espacios vectoriales de dimensin innita la proposicin anterior es
falsa.
Ejercicio 15. Consideremos el espacio vectorial Q
N
de las sucesiones en Q.
Sea V < Q
N
el subespacio vectorial formado de aquellas sucesiones en Q con
slo un nmero nito de coordenadas diferentes de cero.
(i) Vericar que dim
Q
V = .
(ii) Vericar que V no es isomorfo a Q
N
(vea que V es numerable y que Q
N
no lo
es). De hecho vea que una base para V es dada por B = e
j
: j = 1, 2, 3, ...,
donde e
j
tiene su coordenada j-sima igual a 1 y todas las demas igual a 0.
74 CAPTULO 10. ESPACIOS DUALES
(iii) Por cada x = (x
1
, x
2
, ....) Q
N
verique que la siguiente funcin es lineal
Q
x
: V Q : v = (v
1
, v
2
, ....)

j=1
x
j
v
j
(iv) Vericar que la funcin
: V W

: x Q
x
es un isomorsmo (vea que toda transformacin lineal en V

es de la forma
Q
x
algn x Q
N
).
10.2. Bases duales
Consideremos un espacio vectorial V sobre el cuerpo K de dimensin nita
dim
K
V = n. Si escogemos una base de V , digamos
B = v
1
, ..., v
n

entonces podemos construir las transformaciones lineales


v

j
: V K :
n

k=1
x
k
v
k
x
j
, j = 1, ..., n.
Teorema 10.2.1. Si V es un espacio vectorial de dimensin nita n, y B =
v
1
, ..., v
n
es una base de V , entonces el conjunto B

= v

1
, ..., v

n
es una base
para V

que satisface
v

j
(v
i
) =
_
0 j ,= i
1 j = i
Denicin 10.2.2. La base B

de la proposicin anterior es llamada la base


dual de la base B.
Demonstracin. El valor de v

j
(v
i
) es claramente lo indicado por la deni-
cin de v

j
. Veamos que el conjunto B

es un conjunto linealmente independiente.


Supongamos escalares
1
, ...,
n
K tales que
=
1
v

1
+ +
n
v

n
= 0
V

Como 0 = (v
j
) =
j
, para cada j = 1, ..., n, entonces estamos listos. Ahora
necesitamos ver que B

genera V

. Sea V

. En este caso tenemos que para
v =

n
j=1
x
j
v
j
, tenemos que si (v
j
) =
j
, entonces
(v) =
n

j=1
x
j

j
=
n

j=1

j
v

j
(v)
10.3. ESPACIOS DUALES 75
es decir que
=
n

j=1

j
v

j
10.3. Espacios duales
Sea V un espacio vectorial sobre un cuerpo K y V

= L(V, K) su espacio dual.


Consideremos el espacio vectorial V

V y la funcin
<, >: V

V K : (, v) < , v >= (v)


Tenemos que la funcin <, > es en cada coordenada una funcin lineal en el
correspondiente espacio. Adems tenemos que
N
V
= V

:< , v >= 0 v V = 0
V

Por otro lado, si adems dim


K
V < , entonces la existencia de bases duales nos
permite asegurar que
N
V
= v V :< , v >= 0 V

= 0
V

Ejercicio 16. Vericar las anteriores. Dar un ejemplo de un espacio vectorial


V de dimensin innita de manera que N
V
,= 0
V
.
Denicin 10.3.1. Consideremos dos espacios vectoriales sobre el mismo
cuerpo K, diagamos V y W. Una dualidad entre W y V es una funcin
<, >: W V K : (w, v) < w, v >
que satisface las siguientes propiedades :
(i) <, > es lineal en cada una de las dos coordenadas (es decir, <, > es una fun-
cin bilineal) ;
(ii) <, > no es degenerada, es decir
N
W
= w W :< w, v >= 0 v V = 0
W

N
V
= v V :< w, v >= 0 w W = 0
V

En tal caso diremos que W y V son espacios duales.


Ejemplo 10.3.2.
1.- Si V es un espacio vectorial de dimensin nita, entonces V

y V son duales
y la dualidad <, > es la dada anteriormente.
76 CAPTULO 10. ESPACIOS DUALES
2.- Sea K un cuerpo. Entonces
<, >: K K K : (x, y) < x, y >= xy
es una dualidad.
3.- Sea K R un subcuerpo de R. Entonces
<, >: K
n
K
n
K : ((x
1
, ..., x
n
), (y
1
, ...., y
n
)) < (x
1
, ..., x
n
), (y
1
, ...., y
n
) >=
n

j=1
x
j
y
j
es una dualidad.
4.- La funcin
<, >: C
n
C
n
C : ((x
1
, ..., x
n
), (y
1
, ...., y
n
)) < (x
1
, ..., x
n
), (y
1
, ...., y
n
) >=
n

j=1
x
j
y
j
no es una dualidad, pero la funcin
<, >: C
n
C
n
C : ((x
1
, ..., x
n
), (y
1
, ...., y
n
)) < (x
1
, ..., x
n
), (y
1
, ...., y
n
) >=
n

j=1
x
j
y
j
si es una dualidad.
Denicin 10.3.3. Sean V y W espacios vectoriales duales con dualidad
<, >: W V K : (w, v) < w, v >
(i) Diremos que los vectores v V y w W son ortogonales si < w, v >= 0.
(ii) Si A < W, entonces su espacio ortogonal es
A

= v V :< a, v >= 0 a A
(iii) Si B < V , entonces su espacio ortogonales
B

= w W :< w, b >= 0 b B
Ejercicio 17. Si W y W son duales, A < W y B < V , entonces
W

= N
V
= 0
V

= N
W
= 0
W

A < (A

B < (B

Si dim
K
V < , entonces
A = (A

B = (B

10.4. TEOREMA DE REPRESENTACIN DE RIEZ 77


10.4. Teorema de representacin de Riez
Supongamos que tenemos una dualidad
<, >: W V K : (w, v) < w, v >
entre los espacios vectoriales W y V (ambos sobre el cuerpo K). Para cada w
W tenemos la funcin lineal
L
w
: V K : v L
w
(v) =< w, v >
y luego tenemos una funcin
L : W V

: w L(w) = L
w
El hecho que <, > sea lineal en la coordenada W nos dice que L es una transfor-
macin lineal. El hecho que N
W
= 0
W
nos dice que L es inyectiva. En efecto,
supongamos que existen w
1
, w
2
W tales que L
w
1
= L
w
2
. Entonces para cada
v V tenemos que
< w
1
, v >=< w
2
, v >
y usando la lineabilidad en la primera coordenada, esto es equivalente a tener
< w
1
w
2
, v >= 0 v V
de donde vemos que w
1
w
2
N
W
= 0
W
. Podemos proceder de la misma
manera para todo v V denir la funcin lineal
R
v
: W K : w R
v
(w) =< w, v >
y la transformacin lineal inyectiva
R : V W

: w R(v) = R
v
Si tenemos que dim
K
V = n < , entonces la inyectividad de la transformacin
L nos dice que dim
K
W = m dim
K
V

= dim
K
V = n, en particular que W
tiene dimensin nita. Ahora, la inyectividad de la transformacin lineal R nos
dice que dim
K
V = n dim
K
W

= dim
K
W = m. En conlusin n = m.
Teorema 10.4.1 (Teorema de representacin de Riez).
Sean V y W espacios vectoriales duales con dualidad
<, >: W V K : (w, v) < w, v >
Si dim
K
V < , entonces :
(i) V

= W ;
(ii) las transformaciones lineales
L : W V

: w L(w) = L
w
=< w, >
R : V W

: v R(v) = R
v
=< , v >
78 CAPTULO 10. ESPACIOS DUALES
son isomorsmos. En particular, para toda V

existe un nico w W
tal que =< w, > y para toda W

existe un nico v V tal que


=< , v >.
Observacin 10.4.2. Ms adelante cuando veamos espacios vectoriales reales
con productos interiores (no-degenerados) el producto interior inducir una dual-
idad del espacio vectorial consigo mismo. As, en caso de dimensin nita ten-
dremos que el teorema de representacin de Riez nos dar la manera de represen-
tar todas las funciones lineales por un vector del espacio vectorial real.
10.5. Dualidad y transformaciones lineales
Consideremos V y W espacios vectoriales duales con dualidad
<, >: W V K : (w, v) < w, v >
y U y Z espacios vectoriales duales con dualidad
<, >
0
: U Z K : (u, z) < u, z >
0
Supongamos que tenemos una transformacin lineal
T : V Z
Denicin 10.5.1. Una transformacin lineal T

: U W que satisface la
igualdad
< u, T(v) >
0
=< T

(u), v >, u U, v V
es llamada dual de T.
Ejemplo 10.5.2. Sean V y Z espacios vectoriales sobre el cuerpo K. Si con-
sideramos W = V

y U = Z

, entonces tenemos las dualidades


<, >: V

V : (, v) < , v >= (v)


<, >
0
: Z

Z : (, z) < , z >
0
= (z)
Sea T : V Z una transfortmacin lineal. Entonces la funcin
T

: Z

V

: T
No es dicil ver que T

es una transformacin lineal. Adems, como


< , T(v) >
0
= T(v) =< T, v >=< T

(), v >
obtenemos que T

y G son duales.
10.5. DUALIDAD Y TRANSFORMACIONES LINEALES 79
Teorema 10.5.3. Sean V y W espacios vectoriales duales con dualidad
<, >: W V K : (w, v) < w, v >
y U y Z espacios vectoriales duales con dualidad
<, >
0
: U Z K : (u, z) < u, z >
0
y supongamos que tenemos una transformacin lineal
T : V Z
(i) Si T

1
y T

2
son ambas duales a T, entonces T

1
= T

2
.
(ii) Si T y T

son duales, entonces


Ker(T

) = (Im(T))

Ker(T) = (Im(T

))

(iii) Si los espacios son de dimensin nita, entonces


Im(T

) = (Ker(T))

Im(T) = (Ker(T

))

Demonstracin. Veamos parte (i). Supongamos que tenemos transforma-


ciones lineales T

1
y T

2
, ambas duales a T. Entonces,
< T

2
(u), v >=< u, T(v) >
0
=< T

1
(u), v >, u U, v V
Luego
< (T

1
T

2
)(u), v >= 0, u U, v V
Esto nos dice que (T

1
T

2
)(u) N
W
= 0
W
para todo u U, es decir,
T

1
= T

2
.
Veamos parte (ii). Sea u Ker(T

). Usando la igualdad
< u, T(v) >
0
=< T

(u), v >=< 0
W
, v >= 0v V
nos asegura u (Im(T))

y luego obtenemos la contensin


Ker(T

) (Im(T))

Sea z (Im(T))

. Si v V , entonces tenemos
0 =< z, T(v) >
0
=< T

(z), v >, v V
Esto nos dice que T

(z) N
W
= 0
W
, es decir, z Ker(T

) y, en particular,
(Im(T))

Ker(T

)
La otra igualdad se demuestra de la misma manera intercambiando los roles de T
y T

.
80 CAPTULO 10. ESPACIOS DUALES
Veamos (iii). Como sabemos por (ii) que
Ker(T

) = (Im(T))

Ker(T) = (Im(T

))

y sabemos que en dimensin nita vale que (A

= A, entonces estamos listos.


10.6. Problemas
1.- Sean
<, >
1
: W V K
<, >: U Z K
dualidades. Vericar que
<, >
3
: (W U) (V Z) K : (w +u, v +z) < w, v >
1
+ < u, z >
2
es una dualidad entre W U y V Z.
2.- Sea <, >: W V K una dualidad. Si A, B son ambos subespacios vecto-
riales de V , entonces denimos
A +B = a +b : a A, b B
el cual es un subespacio de V . Vericar que
(A +B)

= A

3.- Sea V un espacio vectorial sobre un cuerpo K y dena


: V (V

: v (v)
donde
(v) : V

K : f f(v)
Vericar que
(i) es una transformacin lineal inyectiva y
(ii) es sobreyectiva s y slo si dim
K
V < .
4.- Sea K un cuerpo y consideremos el espacio vectorial W = K
N
de las suce-
siones en K. Sea V < K
N
el subespacio vectorial formado de aquellas suce-
siones en K con slo un nmero nito de coordenadas diferentes de cero. Sea
<, >: W V K : ((x
1
, ....), (y
1
, .....))

j=1
x
j
y
j
(i) Vericar que <, > es una dualidad ;
(ii) Vericar que L : W V

: w < w, > es un isomorsmo.
10.6. PROBLEMAS 81
5.- Sea <, >: W V K una dualidad con dim
K
V < . Sea A < V y
B < W. Vericar la igualdad
dim
K
(A

B) +dim
K
A = dim
K
(A B

) +dim
K
B
6.- Sea V un espacio vectorial de dimensin nita y sea
<, >: W V K
una dualidad. Consideremos el isomorsmo R : W V

: w R
w
=<
w, >. Utilize R para denir bases duales entre bases de V y bases de W.
Compare con la nocin de bases duales que vimos al comienzo del captulo.
7.- Sea <, >: WV K una dualidad donde dim
K
V < y sea T : V W
una transformacin lineal tal que
T = (

)
1
T, GL(V )
Vericar que T = 0 y concluir que no existe una transformacin lineal T :
V W que lleve una base de V en su base dual de W.
CAPTULO 11
REPRESENTACIONES MATRICIALES DE
TRANSFORMACIONES
En este captulo todos los espacios vectoriales sern asumidos de dimensin nita.
Para efectp de clculos con transformaciones lineales es bueno obtener representa-
ciones simples de estas para calcular. Estas representaciones sern dadas por ma-
trices.
11.1. Matrices ssociadas a transformaciones lineales
Supongamos que tenemos una transformacin lineal
T : V W
entre espacios vectoriales de dimensin nita sobre un cuerpo K. Sean
n = dim
K
V
m = dim
K
W
Tomemos bases de V y W dadas respectivamente por
B
V
= v
1
, ..., v
n

B
W
= w
1
, ..., w
m

Tenemos los isomorsmos dados por los vectores de coordenadas en cada base

B
V
: V M(n 1 : K) :
n

j=1
x
j
v
j
x =
_
_
_
_
_
x
1
x
2
.
.
.
x
n
_
_
_
_
_

B
W
: W M(m1 : K) :
m

j=1
y
j
w
j
y =
_
_
_
_
_
y
1
y
2
.
.
.
y
m
_
_
_
_
_
84 CAPTULO 11. REPRESENTACIONES MATRICIALES DE TRANSFORMACIONES
Ya que la composicin de transformaciones lineales es una transformacin lineal y
la inversa de un isomorsmo lineal es tambin una transformacin lineal, tenemos
que la funcin

L =
B
W
L
1
B
V
: M(n 1; K) M(m1; K) : x y
es una transformacin lineal. Si tenemos que
L(v
j
) =
m

k=1

kj
w
k
,
entonces vale que
L
_
_
n

j=1
x
j
v
j
_
_
=
m

k=1
_
_
n

j=1

kj
x
j
_
_
w
k
Esto nos dice que si
L
_
_
n

j=1
x
j
v
j
_
_
=
m

k=1
y
k
w
k
entonces
y
k
=
n

j=1

kj
x
j
Si consideramos la matriz
M(L, B
V
, B
W
) =
_
_
_
_
_

11

12

1n

21

22

2n
.
.
.
.
.
.
.
.
.
.
.
.

m1

m2

mn
_
_
_
_
_
lo anterior puede escribirse como
y = M(L, B
V
, B
W
)x
es decir, la transformacin lineal

L no es nada ms que la multiplicacin a la
izquierda por la matriz M(L, B
V
, B
W
).
Denicin 11.1.1. La matriz M(L, B
V
, B
W
) es llamada la matriz asociada a
L en las bases B
V
y B
W
.
Ejercicio 18. Vea que Ker(L) es dado por aquellos vectores v V cuyos
vectores coordenadas x satisfacen
M(L, B
V
, B
W
)x = 0
m1
11.1. MATRICES SSOCIADAS A TRANSFORMACIONES LINEALES 85
Ejemplo 11.1.2. Sea L : V una transformacin lineal, donde V es una es-
pacio vectorial de dimensin nita sobre un cuerpo K. Supongamos que podemos
encontrar W < V , W ,= V , que sea un subespacio invariante por L. Si escoge-
mos una base de W y la completamos a una base de V , entonces la representacin
matricial de L en tal base tendr la forma
A =
_
A
1
A
2
0 A
3
_
donde A
1
es una matriz cuadrada de tamao igual a dim
K
W, A
3
es una matriz
cuadrada de tamao igual a dim
K
V dim
K
W y A
2
es una matriz de tamao
dim
K
W (dim
K
V dim
K
W).
Ejemplo 11.1.3. Sea V un espacio vectorial sobre el cuerpo K con dim
K
V =
n. Sean
B
1
= v
1
, ..., v
n

B
2
= w
1
, ..., w
n

dos bases de V . Si I : V V denota la transformacin identidad, entonces la


matriz asociada M(I, B
1
, B
2
) es la matriz de cambio de base de B
1
en B
2
.
Ejercicio 19. Sean V y W espacios vectoriales de dimensin nita y L : V
W una transformacin lineal. Sean
B
1
V
, B
2
V
dos bases de V y sean
B
1
W
, B
2
W
dos bases de W. Vericar la siguiente igualdad :
M(L, B
2
V
, B
2
W
) = M(I, B
1
W
, B
2
W
)M(L, B
1
V
, B
1
W
)M(I, B
2
V
, B
1
V
)
Ejemplo 11.1.4. Sea K un cuerpo y consideremos la siguiente transformacin
lineal
L : K
2
[x] K
1
[x] : p(x) = a
0
+a
1
x +a
2
x
2

p(x) p(0)
x
= a
1
+a
2
x
Si consideramos las bases
B
K
2
[x]
= 1 +x, x +x
2
, 1 +x
2

B
K
1
[x]
= 1 +x, 1 x
entonces tenemos las igualdades
L(1 +x) = 1 =
1
2
(1 +x) +
1
2
(1 x)
86 CAPTULO 11. REPRESENTACIONES MATRICIALES DE TRANSFORMACIONES
L(x +x
2
) = 1 +x
L(1 +x
2
) = x =
1
2
(1 +x)
1
2
(1 x)
de donde vemos que
M(L, B
K
2
[x]
, B
K
1
[x]
) =
_
_
1
2
1
1
2
1
2
0
1
2
_
_
As, por ejemplo, si queremos calcular Ker(L) slo necesitamos calcular aquellos
vectores
t =
_
_
t
1
t
2
t
3
_
_
M(3 1; K)
tales que
_
_
1
2
1
1
2
1
2
0
1
2
_
_
_
_
t
1
t
2
t
3
_
_
=
_
0
0
_
es decir, aquellos para los cuales valen las igualdades
t
1
= t
2
= t
3
en otras palabras, los vectores en Ker(L) son aquellos de la forma
p(x) = a(1 +x) a(x +x
2
) +a(1 +x
2
), a K
es decir
p(x) = 2a, a K
As, si la caracterstica de K es diferente de 2, entonces tenemos que Ker(L) =
K
0
[x]

= K y, en particular, dim
K
Ker(L) = 1. Pero, si la caracterstica de K es
2, entonces tenemos que Ker(L) = 0 y, en particular, dim
K
Ker(L) = 0.
Ejemplo 11.1.5 (La matriz que representa un transformacin dual)
Consideremos espacios vectoriales sobre un cuerpo K, todos de dimensin nita,
digamos V , W, U y Z y supongamos que tenemos dualidades
<, >: W V K
<, >
0
: U Z K
Supongamos que dim
K
V = n y dim
K
Z = m; entonces sabemos que
dim
K
W = n y dim
K
U = m.
Sea T : V Z una transformacin lineal. Si escogemos bases
B
V
= v
1
, ..., v
n

B
Z
= z
1
, ..., z
m

11.2. PROBLEMAS 87
Podemos entonces calcular la matriz asociada a T en tales bases
M(T, B
V
, B
Z
) =
_
_
_
_
_

11

12

1n

21

22

2n
.
.
.
.
.
.
.
.
.
.
.
.

m1

m2

mn
_
_
_
_
_
Sea T

: U W transformacin dual a T. Queremos determinar bases apropi-


adas de U y W y la matriz asociada a T

.
La base (ordenada) B
V
induce una base (ordenada) en W
B

V
= w
1
, ..., w
n

de manera que vale la condicin


< w
j
, v
k
>=
_
1 j = k
0 j ,= 0
llamada la base dual de B
V
. De manera similar, la base B
Z
induce por la dualidad
<, >
0
una base dual para U
B

Z
= u
1
, ..., u
m

De esta maneratenemos la matriz asociada a T

en tales bases
M(T

, B

Z
, B

V
) =
_
_
_
_
_

11

12

1m

21

22

2m
.
.
.
.
.
.
.
.
.
.
.
.

n1

n2

nm
_
_
_
_
_
Ahora, observemos que debe cumplirse la igualdad
< u
j
, T(v
k
) >
0
=< T

(u
j
), v
k
>
y ya que
T(v
k
) =
1k
z
1
+ +
mk
z
m
T

(u
j
) =
1j
w
1
+ +
nj
w
n
esto nos dice que
M(T

, B

Z
, B

V
) =
t
M(T, B
V
, B
Z
)
11.2. Problemas
1.- Sean V y W espacios vectoriales de dimensin nita sobre el cuerpo K. Con-
sidere la transformacin lineal trivial
0 : V W : v 0
W
Calcular M(0, B
V
, B
W
).
88 CAPTULO 11. REPRESENTACIONES MATRICIALES DE TRANSFORMACIONES
2.- Sea L : V W un isomorsmo, dim
K
V < . Si B
V
es una base de V y
B
W
es una base de W, entonces
Qu relacin existe entre las matrices M(L, B
V
, B
W
) y M(L
1
, B
W
, B
V
) ?
3.- Sea
L : K
4
[x] K
4
[x] : p(x)
d
dx
(xp(x))
Calcular
M(L, 1, x, x
2
, x
3
, x
4
, 1, x, x
2
, x
3
, x
4
)
4.- Usando la base cannica B = e
1
, ..., e
n
para K
n
, calcular M(L, B, B) para
las siguientes transformaciones lineales :
(i) L(x
1
, ..., x
n
) = (x
n
, x
1
, x
2
, ..., x
n1
).
(ii) L(x
1
, ..., x
n
) = (x
2
, x
1
, x
3
, x
4
, ..., x
n
).
5.- Sean V un espacio vectorial sobre un cuerpo K de dimensin nita y L : V
V una transformacin lineal. Sean B
1
y B
2
bases de V . Vericar que
M(L, B
2
, B
2
) = M(I, B
1
, B
2
)M(L, B
1
, B
1
)M(I, B
1
, B
2
)
1
es decir, las matrices M(L, B
2
, B
2
) y M(L, B
1
, B
1
) son conjugadas por la ma-
triz de cambio de base.
CAPTULO 12
FUNCIONES MULTILINEALES Y
DETERMINANTES
12.1. Funciones multilineales
Denicin 12.1.1. Sean V
1
, ..., V
r
espacios vectoriales sobre un mismo
cuerpo K. Una funcin
L : V
1
V
2
V
r
K
la cual es lineal en cada una de las r coordenadas es llamada una funcin r-lineal
multilineal. Cuando r = 1 tenemos las funciones lineales y cuando r = 2 tenemos
las funciones bilineales. Denotaremos por M(V
1
, ..., V
r
; K) al conjunto de tales
funciones r-lineales.
Ejemplo 12.1.2. Sea la funcin
F : R
2
R
2
R : ((a, b), (c, d)) ad bc = det
_
a b
c d
_
es una funcin bilineal.
Ejercicio 20. Sean V
1
, ..., V
r
espacios vectoriales sobre un mismo cuerpo K.
Vericar que el conjunto M(V
1
, ..., V
r
; K), con las operaciones usuales de suma
y amplicacin de funciones, es un espacio vectorial sobre K.
Ejercicio 21. Sean espacios vectoriales V
1
, ..., V
r
sobre el mismo cuerpo K.
Si L
j
: V
j
K es funcin lineal, entonces
T : V
1
V
r
K : (v
1
, ..., v
r
) L
1
(v
1
)L
2
(v
2
) L
r
(v
r
)
es una funcin r-lineal.
90 CAPTULO 12. FUNCIONES MULTILINEALES Y DETERMINANTES
Consideremos una funcin r-lineal
L : V
1
V
2
V
r
K
donde cada V
j
es un espacio vectorial sobre K de dimensin nita dim
K
V
j
= n
j
.
Escojamos una base de cada V
j
, digamos
B
j
= v
j
1
, ...., v
j
n
j

y su base dual de V

j
, digamos
B

j
= f
j
1
, ...., f
j
n
j

En este caso, tenemos que


L(w
1
, ..., w
r
) = L
_
_
n
1

k
1
=1
x
1k
1
v
1
k
1
, ...,
nr

kr=1
x
rkr
v
r
kr
_
_
=

k
1
,k
2
,...,kr
x
1k
1
x
2k
2
x
rkr
L(v
1
k
1
, ..., v
2
k
2
)
Si denotamos L(v
1
k
1
, ..., v
2
k
2
) = a
k
1
,k
2
,...,kr
, entonces tenemos que
L =

k
1
,k
2
,...,kr
a
k
1
,k
2
,...,kr
f
1
k
1
f
r
kr
De esta manera, vemos que un conjunto de generadores para el espacio
M(V
1
, ..., V
r
) es dado por
B = f
1
k
1
f
r
kr
; 1 k
j
n
j
, j = 1, ..., r
Por otro lado, si tenemos una combinacin lineal
0 =

k
1
,k
2
,...,kr
a
k
1
,k
2
,...,kr
f
1
k
1
f
r
kr
entonces al evaluar sobre
(v
1
k
1
, ..., v
r
kr
)
obtenemos que
a
k
1
,k
2
,...,kr
= 0
es decir que B es un conjunto linealmente independiente.
Teorema 12.1.3. Sea V
j
un espacio vectorial sobre K de dimensin nita
dim
K
V
j
= n
j
, para j = 1, .., r. Entonces
dim
K
M(V
1
, ..., V
r
; K) = n
1
n
2
n
r
Ms an, si tenemos bases de V
j
, digamos
B
j
= v
j
1
, ...., v
j
n
j

y su respectiva base dual de V

j
, digamos
B

j
= f
j
1
, ...., f
j
n
j

12.2. DETERMINATES 91
entonces
B = f
1
k
1
f
r
kr
; 1 k
j
n
j
, j = 1, ..., r
es una base de M(V
1
, ..., V
r
; K).
Denicin 12.1.4. Sea V un espacio vectorial sobre el cuerpo K con
dim
K
V = n. Una funcin r-lineal
L : V V
. .
r times
K
es llamada alternada si
L(v
1
, ...., v
r
) = 0 si tenemos que v
i
= v
j
para algunos i ,= j
Ejercicio 22. Sea V un espacio vectorial sobre el cuerpo K con dim
K
V = n.
Un afuncin r-lineal
L : V V
. .
r times
K
Vericar que L es alternada s y slo si vale la siguiente propiedad :
L(v
1
, ..., v
r
) = 0 v
1
, ...., v
r
V es un conjunto linealmente dependi-
ente.
Ejercicio 23. Sea L : V V
. .
r times
K una funcin r-lineal alternada.
(i) El valor de L(v
1
, v
2
, v
3
, ...., v
r
) cambia de signo si permutamos dos coorde-
nadas diferentes.
(ii) Sea S
r
el grupo de las permutaciones del conjunto 1, 2, ..., r. Recuerde
que el signo de una permutacin S
r
, denotado por sign() es +1 si ella
puede escribirse como una composicin par de involuciones (ciclos de longitud
2) y 1 en caso contrario. Las permutaciones de signo +1 forman el subgrupo
de ndice dos A
r
, llamado el grupo alternante en r elementos. Vercar que para
todo S
r
vale la igualdad
L(v
(1)
, ..., v
(r)
) = sign()L(v
1
, ..., v
r
)
12.2. Determinates
En el resto de este captulo supondremos que los cuerpos son de caracterstica
0, por ejemplo K Q, Q[

2], R, C y nuestros espacios vectoriales sern de


dimensin nita.
92 CAPTULO 12. FUNCIONES MULTILINEALES Y DETERMINANTES
Denicin 12.2.1. Sea V un espacio vectorial sobre el cuerpo K con
dim
K
V = n. Una funcin determinante en V es una funcin n-lineal
: V V
. .
n times
K
que es alternada.
Ejemplo 12.2.2. Sea la funcin
F : R
2
R
2
R : ((a, b), (c, d)) ad bc = det
_
a b
c d
_
es una funcin determinante.
12.2.1. Construccin de funciones determinantes. Ahora procederemos a
construir funciones determinantes para todo espacio vectorial V de dimensin
nita.
Sea V un espacio vectorial sobre el cuerpo K con dim
K
V = n. Escojamos una
base de V , digamos
B = v
1
, ...., v
n

y su respectiva base dual de V , digamos


B

= f
1
, ...., f
n

Consideremos la funcin n-lineal

B
: V V
. .
n veces
K : (w
1
, ..., w
r
) f
1
(w
1
) f
n
(w
n
)
Ejercicio 24. Si w
j
=

n
k=1

kj
v
k
, entonces vea que

B
(w
1
, ..., w
n
) =
11

22

nn
Deducir que si S
n
, entonces

B
(v
(1)
, ..., v
(n)
) =
_
1 = I
0 ,= I
y concluir que no es una funcin determinante.
Ahora, por cada permutacin S
n
denamos la funcin

: V V
. .
n veces
K
denida por

(w
1
, ..., w
n
) =
B
(w
(1)
, ..., w
(n)
)
12.3. RELACIN ENTRE FUNCIONES DETERMINANTES 93
Ejercicio 25. Vericar que
B

es una funcin n-lineal y que

(v
1
, ..., v
n
) =
_
1 = I
0 ,= I
Tenemos que ninguna de las funciones n-lineales
B

es antisimtrica, pero pode-


mos sumarlas apropiadamente para si obtener una. Para esto, sea

B
=

Sn
sign()
B

: V V
. .
n veces
K
Ya que la suma de funciones n-lineales sigue siendo una funcin n-lineal, en-
tonces
B
tambin lo es. Hemos obtenido el siguiente.
Teorema 12.2.3. Sea B = v
1
, ..., v
n
una base de V . Entonces, la funcin

B
es una funcin determinante con la propiedad que
B
(v
1
, ..., v
n
) = 1, en
particular,
B
,= 0. Adems,

B
(w
1
, ..., w
n
) =

Sn
sign()
(1)1

(2)2

(n)n
donde
w
j
=
n

k=1

kj
v
k
Ejercicio 26. Vericar lo anterior.
Denicin 12.2.4. La funcin determinante
B
ser llamada la asociada a la
base B.
12.3. Relacin entre funciones determinantes
Como antes, sea V un espacio vectorial sobre K de dimensin nita, B una base
V y
B
la funcin determinante asociada a B construida en la seccin previa.
Ahora veremos como se relacionan todas las otras funciones determinantes en V
con
B
.
Teorema 12.3.1. Si es una funcin determinante sobre V , entonces existe
una constante K tal que
=
B
94 CAPTULO 12. FUNCIONES MULTILINEALES Y DETERMINANTES
Demonstracin. Sea B = v
1
, ..., v
n
alguna base de V y
B
su funcin
determinante asociada. Entonces tenemos que

B
(v
1
, ..., v
n
) = 1
Sea
= (v
1
, ..., v
n
)
Como antes, si escribimos
w
j
=
n

k=1

kj
v
k
obtenemos que

B
(w
1
, ..., w
n
) =

Sn
sign()
(1)1

(n)n
Por otro lado, usando la multilineabilidad y la propiedad de alternancia de , se
obtiene que
(w
1
, ..., w
n
) =

j
1
,...,jn

j
1
1

jnn
(v
j
1
, ..., v
jn
=

Sn

(1)1

(n)n
(v
(1)
, ..., v
(n)
)
=

Sn

(1)1

(n)n
sign()(v
1
, ..., v
n
)
=

Sn

(1)1

(n)n
sign()
=
B
(w
1
, ..., w
n
)
Corolario 12.3.2. Si ,= 0 es una funcin determinante, entonces existe una
base B

de manera que
=
B

Demonstracin. Sea B = v
1
, ..., v
n
alguna base de V . El teorema anterior
nos dice que existe K de manera que =
B
. Como estamos asumiendo
que ,= 0, tenemos que ,= 0. Si consideramos la base
B

=
1
v
1
, v
2
, ..., v
n

podemos ver que

B
(
1
v
1
, v
2
, ..., v
n
) =
1
=
1

(
1
v
1
, v
2
, ..., v
n
)
es decir
=
B
=
B

12.4. DETERMINANTES DE TRANSFORMACIONES LINEALES 95


Corolario 12.3.3. Sean
1
,= 0 y
2
funciones determinantes para V . En-
tonces existe K de manera que

2
=
1
12.4. Determinantes de transformaciones lineales
Sea V un espacio vectorial de dimensin nita sobre un cuerpo K y sea
L : V V
una transformacin lineal. Sea ,= 0 una funcin determinante para V . Consid-
eremos la funcin n-lineal

L
: V V
. .
n veces
K
denida por

L
(w
1
, ..., w
n
) = (L(w
1
), ..., L(w
n
))
No es difcil darse cuenta que
L
es una funcin determinante para V . Luego,
existe una constante det(L) K tal que

L
= det(L)
Teorema 12.4.1. El valor det(L) no depende de la funcin determinante ,=
0 para V .
Demonstracin. Sean
1
,= 0 y
2
,= 0 funciones determinantes para V y
sean
1
,
2
, K tales que

1L
=
1

2L
=
2

2
=
1
Esto nos dice que :

2
=
2L
= (
1
)
L
=
1L
= (
1

1
) =
1
(
1
) =
1

2
de donde obtenemos que
1
=
2
.
Denicin 12.4.2. El valor det(L) obtenido anteriormente es llamado el de-
terminante de L.
96 CAPTULO 12. FUNCIONES MULTILINEALES Y DETERMINANTES
Ejemplo 12.4.3. Sea V espacio vectorial sobre el cuerpo K de dimensin
nita dim
K
V = n. Para cada K podemos considerar la transformacin
lineal
L

: V V : v v
Sea ,= 0 una funcin determinante sobre V asociada al la base v
1
, ..., v
n
.
Entonces,

L
(v
1
, ...., v
n
) = (v
1
, ...., v
n
) =
n
(v
1
, ..., v
n
) =
n
luego
det(L

) =
n
12.5. Determinantes de matrices
Ahora usaremos las funciones determinantes para denir el determinante de una
matriz cuadrada. Consideremos el espacio vectorial
M(n n; K)
de todas las matrices cuadradas de tamao n con coecientes en K. Si A M(n
n; K), entonces tenemos la transformacin lineal
T
A
: M(n 1; K) M(n 1; K) : x Ax
Denicin 12.5.1. Se dene como el determinante de A, det(A), como el de-
terminante de T
A
, es decir,
det(A) = det(T
A
)
Escojamos la base cannica de M(n 1; k),
B = e
1
, ..., e
n

donde e
j
tiene todas sus coordenadas igual a 0 excepto la j-sima coordenada que
vale 1, y consideramos la funcin determinante =
B
asociada a ella.
Si
A =
_
_
_
a
11
a
12
a
1n
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
a
nn
_
_
_
entonces, usando el hecho que

T
A
= det(A)
obtenemos, al evaluar
T
A
(e
1
, ..., e
n
), la igualdad
12.5. DETERMINANTES DE MATRICES 97
det(A) =

Sn
sig()a
(1)1
a
(n)n
En particular, tenemos que
det(I) = 1
Ejercicio 27. Sea V un espacio vectorial sobre K de dimensin nita y sea
L : V V una transformacin lineal. Sea B una base de V y
B
su funcin
determinante asociada. Usar la igualdad

L
= det(L)
para obtener que
det(L) = detM(L, B, B)
Observacin 12.5.2. Una manera equivalente de obtener el determinante de
una matriz A M(nn; K) es la siguiente. Sea K
n
y B = v
1
, ..., v
n
una base
de K
n
junto a su funcin determinante asociada
B
. Tenemos el isomorsmo
dado por la asignacin de vectores coordenadas

B
: K
n
M(n 1; K) :
n

j=1
x
j
v
j

t
(x
1
x
2
x
n
)
Considere la funcin
: K
n
K
n
. .
n veces
M(n n; K) : (w
1
, ..., w
n
)
_
_
_
x
11
x
1n
.
.
.
.
.
.
.
.
.
x
n1
x
nn
_
_
_
donde
w
j
= (x
1j
, x
2j
, ..., x
nj
)
Entonces resulta ser un isomorsmo. En este caso obtenemos que
det(A) =
B
(
1
(A))
Hemos visto que dada una matriz A = (a
ij
) M(n n; K), tenemos a ella
asociado un nmero det(A) K, el determinante de A :
det(A) =

Sn
sig()a
(1)1
a
(n)n
98 CAPTULO 12. FUNCIONES MULTILINEALES Y DETERMINANTES
Esta sumatoria puede ordenarse de manera adecuada para obtener una frmula
inductiva para calcular det(A). Para esto, denimos el cofactor (i, j) de A como
c
ij
= (1)
i+j
det(A
ij
)
donde A
ij
M((n 1) (n 1); K) se obtiene de A al eliminar la la i-sima
y columna j-sima de A.
Entonces, para cada r 1, ..., n vale la igualdad :
det(A) =
n

j=1
a
rj
c
rj
=
n

j=1
a
jr
c
jr
Denicin 12.5.3. La matriz C
A
= (c
ij
) M(n n; K), donde c
ij
es el
cofactor (i, j) de A M(n n; K) es llamada la matriz de cofactores de A.
Ejercicio 28. Usar induccin para vericar lo anterior.
Ejemplo 12.5.4. Si
A =
_
a b
c d
_
M(2 2; K)
entonces su matriz de cofactores es
C
A
=
_
d c
b a
_
M(2 2; K)
y
det(A) = ad bc
Ejercicio 29. Calcular
det
_
_
a
11
a
12
a
13
a
21
a
22
a
23
a
31
a
32
a
33
_
_
12.6. PROPIEDADES DE DETERMINANTES 99
12.6. Propiedades de determinantes
En toda esta seccin suponemos que tenemos un espacio vectorial V de dimensin
nita dim
K
V = n sobre el cuerpo K.
Teorema 12.6.1. Sea L : V V una transformacin lineal. Entonces, L es
un isomorsmo s y slo si det(L) ,= 0.
Demonstracin. Supongamos que L es un isomorsmo. Sea B = v
1
, ..., v
n

una base de V . Entonces B


L
= L(v
1
), ..., L(v
n
) es una base de V . Si =
B
es la funcin determinante asociada a B, entonces como sabemos que ,= 0,
debemos tener que
0 ,= (L(v
1
), ..., L(v
n
)) =
L
(v
1
, ..., v
n
) = det(L)(v
1
, ..., v
n
) = det(L)
Recprocamente, supongamos que det(L) ,= 0. Si dim
K
Ker(L) ,= 0, entonces
podemos tomar una base B = v
1
, ..., v
n
de V que contiene vectores de Ker(L),
digamos que v
1
Ker(l). Ahora, si =
B
es la funcin determinante asociada
a B, entonces tenemos la igualdad

L
(v
1
, ..., v
n
) = det(L)(v
1
, ..., v
n
) = det(L)

L
(v
1
, ...., v
n
) = (0, L(v
2
), ..., L(v
n
)) = 0
es decir, det(L) = 0, una contradiccin.
Teorema 12.6.2. Si L, N : V V son transformaciones lineales, entonces
det(L N) = det(L)det(N)
Demonstracin. Sea B = v
1
, ..., v
n
una base de V y =
B
la funcin
determinante asociada a B. Tenemos que :
(L N(v
1
), ..., L N(v
n
)) = det(L N)(v
1
, ..., v
n
) = det(L N)
Por otro lado
(L N(v
1
), ..., L N(v
n
)) = (L(N(v
1
)), ..., L(N(v
n
)))
= det(L)(N(v
1
), ..., N(v
n
))
= det(L)det(N)(v
1
, ..., v
n
)
= det(L)det(N)
100 CAPTULO 12. FUNCIONES MULTILINEALES Y DETERMINANTES
Usando el hecho que det(I) = 1, el resultado anterior nos da el siguiente.
Corolario 12.6.3.
(i) Si L : V V es un isomorsmo, entonces
det(L
1
) =
1
det(L)
(ii) Sea A GL(n; K), entonces
det(A
1
) =
1
det(A)
(iii) Sea T : V V una transformacin lineal y sean B
1
, B
2
dos bases de V .
Entonces,
det(M(L, B
1
, B
1
)) = det(M(L, B
2
, B
2
))
12.7. Problemas
1.- Usar la frmula de determinante de matrices por cofactores para vericar las
siguientes :
(i) det(
t
A) = det(A).
(ii) Si A tiene columnas linealmente dependientes, entonces det(A) = 0.
(iii) det(A) =
n
det(A).
(iv) Sea A = (a
ij
) una matriz triangular (inferior superior), entonces
det(A) = a
11
a
22
a
nn
.
(v) Calcular el determinante de las matrices elementales (usadas en el
mtodo de Gauss).
(vi) Sean matrices A = (a
ij
), B = (b
ij
), C = (c
ij
) M(n n; K) y
jemos un valor k 1, ..., n. Supongamos que
(a) a
ij
= b
ij
para j ,= k ;
(b) c
ij
= a
ij
para j ,= k ;
(c) c
kj
= a
kj
+b
kj
, j = 1, ..., n.
Vericar que detC = detA +detB.
(vii) Si
t
A = A, entonces det(A) = (1)
n
det(A). Concluir que si n es
par, entonces det(A) = 0.
2.- Considere tres rectas en el plano K
2
, digamos
a
1
x +b
1
y = c
1
a
2
x +b
2
y = c
2
a
3
x +b
3
y = c
3
12.7. PROBLEMAS 101
Vericar que estas tienen un punto en comn s y slo si
det
_
_
a
1
b
1
c
1
a
2
b
2
c
2
a
3
b
3
c
3
_
_
= 0
Ind : Considere la transformacin lineal T : M(3 1; K) M(3 1; K) :
x Ax, donde A es la matriz anterior. Vea que (x, y) K
2
es solucin al
problema s y slo si
t
(x y 1) M(3 1; K) pertenece a Ker(T).
3.- Sean (x
1
, y
1
), (x
2
, y
2
) R
2
dos vectores diferentes. Vericar que la ecuacin
de la nica recta determinada por esos puntos es dada por
det
_
_
x y 1
x
1
y
1
1
x
2
y
2
1
_
_
= 0
4.- Sean (x
1
, y
1
), (x
2
, y
2
, ), (x
3
, y
3
) R
2
tres vectores no colineales. Vericar
que la ecuacin del nico crculo determinado por esos puntos es dada por
det
_
_
_
_
x
2
+y
2
x y 1
x
2
1
+y
2
1
x
1
y
1
1
x
2
2
+y
2
2
x
2
y
2
1
x
2
3
+y
2
3
x
3
y
3
1
_
_
_
_
= 0
Ind : recuerde que la ecuacin del crculo es de la forma : a(x
2
+y
2
) +bx+
cy +d = 0.
5.- det(A
k
) = det(A)
k
.
6.- Sea A M(n n; K) y K. Vericar que existe x M(n 1; K),
x ,= 0
M(n1;K)
, resolviendo la ecuacin lineal Ax = x s y slo si det(A
I) = 0.
Ind : Mire la matriz AI M(nn; K) como una transformacin lineal de
M(n1; K) en si mismo y observe que una solucin x de la ecuacin anterior
debe pertenecer al ncleo de esta transformacin lineal.
Cuando = 1, esto nos da los estados en equilibrio de modelos de evolucin
x
n+1
= Ax
n
estudiados anteriormente.]
7.- Dada una matriz A = (a
ij
) M(n n; K) y su matriz de cofactores C
A
, se
dene la matriz adjunta de A como
adjA :=
t
C
A
Usando la frmula de cofactores para el determinante de una matriz, vericar
que
A adjA = det(A) I
Ind : Para i ,= j dena

A = (a
ij
) como la matriz que se obtiene de A al
reemplazar la la j-sima de ella por la i-sima la. As, A y

A slo dieren
102 CAPTULO 12. FUNCIONES MULTILINEALES Y DETERMINANTES
en la la j-sima, en donde se encuentra una copia de la la i-sima. De esta
manera, det(

A) = 0. Usar la formula por cofactores desarrollando para la la


j-sima. Ver que los cofactores (j, k) de A, c
ij
, y de

A, c
ij
, coinciden y concluir
que, para i ,= j,
0 = det(

A) =
n

k=1
a
jk
(1)
j+k
c
jk
=
n

k=1
a
jk
(1)
j+k
c
jk
y para i = j vale que
det(A) =
n

k=1
a
ik
(1)
i+k
c
ik
Ahora vericar que estos son los coecientes de la matriz A adjA.
8.- Deducir de 7.- que si A GL(n; K), entonces
A
1
=
1
det(A)
AdjA
9.- Calcular A
1
si
A =
_
_
2 1 2
1 1 2
3 1 1
_
_
10.- Ahora tenemos dos mtodos para calcular las matrices inversas, el mtodo
de Gauss y el mtodo dado en 8.- Determine en trminos de n la cantidad de
pasos usados en cada mtodo e indique cual de los dos mtodos es computa-
cionalmente ms barato.
11.- Regla de Kramer. Considere el sistema lineal Ax = b, donde A
GL(n; K). Use el problema 8.- para describir la forma de las coordenadas x
j
de la solucin x =
t
(x
1
x
2
x
n
) en trminos de A y b.
Ind : Si Ax = b, como A es invertible, x = A
1
b. Luego,
x =
1
det(A)
adjA b =
1
det(A)
_
_
_
d
11
d
1n
.
.
.
.
.
.
.
.
.
d
n1
d
nn
_
_
_
_
_
_
b
1
.
.
.
b
n
_
_
_
Observar que el coeciente j-simo del vector adjA b es dado por
(d
1j
d
jn
)
_
_
_
b
1
.
.
.
b
n
_
_
_ =
n

k=1
d
kj
b
j
Sea A
j
la matriz obtenida de A al reemplazar su columna j-sima por b.
Calcule el determinante de A
j
usando la formula de cofactores por la j-sima
columna, es decir
det(A
j
) = b
1
c
1j
+b
2
c
2j
+ +b
n
c
nj
12.7. PROBLEMAS 103
Para calcular el cofactor c
kj
uno elimina de A
j
la la k y la columna j, luego
el cofactor c
kj
es el igual al cofactor (k, j) de la matriz A, es decir,
c
kj
= d
kj
De esta manera
det(A
j
) =
n

k=1
d
kj
b
j
de donde vemos que el coeciente j-simo de adjA b es dado por det(A
j
), y
como consecuencia,
x
j
=
det(A
j
)
det(A)
CAPTULO 13
ESPACIOS VECTORIALES CON PRODUCTO
INTERIOR
En este captulo todos los cuerpos K sern asumidos ser un subcuerpo del cuerpo
de los nmeros complejos C.
13.1. Productos interiores
Denicin 13.1.1. Sea V un espacio vectorial sobre un cuerpo K C.
1.- Un producto interior en V es una funcin
<, >: V V K : (u, v) < u, v >
que satisface las siguientes propiedades :
(1.1.-) para todo K y todo triple u, v, w V vale que
< v +u, w >= < v, w > + < u, w >
es decir, <, > es lineal en la primera coordenada ;
(1.2.-) para todo v, w V vale que
< v, w >= < w, v >
El par (V, <, >) es llamado un espacio vectorial con producto interior.
2.- El producto interior <, > en V es llamado no-degenerado si este satisface :
(2.1.-) para todo v V 0
V
existe w V (necesariamente w ,= 0
V
) tal
que
< v, w >,= 0
3.- El producto interior <, > sobre V es llamado un producto interior positivo
denido si este satisface :
3.1.- para todo v V vale que
< v, v > 0
106 CAPTULO 13. ESPACIOS VECTORIALES CON PRODUCTO INTERIOR
3.2.- para todo v V vale que
< v, v >= 0 v = 0
V
En este caso, si K = R, entonces diremos que <, > es un producto interior
Euclidiano y si K = C entonces que este es un producto interior Hermitiano
positivo.
Observacin 13.1.2. Observemos que todo producto interior positivo denido
es necesariamente no-degenerado. Pero el siguiente ejemplo muestra que el
recproco no es verdad, es decir, existen productos interiores no-degenerados que
no son positivos denido.
Ejemplo 13.1.3. Consideremos enteros positivos n, m 1, 2, ... y el espa-
cio vectorial real R
n+m
. La funcin
<, >: R
n+m
R
n+m
R
denido por la regla
< (x
1
, ..., x
n
, x
n+1
, ..., x
n+m
), (y
1
, ..., y
n
, y
n+1
, ..., y
n+m
) =
n

j=1
x
j
y
j

k=1
x
n+k
y
n+k
resulta ser un producto interior no-degenerado el cual no es positivo denido.
Ejercicio 30. Vericar los detalles del ejemplo anterior.
Denicin 13.1.4. Sea (V, <, >) un espacio vectorial con producto interior
positivo denido. Si v V , entonces la norma de v se dene como
|v| = +

< v, v >
La distancia entre dos vectores v, w V se dene como
d(v, w) = |v w|
Ejemplo 13.1.5. Sea K C y consideremos sobre el espacio vectorial K
n
la
funcin
<, >: K
n
K
n
K
denida por
< (x
1
, ..., x
n
), (y
1
, ..., y
n
) =
n

j=1
x
j
y
j
13.1. PRODUCTOS INTERIORES 107
Tenemos que <, > resulta ser un producto interior positivo denido. La norma de
un vector es dada por
|(x
1
, ...., x
n
)| =
_
x
2
1
+ +x
2
n
y la distancia es dada por
d((x
1
, ..., x
n
), (y
1
, ..., y
n
)) =
_
(x
1
y
1
)
2
+ + (x
n
y
n
)
2
Ejemplo 13.1.6. Sea V = C
(0)
[a, b] el espacio vectorial real de todas las fun-
ciones reales continuas sobre el intervalo cerrado [a, b]. La funcin
<, >: C
(0)
[a, b] C
(0)
[a, b] R
denida por
< f, g >=
_
b
a
f(x)g(x) dx
es un producto interior Euclidiano sobre V . De la misma manera, Sea W =
C
(0)
C
[a, b] el espacio vectorial complejo de todas las funciones complejas con-
tinuas sobre el intervalo cerrado [a, b]. La funcin
<, >: C
(0)
C
[a, b] C
(0)
C
[a, b] C
denida por
< f, g >=
_
b
a
f(x)g(x) dx
es un producto interior Hermitiano positivo sobre W.
En ambos casos, la norma de una funcin f es dada por
|f| =

_
b
a
[f(x)[
2
dx
Ejercicio 31. Sea A M(n n; C) una matriz diagonal,
A = diag(
1
, ....,
n
)
Considere V = K
n
, donde K C y dena la funcin
<, >
A
: V V C
por
< (x
1
, ..., x
n
), (y
1
, ..., y
n
) >
A
= (x
1
x
n
) A
_
_
_
y
1
.
.
.
y
n
_
_
_
Qu condiciones debe tener A para que <, >
A
sea un producto interior sobre
V?
108 CAPTULO 13. ESPACIOS VECTORIALES CON PRODUCTO INTERIOR
Qu condiciones debe tener A para que <, >
A
sea un producto interior positivo
dnido sobre V?
13.2. Propiedades de la norma y la distancia
Cada vez que tenemos un espacio vectorial V (sobre un cuerpo K C) con un
producto interior positivo denido <, >, tenemos que cada vector v V tiene
denida una norma |v|.
Teorema 13.2.1. La norma || tiene las siguientes propiedades :
(i) |v| 0, para todo v V ;
(ii) |v| = 0 v = 0
V
;
(iii) |v| = [[|v|, para todo v V y todo K.
(iv) (Desigualdad triangular) para todo par v, w V vale que
|v +w| |v| +|w|
Las propiedades (i), (ii) y (iii) son claras de la denicin de producto interior.
Ms adelante veremos como vericar la desigualdad triangular. Una consecuencia
directa del anterior es la siguiente lista de propiedades de la distancia.
Teorema 13.2.2. La distancia d(, ) tiene las siguientes propiedades :
(i) d(v, w) 0, para todo v, w V ;
(ii) d(v, w) = 0 v = w;
(iii) d(v, w) = [[d(v, w), para todo v V y todo K.
(iv) (Desigualdad triangular) para todo triple v, w, u V vale que
d(u, v) d(u, w) +d(v, w)
Demonstracin. Todo esto sale del hechos que d(v, w) = |v w|. Veamos
slo la desigualdad triangular.
d(u, v) = |uv| = |(uw)+(wv)| |uw|+|wv| = d(u, w)+d(w, v)
. .
d(v,w)
13.3. COMO RECUPERAR <, > A PARTIR DE 109
13.3. Como Recuperar <, > a partir de ||
Supongamos que tenemos que <, > es un producto interior positivo denido con
K R. En este caso tenemos la igualdad :
|v +w|
2
=< v +w, v +w >= |v|
2
+ 2 < v, w > +|w|
2
es decir,
< v, w >=
1
2
(v +w|
2
|v|
2
|w|
2
)
Supongamos que tenemos que <, > es un producto interior positivo positivo y
K C contiene nmeros complejos. En este caso La igualdad
|v +w|
2
=< v +w, v +w >= |v|
2
+ 2Re(< v, w >) +|w|
2
nos dice que
Re(< v, w >) =
1
2
(v +w|
2
|v|
2
|w|
2
)
El hecho que
< v, iw >= i < v, w >
nos asegura que
Im(< v, w >) =
1
2
(v +iw|
2
|v|
2
|w|
2
)
De esta manera, podemos siempre recuperar el producto interior positivo denido
<, > a partir de su norma ||.
Observacin 13.3.1. Hemos visto que todo producto interior positivo denido
sobre un espacio vectorial V dene una norma y que tal producto puede obtenerse
de tal norma. Pero hay normas que no provienen de tales productos interiores. Por
ejemplo, consideremos en el espacio vectorial R
2
la norma
|(x, y)| = Mximo[x[, [y[
Si existiese un producto interior positivo denido <, > que le produce, entonces
debe ocurrir que
< v, w >=
1
2
(v +w|
2
|v|
2
|w|
2
)
Luego,
< (1, 0), (1, 0) >= 1 =< (0, 1), (0, 1) >
< (1, 0), (0, 1) >= 1/2
De esta manera,
< (x, y), (u, v) >=< x(1, 0)
y
(0, 1), u(1, 0) +v(0, 1) >=
= xu
1
2
xv
1
2
yu +yv
110 CAPTULO 13. ESPACIOS VECTORIALES CON PRODUCTO INTERIOR
As,
< (x, y), (x, y) >= x
2
+y
2
xy
Pero en tal caso vemos que
< (2, 3), (2, 3) >= 7 ,= 9 = |(2, 3)|
2
13.4. La desigualdad de Schwarz
Consideremos un espacio vectorial V (sobre un cuerpo K C) con un producto
interior positivo denido <, >. Sean v, w V .
(i) Si v, w es un conjunto linealmente dependiente, entonces uno de esos vec-
tores es un mltiplo del otro, de donde obtenemos que
[ < v, w > [ = |v||w|
(ii) Si < v, w >= 0, entonces tenemos
[ < v, w > [ |v||w|
(iii) Si v, w es un conjunto linealmente independiente y < v, w >,= 0, entonces
para todo K vale que
0 < |w +w|
2
= |v|
2
+ < v, w > +v, w >+[[
2
|w|
2
Si tomamos
=
|v|
2
< v, w >
entonces lo anterior asegura
[ < v, w > [ < |v||w|
Todo lo anterior nos da :
Teorema 13.4.1 (Desigualdad de Schwarz). Sea V un espacio vectorial so-
bre un cuerpo K C, con un producto interior positivo denido <, >. Si v, w
V , entonces
[ < v, w > [ |v||w|
donde la igualdad vale s y slo si v, w e un conjunto linealmente dependiente.
Ahora podemos vericar la desigualdad triangular de || que estbamos debiendo.
Corolario 13.4.2. Sea V un espacio vectorial sobre un cuerpo K C, con
un producto interior positivo denido <, >. Si v, w V , entonces
|v +w| |v| +|w|
13.5. ANGULOS 111
Demonstracin. Si v, w V , entonces
0 |v +w|
2
= |v|
2
+ 2Re(< v, w >) +|w|
2
|v|
2
+ 2[ < v, w > [ +|w|
2
|v|
2
+ 2|v||w| +|w|
2
= (|v| +|w|)
2
Como |v| +|w| 0, lo anterior asegura que
|v +w| |v| +|w|
Observemos que si v y w son ortogonales, entonces obtenemos del clculo ante-
rior el siguiente hecho.
Corolario 13.4.3. Sea V un espacio vectorial sobre un cuerpo K C, con un
producto interior positivo denido <, >. Si v, w V son vectores ortogonales,
entonces
|v +w|
2
= |v|
2
+|w|
2
13.5. Angulos
13.5.1. Caso real. Consideremos un espacio vectorial real V con un producto
interior Euclidiano <, >. La desigualdad de Schwarz nos asegura que para todo
par v, w V )
V
debe existir un (y slo uno) nmero
v,w
[0, ] de manera
que
< v, w >= |v||w| cos(
v,w
)
Denicin 13.5.1. El nmero
v,w
es llamado el ngulo de v y w en el pro-
ducto interior Euclidiano <, >.
13.5.2. Caso complejo. Ahora supongamos que tenemos un espacio vectorial
V sobre el cuerpo C y con un producto interior Hermitiano positivo <, >. La
desigualdad de Schwarz nos asegura que para todo par v, w V )
V
tenemos
que < v, w >es un nmero complejo de valor absoluto menor que uno y diferente
de cer. Luego, existen nicos nmeros
v,w
[0, ] y
v,w
[0, ) de manera que
< v, w >= |v||w|e
iv,w
cos(
v,w
)
Denicin 13.5.2. El par de nmeros (
v,w
,
v,w
) es llamado el ngulo com-
plejo de v y w en el producto interior Hermitiano positivo <, >.
112 CAPTULO 13. ESPACIOS VECTORIALES CON PRODUCTO INTERIOR
13.6. Ortogonalidad
Denicin 13.6.1. Sea V un espacio vectorial sobre un cuerpo K C, con
un producto interior positivo denido <, >. Dos vectores v, w V se dirn or-
togonales si < v, w >= 0
Si W < V , entonces denimos su ortogonal en V como
W

= v V :< v, w >= 0, w W
Ejemplo 13.6.2.
V

= 0
V

0
V

= V
Ejercicio 32. Sea V un espacio vectorial real con producto interior Euclidi-
ano <, >. Vericar que dos vectores v, w V 0
V
son perpendiculares s y
slo si
v,w
= /2.
Ejercicio 33.
(i) Sea W < V y <, > un producto interior. Vericar que W

< V .
(ii) Si adems <, > es producto interior positivo dernido, entonces W W

=
0
V
.
(iii) Dar un ejemplo de un espacio con producto interior que no es positivo
denido para el cual (ii) falla.
Teorema 13.6.3. Sea V un espacio vectorial sobre un cuerpo K C, con
un producto interior positivo denido <, > y sea W < V . Entonces todo vector
v V puede escribirse de manera nica como
v = w +u, w W, u W

Demonstracin. Observemos que si W y W

no generan todo V , entonces


H =< W, W

>

,= 0
V
. Pero un vector h H, h ,= 0
V
debe entonces ser
ortogonal a ambos W y W

, es decir h W W

, una contradiccin al hecho


que W W

= 0
V
. Esta observacin nos asegura la existencia de vectores
w W y u W

de manera que v = w + u. Veamos ahora la unicidad.


Supongamos que tenemos w
1
W y u
1
W

tales que
w +u = w
1
+u
1
Esto nos dice que
w w
1
= u
1
u W W

= 0
V

13.7. PROYECCIONES ORTOGONALES 113


Corolario 13.6.4. Sea V un espacio vectorial sobre un cuerpo K C, con
un producto interior positivo denido <, > y sea W < V . Entonces tenemos un
isomorsmo natural
W W

V : (w, u) w +u
es decir, V es la suma directa de W con W

. Denotaremos esto por


V = W W

Corolario 13.6.5. Sea V un espacio vectorial sobre un cuerpo K C de


dimensin nita, con un producto interior positivo denido <, >, y sea W < V .
Entonces
dim
K
V = dim
K
W +dim
K
W

13.7. Proyecciones ortogonales


Sea V un espacio vectorial sobre un cuerpo K C, con un producto interior
positivo denido <, >. Dado cualquier subespacio W < V tenemos que
V = W W

De esta manera, todo vector v V tiene un nica descomposicin


v = w
v
+u
v
, w
v
W, u
v
W

Denicin 13.7.1. La funcin

W
: V W : v
W
(v) = v
w
es llamada la proyeccin ortogonal en W.
Ejercicio 34. Vericar las siguientes propiedades de
W
.
(i)
W
es una transformacin lineal ;
(ii) para w W vale que
W
(w) = w;
(iii)
W

W
=
W
;
(iv) para todo v V se tiene que v
W
(v) W

Teorema 13.7.2. El vector


W
(v) es el vector en W ms prximo a v respecto
la distancia inducida por <, >.
114 CAPTULO 13. ESPACIOS VECTORIALES CON PRODUCTO INTERIOR
Demonstracin. Sea v V y w W. Entonces la distancia entre ellos es
dada por |v w|. Pero,
|vw|
2
=< vw, vw >=< (v
W
(v))+(
W
(v)w), (v
W
(v))+(
W
(v)w) >
= |v
W
(v)|
2
+|
W
(v) w|
2
|v
W
(v)|
2
donde la igualdad vale s y slo si
W
(v) = w.
Teorema 13.7.3. Sea V un espacio vectorial sobre un cuerpo K C, con
un producto interior positivo denido <, >, y sea W < V . Entonces, para todo
v V vale que
|
W
(v)| |v|
Demonstracin. Tenemos que
W
(v) y v
W
(v) son vectores ortogonales,
luego
|
W
(v)|
2
+|v
W
(v)|
2
= |v|
2
13.7.1. Caso de dimensin nita. Supongamos primero el caso donde
dim
K
W = m. Escojamos una base ortonormal de W, digamos
v
1
, ..., v
m

De esta manera,

W
(v) =
m

j=1

j
v
j
Luego, como sabemos que v
W
(v) W

, tenemos que
0 =< v
W
(v) W

, v
j
>=< v, v
j
>
j
es decir

j
=< v, v
j
>
y, en particular,

W
(v) =
m

j=1
< v, v
j
> v
j
13.8. EXISTENCIA DE BASES ORTONORMALES 115
13.7.2. Caso de dimensin innita. Supongamos ahora el caso donde
dim
K
W = . Escojamos una base ortonormal de W, digamos
v
j
,
J
De esta manera,

W
(v) =

jJ
0

j
v
j
donde J
0
J es nito.
Luego, como sabemos que v
W
(v) W

, tenemos que
0 =< v
W
(v) W

, v
j
>=< v, v
j
>
j
es decir

j
=< v, v
j
>
y, en particular,

W
(v) =

jJ
0
< v, v
j
> v
j
13.8. Existencia de bases ortonormales
Denicin 13.8.1. Sea V un espacio vectorial sobre un cuerpo K C, con un
producto interior positivo denido <, >. Una base B de V es llamada ortogonal si
cada par de vectores diferentes de B son ortogonales. Si adems cada vector tiene
norma 1, entonces decimos que B es una base ortonormal.
Observacin 13.8.2. Sea B = v
j

jJ
una base ortogonal de V , entonces
w
j
= v
j
/|v
j
|
jJ
dene una base ortonormal de V .
Denicin 13.8.3. Sea V un espacio vectorial sobre un cuerpo K C, con
un producto interior positivo denido <, >. Un subconjunto S V es llamado
ortogonal si todo par de vectores son ortogonales entre si. Si adems cada uno uno
de ellos tiene norma uno, entonces decimos que es un conjunto ortonormal.
Teorema 13.8.4. Si V es un espacio vectorial sobre un cuerpo K C, con un
producto interior positivo denido <, >, entonces V tiene una base ortonormal.
116 CAPTULO 13. ESPACIOS VECTORIALES CON PRODUCTO INTERIOR
Demonstracin. Sea / el conjunto formado por todos los subconjuntos
ortonormales de V . Consideremos la relacin dada por inclusin, es decir,
U, V / son tales que U V s y slo si U V .
Consideremos una cadena ( / y formemos el subconjunto de V dado por
X =
_
UC
U
Veamos que X es un conjunto ortonormal. En efecto, supongamos que tenemos
vectores v
1
, v
2
X. Entonces debe existir un elemento U ( tal que v
1
, v
2
U.
Como U es ortonormal, tenemos que v
1
, v
2
es un conjunto ortonormal.
De esta manera, vemos que X / y que X es una cota superior para la cadena
(. Esto nos dice que toda cadena en (/, ) posee cota superior. El lema de Zorn
entonces nos asegura la existencia de un elemento maximal B /. Luego, B V
es un conjunto ortonormal.
Veamos ahora B es una base. Ya que todo conjunto ortonormal es necesariamente
un conjunto linealmente independiente, lo nico que nos falta vericar es que B
genera V . Si esto no fuese as, entonces existe un vector v < B >

, v ,= 0
V
.
Pero en este caso, B

= B v /, B B

y B

,= B, una contradiccin a la
maximilidad de B.
13.8.1. Proceso de ortoginalizacin de Gramm-Schmidt. En el caso de di-
mensin nita podemos ser an ms concretos con respecto a la existencia de
bases ortonormales.
Teorema 13.8.5 (Proceso de Gram-Schmidt). Si dim
K
V = n y B =
v
1
, ..., v
n
es una base de V , entonces existe una base ortonormal / =
w
1
, ..., w
n
de manera que el subespacio generado por v
1
, ..., v
j
es tambin
generado por w
1
, ..., w
j
, para todo j = 1, ...., n.
Demonstracin. Si denimos
_

_
u
1
= v
1
u
j
= v
j

j1

k=1
< u
k
, v
j
>
|u
k
|
2
u
k
, j 2
entonces / = w
1
= u
1
/|u
1
|, ..., w
n
= u
n
/|u
n
| es nuestra base ortogonal
buscada.
La construccin hecha para el caso de dimensin nita funciona funciona perfec-
tamente bien para el caso de dimensin innita numerable.
13.8. EXISTENCIA DE BASES ORTONORMALES 117
Teorema 13.8.6 (Proceso de Gram-Schmidt). Si V tienen dimensin in-
nita pero numerable y B = v
j

j=1
es una base de V , entonces existe una
base ortonormal / = w
j

j=1
de manera que el subespacio generado por
v
1
, ..., v
j
es tambin generado por w
1
, ..., w
j
, para todo j = 1, 2, ....
Observacin 13.8.7. Este proceso es muy usado cuando estudiamos series de
Fourier.
Ejemplo 13.8.8. Sea V un espacio vectorial sobre el cuerpo K Cde dimen-
sin nita dim
K
V = n que admite un producto interior positivo denido <, >.
El proceso de Gram-Schmidt nos asegura la existencia de una base ortonormal
B = v
1
, ..., v
n

Si escribimos
v =
n

j=1

j
v
j
w =
n

j=1

j
v
j
entonces
< v, w >=
n

j=1

j
= (
1

n
)
_
_
_

1
.
.
.

n
_
_
_
Luego, si usamos el isomorsmo de vectores coordenadas

B
: V M(n 1; K) :
n

j=1
x
j
v
j

_
_
_
x
1
.
.
.
x
n
_
_
_
entonces
< v, w >=<
B
(v),
B
(w) >
0
,
donde
< x, y >
0
=
t
x y
es el producto interior positivo denido usual en M(n 1; K).
Escojamos ahora una base cualquiera de V , digamos
B
1
= w
1
, ...., w
n

entonces tenemos que si escribimos


v =
n

j=1

j
w
j
118 CAPTULO 13. ESPACIOS VECTORIALES CON PRODUCTO INTERIOR
w =
n

j=1

j
w
j
entonces
< v, w >=
n
P
n
i=1

j=1

i
< w
j
, w
i
>=
= (
1

n
)
_
_
_
< w
1
, w
1
> < w
1
, w
n
>
.
.
.
.
.
.
.
.
.
< w
n
, w
1
> < w
n
, w
n
>
_
_
_
. .
A
_
_
_

1
.
.
.

n
_
_
_
Las propiedades de producto interior positivo denido de <, > permiten asegurar
las siguientes propiedades de la matriz A M(n n; K) :
(i)
t
A = A;
(ii) A es positiva denida, es decir, para todo x M(n 1; K) 0 vale que
t
xAx > 0
Ejercicio 35. Verique que si A M(n n; K) satisface que
(i)
t
A = A; y
(ii) A es positiva denida,
entonces
< x, y >=
t
xAy
dene un producto interior positivo denido en M(n 1; K).
Ya que dos espacios vectoriales sobre el mismo cuerpo K son isomorfos cuando
ellos tienen la misma dimensin, obtenemos el siguiente hecho.
Teorema 13.8.9. Si V es un espacio vectorial sobre el cuerpo K C de
dimensin nita, entonces existe un producto interior positivo denido en V .
Ejercicio 36. Vericar que el proceso de Gram-Schmidt puede usarse para
ortogonalizar cualquier subconjunto de vectores de V (no necesariamente lineal-
mente independiente).
13.9. TEOREMA DE REPRESENTACIN DE RIEZ 119
13.9. Teorema de representacin de Riez
Supongamos que tenemos un espacio vectorial V , sobre un cuerpo K C, con
un producto interior positivo denido <, >, con dim
K
V = n.
Si K R, entonces no es difcil ver que <, > resulta ser una dualidad entre V y
si mismo. En particular, el teorema de Riez (ver el captulo de dualidad) nos dice
que si dim
R
V < , entonces para toda funcin lineal L : V R existe un y
slo un vector v
L
V de manera que L(w) =< w, v
L
>, para todo w V .
Pero en el caso que el cuerpo K contenga vectores complejos no reales, el prp-
ducto <, >no dene una dualidad en V . De todas maneras, es claro que para todo
v V la funcin
L
v
: V K : w l
v
(w) =< w, v >
resulta ser una funcin lineal, es decir, L
v
V

. Adems, si tenemos que L


v
1
=
L
v
2
, entonces
< w, v
1
v
2
>= 0, w V
de donde obtenemos que v
1
= v
2
.
Recprocamente, supongamos que tenemos una funcin lineal L V

. Esco-
jamos una base ortonormal v
1
, ..., v
n
. Luego,
L
_
_
n

j=1
x
j
v
j
_
_
=
n

j=1
x
j
L(v
j
)
Sea
j
= L(v
j
) y sea v =

n
j=1

j
v
j
. Entonces
<
n

j=1
x
j
v
j
, v >=
n

j=1
x
j

j
= L
_
_
n

j=1
x
j
v
j
_
_
de donde obtenemos que para toda L V

existe v V tal que L = L
v
.
Teorema 13.9.1 (Teorema de representacin de Riez). Sea V un espacio
vectorial, sobre un cuerpo K C, con un producto interior positivo denido
<, > y de dimensin nita. Entonces la funcin
L : V V

: v L
v
=< , v >
es una biyeccin. Si adems K R, entonces L es un isomorsmo. En la
situacin general, tenemos que
L(v
1
+v
2
) = L
v
1
+L
v
2
L(v) = L
v
120 CAPTULO 13. ESPACIOS VECTORIALES CON PRODUCTO INTERIOR
13.10. Problemas
1.- Considere en R
4
la funcin
< (x
1
, x
2
, x
3
, x
4
), (y
1
, y
2
, y
3
, y
4
) >= x
1
y
1
+ 2x
2
y
2
+ 3x
3
y
3
+ 4x
4
y
4
y verique que esta es un producto interior Euclidiano.
2.- En R
2
[x] considere la funcin
< a
0
+a
1
x +a
2
x
2
, b
0
+b
1
x +b
2
x
2
>= a
0
b
0
+a
1
b
1
+a
2
b
2
y verique que esta es un producto interior Euclidiano. Calcule el ngulo entre
los vectores x +x
2
y x + 1.
3.- En R
2
[x] considere la funcin
< p(x), q(x) >=
_
1
0
p(x)q(x) dx
y verique que esta es un producto interior Euclidiano. Calcule el ngulo entre
los vectores x +x
2
y x + 1.
4.- Escriba como queda la desigualdad de Schwarz para C
(0)
[a, b] respecto al
producto interior Euclidiano
< f(x), g(x) >=
_
b
a
f(x)g(x) dx
5.- Sea V un espacio vectorial con un producto interior positivo denido <, >.
(i) Si L GL(V ), entonces dena
< v, w >
L
=< L
1
(v), L
1
(w) >
y verique que <, >
L
es un producto interior positivo denido en V .
(ii) Concluir que si existe m 1, 2, 3, ... tal que L
m
= I, entonces existe
un producto interior positivo denido <, >
L
sobre V de manera que valga
la identidad
< L(v), L(w) >
L
=< v, w >
L
(iii) Verique que si G < GL(V ) es un grupo nito, entonces existe un un
producto interior positivo denido <, >
G
sobre V de manera que valga la
identidad
< L(v), L(w) >
G
=< v, w >
G
, L G
6.- Sea V un espacio vectorial con un producto interior positivo denido <, >.
Si v
1
, ..., v
n
es un conjunto de vectores ortogonales, entonces vericar la
igualdad
|
1
v
1
+ +
n
v
n
|
2
= [
1
[
2
|v
1
|
2
+ +[
n
[
2
|v
n
|
2
13.10. PROBLEMAS 121
7.- Considere el espacio vectorial real C
(0)
[0, L] con el producto interior Euclid-
iano
< f(x), g(x) >=
_
L
0
f(x)g(x) dx
Considere el conjunto de vectores de V dado por
S = 1
_
cos(
2kx
L
), sin(
2kx
L
) : k = 1, 2, 3, ...
_
(i) Verique que S es un conjunto linealmente independiente.
(ii) Verique que S es un conjunto ortogonal, es decir, dos vectores cua-
lesquiera de S que sean diferente son ortogonales.
(iii) Sea W el subespacio de C
(0)
[0, L] generado por S. Use el proceso de
Gram-Schmidt para encontrar una base ortonormal de W.
8.- Sea V un espacio vectorial sobre un cuerpo K de dimensin nita. Sea W <
V donde dim
K
W = m y escribamos dim
K
V = n + m. Escoja una base
ortonormal de W, digamos v
1
, ..., v
m
y complete a una base de V , digamos
B. Verique que
M(
W
, B, v
1
, ..., v
m
) = (I
mm
0
mn
)
9.- Considere R
3
con el producto interior Euclidiano
< (x, y, z), (u, v, w) >= xu + 2yv +zw
y el subespacio W generado por los vectores (0, 1, 0) y (0, 0, 1). Calcule el
vector de W ms prximo a (1, 2, 3), es decir,
W
(1, 2, 3).
10.- En R
3
[x] considere el producto interior Euclidiano
< p(x), q(x) >=
_
1
0
p(x)q(x) dx
(i) Calcule una base ortonormal de R
3
[x].
(ii) sea W =< 1, x
2
>= a+bx
2
: a, b R. Calcular el vector de W ms
prximo a p(x) = 1 +x +x
2
+x
3
.
11.- En C
(0)
[0, L] considere el producto interior Euclidiano
< f(x), g(x) >=
_
L
0
f(x)g(x) dx
y el conjunto
S
n
= 1
_
cos(
2kx
L
), sin(
2kx
L
) : k = 1, 2, 3, ..., n
_
Sea W
n
el subespacio generado por S
n
. Determine el vector de W
n
ms
prximo a f C
(0)
[0, L].
122 CAPTULO 13. ESPACIOS VECTORIALES CON PRODUCTO INTERIOR
12.- Sea x = (x
1
x
2
x
n
) M(n 1; R), x ,= 0
M(n1;R)
, y considere la
matriz
H
x
= I 2
x
t
x
t
xx
M(n n; R)
La matriz H
x
es llamada una matriz de Householder . Vericar las siguientes
propiedades :
(i)
t
H
x
= H
x
= H
1
x
;
(ii) concluir que las columnas de H
x
forman una base ortonormal para
M(n 1; R) ;
(iii) (Interpretacin geomtrica) Identiquemos M(n 1; R) con R
n
por
(y
1
y
n
) (y
1
, ..., y
n
)
El producto interior Euclidiano que usamos en R
n
es el usual
< (y
1
, ..., y
n
), (z
1
, ...., z
n
) >=
n

j=1
y
j
z
j
Sea W =< x >

< R
n
y considre la funcin
L
x
: R
n
R
n
que reeja cada y = (y
1
, ..., y
n
) R
n
respecto al plano W R
n
, es
decir, tomamos la nica lnea Euclidiana l
y
que pasa por y y
W
(y) y
denimos por L
x
(y) como aquel punto de tal recta que se se encuentra a
la misma distancia de
W
(y) que es diferente de y en el caso y / W. En
otras palabras, L
x
no es nada ms que la reexin en W. Para cada y R
n
tenemos que
x =
W
(y) +
W
(y)
Ver que

W
(y) =
< y, x >
|x|
2
x
L
x
(y) =
W
(y) +
W
(y) = y 2
< y, x >
|x|
2
x = y 2
x
t
x
|x|
2
y = T
Hx
(y)
donde T
A
es la transformacin lineal inducida por multiplicacin por la
matriz A.
(iv) Consideremos la reexin L
x
, la cual tiene por el item anterior matriz
asociada H
x
(en la base cannica e
1
, ..., e
n
). Si y = x |x|
2
e
1
, en-
tonces L(y), e
1
es un conjunto linealmente dependiente.
(v) Sea n = 3 y z = (1, 2, 3). Determine x ,= (0, 0, 0) de manera que
L
x
(z), e
3
sea linealmente dependiente.
13.10. PROBLEMAS 123
13.- En muchos modelos matemticos (lineales) es necesario determinar parmet-
ros especcos del modelo para aproximar la conducta real del fenmeno moe-
lado (recordar el problema de ajuste lineal). En otras palabras, tenemos dada
una matriz A (n m; R) y una matriz columna b M(n 1; R) y ahora
queremos determinar una matriz columna x M(m1; R) de manera que Ax
sea lo ms prximo posible a b. Consideremos la transformacin lineal
T
A
: M(m1; R) M(n 1; R) : x Ax
Si b IM(T
A
), entonces sabemos que existe x tal que Ax = b. Podemos
usar el mtodo de Gauss para encontrar x (en general no es nico).
Si b / IM(T
A
), entonces lo que buscamos es un vector de Im(T
A
) lo ms
prximo a b, es decir, el vector
Im(T
A
)
(b), donde estamos usando el producto
interior Euclidiano cannico en M(n 1; R) dado por
< z, w >=
t
zw =
n

j=1
z
j
w
j
luego,

Im(T
A
)
(b) =
n

j=1
< b, e
j
> e
j
donde e
1
, ..., e
n
es la base cannica que resulta ser ortonormal para este pro-
ducto Euclidiano. Ahora, uno utiliza el mtodo de Gauss para encontrar x tal
que T
A
(x) =
Im(T
A
)
(b).
Determinar un algoritmo computacional que permita resolver el problema
anterior.
14.- Consideremos M(n 1; R) con el producto interior Euclidiano cannico en
M(n 1; R) dado por
< z, w >=
t
zw =
n

j=1
z
j
w
j
Sea v
1
, ..., v
q
un conjunto linealmente independiente de M(n 1; R) y
sea w
1
, ..., w
q
el conjunto ortonormal que se obtiene al usar el proceso de
Gram-Schmidt. Vericar la igualdad
(v
1
v
q
)
nq
= (w
1
w
q
)
nq
_
_
_
_
_
1 s
12
s
13
s
1(q1)
s
1q
0 1 s
23
s
2(q1)
s
2q
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 0 1
_
_
_
_
_
qq
donde
s
ij
=
< w
i
, v
j
>
|w
i
|
2
124 CAPTULO 13. ESPACIOS VECTORIALES CON PRODUCTO INTERIOR
Concluir que toda matriz A M(n q; R) puede escribirse de la forma
A = UT
donde U M(n q; R) es una matriz cuyas columnas son mutualmente or-
togonales y T M(q q; R) es una matriz triangular superior.
15.- Sea K C un cuerpo y V un espacio vectorial sobre K con dim
K
V < .
Vericar que se puede construir un producto interior positivo denido en V .
16.- Sea <, > un producto interior interior positivo denido sobre V y sea L :
V V una transformacin lineal tal que L
k
= I para cierto k 1, 2, 3, ....
Vericar que es posible construir un producto interior positivo denido en V ,
digamos <, >
L
de manera que para todo v, w V vale la igualdad
< L(v), L(w) >
L
=< v, w >
L
17.- Sea <, > un producto interior positivo denido en V y sea W < V .
Supongam que L : V V es una transformacin lineal tal que para todo
v, w V vale la igualdad < L(v), L(w) >=< v, w >. Vericar que si
W es un subespacio invariante por L, entonces W

tambin resulta ser un


subespacio invariante por L.
CAPTULO 14
PRODUCTOS INTERIORES Y FUNCIONES
DETERMINANTES
En este captulo nuestros espacios vectoriales sern denidos sobre un cuerpo
K R ya que en tal caso los productos interiores positivo denidos denen una
autodualidad.
14.1. Funciones determinantes y productos interiores
Sea V un espacio vectorial sobre un cuerpo K R, de dimensin nita
dim
K
V = n, y sea <, > un producto interior positivo denido sobre V . En-
tonces, si escojemos una base de V , digamos B = v
1
, ..., v
n
, entonces tenemos
las siguientes propiedades :
(i) Podemos construir una base dual B

= v

1
, ..., v

n
de V , es decir,
< v
j
, v

k
>=
_
1 j = k;
0 j ,= k
(ii) Si consideramos la funcin n-lineal
: V V
. .
n veces
K : (w
1
, ...., w
n
) v

1
(w
1
) v

n
(w
n
)
entonces la funcin

B
=

Sn
sign()

,
donde

(w
1
, ..., w
n
) = (w
(1)
, ...., w
(n)
), es una funcin determinante la
cual satisface que

B
(v
1
, ..., v
n
) = 1
(iii) Si es una funcin determinante en V , entonces sabemos que existe K
tal que =
B
. Ms an, sabemos que si ,= 0, entonces existe una base o
de V de manera que =
S
.
126 CAPTULO 14. PRODUCTOS INTERIORES Y FUNCIONES DETERMINANTES
Para cada u
1
, ..., u
n
V , podemos construir una funcin determinante por

u
1
,...,un
(w
1
, ..., w
n
) = det
_
_
_
< w
1
, u
1
> < w
1
, u
n
>
.
.
.
.
.
.
.
.
.
< w
n
, u
1
> < w
n
, u
n
>
_
_
_
luego, debe existir (u
1
, ..., u
n
) K de manera que

u
1
,...,un
(w
1
, ..., w
n
) = (u
1
, ..., u
n
)
B
(w
1
, ..., w
n
)
En particular, tenemos que
(u
1
, ..., u
n
) =
u
1
,...,un
(v
1
, ..., v
n
) = det
_
_
_
< v
1
, u
1
> < v
1
, u
n
>
.
.
.
.
.
.
.
.
.
< v
n
, u
1
> < v
n
, u
n
>
_
_
_
y como consecuencia, vemos que
: V V
. .
n veces
K : (u
1
, ...., u
n
) (u
1
, ..., u
n
)
es tambin una funcin determinante y, debe existir K tal que
(u
1
, ..., u
n
) =
B
(u
1
, ..., u
n
)
Comno consecuencia de lo anterior, obtenemos la igualdad
det
_
_
_
< w
1
, u
1
> < w
1
, u
n
>
.
.
.
.
.
.
.
.
.
< w
n
, u
1
> < w
n
, u
n
>
_
_
_ =
B
(w
1
, ..., w
n
)
B
(u
1
, ..., u
n
)
Por otro lado

B
(v
1
, ..., v
n
)
B
(v

1
, ..., v

n
) = det
_
_
_
< v
1
, v

1
> < v
1
, v

n
>
.
.
.
.
.
.
.
.
.
< v
n
, v

1
> < v
n
, v

n
>
_
_
_ = det(I
nn
) = 1
Si la base B es ortonormal, entonces tenemos que v

j
= v
J
, en cuyo caso, de lo
anterior, obtenemos que = 1.
Denicin 14.1.1. Sea V un espacio vectorial sobre un cuerpo K R, de
dimensin nita dim
K
V = n, y sea <, > un producto interior positivo denido
sobre V . La matriz de Gram de una coleccin w
1
, ..., w
n
de vectores de V es
_
_
_
< w
1
, w
1
> < w
1
, w
n
>
.
.
.
.
.
.
.
.
.
< w
n
, w
1
> < w
n
, w
n
>
_
_
_
14.1. FUNCIONES DETERMINANTES Y PRODUCTOS INTERIORES 127
Ejercicio 37. Las las de la matriz de Gram
_
_
_
< w
1
, w
1
> < w
1
, w
n
>
.
.
.
.
.
.
.
.
.
< w
n
, w
1
> < w
n
, w
n
>
_
_
_
son linealmente dependiente s y slo si el conjunto w
1
, ..., w
n
es linelamente
dependiente.
Todo lo anterior se resume en el siguiente teorema.
Teorema 14.1.2. Sea V un espacio vectorial sobre un cuerpo K R, de
dimensin nita dim
K
V = n, y sea <, > un producto interior positivo denido
sobre V .
(i) Si B = v
1
, ..., v
n
es una base ortonormal, entonces
det
_
_
_
< w
1
, u
1
> < w
1
, u
n
>
.
.
.
.
.
.
.
.
.
< w
n
, u
1
> < w
n
, u
n
>
_
_
_ =
B
(w
1
, ..., w
n
)
B
(u
1
, ..., u
n
)
(ii) El determinante de Gram de los vectores w
1
, ..., w
n
V satisface
G(w
1
, ..., w
n
) = Delta
B
(w
1
, ..., w
n
)
2
0
(iii) Si w
1
, ..., w
n
es un conjunto linealmente dependiente de V , entonces
G(w
1
, ..., w
n
) = 0.
(iv) Si w
1
, ..., w
n
es una base de V , entonces G(w
1
, ..., w
n
) > 0.
Ejemplo 14.1.3 (Volmenes de paralileppedos). Sea V un espacio vectorial
sobre el cuerpo R, de dimensin nita dim
R
V = n, y sea <, > un producto
interior Euclidiano sobre V . Sea w
1
, ..., w
n
una base de V . Entonces, el par-
alileppedo generado por tal base es
P(w
1
, ..., w
n
) =
_
_
_
n

j=1

j
w
j
:
j
[0, 1]
_
_
_
El volmen de P(w
1
, ..., w
n
) se dene como
V ol(P(w
1
, ..., w
n
)) =
_
G(w
1
, ..., w
n
)
128 CAPTULO 14. PRODUCTOS INTERIORES Y FUNCIONES DETERMINANTES
14.2. Problemas
1.- Considere R
2
con el producto interior Euclidiano natural
< (a, b), (c, d) >= ac +bd
Sea w
1
, w
2
una base de R
2
y sean
a = |w
1
|
2
, b = |w
2
|
2
, c = |w
2
w
1
|, s =
1
2
(a +b +c)
Vericar que
V ol(P(w
1
, w
2
)) = 2
_
s(s a)(s b)(s c)
2.- Sea V un espacio vectorial sobre un cuerpo R, de dimensin nita dim
R
V =
n, y sea <, >un producto interior Euclidiano sobre V . Vericar la desigualdad :
G(w
1
, ..., w
n
) |w
1
|
2
|w
2
|
2
|w
n
|
2
Ind : Tome una base ortonormal v
1
, .., v
n
de V con |v
j
| = |w
j
|.
3.- (Desigualdad de Hadamard) Sean a
ij
R. Vericar la desigualdad :
det
_
_
_
a
11
a
1n
.
.
.
.
.
.
.
.
.
a
n1
a
nn
_
_
_
n

j=1
[a
1j
[
2
n

j=1
[a
2j
[
2

n

j=1
|a
nj
|
2
Ind : Usar 2.- con V = R
n
y el producto interior Euclidiano natural
< (a
1
, ..., a
n
), (b
1
, ..., b
n
) >=
n

j=1
a
j
b
j
CAPTULO 15
NORMAS DE TRANSFORMACIONES LINEALES
Sean V y W espacios vectoriales sobre le mismo cuerpo K C y supongamos
que tenemos productos interiores positivos denidos <, >
V
para V y <, >
W
para
W.En modelacin, es importante entender el tamao de las magnitudes de salida
de un proceso lineal
L : V W
en trminos de las magnitudes de las entradas. Para esto, uno compara estos dos
tipos de tamaos.
Denicin 15.0.1. Sea V un espacio vectorial sobre un cuerpo K . Una
norma en V es una funcin
| | : V [0, +) : v |v|
que satisface las siguiente propiedades :
(i) |v| 0, para todo v V ;
(ii) |v| = 0 v = 0
V
;
(iii) |v| = [[|v|, para todo v V y todo K.
(iv) (Desigualdad triangular) para todo par v, w V vale que
|v +w| |v| +|w|
Ejemplo 15.0.2. Cada producto interior positivo dene una norma, pero exis-
ten normas que no provienen de productos interiores.
Denicin 15.0.3. Sean V y W espacios vectoriales sobre le mismo cuerpo
K C y supongamos que tenemos normas | |
V
para V y | |
W
para W. Si
130 CAPTULO 15. NORMAS DE TRANSFORMACIONES LINEALES
L : V W es una transformacin lineal, entonces su norma, respecto a las
normas anteriores en V y W, es denida como :
|L|
L(V,W)
= sup
_
|L(v)|
W
|v|
V
: v V 0
V

_
= sup |L(v)|
W
: v V, |v|
V
= 1
Teorema 15.0.4. Sean V , W y Z espacios vectoriales sobre el mismo cuerpo
K C, cada uno de ellos con una norma. Sean
L
1
, L
2
: V W
L
3
: W Z
transformaciones lineales de manera que |L
1
|
L(V,W)
, |L
2
|
L(V,W)
y |L
3
|
L(W,Z)
son nitos. Entonces :
(i) |L
1
|
L(V,W)
0 ;
(ii) |L
1
|
L(V,W)
= 0 L
1
= 0
L(V,W)
;
(iii) si K, entonces |L
1
|
L(V,W)
| = [[|L
1
|
L(V,W)
;
(iv) |L
1
+L
2
|
L(V,W)
= |L
1
|
L(V,W)
+|L
2
|
L(V,W)
;
(v) si v V , entonces |L
1
(v)|
W
|L
1
|
L(V,W)
|v|
V
;
(vi) |I
V
|
L(V,V )
= 1 ;
(vii) |l
3
L
2
|
L(V,Z)
|L
3
|
L(W,Z)
|L
2
|
L(V,W)
;
(viii) si V = W, entonces (de (vii)) tenemos que para todo k = 1, 2, 3, ..., vale
que
|L
k
1
|
L(V,V )
|L
1
|
k
L(V,V )
Ejercicio 38. Vericar las propiedades anteriores.
Ejercicio 39. Sean V y W espacios vectoriales sobre el mismo cuerpo
K C, cada uno de ellos con una norma. Sea L(V, W)
finito
el subconjunto
de L(V, W) formado de aquellas transformaciones lineales de norma nita.
Vericar que L(V, W)
finito
< L(V, W).
Teorema 15.0.5. Sean V y W espacios vectoriales sobre el mismo cuerpo
K C, cada uno de ellos con un producto interior positivo denido y V de
dimensin nita. Entonces, para toda L L(V, W) se tiene que |L|
L(V,W)
< .
En particular, | |
L(V,W)
dene una norma sobre el espacio vectorial L(V, W).
CAPTULO 15. NORMAS DE TRANSFORMACIONES LINEALES 131
Demonstracin. Sea v
1
, ..., v
n
una base ortonormal de V . Si v V es tal
que |v|
V
= 1, entonces, escribiendo v =

n
j=1
x
j
v
j
, tenemos que
1 = |v|
2
=< v, v >
V
=
n

j=1
x
2
j
En particular, tenemos que x
j
[1, 1]. Ahora,
|L(v)|
W
= |
n

j=1
x
j
L(v
j
)|
n

j=1
[x
j
[|L(v
j
)|
W

n

j=1
|L(v
j
)|
W
<
Ejemplo 15.0.6. Consideremos los espacios vectoriales V = R
n
y W = R
m
,
ambos con el producto interior Euclidiano cannica, es decir
< x, y >
V
=
n

j=1
x
j
y
j
< x, y >
W
=
m

j=1
x
j
y
j
Sabemos que para toda transformacin lineal
L : R
n
R
m
: (x
1
, ..., x
n
) (y
1
, ..., y
m
)
existe una matriz A M(n m; R) de manera que
_
_
_
y
1
.
.
.
y
m
_
_
_ = A
_
_
_
x
1
.
.
.
x
n
_
_
_
Podemos denir la norma de A como la norma de L, es decir,
|A|
2
= |L|
L(R
n
,R
m
)
= Mximo |L(x)|
R
m : |x|
R
n = 1
Una frmula para |A|
2
en trminos de A involucrar ciertos nmeros asociados
a A, llamados valores propios, los cuales veremos en el prximo captulo.
Observacin 15.0.7. En R
n
uno puede utilizar las siguientes normas (que no
provienen de un producto interior) para la denicin de la norma de una transfor-
macin lineal L : R
n
R
m
|(x
1
, ..., x
n
)|
1
= [x
1
[ + +[x
n
[
|(x
1
, ..., x
n
)|

= Mximo[x
1
[, ..., [x
n
[
132 CAPTULO 15. NORMAS DE TRANSFORMACIONES LINEALES
En cada caso, cada una de ellas nos dar una norma para una matriz :
|A|

= Mximo
_
_
_
n

j=1
[a
ij
[ : 1 i m
_
_
_
|A|
1
= Mximo
_
m

i=1
[a
ij
[ : 1 j n
_
Ejemplo 15.0.8. Sea
A =
_
1 2
3 4
_
Entonces
|A|

= 7, |A|
1
= 6
Cunto vale |A|
2
?
CAPTULO 16
VALORES Y VECTORES PROPIOS
16.1. Introduccin
Supongamos que tenemos una transformacin lineal L : V V , donde
dim
K
V = n, y tenemos el problema dinmico Av
(j)
= v
(j+1)
, donde
v
(j)
V . Si escogemos una base B para V , entonces este problema se trans-
forma en un problema matricial Ax
(j)
= x
(j+1)
, donde A = M(L, B, B) y
x
(j)
M(n 1; K). Si podemos escoger la base B de manera que A tenga
muchos ceros, entonces tendremos menos problemas computacionales. En este
captulo comenzamos con el estudio de busqueda de bases apropiadas de V que
nos den matrices simples.
Supongamos que podemos encontrar W < V , W ,= V , que sea un subespacio
invariante por L. Si escogemos una base de W y la completamos a una base de
V , entonces la representacin matricial de L en tal base tendr la forma
A =
_
A
1
A
2
0 A
3
_
donde A
1
es una matriz cuadrada de tamao igual a dim
K
W, A
3
es una matriz
cuadrada de tamao igual a dim
K
V dim
K
W y A
2
es una matriz de tamao
dim
K
W (dim
K
V dim
K
W). Luego, nuestra estrategia ser encontrar sube-
spacios invariantes por L.
Ejercicio 40. Sea L : V V un isomorsmo y W < V un subespacio
invariante por L. Si dim
K
V < , vericar que L : W W es tambin un
isomorsmo. Qu pasa si dim
K
V = ?
16.2. Valores y vectores propios
134 CAPTULO 16. VALORES Y VECTORES PROPIOS
Denicin 16.2.1. Sea L : V V una transformacin lineal, donde V es
un espacio vectorial sobnre algn cuerpo K. Un vector propio de L es un vector
v V 0
V
para el cual existe un escalar K, llamado un valor propio
de L, satisfaciendo la igualdad L(v) = v. Denotaremos por Spec
K
(L) K al
conjunto de los valores propios de L en K y por V

al subespacio de V generado
por los vectores propios de L respecto al valor propio K.
Es importante tener en cuenta el cuerpo sobre el cual estamos trabajando cunado
queremos ver los valores propios. El siguiente ejemplo muestra el por que.
Ejemplo 16.2.2. Consideremos el cuerpo C y la funcin L : C C : z
e
2i/3
z.
Si consideramos Ccomo un espacio vectorial sobre C, entonces tenemos que L es
una transformacin lineal (de hecho un isomorsmo). En este caso tenemos que
Spec(L) = e
2i/3

Tambin podemos ver Ccomo un espacio vectorial sobre R, en cuyo caso tenemos
que L es un isomorsmo lineal, pero
Spec
R
(L) =
Teorema 16.2.3. Sean
1
,=
2
K valores propios diferentes para la trans-
formacin lineal L : V V . Si S
j
V

j
es un conjunto linealmente independi-
ente, entonces S
1
S
2
es tambin un conjunto linealmete independiente.
Demonstracin. Sean v
1
, ..., v
n
S
1
, w
1
, ..., w
m
S
2
y consideremos es-
calares
1
, ...,
n
,
1
, ...,
m
K de manera que
(1)
n

j=1

j
v
j
+
m

r=1

r
w
r
= 0
V
Si evaluamos (1) por L obtenemos
(2)
1
n

j=1

j
v
j
+
2
m

r=1

r
w
r
= 0
V
Al multiplicar (1) por
2
y restarselo a (2) nos da
(3) (
1

2
)
n

j=1

j
v
j
= 0
V
Como S
1
es un conjunto linealmente independiente, debemos tener que
(
1

2
)
j
= 0
16.3. CASO DE DIMENSIN FINITA 135
pero como
1
,=
2
, esto obliga a tener
j
= 0, para todo j = 1, .., n.
Ahora, ecuacin (1) y la condicin que S
2
es un conjunto linealmente independi-
ente, nos da que
j
= 0 para todo j = 1, ..., m.
Corolario 16.2.4. Sea L : V V una transformacin lineal y sea, para cada
Spec
K
(L), B

una base de V

. Entonces,
_
Spec
K
(L)
B

es un conjunto linealmente independiente de V .


Es claro de la denicin que si v V 0
V
es un vector propio de L, con
valor propio K, entonces W =< v > es un subespacio invariante por L. Al
completar v a una base de V tendremos que su representacin matricial ser de
la forma siguiente :
A =
_
A
2
0 A
3
_
donde A
3
es una matriz cuadrada de tamao igual a (dim
K
V 1) y A
2
es una
matriz de tamao 1 (dim
K
V 1).
Nuestro siguiente problema ser el poder determinar los vectores y valores propios
de L. Partamos observando que si v V 0
V
es un vector propio de L, con
valor propio K, entonces v Ker(L I). Recprocamente, todo vector
no cero de Ker(L I) es un vector propio de L con valor propio . As, para
determinar los valores propios de L debemos buscar todos los escalares K de
manera que la transformacin lineal L I : V V no es inyectiva.
16.3. Caso de dimensin nita
Ahora, en el caso que dim
K
V = n, tenemos que a transformacin lineal LI :
V V no es inyectiva s y slo si no es un isomorsmo, lo cual es equivalente a
tener que el determinante de ella es cero, es decir, tenenos la siguiente descripcin.
Teorema 16.3.1. Sea L : V V una transformacin lineal donde V es un
espacio vectorial de dimesin nita sobre un cuerpo K. Los valores propios de L
en K son exctamente aquellos inK que satisfacen que det(L I) = 0. Los
vectores propios de L, respecto al valor propio K, son aquellos vectores no
cero de Ker(L I).
136 CAPTULO 16. VALORES Y VECTORES PROPIOS
Por la denicin de una matriz, lo anterior puede escribirse de la siguiente manera.
Teorema 16.3.2. Sea L : V V una transformacin lineal donde V es un
espacio vectorial de dimesin nita, digamos dim
K
V = n, sobre un cuerpo K.
Sea B = v
1
, ..., v
n
una base de V y sea A = M(L, B, B). Si escogemos el
isomorsmo natural
: V M(n 1; K) :
n

j=1
x
j
v
j

_
_
_
x
1
.
.
.
x
n
_
_
_
entonces es valor propio de L s y slo si existe x M(n 1; K), x ,= 0,
tal que Ax = x, lo cual es equivalente a tener que det(A I) = 0, es decir,
tenemos la igualdad
Spec
K
(L) = Spec
K
(A)
Los vectores propios de L, respecto al valor propio K, son de la forma

n
j=1
x
j
v
j
donde
x =
_
_
_
x
1
.
.
.
x
n
_
_
_ M(n 1; K)
satisface Ax = x.
Denicin 16.3.3. Sea L : V V una transformacin lineal donde V es un
espacio vectorial de dimesin nita, digamos dim
K
V = n, sobre un cuerpo K.
El polinomio

L
() = det(L I), K
es llamado el polinomio caracterstico de L. De manera similar, si A M(n
n; K), entonces el polinomio

A
() = det(A I), K
es llamado el polinomio caracterstico de A.
Usando la frmula explcita que tiene un determinante (ver el captulo de deter-
minantes) se puede observar el siguiente hecho.
Teorema 16.3.4. Sea L : V V una transformacin lineal donde V es
un espacio vectorial de dimesin nita, digamos dim
K
V = n, sobre un cuerpo
K. Entonces el polinomio caracterstico
L
es un polinomio de grado n. Simi-
larmente, si A M(n n; K), entonces el polinomio caracterstico
A
es un
polinomio de grado n.
16.3. CASO DE DIMENSIN FINITA 137
Ejercicio 41. Sea L : V V una transformacin lineal donde V es un
espacio vectorial de dimesin nita, digamos dim
K
V = n, sobre un cuerpo K.
Sea B = v
1
, ..., v
n
una base de V y sea A = M(L, B, B). Vericar que

L
() =
A
()
Observacin 16.3.5. Recordemos que una de las propiedades del determi-
nante es que
det(AB) = det(A) det(B),
de donde vemos que para toda matriz invertible C vale que
det(CAC
1
) = det(A)
De esta manera, un cambio de base de V cambia la matriz que representa L, pero
el polinomio caracterstico no cambia.
Lo anterior nos dice que para calcular los valores propios de L una matriz
cuadrada A, debemos calcular los ceros de un polinomio en una variable.
Ejemplo 16.3.6. Sea
A =
_
_
0.8 0.2 0.1
0.1 0.7 0.3
0.1 0.1 0.6
_
_
M(3 3; R)
Podemos mirar A como la transformacin lineal
L : M(3 1; R) M(3 1; R) : x Ax
donde A es su representacin matricial en la base cannica de M(3 1; R)
B
can
=
_
_
_
e
1
=
_
_
1
0
0
_
_
, e
2
=
_
_
0
1
0
_
_
, e
3
=
_
_
0
0
1
_
_
_
_
_
es decir,
A = M(L, B
can
, B
can
)
En este caso

A
() = ( 0.5)( 0.6)( 1)
Luego, A tiene 3 valores propios diferentes, es decir,
Spec
R
(A) =
1
= 0.5,
2
= 0.6,
3
= 1
138 CAPTULO 16. VALORES Y VECTORES PROPIOS
Si escogemos
x =
_
_
1
2
1
_
_
, y =
_
_
1
1
0
_
_
, z =
_
_
9
7
4
_
_
,
entonces vemos que x es vector propio para el valor propio
1
, y es vector propio
para el valor propio
2
y z es vector propio para el valor propio
3
.
Observemos que B = x, y, z es una base de M(3 1; R) y que
B = M(L; B, B) =
_
_
0.5 0 0
0 0.6 0
0 0 1
_
_
En otras palabras, si C = M(I, B, B
can
), entonces
B = C
1
AC
Ejercicio 42. En el ejemplo anterior calcule C y determine el valor de
lim
k
A
k
y resuelva el problema 3.1.
Ejercicio 43 (Un modelo predador-presa). Sean dos poblaciones, una de el-
las es predadora y la otra es la presa. Denotemos el tamo de la poblacin
predadora en el tiempo k 0, 1, 2, 3, ... por x
k
y por y
k
el tamao al mismo
tiempo de la poblacin presa.
Supongamos que las presas, sin la presencia de de depredadores, tienen una tasa
de natalidad que excede a la tasa de mortandad, digamos y
k+1
= 1.5y
k
. En forma
anloga, supongamos que los depredadores, sin la presencia de presas, tienden a
morir, digamso x
k+1
= 0.5x
k
.
Supongamos tambin que en la presencia de presas los depredadores incrementan
su poblacin de manera proporcional al nmero de presas devoradas, digamos
x
k+1
= 0.5x
k
+ 0.3y
k
. En este caso, la poblacin de presas disminuye, es decir,
y
k+1
= 1.5y
k
+cx
k
, donde c R es alguna constante a determinar.
El modelo es entonces dado por
_
0.5 0.3
c 1.5
_
. .
A
_
x
k
y
k
_
=
_
x
k+1
y
k+1
_
Determinar los valores y vectores propios de A.
16.4. INVOLUCIONES 139
Ejercicio 44. Algunos modelos bsicos de resortes circuitos dan ecuaciones
diferenciales ordinarias lineales, por ejemplo,
x

+ax

+bx = c
Este es un tipo especial de un sistema lineal
y

= Ay,
donde
A =
_
a
11
a
12
a
21
a
22
_
y =
_
y
1
y
2
_
y

=
_
y

1
y

2
_
Los valores propios y vectores propios de A permiten determinar las soluciones
del sistema diferencial anterior. Describa estas.
16.4. Involuciones
En esta seccin mostraremos como construir representaciones matriciales simples
para el caso de isomorsmos de orden dos.
Denicin 16.4.1. Sea V un espacio vectorial sobre un cuerpo K, no nece-
sariamente de dimensin nita. Una involucin es una transformacin lineal L :
V V tal que L
2
= I.
Consideremos una involucin L : V V . La condicin L
2
= I nos dice que
L = L
1
, es decir, L es un isomorsmo, y en particular, 0 / Spec
K
(L).
Si Spec
K
(L), y v V 0
V
es vector propio asociado a , entonces
tenemos que
v = L
2
(v) = L(L(v)) = A(v) = L(v) =
2
v
de donde vemos que
Spec
K
(L) 1, 1
(i) Si para todo v V vale que L(v) = v, entonces L = I y Spec
K
(L) = 1.
(ii) Supongamos que v V 0
V
tal que L(v) ,= v, en particular, 1 /
Spec
K
(L). Si v V 0
V
, entonces w = v L(v) ,= 0
V
y vemos que
L(w) = w, es decir, 1 Spec
K
(L) y luego tenemos que Spec
K
(L) =
1. Ahora, si v V 0
V
, tenemos que
L(v +L(v)) = L(v) +L
2
(v) = L(v) +v = v +L(v)
140 CAPTULO 16. VALORES Y VECTORES PROPIOS
Como 1 / Spec
K
(L), debemos entonces tener que para todo v V vale
que v +L(v) = 0
V
, es decir, L = I.
(iii) Supongamos ahora que existen vectores v, w V 0
V
tales que L(v) = v
y L(w) = w, luego,
Spec
K
(L) = 1, 1
En este caso tenemos los subespacios de V siguientes :
V
1
= v V : L(v) = v
V
1
= v V : L(v) = v
que corresponden a los vectores propios de 1 y 1, respectivamente. Es claro
que tenemos que V
1
V
1
= 0
V
. Adems, tenemos que para todo v V
existen nicos vectores v
1
V
1
, v
2
V
1
tales que v = v
1
+v
2
. En efecto,
v
1
=
1
2
(v +A(v))
v
2
=
1
2
(v A(v))
Luego tenemos que V = V
1
V
1
, es decir, si escogemos una base de V
1
y
una base de V
1
, entonces su unin nos da una base B
A
de V . De esta manera,
hemos descompuesto V en suma de los dos subespacios propios, es decir,
V = V
1
V
1
16.4.1. Caso dim
K
V < . En caso que adems tenemos que dim
K
V < ,
lo hecho anteriormente nos produce una base B de V (escogiendo una base de
cada V
i
y luego uniendolas) de manera que la representacin de A es de la forma
siguiente :
M(L, B, B) =
_
I
p
0
0 I
q
_
donde p = dim
K
V
1
y q = dim
K
V
1
.
16.5. Par de involuciones que conmutan : Grupo de Klein
Sea V un espacio vectorial sobre un cuerpo K, no necesariamente de dimensin
nita, y sean L, T : V V transformaciones lineales tales que
L
2
= T
2
= (L T)
2
= I
Ejercicio 45. Vericar que, con la regla de composicin, el grupo generado
por L y T es isomorfo al grupo de Klein Z
2
2
.
16.5. PAR DE INVOLUCIONES QUE CONMUTAN : GRUPO DE KLEIN 141
De lo hecho anterioremente, vemos que V = V
1
V
2
, donde
V
1
= v V : L(v) = v, V
2
= v V : L(v) = v
Ahora, si v V
1
, entonces tenemos que
L(T(v)) = T(L(v)) = T(v),
es decir, V
1
es un subespacio invariante por T. Similarmente, si v V
2
, entonces
tenemos que
L(T(v)) = T(L(v)) = T(v) = T(v),
es decir, V
2
es un subespacio invariante por T.
Luego, tenemos isomorsmos
T : V
j
V
j
donde T
2
= I. Si procedemos como lo hicimos para L y V , podemos ver que si
V
j1
= v V
j
: T(v) = v
V
j2
= v V
j
: T(v) = v
entonces
V
j
= V
j1
V
j2
y en particular,
V = V
11
V
12
V
21
V
22
donde cada V
ij
es un subespacio invariante tanto por L como por T. En V
11
ten-
emos que L y T actan como la identidad, en V
12
tenemos que L acta como la
identidad y T acta por multiplicacin por 1, en V
21
tenemos que T acta como
la identidad y L acta por multiplicacin por 1 y en V
12
tenemos que L y T
actan por multiplicacin por 1.
16.5.1. Caso dim
K
V < . En caso que adems tenemos que dim
K
V < ,
lo hecho anteriormente nos produce una base B de V (escogiendo una base de
cada V
ij
y luego uniendolas) de manera que las representaciones de L y T son de
la forma siguiente :
M(L, B, B) =
_
_
_
_
I
p
0 0 0
0 I
q
0 0
0 0 I
r
0
0 0 0 I
s
_
_
_
_
M(T, B, B) =
_
_
_
_
I
p
0 0 0
0 I
q
0 0
0 0 I
r
0
0 0 0 I
s
_
_
_
_
donde p = dim
K
V
11
, q = dim
K
V
12
, r = dim
K
V
21
y s = dim
K
V
22
.
142 CAPTULO 16. VALORES Y VECTORES PROPIOS
Ejercicio 46. Generalizar la construccin anterior para el caso en que ten-
emos transformaciones lineales L
1
, ...., L
n
: V V , tales que L
2
j
= I y
L
j
L
i
= L
i
L
j
para todo i, j.
16.6. Problemas
1.- Sea A M(n n; K). Concluir que Spec
K
(
t
A) = Spec
K
(A).
2.- Calcular los valores propios de la matriz
A =
_
_
1 2 3
2 1 2
3 2 1
_
_
3.- Sea A M(n n; C). Concluir que Spec
C
(A) = Spec
C
(A).
4.- Concluir de 1.- y 3.- que si A M(n n; C) tal que
t
A = A, entonces
Spec
C
(A) = Spec
R
(A).
5.- Sea A M(n n; K). Vericar que el coeciente de t
n
del polinomio car-
acterstico
A
(t) es 1, que el coeciente de t
n1
es (1)
n1
Tr(A), donde
Tr(A) es la traza de A y que el coeciente de t
0
es det().
6.- Dar un ejemplo de una matriz A M(2 2; C) que no tenga valores propios
reales.
7.- Vericar que si A M(n n; C), entonces Spec
C
(A) ,= .
8.- Sea A GL(n; K). vericar que

A
1(t) = (t)
n
det(A
1
)
A
(t
1
)
Concluir que
Spec
K
(A)
1
Spec
K
(A
1
)
9.- Sean , , R. Verique que los valores propios de la matriz real
_


_
son reales.
10.- Sea A M(n n; K) tal que A
k
= 0 para cierto k 1, 2, 3, ... (decimos
que A es una matriz nilpotente ). Concluir que
A
(t) = (t)
n
.
Ind : Si Spec
K
(A), entonces
k
Spec
K
(A
k
).
11.- Sean V un espacio vectorial sobre el cuerpo K, de dimensin nita y L :
V V una transformacin lineal. Sea W < V un subespacio invariante por
L. Considere la restriccin de L a W, denotada por L
W
: W W, el espacio
vectorial cociente V/W y la proyeccin
W
: V V/W. Verique que :
(i) L
W
dada por

L
W
: V/W V/W :
W
(v)
W
(L
W
(v))
16.6. PROBLEMAS 143
est bin denida y que es una transformacin lineal.
(ii)
L
(t) =
L
W
(t)
d
L
W
(t).
(iii) Concluir que si W = Ker(L), entonces
L
(t) = (t)
dim
K
(Ker(L))

d
L
W
(t).
12.- Sea V un espacio vectorial de dimensin nita. Vericar que si L, N : V
V son transformaciones lineales, entonces

LN
=
NL
Ind : Suponga primero que L es invertible.
CAPTULO 17
TRANSFORMACIONES LINEALES Y PRODUCTO
INTERIOR
En este captulo todos los espacios vectoriales son de dimensin nita y que estn
denida sobre un subcuerpo de R. Bajo estos supuestos, podemos dotar a cada
uno de esos espacios de un productor interior positivo denido el cual permite dar
una autodualidad del espacio.
Si tenemos un espacio vectorial V denido sobre un cuerpo K R con un pro-
ducto interior positivo denido <, >, entonces <, > nos da una dualidad de V
consigo mismo. Esto nos da una transformacin lineal inyectiva
Q
V
: V V

: v < v, >=< , v >


Si adems dim
K
V < , entonces Q
V
: V V

es un isomorsmo, el cual nos


daba el teorema de representacin de Riez.
Usaremos tcnicas de productos interiores para obtener representaciones matri-
ciales simples de algunas transformaciones lineales.
17.1. La transformacin adjunta
Consideremos una transformacin lineal L : V W, donde V y W son espacios
vectoriales sobre el mismo cuerpo K R, ambos de dimensin nita. Sean <
, >
V
un producto interior positivo denido sobre V y <, >
W
un producto interior
positivo denido sobre W.
Tenemos el siguiente diagrama conmutativo
V
L
W

_
Q
V

_
Q
W
V

146 CAPTULO 17. TRANSFORMACIONES LINEALES Y PRODUCTO INTERIOR


donde
Q
V
: V V

: v < , v >
V
Q
W
: W W

: w < , w >
W
L

: W

V

: L

() = L
Denicin 17.1.1. La transformacin L
adj
= Q
1
V
L

Q
W
es llamada
la transformacin adjunta de L, respecto a los productos interiores positivos
denidos dados.
Recuerde que cuando vimos dualidades hemos denido la transformacin dual de
L, como una transformacin lineal L

: W V tal que
< L(v), w >
W
=< v, L

(w) >
V
Teorema 17.1.2. Sean V y W espacios vectoriales sobre el mismo cuerpo
K R, ambos de dimensin nita. Sean <, >
V
un producto interior positivo
denido sobre V y <, >
W
un producto interior positivo denido sobre W. Si
L : V W es una transformacin lineal, entonces la transformacin adjunta de
L es dual de L, es decir,
< L(v), w >
W
=< v, L
adj
(w) >
V
, w W, v V
Demonstracin. Para w W, tenemos que
L

Q
W
(w) = Q
V
L
adj
(w)
Luego, para todo v V vale que
L

Q
W
(w)(v) = Q
V
L
adj
(w)(v)
es decir
< w, L(v) >
W
=< L(v), w >
W
=< v, L
adj
(w) >
V
=< L
adj
(w), v >
V
, w W, v V
Corolario 17.1.3. Sean V y W espacios vectoriales sobre el mismo cuerpo
K R, ambos de dimensin nita. Sean <, >
V
un producto interior positivo
denido sobre V y <, >
W
un producto interior positivo denido sobre W. Si
L : V W es una transformacin lineal, entonces
(L
adj
)
adj
= L
17.1. LA TRANSFORMACIN ADJUNTA 147
Demonstracin. Basta ver que
< L
adj
(w), v >
V
=< w, L(v) >
W
Teorema 17.1.4. Sean V y W espacios vectoriales sobre el mismo cuerpo
K R, ambos de dimensin nita. Sean <, >
V
un producto interior positivo
denido sobre V y <, >
W
un producto interior positivo denido sobre W. Si
L : V W es una transformacin lineal, entonces
Ker(L
adj
) = Im(L)

Im(L
adj
) = Ker(L)

Ker(L) = Im(L
adj
)

Im(L) = Ker(L
adj
)

Demonstracin. Ya que L
adj
es dual a L y tenemos dimensin nita, esto es
consecuencia del teorema 10.5.3. Una demostracin diferente puede ser dada de
la siguinete manera. Si v Ker(L), entonces tenemos que para todo w W
vale que
0 =< w, L(v) >
W
=< L
adj
(w), v >
V
de donde obtenemos que v Im(L
adj
)

, es decir, tenemos que


Ker(L) < Im(L
adj
)

De manera similar, usando el hecho que L = (L


adj
)
adj
, tenemos
Ker(L
adj
) < Im(L)

Ahora, lo anterior nos asegura que


dim
K
Im(L) = dim
K
V dim
K
Ker(L) = dim
K
Ker(L)

dim
K
Im(L
adj
)
es decir
dim
K
Im(L) dim
K
Im(L
adj
) ()
De manera similar, usando la igualdad L = (L
adj
)
adj
,
dim
K
Im(L
adj
) dim
K
Im(L) ()
Luego, () y () aseguran que
dim
K
Im(L) = dim
K
Im(L
adj
)
Usando esta ltima igualdad tenemos que
dim
K
Ker(L) = dim
K
V dim
K
Im(L) = dim
K
V dim
K
Im(L
adj
) = dim
K
Im(L
adj
)

de donde ahora podemos concluir que


Ker(L) = Im(L
adj
)

148 CAPTULO 17. TRANSFORMACIONES LINEALES Y PRODUCTO INTERIOR


Las otras igualdades se obtienen de manera anloga.
17.2. Representacin matricial
Ahora veremos como se relacionan las matrices de L y L
adj
una vez jadas bases
de V y W. Sean
B
V
= v
1
, ..., v
n

una base ortonormal de V y


B
W
= w
1
, ..., w
m

una base ortonormal de W. Podemos entonces calcular las representaciones ma-


triciales
M(L, B
V
, B
W
) = (
ij
)
mn
M(L
adj
, B
W
, B
V
) = (
ij
)
nn
De esta manera tenemos que
_
_
_
L(v
j
) =
1j
w
1
+ +
mj
w
m
L
adj
(w
j
) =
1j
v
1
+ +
nj
v
n
Usando la igualdad

jk
=< v
j
, L
adj
(w
k
) >
V
=< L(v
j
), w
k
>
W
=
kj
obtenemos que
M(L, B
V
, B
W
) =
t
M(L
adj
, B
W
, B
V
)
Ejemplo 17.2.1. Sea
L : R
2
[x] R : a +bx +cx
2
a
Si consideramos los siguientes productos interiores positivos denidos
< p(x), q(x) >
R
2
[x]
=
_
1
0
p(x)q(x) dx
< a, b >
R
= ab
entonces
L
adj
: R L : R
2
[x]
debe satisfacer que
< L
adj
(a), p(x) >
R
2
[x]
=< a, L(p(x)) >
R
Escojamos las siguientes bases de R
2
[x] y R
B
1
= 1, x, x
2

B
2
= 1
17.3. CASO V = W 149
No es dicil ver que en estas bases tenemos :
M(L, B
1
, B
2
) = (1 0 0)
Observemos que hemos escogido una base que no es ortonormal para
2
[x], luego
no es verdad en general que M(L
adj
, B
2
, B
1
) deba ser la transpuesta de la anterior.
Si L
adj
(1) = a +bx +cx
2
, entonces :
< L
adj
(1), 1 >
R
2
[x]
=< 1, L(1) >
R
=< 1, 1 >
R
= 1
es decir,
a +b/2 +c/3 = 1
< L
adj
(1), x >
R
2
[x]
=< 1, L(x) >
R
=< 1, 0 >
R
= 0
es decir,
a/2 +b/2 +c/2 = 0
< L
adj
(1), x
2
>
R
2
[x]
=< 1, L(x
2
) >
R
=< 1, 0 >
R
= 0
es decir,
a/3 +b/4 +c/5 = 0
Luego,
a = 9, b = 36, c = 30
en otras palabras,
L
adj
: R R
2
[x] : 9 36x + 30x
2
y
M(L
adj
, B
2
, B
1
) =
_
_
9
36
30
_
_
Calcule, por el proceso de Gram-Schmidt, una base ortonormal para R
2
[x] y com-
pare la matriz anterior con la matriz de cambio de base.
17.3. Caso V = W
Supongamos ahora que tenemos un espacio vectorial V son sobre cuerpos K R
y de dimensin nita, con un producto interior positivo denido.
Si tenemos una transformacin lineal L : V V , entonces tenemos la transfor-
macin lineal adjunta
L
adj
: V V
junto a las propiedades
Ker(L
adj
) = Im(L)

Im(L
adj
) = Ker(L)

150 CAPTULO 17. TRANSFORMACIONES LINEALES Y PRODUCTO INTERIOR


Adems, si B = v
1
, ..., v
n
es una base ortonormal de V , entonces tenemos la
igualdad
M(L
adj
, B, B) =
t
M(L, B, B) ()
En particular, esto nos dice que
Spec
K
(L) = Spec
K
(L
adj
)
Denicin 17.3.1. Sea V es un espacio vectorial sobre un cuerpo K R y
de dimensin nita y <, > un producto interior Euclideano en V . Sea L : V V
una transformacin lineal.
(i) Diremos que L es simtrica si L = L
adj
, es decir, si para una base ortonormal
(luego para cualquiera) B de V vale la igualdad
M(L
adj
, B, B) = M(L, B, B)
(ii) Diremos que L es antisimtrica si L = L
adj
, es decir, si para una base
ortonormal (luego para cualquiera) B de V vale la igualdad
M(L
adj
, B, B) = M(L, B, B)
Teorema 17.3.2. Sea L : V V una transformacin lineal, donde V es un
espacio vectorial sobre un cuerpo K R y de dimensin nita.
(i) L es simtrica para algn producto positivo denido en V s y slo si
t
M(L, B, B) = M(L, B, B), para alguna (luego para cualquiera) base B de
V .
(i) L es antisimtrica para algn producto positivo denido en s y slo si
t
M(L, B, B) = M(L, B, B), para alguna (luego, para cualquiera)cualquier
base B de V .
Demonstracin. Una de las direcciones es trivial de la denicin y la igualdad
().
Para ver la otra direccin, basta observar que dada una base B de V es posible
construir un producto interior positivo denido para V que hace de B una base
ortonormal.
Observacin 17.3.3. Observemos que el resultado anterior nos permite denir
transformaciones simtricas antisimtricas de manera independiente a un pro-
ducto interior positivo denido.
17.3. CASO V = W 151
Teorema 17.3.4. Sea L : V V una transformacin lineal, donde V es un
espacio vectorial sobre un cuerpo K R y de dimensin nita, y <, > un pro-
ducto interior positivo denido sobre V . Si
1
,
2
Spec
K
(L) = Spec
K
(L
adj
)
son tales que
1
,=
2
, entonces si V
L

1
denota el espacio propio de L respecto a
y y V
L
adj

2
denota el espacio propio de L
adj
respecto a
2
, entonces tenemos que
V
L

1
y V
L
adj

2
son ortogonales.
Demonstracin. Si v
1
V
L

1
y v
2
V
L
adj

1
, entonces

1
< v
1
, v
2
>=< L(v
1
), v
2
>=< v
1
, L
adj
(v
2
) >=
2
< v
1
, v
2
>
es decir
(
1

2
) < v
1
, v
2
>= 0
y como
1
,=
2
, entonces
< v
1
, v
2
>= 0
Corolario 17.3.5. Sea L : V V una transformacin lineal simtrica,
donde V es un espacio vectorial sobre un cuerpo K R y de dimensin nita, y
<, > un producto interior positivo denido sobre V . Entonces, espacios propios
asociados a valores propios diferentes son ortogonales.
Teorema 17.3.6. Sea L : V V una transformacin lineal antisimtrica,
donde V es un espacio vectorial sobre un cuerpo K R y de dimensin nita, y
<, > un producto interior positivo denido sobre V . Entonces
Spec
K
(L) = 0
Demonstracin. Como L
adj
= L, tenemos la igualdad
< L(v), w >=< v, L(w) >, v, w V
Si Spec
K
(L) y v V

0
V
, es decir, L(v) = v, entonces
< v, v >=< v, v >=< L(v), v >=< v, L
adj
(v) >=< v, L(v) >= < v, v >
de donde obtenemos que = 0.
152 CAPTULO 17. TRANSFORMACIONES LINEALES Y PRODUCTO INTERIOR
17.4. Isomorsmos de orden nito
En esta seccin daremos una representacin matricial simple se isomorsmos de
orden nito. Recuerde que para aquellas de orden dos (involuciones) ya lo hemos
hecho en el captulo anterior).
Denicin 17.4.1. Sea V un espacio vectorial sobre un cuerpo K. Una trans-
formacin lineal L : V V es llamada de orden nita si existe un entero positivo
k 2, 3, ..., tal que L
k
= I. El menor entero positivo k con tal propiedad es
llamado el orden de L y decimos que L tiene orden k.
Teorema 17.4.2. Sea V un espacio vectorial sobre un cuerpo K. Si L : V
V es una transformacin lineal L : V V de orden nito, entonces L es un
isomorsmo.
Demonstracin. Supongamos que tenemos una transformacin de orden k
1, 2, 3, ..., digamos L : V V . Entonces vemos que L es necesariamente un
isomorsmo ya que L
1
= L
k1
.
Teorema 17.4.3. Sea V un espacio vectorial sobre un cuerpo K. Si L : V
V es una transformacin lineal L : V V de orden nito k, entonces
Spec
K
(L) K :
k
= 1
Demonstracin. Supongamos que Spec
K
(L). Entonces, si v V 0
V

es vector propio asociado a , entonces vemos que


v = L
k
(v) = L
k1
(L(v)) = L
k1
(v) = L
k1
(v)
de donde podemos obtener de manera inductiva que

k
= 1
Ejemplo 17.4.4. Si tomamos k = 3, entonces tenemos que :
(i) Si K Q, R, entonces Spect
K
(L) 1.
(ii) Si K = C, entonces Spec
C
(L) 1, e
2i/3
, e
4i/3
.
(iii) Sea = e
2i/3
y K = Q() = a
b
+c
2
: a, b, c Q, entonces K es un
cuerpo y Spec
K
(L) 1, e
2i/3
, e
4i/3
.
Ejercicio 47. Sea L : V V una transformacin de orden nito. Qu
puede decir sobre Spec
K
(L) en el caso que K = Z
p
, p un primo ?
17.4. ISOMORFISMOS DE ORDEN FINITO 153
Si V es espacio vectorial sobre K con dim
K
V < , entonces podemos construir
un producto interior positivo denido <, > en V . En presencia de una transfor-
macin lineal de orden nito, tenemos la siguiente propiedad.
Teorema 17.4.5. Sea V un espacio vectorial sobre un cuerpo K, con
dim
K
V < y L : V V una transformacin lineal L : V V de orden
nito k. Sea <, > un producto interior positivo denido sobre V y dena
< v, w >
L
=
k

j=1
< L
j
(v), L
j
(w) >
(i) <, >
L
es un producto interior positivo denido.
(ii) < L(v), L(w) >
L
=< v, w >
L
, para todo v, w V .
Observacin 17.4.6. La transformacin L resulta ser una isometra para el
producto interior <, >
L
. En una seccin ms abajo estudiaremos este tipo de
transformaciones lineales. Por el momento, veamos este caso particular de ellas
(isometras de orden nito.
Ejercicio 48. Vericar la proposicin 17.4.5.
Teorema 17.4.7. Sea V un espacio vectorial sobre un cuerpo K, con
dim
K
V < y L : V V una transformacin lineal L : V V de orden
nito k. Entonces existe una base B de V de manera que
M(L, B, B) =
_
_
_
_
_
_
_
A
1
0 0 0
0 A
2
0 0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 A
p1
0
0 0 0 A
p
_
_
_
_
_
_
_
donde
(i) A
j
es un valor propio de L; bin
(ii) una matriz cuadrada de la forma
A
j
=
_
_
_
_
_
_
_
_
_
_
0 0 0 0
1 0 0 0
0 1 0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 1 0
0 0 0 1
_
_
_
_
_
_
_
_
_
_
154 CAPTULO 17. TRANSFORMACIONES LINEALES Y PRODUCTO INTERIOR
donde debemos tener que A
k
j
= I.
Demonstracin. El caso k = 1 asegura que L = I. El caso k = 2, es decir
cuando L es una involucin, ya fu estudiado. De ahora en adelante suponemos
k 3 y L ,= I.
Sea v
1
V 0
V
y consideremos el subconjunto de V dado por
v
1
, L(v
1
), L
2
(v
1
), ...., L
k1
(v
1
)
entonces podemos encontrar l
1
1, 2, 3, ..., k 1 de manera que
S
1
= v
1
, L(v
1
), L
2
(v
1
), ...., L
l
1
(v
1
)
es conjunto linealmente independiente y
v
1
, L(v
1
), L
2
(v
1
), ...., L
l
1
+1
(v
1
)
es un conjunto linealmente dependiente.
Sea V
1
el espacio generado por S
1
y consideremos V

1
. Por construccin vemos
que V
1
es un subespacio invariante por L. la condicin (ii) de la proposicin 17.4.5
permite asegurar que V

1
es tambin un subespacio invariante por L. Recordemos
que
dim
K
V = dim
K
V
1
+dim
K
V

1
Ahora, consideramos un vector v
2
V

1
0
V
y procedemos de la misma
manera como para v
1
, es decir, consideremos el subconjunto de V

1
dado por
v
2
, L(v
2
), L
2
(v
2
), ...., L
k1
(v
2
)
entonces podemos encontrar l
2
1, 2, 3, ..., k 1 de manera que
S
1
= v, L(v), L
2
(v), ...., L
l
2
(v)
es conjunto linealmente independiente y
v, L(v), L
2
(v), ...., L
l
2
+1
(v)
es un conjunto linealmente dependiente.
Sea V
2
el subespacio generado por S
2
y consideremos el subespacio V

2
V

1
.
Tenemos que
dim
K
V

1
= dim
K
V
2
+dim
K
V

2
V

1
Ahora tenemos que V

2
V

1
es un subespacio invariante por L y procedemos
con este subspacio como antes. Ya que dim
K
V < , tenemos que este proceso
debe parar despus de un nmero nito de pasos. Al nal, obtenemos una base B
17.4. ISOMORFISMOS DE ORDEN FINITO 155
de V de manera que
M(L, B, B) =
_
_
_
_
_
_
_
A
1
0 0 0
0 A
2
0 0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 A
p1
0
0 0 0 A
p
_
_
_
_
_
_
_
donde
(i) A
j
es un valor propio de L; bin
(ii) una matriz cuadrada de la forma
A
j
=
_
_
_
_
_
_
_
_
_
_
0 0 0 0
1 0 0 0
0 1 0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 1 0
0 0 0 1
_
_
_
_
_
_
_
_
_
_
donde debemos tener que A
k
j
= I.
17.4.1. Caso K = C. Ahora consideremos el caso particular cuando K = C.
En esta caso, ya que todo polinomio con coecientes complejo de grado positivo
tiene ceros, tenemos que
L
tienen ceros, es decir,
C
,= . Sea
Spec
C
(L) =
1
, ....,
q

Teorema 17.4.8. Si V es un espacio vectorial sobre C de dimensin nita y


L : V V es un isomorsmo de orden nito. Si Spec
C
(L) =
1
, ....,
q
,
entonces existe una base B de V formado de vectores propios de L. Ms an, si
dim
C
V

j
= r
j
, entonces
M(L, B, B) =
_
_
_
_
_

1
I
r
1
0 0 0
0
2
I
r
2
0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0
q
I
rq
_
_
_
_
_
Demonstracin. Consideremos, para cada j = 1, .., q, el espacio de vectores
propios asociados a
j
V

j
= v V : L(v) =
j
v
156 CAPTULO 17. TRANSFORMACIONES LINEALES Y PRODUCTO INTERIOR
y sea r
j
= dim
C
V

j
1. Sea
B
j
= v
j
1
, ..., v
j
r
j

una base de V

j
. Entonces,

B =
q
_
j=1
B
j
es un conjunto linealmente independiente en V .
1.- Supongamos que

B es base de V , entonces tenemos que en esta base la repre-
sentacin matricial de L es la siguiente matriz diagonal
M(L,

B,

B) =
_
_
_
_
_

1
I
r
1
0 0 0
0
2
I
r
2
0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0
q
I
rq
_
_
_
_
_
2.- Ahora supongamos que

B no es base de V . Entonces consideramos el subespa-
cio W < V generado por

B. Como antes, podemos encontrar un producto in-
terior positivo denido <, > en V de manera que < L(v), L(w) >=< v, w >,
para todo v, w V . Como W es subespacio invariante por L, entonces tambin
lo es W

. Si B

es una base de W

, entonces B =

B B

es una base de V .
Pero en este caso,
M(L,

B,

B) =
_
_
_
_
_
_
_

1
I
r
1
0 0 0 0
0
2
I
r
2
0 0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0
q
I
rq
0
0 0 0 0 A
_
_
_
_
_
_
_
donde A es una matriz cuadrada de tamao igual a la cardinalidad de B

. En
este caso, el polinomio caracterstico de L ser

L
(t) =
q

j=1
(
j
t)
r
j

A
(t)
Observemos que A es la representacin matricial de L : W

en la
base B

. Pero como todo polinomio complejo de grado al menos 1 tiene ceros,


tenemos que L tiene un vector propio en W

, una contradicin al hecho que


W fu escogido contener todos los valores propios de L.
17.5. TRANSFORMACIONES SIMTRICAS 157
17.4.2. Caso K = R. Ahora consideremos el caso particular cuando K = R.
En esta caso, hay polinomio con coecientes reales de grado positivo sin ceros en
R Sea
Spec
C
(L) =
1
, ....,
q

el cual podra ser vaco. Si combinamos los dos teoremas anteriores, podemos
tener el siguiente resultado.
Teorema 17.4.9. Si V es un espacio vectorial sobre R de dimensin nita y
L : V V es un isomorsmo de orden nito. Si Spec
R
(L) =
1
, ....,
q
, en-
tonces existe una base B de V que contiene vectores propios de L, y si dim
R
V

j
=
r
j
, entonces
M(L, B, B) =
_
_
_
_
_
_
_

1
I
r
1
0 0 0 0
0
2
I
r
2
0 0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0
q
I
rq
0
0 0 0 0 A
_
_
_
_
_
_
_
donde A tiene la forma siguiente
A =
_
_
_
_
_
_
_
A
1
0 0 0
0 A
2
0 0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 A
p1
0
0 0 0 A
p
_
_
_
_
_
_
_
y cada A
j
tiene la forma
A
j
=
_
_
_
_
_
_
_
_
_
_
0 0 0 0
1 0 0 0
0 1 0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 1 0
0 0 0 1
_
_
_
_
_
_
_
_
_
_
es tal que A
k
j
= I y Spec
R
(A
j
) = , en particular, A
j
debe ser de orden par.
17.5. Transformaciones simtricas
Supongamos que tenemos un espacio vectorial V sobre R de dimensin nita con
un producto interior Euclidiano <, >. Consideremos una transformacin lineal
simtrica
L : V V
158 CAPTULO 17. TRANSFORMACIONES LINEALES Y PRODUCTO INTERIOR
Recordemos que en este caso tenemos la igualdad
() < L(v), w >=< v, L(w) >, v, w V
Si W < V el cual es invariante por L, entonces () nos asegura que W

tambin
es invariante por L. De esta manera, tenemos una descomposicin
V = W W

por subespacios invariantes por L. As, si tenemos una base B


W
para w y una base
B
W
para W

, entonces
B = B
W
B
W

es una base para V y adems tenemos que


M(L, B, B) =
_
A 0
0 B
_
donde A es una matriz cuadrada de tamao igual a la dimensinde W y B es
una cuadrada de tamao igual a la dimensinde W

. As, nuestra estrategia ser


buscar subespacios invariantes de L para producir una base adecuada en la cual la
representacin matricial de L sea simple.
Teorema 17.5.1. Sea V un espacio vectorial sobre R de dimensin nita, con
un producto interior Euclidiano <, >. Si L : V V es una transformacin lineal
simtrica entonces existe una base B de V consistiendo slo de vectores propios.
Si
Spec
R
(L) =
1
, ...,
q

donde
j
,=
i
para i ,= j y
dim
R
V

j
= r
j
entonces
M(L, B, B) =
_
_
_
_
_

1
I
r
1
0 0 0
0
2
I
r
2
0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0
q
I
rq
_
_
_
_
_
y

L
(t) =
q

j=1
(
j
t)
r
j
Demonstracin. Denamos la funcin real continua (en V usamos la
topologa inducida por la norma inducida por <, >)
F : V 0
V
R : v
< v, L(v) >
|v|
2
17.5. TRANSFORMACIONES SIMTRICAS 159
Tenemos que para R vale que
F(v) = F(v) ()
Sea S = v V : |v| = 1 la esfera unitaria en V . Si consideramos la restric-
cin
F : S R
entonces vemos por () que F(S) = F(V 0
V
).
Como S es compacto y conexo, tenemos que F(S) = [a, b]. En particular, existe
un vector v
1
S tal que F(v
1
) = a. Luego, por (8), tenemos que
F(v
1
) F(v), v V 0
V

Procedamos a ver que v


1
es un vector propio de L. Para esto, sea v V < v
1
>,
es decir, v
1
, v es un conjunto linealmente independiente, y denamos la funcin
f : R R : t F(v
1
+tv)
Observemos que
f(t) =
< v
1
, L(v
1
) > +(< v
1
, L(v) > + < v, L(v
1
) >)t+ < v, L(v) > t
2
|v
1
|
2
+ 2 < v
1
, v > t +|v|
2
t
luego, vemos que f es el cociente de dos polinomios, cuyo numerador no se anula
debido a que v
1
, v es un conjunto linealmente independiente y
|v
1
|
2
+ 2 < v
1
, v > t +|v|
2
t = |v
1
+tv|
2
Esto nos asegura que f es una funcin derivable. Como adems f tiene un mnimo
en t = 0, tenemos que
f

(0) = 0
lo cual es equivalente a
< L(v
1
) < v
1
, L(v
1
) > v
1
, v >= 0
Esta ltima igualdad vale para todo v V < v
1
>, pero es claro que tambin
es vlida para v < v
1
>. Luego,
L(v
1
) < v
1
, L(v
1
) > v
1
= 0
V
es decir
L(v
1
) =< v
1
, L(v
1
) > v
1
y v
1
es un vector propio de L como queramos ver.
Sea W
1
=< v
1
> el cual es un subespacio invariante por L. Ahora nos restringi-
mos a
L : W

1
W

1
y procedemos como en el caso anterior para encontrar un segundo vector propio
v
2
W

1
. Por la construccin, < v
1
, v
2
>= 0. Sea ahora W
2
el subespacio
160 CAPTULO 17. TRANSFORMACIONES LINEALES Y PRODUCTO INTERIOR
generado por v
1
y v
2
. De nuevo tenemos que W
2
es invariante por L. Ahora con-
sideramos
L : W

2
W

2
y procedemos de la misma manera. Ya que V tiene dimensin nita y cada vez
disminuimos la dimensin en uno, este proceso termina despus de n pasos, donde
n = dim
R
V . Es claro ver que la coleccin de vectores propios as cosntruida es
una base de V y luego, reordenandolas apropiadamente, tenemos que la matriz
asociada a L en tal base debe ser como se pide.
Corolario 17.5.2. Sea V un espacio vectorial sobre R de dimensin nita,
digamos dim
R
V = n. Sea L : V V una trasnformacin lineal, entonces :
L es simtrica

(i) Spec
R
(L) ,= ;
(ii) si Spec
R
(L) =
1
, ...,
q
, donde
i
,=
j
para i ,= j y r
j
es la multiplici-
dad algebraica de
j
en
L
, entonces
(ii.1) r
1
+ r
q
= n;
(ii.2) dim
R
V

j
= r
j
.
17.6. Transformaciones antisimtricas
Supongamos que tenemos un espacio vectorial V sobre R de dimensin nita con
un producto interior Euclidiano <, >. Consideremos una transformacin lineal
antisimtrica
L : V V
Recordemos que en este caso tenemos la igualdad
() < L(v), w >= < v, L(w) >, v, w V
En este caso sabemos que
Spec
R
(L) = 0
Por otro lado, () nos dice que para todo v V vale que < L(v), v >= 0, es
decir, v y L(v) son ortogonales.
Teorema 17.6.1. Sea V un espacio vectorial sobre R de dimensin nita con
un producto interior Euclidiano <, >. Consideremos una transformacin lineal
L : V V . Entonces L es antisimtrica s y slo si para todo v V vale que v
y L(v) son ortogonales.
17.6. TRANSFORMACIONES ANTISIMTRICAS 161
Demonstracin. Ya tenemos una direccin. Veamos la otra. Supongamos que
para todo v V vale que v y L(v) son ortogonales. Luego,
0 =< v+w, L(v+w) >= < v, L(v) >
. .
0
+ < v, L(w) > + < w, L(v) > +< w, L(w) >
. .
0
y luego,
< v, L(w) > + < w, L(v) >= 0, v, w V
Teorema 17.6.2. Sea V un espacio vectorial sobre R de dimensin nita con
un producto interior Euclidiano <, >. Si L : V V es una una transformacin
lineal antisimtrica, entonces L
2
es una transformacin lineal simtrica.
Demonstracin. (L
2
)
adj
= (L
adj
)
2
= (L)
2
= L
2
.
Teorema 17.6.3. Sea V un espacio vectorial sobre R de dimensin nita con
un producto interior Euclidiano <, >. Si L : V V es una una transformacin
lineal antisimtrica, entonces existe una base B de V de manera que
M(L, B
1
, B
1
) =
_
_
0 D 0
D 0 0
0 0 0
_
_
donde
D = diag(
_

1
, ...,
_

m
)
donde

1
, .....,
m
son los vectores propios no cero de L
2
repetidos segn su multiplicidad algebraica
(es decir, repetidos tantas veces como la dimensn de su respectivo espacio pro-
pio).
Demonstracin. Si tenemos una transformacin lineal antisimtrica L : V
V , entonces al tener que L
2
: V V es simtrica, sabemos que existe una base
B
0
= v
1
, ..., v
n

formada de vectores propios de L


2
.
Supongamos que es un valor propio de L
2
. Sea v V un vector propio de L
2
asociado a , es decir, L
2
(v) = v, entonces tenemos
=< v, L
2
(v) >= < L(v), L(v) > 0
es decir, todos los valores propios de L
2
son cero y/ negativos.
162 CAPTULO 17. TRANSFORMACIONES LINEALES Y PRODUCTO INTERIOR
Por otro lado, ya que L
adj
= L, tenemos que
L L
adj
= L
adj
L
es decir, L es normal (ver problema 2.- del captulo anterior). Luego, tenemos que
la restriccin de L a Im(L), digamos L
0
: Im(L) Im(L) es un isomorsmo
la cual sigue siendo antisimtrica. Por otro lado, L
adj
0
= L
0
nos asegura que
det(L
0
) = (1)
dim
R
Im(L)
det(L
0
)
de donde vemos que dim
R
Im(L) es par. La normalidad de L tambin nos asegura
la descomposicin
V = Ker(L) Im(L)
Otra cosa a observar es que como Im(L
2
) = Im(L) tiene dimensin par, tenemos
un nmero par de valores propios negativos de L
2
, no necesariamente diferentes,
digamos

1
, ....,
2m
< 0
Denotamos por

2m+1
= =
n
= 0 (n = dim
R
V )
Lo que estamos haciendo es contar los valores propios tantas veces como es su
multiplicidad algebraica (que es igual a la dimensin de su respectivo espacio
propio).
Reordenamos la base de vectores propios B
0
de manera que v
j
es vector propio
asociado al valor propio
j
.
Ahora formemos los siguientes vectores
w
1
= v
1
, w
2
=
1

1
L(v
1
)
tenemos que w
1
y w
2
son ortogonales y que |w
1
| = |w
2
| = 1. Sean
w
3
< w
1
, w
2
>

, w
4
=
1

2
L(w
3
)
y seguimos de esta manera para obtener una base ortonormal de Im(L),
B

= w
1
, w
2
, ...., w
2m1
, w
2m

Si completamos esta a una base B


0
de V , entonces tenemos que
M(L, B
0
, B
0
) =
_
_
_
_
_
_
_
A
1
0 0 0
0 A
2
0 0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 A
m
0
0 0 0 A
m+1
_
_
_
_
_
_
_
17.7. ROTACIONES 163
donde, para j = 1, ..., m, tenemos que
A
j
=
_
0
_

j
0
_
y A
m+1
= 0
(nm)(nm)
.
Permutando la base anterior, podemos encontrar una base B de V para que
M(L, B, B) =
_
_
0 D 0
D 0 0
0 0 0
_
_
donde
D = diag(
_

1
, ...,
_

m
)
17.7. Rotaciones
Denicin 17.7.1. Sea V un espacio vectorial sobre R de dimensin nita y
<, > un producto interior positivo denido. Una transfortmacin lineal L : V
v es llamada una rotacin si vale que
< L(v), L(w) >=< v, w >, v, w V
Teorema 17.7.2. Sea V un espacio vectorial sobre R de dimensin nita y
<, > un producto interior positivo denido. Si L : V V es una rotacin,
entonces L
adj
= L
1
y det(L) = 1. En particular, L es un isomorsmo.
Demonstracin. La igualdad
< L(v), L(w) >=< v, w >, v, w V
asegura que L
adj
= L
1
. El ltimo hecho proviene de que det(L
adj
) = det(L),
det(L
1
) = det(L)
1
y L
adj
= L
1
.
Teorema 17.7.3. Sea V un espacio vectorial sobre R de dimensin nita y
<, >un producto interior positivo denido. Si L : V V es una transformacin
lineal, entonces L es una rotacin s y slo si L enva una base ortonormal en una
base ortonormal.
164 CAPTULO 17. TRANSFORMACIONES LINEALES Y PRODUCTO INTERIOR
Demonstracin. Supongamos que L es una rotacion y que v
1
, ..., v
n
es una
base ortonormal de V . Como
< L(v
i
), L(v
j
) >=< v
i
, v
j
>=
_
0 i ,= j
1 i = j
tenemos claramente que L(v
1
), ..., L(v
n
) es una base ortonormal de V .
Recprocamente, supongamos que tenemos una transformacin lineal L : V
V con la propiedad que enva una base ortonormal v
1
, ..., v
n
de V en una
base ortonormal de V . Luego, L(v
1
), ..., L(v
n
) es una base ortonormal de V
y adems L debe ser un isomorsmo.
Si escribimos
v =
n

j=1
x
j
v
j
w =
n

j=1
y
j
v
j
entonces
L(v) =
n

j=1
x
j
L(v
j
)
L(w) =
n

j=1
y
j
L(v
j
)
De esta manera,
< L(v), L(w) >=
n

j=1
x
j
y
j
=< v, w >
es decir, L es una rotacin.
Si L : V V es una rotacin y B es una base ortonormal de V , entonces la
condicin L
adj
= L
1
nos asegura que
M(L, B, B)
1
=
t
M(L, B, B)
Denicin 17.7.4. Una matriz cuadrada A GL(n; R) es llamada ortogonal
si
t
A = A
1
.
Luego, la representacin matricial de una matriz ortogonal en una base ortonormal
es una matriz ortogonal.
17.7. ROTACIONES 165
Teorema 17.7.5. Sea V un espacio vectorial sobre R de dimensin nita y
<, > un producto interior positivo denido. Si L : V V es una rotacin
entonces Spec
R
(L) 1.
Demonstracin. Sea Spec
R
(L) y v V 0
V
vector propio asociado
a . Entonces,

2
< v, v >=< L(v), L(v) >=< v, v >
es decir,
2
= 1.
Ejemplo 17.7.6. Sea L : R
2
R
2
: (x, y) (y, x). Si usamos el producto
usual de R
2
, es decir,
< (a, b), (c, d) >= ac +bd
entonces L es una rotacin. El conjunto B = (1, 0), (0, 1) es una base ortonor-
mal de R
2
. Adems,
M(L, B, B) =
_
0 1
1 0
_
Luego,
L
(t) = 1 + t
2
el cual no tienen ceros reales, es decir, en este ejemplo
Spec
R
(L) = .
Ejercicio 49. Sea V un espacio vectorial sobre R de dimensin nita impar.
Si L : V V es una rtransformacin lineal, entonces Spec
R
(L) ,= .
Teorema 17.7.7. Sea V un espacio vectorial sobre R de dimensin nita y
<, > un producto interior positivo denido. Si L : V V es una rotacin y
W < V es invariante por L, entonces W

tambin es invariante por L.


Demonstracin. Como L(W) < W y dim
R
W < , tenemos que L(W) =
W. Si v W

, entonces para todo w W vale que


< L(v), L(w) >=< v, w >= 0
luego, L(v) L(W)

= W

.
El resultado anterior nos permitir hacer una descomposicin de V es subespacios
invariantes por la rotacin L, donde cada uno de ellos tendr dimensin 1 2.
166 CAPTULO 17. TRANSFORMACIONES LINEALES Y PRODUCTO INTERIOR
Teorema 17.7.8. Sea V un espacio vectorial sobre R de dimensin nita con
un producto interior Euclidiano <, >. Si L : V V es una una rotacin, en-
tonces existe una base B de V de manera que
M(L, B
1
, B
1
) =
_
_
_
_
_
_
_
I
r
0 0 0 0
0 I
s
0 0 0
0 0 A
1
0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 0 A
p
_
_
_
_
_
_
_
donde r = dim
R
V
1
(donde V
1
es el espacio propio asociado al valor propio 1
en caso que 1 Spec
R
(L)), s = dim
R
V
1
(donde V
1
es el espacio propio
asociado al valor propio 1 en caso que 1 Spec
R
(L))y A
j
tiene alguna de
las dos posibles formas :
_
cos(
j
) sin(
j
)
sin(
j
) cos(
j
)
_
_
cos(
j
) sin(
j
)
sin(
j
) cos(
j
)
_
Demonstracin. La primera descomposicin es la siguiente. Sean V
1
y V
1
los espacios propios asociados a 1 y 1 (en cada caso si estos valores propios
existen). Tenemos que V
1
y V
1
son ortogonales. En efecto, si v V
1
y w V
1
,
entonces
< v, w >=< v, w >=< L(v), L(w) >=< v, w >
de donde vemos que < v, w >= 0.
Tenemos la descomposicin
V = V
1
V
1
(V
1
V
1
)

Sea W = (V
1
V
1
)

. Tenemos que la restriccin de L a W, digamos L


W
:
W W, sigue siendo una rotacin, pero ahora tenemos que Spec
R
(L
W
) = ,
es decir, en W no hay vectores propios de L.
Como
L
W
no tiene ceros en R y este tiene grado igual a la dimensin de W,
debemos tener que dim
R
W es par.
Sea
N = L
W
+L
adj
W
= L
W
+L
1
W
: W W
Entonces tenemos que
N
adj
= N
es decir N es una transformacin lineal simtrica. Sabemos que debe existir un
vector propio v W para N. Sea R su valor propio. Luego,
v = N(v) = L
W
(v) +L
1
W
(v)
17.8. PROBLEMAS 167
de donde vemos que
L
2
(v) = L(v) v
Veamos que v, L(v) es un conjunto linealmente independiente. En efecto, si
L(v) = v para algn R, entonces v W es vector propio de L, una
contradiccin.
Sea W
1
el espacio generado por v y L(v) ; luego W
2

= R
2
. Como L
2
(v) =
L(v) v W
1
, tenemos que W
1
es invariante por L
W
y luego por L. Ya que la
restriccin de L a W
1
debe ser una rotacin sin valores propios reales, podemos
encontrar una base ortonormal de W
1
de manera que la representacin matricial
de L, restricto a W
1
, en tal base sea de una de las siguientes dos formas :
_
cos(
1
) sin(
1
)
sin(
1
) cos(
1
)
_
_
cos(
1
) sin(
1
)
sin(
1
) cos(
1
)
_
Ahora tenemos una descomposicin
V = V
1
V
1
W
1
(V
1
V
1
W
1
)

Procedemos con W
2
= V
1
V
1
W
1
)

de la misma manera como lo hicimos


con W
1
y as sucesivamente.
17.8. Problemas
Todos los espacios vectoriales son reales y de dimensin nita con algn producto
interior.
1.- Sea V un espacio vectorial de dimensin nita sobre un cuerpo K R, con
un producto interior positivo denido <, >. Para cada transformacin lineal
L : V V dena la funcin
B
L
: V V K : (v
1
, v
2
) < L(v
1
), v
2
>
(i) Ver que B
L
es una funcin bilineal.
(ii) Denote por B(V, V ) al conjunto de todas las funciones bilineales de V .
Verique que B(V, V ), con la suma de funciones y la amplicacin de
funciones por esacalares de manera usual, es un espacio vectorial sobre
K.
(iii) Considere la funcin
: V

B(V, V ) : L B
L
(iii.1) Vericar que es una transformacin lineal.
(iii.2) Ver que es inyectiva.
168 CAPTULO 17. TRANSFORMACIONES LINEALES Y PRODUCTO INTERIOR
(iii.3) Utilice el teorema de representacin de Riez para ver que es so-
breyectiva.
(iii.4) concluir que es un isomorsmo.
(iv) Para L V

sea

B
L
: V V K : (v
1
, v
2
) < L
adj
(v
1
), v
2
>
Vericar que

B
L
= B
L
.
2.- Sea V un espacio vectorial de dimensin nita sobre un cuerpo K R, con un
producto interior positivo denido <, >. Una transformacin lineal L : V v
es llamada normal si
L L
adj
= L
adj
L
(i) ver que
L es normal < L(v), L(w) >=< L
adj
(v), L
adj
(w) >, v, w V
(ii) ver que
L es normal |L(v)| >= |L
adj
(v)|, v V
(iii) Concluir de lo anterior que si L es normal, entonces
Ker(L) = Ker(L
adj
)
V = Ker(L) Im(L)
L : Im(L) Im(L) es un isomorsmo
Im(L L) = Im(L), luego, Im(L
k
) = Im(L), para todo k = 1, 2, ...
(iv) Suponga que V = W
1
W
2
W
r
, L : V v es una transfor-
macin lineal y que cada W
j
es un subespacio invariante por L. Vericar
que
L es normal L : W
j
W
j
es normal para todo j = 1, ..., r
Ind : Usar parte (ii)
3.- Sea V un espacio vectorial de dimensin nita sobre un cuerpo K R.
Suponga que tenemos dos producto interiores positivo denido <, >
1
y <, >
2
.
Sea L : V V una transformacin lineal y sean L
adj
j
: V V la transforma-
cin adjunta de L respecto al producto <, >
j
. Sea B
j
una base ortonormal de
V respecto al producto <, >
j
. Vericar la igualdad siguiente
M(L
adj
1
, B
1
, B
1
) =
t
M(I, B
1
, B
2
)M(L
adj
2
, B
2
, B
2
)
t
M(I, B
1
, B
2
)
1
17.8. PROBLEMAS 169
4.- Sea R
2
con los producto interiores positivo denido siguientes :
< (a, b), (c, d) >
1
= ac +bd
< (a, b), (c, d) >
2
= ac +bd +
1
2
(ad +bc)
Sea
L : R
2
R
2
: (x, y) (y, x)
Sea L
adj
j
la transformacin adjunta de L respecto al producto <, >
j
. vericar
que
L
adj
1
= L
L
adj
2
,= L
es decir, L es simtrica respectoa <, >
1
pero no respecto a <, >
2
.
5.- Vericar de manera directa (calculando) que toda matriz de tamao 2 simtrica
con coecientes reales tiene slo valores propios reales. Describa todas las posi-
bilidades.
6.- Calcular una base ortonormal de M(3 1; R) por valores propios de
A =
_
_
1 2 3
2 4 5
3 5 6
_
_
Sea B la matriz diagonal que se obtiene de A usando la base obtenida. Cal-
cular C tal que
CAC
1
= B
7.- Sean L, N : V V transformaciones simtricas. Vericar que
L N es simtrica L N = N L
8.- Sea L : V v una transformacin lineal simtrica. Decimos que L es posi-
tiva denida si
< v, L(v) > 0, v V 0
V

Decimos que L es estrictamente positiva denida si


< v, L(v) >> 0, v V 0
V

(i) Vericar que si L es positiva denida, entonces existe una (y slo una)
transformacin lineal simtrica positiva denida N : V V tal que
N
2
= L (Ind : use la propiedad de diagonalizacin de L).
(ii) Si L es estrictamente positiva denida, vericar que
[v, w] =< v, L(w) >
dene un producto interior Euclidiano en V .
170 CAPTULO 17. TRANSFORMACIONES LINEALES Y PRODUCTO INTERIOR
9.- Sea L : V V una transformacin lineal. vericar que L L
adj
es simtrica
positiva denida. De hecho, < v, L L
adj
(v) > 0 con igualdad slo en el
caso que v Ker(L).
10.- Sea L : V V una transformacin lineal. vericar que es posible poner en
V un producto interior que hace L simtrica s y slo si existe una base de V
por vectores propios de L.
11.- Sea L : V V una transformacin lineal. vericar que
|L|
2
= Mximo[[ : Spec
R
(L L
adj
)
12.- Sea V de dimensin 2 y L : V V antisimtrica. Vericar que
< L(v), L(w) >= det(L) < v, w >
13.- Sea R
3
con el producto Euclidiano cannico. Para cada z R
3
dena
L
z
: R
3
R
3
: x z x
(i) Vericar que L
z
es una transformacin antisimtrica.
(ii) Vericar que para w, z R
3
vale la igualdad
L
zw
= L
z
L
w
L
w
L
z
(iii) Si L : R
3
R
3
es una transformacin lineal antisimtrica, entonces
existe z R
3
tal que L = L
z
.
Ind : tome : R
3
R
3
R
3
denida por
(x, y, w) =< L(x), y > w+ < L(y), w > x+ < L(w), x > y
y escoja z R
3
de manera que
(x, y, w) = de(A)z
donde en la matriz Atiene su primera columna dada por los coecientes de
x, su segunda columna dada por los coecientes de y y su tercera columna
dada por los coecientes de w.
14.- Si L : V V es una transformacin linea antisimtrica, entonces

L
(t) = (1)
dim
R
V

L
(t)
15.- Sea A = (a
ij
) M(4 4; R) antisimtrica. Vericar que
det(A) = (a
12
a
34
+a
13
a
42
+a
14
a
23
)
2
16.- Sea L : V V una transformacin lineal. vericar que L es una rotacin s
y slo si |L(v)| = |v| para todo v V .
17.- Si L : V V es una rotacin, entonces si B es una base ortonormal de V ,
tenemos que
t
M(L, B, B) = M(L, B, B)
1
, es decir M(L, B, B) es una matriz
ortogonal.
17.8. PROBLEMAS 171
18.- Sea L : V V un isomorsmo. vericar que existen N, R : V V , donde
R es una rotacin y N simtrica, de manera que
L = N R
Concluir que para toda matriz A GL(n; R) existen matrices B simtrica y C
ortogonal tales que
A = BC
19.- Si dim
R
V = n y L : V V es una rotacin, entonces Tr(L) n.
20.- Si L : V v es una rotacin tal que det(L) = 1, entonces

L
(t) = (t)
dim
R
V

L
(t
1
)
21.- Si dim
R
V 3 y L : V V es una rotacin que conmuta con cualquier
otra rotacin y det(L) = 1, entonces L = I, para cierto R. Ms an
_
= 1 si dim
R
V es impar
= 1 si dim
R
V es par
22.- Sea f : V V una funcin talq que
_
f(0
V
) = 0
V
|f(v) f(w)| = |v w|, v, w V
Vericar que f es una rotacin.
CAPTULO 18
TRANSFORMACIONES UNITARIAS
En es te captulo slo estaremos interesados en espacios vectoriales complejos, es
decir, denidos sobre el cuerpo de los nmeros complejo C, de dimensin nita.
Denicin 18.0.1. Un espacio unitario es un espacio vectorial complejo de di-
mensin nita junto a producto interior Hermitiano positivo. Usamos la notacin
(V, <, >).
Ejemplo 18.0.2. Ejemplos de espacios unitarios son los siguientes :
(i) C
n
con el producto Hermitiano positivo cannico
< (x1, ..., x
n
), (y
1
, ...., y
n
) >=
n

j=1
x
j
y
j
(ii) Sea E un espacio vectorial real con dim
R
E = n y sea <, >
E
un producto in-
terior Euclidiano en E. Recordemos que la complexicacin de E es el espacio
vectorial complejo V = E E con las siguientes operaciones
(x, y) + (u, v) = (x +u, y +v)
donde + es la suma en E como espacio vectorial real y
(a +ib)(x, y) = (ax by, ay +bx)
donde las amplicaciones de vectores de E por reales es la dada de E como
espacio vectorial real. Si consideramos
< (x, y), (u, v) >=< x, u >
E
+ < y, v >
E
+i(< y, u >
E
< a, v >
E
)
entonces <, > dene un producto Hermitiano positivo en V , luego (V, <, >)
es un espacio unitario.
174 CAPTULO 18. TRANSFORMACIONES UNITARIAS
Consideremos un espacio unitario (V, <, >), dim
C
V = n. Tenemos que el con-
junto L(V ; C) de todas las funciones lineales de V en C es un espacio vectorial
complejo el cual es isomorfo a V . Por el teorema de reprsentacin de Riez (ver
captulo 13), la funcin
: V V

: v (v) =< , v >
es un isomorsmo como espacios vectoriales reales. Adems, tenemos que
(v
1
+v
2
) =
v
1
+
v
2
(v) =
v
es decir es antilineal. Como consecuencia de esto, tenemos que para toda L
L(V, ; C) existe un nico vector v V de manera que L(w) =< w, v >. Tenemos
el siguiente diagrama conmutativo
V
L
V

_
V

V

donde
L

: V

: L

() = L
Luego, para v V consideramos las transformaciones lineales =< , v > y
L =< , w
v
>. La conmutatividad del diagrama entonces nos dice que
< L(u), v >= (L(u)) = L(u) =< u, w
v
>
de donde obtenemos que para todo L V

existe una funcin


L
adj
: V V : v L
adj
(v) = w
v
la cual satisface la igualdad
< L(v), w >=< v, L
adj
(w) >, v, w V
Teorema 18.0.3. Sea (V, <, >) un espacio unitario. Si L V

, entonces
L
adj
V

.
Demonstracin. Sean , C,
1
,
2
V

. Si escribimos

1
=< , v
1
>

2
=< , v
2
>
entonces

1
+
2
=< , v
1
+v
2
>
CAPTULO 18. TRANSFORMACIONES UNITARIAS 175
Tambin tenemos que
(
1
+
2
) L =
1
L +
2
L
de donde obtenemos que
< , L
adj
(v
1
+v
2
) >= < , L
adj
(v 1) > + < , L
adj
(v
2
) >
Denicin 18.0.4. Sea (V, <, >) un espacio unitario. Si L V

, entonces
L
adj
V

es llamada la transformacin adjunta de L.
No es dicil observar de la igualdad
< L(v), w >=< v, L
adj
(w) >, v, w V
que si B es una base ortonormal de V , entonces
M(L
adj
, B, B) =
t
M(L, B, B)
Ejercicio 50. Vericar que det(L
adj
) = det(L).
Denicin 18.0.5. Sea V un espacio vectorial sobre C de dimensin nita y
sea L V

.
(i) Si existe un producto Hermitiano positivo en V tal que L
adj
= L, entonces
diremos que L es Hermitiana.
(ii) Si existe un producto Hermitiano positivo denido en V tal que L
adj
= L,
entonces diremos que L es anti-Hermitiana.
(iii) Sea <, > un producto Hermitiano positivo en V . Si tenemos que
< L(v), L(w) >=< v, w >, v, w V
entonces diremos que L es una transformacin unitaria.
Teorema 18.0.6.
1.- Sea (V, <, >) un espacio unitario. Si L V

es una transformacin Hermi-


tiana, entonces existe una base ortonormal B de V tal que
M(L, B, B) =
t
M(L, B, B)
2.- Si L V

y existe una base B de V de manera que
M(L, B, B) =
t
M(L, B, B)
entonces existe un producto Hermitiano positivo para el cual L es Hermitiana.
176 CAPTULO 18. TRANSFORMACIONES UNITARIAS
3.- Sea (V, <, >) un espacio unitario. Si L V

es una transformacin Hermi-


tiana, entonces :
3.1.- Spec
C
(L) R.
3.2.- Ker(L) y Im(L) son ortogonales.
3.3.- V = Ker(L) Im(L).
3.4.- Existe una base de V formada por vectores propios de L.
4.- Sea (V, <, >) un espacio unitario. Si L V

es una transformacin Hermi-


tiana, entonces iL es anti-Hermitiana.
5.- Sea (V, <, >) un espacio unitario. Si L V

es una transformacin anti-


Hermitiana, entonces iL es Hermitiana.
Demonstracin. La condicin L
adj
= L ms la igualdad
< L(v), w >=< v, L
adj
(w) >, v, w V
nos da 1.-
Si B = v
1
, ..., v
n
, entonces
<
n

j=1
x
j
v
j
,
n

r=1
y
r
v
r
>=
n

j=1
x
j
y
j
dene un producto Hermitiano positivo en V de manera que L
adj
= L, de donde
obtenemos 2.-
La propiedad 3.1., es consecuencia del hecho que si Spec
C
(L) y v V
0
V
es vector propio asociado a , es decir, L(v) = v, entonces tenemos que
|v|
2
=< L(v), v >=< v, L
adj
(v) >=< v, v >= |v|
2
de donde = , es decir, R.
Para obtener 3.2.-, observemos que si v Ker(L), entonces para todo w V
tenemos que
< v, L(w) >=< v, L
adj
(w) >=< L(v), w >=< 0
V
, w >= 0
de donde vemos que Ker(L) es ortogonal a Im(L).
Propiedad 3.3.-, es consecuencia de 3.2.-, y el hecho que la suma de las dimen-
siones de Ker(L) y de Im(L) es la dimensin de V .
Veamos 4.-. Como
L
tiene ceros en C y tenemos que Spec
C
(L) R, podemos
escoger
1
R que es valor propio de L. Sea v
1
V un vector propio de L
respecto al valor propio
1
. Sea W
1
=< v
1
>

. Ya que < v
1
> es invariante
por L, tambin lo es W
1
. Si L
W
1
: W
1
W
1
denota la restriccin de L a W
1
,
entonces se tiene que L
W
1
sigue siendo Hermitiana. Ahora procedemos de manera
inductiva.
4.- y 5.- son consecuencia del hecho que (iL)
adj
= iL
adj
.
CAPTULO 18. TRANSFORMACIONES UNITARIAS 177
Teorema 18.0.7. Sea (V, <, >) espacio unitario y L V

una transforma-
cin unitaria. Entonces :
1.- L es un isomorsmo.
2.- L
adj
= L
1
.
3.- [ det(L)[ = 1.
4.- Si Spec
C
, entonces [[ = 1.
5.- Existe una base de V formada slo de vectores propios de L.
Demonstracin. Si v Ker(L), entonces |v|
2
=< v, v >=< L(v), L(v) >=<
0
V
, 0
V
>= 0, de donde obtenemos que L es inyectiva, y como V tienen
dimensin nita, L es un isomorsmo. La propiedad 2.-, sale del hecho que
< L(v), w >=< v, L
1
(w) >.
Como det(L) = det(L
adj
) = det(L
1
) = det(L)
1
, obtenemos 3.
Si Spec
C
(L) y v V es un vector propio asociado a , entonces
< v, v >=< L(v), v >=< v, L
1
(v) >=
1
< v, v >
de donde [[
2
= 1.
La demostracin de 5,- es similar a la hecha para 4,- del teorema anterior.
CAPTULO 19
FORMAS NORMALES : SITUACIN GENERAL
En el captulo 17 hemos construido formas matriciales simples de ciertas transfor-
maciones lineales sobre espacios vectoriales reales. En este captulo daremos una
idea general como encontrar formas matriciales simples de transformaciones lin-
eales sobre cualquier cuerpo K de caracterstica 0, es decir, cuerpos donde toda
suma de un nmerso nito de 1 K nunca es cero. Los espacios vectoriales
sern asumidos tener dimensin nita ; esto para que tenga sentido buscar una
representacin maricial.
19.1. Algunos preliminares algebraicos
En esta seccin recordaremos algunos hechos sobre el anillo de polinomios que
ha sido estudiado en el curso de lgebra abstracta.
19.1.1. Anillos y subanillos.
Denicin 19.1.1.
1.- Un anillo es por denicin un triple (R, +, ) donde Res un conjunto no vaco
y +, : R R R son dos operaciones binarias sobre R, llamadas suma y
multiplicacin repectivamente, tales que :
(1) (R, +) es un grupo abeliano ;
(2) vale la propiedad asociativa para la operacin de multiplicacin, es decir,
para r, s, t R se tiene
r (s t) = (r s) t
(3) para r, s, t R vale la propiedad distributiva :
r (s +t) = r s +r t
(r +s) t = r t +s t
180 CAPTULO 19. FORMAS NORMALES : SITUACIN GENERAL
2.- Un subconjunto S R, donde R es un anillo, es llamado un subanillo de R
si S con las operaciones inducidas desde R resulta ser un anillo.
Ejemplo 19.1.2. Sea V un espacio vectorial sobre un cuerpo K. El espacio
vectorial L(V, V ) es un anillo con las operaciones de suma y composicin de
funciones. Tambin se dice que este es un ejemplo de un lgebra.
Denicin 19.1.3.
1.- Dados dos anillos (R, +, ) y (S, +, ), diremos que una funcin h : R S
es un homomorsmo de anillos si para todo par r
1
, r
2
R valen las siguientes :
(i) h(r
1
+r
2
) = h(r
1
) +h(r
2
)
(ii) h(r
1
r
2
) = h(r
1
)h(r
2
)
2.- Si el homomorsmo de anillos h : R S es biyectiva, entonces decimos que
es un isomorsmo de anillos, en cuyo caso decimos que los anillos son anillos
isomorfos.
Denicin 19.1.4. Diremos que un subanillo S de un anillo R es un ideal
izquierdo si para todo r R vale que rS S y es un ideal derecho si para
todo r R vale que Sr S. Un ideal es un subanillo que es ideal izquierdo
y derecho. Un ideal S de R es llamado principal si existe a S de manera que
S =< a >= ar; r R.
Supongamos que tenemos un anillo (R, +, ) y S R un subanillo. Considere-
mos la relacin de equivalencia dad por
r
1
r
2
r
1
r
2
S
Denotemos por R/S al conjunto de las clases de equivalencia y por : R R/S
a la proyeccin natural.
Teorema 19.1.5. Sea S un subanillo de un anillo R. Entonces, R/S con las
operaciones
(r
1
+r
2
) = (r
1
) +(r
2
)
(r
1
)(r
2
) = (r1r
2
)
es un anillo s y slo si S es un ideal de R.
19.1. ALGUNOS PRELIMINARES ALGEBRAICOS 181
Teorema 19.1.6. Sea : R S un homomorfsimo de anillos, entonces
Ker() = r R : (r) = 0
S

es un ideal de R.
Demonstracin. Ya que 0 es un ideal de R, basta que supongamos
Ker() ,= 0. Si u Ker() y v R, entonces (uv) = (u)(v) =
0(v) = 0, luego, uv Ker().
19.1.2. Anillo de polinomios. El tipo de anillos en el cual estaremos interesa-
dos es el siguiente. Sea K un cuerpo y x / K una variable. Formemos el conjunto
K[x] formado por todas las series
p(x) =

j=0
r
j
x
j
donde asumimos que slo un nmero nito de los coecientes r
j
K pueden
ser diferente de cero. Llamamos a cada uno de esos objetos un polinomio con
coecientes en K y variable desconocida x. Al mayor valor n0, 1, 2, ... tal que
r
n
,= 0 le llamamos el grado del polinomio p(x) y lo denotamos por grado p(x).
Usualmente no escribimos los trminos donde r
j
= 0 ; por jemplo si r
1
= 2,
r
3
= 1 y todos los dems r
j
= 0, entonces escribimos este polinomio como
2x +x
3
. Tambin acostumbramos a denotar r
0
x
0
como r
0
. Denimos la suma de
polinomios como
_
_

j=0
r
j
x
j
_
_
+
_
_

j=0
s
j
x
j
_
_
=
_
_

j=0
(r
j
+s
j
)x
j
_
_
y denimos el producto de polinomios como
_
_

j=0
r
j
x
j
_
_

i=0
s
i
x
i
_
=
_
_

k=0
_
_

i+j=k
r
j
s
i
_
_
x
k
_
_
Obtenemos de esta manera un anillo, llamado el anillo de polinomios con coe-
cientes en el anillo K.
Teorema 19.1.7. Sea K un cuerpo. Todo ideal de K[x] es principal.
Demonstracin. Ya que el ideal trivial 0 es principal, basta que asumamos
que S es un ideal de K[x] con S ,= 0. Sea u(x) S de menos grado posi-
ble. Si v(x) S, entonces, por el agoritmo de la divisin, tenemos que existen
182 CAPTULO 19. FORMAS NORMALES : SITUACIN GENERAL
polinomios a(x), b(x) K[x] tales que
v(x) = a(x)u(x) +b(x),
donde b(x) = 0 bien grado b(x) < a(x). Como b(x) = v(x) a(x)u(x) S),
y u(x) fu escogido de grado minimal en S, debemos tener que b(x) = 0. Esto
nos asegura que v(x) est contenido en el ideal generado por u(x), es decir, S est
contenido en el ideal generado por u(x). Ya que u(x)nS y S es ideal, el ideal
generado por u(x) est contenido en S. Todo esto nos dice que S es igual al ideal
generado por u(x).
Denicin 19.1.8. Sea K un cuerpo y p(x) K[x] K. Si no es posible
escribir p(x) como producto de otros dos polinomios de grado positivo de K[x],
entonces decimos que p(x) es irreducible.
Denicin 19.1.9. Sea K un cuerpo y p(x) =

n
j=0
a
j
x
j
K[x], donde
a
n
,= 0. Diremos que p(x) es mnico si a
n
= 1.
Teorema 19.1.10. Sea K un cuerpo y p(x) K[x]K un polinomio mnico.
Entonces es posible escribir p(x) como un producto nito de polinomios mnicos
irreducibles. Adems, tal descomposicin es nica mdulo ordenamiento de los
factores.
19.2. Polinomios y transformaciones lineales
Supongamos que tenemos un espacio vectorial V , sobre un cuerpo K (el cual
hemos asumido tiene caracterstica 0) y tenemos una transformacin lineal L :
V V . Supondremos en el resto de este captulo que que L ,= 0 (para la trans-
formacin trivial cualquier representacin matricial es dada por la matriz trivial).
Usemos la siguiente notacin :
L
0
= I
L
n
= L L
. .
nveces
Con la notacin anterior, y el hecho que la suma y composicin de transforma-
ciones lineales es otra vez una transformacin lineal, es claro que para cada poli-
nomio
p(x) =
n

j=0
a
j
x
j
K[x]
19.2. POLINOMIOS Y TRANSFORMACIONES LINEALES 183
podemos construir la funcin
p(L) =
n

j=0
a
j
L
j
L(V, V )
es decir, tenemos una funcin

L : K[x] L(V, V ) : p(x) p(L)


No es difcil ver que para p(x), q(x) K[k] valen las igualdades

L(p(x) +q(x)) =

L(p(x)) +

L(q(x))

L(p(x)q(x)) =

L(p(x))

L(q(x))
Luego, tenemos que

L es de hecho un homomorsmo de anillos. De esta manera


Ker(

L) = p(x) K[x] : P(L) = 0


L(V,V )

es un ideal de K[x]. Como todo ideal de K[x] es principal, existe un polinomio


mnico m
L
[x] K[x] de manera que
Ker(

L) = p(x)m
L
(x) : p(x) K[x]
Denicin 19.2.1. El polinomio m
L
(x) K[x] es llamado el polinomio min-
imal de L.
Es claro de la denicin de m
L
(x) las siguientes propiedades :
(1) m
L
(L) = 0 ;
(2) si p(x) K[x] es tal que p(L) = 0, entonces p(x) = m
L
(x)q(x) para cierto
q(x) K[x].
Observacin 19.2.2. Ms adelante veremos que el polinomio caracterstico

L
(x) es divisible por el polinomio minimal m
L
(x) y que de hecho los ceros de

L
(x) son los ceros de m
L
(x).
Ahora, tambin sabemos que tanto K[x] como L(V, V ) son espacios vectoriales
sobre el cuerpo K. No es difcil ver que

L es una transformacin lineal. Ahora,
como estamos asumiendo que dim
K
V < , entonces dim
K
Im(

L) < . Como
tenemos un isomorsmo entre K[x]/Ker(

L) y Im(

L), y dim
K
K[x] = , la
nitud de la dimensin de Im(

L) nos asegura que Ker(

L) tiene dimensin difer-


ente de 0. En particular, como L ,= 0, debe ocurrir que m
L
(x) tiene grado mayor
igual a 1.
184 CAPTULO 19. FORMAS NORMALES : SITUACIN GENERAL
Teorema 19.2.3. Bajo las condiciones anteriores, tenemos que
dim
K
Im(

L) = grado m
L
(x)
Demonstracin. Supongamos que grado m
L
(x) = n 1. Entonces, se tiene
que 1, x, x
2
, ..., x
n1
es una base de K[x]/Ker(

L).
Teorema 19.2.4. Si p(x) K[x], entonces
Ker(p(L)) = v V : p(L)(v) = 0
es un subespacio de V que es invariante por L.
Demonstracin. Sea v Ker(p(L)). Entonces
p(L)(L(v)) = L(p(L)(v)) = L(0) = 0
de donde obtenemos que L(v) Ker(p(L)).
Ejemplo 19.2.5.
Ker(p(L)) = V, para p(x) = 0.
Ker(p(L)) = 0
V
, para p(x) = 1.
Ker(p(L)) = Ker(L
n
), para p(x) = x
n
.
Ker(m
L
(L)) = V.
19.2.1. Algunas propiedades.
Teorema 19.2.6. Sean f(x), g(x) K[x] 0 tales que f(x) divide a
m
L
(x) y g(x) divide f(x) y grado g(x) < grado f(x). Entonces,
Ker(g(L)) < Ker(f(L)) (subespacio propio)
Demonstracin. Ya que g(x) divide a f(x), tenemos que Ker(g(L)) <
Ker(f(L)). Ahora pasemos a ver que la contensin es estricta. Podemos escribir
m
L
(x) = f(x)f
1
(x)
f(x) = g(x)g
1
(x), grado g
1
(x) 1
es decir,
m
L
(x) = g(x)g
1
(x)f
1
(x)
Como grado g
1
(x) 1, tenemos que grado g(x)f
1
(x) < grado m
L
(x), en
particular, m
L
(x) no divide a g(x)f
1
(x), es decir, g(x)f
1
(x) / Ker(

L). De este
19.2. POLINOMIOS Y TRANSFORMACIONES LINEALES 185
modo, existe un vector v ,= 0
V
de manera que g(L) f
1
(L)(v) ,= 0
V
. Sea w =
f
1
(L)(v) ,= 0
V
. Tenemos que
f(L)(w) = f(L) f
1
(L)(v) = m
L
(L)(v) = 0
V
g(L)(w) = g(L) f
1
(L)(v) ,= 0
V
Teorema 19.2.7. Sean f(x), g(x) K[x] 0 y h(x) K[x] su mximo
comn divisor. Entonces
Ker(h(L)) = Ker(f(L)) Ker(g(L))
Demonstracin. Es claro que
Ker(h(L)) < Ker(f(L)) Ker(g(L))
Sabemos que existen polinomios a(x), b(x) K[x] tales que
h(x) = a(x)f(x) +b(x)g(x)
Luego, si v Ker(f(L)) Ker(g(L)), entonces
h(L)(v) = a(L) f(L)(v) +b(L) g(L)(v) = 0
V
es decir
Ker(f(L)) Ker(g(L)) < Ker(h(L))
Teorema 19.2.8. Sea f(x) K[x] 0. Si h(x) es el mximo comn divisor
de f(x) y m
L
(x), entonces Ker(f(L)) = Ker(h(L)).
Demonstracin. Sea h(x) K[x] el mximo comn divisor de f(x) y
m
L
(x). Entonces tenemos que
Ker(h(L)) < Ker(f(L))
y que existen polinomios a(x), b(x) K[x] tales que
h(x) = a(x)f(x) +b(x)m
L
(x)
Ahora, si v Ker(f(L)), entonces tenemos que
h(L)(v) = a(L) f(L)(v) +b(L) m
L
(L)(v) = 0
V
de donde
Ker(f(L)) < Ker(h(L))
es decir,
Ker(h(L)) = Ker(f(L))
186 CAPTULO 19. FORMAS NORMALES : SITUACIN GENERAL
Corolario 19.2.9. Sea f(x) K[x] 0. Entonces Ker(f(L)) = 0
V
s
y slo si f(x) y m
L
(x) son relativamente primos, es decir, no existe un polinomio
de grado positivo en K[x] que divida tanto a f(x) como a m
L
(x).
Demonstracin. Si f(x) y m
L
(x) son relativamente primos, entonces ten-
emos que
0
V
= Ker(I) = Ker(f(L)) Ker(m
L
(L))
. .
V
= Ker(f(L))
Reciprocamente, si Ker(f(L)) = 0 y h(x) es el mximo comn divisor de f(x)
y m
L
(x0, entonces tenemos que
Ker(h(L)) = Ker(f(L)) Ker(m
L
(L)) = 0
V
= Ker(I)
De esta manera, el teorema 19.2.6 nos dice que 1 no puede ser un divisor estricto
de h(x), una contradiccin.
Teorema 19.2.10. Sean p(x), q(x) K[x]K polinomios. Si r(x) K[x] es
su mnimo comn multiplo, entonces todo vector de Ker(r(L)) se puede escribir
como suma de un vector de Ker(p(L)) con un vector de ker(q(L)).
Demonstracin. Ya que p(x) y q(x) dividen r(x), tenemos que
Ker(p(L)), Ker(q(L)) < Ker(r(L))
Ahora, podemos escribir
r(x) = p(x)p
1
(x) = q(x)q
1
(x)
donde p
1
(x), q
1
(x) K[x] son polinomios relativamente primos, es decir, no
hay un polinomio de grado positivo que les divida a ambos. Esto nos asegura la
existencia de polinomios a(x), b(x) K[x] de manera que
a(x)p
1
(x) +b(x)q
1
(x) = 1
Luego,
a(L) p
1
(L) +b(L) q
1
(L) = I
Esta ltima igualdad nos dice que todo vector v V puede escribirse como
v = v
1
+v
2
donde
v
1
= a(L) p
1
(L)(v), v
2
= b(L) q
1
(L)(v).
19.2. POLINOMIOS Y TRANSFORMACIONES LINEALES 187
En el caso particular que v Ker(r(x)), tenemos que
p(L) p
1
(L)(v) = q(L) q
1
(L)(v) = 0
V
y luego,
p(L)(v
1
) = q(L)(v
2
) = 0
V
,
es decir,
v
1
Ker(p(L)), v
2
Ker(q(L)).
Teorema 19.2.11. Sean p(x), q(x) K[x] K polinomios relativamente pri-
mos, es decir, no existe un polinomio de grado positivo que divida a ambos. En-
tonces
Ker(p(L) q(L)) = Ker(p(L)) Ker(q(L))
Demonstracin. En este caso, el mnimo comm mltiplo entre p(x) y q(x) es
r(x) = p(x)q(x). Por el teorema 19.2.10 tenemos que todo vector de Ker(p(L)
q(L)) se puede escribir como suma de un vector de Ker(p(L)) con un vector
de ker(q(L)). Ahora, como el mximo comn divisor entre p(x) y q(x) es 1,
tenemos por el teorema 19.2.7 que Ker(p(L)) Ker(q(L)) = Ker(I) = 0
V
.
Un consecuencia directa del anterior es el siguiente.
Teorema 19.2.12. Sea p
1
(x), ..., p
r
(x) K[x] K polinomios relativamente
primos, entonces
Ker(p
1
(L) p
2
p
r
(L)) = Ker(p
1
(L)) Ker(p
2
(L)) Ker(p
r
(L))
19.2.2. Valores propios. Sea K un valor propio de L y consideremos el
polinomio q

(x) = x K[x]. Por la denicin, existe un vector propio v ,=


0
V
asociado a , es decir, L(v) = v. Esto nos dice que Ker(q

(L)) ,= 0
V
.
Como tenemos que Ker(q

(L)) ,= 0
V
, el corolario 19.2.9 nos dice que existe
un polinomio de grado positivo que divide tanto a q

(x) como a m
L
(x), Pero
q

(x) es de grado uno y mnico, luego debemos tener que q

(x) divide a m
L
(x).
En otras palabras, de entre los factores irreducibles mnicos de m
L
(x) estn los
polinomios x , donde K recorre todos los valores propios de L en K.
188 CAPTULO 19. FORMAS NORMALES : SITUACIN GENERAL
19.2.3. Descomposicin en subespacios generalizados. Consideremos la
descomposicin en sus diferentes factores irreducibles del polinomio minimal
m
L
(x) = p
1
(x)
a
1
p
r
(x)
ar
donde p
j
(x) K[x] son polinomios mnicos irreducibles y a
j
1, 2, ....
Recordemos de la seccin anterior que si K es un valor propio de L, entonces
uno de esos polinomios p
j
(x) debe ser igual a x .
Denicin 19.2.13. Bajo las condiciones anteriores, el subespacio Ker(p
a
j
j
(L))
es llamado un subespacio generalizado de L.
Teorema 19.2.14. Cada subespacio generalizado de L resulta ser invariante
por L.
Demonstracin. Sea v Ker(p
a
j
j
(L)). Entonces
p
a
j
j
(L)(L(v)) = L(p
a
j
j
(L)(v)) = L(0) = 0
de donde obtenemos que L(v) Ker(p
a
j
j
(L)).
La descomposicin de m
L
(x) en sus factores irreducibles nos permite hacer una
descomposicin del espacio vectorial V en suma directa de los subespacios gen-
eralizados de L, como consecuencia del teorema 19.2.12.
Teorema 19.2.15. En la condicin anterior tenemos que
V = Ker(p
a
1
1
(L)) Ker(p
a
2
2
(L)) Ker(p
ar
r
(L))
Ms an, el polinomio minimal de la restriccin
L : Ker(p
a
j
j
(L)) Ker(p
a
j
j
(L))
es dado por p
a
j
j
(x).
La descomposicin anterior nos dice que si escogemos una base de Ker(p
a
j
j
(L)),
por cada j = 1, ..., r, entonces la unin de ellas es una base B de V con la cual la
matriz asociada a L tendr la forma
M(L, B, B) =
_
_
_
_
_
_
_
A
1
0 0 0
0 A
2
0 0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 A
r1
0
0 0 0 A
r
_
_
_
_
_
_
_
19.2. POLINOMIOS Y TRANSFORMACIONES LINEALES 189
donde A
j
es una matriz cuadrada de tamao igual a dim
K
Ker(p
a
j
j
(L)).
19.2.4. Reduccin al caso irreducible. De esta manera, podemos asumir el
caso en que el polinomio minimal es de la forma
m
L
(x) = p
a
(x)
donde a 1, 2, .. y p(x) K[x] es un polinomio mnico irreducible. Si lo-
gramos encontrar una base donde la matriz quede de manera sencilla, entonces,
en el caso general, basta con usar esto en cada subespacio invariante que nos d el
teorema 19.2.15.
19.2.4.1. Construccin de subespacios invariantes cclicos. Consideremos un
vector v V 0
V
y los vectores
v, L(v), L
2
(v), ....
Ya que dim
K
V < , existe un entero m 1, 2, 3, ... de manera que
B = v, L(v), ..., L
m
(v)
es un conjunto linealmente independiente, pero que
v, L(v), ..., L
m+1
(v)
es un conjunto linealmente dependiente. Denotemos por V
v,L
al subespacio gen-
erado por B.
Denicin 19.2.16. El subespacio V
v,L
arriba construido es llamado un sube-
spacio cclico de V para L.
De la construccin hecha es claro el siguiente hecho.
Teorema 19.2.17. El subespacio cclico V
v,L
es invariante por L. Si B =
v, L(v), ..., L
m
(v) es una base de V
v,L
, entonces para m 2 tenemos que
M(L, B, B) =
_
_
_
_
_
_
_
_
_
_
0 0 0 0
1 0 0 0
0 1 0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 1 0
0 0 0 1
_
_
_
_
_
_
_
_
_
_
y para m = 1, es decir, cuando v V es vector propio asociado aun valor propio
Spec
K
(L), tenemos que
M(L, B, B) = ()
190 CAPTULO 19. FORMAS NORMALES : SITUACIN GENERAL
Por cada vector v V podemos construir la transformacin lineal siguiente

v
: K[x] V : p(x) p(L)(v)
Ejercicio 51. Im(
v
) = V
v,L
.
Teorema 19.2.18. Existe un vector v V de manera que Ker(
v
) =
Ker(

L).
Demonstracin. Es claro que Ker(

L) < Ker(
v
), para cualquir v V .
Recordemos que estamos asumiendo m
L
(x) = p
a
(x), donde a 1, 2, .. y
p(x) K[x] es un polinomio mnico irreducible. Tenemos que existe un vector
v V de manera que p
a1
(L)(v) ,= 0
V
. Sea q(x) Ker(
v
). Si h(x) es el
mximo comn divisor de q(x) y m
L
(x), entonces por el teorema 19.2.8 tenemos
que v Ker(q(L)) = Ker(h(L)). Como h(x) divide m
L
(x) = p(x)
a
y p(x)
es irreducible, debemos tener que h(x) = p
b
(x), donde b 0, 1, ..., a. De
esta manera, p
b
(L)(v) = 0
V
. Ahora, la condicin anterior p
a1
(L)(v) ,= 0
V
nos
asegura que b = a, es decir, h(x) = m
L
(x) y luego, q(x) Ker(

L) como
queramos.
Teorema 19.2.19. Existe un vector v V 0
V
de manera que
dim
K
V
v,L
= grado m
L
(x)
Demonstracin. Sabemos, por el teorema 19.2.18, de la existencia de un vec-
tor v V de manera que Ker(
v
) = Ker(

L). De esta manera, tenemos que


v
induce un isomorsmo entre K[t]/Ker(

L) y Im(
v
) = V
v,L
.
Teorema 19.2.20. Tenemos que grado m
L
(x) dim
K
V . Adems, la igual-
dad ocurre s y slo si V = V
v,L
algn v V .
Demonstracin. Como consecuencia del teorema 19.2.19 tenemos que
grado m
L
(x) dim
K
V . Adems, si V = V
v,L
, entonces tenemos la
igualdad. Por otro lado, si suponemos que grado m
L
(x) = dim
K
V , en-
tonces por el teorema 19.2.19 existe un subespacio cclico V
v,L
< V con
dim
K
V
v,L
= grado m
L
(x) ; luego, V = V
v,L
.
19.2. POLINOMIOS Y TRANSFORMACIONES LINEALES 191
Teorema 19.2.21. Si V
v,L
es un subespacio cclico de V respecto a L, ento-
ces el polinomio minimal de L : V
v,L
V
v,L
es tambin m
L
(x) s y slo si
dim
K
V
v,L
= grado m
L
(x).
Demonstracin. Es claro que el polinomio minimal de L : V
v,L
V
v,L
,
digamos n(x), debe dividir m
L
(x) ya que m
L
(L) = 0. Como consecuencia del
teorema 19.2.20 tenemos que dim
K
V
v,L
= grado n(x). De esta manera, tenemos
que n(x) = m
L
(x) s y slo si grado m
L
(x) = grado n(x) = dim
K
V
v,L
.
19.2.4.2. Descomposicin en subespacios cclicos. Ahora procedemos a
nuestra segunda descomposicin ; primero hemos descompuesto V en suma
directa de subespacios generalizados y ahora cada subespacio generalizado es
descompuesto en subespacios cclicos.
Teorema 19.2.22. Existen subespacios cclicos V
1
,..., V
r
de V de manera que
V = V
1
V
r
Demonstracin. Primero escogemos un subespacio cclico V
1
< V tal que
dim
K
V
1
= grado m
L
(x), cuya existencia es dad por el teorema 19.2.19. Luego
hay que buscar un subespacio W < V de manera que V = V
1
W y tal que
W sea invariante por L. Luego, procedemos con W de la misma manera como
lo hemos hecho para V . Ya que la dimensin de V es nita, este proceso termina
despus de un nmero nito de pasos.
As, nuestro problema es como encontrar tal subespacio invariante W. La idea es
la siguiente. Consideramos la transformacin lineal L restricta a V
1
L
1
: V
1
V
1
cuyo polinomio minimal sigue siendo m
L
(x), y tambin consideramos la trans-
formacin dual de L : V V
L

: V

: L
Recordemos que tenemos la dualidad
<, >: V V

K : (v, ) < v, >= (v)


El espacio V

1
< V

es invariante por L

y podemos considerar la transformacin


lineal
L

1
: V

/V

1
V

/V

1
la cual resulta ser dual a L
1
respecto a la dualidad
<, >: V
1
V

/V

1
K : (v, ) < v, >= (v)
192 CAPTULO 19. FORMAS NORMALES : SITUACIN GENERAL
Tenemos que, por el teorema 19.2.21, que dim
K
V

/V

1
= dim
K
V
1
=
grado m
L
(x). Como consecuencia del teorema 19.2.20 obtenemos que V

/V

1
es un subespacio cclico respecto a L

1
.
Consideremos la proyeccin natural
: V

V

/V

1
y sea v

tal que (v

) genera el subespacio cclico V

/V

1
.
Se puede vericar que (denotando por m = grado m
L
(x), que
v

, L

1
(v

), ..., (L

1
)
d1
(v

)
es un conjunto linealmente independiente. Consideremos el subespacio cclico
V

,L
. Entonces, tenemos que
dim
K
V

,L
grado m
L
(x)
pero como sabemos, por el teorema 19.2.20, que
grado m
L
(x) dim
K
V

v

,L

obtenemos la igualdad
dim
K
V

,L
= grado m
L
(x)
Como consecuencia de esta igualdad, tenemos que
: V

,L
V

/V

1
es inyectiva, y como consecuencia, tenemos que
V

,L
V

1
..
Ker()
= 0
V

Ya que
dim
K
V

,L
+dim
K
V

1
= grado m
L
(x) +(dim
K
V dim
K
V
1
. .
grado m
L
(x)
) = dim
K
V
obtenemos que
V

= V

,L
V

1
De esta manera, obtenemos que
V = (V

v

,L
)

V
1
Ya que V

v

,L
es invariante por L

, obtenemos que W = (V

,L
)

es invariante
por L.
19.2. POLINOMIOS Y TRANSFORMACIONES LINEALES 193
19.2.5. Resumiendo lo anterior. Supongamos que tenemos un espacio vec-
torial V , sobre un cuerpo K (el cual hemos asumido tiene caracterstica 0) y ten-
emos una transformacin lineal L : V V , L ,= 0 (para la transformacin trivial
cualquier representacin matricial es dada por la matriz trivial).
Calculamos su polinomio minimal m
L
(x) K[x], el cual es el polinomio mnico
de grado menor con la propiedad que m
L
(L) = 0.
Hacemos a descomposicin de m
L
(x) en sus factores irreducibles
m
L
(x) = p
1
(x)
a
1
p
r
(x)
ar
donde p
j
(x) K[x] son polinomios mnicos irreducibles y a
j
1, 2, ....
Si K es un valor propio de L, entonces uno de esos polinomios p
j
(x) debe
ser igual a x .
Consideramos la descoposicin en subespacios generalizados
V = Ker(p
a
1
1
(L)) Ker(p
a
2
2
(L)) Ker(p
ar
r
(L))
El polinomio minimal de la restriccin
L : Ker(p
a
j
j
(L)) Ker(p
a
j
j
(L))
es dado por p
a
j
j
(x). La descomposicin anterior nos dice que si escogemos una
base de Ker(p
a
j
j
(L)), por cada j = 1, ..., r, entonces la unin de ellas es una base
B de V con la cual la matriz asociada a L tendr la forma
M(L, B, B) =
_
_
_
_
_
_
_
A
1
0 0 0
0 A
2
0 0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 A
r1
0
0 0 0 A
r
_
_
_
_
_
_
_
donde A
j
es una matriz cuadrada de tamao igual a dim
K
Ker(p
a
j
j
(L)).
Ahora, cada subespacio generalizado se descompone en suma directa de subespa-
cios cclicos, de manera que cada matriz A
j
queda dada como
A
j
=
_
_
_
_
_
_
_
B
1
0 0 0
0 B
2
0 0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 B
s
j
1
0
0 0 0 B
s
j
_
_
_
_
_
_
_
194 CAPTULO 19. FORMAS NORMALES : SITUACIN GENERAL
donde cada matriz B
k
tiene la forma siguiente : si B
k
tiene tamao mayor igual
a 2, entonces
B
k
=
_
_
_
_
_
_
_
_
_
_
0 0 0 0
1 0 0 0
0 1 0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 1 0
0 0 0 1
_
_
_
_
_
_
_
_
_
_
y si B
k
tiene tamao 1, entonces
B
k
= ()
donde Spec
K
(L).
Observacin 19.2.23. Uno puede descomponer cada subespacio cclico en
suma directa de ms subespacios cclicos invariante de manera que cada matriz
B
k
puede ser escrita como bloques diagonales ms pequeos.
Supongamos que ya tenemos una descomposicin de V en subespacios cclicos
invariantes con la propiedad que cada uno de ellos no pueda ser escrito como suma
directa de otros subespacios propios invariantes por L.
Denicin 19.2.24. Un subespacio W < V que es invariante por L es lla-
mado irreducible si no es posible escribir W = U Z, donde U, Z < W son
ambos invariantes por L y ambos no-triviales.
Teorema 19.2.25. Sea W < un subespacio irreducible el cual es invariante
por L. Si el polinomio minimal de L : W W es de la forma
m(x) = (x )
a
entonces Spec
K
(L) y existe una base B de W de manera que
M(L, B, B) =
_
_
_
_
_
_
_
1 0 0 0 0
0 1 0 0 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 0 1
0 0 0 0 0
_
_
_
_
_
_
_
Ejercicio 52. Encontrar las formas matriciales simples para el caso en que V
sea :
19.2. POLINOMIOS Y TRANSFORMACIONES LINEALES 195
(i) un espacio vectorial sobre C de dimensin nita ;
(ii) un espacio vectorial sobre de dimensin 2.
Ejercicio 53. Usar las formas normales simples para vericar que el poli-
nomio caracterstico es divisible por el polinimio minimal y que tienen los mismo
ceros.
REFERENCIAS
[1] W. Greub. Linear Algebra. GTM 23, Springer-Verlag, 1981.
[2] K. Hoffman and R. Kunze. Linear Algebra. Prentice-Hall Inc., 1961.
[3] S. Lang. Linear Algebra. Addison Wesley, 1970.
INDICE
Ajuste lineal, 25
Amplicacin de matrices, 8
Anlisis de regresin, 25
Angulos, 111
Anillo, 179
Anillo de polinomios, 181
Anillos, 179
Anillos isomorfos, 180
Automorsmos lineales, 60
Base, 44
Base cannica de K
n
, 50
Base ortogonal, 115
Base ortonormal, 115
Bases duales, 74
Cadenas, 45
Cadenas de Markov, 21
Caracterstica de un cuerpo, 5
Cofactores de una matriz, 98
Combinacin lineal, 39
Complexicacin, 68
Conjunto linealmente dependiente, 43
Conjunto parcialmente ordenado, 45
Conjuntos ortogonales, 115
Conjuntos ortonormales, 115
Conjuto linealmente independiente, 43
Convolucin, 13
Coordenadas, 51
Corchete de Lie, 9
Cuerpo, 1
Cuerpo C, 3
Cuerpo Q, 2
Cuerpo R, 3
Cuerpo Zp, 3
Cuerpos cuadrticos, 3
Cuerpos denidos por polinomios irre-
ducibles, 4
Desigualdad de Hadamard, 128
Desigualdad de Schwarz, 110
Determinante de Gram, 127
Determinantes de matrices, 96
Determinantes de transformaciones lineales,
95
Dimensin, 48
Distancia, 106
Ecuaciones diferenciales, 37
Ecuaciones integrales, 37
elemento maximal, 45
Espacio dual V

= L(V, K), 73
Espacio unitario, 173
Espacio vectorial, 35
Espacio vectorial cociente, 41
Espacios duales, 75
Espacios ortogonales, 112
Espacios ortogonales para dualidades, 76
Espacios vectoriales isomorfos, 59
Estructuras articuladas, 23
Estructuras complejas, 67
Funcin bilineal, 75
Funcin bilineal no-degenerada, 75
Funciones determinante, 92
Funciones multilineales, 89
Funciones multilineales alternadas, 91
Grado de un polinomio, 181
Grafos, 14
200 INDICE
Homomorsmo de anillos, 180
Ideal, 180
Ideal derecho, 180
Ideal izquierdo, 180
Ideal principal, 180
Imagen de una transformacin lineal, 59
Involucin, 139
Isomorsmo de anillos, 180
Isomorsmos, 59
Lema de Zorn, 45
Mtodo de eliminacin de Gauss, 27
Mtodo iterativo de Jacobi, 31
Mnimos cuadrados, 25
Matrices, 7
Matrices conjugadas, 11
Matrices hermitianas, 10
Matrices invertibles, 11
Matrices simrticas, 10
Matrices singulares, 11
Matrices transpuestas, 10
matriz adjunta, 101
matriz aumentada, 28
Matriz cambio de base, 53
Matriz cero, 7
matriz cuadrada, 7
matriz de cofactores, 98
matriz de Gram, 126
matriz de Householder, 122
Matriz de incidencia, 15
matriz de probabilidad, 13
Matriz de una transformacin lineal, 84
Matriz diagonal, 7
Matriz identidad, 7
Matriz nilpotente, 142
matriz ortogonal, 164
Matriz positiva denida, 118
Matriz triangular, 7
Modelo de entrada-salida de Leontief, 32
Morsmos lineales, 57
Multiplicacin de matrices, 9
Ncleo de una transformacin lineal, 59
Norma, 129
Norma de una transformacin lineal, 129
Norma de vectores, 106
Polinomio caracterstico, 136
Polinomio mnico, 182
Polinomio minimal, 183
Polinomios, 37, 181
Polinomios irreducibles, 182
Proceso de ortogonalizacin de Gramm-
Schmidt, 116
Producto cruz, 11
producto de Kronecker, 12
Producto interior, 105
Producto interior Euclidiano, 106
Producto interior Hermitiano, 106
Producto interior no-degenerado, 105
producto tensorial, 12
Proyeccin ortogonal, 113
Proyecciones ortogonales, 113
Relacin de orden, 45
Rotacin, 163
Series discreta de Fourier, 20
Sistemas lineales, 17
Subanillos, 180
Subespacio generado, 39
Subespacios cclicos, 189
Subespacios generalizados, 188
Subespacios invariantes, 63
Subespacios irreducibles, 194
Subespacios vectoriales, 38
Sucesiones, 36
Sucuerpos, 2
Suma de matrices, 7
Teorema de representacin de Riez, 77, 119
Transformacin adjunta, 146, 175
Transformacin anti-Hermitiana, 175
Transformacin antilineal, 174
Transformacin antisimtrica, 150
Transformacin estrictamente positiva
denida, 169
Transformacin Hermitiana, 175
Transformacin normal, 168
Transformacin positiva denida, 169
Transformacin simtrica, 150
Transformacin unitaria, 175
Transformaciones duales, 78
Transformaciones lineales, 57
Transformada de Laplace, 61
Transformada discreta inversa de Fourier, 21
Traza, 40
Valor propio, 134
Vector propio, 134
Vectores ortogonales, 112
INDICE 201
Vectores ortogonales para dualidades, 76 Volmenes de paralileppedos, 127
Rubn A. Hidalgo es profesor e investigador del Departa-
mento de Matemtica de la Universidad Tcnica Federico Santa Mara. Es miem-
bro del Grupo de Geometra Compleja de Chile, y su principal inters es el estudio
de supercies de Riemann y grupos Kleinianos. Obtuvo su Ph.D. en Matemticas
en la State University of New York (SUNY) at Stony Brook, NY, USA, y su Habil-
itacin en la Universitaet Bielefeld, Bielefeld, Alemania. Actualmente es miembro
del grupo de estudio del rea de Matemticas de Fondecyt. Mayor informacin en
la pgiana web www.mat.utfsm.cl
ISBN XXXXXXXXXX

Das könnte Ihnen auch gefallen