Sie sind auf Seite 1von 101

Universidad Mayor de San Sim

on
Facultad de Ciencias y Tecnologa

Carrera de Matem
aticas

Algebra Lineal

Hans C. M
uller Santa Cruz

Cochabamba, .

Contenido

Prefacio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Espacios Vectoriales y Aplicaciones Lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.- Preliminares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.- Espacios de Generacion Finita . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.- Aplicaciones Lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.- Anillo de Homomorfismos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.- Matriz de una Aplicacion Lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6.- Cambio de Base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
7.- Operaciones Elementales sobre Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
8.- Signo de las Permutaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
9.- Formas Multilineales Alternadas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
10.- Determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
11.- Matriz Adjunta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
II.- Complemento . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.- Espacios Vectoriales Cocientes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.- Dual de un Espacio Vectorial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.- Formas Bilineales Simetricas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.- Espacios Euclidianos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.- Formas Hermticas, Espacios Unitarios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
III.- Formas Normales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.- Vectores y Valores Propios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.- Triangularizacion y Diagonalizacion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.- Endomorfismos Normales de un Espacio Unitario . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.- Descomposicon Can
onica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.- Teorema de Hamilton Cayley . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6.- Endomorfismos Nilpotentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
7.- Descomposici
on de Jordan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
I.-

iii
1
1
8
13
20
23
28
33
38
42
47
53
57
57
61
65
71
77
81
81
87
90
98
103
105
112

Prefacio

El Algebra Lineal es una de las ramas fundamentales de las Matem


aticas; por un lado, porque es herramienta
de trabajo imprescindible en otras
areas de las matematicas como el An
alisis, la Geometra, el An
alisis
Numerico, las Estadsticas y otras; por otro lado, las aplicaciones del Algebra Lineal en la solucion de
problemas de otras disciplinas y ciencias es moneda corriente.
El texto de Algebra Lineal est
a inscrito dentro el desarrollo que pretende dar la Carrera de Matem
aticas
en su nueva formulacion. Este texto contiene lo mas importante dentro lo que es el Algebra Lineal, dando
el vocabulario y conceptos de base para una buena utilizaci
on, presentando los razonamientos de manera
rigurosa y en lo posible elegante, mostrando ejemplos donde el Algebra Lineal es un instrumento de solucion
a los problemas presentados.
Para un buen asimilaci
on de los conocimientos y razonamientos de este texto; las definiciones y conceptos
mas significativos est
an escritos en negrillas, estos deber
an ser memorizados y manipulados fluidamente.
Los resultados mas importantes est
an expresados en los teoremas, corolarios y proposiciones, estos deber
an
tambien ser memorizados para manejarlos de manera fluida. Las demostraciones de este texto deber
an ser
trabajadas, con la finalidad de adquirir las diferentes tecnicas de demostracion que se emplean en el Algebra
Lineal. Con fines pedagogicos, en algunos paragrafos se presentan los resultados fundamentales que ser
an
tratados en el paragrafo en cuestion, estos est
an escritos en car
acteres it
alicos.
La pr
actica del curso, es una fuente para practicar los conocimientos adquiridos y as mismo como un
medio de adquirir conocimientos adicionales. Por lo tanto, una resolucion en gran n
umero de estos ejercicios,
podr
a medir el grado de asimilaci
on del estudiante.

Captulo I
Espacios Vectoriales y Aplicaciones Lineales

I.1 Preliminares

Cuerpos Conmutativos
Tanto en el colegio, como en los primeros cursos universitarios, se ha tenido un contacto directo con:
Q el conjunto de los n
umeros racionales = {n/m|n, m enteros, m 6= 0};
R el conjunto de los n
umeros reales;
C el conjunto de los n
umeros complejos.
Estos tres conjuntos est
an dotados de:
una adicion: +
una multiplicacion:
que verifican las tres familias de axiomas:
I. Adici
on
i) la adicion es conmutativa, + = + .
ii) la adicion es asociativa, ( + ) + = + ( + ).
iii) existe un elemento cero 0 tal que 0 + = + 0 = , .
iv) existe un opuesto , tal que + () = 0.
II. Multiplicaci
on
i) la multiplicaci
on es conmutativa, = .
ii) la multiplicaci
on es asociativa, ( ) = ( ).
iii) existe el elemento uno 1, tal que 1 = , .
iv) 6= 0, posee un inverso 1 = 1/, tal que 1 = 1.
III. Distributividad
i) ( + ) = + .
ii) ( + ) = + .
Un conjunto K, provisto de una adicion y de una multiplicacion se llama cuerpo conmutativo, si
satisface los tres grupos de axiomas mencionados mas arriba.
Remarca.- Un conjunto K provisto de una adicion y de una multiplicacion que satisface las tres familias de
axiomas, quiz
as excepto el axioma II.i se llama cuerpo.
Proposici
on I.1.1.- En un cuerpo conmutativo K, se tiene
1) El elemento 0 es u
nico.
2) El opuesto de es u
nico.
3) El elemento 1, as como el inverso de 6= 0 son u
nicos.
4) Se tiene + = = 0.

I Espacios Vectoriales y Aplicaciones Lineales

5) Se tiene 0 = 0, .
Demostraci
on:
1.- Supongase que 0 y 0 son ceros, entonces
0 = 0 + 0 = 0 + 0 = 0 0 = 0 .
2.- Sea K, y opuestos de . Se tiene
= + 0 = + ( + ( )) = ( + ) + ( ) = 0 + = .
3.- Ejercicio.
4.- trivial,

+ = ,
( + ) + () = + (),
+ ( + ()) = 0,
+ 0 = 0 = 0.

5.- Utilizando el punto 4) de la proposici


on, se tiene
0 = (0 + 0),
0 = 0 + 0 0 = 0.

En lo que sigue del captulo K denotar


a un cuerpo conmutativo. Se convendra = + () y
= .

Espacios Vectoriales
Un espacio vectorial sobre K, K-espacio vectorial, es un conjunto V provisto de dos operaciones:
adicion

V V V

multiplicacion por escalar

KV V

(x, y) 7 x + y

(, x) 7 x

que verifican los dos sistemas de axiomas:


I Adici
on
i) la adicion es conmutativa x + y = y + x, x, y V .
ii) la adicion es asociativa (x + y) + z = x + (y + z), x, y, z V .
iii) existe un cero, 0 V tal que 0 + x = x, x V .
iv) Todo x V posee un opuesto x, tal que x + (x) = 0.
II Multiplicaci
on por escalar
i) (x) = ()x, , K, x V .
ii) ( + )x = x + x, , K, x V .
iii) (x + y) = x + y, K, x, y V .
Definici
on I.1.2.- Un subconjunto U 6= de V espacio vectorial, es un subespacio vectorial de V , si
x, y U x + y U, , K.
Ejemplos

I.1 Preliminares

1.- K es un espacio vectorial sobre K, para la adicion y la multiplicacion de K.


2.- Sea Kn = {(1 , 2 , . . . , n )|i K, i = 1, . . . , n}, con la adicion y la multiplicacion por escalar,
definidas:
(1 , 2 , . . . , n ) + (1 , 2 , . . . , n ) = (1 + 1 , 2 + 2 , . . . , n + n ),
(1 , 2 , . . . , n ) = (1 , 2 , . . . , n ),
es un espacio vectorial sobre K.
3.- {0} V y V son subespacios vectoriales de V , si V es un espacio vectorial. Son conocidos como los
subespacios triviales de V.
Proposici
on I.1.3.- En un espacio vectorial V , sobre un cuerpo K, se tiene:
1.- El elemento 0 V es u
nico, as como el opuesto x.
2.- y V , y + y = y y = 0.
3.- 0 = 0, K.
4.- 0x = 0, x V .
5.- Sean K, x V , entonces
x = 0 = 0 o x = 0.
Demostraci
on.- Los incisos 1,2,3,4 ejercicios. El punto 5, si = 0 est
a demostrado, sino 6= 0, por
consiguiente
1 (x) =1 0,
1x = 0,
x = 0.

Convenci
on.- Generalmente el elemento cero 0 de V espacio vectorial se lo denota tambien 0. En lo que
sigue se utilizar
a esta notacion.
Ejemplos
4.- Sea X un conjunto no nulo, se define
KX = {f : X K}
el conjunto de las aplicaciones de X en K. KX es un espacio vectorial para
(f + g)(x) = f (x) + g(x)
(f )(x) = (f (x))

(I.1.1)

El cero de KX es la aplicaci
on 0 : x 7 0.
En particular RR = {f : R B} es un espacio vectorial con las operaciones (I.1.1).
5.- C 0 (R, R) = {f : R R, continua} es un espacio vectorial con las leyes (I.1.1).
6.- Se dice que p : R R es polinomial si
p(t) =

n
X
i=0

i ti ,

i R, n 6= 0;

n es el grado de p. Se denota P el conjunto de las funciones polinomiales y Pn el conjunto de las


funciones polinomiales de grado n.
Ejercicio.- Mostrar que P es un subespacio vectorial de C 0 (R, R) y Pn es un subespacio vectorial de P.
Remarca.- Un subespacio vectorial es en si mismo es un espacio vectorial.
7.- Consideremos el sistema lineal homogeneo de n ecuaciones y m incognitas, dado por

a11 1 + a12 2 + + a1m m = 0


..
..
.
.

an1 1 + an2 2 + + anm m = 0

I Espacios Vectoriales y Aplicaciones Lineales


donde los aik pertenecen a K.
Ejercicio.- Mostrar que las soluciones de este sistema forman un subespacio vectorial de Km .

Proposici
on I.1.4.- Sean V y W dos espacios vectoriales sobre un cuerpo K. El conjunto producto
V W = {(v, w)|v V, w W }
es un K-espacio vectorial, para
(v1 , w1 ) + (v2 , w2 ) = (v1 + v2 , w1 + w2 ),
(v, w) = (v, w).
Demostraci
on.- Ejercicio.
Proposici
on I.1.5.- Sea {Ui }iI una familia de subespacios de V . Entonces
de V , donde

iI

Ui es un subespacio vectorial

iI

Ui = {x V |x Ui , i I}.

Demostraci
on.- Ejercicio.
[
Remarca.Ui = {x V |i I, con x Ui } no es en general un subespacio vectorial de V .
iI

Definici
on I.1.6.- Sea A un subconjunto de V . El subespacio engendrado por A es el subespacio vectorial
mas peque
no que contiene A, se lo denota por < A >.
Se tiene < >= {0}. Existen subespacios de V que contienen un subconjunto A de V , por ejemplo V
mismo. Por consiguiente se tendra
\
< A >=
U.
AU subespacio
En realidad < A > est
a formado por el conjunto de las v V que se escriben bajo la forma
X
i ai ,
v=
suma finita

i K, ai A.

Mostrar esta u
ltima afirmacion es un interesante ejercicio, hacerlo.
Se dice que A V engendra V si y solamente si < A >= V . Por la anterior observacion, esta definicion
significa que todo v V se escribe como
X
v=
i ai ,
suma finita

i K, ai A.

Ejemplos
8.- K espacio vectorial sobre K. Sea 6= 0, entonces < {} >= K. En efecto, sea K, se tiene
= (1 ).
9.- Kn . Introducimos los elementos
e1 = (1, 0, . . . , 0), e2 = (0, 1, 0, . . . , 0), . . . , en = (0, . . . , 0, 1).
{e1 , e2 , . . . , en } engendra V . En efecto sea (1 , . . . , n ) Kn , se tiene
1 , . . . , n ) =

n
X
i=1

i ei .

I.1 Preliminares
10.- Ejercicio.- Mostrar que
< {t ti }i0 >= P

y Pn =< {t ti }ni=0 >

11.- Sean U1 , U2 , . . . , Un subespacios vectoriales de V , se denota


U1 + U2 + + Un
el subespacio engendrado por

n
[

Ui .

i=1

Ejercicio.- Mostrar que los elementos de

n
X

son aquellos de V que se escriben bajo la forma

i=1

v=

n
X
i=1

ui ,

ui U.

Definici
on I.1.7.- Se dice que la familia {v1 , . . . , vm } de V es linealmente dependiente si y solamente
si existen 1 , 2 , . . . , n K no todos nulos, tales que
n
X

i vi = 0.

i=1

Si {v1 , . . . , vm } no es linealmente dependiente, se dice que es linealmente independiente; es decir,


{v1 , . . . , vm } es linealmente independiente si y solamente si
n
X
i=1

i vi = 0 1 = 2 = = m = 0.

Se dice que =
6 A V , no necesariamente finito, es linealmente dependiente, si existe {v1 , . . . , vm } A
linealmente dependiente.
Se dice que 6= A V , no necesariamente finito, es linealmente independiente si toda familia finita
{v1 , . . . , vm } A es linealmente independiente. Se conviene que es linealmente independiente.
Ejemplos
12.- A = {0}, entonces A es linealmente dependiente.
13.- Los vectores ei , i = 1, . . . , n de Kn definidos en el ejemplo 9, forman una familia linealmente independiente.
14.- Sea V 6= {0} un espacio vectorial, 0 6= x V , entonces {x} es linealmente independiente. En efecto,
utilizando la proposici
on (I.1.3), punto 5, se tiene x = 0 = 0.
15.- Sea P el espacio de las funciones polinomiales reales.
Ejercicio.-Mostrar que el conjunto
A = {t 7 ti }i0
es una familia linealmente independiente de P.
Definici
on I.1.8.- Se dice que B V es una base de V espacio vectorial si y solamente si B es linealmente
independiente y B engendra V .
Ejemplos
16.- V = K, sea K, con 6= 0, entonces {} es una base de K.
17.- V = Kn . El conjunto {e1 , e2 , . . . , en } es una base de K n .
18.- {t 7 ti }ni=0 es una base de Pn .

I Espacios Vectoriales y Aplicaciones Lineales

Proposici
on I.1.9.- El subconjunto xiiI del espacio vectorial V es una base de V , si y solamente si todo
elemento v V se escribe de manera u
nica bajo la forma
v=

i vi ,

sumaf inita

i K.

Demostraci
on.- En los ejercicios propuestos de la pr
actica.
Aplicaci
on a los Sistemas Lineales

a11 1
Planteando

an1 1

+
..
.

a12 2

+ an2 2

+
+

a1m m

anm m

=
..
.

(I.1.2)

a1 =(a11 , a21 , . . . , an1 ) Kn ,


..
.
am =(a1m , a2m , . . . , anm ) Kn ,
b =(b1 , b2 , . . . , bn ) Kn .

El sistema (I.1.2) es equivalente a resolver 1 a1 + 2 a2 + + m am = b. Por consiguiente:


i) El sistema (I.1.2) tiene una solucion, si y solamente si b < {a1 , . . . , am } >.
ii) Si {a1 , . . . , am } es linealmente independiente y (I.1.2) tiene solucion, entonces esta es u
nica.

n Finita
I.2 Espacios de Generacio

I.2 Espacios de Generaci


on Finita

Se dice que el espacio vectorial V es de generaci


on finita si posee un sistema de generadores finito, es
decir si existe v1 , v2 , . . . , vn V , tales que todo v V , se escribe como
v=

n
X
i=1

i vi ,

i K.

Ejemplos
1.- Kn es de generacion finita, porque es engendrado por {e1 , e2 , . . . , en }.
2.- El espacio P de las funciones polinomiales no es de generacion finita. Esto se ver
a mas adelante.
3.- Ejercicio.- Si V y W son espacios vectoriales sobre K cuerpo, mostrar que V W es de generacion
finita.
En este par
agrafo se ver
a como resultado principal que los espacios vectoriales de generaci
on finita
tienen bases finitas, adem
as que todas las bases de un espacio vectorial de generaci
on finita tienen el mismo
n
umero de elementos.
Teorema I.2.1.- Intercambio de Grassmann.- Sea V 6= {0} un espacio de generacion finita. Sea Gr =
{y1 , y2 , . . . , yr } un sistema de generadores de V . Sea L = {x1 , . . . , xs } un subconjunto linealmente independiente en V . Entonces:
i) r s;
ii) Existen (r s) elementos yis+1 , yis+2 , . . . , yir de Gr tales que
{x1 , . . . , xs , yis+1 , yis+2 , . . . , yir } engendra V.
Demostraci
on.- Por induccion sobre s, donde s es el n
umero de elementos de L. Para s = 0, el enunciado
es cierto de manera trivial.
Supongamos cierto el teorema para s 1, con s > 0. A demostrar que el teorema es cierto para s.
Se utiliza la hip
otesis de induccion para L = {x1 , x2 , . . . , xs1 }, obteniendo:
i) r (s 1),
ii) existen yis , yis+1 , . . . , yir en Gr tales que
{x1 , . . . , xs1 , yis , yis+1 , . . . , yir } engendra V.
Si es necesario renumerar los yi , se puede suponer que yij = yj , es decir
{x1 , . . . , xs1 , ys , . . . , yr } engendra V .
Por lo tanto, el elemento xs se puede escribir como combinacion lineal de
x1 , . . . , xs1 , ys , . . . , yr
r
s1
X
X
j yj ,
i xi +
xs =
i=1

j=s

los j no son todos nulos, sino L sera linealmente dependiente.


De ah, se deduce que r s, existe un j, con j 6= 0. Si es necesario renumerar los yj , se puede suponer
que s 6= 0. De donde
s1
r
X
X
xs =
i xi + s ys +
j yj .
(I.2.1)
i=1

j=s+1

El siguiente paso, es mostrar que {x1 , . . . , xs , ys+1 , . . . , yr } engendra V . Sea v V , por hipotesis de induccion,
se puede escribir
r
s1
X
X
j yj ,
(I.2.2)
i xi + s ys +
v=
i=1

i=s+1

I Espacios Vectoriales y Aplicaciones Lineales

por otro lado, se tiene a partir de (I.2.1)


ys =

s1
X
i
i=1

xi +

r
X
j
1
xs +
yj ,
s
s
j=s+1

introduciendo esta u
ltima expresi
on en (I.2.2) y efectuando los c
alculos necesarios se llega a
v=

s
X

i xi +

r
X

j yj .

i=s+1

i=1

Corolario I.2.2.- Sea V un espacio vectorial de generacion finita y Gr un sistema de generadores de V .


Entonces todo subconjunto linealmente independiente contiene a lo mas #(Gr).
Consecuencia.- Sea V un espacio vectorial, se supone que V contiene un subconjunto infinito linealmente
independiente, entonces V no es de generacion finita. Por lo tanto P, no es de generacion finita.
Corolario I.2.3.- Sea V espacio vectorial de generacion finita y L un subconjunto linealmente independiente
de V . Entonces se puede completar L en un sistema finito de generadores de V .
Teorema I.2.4.- Un espacio vectorial de generacion finita, posee bases finitas. M
as precisamente, de todo
sistema de generacion finita, se puede extraer una base; es decir si Gr V engendra V , existe una base B
de V con B Gr. Si el espacio es V = {0}, se conviente que es la base de V .
Demostraci
on.- Supongamos que V 6= {0}, sino el teorema est
a mostrado. Sea Gr = {y1 , y2 , . . . , yr } un
sistema de generadores de V . Se elige B Gr tal que B es linealmente independiente y B es maximal para
esta propiedad; es decir, si B & B Gr, entonces B es linealmente dependiente. La existencia del conjunto
B est
a asegurada por que todo subconjunto linealmente en V cuenta con un n
umero finito de elementos y
adem
as este numero est
a acotado por r, el n
umero de generadores de Gr.
Afirmamos que B es una base, con lo que el teorema estara demostrado. En efecto, B es linealmente
independiente por construcci
on. Solo queda mostrar que B engendra V . Si es necesario renumerar, se puede
suponer que
B = {y1 , y2 , . . . , ys }.
Si s = r, se tiene B = Gr y por consiguiente B es un sistema de generadores.
Si s < r, por maximilidad de B, el subconjunto {y1 , y2 , . . . , ys , yi }, para i = s + 1, . . . , r es linealmente
dependiente. Por lo tanto para cada i = s + 1, . . . , r, existen 1 , 2 , . . . , n y K no todos nulos, tales que
s
X

k yk + yi = 0.

k=1

Se observa que 6= 0, por que sino B no sera linealmente independiente.


Por consiguiente
s
X
k
yi =
yk , s < i r.

(I.2.3)

k=1

Por otro lado, sea v V , como Gr es un sistema de generadores, se tiene tambien


v=

s
X

k yk +

r
X

i yi ,

i=s+1

k=1

j K.

Introduciendo (I.2.3), en cada uno de los yi con s < i r, se tiene finalmente


v=

s
X

k=1

k yk .

n Finita
I.2 Espacios de Generacio

Proposici
on I.2.5.- Sea V un espacio vectorial de generacion finita. Entonces, todas las bases de B son
finitas y comportan el mismo n
umero de elementos. Este n
umero se llama dimensi
on de V y se escribe
dimK V,

dim(V ),

dim V.

Se tiene que dim V es el n


umero maximo, respectivamente mnimo, de elementos de un subconjunto linealmente independiente en V , respectivamente que engendra V .
Demostraci
on.- a) Por el corolario I.2.2 del teorema de Grassman, todas las bases de V son finitas.

} dos bases de V . Utilizando el teorema de Grassmann con:


b) Sean {v1 , v2 , . . . , vn } y {v1 , v2 , . . . , vm

Gr = {v1 , v2 , . . . , vn }, L = {v1 , v2 , . . . , vm
} m n,

Gr = {v1 , v2 , . . . , vm }, L = {v1 , v2 , . . . , vn } m m.

c) Se denota d la dimension de V . Sea L un subconjunto linealmente independiente de V . Por el teorema


de Grassmann, con Gr una base y L, se tiene
d = #(Gr) #(L).
d) Sea Gr un subconjunto finito de V que engendra V y B una base de V , por el teorema de Grassmann, se
tiene
#(GR) #(B) = d.

Ejemplos
4.- dim(Kn ) = n.
5.- dim(Pn ) = n + 1.
6.- Ejercicio.- Mostrar que si V y W son de generacion finita, entonces V W es de generacion finita y
adem
as
dim(V W ) = dim(V ) + dim(W ).
Remarca En general un espacio vectoria posee bases y todas sus bases tienen el mismo numero de
elementos, o si V no es de generacion finita, se dice que V es de generaci
on infinita.
Proposici
on I.2.6.- Sea V de dimension d y v1 , v2 , . . . , vn n elementos de V , entonces:
i Si n > d, {v1 , v2 , . . . , vn } es linealmente dependiente.
ii Si n < d, {v1 , v2 , . . . , vn } no engendra V .
iii Si n = d, los enunciados siguientes son equivalentes:
a) {v1 , v2 , . . . , vn } es linealmente independiente,
b) {v1 , v2 , . . . , vn } engendra V ,
c) {v1 , v2 , . . . , vn } es una base de V .
Demostraci
on.- Los incisos i,ii como Ejercicio. Mostremos el inciso iii).
a)b) Sea B = {x1 , . . . , xd } una base de B, utilizando Grassman con Gr = B y L = {v1 , v2 , . . . , vn }, se
tiene que {v1 , v2 , . . . , vn } engendra V .
b)c) De todo sistema de generadores se puede extraer una base.
c)a) trivial.

Proposici
on I.2.7.- Sea V un espacio vectorial de generacion finita. Entonces, todo conjunto linealmente
independiente puede ser completado en una base de V .
Demostraci
on.- Sea L = {x1 , . . . , xs } un subconjunto linealmente independiente. B = {y1 , . . . , yd } una
base de V . Por el teorema de Grassmann, si es necesario renumerar los yi , el subconjunto
{x1 , . . . , xs , ys+1 , . . . , yd }
engendra V . De la proposici
on I.2.6, se deduce que {x1 , . . . , xs , ys+1 , . . . , yd } es una base de V .

10

I Espacios Vectoriales y Aplicaciones Lineales

Proposici
on I.2.8.- Sea V de generacion finita y U un subespacio de V . Entonces, U es de generacion
finita y se tiene dim(U ) dim(V ). Adem
as
dim(U ) = dim(V ) U = V.
Demostraci
on.- Se observa que un subconjunto linealmente independiente de U es tambien un subconjunto
linealmente independiente de V .
Los subconjuntos linealmente independientes de V , tienen a lo sumo dim(V ) elementos. Por lo tanto,
los subconjuntos linealmente independientes de U son finitos con a lo mas dim(V ) elementos.
Se elige B = {u1 , u2 , . . . , un } un subconjunto linealmente independiente maximal; es decir, si B & B
U , entonces B es linealmente dependiente.
Afirmamos que B es una base de U , con lo que estara demostrado que U es de generacion finita y
dim(U ) dim(V ). En efecto, sea u U , a demostrar que existe 1 , . . . , n K, tales que
u=

n
X

i ui .

i=1

Si u {u1 , u2 , . . . , un } est
a claro.
Si u 6 {u1 , u2 , . . . , un }, se considera B = {u1 , u2 , . . . , un , u}, por maximilidad B es linealmente dependiente.
Por consiguiente, existen 1 , . . . , n , no todos nulos tales que
0=

n
X

i ui + u.

i=1

beta 6= 0, sino B sera linealmente dependiente, entonces


u=

n
X
i
i=1

ui .

Falta probar que dim(U ) = dim(V ) U = V . Sea B = {u1 , . . . , un } una base de U, es por lo tanto un
subconjunto linealmente independiente de U y por consiguiente de V , por la proposicion I.2.6 inciso iii), B
es una base de V . La implicaci
on del otro sentido es trivial

Proposici
on I.2.9.- (F
ormula de Dimensi
on).- Sea V de generacion finita. P y Q subespacios de V .
Entonces
dim(P + Q) = dim(P ) + dim(Q) dim(P Q).
Demostraci
on.- En los ejercicios de la Practica.
Ejemplo
7.- La intersecci
on de dos planos vectoriales diferentes en R3 es una recta vectorial. En efecto, se tiene:
3
P + Q = R , porque sino P = Q,
aplicando la formula de dimension de subespacios, se deduce que
dim(P Q) = 1.

11

I.3 Aplicaciones Lineales

I.3 Aplicaciones Lineales

Definici
on I.3.1.- Sean V y W dos espacios vectoriales. Se dice que la aplicaci
on
f :V W
es lineal, o homomorfismo de espacios vectoriales, si
f (v1 + v2 ) = f (v1 ) + f (v2 ), v1 , v2 V ;
f (v) = f (v), K, v V.
Remarca.- f (0) = 0, en efecto f (0) = f (0 + 0) = f (0) + f (0).
Se denota por Hom(V, W ) el conjunto de las aplicaciones lineales de V en W .
Proposici
on I.3.2.- Hom(V, W ) es un espacio vectorial para las operaciones definidas por:
(f + g)(v) = f (v) + g(v),
(f )(v) = f (v).
Demostraci
on.- Ejercicio.
Definici
on I.3.3.- Una aplicaci
on lineal biyectiva se llama isomorfismo, una aplicaci
on lineal f : V V
se llama endomorfismo, End(V ) = Hom(V, V ). Un endomorfismo biyectivo se llama automorfismo,
Gl(V ) = {automorfismos de V }.
Ejemplos y/o Ejercicios
1.- Sea U un subespacio de V espacio vectorial, entonces la inclusion
U V
u 7 u
es lineal.
2.- La aplicaci
on definida por
Kn Kn
(1 , . . . , n ) 7 (1 , . . . , p , 0, . . . , 0) p n
es lineal.
3.- V = R2 . Las siguientes aplicaciones, estudiadas en el curso de Geometra, son lineales:
rotacion de centro O,
simetra de eje que pasa por 0,
homotecia de centro 0.
4.- Si V = P espacio de las funciones polinomiales. Las siguientes aplicaciones son lineales:
Dn : P P

D:PP
p 7 p

p 7 p(n)

5.- Consideremos V = C 0 ([0, 1], R) = {f : [0, 1] R continua}. Las siguientes aplicaciones son lineales:
C 0 ([0, 1], R) R
f 7 f (a),
a [0, 1]
Z 1
f (t)dt.
f 7
0

12

I Espacios Vectoriales y Aplicaciones Lineales


La aplicaci
on f max |f (x)| no es lineal.
x[0,1]

6.- Consideremos el sistema

a11 1
Planteando

an1 1

+
..
.

a12 2

+ +

an2 2

+ + anm m

a1m m

=
..
.

b1
(I.3.1)

= bn

a1 =(a11 , a21 , . . . , an1 ) Kn ,


..
.
am =(a1m , a2m , . . . , anm ) Kn ,
b =(b1 , b2 , . . . , bn ) Kn .

La escritura vectorial de (I.3.1) est


a dada por 1 a1 + 2 a2 + + m am = b.
Se asocia a (I.3.1) la aplicaci
on lineal
a : Km Km
(1 , . . . , m ) 7 1 a1 + 2 a2 + + m am
Resolver el sistema (I.3.1) es equivalente a encontrar = (1 , . . . , m ) Km tal que
a() = b.
7.- Sea f : V W un isomorfismo, entonces f 1 : W V es lineal.
En efecto
f 1 (w1 + w2 ) = f 1 (f (v1 ) + f (v2 )) = f 1 (f (v1 + v2 )) = v1 + v2 = f 1 (w1 ) + f 1 (w2 ),
f 1 (w) = f 1 (f (v)) = f 1 (f (v)) = v = f 1 (w).
El resultado principal de este par
agrafo, est
a dado por: Si V y W son espacios vectoriales, {v1 , . . . , vn }
una base de V , entonces para toda sucesi
on (w1 , w2 , . . . , wn ) de elementos de W , existe exactamente una
aplicaci
on lineal f : V W tal que f (vi ) = wi , para i = 1, 2, . . . , n.
Definici
on I.3.4.- Sean P y Q dos subespacios de V . Si P Q = {0}, en lugar de P + Q, se escribe P Q
suma directa de P y Q.
Proposici
on I.3.5.- Si P Q = {0}, la aplicaci
on
P QP QV
(x, y) 7 x + y

es un isomorfismo.
Demostraci
on.- Ejercicio.
Definici
on I.3.6.- Sean P y Q dos subespacios de V . Se dice que P y Q son suplementarios, o bien P es
suplementario de Q, si V = P Q.
Ejemplo
8.- Consideremos el espacio de las funciones f : R R. Sean
P = {f |f (t) = f (t)}
Q = {f |f (t) = f (t)}

13

I.3 Aplicaciones Lineales


subespacios vectoriales del espacio de las funciones reales. Se tiene que
V = P Q,
donde V es el espacio de las funciones reales. En efecto
p(t) =

f (t) + f (t)
f (t) f (t)
+ q(t) =
2
2

y f (t) = p(t) + q(t).

se tiene que V = P Q.

Proposici
on I.3.7.- Sea P V un subespacio vectorial de V espacio vectorial de dimension finita, entonces
existe al menos un suplementario de P .
Demostraci
on.- Sea {v1 , . . . , vn } una base de P , la cual se la prolonga en
{v1 , . . . , vn , vn+1 , . . . , vd } base de V . Planteamos
Q =< {vn+1 , . . . , vd } >,
Definici
on I.3.8.- (Vocabulario) Sea f : V W una aplicaci
on lineal. Sea V1 un subespacio de V ,
entonces
f (V1 ) = {w W |v V1 tal que f (v) = w}.
Si V1 = V , entonces f (V ) se llama la imagen de f y se denota Im(f ).
Sea W1 un subespacio de W , entonces
f 1 (W1 ) = {v V |f (v) W }.
Si W1 = {0}, f 1 ({0}) se llama nucleo de f se denota ker(f ).

Proposici
on I.3.9.- f (V1 ) y f 1 (W1 ) de la definicion precedente son subespacios vectoriales de V y W
respectivamente.
Demostraci
on.- Ejercicio.
Proposici
on I.3.10.- Sea f : V W lineal, entonces
a)
b)
c)

f es sobreyectiva Im(f ) = W,
f es inyectiva ker(f ) = {0},
f es biyectiva ker(f ) = {0} y Im(f ) = W.

Demostraci
on.- El punto a) es evidente.
b) Sea v ker(f ), entonces
f (v) = 0 = f (0) v = 0.
Sean v1 y v2 tales que f (v1 ) = f (v2 ), por consiguiente
f (v1 v2 ) = 0,
v1 v2 ker(f ) v1 v2 = 0 v1 = v2 .
c) Consecuencia directa de a) y b).

Teorema I.3.11.- F
ormula de Dimensi
on.- Sea V espacio vectorial de dimension finita y f : V W lineal.
Entonces Im(f ) es de generacion finita y se tiene
dim V = dim Im(f ) + dim ker(f ).

14

I Espacios Vectoriales y Aplicaciones Lineales

Demostraci
on.- a) Sea {v1 . . . , vm } una base de V , entonces {f (v1 ), . . . , f (vm )} engendra Im(f ), por lo
que Im(f ) es de generacion finita.
En efecto, sea w Im(f ), por definicion existe v V tal que f (v) = w. Se tiene
v=

m
X
i=1

i vi f (v) =

m
X

i f (vi ).

i=1

b)Sea {v1 , . . . , vn } una base de ker(f ) que se completa a


{v1 , . . . , vn , vn+1 , . . . , vm } base de V .
Afirmamos que B = {f (vn+ ), . . . , f (vm )} es una base de Im(f ), con lo que quedara demostrada la
formula de dimension.
En efecto, B engendra Im(f ), por a) se tiene que {f (v1 ), . . . , f (vm )} engendra Im(f ), ahora bien f (v1 ) =
= f (vn ) = 0.
B es linealmente independiente, sean n+1 , . . . , m K tales que
m
X

i f (vi ) = 0,

i=n+1

por consiguiente
0=f

m
X

i vi

i=n+1

Por lo tanto v ker(f ), tambien se escribe como


n
X
i=1

n
X

m
X

i=n+1

i vi ker(f ).

i vi . De donde

i=1

i vi =

m
X

i vi ,

i=n+1

por independencia lineal, se tiene necesariamente que los i = 0.

Corolario I.3.12.- Sea f : V W lineal con V y W de dimension finita, entonces:


a) Si dim V > dim W , entonces f no es inyectiva.
b) Si dim V < dim W , entonces f no es sobrectiva.
c) Si dim V = dim W , las tres condiciones siguientes son equivalentes:
i) f es inyectiva,
ii) f es sobreyectiva,
iii) f es biyectiva.
Demostraci
on.- Se utiliza la formula de dimension.
a) dim ker(f ) = dim V dim Im(f ) dim V dim W > 0, de donde ker(f ) 6= {0}, por consiguiente f no es
inyectiva.
b)dim Im(f ) = dim V dim ker(f ) dim V < dim W , de donde Im(f ) 6= W , por lo tanto f no es sobreyectiva.
c) i) ii)
dim ker(f ) = 0 dim W = dim Im(f ) f es sobreyectiva.
Por lo tanto una funci
on inyectiva es sobreyectiva y por consiguiente biyectiva, con lo que esta mostrada
i)iii).

Remarca.- El corolario I.3.12 es falso si la dimension de los espacios no es finita. Consideremos P el espacio
de las funciones polinomiales reales. La aplicaci
on
D:P P
p 7 p

15

I.3 Aplicaciones Lineales


es sobreyectiva, pero no inyectiva.

Teorema I.3.13.- Fundamental.- Sea {v1 , . . . , vn } una base de V espacio vectorial. Entonces, para toda
sucesion w1 , . . . , wn de elementos de W , existe exactamente una aplicaci
on lineal f : V W , tal que
f (vi ) = wi ,

i = 1, . . . , n.

Una aplicaci
on lineal es enteramente determinada por el comportamiento de la imagen de su base.
Demostraci
on.- a) Existencia.
n
X
i vi , i K. Se plantea
Para todo v V , se tiene una escritura u
nica v =
i=1

f (v) =

n
X

i wi ,

i=1

funcion bien determinada por que los i son u


nicos. Por construccion se tiene f (vi ) = wi para i = 1, . . . , n.
Falta ver que f es lineal, sean v y v dos elementos de V , entonces
v=

n
X

i vi ,

v =

i=1

Por consiguiente:
f (v) =

n
X

n
X

i vi

i=1

i wi

f (v ) =

i=1

n
X

v + v =

i wi

n
X

(i + i )vi .

i=1

f (v + v ) =

n
X

(i + i )vi .

i=1

i=1

Se constata que f (v + v ) = f (v) + f (v ), lo mismo para f (v) = f (v).


b) Unicidad.
Sean f y g aplicaciones lineales de V en W , tales que f (vi ) = g(vi ) para i = 1, . . . , n. Se tiene
f (v) = f (

n
X
i=1

i vi ) =

n
X

i f (vi ) =

i=1

n
X
i=1

i g(vi ) = g(

n
X

i vi ) = g(v).

i=1

Proposici
on I.3.14.- Si V y W dos espacios de dimension finita. Entonces, V y W son isomorfos, es decir
existe un isomorfismo V W , si y solamente si dim V = dim W .
Demostraci
on.- Si V y W son isomorfos, entonces dim V = dim W , caracterstica de la formula de dimension.
Si dim V = dim W , sean {v1 , . . . , vn } y {w1 , . . . , wn } bases de V y W respectivamente. Por el teorema
fundamental existe f : V W lineal tal que f (vi ) = wi . Utilizando la demostracion de la proposici
on
formula de dimension para aplicaciones lineales, se constata que Im f = W , por consiguiente la aplicaci
on es
biyectiva, consecuencia del corolario I.3.12.
Proposici
on I.3.15.- Sea {v1 , . . . , vn } una base de V , entonces la aplicaci
on

Hom(V, W ) W W W = W n
f 7 (f (v1 ), f (v2 ), . . . , f (vn ))
es un isomorfismo de espacios vectoriales.
Demostraci
on.- es lineal:
(f ) = ((f )(v1 ), . . . , (f )(vn ))
= (f (v1 ), . . . , f (vn )) = (f ),
(f + g) = ((f + g)(v1 ), . . . , (f + g)(vn ))
= (f (v1 ) + g(v1 ), . . . , f (vn ) + g(vn ))
= (f (v1 ), . . . , f (vn )) + (g(v1 ), . . . , g(vn )) = (f ) + (g).

16

I Espacios Vectoriales y Aplicaciones Lineales

El teorema fundamental indicara que es biyectiva.

Aplicaci
on a los Sistemas Lineales
Consideremos el sistema de n ecuaciones a n incognitas

a11 1 + a12 2 + + a1n n


..
.

an1 1 + an2 2 + + ann n

= b1
..
.

(I.3.2)

= b2

Proposici
on I.3.16.- Los enunciados siguientes son equivalentes para el sistema (I.3.2).
i) (bi ) K, existe a lo mas una solucion del sistema (I.3.2).
ii) (bi ) K, existe al menos una solucion del sistema (I.3.2).
iii) (bi ) K, existe exactamente una solucion del sistema (I.3.2).
iv) El sistema homogeneo asociado a (I.3.2) admite (i = 0) como u
nica solucion.
Demostraci
on.- Al sistema (I.3.2), se asocia la aplicaci
on linel a, ver ejemplo 6 de este paragrafo. Por
consiguiente
Resolver (I.3.2) Encontrar todos los Kn tal que a() = b.
Es decir encontrar, a1 ({b}). Los enunciados de la proposici
on se traducen
i) b Kn , a1 ({b}) comporta a lo mas un elemento a es inyectiva.
ii) b Kn , a1 ({b}) comporta al menos un elemento a es sobreyectiva.
iii) b Kn , a1 ({b}) comporta exactamente un elemento a es biyectiva.
iv) a1 ({0}) = {0} ker a = {0}.
Ahora bien, los cuatro puntos han sido ya mostrados en el corolario (I.3.12)

17

I.4 Anillo de Homomorfismos

I.4 Anillo de Homomorfismos

Proposici
on I.4.1.- Sean f Hom(U, V ) y g Hom(V, W ), entonces g f Hom(U, W ), donde U, V, W
son espacios vectoriales.
Demostraci
on.- Se tiene:
g f (u1 + u2 ) = g(f (u1 + u2 ))
= g(f (u1 ) + f (u2 ))
= g(f (u1 )) + g((u2 )) = f g(u1 ) + f g(u2 ),
g f (u) = g(f (u))
= g((f (u))
= g(f (u)) = g f (u).

Sobre End(V ), se tiene una adicion


(f + g)(v) = f (v) + g(v),
y una multiplicaci
on que es la composici
on de aplicaciones
(g f )(v) = g(f (v)).
Estas dos leyes de composici
on interna o operaciones verifican los axiomas siguientes:
I.- Adici
on
i la adicion es asociativa;
ii la adicion es conmutativa;
iii existe un elemento cero 0 tal que 0 + f = f , para todo f ;
iv Para todo f End(V ), existe un opuesto (f ), tal que f + (f ) = 0.
II.- Multiplicaci
on
i la multiplicaci
on es asociativa;
ii existe un uno 1, tal que 1 f = f 1 = f , para todo f .
1 = id : V V
v 7 v
I.- Distributividad
i f (g + h) = f g + f h;
ii (f + g) h = f h + g h.
Un conjunto A con una adicion y una multiplicacion que satisface los tres sistemas de axiomas descritos,
se llama anillo.
Se dice que A es una anillo conmutativo, si A es una anillo cuya multiplicacion es conmutativa.
Por lo tanto, End(V ) con la adicion y la composici
on de aplicaciones es un anillo.
Ejemplos
1.- Z con la adicion y la multiplicaci
on usual es un anillo conmutativo.
2.- Un cuerpo (conmutativo) es un anillo (conmutativo).
3.- End(V ) no es un anillo conmutativo si dim V 2. En efecto, sea {v1 , . . . , vn } una base de V y
consideremos los endomorfismos definidos por:
f :V
v1
v2
vi

W
7 v1
7 v2
7 vi , i 3;

g:V
v1
v2
vi

W
7 v1 + v2

7 v2
7 vi , i 3;

18

I Espacios Vectoriales y Aplicaciones Lineales


entonces

gf :V
v1
v2
vi

f g :W
v1 7 (v1 + v2 )
v2 7 v2
vi 7 vi , i 3;

W
7 v1 + v2
7 v2
7 vi , i 3;

Si 6= , se tiene f g(v1 ) 6= g f (v1 ) y por consiguiente f g 6= g f .


Definici
on I.4.2.- Sea A y B dos anillos. Una aplicaci
on f : A B es un homomorfismo de anillos si
i f (a1 + a2 ) = f (a1 ) + f (a2 ),
ii f (a1 a2 ) = f (a1 )f (a2 ),
iii f (1) = 1.
Definici
on I.4.3.- Sea A un anillo, se dice que I A diferente del conjunto vacio es un ideal por izquierda
(por derecha), si
i x, y I x + y I,
ii x I, a A ax I (xa I).

Grupos
Un grupo G es un conjunto dotado de una ley de composici
on interna o operaci
on
GGG
(g1 , g2 ) 7 g1 g2
tal que
i (g1 g2 ) g3 = g1 (g2 g3 ), g1 , g2 , g3 G (Asociatividad);
ii Existe un elemento neutro e tal que e g = g e = g, g G;
iii Todo elemento g G posee un inverso g tal que
g g = g g = e.
Se dice que G un grupo es conmutativo o abeliano si ademas
g1 g2 = g2 g1 ,

g1 , g2 G.

Notaci
on Multiplicativa
Si G es un grupo y la operaci
on se la denota por , es decir
GGG
(g1 , g2 ) 7 g1 g2
el elemento neutro (uno) se denota por 1 y el inverso se denota por g 1 .
Notaci
on Aditiva (Reservada a los grupos abelianos)
Si G es un grupo y la operaci
on se la denota por +, es decir
GGG
(g1 , g2 ) 7 g1 + g2
el elemento neutro (cero) se denota por 0 y el elemento inverso (opuesto) se denota por g.
Ejemplos
4.- (Z, adicion) es un grupo abeliano.
5.- (Z, multiplicaci
on) no es grupo.
6.- (V, +) donde V es un espacio vectorial es un grupo abeliano.

19

I.4 Anillo de Homomorfismos


7.- Sea E un conjunto.
SE = {f : E E biyectiva}
con la composici
on de aplicaciones es un grupo no conmutativo si #(E) 3.
8.- Sea V un espacio vectorial, el grupo lineal
Gl(V ) = {f : V V automorfismo}
con la composici
on de aplicaciones es un grupo no conmutativo.

Definici
on I.4.4.- Sean (G, ) y (H, ) dos grupos. Un homomorfismo de grupos es una aplicaci
on tal
que
f (g1 g2 ) = f (g1 ) f (g2 ).
Ejemplo
9.- La aplicaci
on
(R, +) (R {0}, )
x 7 ex
es un homorfismo de grupos.

20

I Espacios Vectoriales y Aplicaciones Lineales

I.5 Matriz de una Aplicaci


on Lineal

Sea V un espacio vectorial y {v1 , . . . , vn } una base de V , entonces existe un isomorfismo natural dado por
: V Kn
vi 7 ei , i = 1, . . . , n
donde {e1 , . . . , en } es la base can
onica de Kn . Por consiguiente, si v =

n
X

i vi , se tiene

i=1

(v) = (1 , 2 , . . . , n ) Kn .
El elemento de K, i , se llama la i-sima componente de v respecto a la base {v1 , . . . , vn } y v V puede
escribirse en forma de componentes respecto a la base {v1 , . . . , vn } como

v = ( 1

n )

1
2

o bien v =
... ;

la segunda escritura en vector columna ser


a muy util para lo que sigue en el curso.
Una matriz A de n m a coeficientes en K es un tablero de n filas y m columnas de elementos de K

a11
a21
A=
...

an1

a1m
a2m
.
..
.

a12

an2

anm

El conjunto de las matrices n m a coeficientes en K, se lo denota por Mn,m (K).


Sean V y W dos espacios de dimension m y n respectivamente,
{v1 , . . . , vm } una base de V,
{w1 , . . . , wn } una base de W ;
sea f : V W lineal, se tiene para cada uno de los elementos de la base de V

a1j
n
X

aij wi = ... j = 1, . . . , m;
f (vj ) =
i=1
anj

donde los aij K. Por consiguiente, se puede asociar a f y a las bases {v1 , . . . , vm } y {w1 , . . . , wn }, la matriz

a11
a21
Mf =
...

an1

a1m
a2m
Mn,m (K)
..
.

a12

an2

anm

que se llama la matriz de f respecto a las bases {v1 , . . . , vm } y {w1 , . . . , wn }. Se observa inmediatamente
que el n
umero de filas es igual a la dimension del espacio destino W para f y el n
umero de columnas es igual
a la dimension del espacio fuente V para f .

n Lineal
I.5 Matriz de una Aplicacio

21

Receta.- Para construir la matriz de f respecto a las bases {vi } y {wj } disponer en vectores columnas las
componentes de f (vj ) respecto a la base {wj }.

Remarca.- Mn,m (K) est


a en biyeccion con Knm , pero con las nociones de fila y columna.

n
Proposici
on I.5.1.- Resultado principal.- Sea {vi }m
on
i=1 una base de V y {wj }i=1 una base de W . La aplicaci

Hom(V, W ) Mn,m (K)


f 7 Mf respecto a las bases en cuestion,
es biyectiva.
Demostraci
on.- Recordamos que
Hom(V, W ) W n
f 7 (f (v1 ), . . . , f (vn ))
es un isomorfismo de espacios vectoriales y que
W Kn

1
n
X
.
w=
wi 7 ..
i=1
n
es otro isomorfismo. De esta manera
Hom(V, W )
f

Knm
= Mn,m (K)

a11 a12 a1m


a2m
a21
7 (f (v1 ), . . . , f (vn )) 7

..
...
.
an1 an2 anm

Wn

es biyectiva.

Ejemplos
1.- Consideremos la proyeccion del plano R2 sobre el eje x. La matriz de la proyeccion respecto a la base
can
onica est
a dada por


e1 e1
1 0
Mf =
0 0
e2 e2
2.- Ejercicio.- Determinar las matrices respecto a la base can
onica de las aplicaciones lineales del curso de
Geometra, es decir: rotaciones, homotecias, simetras, similitudes, etc.

Transcripci
on de las Operaciones Lineales en T
erminos de Matriz
Una vez determinada la relacion existente entre el conjunto de las matrices y el espacio de los homomorfismos
es transcribir las operaciones de las aplicaciones lineales en terminos de operaciones de matrices.
Sean V espacio vectorial de base {v1 , . . . , vm } y W espacio vectorial de base {w1 , . . . , wn }. Consideremos
las aplicaciones lineales
f, g : V W,
cuyas matrices respecto a las bases en cuestion son
A = (aij ),
matrices pertenecientes a Mnm (K).

B = (bij )

22

I Espacios Vectoriales y Aplicaciones Lineales

Proposici
on I.5.2.- Sea C = (cij ) la matriz de f + g respecto a las mismas bases en cuestion, entonces
C =A+B
cij = aij + bij .
Sea D la matriz de f respecto a las bases {vi } y {wj }, entonces
D = A
dij = dij
Demostraci
on.- Ejercicio.
Corolario I.5.3.- Se tiene
Hom(V, W ) Mn,m (K)
f 7 Mf respecto a las bases {vi } y {wj },
es un isomorfismo de espacios vectoriales, con la adicion y la multiplicacion por escalares.
El siguiente paso es determinar la matriz de la composici
on de aplicaciones lineales. Sean:
U espacio vectorial con {u1 , . . . , ul } base;
V espacio vectorial con {v1 , . . . , vm } base;
W espacio vectorial con {w1 , . . . , wn } base;
los homomorfismos:
f :U V
g : V W.
Cual es la matriz de g f : U W respecto a las bases {ui } y {wj }.?
Sean:
A = (aik ) la matriz de f respecto a las bases {ui } y {vk };
B = (bkj ) la matriz de g respecto a las bases {vk } y {wj };
C = (cij ) la matriz de g f respecto a las bases {ui } y {wj }.
Por lo tanto
n
X
cji wj
g f (ui ) =
i=1

||

g(f (ui )) = g

m
X

aki vk

k=1

m
X

k=1

= cji =

m
X

m
X

aki g(vk )

k=1

!
m
n
n
X
X
X
bjk aki wj ,
bjk wj =
aki
j=1

j=1

k=1

bjk aki .

k=1

Por consiguiente C es la matriz obtenida de multiplicar BA, es decir


C = BA.
Por el uso frecuente de algunas matrices, vale la pena citarlas:

1 0
0 1
I = Ir =

0
Mr,r (K) = Mr (K)
..

.
1

n Lineal
I.5 Matriz de una Aplicacio

23

Se tiene Ir A = A, A Mr,d (K); y BIr = B, B Ms,r (K). Ir se llama la matriz identidad.


0 Mp,q (K) es la matriz cuyos coeficientes son nulos.
Corolario I.5.4.- Mn,n (K) con la adicion y la multiplicacion es un anillo (no conmutativo si n 2). Adem
as
la aplicaci
on (dim V = n):
End(V ) Mn,n (K)
f 7 Mf
es un isomorfismo de anillos.
Para el espacio V = Kn con la base can
onica, se dispone de un isomorfismo can
onico
Gl(Kn ) Gl(n, K) = {A Mn,n (K)|A es inversible}

End(Kn ) Mn,n (K)


f 7 Mf matriz de f respecto a la base can
onica de V.
Demostraci
on.- Ejercicio.
Remarca.- Sea f : V W lineal, A = (aij ) la matriz de f respecto a las bases {vi } y {wj }. Sea v V ,
Como calcular f(v)?
n
X
, entonces
Se escribe v =
i=1

f (v) =

m
X

j f (vj ) =

i=1

m
X

j=1

n
X

aij wi

i=1

n
X
i=1

m
X
j=1

aij j wi ,

lo que en notacion de componentes se traduce a

1
a11
a1m
a11
..
.
.
.
. = 1 .. + + m .. = ..
n

an1

anm

an1

a1m
..
.

anm

1
..
.
.

24

I Espacios Vectoriales y Aplicaciones Lineales

I.6 Cambio de Base

Sean:

V espacio vectorial, {v1 , . . . , vm }, {v1 , . . . , vm


} dos bases de V ;

W espacio vectorial, {w1 , . . . , wn }, {w1 , . . . , wn } dos bases de W ;


Se tiene

Hom(V, W ) Mn,m (K)


f 7 A(f ): matriz de f respecto a {vi } y {wj },

Hom(V, W ) Mn,m (K)


f 7 A (f ): matriz de f respecto a {vi } y {wj },
Programa.- Explicitar la aplicaci
on
Mn,m (K) Mn,m (K)
A(f ) 7 A (f ).

Noci
on de Matriz de Pasaje
Sean {v1 , . . . , vm } y

{v1 , . . . , vm
}

dos bases de V . Se escribe

vj =

m
X

mij vi ,

M = (mij ) Mm,m (K),

i=1

se llama la matriz de pasaje de {vi } a {vi }.


M es tambien la matriz de la aplicaci
on identidad de V respecto a {vi } en la fuente y {vi } en el destino.
De la misma manera se define N = (nij ) Mn,n por
wj =

n
X

nij wi ,

i=1

la matriz de pasaje de {wj } a {wj }.

Proposici
on I.6.1.- Sean {vi }, {vi } y {vi }, tres bases de V espacio vectorial. Se denota
M = (mij ) la matriz de pasaje de {vi } a {vi },
M = (mij ) la matriz de pasaje de {vi } a {vi }.
Entonces M M es la matriz de pasaje de {vi } a {vi }.

Demostraci
on.- Se tiene:

vj =

m
X

mkj vk ,

vk =

vj =

m
X

mkj

vj =

m
m
X
X
i=1

m
X

mik vi

vi ,

i=1

k=1

de donde

mik vi ,

i=1

k=1

obteniendo as

m
X

k=1

mik mkj
{z
mij

I.6 Cambio de Base

25

por lo tanto M = M M .

Proposici
on I.6.2.- Sea A Mm,m (K), si existe B Mm,m (K) tal que AB = I o BA = I, entonces A es
una matriz inversible de inversa B.
Demostraci
on.- Ejercicio.
Proposici
on I.6.3.- Para las matrices de pasaje se tiene:
a) Las matrices de pasaje son inversibles.
b) N y M como antes, se tiene
A(f ) = N 1 A (f )M.
Demostraci
on.-a) Se utiliza la proposici
on I.6.1 con M la matriz de pasaje de {vi } a {vi }. obteniendo de

esta manera M M = I, por la proposici


on I.6.2 se tiene que M es inversible.
b) recordemos:
m
X
vj =
mkj vk ,
k=1

n
X

wj =

n
ij wi

con (
nij ) = N 1 ,

aij wi

con A(f ) = (aij ),

aij wi

con A (f ) = (aij ).

i=1

n
X

f (vj ) =

i=1
n
X

f (vj ) =

i=1

Para mostrar el punto b), es suficiente mostrar que


aij = (N 1 A M )ij
Se tiene:
f (vj ) = f

mkj vk

mkj

X
l

Por lo tanto aij = (N 1 A M )ij .

X
l

clj

alk wl

mkj f (vk )

X X
l

alk mkj

wl

|
{z
}
(AM )lj = clj
!
!
X X
X
n
il clj wi .
n
il wi =
i

|
{z
}
(N 1 A M )ij

}.
{v1 , . . . , vm

Para f End(V ),
Corolario I.6.4.- Sea V espacio vectorial con las bases {v1 , . . . , vm } y
se denota A(f ), respectivamente A (f ), la matriz de f en la base {v1 , . . . , vm }, respectivamente en la base

{v1 , . . . , vm
}. Se denota M la matriz de pasaje de {vi } a {vi }. Entonces
A(f ) = M 1 A (f )M.

Aplicaci
on al Rango de una Matriz
Definici
on I.6.5.- Sea f W lineal. Se llama rango de f la dimension de Im(f ).

26

I Espacios Vectoriales y Aplicaciones Lineales

Proposici
on I.6.6.- Sea f : V W lineal de rango r. Entonces existe una base {v1 , . . . , vm } de V y una
base {w1 , . . . , wn } de W tales que
f (vi ) = wi
f (vi ) = 0

para i = 1, . . . , r;
para i = r + 1, . . . , m.

Dicho de otra forma, la matriz de f respecto a {vi } y {wj } es de la forma




Ir
0

0
0

Demostraci
on.- La formula de dimension para aplicaciones lineales da
dim
Im(f ) + dim ker(f ) .
| {z V} = |dim {z
} | {z }
m

mr

Se elije una base {vr+1 , . . . , vm } base de ker(f ), se completa en


{v1 , . . . , vr , vr+1 , . . . , vm } base de V . Se toma como base de Im(f ) {f (v1 ), . . . , f (vr )} y luego se completa
esta base en una base de W .

Corolario I.6.7.- Sea B Mn,m (K), entonces existe dos matrices N Gl(n, K) y M Gl(m, K), tales que
N

BM =

Ir
0

0
0

Demostraci
on.- Se aplica la proposici
on I.6.6 a b : Km Kn cuya matriz respecto a las bases can
onicas
es B.
Por la proposici
o precedente, existen {v1 , . . . , vm } y {w1 , . . . , wn } bases de Km y Kn respecto a las cuales
la matriz asociada a b es


Ir 0
.
B =
0 0
Sea M la matriz de pasaje de {vi } a la base can
onica en Km ,
N la matriz de pasaje de {wi } a la base can
onica en Kn , entonces por la proposici
on I.6.3, se tiene B =
N 1 BM

Definici
on I.6.8.- Sea B Mn,m (K)

b11
.
B = ..
bn1

...

b1m
..
.

bnm

Se considera las filas de B como elementos de Km y las columnas de B como elementos de Kn


El rango fila (columna) de B es la dimension del subespacio de Km (Kn ) engendrado por las filas (columnas) de B.
El rango columna de B es igual al rango de la aplicaci
on b : Km Kn cuya matriz respecto a las
bases can
onicas es B. En efecto, se tiene que b(ei ) es la i-sima columna de la matriz B, la imagen de b esta
engendrada por b(e1 ), . . . , b(em ).
Transpuesta de una Matriz
Sea B Mn,m (K). Se llama transpuesta deB y se la denota B t la matriz de Mm,n (K) definida por
(B t )ij = Bji .

27

I.6 Cambio de Base

De esta forma el rango fila de B es igual al rango columna de B t . En efecto, el rango fila de B es igual al
rango de la aplicaci
on bt : Kn Km , cuya matriz respecto a las bases can
onicas es B t .
Proposici
on I.6.9.- La transpuesta verifica las siguientes propiedades:
i) (B t )t = B.
ii (AB)t = B t At .
iii A Gl(n, K) At Gl(n, K) y (At )1 = (A1 )t .
Demostraci
on.- i) y ii) ejercicio. Para el punto iii), se tiene
At (A1 )t = (A1 A)t = I t = I (At )1 = (A1 )t .

Proposici
on I.6.10.- El rango fila de B es igual al rango columna de B.
Demostraci
on.- Sea r = rango columna de B. Por el corolario 1.6.7, existen N Gl(n, K) y M Gl(m, K)
tales que


Ir 0
1
B=N
M.
0 0
Se tiene aplicando las propiedades de la matriz transpuesta
Bt = M t

Ir
0

0
0

(M 1 )t .

Se interpreta las matrices como aplicaciones lineales (respecto a las bases can
onicas);
Bt
bt : Kn Km
t
M
mt : Km Km

(N t )1
(nt )1 : Kn Km


Ir 0
ir : Kn Km
0 0

(x1 , . . . , xn ) 7 (x1 , . . . , xr , 0, . . . , 0).

Se tiene bt = mt ir (nt )1 , ver el diagrama


Kn
(nt)1
Kn

bt

Km
mt
ir
Km

por lo tanto se tiene que rango(bt ) = rango(ir ) = r.


Definici
on I.6.11.- Sea B Mn,m (K), el rango de de B es
rang B = rango columna de B = rango fila deB.

28

I Espacios Vectoriales y Aplicaciones Lineales

I.7 Operaciones Elementales sobre las Matrices

Justificaci
on.- Sea

a11 1

Se introduce

an1 1

+
..
.

a12 2

+ +

an2 2

+ + anm m

A = (aij ) Mn,m ,

a1m m

1
..
. Km = Mm,1 (K),
m

=
..
.

b1

= bn

b=

b1
..
.b

Kn .

Introduciendo la notacion matricial, el sistema de ecuaciones, se convierte en


A = b.



Ir 0
Se observa que si A =
, se encuentra la solucion a la vista.
0 0
En el par
agrafo precedente, se mostro que existen M y N inversibles tales que
A = N 1

Ir
0

por consiguiente se tiene


A = N 1

Ir
0
0
0

0
0

M = b.

M;

Planteando b = N b y = M , se obtiene el sistema




Ir
0

0
0

= b .

Por lo tanto, conociendo N se deduce y conociendo M 1 se deduce .


Programa.- Explicitar un procedimiento o algoritmo que permita calcular .
Se denota Sn el conjunto de las biyecciones o permutaciones de {1, 2, . . . , n}. Es un grupo para la
composici
on de aplicaciones llamado grupo sim
etrico. Hay n! elementos en Sn .
Una permutaci
on de {1, 2, . . . , n} se representa mediante


1
2
3

n
(1) (2) (3) (n)

29

I.7 Operaciones Elementales sobre las Matrices


Ejemplo
1.- Las 6 permutaciones de

1
id =
1

1 2
3 2

S3 tienen las representaciones siguientes:





2 3
1 2 3
2 3
1 3 2



3
1 2 3
1
3 1 2


1 2 3
2 1 3


1 2 3
2 3 1

Para evitar una escritura pesada, en lugar denotar 1 2 la composici


on de permutaciones, se utilizar
a
la notacion 1 2 .
A Sm , se asocia una aplicaci
on lineal mediante
() : Km Km
ei 7 e(i)
donde {e1 , . . . , en } es la base can
onica de Km . La matriz M () de () respecto a la base can
onica es de
la forma, M () tiene los coeficientes nulos, excepto que en cada fila y columna el coeficiente no
nulo es 1. Esta matriz se llama matriz de permutaci
on.
Proposici
on I.7.1.- La aplicaci
on

Sm Gl(Km )
7 ()
es un homomorfismo de grupo, representacion lineal de Sm .
La aplicaci
on
Sm Gl(m, K)
7 M ()
es un homorfismo de grupos, representacion matricial de Sm .
Demostraci
on.- Ejercicio.
Una vez conocidas las matrices de permutacion, se debe determinar como actua las matrices de permutacion sobre una matriz. Esto est
a dado en la:
Proposici
on I.7.2.- a) Multiplicar a la derecha B por M () es equivalente a efectuar las correspondientes
permutaciones de las columnas de B.
b) Multiplicar por la izquierda B por M () es equivalenTe a efectuar las correspondientes permutaciones de
las filas de B.
Demostraci
on.- Ejercicio
Matrices Diagonales
Una matriz A diagonal es de la forma

a11
0
A=

0
a22

..

.
amm

= diag(a11 , a22 , . . . , amm )

Proposici
on I.7.3.- a) Multiplicar B por la derecha con diag(d1 , d2 , . . . , dm ) es lo mismo que multiplicar
la i-sima columna de B por di , para i = 1, . . . , m.
b) Multiplicar B por la izquierda con diag(d1 , d2 , . . . , dm ) es lo mismo que multiplicar la i-sima fila de B por
di , para i = 1, . . . , m.
Demostraci
on.- Ejercicio.
Resultado Principal

30

I Espacios Vectoriales y Aplicaciones Lineales

Sea B Mn,m (K) de rango r. Se va encontrar un procedimiento para explicitar las matrices N 1
Gl(n, K) y M Gl(m, K) tales que


Ir 0
N 1 BM =
.
0 0
Si B = 0, no hay nada que hacer.
Si B 6= 0, entonces existe un coeficiente que no es nulo. Por consiguiente:
i) Multiplicando a la izquierda y derecha por matrices de permutacion, se lleva este coeficiente al lugar
(1, 1).
ii) Multiplicando por diag(b1
11 , 1, . . . , 1) se va al caso b11 = 1.
iii) Luego

1 b12 b1m
1 0 0
1 b12 b1m

0
b21 1
0 b21

= .
.
.
..

..
.
.
B
.
.
.
0
1
bn1
bnm
bn1 0

1 b12 b1m
1 0 0
1 b12 b1m

0
0
0
1
0
.
.
= .
.
..
..
..
..
B
B
.
0

Ejemplo
1.- Consideremos la matriz
B=
Se tiene

De donde

0 1
1 1

0 1
1 0

4
3

B=

1 1 3
0 1 4

= B (1) ,



1 1 3
1 0 0
0 1
= B (2) ,
0 =
0 1 4
0 0
1




 1 0 0
1 0 0
1 0 0

.
0 1 4 =
0 1 0
0 1 4
0 0 1

1 1 3
0 1 4

1 0 0
1 1 3
0 0 1 4
M = 0 1
0 0 1
0 0
1

y N

0 1
1 0

Corolario I.7.4.- Una matriz A Gl(m, K) se escribe como producto de:


i) matrices de permutaci
on;
ii) matrices diagonales inversibles;
iii) matrices del tipo I + Li o I + Rj , donde Li es la matriz cuyos coeficientes son nulos, excepto quizas los
lki con k > i; Hj es la matriz cuyos coeficientes son nulos, excepto quizas los hjk con k > j.
Demostraci
on.- Se aplica el procedimiento de antes a A inversible. Finalmente se obtiene que
I = P AQ,
donde P es producto de matrices del tipo i), ii), iii); lo mismo Q. Entonces
A = P 1 Q1 .
Solo hay que mostrar que las inversas de i) ii) y iii) son del mismo tipo. Para i) y ii) no hay problema. Para
iii) ejercicio 32 de la pr
actica.


31

I.7 Operaciones Elementales sobre las Matrices


Mejora del Resultado
Definimos los siguientes subconjuntos de Gl(m, K):

1
U =

..

Gl(m, K)

matrices triangulares con 1 sobre la diagonal.

matrices triangulares superiores.


Para Sm se plantea

b11
B+ 0

..
.

Gl(m, K)

bmm

U M ()B+ = {XM ()Y |X U , Y B+ } .


Proposici
on I.7.5.- Descomposici
on de Bruhat. Gl(m, K) es la reuni
on disjunta de subconjuntos U M ()B+ ,
Sm .
Demostraci
on.- i) Sea A Gl(m, K), se debe mostrar que existe X U , Y B+ y Sm tales que
A = XM ()Y.
La demostraci
on se la har
a por induccion sobre m. El caso m = 1 es evidente. Supongamos cierto para
m 1, con m > 1.
Sea A Gl(m, K), y sea ai,1 6= 0 el primer coeficiente no nulo de la primera columna de A. Se tiene:

0
a
i1

..

.
1

ai+1,1

am,1

..

am1

A12

A22

A12
0

1
diag(ai1 , 1, . . . , 1) = 1
a

i+1,1
A22

{z
A

0
0

1
a
i+1,1

a
m1

A12

ai2

aim
A22

a
m1

1 ai2

aim
..

.
1

0 C11
0
= 1
0 C21

C12
0 .
C22

Por hipotesis de induccion existen U Gl(m1, K) triangular inferior con 1 en la diagonal y B Gl(m1, K)
triangular superior, Sm1 , tales que


C11
C21

C22
C22

= U M ()B

32

I Espacios Vectoriales y Aplicaciones Lineales

o todava


C11 C22
B 1 = M ( )
U
C21 C22


 

0
C11 C22
B11 B21
T11 T12
=
.
U22
C21 C22
0
B22
T21 T22
1


Por consiguiente

U11
U21

0 C11 C12

1
A=U
0
0 B
0 C21 C22

0 C11
U11 0
0
0
0
1
0 1
0 C21
U21 0 U22

0 T11 T22
0 .
= 1 0
0 T21 T22
|
{z
}

1
0
C12
0 0 B11
0
0
C22

0
B12
B22

M ()

ii) A mostrar que si (U M ()B+ ) (U M ( )B+ ) = , en clases.

38

I Espacios Vectoriales y Aplicaciones Lineales

I.8 Signo de las Permutaciones

Recordemos que


biy.
Sm = : {1, . . . , m} {1, . . . , m}}

Sean a, b {1, . . . , m}, a 6= 0, la permutacion definida por

a 7 b;
b 7 a;
i 7 i, i 6= a y i 6= b
se llama transposici
on y se denota (a, b). Por consiguiente,
(a, b) =

1 2 a
1 2 b

b
a

m
m

Proposici
on I.8.1.- El grupo Sm es engendrado por las transposiciones, es decir para Sm , existen
1 , 2 , . . . , p transposiciones, tales que
= 1 2 p .
Demostraci
on.- Por induccion sobre m.
Para m = 2 el enunciado es cierto.
Se supone cierto el enunciado para m 1. Demostremos que se cumple para m.
Sea Sm . Si (m) = m, se tiene que la restricci
on de sobre {1, . . . , m 1} es una permutacion que
pertenece a Sm1 y por hip
otesis de induccion es el producto de transposiciones.
Si (m) 6= m, se considera = ((m), m). Por construccion (m) = ((m), m)(m)
= m, de donde por el argumento del primer caso pertenece a Sm1 y es producto de transposiciones,
digamos = 1 2 p . Por lo tanto
= (m, (m))12 p .
Ejemplos
1.-

1 2 m 1 m
2 3
m
1

= (1, m)(1, m 1) (1, 3)(1, 2).

2.- La escritura de como producto de transposiciones no es u


nica.
id = (a, b)(a, b) = (a, b)(a, b)(a, b)(a, b),
Definici
on de signo de una permutaci
on
 m f

Introducimos P = R : R| f polinomial .
f : Rm R es polinomial si
f (x1 , . . . , xm ) =

finita

(2, 3) = (1, 2)(1, 3)(1, 2).

ai1 ,i2 ,...,im xi11 xi22 ximm .

P es un espacio vectorial sobre R y tambien es un anillo conmutativo para la adicion y multiplicacion de


polinomios.

39

I.8 Signo de las Permutaciones


A Sm se asocia la aplicaci
on
X

finita

() : P P
X
1
2
m
ai1 ,i2 ,...,im xi(1)
xi(2)
xi(m)
ai1 ,i2 ,...,im xi11 xi22 ximm 7
finita

Ejemplo
3.- Consideremos
=
Entonces

1 2 3 4
2 3 4 1

3
f (x1 , x2 , x3 , x4 ) = x21 + x1 x3 + x12
4 .
2

3
3
2
12
()(f (x1 , x2 , x3 , x4 )) = x2(1) + x(1) x(3) + x12
(4) = x2 + x2 x4 + x1 .
2
2

Proposici
on I.8.2.- () es un automorfismo de (espacios vectoriales y de anillo), es decir:
i) ()(f + g) = ()(f ) + ()(g),
ii) ()(f ) = ()(f ),
iii) ()(f g) = ()(f ) ()(g).
Adem
as (1 2 ) = (1 ) (2 ).
Demostraci
on.- Ejercicio.
Ejemplo
4.- Los polinomios simetricos elementales a m variables son:
f1 (x1 , . . . , xm ) = x1 + x2 + + xm ;
X
xi xj = x1 x2 + + xm1 xm ;
f2 (x1 , . . . , xm ) =
i<j

f3 (x1 , . . . , xm ) =

x1 xj xk ;

i<j<k

..
.
fm (x1 , . . . , xm ) = x1 x2 xm .
Ejercicio.- Mostrar que ()(fi ) = fi para i = 1, . . . , m y Sm .
Definamos el polinomio d P, como
Y
d=
(xi xj ) = (x1 x2 ) (x1 xm ) (xm1 xm ).
1i<jm

Si Sm , entonces ()(d) = d. Se plantea


sg() = signo() =

1 si ()(d) = d,
1 si ()(d) = d.

Ejemplo
5.- En el espacio de las funciones polinomiales a 4 variables tenemos
d = (x1 x2 )(x1 x3 )(x1 x4 )(x2 x3 )(x2 x4 )(x3 x4 ).
Tomando la permutaci
on del ejemplo 3, se tiene
()(d) = (x2 x3 )(x2 x4 )(x2 x1 )(x3 x1 )(x3 x4 )(x4 x1 ) = d.

40

I Espacios Vectoriales y Aplicaciones Lineales

Proposici
on I.8.3.- Se tiene que
sg

Sm {1}
es un homomorfismo de grupos.
Demostraci
on.-En efecto:
(1 2 )(d) = ((1 ) (2 ))(d) = (1 )((2 ))(d)) =

(1 )(sg(2 )d) = sg(2 )(1 )(d) = sg(2 ) sg(1 ),

Por consiguiente
sg(1 2 ) = sg(1 )sg(2 ).

Proposici
on I.8.4.- Sea una transposicion, entonces sg( ) = 1.
Demostracion.- Sea = (a, b) con a < b, se tiene
Y
(xi xj )
d=
i<j

= (xa xb )
= (xa xb )

i<j
i6=a,b
j6=a,b

(xi xj )

Y
Y
Y
Y
(xb xj )
(xi xa )
(xi xb )
(xa xj )
i<j

a<j
j6=b

[(xi xa )(xi xb )]

i<a

i<b
i6=a

j>b

[(xa xi )(xi xb )]

a<i<b

Y
Y
[(xa xi )(xb xi )]
(xi xj );
b<i

()(d) = (xb xa )

[(xi xb )(xi xa )]

i<a

i<j
i6=a,b
j6=a,b

[(xb xi )(xi xa )]

a<i<b

Y
Y
(xi xj );
[(xb xi )(xa xi )]
b<i

i<j
i6=a,b
j6=a,b

()(d) = d.

Corolario I.8.5.- i) Si = 1 p , con i transposicion, entonces


sg() = (1)p .

ii) Sea = 1 p = 1 p donde i y i transposiciones, se tiene por i) sg() = (1)p = (1)p , entonces
p y p tienen la misma paridad.
C
alculo Pr
actico de sg()
Sea Sm , la permutacion cuyo representacion es

0
B

(1)

(i)

j
i

(j )

m
m

1
CA

(m)

Para determinar el signo de la permutaci


on, se debe contar el n
umero de intersecciones de los segmentos que
unen el elemento i en la fila de arriba, con el elemento i en la fila de abajo. Este n
umero se lo denota por
j().

41

I.8 Signo de las Permutaciones


Proposici
on I.8.6.- j() es
j() = #{(i, j)| i < j y (i) > (j)}

n
umero de inversiones.
Demostraci
on Mostraremos que g(i) > g(j) hay intersecci
on de los segmentos de extremidades (i)
y (j). En efecto

(i)
i
(j)
j
.

(i)
(j)
Hay interseccion, el diagrama indicara que (i) > (j),

(j)

(i)

(i)

j
(j)

Proposici
on I.8.7.- Se tiene
sg(d) = (1)j() .
Demostraci
on Se tiene que ()(d) = sg(d). Estudiemos la acci
on de () sobre los factores de d, por
consiguiente
(xi xj ) 7 (x(i) x(j) ) =

un factor de d si (i) < (j),


(1) un factor de d si (i) > (j).

42

I Espacios Vectoriales y Aplicaciones Lineales

I.9 Formas Multilineales Alternadas

Definici
on I.9.1.- Sean V y W dos espacios vectoriales y m un entero positivo. Una aplicaci
on
F :V
{z V} W
| V
m veces

es mulitilineal, si

F (v1 , v2 , . . . , vi + vi , . . . , vm ) = F (v1 , . . . , vi , . . . , vm ) + F (v1 , . . . , vi , . . . , vm ),


i = 1, . . . , m. Dicho de otra manera, se pide que F sea lineal en cada una de las variables separadamente.
Ejemplos
1.- La siguiente aplicaci
on es m-lineal
K K K
|
{z
}
m

(1 , . . . , m ) 7

m
Y

i .

i=1

2.- Sea A Mn,n (K) una matriz, la aplicaci


on definida por
KKK
(x, y) 7 xt Ay = ( x1

a11
.
xn ) ..
an1


y1
a1n
.. ..
.
.

ann

es bilineal. En particular
R3 R3 R

(x, y) 7 xt Iy = x1 y1 + x2 y2 + x3 y3

producto escalar euclidiano en R3 .


3.- El producto vectorial o cruz en R3 , definido por
R3 R3 R


x2 y3 x3 y3
y1
x1
x2 , y2 7 x3 y1 x1 y3
x1 y2 x2 y1
y3
x3

es bilineal.
4.- La aplicaci
on
Mn,n (K) Mn,n (K) Mn,n (K) Mn,n (K)
(A, B, C) 7 ABC
es trilineal.
5.- La aplicaci
on
End(V ) End(V ) End(V )
(f, g) 7 f g g f
es bilineal.

yn

43

I.9 Formas Multilineales Alternadas

Definici
on I.9.2.- Sea F : V V V W multilineal. Se dice que F es multilineal alternada, si
F (v1 , . . . , vi , . . . , vi , . . . , vn ) = 0;
es decir, del momento en que existan vi = vj con i 6= j. F es multilineal sim
etrica, si
F (v1 , . . . , vi , . . . , vj , . . . , vn ) = F (v1 , . . . , vj , . . . , vi , . . . , vn ), i 6= j.
F es multilineal antisim
etrica, si
F (v1 , . . . , vi , . . . , vj , . . . , vn ) = F (v1 , . . . , vj , . . . , vi , . . . , vn ), i 6= j.
Ejemplo
6.- La aplicaci
on multilineal del ejemplo 1) es simetrica si K es un cuerpo conmutativo.
Definici
on I.9.3.- Se dice que un cuerpo K es de caracterstica 6= 2 si 1 6= 1 en K.
Ejemplos
7.- Los cuerpos Q, R y C son de caracterstica 6= 2.
8.- El cuerpo F2 es de caracterstica = 2.
Proposici
on I.9.4.- Sea F : V V W multilineal.
i) F es alternada, entonces F es antisimetrica.
ii) Si la caracterstica de K 6= 2, entonces F antisimetrica es alternada.
Demostraci
on.- i) Supongamos F alternada. Se tiene
0 = F (v1 , . . . , vi + vj , . . . , vi + vj , . . . vn ) =
F (v1 , . . . , vi , . . . , vj , . . . , vn ) + F (v1 , . . . , vj , . . . , vi , . . . , vn ),
por consiguiente F es antisimetrica.
ii) Supongamos F antisimetrica. Se tiene
F (v1 , . . . , vi , . . . , vi , . . . , vn ) = F (v1 , . . . , vi , . . . , vi , . . . , vn )
Por lo tanto
(1 + 1)F (v1 , . . . , vi , . . . , vi , . . . , vn ) = 0,
F es alternada.

Proposici
on I.9.5.- Sea F : V V W multilineal alternada. Entonces
i) F (v(1) , . . . , v(n) ) = sg()F (v1 , . . . , vn ), donde vi V y Sn .
ii) F (v1 , . . . , vi + vj , . . . , vn ) = F (v1 , . . . , vi , . . . , vn ).
iii) Si v1 , . . . , vn son linealmente dependientes, entonces F (v1 , . . . , vn ) = 0.
Demostraci
on.- i) = 1 p con i transposicion. Como F es alternada, F es antisimetrica. De donde
F (v (1) , . . . , v (n) ) = F (v1 , . . . , vn ).
Por consiguiente, por antisimetra se obtiene i).
ii) Verificaci
on inmediata.
iii) Si es necesario efectuar una transposici
on, se puede suponer que
v1 =

n
X
i=2

i vi ,

44

I Espacios Vectoriales y Aplicaciones Lineales

de donde
F (v1 , . . . , vn ) = F (

n
X

n
X

i vi , v2 , . . . , vn ) =

i=2

i F (vi , v2 , . . . , vn ) = 0.

i=2

Se denota An = { Sm |sg = 1}, llamado grupo alternado de orden n.


Proposici
on I.9.6.- Se tiene
Sm = Am
donde es una transposici
on.

Am ,

(union disjunta)

Demostraci
on.- Sea Sm , si sg() = 1, entonces Am .
Sino, sg() = 1, se tiene ( ) = y Am .
Veamos que la uni
on es disjunta. En efecto, supongamos que existe un elemento Am Am , se tendra
que sg() = 1 y sg() = 1, lo que es absurdo.

Teorema I.9.7.- Sea F : V V V W multilineal alternada, con dim V = m. Sea {e1 , e2 , . . . , em }
|
{z
}
m veces
una base de V . Sean v1 , . . . , vm elementos de V , que pueden escribirse como
vj =

m
X

aij ei .

i=1

Entonces
F (v1 , . . . , vm ) =

Sm

sg()a(1),1 a(2),2 a(m),m

F (e1 , e2 , . . . , em ).

(I.9.1)

Reciprocamente la formula (I.9.1) define F como aplicaci


on multilineal alternada.
Demostraci
on.- Para facilitar la demostracion, utilizemos la notacion
vj =

m
X

aij ,j eij .

ij =1

Por consiguiente, se tiene


F (v1 , v2 , . . . , vm ) = F (

ai1 ,1 ei1 ,

ai2 ,2 ei2 , . . . ,

aim ,m eim
m
X

i1 ,...,im =1

ai1 ,1 ai2 ,2 aim ,m F (ei1 , ei2 , . . . , eim ) .


|
{z
}
=0 si ik =ij con k6=j

Por lo tanto, en esta suma es suficiente considerar las familias {i1 , . . . , im } con ik 6 il . De esta manera


1
i1

2
i2

m
im

es una permutaci
on de {1, 2, . . . , m}. De la proposicion I.9.5 punto i), se tiene el resultado deseado.
Sea F : V

{z V} W definida por (I.9.1)


|
m veces
a) F es multilineal; en efecto, sean
vj

m
X
i=1

ai,j ei ,

vj

m
X
i=1

ai,j ei ,

45

I.9 Formas Multilineales Alternadas


se tiene
vj + vj =

m
X

(ai,j + ai,j )ej .

i=1

Por lo tanto
F (v1 , . . . , vj + vj , . . . , vm )
X

Sm

sg()a(1),1 ( a(j),j
=

Sm

a(j),j ) a(m),m

sg()a(1),1 a(j),j

Sm

a(m),m

sg()a(1),1 a(j),j a(m),m

F (e1 , . . . , em )

F (e1 , . . . , em )
!

F (e1 , . . . , em )

= F (v1 , . . . , vj , . . . , vm ) + F (v1 , . . . , vj , . . . , vm ).

Mostremos que F es alternada. Sean vi = vj =

m
X

ak,i ek =

k=1

F (v1 , . . . , vi , . . . , vj , . . . , vm ) =

m
X

ak,j ek . Aplicando la formula (I.9.1), se tiene

k=1

Sm

sg()a(1),1 a(m),m

F (e1 , . . . , em ).

Utilizando la proposici
on I.9.6 con = (i, j), podemos escribir
!
!
X
X
F (v1 , . . . , vi , . . . , vj , . . . , vm ) =
F (e1 , . . . , em ) + (
F (e1 , . . . , em )
Am

Am

Am

Am

a(1),1 a(i),i a(j),j a(m),m

a (1),1 a (i),i a (j),j a (m)m

F (e1 , . . . , em )

F (e1 , . . . , em ),
= 0.


Proposici
on I.9.8.- Se escribe Altm (V, W ) el conjunto de las aplicaciones multilineales V V V
|
{z
}
m veces
W . Entonces Altm (V, W ) es un K-espacio vectorial para
(F + G)(v1 , . . . , vm ) = F (v1 , . . . , vm ) + G(v1 , . . . , vm )
(F )(v1 , . . . , vm ) = (F (v1 , . . . , vm ))
con F, G Altm (V, W ) y K.
Demostraci
on.- Ejercicio.
Corolario I.9.9.- Si dim V = m, entonces dim(Altm (V, W )) = dim W .
Demostraci
on.- Por el teorema precedente se tiene
Altm (V, W ) W
F 7 F (e1 , e2 , . . . , em )

46

I Espacios Vectoriales y Aplicaciones Lineales

es un isomorfismo de espacios vectoriales.

Proposici
on I.9.10.- Sea {x1 , . . . , xm } una familia de elementos V , (dim V = m).
Entonces {x1 , . . . , xm } es una base de V F (x1 , . . . , xn ) 6= 0, F 6= 0 Altm (V, W ).
Demostraci
on.- {x1 , . . . , xm } es una base de V y F 6= 0. Entonces existen v1 , . . . , vm V , tales que
F (v1 , . . . , vm ) 6= 0. Utilizando la formula (I.9.1) es necesario que F (x1 , . . . , xn ) 6= 0.
Se procede por contraposici
on, sea {x1 , . . . , xm } una familia de V que no es base, entonces {x1 , . . . , xm }
es linealmente dependiente y por la proposici
on I.9.5 punto iii), se tiene
F (x1 , . . . , xn ) = 0,

F Altm (V, W ).

47

I.10 Determinantes

I.10 Determinantes

Sea f : V1 V2 lineal. Entonces f induce una aplicaci


on lineal definida por
f : Altm (V2 , W ) Altm (V1 , W )
F 7 ((v1 , . . . , vm ) 7 F (f (v1 ), . . . , f (vm )).
Analisemos el caso particular en el que V1 = V2 = V , con dim V = m y W = K. Por consiguiente f End(V )
induce
f : Altm (V, K) Altm (V, K).

Por el teorema del paragrafo precedente, se tiene que dim Altm (V, K) = 1. De esta forma f es una homotecia
de Altm (V, K). La raz
on de la homotecia se llama determinante de f End(V ). Es decir
f (D) = (det f )D para D Altm (V, K)
D(f (v1 ), . . . , f (vm )) = (det f )D(v1 , . . . , vm ).
Ejemplo
1.- Sea V = Km , recordamos

() : Km Km
ei 7 e(i)

Se tiene que det(()) = sg(). En efecto


D(()(e1 ), . . . , ()(em )) = D(e(1) , . . . , e(m) ) = sgD(e1 , . . . , em ).
Proposici
on I.10.1.- Se tiene:
i) det(idV ) = 1.
ii) det(f g) = det(f ) det(g).
iii) f End(V ), entonces

f Gl(V ) det(f ) 6= 0.

Demostraci
on.- i) Trivial
ii) Se tiene
(f g) D(v1 , . . . , vm ) = D(f g(v1 ), . . . , f g(vm ))
= D(f (g(v1 )), . . . , f (g(vm )))
(det f )D(g(v1 ), . . . , g(vm ))
(det f )(det g)D(v1 , . . . , vm ).
iii) Si f es inversible, existe f 1 End(V ), tal que f f 1 = idV ; por los puntos ii) y i) se tiene
(det f )(det f 1 ) = 1.
Se supone que det f 6= 0. Se elige una base {e1 , . . . , em } de V . Sea D Altm (V, K), con D 6= 0; se tiene
D(e1 , . . . , em ) 6= 0. Por otro lado
D(f (e1 ), . . . , f (em )) = (f D)(e1 , . . . , em )
= (det f )D(e1 , . . . , em ) 6= 0,
de donde {f (e1 ), . . . , f (em )} es una base de V . Por consiguiente f es un isomorfismo.

48

I Espacios Vectoriales y Aplicaciones Lineales




Determinante de una Matriz


Se dispone de un isomorfismo can
onico

End(Km ) Mmm (K)


f 7 A(f ) matriz de f respecto a las bases can
onicas,

(Ax x) A.
Se plantea




det A = det((A)) =

a11
..
.

a1m

am1

amm

Proposici
on I.10.2.- Para A = (aij ) Mm,m , se tiene
det A =

Sm



..
. .

sg()a(1),1 a(m),m .

Demostraci
on.- En efecto; Sean {e1 , . . . , em } la base can
onica de Km , D Altm (Km , K) no nula. Se tiene
det((A) D(e1 , . . . , em ) = (A) D(e1 , . . . , em )
| {z }
det A

= D((A)(e1 ), . . . , (A)em )
X
X
= D(
ai,1 ei , . . . ,
ai,m ei )
=

Sm

sg()a(1),1 a(m),m

D(e1 , . . . , em )


49

I.10 Determinantes
Ejemplos
2.- Para m = 1, se tiene det A = a11 .
3.- Para m = 2, utilizando la proposici
on precedente obtenemos


a11 a12


a21 a22 = a11 a22 a21 a12 .

Proposici
on I.10.3.- Tenemos:
i) det I = 1
ii) det AB = det A det B, donde A, B Mm,m (K).
iii) A es inversible det A 6= 0.
iv) det(A) = m det A, si A Mm,m (K).
v) det A = det At .
Demostraci
on.- Los puntos i), ii) y iii) son consecuencia de la proposici
on analoga para las aplicaciones
lineales.
iv) Consecuencia de la formula de la proposici
on I.10.2.
Mostremos el punto v). Se tiene
a(1),1 a(m),m = a(1),1 (1) a(m),1 (m)
= a1,1 (1) am,1 (m)

porque el cuerpo K es conmutativo.


De esta manera
X
det A =
sg()a(1),1 a(m),m
Sm

Sm

Sm
t

sg()a1,1 (1) am,1 (m)


sg( )a1, (1) am, (m)

det A ,
t

por que (A ) (i),i) = ai, (i) .

Para facilitar la formulacion de proposiciones y resultados concernientes los determinantes de matrices,


utilizemos la notacion
A = ( A1 Am ) ,
donde Ai denota la i-sima columna de la matriz A.
Proposici
on I.10.4.- Se tiene
i)

ii)

iii)

det ( A1

det ( A1

Ai + Ai

Ai + Aj

det ( A(1)

Am ) =
det ( A1

Aj

Am ) + det ( A1

Ai

Am ) ;

Ai

Aj

Am ) ;

Am ) =

A(m) ) = sg det ( A1

Demostraci
on.- Se considera

Ai

Am ) .

m veces
z
}|
{
m
K Km K
(A1 , . . . , Am ) 7 det A.

det ( A1

50

I Espacios Vectoriales y Aplicaciones Lineales

Esta aplicaci
on es multilineal, de donde i); la aplicaci
on es alternada, de donde ii) y iii).

Remarca.- Se tiene un enunciado an
alogo para filas.
Ejemplos
4.- Se considera una matriz de 4 4, se calculara su determinante utilizando la formula de la proposici
on
I.10.2 y las propiedades de determinante de la proposici
on precedente

0
1

3
2

3 4

4 5


0
0 1 1

3
4 7 2
=
5 9 3 4

4 5
6 1


0 0

4 9
.
5 6

6 3

Se ha sumado una vez la primera columna a la cuarta columna. Aplicando la formula deducimos que

0
1

3
2

3 4

4 5





0 1
3 4 3
3 4 9


4 7
= 4 5 6 = 3 4 5 2 .
5 9
5 6 1
5 6 3

6 1

Se ha factorizado 3 de la u
ltima columna. Luego






3 4 0
3 4 0
3 4 3






3 4 5 2 = 3 4 5 2 = 6 4 5 1
5 6 2
5 6 4
5 6 1








3 4
3 4
0
0
1 1
3 4


= 216.







= 6 3 4
= 6 4 5 1 = 6 3 16 0 = 6
1 4
3 16
4 5 1
3 16 0

5.- Determinante de Vandermonde.



1 a1

1 a2
.
.
.

1 am
Ejercicio Mostrar este resultado.

Proposici
on I.10.5.- Sean vj =

m
X
i=1

a21
a22
a2m


am1

1
Y
am1

3
=
(ai aj )

i>j

am1
m

aij ei j = 1, . . . , r; r m elementos de Km . Entonces, {v1 , . . . , vr } son

linealmente independientes existen 1 i1 < i2 < < ir m tales que




ai1 ,1 ai1 ,r


..
.. 6= 0.
.
.

ai ,1 ai ,r
r
r

Demostraci
on.- Caso r = m. La proposici
on afirma que {v1 , . . . , vm } es una base de Km si una
aplicaci
on lineal enva una base sobre otra, es un isomorfismo la matriz (aij ) es inversible
det(aij ) 6= 0.
Caso general. Se escribe

a11 a1r
.
.
A = ..
am1

amn

51

I.10 Determinantes

{v1 , . . . , vr } linealmente independiente rango columna de A es igual a r rango fila de A es igual


a r; es decir, el subespacio de Kr engendrado por las filas de A es Kr de las filas de A se puede extraer
una base de Kr existe una sucesion 1 i1 < i2 < < ir m tal que las filas de ndice i1 , . . . , ir
constituyen una base de Kr


ai1 ,1 ai1 ,r



.. 6= 0.
...
.


ai ,1 ai ,r
r

Corolario I.10.6.- Sea A Mn,m (K). Entonces




rang(A) = max s existe una submatriz B de A con s filas .
y s columnas tal que det B 6= 0.

Demostraci
on.-Se plantea

r =rang(A),
)
(

existe una submatriz B de A con s filas y s columnas
.
p = max s

tal que det B 6= 0.

A de rango r Existe r columnas de A que son linealmente independientes, si es necesario permutar las
columnas, se puede suponer que son las primeras r columnas. La proposici
on indica que r p.
Supongamos que existe una submatriz Bpp de A con det B 6= 0. Si es necesario renumerar (permutar), se
supone


B
A=

lo que implica por la proposici
on precedente que las primeras p columnas son linealmente independientes,
entonces p r.

52

I Espacios Vectoriales y Aplicaciones Lineales

I.11 Matriz Adjunta

En este paragrafo se formulara un metodo para calcular la inversa de una matriz inversible.
Sea

a11 amm
.
.
.. Mm,m (K).
A = (aij ) = ..
am1 amm

Se plantea

a11
..
.

ai1,1
Aij =
ai+1,1

.
..
am1

a1,j+1
..
.

ai1,j1
ai+1,j1
..
.

ai1,j+1
ai+1,j+1
..
.

am,j1,

am,j+1

Aij se obtiene de A suprimiendo la fila i-sima y la


Se define

a11
a1,j1,
..
.

ai1,1
ai1,j1

0
Sij (A) =

ai+1,1
a
i+1,j1

.
..
am1

a1,j1,
..
.

am,j1,

a1m
..
.

ai1,m
Mm1,m1 (K).
ai+1,m

..
.
amm

columna j-va.
0
..
.

a1m
..
.

ai1,m

0
Mm,m (K).
ai+1,m

..
.
amm

a1,j+1

0 ai1,j+1
1
0
0 ai+1,j+1
..
.
0

am,j+1

Definici
on I.11.1.- La matriz adjunta de A, denotada por Adj(A), es la matriz definida por
(Adj (A))ij = (1)i+j det(Aji ).
Ejemplo
1.- Veamos el caso de m = 2.
Adj

a11
a21

a12
a22

a22
a21

a12
a11

Proposici
on I.11.2.- det Sij (A) = (1)i+j Aij .
Demostraci
on.- Para demostrar esta proposicion, desarrollaremos el determinante de Sij utilizando propiedades
de determinante, vistas en el paragrafo precedente.



det Sij (A) = 0

Proposici
on I.11.3.-

m
X
j=1



0
0


1 0 = sg()
| {z }
0 (1)i1



1 0
1 0

i1+j1

0 = (1)
0
0
0

aji det(Sjk ) = ik det A donde ik =

0 si i 6= k,
1 si i = k.


0
.

53

I.11 Matriz Adjunta

Demostraci
on.- Denotando por Aj la j-va columna de A. Substiyendo la i-sima columna a la k-sima
columna, es decir planteando Ak = Ai , se tiene
ik det A = det ( A1

Ak

Ai

Am )

(I.11.1)

Por otro lado la i-sima columna, es decir Ak se puede desarrollar como




0
0
1
a1i

0
1
0
... = a1i . + a21 . + + am1 . .
..
..
..
ami
1
0
0

De esta manera el determinante del lado derecho de (I.11.1), se escribe como








1
0












ik det Aa1i 0 +a2i 1 + + ami 0 .






0
1
|
|
|
{z
}
{z
}
{z
}
det S1k (A)
det S2k (A)
det Smk (A)

Teorema I.11.4.- Laplace. Se tiene:


i) Desarrollo del determinante respecto a la i-sima columna.
det A =

m
X

aji (1)i+j det Aji .

j=1

ii) Desarrollo del determinante respecta a la j-sima fila.


det A =

m
X

ajk (1)j+k det Ajk .

k=1

Demostraci
on.- i) Utilizamos la proposicion I.11.3 con i = k y la proposici
on I.11.2. De esta manera
det A =

m
X

aji det(Sji (A)) =

j=1

j = 1m (1)i+j det Aji .

ii) Se demuestra a partir de i) para At .

Proposici
on I.11.5.- Se tiene
A Adj(A) = Adj(A)A = diag(det A, . . . , det A).

Demostraci
on.- Por la proposici
on I.11.3, se tiene

ik det A =

m
X
j=1

(Adj(A))kj
m z
}|
{
X
aji det Sjk (A) =
(1)i+k det Ajk aji ,
j=1

de donde
Adj(A)A = diag(det A, . . . , det A).

54

I Espacios Vectoriales y Aplicaciones Lineales

Se tiene tambien
Adj(At )At = diag(det At , . . . , det At ),
transponiendo, se obtiene
AAdj(A) = diag(det A, . . . , det A).

Corolario I.11.6.- Si A es inversible, entonces
A1 =

1
Adj(A).
det A

Remarca.- Sea R un subanillo de K, por ejemplo Z Q, entonces Mn,m (R) Mn,m (K).
Corolario I.11.7.- A Mm,m (R). Entonces; A es inversible en Mm,m (R), es decir si existe B Mm,m (R)
con AB = BA = Im , si y solamente si det A es un elemento inversible de R.
En particular A Mm,m (Z) es inversible det A = 1.
Demostraci
on.- , Se tiene AB = I, por consiguiente det A det B = 1, lo que implica que det A es
inversible en R.
1
det A inversible en R, entonces tiene sentido la expresi
on
en R.
det A

F
ormula de Cramer
Sea A Mm,m (K). El sistema

Ax = b,

tiene una u
nica solucion, si y solamente si det A 6= 0. Si este es el caso, se tiene
x = A1 b =
Por consiguiente, se obtiene

1
Adj(A)b.
det A

xi =
por lo tanto

1 X
(Adj(A))ij bj ,
det A j=1
m

xi =

1 X
(1)i+j det Aji bj
det A j=1

Denotando Ak la k-sima columna de A y utilizando la formula de Laplace del c


alculo de determinante en la
version columna, se obtiene
xi =

1
det ( A1
det A

Ai1

b Ai+1

Am ) .

Captulo II
Complemento

II.1 Espacios Vectoriales Cocientes

Sea
a)
b)
c)

E un conjunto, una relacion x y entre elementos de E es una relaci


on de equivalencia, si
x x, para todo x E (reflexividad);
x y y x, (simetra);
x y, y z x z, (transitividad).
Un conjunto C E es una clase de equivalencia si existe x E tal que
C = {y E|y x},

C es la clase de x y se denota x
.
El conjunto de las clases se llama cociente de E respecto a la relacion y se denota
E/ .
Por consiguiente, se dispone de una aplicaci
on can
onica

E E/
x 7 x

que es sobreyectiva.
Sea V un espacio vectorial, U un subespacio vectorial de V . Se introduce una relacion mod(U ),
definida por
x y mod(U ) x y U.
Proposici
on II.1.1.- mod(U ) es una relacion de equivalencia sobre E.
Demostraci
on.- i) Sea x V , x x = 0 U , entoces x x.
ii) x y x y U , por consiguiente (1)(x y) U , de donde y x U , por lo tanto y x.
iii) La transitividad la dejamos como ejercicio.

Ejemplo
1.- Consideremos V = R2 y U un subespacio de dimension 1. En la figura puede verse las clases de

56

II Complemento
equivalencia.

x+U =x

Proposici
on II.1.2.- Se tiene
x1 y1 mod(U )
x2 y2 mod(U )

x1 + x2 y1 + y2 mod(U )
.
x1 x1 mod(U )

La adicion y la multiplicaci
on por los escalares son compatibles con la relacion mod(U )
Demostraci
on.- Se tiene xi y1 mod(U ) xi yi U i = 1, 2. Por lo tanto
(x1 y1 ) + (x2 y2 ) U (x1 + x2 ) (y1 + y2 ) U,

x1 + x2 y1 + y2 mod(U ).

La otra implicaci
on ejercicio.
Introducimos una adicion en V /U = V / , de la manera siguiente
x
1 + x
2 = x1 + x2 .
Esta definicion tiene sentido, si x
1 = y1 y x
2 = y2 , por la proposici
on II.1.2, se obtiene
x1 + x2 = y1 + y2 .
Se introduce una multiplicaci
on por los elementos de K.

x = x.
La proposici
on indica que esta definicion tiene un sentido.
Proposici
on II.1.3.- El conjunto V /U con estas dos operaciones es un espacio vectorial. Adem
as
: V V /U
es lineal.
Demostraci
on.- I. Adicion. Se tiene
i)

ii)

x
1 + (
x2 + x
3 ) = x
1 + x2 + x3
= x1 + (x2 + x3 )
= (x1 + x2 ) + x3
= x 1 + x2 + x
3
= (
x1 + x
2 ) + x
3 ;
x
+ y = x + y = y + x + y + x
;

57

II.1 Espacios Vectoriales Cocientes


iii) el cero de V /U es
0;
iv) el opuesto de x
es x.
Se tiene
(x + y) = x + y = x
+ y = (x) + (x).
II. Multiplicaci
on. Lo mismo que para la adicion, ejercicio.


Proposici
on II.1.4.- Sea f : V W una aplicaci
on lineal. Sea U un subespacio vectorial de V con
U ker(f ). Entonces existe una y una sola aplicaci
on lineal f : V /U W tal que el diagrama conmuta
f

W
f

V /U
es decir f = f .
Demostraci
on.- a) Existencia de f. Se plantea
f(
x) = f (x).
Hay que verificar que si x
= y, entonces f (x) = f (y). En efecto, x
= y, se tiene x y U ker(f ), por
consiguiente f (x y) = 0 y por lo tanto f (x) = f (y).
Por construcci
on f = f .
f es lineal, en efecto
f(
x + y) = f(x + y) = f (x + y) = f (x) + f (y) = f(
x) + f(
y ).
De la misma manera se tiene f(
x) = f(
x).
b) Unicidad. Supongamos que existen f1 y f2 tales que
f1 = f2 = f,
por lo tanto
f1 (
x) = f (x) = f2 (
x),

x V /U.

Proposici
on II.1.5.- Si V es de generacion finita, entonces V /U lo es tambien. Adem
as
dim V /U = dim V dim U.
Demostraci
on.- : V V /U es sobreyectiva. Si V es de generacion finita, entonces (V ) es de generacion
finita. La formula de dimension para aplicaciones lineales da
dim V = dim V /U + dim U.


61

II.2 Dual de un Espacio Vectorial

II.2 Dual de un Espacio Vectorial

Sea V un espacio vectorial. Una forma lineal sobre V es una aplicaci


on lineal : V K. El conjunto de
las formas lineales sobre V, Hom(V, K), se llama dual de V y se denota V .
Si V es de dimension finita, V lo es tambien y
dim V = dim V .
Sea {x1 , . . . , xn } una base de V , esto induce un isomorfismo
: V Kn
7 ((x1 ), . . . , (xn )).
Introduciendo las formas i V por
i : V K
xj 7 ij =

0 si i 6= j
1 si i = j.

Esto da (i ) = (0, . . . , 0, 1, 0, . . . , 0) = ei .
Se sigue que es un isomorfismo, que {1 , . . . , n } es una base de V . La base {1 , . . . , n } se llama la
base de V dual de {x1 , . . . , xn }.
Proposici
on II.2.1.- Sea V espacio vectorial de dimension finita,
i) Sea V , 6= 0, entonces ker() es de dimension dim(V ) 1.
ii) Sea U V un subespacio de dimension dim(V ) 1, entonces existe V tal que ker() = U . Este
no es u
nico, pero si es otro con la misma propiedad, se tiene
= ,
iii)

6= 0.

ker() = {0}.

Demostraci
on.- i) Si 6= 0, : V K es sobreyectiva y aplicamos la formula de dimension.
ii) Sea {u1 , . . . , un1 } una base de U , que se completa en {u1 , . . . , un1 , un } base de V . Se considera la
forma
:V K
ui 7 0 si i = 1, . . . , n 1
un 7 1,
que es una forma lineal de n
ucleo U . La
\ segunda parte de este enunciado, ejercicio.
iii) Se tiene de manera trivial {0}
ker(). Sea v V , v 6= 0; vamos a mostrar que existe V tal
V

que (v) 6= 0, es decir que v 6 ker .


Elegimos una base de la forma {v, v2 , . . . , vn } y se considera

:V K
v 7 1
vi 7 0 para i = 2, . . . , m

Transpuesta de una Aplicaci


on Lineal

62

II Complemento

Consideremos el diagrama
V

Se obtiene entonces

W
f

ft : W V

7 f

que es lineal y se llama la transpuesta de f . As


f t ()(v) = f (v) para W , v V.
Ejemplo
1.- Sea V = C ([0, 1], R) espacio vectorial real de las funciones indefinidamente derivables. Se denota
D : C ([0, 1], R) C ([0, 1], R)
f 7 f , derivada de f.
Sea g C ([0, 1], R), se define
g : C ([0, 1], R) R
Z 1
f (t)g(t)dt.
f 7
0

Por consiguiente Dt (g ) = D : V R. Se tiene

D (g )(f ) = varepsilon D(f ) = g f =


= f (1)g(1) f (0)g(0)

f (t)g(t)dt

f (t)g (t)dt

= g(1)1 (f ) g(0)0 (f ) g (f ).
donde

a : C ([0, 1], R) R
f 7 f (a).

Proposici
on II.2.2.- Sean V y W espacios vectoriales de dimension finita. Entonces, la aplicaci
on
Hom(V, W ) Hom(W , V )
f 7 f t
es un isomorfismo.
Demostraci
on.- Veamos que la aplicaci
on f 7 f t es lineal. Sean f, g Hom(V, W ), se tiene
(f + g)t () = (f + g) = f + g
= f t () + g t () = (f t + g t )().
Lo mismo para (f )t = f t .
Utilizando resultados sobre dimensiones, se observa que
dim Hom(V, W ) = dim Hom(W , V ).

63

II.2 Dual de un Espacio Vectorial


Por consiguiente, es suficiente mostrar que f 7 f t es inyectiva. Supongamos que f t = 0, entonces
ft : W V
7 0.
Esto significa que f t () = f = 0 W , entonces
Im(f ) ker(eta) W .
Utilizando el inciso iii) de la proposici
on II.2.1, se tiene que Im(f ) = {0}, por consiguiente f = 0.

Proposici
on II.2.3.- Sean f : U V y g : V W lineales, entonces
(g f )t = f t g t .
En diagrama
g

ft

W .

gt

Demostraci
on.- Sea W , se tiene
(g f )t () = (g f ) = ( g) f = g t () f
= f t (g t ()) = f t g t ().

Proposici
on II.2.4.- Si V y W son de dimension finita. Entonces, se tiene
rang(f ) = rang(f t ),
donde f : V W lineal.
Demostraci
on.- Recordemos que rang(f ) = dim Im(f ). Elegimos una base {v1 , . . . , vm } de V y otra
{w1 , . . . , wn } de W de tal manera que la matriz de f respecto a {vi } y {wj } sea


Ir
0

0
0

rang(f ) = r.

Por otro lado,


Im(f t ) = { V | W con = f }.

La matriz de : W K respecto a {wj } y {1} es de la forma


( 1

n ) .

La matriz de f : V K respecto a {vi } y {1} es




Ir 0
( 1 n )
= ( 1
0 0

0 0),

de donde
Im(f t ) = {( 1

0 0 )}

es de dimension r.


64

II Complemento

Proposici
on II.2.5.- Sean {x1 , . . . , xm } una base de V y {y1 , . . . , yn } una base de W . {1 , . . . , m } base
de V dual de {x1 , . . . , xm } y {1 , . . . , n } base de W dual de {y1 , . . . , yn }.
Sea f : V W lineal, se donota A la matriz de f respecto a las bases {xi } y {yj }.
f t : W V , A la matriz de f t respecto a las bases {j } y {i }, entonces
A = At .

Demostraci
on.- Se tiene A = (aij ) con

n
X

aij yi . A = (akl ) con f t (l ) =

i=1

un lado se obtiene

f (l )(xj ) =

m
X

akl k . Por consiguiente, de

k=1
m
X

akl k

k=1

(xj ) = ajl ;

del otro lado


f (l )(xj ) = l f (xj ) = l

n
X
i=1

aij yi

n
X

l (yj ) = alj .

i=1

Corolario II.2.6.- Sea A Mm,n (K), entonces


rango fila de A = rango columna de A.

II.3 Formas Bilineales Sim


etricas

65

II.3 Formas Bilineales Sim


etricas

Sea V un espacio vectorial. Una forma bilineal sim


etrica sobre V es una aplicaci
on
f :V V K
tal que f es bilineal y adem
as f es simetrica.
Se denota Sym2 (V, K) el conjunto de las formas bilineales simetricas sobre V . En el ejercicio 50 de la
practica se muestra que Sym2 (V, K) es un espacio vectorial para las operaciones
(f + g)(v1 , v2 ) = f (v1 , v2 ) + g(v1 , v2 )
(f )(v1 , v2 ) = f (v1 , v2 ).
Sea {e1 , . . . , em } una base de V . La matriz de f respecto a la base {e1 , . . . , em } es la matriz
A(f ) = (f (ei , ej ))i,j

con i, j = 1, . . . , m;

A(f ) es una matriz simetrica; es decir A(f ) = At (f ).


Proposici
on II.3.1.- La aplicaci
on
n
o
simetricas m m a coe : Sym2 (V, K) Matrices
ficientes en K.
f 7 A(f )
es un isomorfismo de espacios vectoriales.
Demostraci
on.- i) es lineal, ejercicio.
ii) es inyectiva, si A(f ) = 0, se tiene f (ei , ej ) = 0, de donde
f (x, y) = f (

xi ei ,

yj ej ) =

xi yj f (ei , ej ) = 0,

ij

por lo tanto f = 0.
iii) es sobreyectiva. Sea A = (aij ) una matriz simetrica. Planteamos
f (x, y) =

xi yj aij ,

i,j

se puede ver que f es bilineal y simetrica, de matriz A.



Corolario II.3.2.- Si dim V = m, se tiene
dim Sym2 (V, K) =

m(m + 1)
.
2

Demostraci
on.- Ejercicio
Proposici
on II.3.3.- Resultado Principal.- Sea f Sym2 (V, K), supongamos que la caracterstica de K es
diferente a 2. Entonces existe una base de V respecto a la cual, la matriz de f es diagonal.

66

II Complemento

Demostraci
on.- Se elige una base {e1 , . . . , em } de V .
Caso 1.- Existe un ndice i tal que f (ei , ei ) 6= 0. Si es necesario renumerar los elementos de esta base, se
puede suponer que i = 1; por consiguiente f (e1 , e1 ) 6= 0. Introducimos una nueva base definida por
e1 = e1 ,
e2 = e2

f (e1 , e2 )
e1 ,
f (e1 , e1 )

..
.
em = em

f (e1 , em )
e1 .
f (e1 , e1 )

Se tiene por consiguiente


f (e1 , ej ) = f (e1 , ej

f (e1 , ej )
f (e1 , ej )
e1 ) = f (e1 , ej )
f (e1 , e1 ) = 0.
f (e1 , e1 )
f (e1 , e1 )

De esta manera, respecto a la base {e1 , . . . , em }, la matriz de f es de la forma




f (e1 , e1 ) 0
0
B
con B matriz de m 1 m 1 simetrica.
Caso 2.- Para todo i, f (ei , ei ) = 0. Si f (ei , ej ) = 0 para todo i, j, se tiene que A(f ) = 0 y por lo tanto la
matriz es diagonal. En la otra situacion, existen i, j tales que f (ei , ej ) 6= 0. Si es necesario renumerar los
elementos de la base, se puede suponer que f (e1 , e2 ) 6= 0. Introducimos la base
e1 = e1 + e2 ,
e2 = e2 ,
..
.
em = em .
Se tiene
f (e1 , e1 ) = f (e1 + e2 , e1 + e2 ) = f (e1 , e1 ) + 2f (e1 , e2 ) + f (e2 , e2 ) = 2f (e1 , e2 ) 6= 0,

si la caracterstica de K es diferente a 2.
Por lo tanto nos encontramos en el primer caso.
Iteramos la construcci
on de la base, con B y las subsiguientes matrices que obtengamos.


Ejemplo
1.- Cuando V = R2 , se tiene que una forma bilineal simetrica es de la forma
f : R2 R2 R
  
x
y1
( 1 ,
) 7 a11 x1 y1 + a12 (x1 y2 + x2 y1 ) + a22 x2 y2 .
x2
y2


Por consiguiente la matriz de f respecto a la base can


onica es


a11 a12
A(f ) =
.
a12 a22
Esta forma bilineal induce la forma cuadr
atica definida por
: R2 R

x 7 f (x, x) = a11 x21 + 2a12 x1 x2 + a22 x22 .

II.3 Formas Bilineales Sim


etricas

67

Esta forma cuadratica define una curva llamada c


onica por
C = {x R2 |(x) = 1}.
La proposicion II.3.3 nos indica que existe un sistema de coordenadas (, ), sobre R2 tal que la ecuacion
de C es de la forma
2 + 2 = 1.

Corolario II.3.4.- Se supone K = C, entonces existe una base de V respecto a la cual la matriz de
f Sym2 (V, C) es de la forma
diag(1, . . . , 1, 0, . . . , 0).
| {z } | {z }
p

Adem
as los enteros p y q est
an enteramente definidos por f .
Demostraci
on.- De la proposici
on II.3.3, existe una base {e1 , . . . , em } de V respecto a la cual, la matriz
de f es
diag(a1 , . . . , am ), ai C.
Consideramos la base {e1 , . . . , em } definida por
ei =

ei si ai = 0,
ei
si ai 6= 0.
ai

No debe olvidarse que los n


umeros complejos poseen raiz cuadrada.
Calculamos

si i 6= j,

0 ei
e1

,
)
=
1
si
ai 6= 0,
f
(
f (ei , ej ) =
ai
ai

f (ei , ei ) = 0
si ai = 0.

Para la segunda parte del corolario, consideramos las bases {e1 , . . . , em } y {e1 , . . . , em } respecto a las cuales
A(f ) = diag(1, . . . , 1, 0, . . . , 0)
| {z } | {z }
p

A (f ) = diag(1, . . . , 1, 0, . . . , 0)
| {z } | {z }
p

Mostraremos que p = p y q = q .
Sea V0 = {x V |f (x, y) = 0, y V }, se puede verificar facilmente que V0 es un subespacio vectorial
de V .

68

II Complemento
Se observa que ei V0 para i > p; en efecto, para i > p se tiene
f (ei , ek ) = 0 k.

Sea x =

m
X
i=1

xi ei V0 , por definicion f (x, ek ) = 0, para todo k. Ahora bien


m
X

xi f (ei , ek ) =

i=1

xk
0

para k p,
para k > p.

Por lo tanto, x pertenece al subespacio generado por ep+1 , . . . , em . Por consiguiente


dim V0 = q = m p.
De la misma manera se hace el mismo razonamiento con la base {e1 , . . . , em } obteniendo dim V0 = q . De
donde p = p y q = q .

Corolario II.3.5.- Supongamos K = R, entonces existe una base de V respecto a la cual la matriz de f es
diag(1, . . . , 1, 1, . . . , 1, 0, . . . , 0).
| {z } | {z } | {z }
r

Adem
as los enteros r, s y t est
an u
nicamente determinados por f .

Demostraci
on.- De la proposici
on II.3.3, existe una base {e1 , . . . , em } de V respecto a la cual, la matriz
de f es
diag(a1 , . . . , am ), ai R.
Se introduce la base

ei si ai = 0,
ei
si ai > 0,
ei =
ai

si ai < 0.
ai

Como en la demostraci
on del corolario precedente, se muestra

0 si ai = 0,
f (ei , ei ) =
1 si ai > 0,

1 si ai < 0,

y f (ei , ej ) = 0 si i 6= j.
Para la segunda parte del corolario consideramos las bases {ei } y {ei } respecto a las cuales, la matriz
de f es
A(f ) = diag(1, . . . , 1, 1, . . . , 1, 0, . . . , 0),
| {z } | {z } | {z }
r

A (f ) = diag(1, . . . , 1, 1, . . . , 1, 0, . . . , 0).
| {z } | {z } | {z }
r

Introduciendo V0 = {x V |f (x, y) = 0 y V }, mostramos al igual que en el corolario II.3.4 que t = t .


s +t

z
}|
{
Afirmamos que e1 , . . . , er , er +1 , . . . , em es una familia de elementos de V linealmente independiente. Si
esto es cierto, se tiene r + s + t m = r + s + t , de donde r r . Pro razonamiento simetrico, se tiene
r r, por lo tanto r = r y s = s.

II.3 Formas Bilineales Sim


etricas

69

Mostremos la afirmacion, elegimos una combinacion lineal tal que


0=

r
X

xi ei +

r
X

m
X

yj ej +

j=r +1

i=1

Plantemos v =

rX
+s

zk ek .

k=r +s +1

xi ei , de donde por un lado

i=1

r
X

f (v, v) = f

xi ei ,

r
X

xi ei

i=1

i=1

2
X

x2i ,

i=1

y del otro

f (v, v) = f

rX
+s

j=r +1

yj ej

m
X

k=r +s +1

zk ek ,

rX
+s

j=r +1

yj ej

m
X

k=r +s +1

zk ek =

rX
+s

yj2 .

j=r +1

Deducimos inmediatamente que xi = 0 para i = 1, . . . , r; yj = 0 para j = r + 1, . . . , r + s . Puesto que {ej }


es una base, se tiene que zk = 0 para k = r + s + 1, . . . , m.

Proposici
on II.3.6.- Sea f Sym2 (V, K). Sean {e1 , . . . , em } y {e1 , . . . , em } dos bases de V . Se denota
por A la matriz de f respecto a la base {e1 , . . . , em } y A la matriz de f respecto a la base {e1 , . . . , em }.
Entonces
A = P t A P,
donde P es la matriz de pasaje de {e1 , . . . , em } a {e1 , . . . , em }.
Demostraci
on.- Se tiene por definicion
(A)ij = f (ei , ej ),
(A )ij = f (ei , ej ),
m
X
pij ei .
ej =
i=1

Por consiguiente
f (ei , ej ) = f

m
X

k=1

=
=

m
X

pkj ek ,

m
X

plj el

l=1

pki f (ek , el )plj

k,l=1
m
X

(P t )ik (A )kl (P )lj = (P t A P )ij .

k,l=1

Corolario II.3.7.- Supongamos K de caracterstica diferente a 2. Sea A una matriz simetrica de orden m,
entonces existe P Gl(m, K) tal que
P t AP
es una matriz diagonal.
Demostraci
on.- Ejercicio.

70

II Complemento

II.4 Espacios Euclidianos

En este paragrafo el cuerpo de base es R.


Sea E un espacio vectorial. Un producto escalar sobre E es una forma bilineal
EE R
(x, y) 7 hx, yi
que es definida positiva; es decir
hx, xi 0 x E,
hx, xi = 0 x = 0.
Definimos la norma de x, como
kxk =

p
hx, xi.

Un espacio vectorial provisto de un producto escalar se llama espacio euclidiano.


Ejemplos
1.- E = Rn es un espacio euclidiano provisto de
hx, yi =

n
X

xi yi

i=1

producto escalar estandar.


2.- El espacio de las funciones reales indefinidamente derivables definidas sobre el intervalo [a, b], C ([a, b], R),
es un espacio euclidiano con el producto escalar
hf, gi =

f (t)g(t)dt.

Noci
on de Isomorfismo de Espacios Vectoriales
Sean E1 , h , i1 y E2 , h , i2 dos espacios euclidianos.
Se dice que E1 y E2 son isomorfos, si existe : E E lineal biyectiva, tal que
h(x), (y)i2 = hx, yi1 ,

x, y E.

El resultado principal de este paragrafo es, Si E es un espacio euclidiano de dimensi


on n. Entonces E
es isomorfo a Rn dotado del producto escalar estandar.
En lo que sigue E es de dimension finita.
Se dice que x, y E son ortogonales si hx, yi = 0. Se dice que la familia {v1 , . . . , vm } es ortogonal
si hvi , vj i cuando i 6= j. Se dice que {v1 , . . . , vm } es ortonormal si {v1 , . . . , vm } es una familia ortogonal y
hvi , vi i = 1 para i = 1, . . . , m.
Proposici
on II.4.1.- Sea E un espacio euclidiano, entonces existen bases ortonormales; es decir, existen
bases respecto a las cuales, la matriz del producto escalar es I.
Demostraci
on.- Una demostraci
on de esta proposici
on, puede realizarse utilizando el corolario II.3.5, el
cual asegura que existe una base respecto a la cual, la matriz del producto escalar es de la forma
diag(1, . . . , 1, 1, . . . , 1, 0, . . . , 0).
| {z } | {z } | {z }
r

71

II.4 Espacios Euclidianos

Puesto que h , i es definido positivo, se tiene s = t = 0.


Esta demostraci
on muestra la existencia de una tal base, pero no nos da la forma de encontrar esta
base.
Una segunda demostraci
on est
a dada por el procedimiento de ortogonalizaci
on de GrammSchmidt.
Sea {e1 , . . . , em } una base cualquiera de E. Se plantea f1 = e1 y buscamos f2 con hf1 , f2 i = 0 y
f2 = e2 + f1 . Se tiene
hf1 , e2 + f1 i = hf1 , e2 i + hf1 , f1 i = 0,
de donde
=

hf1 , e2 i
;
hf1 , f1 i

existe y es u
nico.
Se busca f3 con
hf1 , f3 i = hf2 , f3 i = 0,
f3 = e3 + 1 f1 + 2 f2 .
Obtenemos,
hf1 , f3 = e3 + 1 f1 + 2 f2 i = hf1 , e3 i + 1 hf1 , f1 i = 0,
hf2 , f3 = e3 + 1 f1 + 2 f2 i = hf2 , e3 i + 2 hf2 , f2 i = 0.
1 y 2 existen y son u
nicos
Se procede de la misma manera, se construye f1 , . . . , fm satisfaciendo
hfi , fj i,
fi = ei +

j < i;
i1
X

pji ej

j=1

De donde {f1 , . . . , fm } es una base ortonormal y




fm
f1
,...,
kf1 k
kfm k

es una base ortonormal.



Ejemplos
3.- Rn con el producto escalar estandar, la base can
onica es ortonormal.

4.- Sea E el subespacio de C (R, R) engendrado por


{1, cos t, sin t, cos 2t, sin 2t, . . . cos nt, sin nt} polinomios trigonometricos de grado menor o igual a n con
el producto escalar
Z
2

hf, gi =

f (t)g(t)dt.

La base
{1, cos t, sin t, . . . , cos nt, sin nt}
es una base ortogonal.

1 cos t
cos nt sin nt
, ,..., ,

es una base ortonormal


Proposici
on II.4.2.- Sea E un espacio euclidiano de dimension n. Entonces E es isomorfo a Rn dotado
del producto escalar estandar.

72

II Complemento

Demostraci
on.- Sea {f1 , . . . , fn } una base ortonormal de E. Definimos
: E Rn
fi 7 ei ,
donde los ei son los elementos de la base can
onica de Rn .
es biyectiva, porque envia base sobre base. Todo x, y E se escriben de manera u
nica, como
x=

n
X

xi ei ,

y=

i=1

n
X

yi ei ,

i=1

de donde
h(x), (y)i =

n
X

xi ei ,

i=1

n
X

yi ei

i=1

n
X

xi yi .

i=1

El Grupo Ortogonal de un Espacio Euclidiano


Definici
on II.4.3.- Sea (G, ) un grupo, se dice que H es un subgrupo de G, si =
6 HGy
g1 , g2 H g1 g2 H,
g H g 1 H.

Remarca Se puede probar que un subgrupo H de un grupo G es un grupo para la operaci


on heredada de
G.
Definici
on II.4.4.- Un endomorfismo a : E E, E espacio euclidiano, es una transformaci
on ortogonal
o una isometra si
ha(x), a(y)i = hx, yi, x, y E.
Se denota O(E) el conjunto de las transformaciones de E.
Proposici
on II.4.5.- Se tiene:
i) a O(E), entonces a es un automorfismo de espacio euclidiano.
ii) O(E) es un subgrupo de Gl(E).

Demostraci
on.- Ejercicio.

Proposici
on II.4.6.- Sea a Gl(E), se denota A la matriz de a respecto a una base ortonormal. Entonces
a O(E) At A = I.
Demostraci
on.- Se tiene, primero
a O(E) ha(x), a(y)i = hx, yi x, y E;
|
{z } ha(ei ), a(ej )i 1 i, j n.
ejercicio

segundo, por definicion A = (aij ) y

a(ej ) =

n
X
i=1

aij ei .

73

II.4 Espacios Euclidianos


Por lo tanto
a O(E)

n
X

k=1

aki akj = ij (At A)ij = Iij .




Definici
on II.4.7.- Una matriz A Mn,n (R) es ortogonal si At A = I.

Corolario II.4.8.- El conjunto O(n, R) de las matrices ortogonales es un subgrupo de Gl(n, R) isomorfo a
O(E).
Proposici
on II.4.9.- Descomposicion de Iwasawa de Gl(m, R).- Sea A Gl(m, R). Entonces A se escribe
de manera u
nica bajo la forma A = QT donde Q O(m, R), T T+ (m, R) con

t11

T+ (m, R) =

t22

..
.

tnn


tii > 0 .

Demostraci
on.- a) Existencia. Se considera Rm con el producto escalar estandar, {e1 , . . . , em } la base
can
onica de Rm .
Se tiene que {Ae1 , . . . , Aem } es una base de Rm . Sea {f1 , . . . , fm } la base ortonormal obtenida de
{Ae1 , . . . , Aem } por el procedimiento de Gramm-Schmidt.
La matriz de pasaje de {Ae1 , . . . , Aem } a {e1 , . . . , em } es A.
La matriz de pasaje de {f1 , . . . , fm } a {Ae1 , . . . , Aem } es T T+ (m, R), repasar la demostracion donde
se utiliza el procedimiento de Gramm-Schmidt.
La matriz de pasaje de {f1 , . . . , fm } a {e1 , . . . , em } es Q O(m, R).
Por consiguiente, se tiene que
A = QR.
b) Unicidad. Se supone que A = Q1 T1 = Q2 T2 con Qi O(m, R) y Ti T+ (m, R) para i = 1, 2.
Ahora bien, como ejercicio mostrar que T+ (m, R) es un subgrupo de Gl(m, R). De donde
1
Q2 Q1
O(m, R) T+ (m, R).
1 = T2 T1
1
Afirmamos que O(m, R) T+ (m, R) = {I}. Si esto es cierto, se tiene que Q2 Q1
= I, de donde
1 = T2 T1
Q1 = Q2 y T1 = T2 .
Probemos la afirmacion; sea T O(m, R) T+ (m, R), entonces

T =

t11
t22

..
.

tnn

y T t T = I.

Una verificaci
on dar
a que T = I.

Sea F E un subespacio vectorial, se plantea
F = {x E|hx, yi = 0, y F } .
Se prueba que F es un subespacio vectorial y se llama el subespacio ortogonal de E.
Proposici
on II.4.10.- Se tiene
i) E = F F ;

74

II Complemento


ii) F = F .
Demostraci
on.- i) Se elige una base ortonormal {f1 , . . . , fm } de F . Se considera la aplicaci
on
:EF
m
X
hx, fi ifi .
x 7
i=1

Esta aplicaci
on es lineal y sobreyectiva, por que los fk pertenecen a la imagen. Se tiene F = ker ; en
efecto, x F , se tiene (x) = 0; x ker , hx, fk i para k = 1, . . . , k, por lo tanto x F .
La formula de dimension da
dim E = dim F + dim F ,
por consiguiente solo falta mostrar que F F = {0}. Esto es cierto, por que x F F , implica que
hx, xi = 0 y por lo tanto x = 0.
ii) Ejercicio.

Proposici
on II.4.11.- La aplicaci
on
: E E = Hom(E, R)
y 7 (y) : E R
x 7 hx, yi.
es un isomorfismo
Demostraci
on.- Como dim E = dim E , es suficiente ver que ker = {0}.
Sea y ker , se tiene hx, yi = 0, para todo x E, en particular para x = y, por lo tanto hy, yi = 0
implica que y = 0.

Comentario.- En el caso euclidiano, se acaba de mostrar que se tiene un isomorfismo can
onico entre E y
E .

II.5 Formas Hermticas, Espacios Unitarios

75

II.5 Formas Hermticas, Espacios Unitarios

El cuerpo de base en este paragrafo es C. Recordemos, la conjugacion de n


umeros complejos es la aplicaci
on
definida por
CC
z 7 z
x + iy 7 x iy.
f

Sea V un espacio vectorial. Una forma sesquilineal sobre V es una aplicaci


on V V C, tal que
f (1 x1 + 2 x2 , y) = 1 f (x1 , y) + 2 f (x2 , y),
f (x, 1 y1 + 2 y2 ) = 1 f (x, y1 ) + 2 f (x, y2 ).
Se dice que f sesquilineal es hermtica si
x, y V.

f (x, y) = f (y, x),

Proposici
on II.5.1.- Herm(V, C), el conjunto de los f hermticas sobre V es un espacio vectorial sobre R.
Demostraci
on.- Ejercicio.
Sea f Herm(V, C) y {e1 , . . . , em } una base de V , la matriz de f respecto a {e1 , . . . , em } es la matriz
(A(f ))ij = f (ei , ej ).
Si f es hermtica, se tiene f (ei , ej ) = f (ej , ei ), obteniendo
t

A(f ) = A(f ).
t = B y el conjunto de tales matrices, se denota
Se dice que la matriz B Mm,m (C) es hermtica si B
Herm(m, C) y es un espacio vectorial real.
Proposici
on II.5.2.- La aplicaciones
Herm(V, C) Herm(m, C)
f 7 A(f )
gB
donde
g(x, y) =

m
X

xi bij yj .

i,j=1

son isomorfismos de espacios vectoriales reales y son inversas entre si. Adem
as
Herm(m, C) es de dimension m2 .
Demostraci
on.- Ejercicio.
Ejemplo
1.- La aplicaci
on dada por

Cm Cm C
m
X
(x, y) 7
xi yi
i=1

es una forma hermtica.

76

II Complemento

Ejercicio.- Hallar una base de Herm(V, C).


Proposici
on II.5.3.- Sea f Herm(V, C). Existe una base de V respecto a la cual, la matriz de f es
diagonal con coeficientes iguales a 0, 1 o 1.
Demostraci
on.- Ejercicio. Existe una proposici
on similar para las formas bilineales simetricas.
Corolario II.5.4.- Sea B Herm(m, C), entonces existe P Gl(m, C), tal que
P t BP = diag(1, . . . , 1, 1, . . . , 1, 0, . . . , 0).
Demostraci
on.- Ejercicio. Existe una proposici
on similar para las matrices simetricas.
Si f es hermtica, se tiene f (x, x) = f (x, x) R.
Se dice que f hermtica es definida positiva, (producto escalar hermtico), si
f (x, x) 0, x V ;
f (x, x) = 0 x = 0.
Una forma hermi tica definida positiva se la denota h , i al igual que el producto escalar euclidiano.
E es un espacio unitario, si es un espacio vectorial sobre C provisto de un producto escalar hermtico.
Las definiciones de ortogonalidad y ortonormalidad en espacios unitatios es la misma que en espacios
euclidianos. Por lo tanto se tiene los siguientes resultados analogos:
i) Existen bases ortonormales, el procedimiento de Gramm-Schmidt funciona.
ii) E espacio unitario de dimension n es isomorfo a Cn provisto del producto escalar hermtico estandar
hx, yi =

n
X

xi yi .

i=1

iii) Se dice que a Gl(E) es unitaria si


ha(x), a(y)i = hx, yi,

x, y E.

El conjunto de las transformaciones unitarias de E forman un subgrupo de Gl(E), es el grupo unitario


notado U(E).
iv) Sea {e1 , . . . , em } una base ortonormal de E. Sea a Gl(E), se denota A la matriz de a respecto a
{e1 , . . . , em }. Entonces
a U(E) At A = I.
Una matriz A Mm,m (C) es unitaria si At A = I.
v) El conjunto U(m, C) de las matrices unitarias es un subgrupo de Gl(m, C) isomorfo a U(E).
Ejercicio.- Mostrar las afirmaciones de arriba.
Ejemplos
1.- diag(a1 , . . . , am ) U(m, C) ai a
i = 1, i = 1, . . . , m.
2.- La matriz de la forma


a ib
ib a
con a, b R, a2 + b2 = 1 es una matriz unitaria.

Proposici
on II.5.5.- Descomposicion de Iwasawa para Gl(m, C). Sea A Gl(m, C). Entonces A se escribe
de manera u
nica como A = U T , donde U U(m, C) y T T+ (m, C), con


t11

t22

.
t

R
y
t
>
0
T+ (m, C) =
ii
ii
.

..


0
tnn

80

II Complemento

Demostraci
on.- Ejercicio.
Sea F E un subespacio de E unitario. Se define el subespacio ortogonal de F como
F = {x E|hx, yi = 0, y E}.
Proposici
on II.5.6.- La aplicaci
on
: E E = Hom(E, C)
y 7 (y) : E C
x 7 hx, yi.
es biyectiva, pero es solamente semilineal, es decir

(y) = (y).
Demostraci
on.- Ejercicio
Remarcas
P
1.- Rn hx, yi =
xi yi espacio euclidiano
estandar. Sera natural de generalizar esta situacion a los espacios
P
complejos, as: Cn hx, yi =
xi yi . Pero sucede un fenomeno nuevo, existe x 6= 0 tal que hx, xi = 0.
Por ejemplo para n = 2 x = (1, i).
2.- E unitario, sea {e1 , . . . , en } una base ortonormal de E. Se introduce
ER = {x E|x =

xi ei , xi R}.

ER es un espacio vectorial sobre R de misma dimension que E. La restricci


on a ER del producto escalar
hermtico sobre E es un producto escalar euclidiano.

Captulo III
Formas Normales

III.1 Vectores y Valores Propios

Sea V un espacio vectorial de dimension n. Sea f End(V ) y {v1 , . . . , vn }, {v1 , . . . , vn } dos bases de V .
Recordando el primer captulo, se denota
A la matriz de f respecto a {vi },
A la matriz de f respecto a {vi },
M la matriz de pasaje de {vi } a {vi }.
Se tiene
A = M AM 1 .
Definici
on III.1.1.- Sean A, B Mn,n (K). Se dice que A y B son conjugadas o semejantes, si existe
M Gl(n, K) tal que B = M AM 1 .
Ejercicio.- Mostrar que la semejanza de matrices es una relacion de equivalencia sobre Mn,n (K).
La interpretacion geometrica que se puede dar: Si A es la matriz de f respecto a la base {vi }, la clase
de conjugaci
on de A, es decir el conjunto de las matrices M AM 1 , coincide con el conjunto de las matrices
de f respecto a las bases de V .
Definici
on III.1.2.- Se dice que f, g End(V ) son semejantes o conjugados si existe h Gl(V ) tal que
g = h f h1 .

Definici
on III.1.3.- Sea f End(V ), se considera ker(f id) con K. Si ker(f id) 6= {0}, se dice
que K es un valor propio de f .
El subespacio ker(f id) 6= {0} se llama subespacio propio de f respecto al valor propio .
dim ker(f id) se la llama la multiplicidad geom
etrica del valor propio .
Un elemento no nulo de ker(f id) se llama vector propio de f respecto a .
Por consiguiente, dicho de otra manera
K valor propio de f existe x V, x 6= 0 tal que f (x) = x;
x V es vector propio de f x 6= 0 y existe K tal que f (x) = x.
Sea A Mn,n (K), se denota por (A) : Kn Kn la aplicaci
on lineal cuya matriz respecto a la base
canonica es A.
Definici
on III.1.4.- Se dice que es un valor propio de A, si es valor propio de (A).
Se dice que x Kn es un vector propio de A, si x es valor propio de (A).
Ejemplo
1.- Consideremos la matriz identidad I, entonces todo x 6= 0 Kn es vector propio respecto a = 1.
Proposici
on III.1.5.- Sean f, g End(V ), se supone que f y g son conjugados; entonces:
i) es un valor propio de f es un valor propio de f .

82

III Formas Normales

ii) Si g = hf h1 , se tiene
x es vector propio de f h(x) es vector propio de g.
Demostraci
on. Se tiene que es valor propio de f , si y solamente si existe x 6= 0 V tal que f (x) = x,
si y solamente si existe y = h(x) 6= 0 V tal que g(y) = hf (x) = h(x) = y.

Proposici
on III.1.6.- Sean 1 , . . . , p valores propios distintos de f . Se plantea Kj = ker(f j id).
Entonces los Kj son linealmente independientes. (Se dice que los Kj son son linealmente independientes,
p
X
xj = 0 xj = 0 para j = 1, . . . , p).
si xj Kj y
j=1

Demostraci
on.- Por induccion sobre p.
Para p = 1 evidente.
Se supone cierto la proposici
on para p 1 con p > 1.
Mostremos que la proposici
on es cierta para p. Sea
p
X
j=1

se tiene
f(

xj = 0 con xj Kj ,

p
X

xj ) = 0 =

p
X
j=1

1 xj

p
X

j xj ,

i=1

i=1

ahora bien,

p
X

j xj =

p
X
j=2

j=1

(1 j )xj = 0,

por hipotesis de induccion (1 j )xj = 0 para j = 2, . . . , p, por lo tanto xj = 0 para j = 2, . . . , p y por


consiguiente x1 = 0.

Corolario III.1.7.- Mismas hip
otesis que la proposici
on precedente. Entonces la aplicaci
on

K1 K2 Kp V

(x1 , x2 , . . . , xp ) 7 x1 + x2 + + xp

es inyectiva. En este caso la imagen de es

p
M

Kj .

j=1

Demostraci
on.- Ejercicio.

Proposici
on III.1.8.- Sea f End(V ). Se supone que f posee m = dim V valores propios diferentes
1 , . . . , m . Se elige vi un vector propio respecto a i para i = 1, . . . , m. Entonces:
i) ker(f j id) es de dimension igual a 1, para j = 1, . . . , m.
ii) {v1 , . . . , vm } es una base de V .
iii) La matriz de f respecto a {v1 , . . . , vm } es diag(1 , . . . , m ).
Demostraci
on.- Utilizando la notacion de la proposici
on III.1.6, Kj = ker(f j id) 6= {0}, j = 1, . . . , m.
Por el corolario III.1.7, la aplicaci
on

K1 K2 Km V
(x1 , x2 , . . . , xm ) 7 x1 + x2 + + xm
es inyectiva. Por lo tanto se tiene
m

dim(Kj ) dim V = m;
| {z }
1

83

III.1 Vectores y Valores Propios


es por consiguiente un isomorfismo, V =

p
M

Kj .

j=1

Sea vj Kj con vj 6= 0, entonces

{(v1 , 0, . . . , 0), . . . , (0, . . . , 0, vm )}


es una base de K1 K2 Km , de donde via el isomorfismo {v1 , . . . , vm } es una base de V . La matriz de
f respecto a {v} es una matriz diagonal.


Polinomio Caracterstico de una Matriz


Sea A Mm,m (K), se plantea

x a11

a21
PA (x) = det(xI A) =
..
.


am1

a12
x a22

polinomio de grado n y coeficiente dominante igual a 1.


PA (x) es el polinomio caracterstico de A.

..

.
am,m1


a1m


K[x]



x amm

Proposici
on III.1.9.- Si A y B son semejantes, entonces PA (x) = PB (x).
Demostraci
on.- Por hip
otesis, existe M Gl(m, K) tal que A = M BM 1 , calculando los polinomios
caractersticos se tiene
PA (x) = det(xI A) = det(xM IM 1 M BM 1 ) = det(M (xI B)M 1 )
= det M det(xI B) det M 1 = det(xI B) = PB (x).

Sea f End(V ). Sea {v1 , . . . , vm } una base de V . Se nota A la matriz de f respecto a {vi }. Por la
proposici
on precedente, el polinomio PA no depende de la eleccion de la base, solamente de f .
Se plantea Pf (x) = PA (x) el polinomio caracterstico de f .
Definici
on III.1.10.- Se dice que un cuerpo K es algebraicamente cerrado si todo polinomio p(x) K[x]
no constante posee al menos una raiz. Es decir, si todo polinomio no constante a coeficientes en K se puede
factorizar en polinomios de grado igual a 1.
Ejemplo
2.- C es un cuerpo algebraicamente cerrado.
Teorema III.1.11.- Sea f End(V ), las raices del polinomio caracterstico de f son exactamente los valores
propios de f . En particular, si K es algebraicamente cerrado, el endomorfismo f posee al menos un valor
propio y un vector propio.
Demostraci
on.- Sea K, A matriz de f respecto a una base de V . Se tiene
Pf () = 0 PA (I A) = 0
ker(I f ) 6= {0}
es un valor propio de f.

Definici
on III.1.12.- Sea un valor propio de f , la multiplicidad algebraica de es la multiplicidad
de la raiz de Pf .

84

III Formas Normales

Ejemplos
3.- La sucesion de Fibonacci (Fn )n0 definida por
Fn+1 = Fn + Fn1 ,
F0 = 0, F1 = 1.
Puede escribirse de manera matricial como

 

 

Fn
1 1
Fn
Fn+1
A
=
=
.
Fn1
0 1
Fn1
Fn
Se puede observar que

Fn+1
Fn

 
1
=A
.
0

Utilizando la proposici
on III.1.8, la matriz A es semejante a la matriz diag(1 , 2 ), donde 1 y 2 son
valores propios de A. Calculando estos por medio del polinomio caracterstico de A, se obtiene

1 5
1+ 5
,
2 =
.
1 =
2
2
Despues se obtiene
A=

de donde
n

A =

1
1

1
1

2
1



2
1

1
0



0
2

1
0



0
2

1
1

n 

2
1

1
1

1

2
1

1

Efectuando los c
alculos necesarios, se obtiene
 n+1



1
1 n+1
Fn+1
2
,
=
n1 n2
Fn
5
por lo tanto

!n
1+ 5

1
1
Fn = (n1 n2 ) =
5
5
4.- Una matriz triangular superior

tiene como polinomio caracterstico

A=

a11

an1
a22

..

PA (x) =

.
ann

n
Y

!n !
1 5
.
2

(x aii ).

i=1

5.- Ejercicio.- Mostrar que Pf (x) = Pf t (x) o bien PA (x) = PAt (x).
6.- Si A y B son conjugadas, se tiene PA (x) = PB (x); la recproca es falsa. En efecto, sean




0 1
0 0
;
A=
, B=
0 0
0 0
se tiene
PA (x) = x2 ,

PB (x) = x2 .

85

III.1 Vectores y Valores Propios


6.- Sea f End(V ), sea W V un subespacio invariante por f ; es decir, f (W ) W . Se denota
f|W : W W
el endomorfismo restringido a W . Se tiene
Pf|W (x) divide Pf (x).

En efecto, se elige una base {v1 , . . . , vp } de W que es completada en la base {v1 , . . . , vp , vp+1 , . . . , vm }
de V .
La matriz de f respecto a esta base es de la forma
A=

A11
0

A12
A22

donde A11 es la matriz de f|W respecto a {v1 , . . . , vp }. Se tiene



xI A11
PA (x) =
0


A12
= det(xI A11 ) det(xI A22 ).
xI A22

Proposici
on III.1.13.- Sea A Mm,m (K), entonces
i) El polinomio caracterstico puede escribirse bajo la forma

PA (x) = xm C1 (A)X m1 + C2 (A)X m2 + + (1)m Cm (A).


Los Ci (A) son funciones polinomiales de los coeficientes de A de grado i; en particular, C1 (A) es lineal,
Cm (A) es de grado m.
ii) Ci (M AM 1 ) = Ci (A) para i = 1, . . . , m y M GL(m, K).
m
X
es la traza de A denotada por tr(A).
iii) C1 (A) =
i=1

iv) Cm (A) = det(A).


v) f, g End(V ) Pf g (x) = Pgf (x).
vi) A, B Mm,m (K) PAB (x) = PBA (x).
vii) A, B Mm,m (K) Ci (AB) = Ci (BA) i = 1, . . . , m.
Demostraci
on.- Ejercicio. Debe observarse que v), vi) y vii) son equivalentes.
Ejemplo
7.- Consideremos el caso m = 2,
A=

a11
a21

a12
a22

PA (x) = x2 (a11 + a22 ) x + (a11 a22 a12 a21 ) .


| {z }
|
{z
}
C1 (A)

C2 (A)

86

III Formas Normales

III.2 Triangularizaci
on y Diagonalizaci
on

Sea A = (aij ) Mm,m (K), se dice que A es triangular superior si aij = 0 para i > j.

a11
an1
a22

A=
..

.
0
ann

Sea f End(V ). Se dice que f es triangularizable si existe una base de V respecto a la cual la matriz de
f es triangular superior.
Remarca.- Se A es la matriz respecto a {v1 , . . . , vm }, la matriz de f respecto a {vm , . . . , v1 } es

amm am1
.
..
.
A = ..
.
a1m a11

Si A es triangular superior, A es triangular inferior o viceversa. Por consiguiente la definicion de triangularizable puede remplazarse por inferior o superior.
Sea A Mm,m (K). Se dice que A estriangularizable si existe M Gl(m, K) tal que M AM 1 sea
triangular superior o inferior.
Proposici
on III.2.1.- Sea f End(V ), entonces
f es triangularizable

el polinomio caracterstico de f
es producto de polinomios de grado
1.

Demostraci
on.- B es triangularizable, existe M inversible tal que

a11
an1
a22

M BM 1 =
..

.
0
ann
y por lo tanto PB (x) = PA (x) =

m
Y

i=1

(x a11 ).

por induccion sobre m.


m = 1 nada que hacer.
Supongamos cierta la proposici
on para m 1, con m > 1.
Sea 1 valor propio de f y v1 un vector propio asociado a 1 , se tiene f (v1 ) = 1 v1 y v1 6= 0.
Se elige v2 , . . . , vm de manera que {v1 , . . . , vm } sea una base de V . La matriz de f respecto a {v1 , . . . , vm }
es de la forma


1
;
A=
0
A

se tiene PA (x) = (x 1 )PA (x).


Aplicando la hip
otesis de induccion a A . Por consiguiente, existe M Gl(m 1, K) tal que M AM 1 es
triangular. Se tiene





2

1
0
1
1 0

=
.
1

.
0 M
0
A
0 M
.
0
n


n y Diagonalizacio
n
III.2 Triangularizacio

87

Proposici
on III.2.2.- Si K es algebraicamente cerrado, entonces todo endomorfismo es triangularizable.
Ejemplo
1.- Una rotacion de R2 no es triangularizable.
Definici
on III.2.3.- f End(V ) es diagonalizable si existe una base {v1 , . . . , vm } de V respecto a la cual
la matriz de f es una matriz diagonal. Dicho de otra manera: f es diagonalizable si existe una base de V
formada de vectores propios de f .
A Mm,m (K) es diagonalizable, si existe M Gl(m, K) tal que M AM 1 es una matriz diagonal.
Ejemplo


0 1
2.- A =
no es diagonalizable, sino existira una base v1 y v2 de K2 respecto a la cual, la matriz de
0 0
(A) es la matriz nula, pero esto es imposible.
Proposici
on III.2.4.- Sea f End(V ). Entonces

(x j )mj
1) Pf =

j=1,...,r
X
f es diagonalizable

=
6

mj = m = dim V .
i
j para i 6= j y

1,...,r

2) dim ker(f j id) = mj para j = 1, . . . , r.

Demostraci
on.- Supongamos que existe una base {v1 , . . . , vm } con f (v1 ) = ai vi , por lo tanto
Pf (x) =

m
Y

(x ai ) =

i=1

m
Y

(x j )mj .

i=1

Si es necesario renumerar los vi , la matriz de f respecto a {vi } es


diag(1 , . . . , 1 , . . . , r , . . . , r ).
| {z }
| {z }
m1

mr

Por lo tanto ker(f 1 id) admite como base {v1 , . . . , vm1 y as sucesivamente.
Se plantea Kj = ker(f j id). Por la proposici
on III.1.6, los Kj son linealmente independientes y por el
corolario III.1.7

K1 K2 Kr V
(v1 , v2 , . . . , vr ) 7 v1 + v2 + + vr
L
es un isomorfismo, consiguientemente V =
Kj . Sea Bj una base de KJ , de donde
B = rj=1 es una base de V.

La matriz de f respecto a B es diagonal.

88

III Formas Normales

III.3 Endomorfismos Normales de un Espacio Unitario

Recordemos que E es un espacio unitario de dimension m sobre el cuerpo C, si est


a provisto de un producto
escalar hermtico.
EE C
(x, y) 7 hx, yi
sesquilineal y definido positivo.
As mismo se dispone de una biyeccion
: E E = Hom(E, C)
y 7 (y) : E C
x 7 hx, yi.
Esta aplicaci
on es semilineal en el sentido que sigue
(y1 + y2 ) = (y1 ) + (y2 ),
(y) =
(y).
Sea a End(E). Porque es biyectiva, entonces existe una u
nica aplicaci
on a
: E E que vuelve el
siguiente diagrama conmutativo
a

E
E
99K
a

E
at
E
es decir, a
= 1 at .
Proposici
on III.3.1.- a
es lineal y se llama la adjunta de a.
Remarca.- No confundir con la matriz adjunta, diferente contexto.
Demostraci
on.- Por la adicion no hay problema; en efecto, , at y 1 son isomorfismos de grupo para la
adicion.
Para la multiplicaci
on, tenemos
1 (at (x)) =
a
(x) = 1 (at (x)) = 1 (a
t (x)) =
a(x).

Proposici
on III.3.2.- Sea a End(E), para todo x, y E se tiene la siguiente formula
ha(x), yi = hx, a
(y)i.
Es decir, el producto escalar de la imagen de x con y es el mismo que producto escalar de x con la imagen
de la adjunta de y.
Demostraci
on.- Por definicion de a
, se tiene
at = a
.
Por lo tanto:
ha(x), yi = (y)(a(x)) = at (y)(x)
= (
a(y))(x) = hx, a
(y)i.

89

III.3 Endomorfismos Normales de un Espacio Unitario

Proposici
on III.3.3.- Sea {f1 , . . . , fm } una base ortonormal de E. Sea a End(E). Se denota A la matriz
de a respecto a {f1 , . . . , fm }. Sea A la matriz de a
respecto a i = 1, . . . , m. Entonces
A = At = At .

Demostraci
on.- Sean x =

xi fi y y =

yj fj . Se tiene

ha(x), yi = ( x1

y1

xm ) At ... .
ym

hx, a
(y)i = ( x1

y1
.. .
xm ) A
.
ym

Tambien

Deducimos por consiguiente

At = A.

Proposici
on III.3.4.- Sean a, b End(E). Entonces:
g
i) (ab) = b
a;
= a;
ii) a
^
iii) (a
+ b) = a
+ b;
g =
iv) (a)
a.

Demostraci
on.- Consecuencia directa de A = At .

Definici
on III.3.5.- Sea a End(E), se dice que a es autoadjunto si a = a
.
Sea {f1 , . . . , fm } una base ortonormal de E. Sea a End(E) y A la matriz de a respecto a la base {fi }.
Si a es un endomorfismo autoadjunto se tiene
A = A = At
lo que implica que A es una matriz hermtica.
Proposici
on III.3.6.- Sea a End(E), {f1 , . . . , fm } una base ortonormal y A la matriz de a respecto a
{f1 , . . . , fm }; entonces
a es autoadjunto A Herm(m, C).
Si a es un endomorfismo autoadjunto, se tiene
ha(x), yi = hx, a(y)i,
por lo tanto
hx, a(x)i = ha(x), xi R.
Se dice que a es positivo ai a es autoadjunto y si
ha(x), xi 0,

x E.

90

III Formas Normales

Se dice que a es antiautoadjunto si a = a


y en forma matricial si la matriz de a respecto a una base
ortonormal verifica
At = A.

Se dice que a es unitario si a


a = id o a
= a1 . En forma matricial AAt = I, A es unitaria.
Se dice que a es normal si a
a=a
a y A es una matriz normal si AAt = At A.
En este paragrafo el resultado principal es: a es un endomorfismo normal, si y solamente si existe una
base ortonormal de E formada de vectores propios de a.
Caso Particular
Consideremos el caso en que E es de dimension igual a 1. En este caso E = C. Tenemos por lo tanto
hz, wi = z w.

Puesto que dim End(C) = 1, se puede decir que End(C) = C. El endomorfismo adjunto de a es a
. Las
definiciones dadas mas arriba tendran las siguientes equivalencias:
a es autoadjunto a R.
es positivo a R y a > 0.
antiautoadjunto a iR.
unitario |a| = 1.
Todo endomorfismo a es normal, en efecto a
a=a
a.
Caso General
Volvamos al caso general donde E es un espacio unitario de dimension finita.
Remarcas
1.- El conjunto H = {a End(E)|a = a
} es un subespacio real de End(E), es decir
a, b H a + b H, , R.
2.- En conjunto de los endomorfismos positivos de E es un cono convexo de H. Se dice que un subconjunto
C de H es un cono convexo si
a, b C a + b C, , 0.
3.- {a End(E)| a = a
} = iH = {ib|b H} es un subespacio real de End(E). Se tiene
End(E) = H iH
suma directa de subespacios vectoriales reales.
4.- El conjunto de los endomorfirmos unitarioses un grupo para la composici
on de aplicaciones, se lo denota
U(E).
Proposici
on III.3.7.- Sean a, b H, entonces
ab H ab = ba.
Demostraci
on.- ab H, se tiene
Se supone ab = ba, entonces

e = b
ab = ab
a = ba.
e = b
ab
a = ba = ab.

III.3 Endomorfismos Normales de un Espacio Unitario

91

Proposici
on III.3.8.- Sea F un subespacio de E invariante por a. Entonces
F = {x E|hx, yi = 0 y F }
es invariante por a
.
Demostraci
on.- Sea x F e y F , se tiene
h
a(x), yi = hx, a
(y)i = 0.

Proposici
on III.3.9.- Sea V un espacio vectorial sobre un cuerpo K algebraicamente cerrado. Sean ,
End(V ) tales que = . Entonces existe un vector propio com
un a y .
Demostraci
on.- Sea valor propio de . Esto significa que
W = ker( id) 6= {0}.
Se observa que W es invariante por . En efecto, (w) W ((w)) = ((w)). Esto sucede por que
((w)) = ((w)) = (w) = (w).
Por que K es algebraicamente cerrado, el endomorfismo |W de W posee un vector propio, es decir existe
v W con (v) = v. Por otro lado, por definicion de W , se tiene (v) = v.

Proposici
on III.3.10.- Se tiene:
i) a End(E) es normal existe una base ortonormal de E dada de vectores propios de a.
ii) Sea {f1 , . . . , fm } una base ortonormal de E tal que a(fj ) = j fj , j C. Entonces
1)
2)
3)

j fj ;
a
(fj ) =
a es autoadjunto j R;
a es positivo j R y j > 0;
a es antiautoadjunto j iR; 4)
a es unitario |j | = 1.5)

Demostraci
on.- i) Sea {f1 , . . . , fm } una base ortonormal formada de vectores propios para a. Se tiene
a(fj ) = j fj .
La matriz A de a respecto a esta base es diag(1 , . . . , m ).
1, . . . ,
m ).
La matriz A de a
respecto a esta base es diag(

Se tiene AA = AA, es decir a


a=a
a, a es normal. Observar que ii) 1) ha sido demostrado.
Se demuestra por induccion sobre m = dim E que existe una base ortonormal de E formada de vectores
propios comunes a a y a
.
Para m = 1, trivial.
Suponemos cierto para dimE < m. Por la proposicion III.3.9 existe f1 E con hf1 , f1 i = 1 y f1 vector
propio de a y a
. Se denota F1 el espacio engendrado por f1 . Por la proposicion III.3.8, se tiene
a(F1 ) F1 a
(F1 ) F1

a
(F1 ) F1 a(F1 ) F1

.
lo que implica que F1 es invariante por a y a

92

III Formas Normales

Por hipotesis de induccion, existe una base ortonormal {f2 , . . . , fm } de F1 , de vectores propios de a y
a
. Entonces {f1 , f2 , . . . , fm } es una base ortonormal de E formada de vectores propios para a y a
.
ii) 2,3,4 ejercicio.

Corolario III.3.11.- Sea A Mm,m (C) una matriz normal, respectivamente unitaria, hermtica, antihermtica, positiva. Entonces existe U U(m, C) tal que
U AU 1 = diag(1 , . . . , m )
donde j C, respectivamente |j | = 1, j R, j iR, j 0.

Demostraci
on.- Se interpreta A como la matriz de un endomorfismo normal de Cm , la proposici
on III.3.10
indica que existe una base ortonormal {f1 , . . . , fm } de Cm formada de vectores propios de A. Se introduce
la matriz de pasaje U de {e1 , . . . , em } a {f1 , . . . , fm }, entonces U U(m, C) y
U AU 1 = diag(1 , . . . , m )


Dos Aplicaciones a las Matrices a Coeficientes Reales


Proposici
on III.3.12.- Sea A Mm,m (R) una matriz simetrica. Los valores propios de A son reales.
Adem
as existe Q O(m, R) tal que QAQt = diag(1 , . . . , m ).

Demostraci
on.- Se tiene Mm,m (R) Mm,m (C), A es por consiguiente hermtica. Por el corolario precedente, los valores propios de A son reales. As mismo A es diagonalizable en Mm,m (C).
M
Se tiene que C =
ker(A I), suma sobre los diferentes subespacios propios. Afirmamos que para la

estructura estandar de espacio unitario los subespacios V son ortogonales dos a dos, donde V = ker(AI).
En efecto, se tiene
hv , v i = hv , v i = hAv , v i = hv , Av i =
hv , v i = hv , v i.
de donde hv , v i = 0 si 6= .
Sea w = (w1 , . . . , wm ) Cm , se plantea w
= (w
1 , . . . , w
m ). Sea W Cm un subespacio vectorial, se

plante W = {w|w
W }.
, existe una base ortonormal de W compuesta de elementos de Rm Cm .
Ejercicio.- Si W = W
Se tiene V = V . En efecto
v V Av = v Av = v A
v =
v v V .
Utilizando el ejercicio, se elige una base ortonormal de V constituida de elementos de Rm que la denotamos
B . Planteamos B = B , B es una base ortonormal de Cm formada de elementos de Rm , por consiguiente
B tambien es una base ortonormal de Rm formada de vectores propios de A.
Se introduce Q la matriz de pasaje de la base can
onica a B. Se tiene
QAQt = diag(1 , . . . , m ).


Ejercicio.-Estudiar en R2 la ecuacion
ax2 + 2bxy + cy 2 = 1.

III.3 Endomorfismos Normales de un Espacio Unitario

93

Sea E = Rm , el espacio euclidiano estandar. Sea O(E). Entonces existe una base ortonormal de E
respecto a la cual la matriz de es de la forma

cos sin
0

sin cos

cos sin

sin
cos

..

cos sin

sin
cos

..

.
1
La version matricial: Sea O(m, R), entonces existe Q O(m, R) tal que QQt = .

Demostraci
on.- Consideremos el diagrama siguiente

E = Rm

Rm

Cm

C
y

CM

Sea la matriz de respecto a la base can


onica. C la aplicaci
on lineal de respecto a la base can
onica.
Por consiguiente C es una transformaci
on unitaria de Cm . Dicho de otra manera O(m, R) U(m, C).
Por la proposici
on III.3.10 C es diagonalizable y sus valores propios son modulo igual a 1. Por consiguiente
M
Cm =
K
K = ker(C id).
Se observa que los K son ortogonales dos a dos; en efecto


hv , v i = hC v , v i = hv , C v i = v , 1
1 hv , v i = hv , v i = 0.
C v =

lo que implica que v v si 6= .


= K . Verificar como ejercicio.
Se observa que K
= K
= K , por lo tanto exist una
Ahora bien, si R, se tiene que = 1 o = 1, por lo tanto K
base B de K ortogonal y formada de elementos de Rm .
Si 6 R, se considera
K K = K K .

Sea {v1 , . . . , vm } una base ortonormal de K , entonces {


v1 , . . . , vm } es una base ortonormal de K . Mostrar
esta afirmacion como ejercicio.
Se plantea:
1
b2j1 = (vj + vj ) Rm , j = 1, . . . , m ;
2
1
b2j = i(vj vj ) Rm m, j = 1, . . . , m .
2
Ahora bien {b1 , . . . , b2m } = B es una base ortonormal de K K formada de vectores de Rm . La
verificaci
on de esta afirmacion la dejamos como ejercicio.
Se considera B = B es una base ortonormal de Cm formada de elementos de Rm , entonces base de
Rm . El ultimo paso es verificar que la matriz de C es de la forma de .


94

III Formas Normales

III.4 Descomposici
on Can
onica

Definici
on III.4.1.- Se dice que g End(V ) es nilpotente, si existe n > 0 tal que g n = 0.
Proposici
on III.4.2.- Sea f End(V ). Entonces existe una u
nica descomposici
on V = N R tal que
a) f (N ) N y f|N es nilpotente.
b) f (R) R y f|R es inversible.
Demostraci
on.- Para la existencia, se considera la sucesion
{0} ker(f ) ker(f 2 ) ker(f n ) ker(f n+1 ) .
Se observa que si ker(f n ) = ker(f n+1 ), entonces ker(f n ) = ker(f n+p ) para p > 0. En efecto, sea x
ker(f n+p ), se tiene f n+p (x) = 0 y
f n+1 (f p1 (x)) = 0 f p1 (x) ker(f n+1 ) = ker(f n ),
de donde
f n+p1 (x) = 0 x ker(f n+p1 ),
iterando las veces que sea necesario obtenemos x ker(f n ).
Tambien se puede observar que existe q > 0 tal que
{0} & ker(f ) & & ker(f q ) = ker(f p+q ).
Se plantea

N = ker(f q ),
R = Im(f q ).

Estos dos subespacios verifican las condiciones a) y b) y V = N R.


Se tiene N R = {0}, sea x N R ,se tiene f q (x) = 0 y x = f q (y) para cierto y V . As
q
f (x) = f 2q (y), se tiene
y ker(f 2q ) = ker(f q ).
Se tiene V = N + R, esto sigue de la formula de dimension para aplicaciones lineales
dim V = dim ker(f q ) + dim Im(f q ).
La condici
on a) se verifica porque
f (ker(f q )) ker(f q )
y
(f| ker(f q ) )q = 0.
f| ker(f q ) es nilpotente.
La condici
on b) se cumple, por que f (Im(f q )) Im(f q ). Se tiene fIm(f q ) es inversible, es suficiente ver
que
ker(f ) R = {0},
en efecto se tiene
ker(f ) R N R = {0}.

Unicidad. Se supone que V = ker(f q ) Im(f q ) = N R con N y R que verifican las condiciones a) y b).
q
q
Se tiene f|N nilpotente, N ker(f|N
ker(f ) = N .
q
f|R inversible, entonces f|R inversible, entonces R Im(f q ) = R.
Por que V = N R = N R , se tiene necesariamente N = N y R = R.

n Cano
nica
III.4 Descomposicio

95


Ejercicio.- Mostrar que si g End(V ) es nilpotente, entonces Pg (x) = xdim V .

Teorema III.4.3.- Se supone K algebraicamente cerrado. Sea f End(V ).


Pf (x) =

p
Y

(x j )mj

j=1

con i 6= j para i 6= j y

mj = m. Se tiene entonces
V =

p
M

ker((f j id)mj ) .
|
{z
}
j=1
Vj

Es la descomposicion can
onica de V en subespacios invariantes de f . Ademas dim Vj = mj , (f j id)|Vj es
nilpotente y Pf|Vj (x) = (x j )mj .

Demostraci
on.- Sea 1 un valor propio de f , sea m1 la multiplicidad algebraica de este valor propio. Se
aplica la proposici
on III.4.2 al endomorfismo f1 = f 1 id, entonces se tiene V = N1 R1 , con
a) f1 (N1 ) N1 y f1 |N1 nilpotente,
b) f1 (R1 ) R1 y f1 |R1 inversible.
Deducimos por consiguiente que f (N1 ) N y f (R1 ) R1 . Ahora bien, se tiene
Pf1 (x) = det(x id f1 ) = det(x id f + 1 id) = det((x + 1 )id f ) = Pf (x + 1 ).

De donde
Pf1 (x) = xm1

(x + 1 j )mj ,

j2

aplicando el ejercicio anterior al teorema y denotando n1 = dim N1 , se tiene


Pf1 |N1 (x) = xn1 ,
por lo tanto n1 = m1 y
Pf|R1 (x) =

(x j )mj .

j2

El siguiente paso es mostrar que N1 = ker(f1m1 ). Se tiene


{0} & ker(f ) & & ker(f q ) = ker(f p+q ) = N1 .
Observamos inmediatamente que q m1 , por consiguiente
V = ker(f 1 id)m1 R1 ,
|
{z
}
V1

con f (R1 ) R1 , dim V1 = m1 , Pf|V1 (x) = (x 1 )m1 y f|V1 nilpotente.


Se recomienza el razonamiento con R1 .

Ejemplo
1.- Consideremos la situacion en que dim V = 2. Se tiene dos casos:
i) Pf (x) = (x 1 )(x 2 ) con 1 6= 2 . Se tiene
V = ker(f 1 id) ker(f 2 id)

96

III Formas Normales


y f es diagonalizable.
ii) Pf (x) = (x )2 , se tiene

V = ker(f id)2 ,

lo que implica que


f = |{z}
id + (f id) .
| {z }
homotecia

nilpotente

Conservando la notacion y las hip


otesis del teorema, se introduce
fd : Vj = V V
X
X
vj 7
j vj .
vj Vj

Dicho de otra manera fd (Vj ) Vj y fd |Vj es una homotecia de razon j . Por construccion fd es diagonalizable
y adem
as
Y
Pfd (x) =
(x j )mj = Pf (x).

Se puede observar que V = Vj es la descomposici


on de V en suma directa de subespacios propios para fd .
Se plantea
fn = f dd .
Proposici
on III.4.4.- Mismas hip
otesis y notacion del teorema III.4.3. Entonces se tiene:
i) f = fd + fn donde fd es diagonalizable, fn es nilpotente y que satisfacen fn fd = fd fn . Adem
as
Pf (x) = ffd (x).
ii) Si fd diagonalizable y fn nilpotente como en i), entonces fd = fd y fn = fn
Demostraci
on i) Se tiene f = fd + fn por definicion. Sea vj Vj , entonces fd (vj ) = j vj Vj . Ahora
bien,
fd (f (vj ) = j f (vj ),
| {z }
Vj

f (fd (vj )) = f (vj ) = j f (vj ),

de donde f fd = fd f , lo que un c
alculo simple dara fn fd = fd fn .
fd es diagonalizable por construcci
on. Veamos que fn es nilpotente, sea vj Vj , se tiene
fnmj (vj ) = (f fd )mj (vj ) = (f j id)mj (vj ) = 0,
porque Vj = ker(f j id)mj . Sea M = max{mj }, entonces se tiene
X
X
vj ) =
fnM (vj ) = 0
fnM (
y fn es nilpotente.
Pf = Pfd por construcci
on.
ii) Sean fd diagonalizable y fn nilpotentes, tales que
f = fd + fn ,
Por el teorema III.4.3 aplicado a fd , se tiene que
Y
M
(x j )nj ,
V =
Vj , Pfd (x) =

fd fn = fn fd .

Vj = ker(fd j id)nj y fd (Vj ) Vj .

Deber observarse que Vj = ker(fd j id) por que fd es diagonalizable. Mostremos que fn (Vj ) Vj ; en
efecto, se tiene vj Vj fd (vj ) = j (vj ). Ahora bien
fn (fd j id)(vj ) = fn fd (vj ) j fn (vj ) = 0,
fd (fn ) = j fn (vj ).

n Cano
nica
III.4 Descomposicio

97

De la misma manera se muestra que f (Vj ) Vj . Utilizando la proposici


on III.3.9 para f , fn y fd restringidos

en Vj , deducimos que j = k , para alg


un k, la verificaci
on la dejamos como un simple ejercicio. En resumen
todo valor propio de fd es valor propio de f .
El siguiente paso es mostrar que fn (Vj ) Vj , para todo j. Se tiene que
fn (vj ) = (fn + fd fd )(vj ) = fn (vj ) + (j j )vj Vj ,
por que vj Vk para alg
un k. Adem
as
fd (fn (vj )) = j fn (vj ) = fn (j vj ) = fn (fd (vj )),
de donde fd fn = fn fd sobre Vj y por consiguiente sobre V . Por simples c
alculos es facil ver tambien que
fn fn = fn fn .
Ejercicio.-Mostrar que fn fn es nilpotente.
Por u
ltimo mostremos que fd = fd , sea 0 6= v V ,
v = fd (v) = fd (v) + (fn fn )(v) = v + (fn fn )(v),
de donde v es vector propio de fn fn y como este endomorfismo es nilpotente deducimos que fn (v) = fn (v)
y fd (v) = fd (v).


98

III Formas Normales

III.5 Teorema de Hamilton Cayley

Teorema III.5.1.- Hamilton-Cayley. Se tiene:


i) Sea f End(V ), entonces Pf (f ) = 0.
ii) Sea A Mm,m (K), entonces PA (A) = 0.
Demostraci
on.- Debe constatarse que i) y ii) son enunciados equivalentes. Como preliminar a la de algebraicamente cerrado. Por
mostraci
on debe recordarse que todo cuerpo K es subcuerpo de un cuerpo K
ejemplo R C. La demostraci
on se la realiza en dos etapas.
1.-K cuerpo de base arbitrario. Ejercicios de la Practica.
2.-K cuerpo de base algebraicamente cerrado. Se tiene por consiguiente
Y
M
Pf (x) =
(x j )mj ,
V =
Vj ,
donde Vj = ker(f j id)mj .
Se tiene

Pf (f ) =

Y
(f j id)mj ,
j

producto en cualquier orden.


Sea vk Vk , se tiene por consiguiente
Y
Y
Pf (f )(vk ) = Pf (f ) =
(f j id)mj (vk ) =
(f j id)mj (f k id)mk (vk ) .
|
{z
}
j6=k

=0

De donde Pf (f ) = 0.


Consideremos la aplicaci
on

f K[x] End(V )
P 7 P (f )

Se puede ver que f es un homorfismo de espacios vectoriales y de anillos. Si la dimension de V es m, se


tiene dim End(V ) = m2 y por otro lado dim K[x] es infinita. Por lo tanto f no es inyectiva, lo que significa
que ker f 6= {0}.
Como f es un homomorfismo de anillos, se tiene que ker f es un ideal, resultado que ser
a visto en
otro curso.
El teorema de Hamilton Cayley afirma que Pf ker f y se mostrar
a en otro curso de Algebra que
ker f = Mf K[x] = {Mf P |P K[x]}.
Mf es un polinomio de coeficiente dominante 1 y se conoce como el polinomio minimal de f End(V ).
Por consiguiente se tiene que Mf divide Pf .
Ejemplos
1.- Sea
A=

a11
a21

a12
a22

el polinomio caracterstico de A est


a dado por
PA (x) = x2 (a11 + a22 )x + (a11 a22 a12 a21 ),
de donde
PA (A) = A2 (a11 + a22 )A + (a11 a22 a12 a21 )I =

0 0
0 0

99

III.5 Teorema de Hamilton Cayley

2.- Sea A Mm,m (K). Se pide calcular A100 . Sea PA el polinomio caracterstico de A, este polinomio es
de grado m. Efectuando la division con resto, se tiene
x100 = PA (x)Q(x) + RA (x),
donde el grado de RA (x) es menor a m. Remplazando A en los polinomios, se obtiene
A100 = PA (A) Q(A) + R(A).
| {z }
=0

El c
alculo de A100 se lleva al c
alculo de RA (A).
Consideremos el caso en que PA (x) tiene raices simples, entonces A es diagonalizable, por lo tanto existe
M Gl(m, K) tal que
M AM 1 = diag(1 , . . . , m ),
100
M A100 M 1 = diag(100
1 , . . . , m ).

Entonces RA (i ) = 100
i . En efecto
(x100 RA )(i ) = 0,

i = 1, . . . , m.

Por lo tanto x100 RA es divisible por (x 1 ) (x m ).


Veamos esto numericamente, sea


1 1
A=
1 0
la matriz de la serie de Fibonacci. Se tiene

1+ 5
1 5
PA (x) = x x 1 = (x 1 )(x 2 ), con 1 =
, 2 =
,
2
2
2

de donde
RA (x) =
por lo tanto

1
A100 = 100
1
5

100
100
2
1
(x 2 ) +
(1 x),
1 2
1 2


1 2
1

1
2

1 1 1
.
1
+ 100
2
1

100

III Formas Normales

III.6 Endomorfismos Nilpotentes

Se dice que g End(V ) es nilpotente, si existe n > 0 tal que g n = 0.


Resultado Principal.- Existe una base de
normal de Jordan siguiente

0 1
0 2

..

V respecto a la cual la matriz de g nilpotente, tiene la forma

..

n1
0

con i = 0 o i = 1.

Se dice que A Mm,m (K) es nilpotente si existe n > 0, tal que An = 0.


Resultado.- Existe M Gl(m, K) tal que M AM 1 es de la forma normal.

Definici
on III.6.1.- Sea g End(V ) nilpotente, el entero mas peque
no q > 0 tal que g q = 0 se llama
ndice de g.
Proposici
on III.6.2.- Sea g nilpotente de ndice q. Sea v1 V tal que g q1 (v1 ) 6= 0; entonces:
i) los vectores v1 , g(v1 ), . . . , g q1 (v1 ) son linealmente independientes.
Se denota V1 el subespacio de V engendrado por {v1 , g(v1 ), . . . , g q1 (v1 )}. Se tiene g(V1 ) V1 .
ii) Existe un subespacio W de V tal que
a) V = V1 W ,
b) g(W ) W .
Si se toma como base de V {v1 , g(v1 ), . . . , g q1 (v1 ), w1 , . . . , wp } la matriz de g respecto a esta base es
|
{z
} | {z }
base de V1
base de W

de la forma




0 1
.. .. 0

.
.
.


0
0

Demostraci
on.- i) Por el absurdo, suponemos que {v1 , g(v1 ), . . . , g q1 (v1 )} es una familia linealmente
dependiente, por consiguiente existen i K no todos nulos tales que
q1
X

i g i (v1 ) = 0,

i=0

se denota p el ndice mas peque


no tal que p 6= 0. Se tiene

X i
X i
g p (vi ) =
g i (v1 ) = g p+1
g ip1 (v1 ) = g p+1 (w).

p
p
i>p
i>p
{z
}
|
w

Entonces

g q1 (v1 ) = g qp1 (g p (v1 )) = g qp1 (g p+1 (w)) = 0.

Lo que contradice con la hip


otesis que g q1 (v1 ) = 0. Por consiguiente
q1
{v1 , g(v1 ), . . . , g
(v1 )} es linealmente independiente.P
Mostremos que g(V1 ) V1 , sea w V1 , se tiene w = i g i (v1 ) y
X
g(w) =
i g i+1 (vi ) V1 g(V1 ) V1 .

101

III.6 Endomorfismos Nilpotentes

ii) Se mostrar
a por induccion sobre el ndice q de g la existencia de un suplementario W de V1 que es estable
por g.
Si q = 1, entonces g = 0 y no hay nada que hacer.
Se supone cierta la aserci
on para los endomorfismos nilpotentes de ndice < q.
Se introduce R = Im(g) V , R es un subespacio de V y se tiene que g(R) R y el ndice de g|R es
q 1. La verificaci
on de que el ndice de g|R la dejamos como ejercicio.
Se puede aplicar la hip
otesis de induccion a R, g|R , g(v1 ) y R1 , donde R1 es el subespacio de R
engendrado por {g(v1 ), . . . , g q1 (v1 )}. Entonces existe un subespacio S de R tal que R = R1 S y g(S) S.
Via
V R = Img
v 7 g(v)
se introduce S = {v V |g(v) S}.
Afirmamos que V = V1 + S . En efecto, sea v V , se escribe g(v) = r1 + s, existe x1 V1 tal que
g(x1 ) = r1 . Ahora bien
g(v x1 ) = g(v) g(s1 ) = s S,
por lo tanto v x1 S y mas todava v = x1 + s con x1 V1 y s S .
Observamos que g(S ) S , en efecto, sea s S
g(s ) S g(g(s )) S,
esto es cierto por que g(S) S por hip
otesis de induccion.
V1 S 6= {0}. En realidad V1 S es de dimension 1 engendrado por g p1 (v1 ). En efecto,
0 6= g p1 (v1 ) V1 por definicion,
0 6= g p1 (v1 ) S por que g(g p1 (v1 )) = 0 S.
Recprocamente, sea v V1 S , se tiene
)
g(v) V1 Im(g) = R1
g(v) S R1 = {0};
g(v) S
g(v) = 0, de donde v V1 ker(g). Se utiliza finalmente que V1 ker(g) es engendrado por g p1 (v1 ).
V1 S = {0}; en efecto
V1 S = V1 (S R) = V1 R S = R1 S = {0}.
Se considera por consiguiente el subespacio de S dado por
S (S V1 ),
se elige un suplementario
S = S (S V1 ) S ,
se plantea W = S S .
El subespacio W satisface las condiciones de la proposici
on, es decir:
a) g(W ) W ; en efecto, w W , se tiene g(w) S W .
b) V1 W = {0}; en efecto,
V1 W = V1 (W S ) = (V1 S ) W = {0},
por construcci
on de W .
c) V1 + W = V ; en efecto,
V = V1 + S = V1 + (W + V1 S ) = V1 + W.

102

III Formas Normales

Sea g End(V ) un endomorfismo nilpotente. Se dice que un subespacio V1 de V es un subespacio cclico


respecto a g, si existe v1 V y n > 0 tal que
v1 , g(v1 ), . . . , g n1 (v1 )
es una base de V1 y g n (v1 ) = 0.
En la proposici
on precedente se ha mostrado la existencia de subespacios cclicos.
Teorema III.6.3.- Sea g End(V ) nilpotente. Entonces existe una descomposici
on
V =

k
M

Vj ,

(III.6.1)

j=1

donde cada uno de los Vj es cclico respecto a g. El entero k y los enteros qj = dim Vj dependen solamente
de g y no as de la descomposici
on particular (III.6.1).
Demostraci
on.- Se elige v1 V como en la proposici
on (III.6.2), despues V1 el subespacio engendrado por
{v1 , g(v1 ), . . . , g q1 (v1 )}. El subespacio V1 es cclico respecto a g.
Adem
as existe una descomposici
on V = V1 W donde g(W ) W .
Se recomienza el razonamiento sobre W y se llega paso a paso a la existencia de la descomposici
on
(III.6.1).
Mostremos la unicidad de k y los qj . Para un entero n, se plantea
e(n) = #{j| dim Vj = n}.
e(n) depende solamente de g y no de la descomposici
on particular en subespacios cclicos. En efecto la
formula
e(n) = rang(g n1 ) 2rang(g n ) + rang(g n+1 )

depende solamente de g. Mostremos esta u


ltima formula. Consideremos Vj , la base es vj , g(vj ), . . . , g qj 1 (vj )
qj
y g (vj ) = 0. Se tiene

entonces

rang(g|Vj ) = qj 1

2
rang(g|V
) = qj 2 rang(g n ) = max{0, q n},
j
j
|Vj

..

.
rang(g n ) =

k
X

n
rang(g|V
).
j

j=1

Por lo tanto
rang(g n1 ) = e(n) + 2e(n + 1) + 3e(n + 2) + + (l + 1)e(n + l)
rang(g n ) =
e(n + 1) + 2e(n + 2) + + l e(n)
n+1
rang(g
)=
e(n + 2) + + (l 1)e(n + l)

Proposici
on III.6.4.- i) Sea g End(V ) un endomorfismo nilpotente. Entonces existe una base de V
respecto a la cual la matriz es de la forma normal de Jordan

0 1
0 2

.. ..
con i = 0 o i = 1.

.
.

0
n1

103

III.6 Endomorfismos Nilpotentes

ii) Sea A Mm,m (K) nilpotente. Entonces existe M Gl(m, K) tal que M AM 1 sea de la forma de Jordan.
Demostraci
on.- Se recuerda el teorema precedente. Existe
V =

k
M

Vj

j=1

donde los Vj son cclicos respecto a g. Es decir existe vj Vj tal que


{vj , g(vj ), . . . , g qj 1 (vj )} es una base de Vj y g qj (vj ) = 0, con qj = dim Vj .
Se toma por base de Vj ,
Bj = {g qj 1 (vj ), . . . , g(vj ), vj },
la matriz de g|Vj respecto a Bj es

1
..
.

..

.
0

La descomposici
on V =

.
1
0

Juntando los Bj se obtiene la base buscada.


k
M


Vj respecto a g no es u
nica, pero si son enteramente determinados por g los

j=1

enteros k y qj .
Se llama partici
on del entero m 1, una descomposici
on de m en
m = q1 + q2 + + qk , con q1 q2 qk > 0.
Ejemplo
1.- Las particiones del entero 4 son:
4 = 4,
4 = 3 + 1,
4 = 2 + 2,
4 = 2 + 1 + 1,
4 = 1 + 1 + 1 + 1;
en total 5 particiones de 4.
A g End(V ) nilpotente se le asocia la particion
m=

k
X

qj .

j=1

Proposici
on III.6.5.- Sean g, g End(V ) nilpotentes. Entonces

g y g son conjugados las particiones asociadas a g y g son las


mismas.

Demostraci
on.- Por hip
otesis, existe un automorfismo h de V , h Gl(V ), tal que g = hgh1 . Se toma
una descomposici
on en espacios cclicos respecto a g V = Vj .
Afirmamos que V = h(Vj ) es una descomposici
on en subespacios cclicos respecto a g , con lo que la
primera implicaci
on estara demostrada. En efecto, por hipotesis existe vj Vj tal que
{vj , g(vj ), . . . , g qj 1 (vj )} es base de Vj ,

g qj (vj ) = 0, qj = dim Vj .

104

III Formas Normales

Una simple verificaci


on dar
a
{h(vj ), g (h(vj )), . . . , g

qj 1

g j (h(vj )) = 0, qj = dim h(Vj ).

(h(vj ))} es base de h(Vj ),

Se supone que las particiones son las mismas; es decir:


k
M
V =
Vj descomposicon en subespacios cclicos respecto a g,
j=1

V =

k
M

Vj descomposicon en subespacios cclicos respecto a g ,

j=1

con la condici
on dim Vj = dim Vj . Consideremos.
vj Vj tal que
vj Vj tal que

{vj , g(vj ), . . . , g qj 1 (vj )} es base de Vj ,

g qj (vj ) = 0;

{vj , g (vj ), . . . , g

qj 1

(vj )} es base de Vj ,

g j (vj ) = 0.

Se plantea h : V V la aplicaci
on lineal definida por
l

g l vj 7 g (vj ),

0 l qj 1, j = 1, . . . , k.

Esta aplicaci
on es un isomorfismo por que enva base sobre base.
Afirmamos que hgh1 = g , con lo que la proposici
on estara demostrada. En efecto, para verificar que
2 aplicaciones lineales coinciden, es suficiente verificar que coinciden sobre los elementos de una base;
l

hgh1 (g (vj )) = hgg l (vj ) = hg l+1 (vj ) = g

l+1

= g (g (vj )).


Corolario III.6.6.- Existe un n


umero finito de clases de conjugacion de endomorfismos (de matrices)
nilpotentes. Este n
umro es igual al n
umero de particiones del entero m = dim V .
Demostraci
on.- Consecuencia de la proposici
on III.6.5, se ha obtenido una aplicaci
on inyectiva


clases de conjugacion de matrices (en- {particiones de m} .
domorfismos) nilpotentes m m
Esta aplicaci
on tambien es sobreyectiva. En efecto, sea m = q1 + q2 + + qk una particion de m. Se plantea

A=

q1

}|

..

..

q2

}|

..

..

..

.
z

Mm,m (K);

qk
}|
{

1
.. ..
.
.
0

105

III.6 Endomorfismos Nilpotentes


sea {e1 , . . . , em } la base can
onica de Km . Se tiene
Km =

V1
|{z}

dim V1 =q1

Vk
|{z}

dim Vk =qk

con {e1 , . . . , eq1 } base de V1 , {eq1 +1 , . . . , eq1 +q2 } base de V2 , etc. Esta es una descomposici
on en subespacios
cclicos respecto a A. En efecto A(eq1 ) = eq1 1 , A2 (eq1 ) = eq1 2 , etc.

Ejemplo
2.- Las matrices nilpotentes de 4 4 son conjugadas a una de las siguientes matrices de Jordan

0
0

0
0

0
0

0
0

1
0
0
0
1
0
0
0

0
1
0
0
0
0
0
0

0
0
,
1
0

0
0
,
1
0

0
0

0
0

0
0

0
0

1
0
0
0
1
0
0
0

0
1
0
0
0
0
0
0

0
0
,
0
0

0
0
,
0
0

106

III Formas Normales

III.7 Descomposici
on de Jordan

Se plantea

J(m, a) =

sc1

Mm,m (K).

..

..

Una matriz de la forma normal de Jordan es


J(m , a )
0
1 1
0
J(m2 , a2 )

..

.
J(mk , ak )

no es necesario que ai 6= aj si i 6= j.

Teorema III.7.1.- Jordan. Se supone K algebraicamente cerrado, por ejemplo K = C. Entonces:


i) Sea f End(V), entonces existe una base de V respecto a la cual la matriz de f tiene la forma normal
de Jordan.
ii) Sea A Mm,m (K), entonces existe M Gl(m, K) tal que M AM 1 es de la forma de Jordan.
r
Y
(x j )mj . Se plantea Vj = ker(f j id)mj . Se tiene
Demostraci
on.- Se escribe Pf (x) =
j=1

V =

r
M

Vj ,

j=1

descomposici
on can
onica en espacios invariantes respecto a f .
Se introduce f = fd + fn , la descomposici
on de Jordan de f , donde fd es diagonalizable, fd (Vj ) Vj y
fd |Vj = j id; fn es nilpotente, fn (Vj ) Vj y por lo tanto fn |Vj es nilpotente.
Resultado del paragrafo precedente, existe una base Bj de Vj respecto a la cual la matriz de fn |Vj es de
la forma

0 1

0 2

..
..

.
.
mj = dim Vj con i = 0 o i = 1.

0 mj 1

0
La matriz de f|Vj = (fd + fn )|Vj respecto a Bj es

1
0

2
..
.

..

.
j

mj 1
j

de tipo Jordan.
Ensamblando y superponiendo las bases Bj , se obtiene una base B de V con la propiedad requerida.


n de Jordan
III.7 Descomposicio

107

Proposici
on III.7.2.- Sean
J(m , a )
1 1
0

J =

J(m , a )
1

J =

0
J(m2 , a2 )
..

.
J(mp , ap )

0
J(m2 , a2 )

..

.
J(mq , aq )

Entonces J y J son conjugadas, si y solamente si p = q y existe una permutacion de {1, . . . , p} tal que
m(i) = mi ,

a(i) = ai .

Ejemplos
1.- Si A = M JM 1 , entonces An = M J n M 1 . Te
oricamente para calcular An es suficiente saber calcular
la potencia de una matriz de Jordan. Se tiene
J(m, a) = aI + N,
y
(J(m, a))n =

n  
X
n
i=1

ap1 N i ,

con la convencion que N = I. Puede observarse que N p = 0 si p m. Por otro lado a cada potencia
de N la subdiagonal de 1s se desplaza a la derecha de una subdiagonal.
2.- Colocar A bajo la forma de Jordan, donde

0 1 0
A = 0 0 1.
1 1 1
Se tiene

PA (x) = (x 1)2 (x + 1),


por consiguiente
C3 = ker(A + I) ker(A I)2 .
| {z } |
{z
}
V1

V2

Realizando c
alculos elementales, se tiene que
V1 =< {(1, 1, 1)} >,

V2 =< {(2, 1, 0), (1, 0, 1)} > .

Elegimos v2 = (2, 1, 0), entonces (A I)v2 = (1, 1, 1).


Por consiguiente, la matriz de Jordan conjugada a A es

1 0 0
J = 0 1 1
0 0 1

y si J = M 1 AM , se tiene

1 1 2
M = 1 1 1 .
1 0 1

Das könnte Ihnen auch gefallen