Beruflich Dokumente
Kultur Dokumente
Diciembre 2011
ndice general
Prefacio pg. v
Introduccin 1
1. Transformaciones lineales y matrices 8
1.1. Transformaciones lineales inyectivas y suprayectivas 8
1.2. Isomorfismos y transformaciones inversas 11
1.3. La matriz de cambio de base 15
1.4. La matriz asociada a una transformacin lineal 19
1.5. Matrices asociadas con suma y producto por escalar de transfor-
maciones lineales 21
1.6. Matriz asociada a la composicin de transformaciones lineales 21
1.7. El isomorfismo entre el espacio vectorial de las matrices y el
espacio vectorial de las transformaciones lineales 22
1.8. Equivalencia y semejanza entre matrices asociadas a la misma
transformacin lineal 23
Ejercicios 24
2. Teoria Espectral 28
2.1. Polinomios de matrices y de operadores lineales 28
2.2. Valores propios y vectores propios 29
2.2.1. Otra aproximacin: puntos fijos y dilatacin de vectores 29
2.2.2. Algunos hechos utiles sobre raices de polinomios 30
2.2.3. Definiciones bsicas 31
2.3. Polinomio caracterstico 33
2.4. Una caracterizacin de matrices diagonalizables 35
2.4.1. Suma directa de subespacios 35
2.4.2. El complemento de Schur 36
2.4.3. Espacios de autovectores y diagonalizacin 37
2.5. Triangulacin de operadores lineales 40
2.6. El Teorema de Cayley-Hamilton 41
2.6.1. Polinomios con coeficientes matriciales 41
2.6.2. El Teorema del Mapeo Espectral 43
2.7. El polinomio mnimo 45
2.7.1. El polinomio mnimo de una matriz 45
2.7.2. El polinomio mnimo de un vector 47
iv ndice general
El lgebra Lineal es una herramienta bsica para casi todas las ramas de la matem-
tica as como para disciplinas afines tales como la fsica, la ingeniera y la computacin,
entre otras.
Estas notas, basadas en la materia lgebra Lineal II destinada a alumnos de la
Licenciaturas en: actuara, enseanza de las matemticas y matemticas de la Facultad
de Matemticas de la Universidad Autma de Yucatn, pretenden, entre tantos buenos
textos de lgebra lineal existentes, ser slo una introduccin bsica al tema que se ajusta
a los contenidos curriculares del curso y, al mismo tiempo, una gua de estudios para
los alumnos.
Las notas presuponen conocimientos previos de lgebra lineal: solucin y anlisis de
sistemas de ecuaciones lineales; clculo y propiedades de determinantes; definiciones,
propiedades y los resultados ms importantes de espacios vectoriales; y kernel, imagen,
rango y nulidad de transformaciones lineales.
Al inicio de estas notas, hacemos un breve resumen de algunos resultados, definiciones
y propiedades de los espacios vectoriales y las transformaciones lineales..
Si el lector tiene algn comentario, correccin, sugerencias, etc., por favor envale un
correo electrnico al autor.
Este material est parcialmente financiado por el Consejo Nacional de Ciencia y Tec-
nologa.
Introduccin
Se presenta un breve resumen y algunos resultados nuevos los cuales son los requisitos
mnimos para continuar la lectura del captulo siguiente.
Espacios Vectoriales
Definicin 0.1 Sea K un campo. Un espacio vectorial sobre K (o un K-espacio), es
una tupla (V, +, ) tal que:
para toda k, a1 . . . . , an K.
Entonces
n
X n
X n
X
v= (ki li )vi = k i vi li vi = v v = 0V .
i=1 i=1 i=1
y L es linealmente dependiente.
no genera a V .
3.. L es una lista linealmente independiente maximal, esto es, L es linealmente inde-
pendiente, pero para toda v V , (v1 , v2 , . . . , vn , v) es linealmente dependiente.
Demostracin (a) (b) Dado que L es base, genera a V . Dado que L es lineal-
mente independiente, el Lema 0.6 implica que vi no pertenece al espacio generado de
(v1 , . . . , vi1 , vi+1 , . . . , vn ) y de aqu, (v1 , . . . , vi1 , vi+1 , . . . , vn ) no genera a V .
(a) (c) Sea v V . Dado que L genera a V , v es una combinacin lineal de L y
de aqu, por el Lema 0.6 (v1 , v2 , . . . , vn , v) es linealmente dependiente.
(b) (a) Por hiptesis, L genera a V as que nicamente necesitamos mostrar que
Pn
L es linealmente independiente. Supongamos que no. Entonces i=1 ki vi = 0V para
4 Introduccin
De aqu, L genera a V .
Transformaciones Lineales
Definicin 0.9 Sea K un campo y V, W dos K-espacios. Una transformacin K-lineal
de V a W es una funcin
f :V W
tal que
Para transformaciones lineales, podemos decidir de una mejor manera cuando una
transformacin es inyectiva o suprayectiva.
Ms an,
Ejemplo 1.7 Suponga que T es una transformacin lineal de R2 a R2 [X] tal que
1 2
T = 2 3X + X 2 y T = 1 X 2.
1 3
1 a
Halle T yT .
2 b
1 1
Solucin. Observe que = , es una base. (Porqu?). Entonces
1 2
a 1 2
= (3a 2b) + (b a) ,
b 1 3
10 Transformaciones lineales y matrices
de modo que
a 1 2
T = T (3a 2b) + (b a)
b 1 3
1 2
= (3a 2b)T + (b a)T
1 3
= (3a 2b)(2 3x + x2 ) + (b a)(1 x2 )
= (5a 3b) + (9a + 6b)X + (4a 3b)X 2 .
Demostracin Sea w Im f . Por definicin, existe v V tal que f (v) = w. Dado que
S genera a V , existen escalares 1 , . . . , n tales que
v = 1 v1 + + n vn
1 f (v1 ) + + k f (vk ) = 0.
f (1 v1 + + f vk ) = 0
Corolario 1.10 Sea dim V = dim W = n. Entonces una transformacin lineal in-
yectiva f : V W mapea una base para V en una base para W . En otras palabras, si
S = {v1 , . . . , vn } es una base para V , entonces f (S) = {f (v1 ) , . . . , f (vn )} es una base
para W.
1.2 Isomorfismos y transformaciones inversas 11
Muestra que tr es una transformacin lineal y halla bases para su kernel y su imagen.
Solucin: Para [ai,j ], [bi,j ] Mn (K) y k1 , k2 K tenemos
tr (k1 [ai,j ] + k2 [bi,j ]) = tr ([k1 ai,j + k2 bi,j ])
Xn
= (k1 ar,r + k2 br,r )
r=1
n
X n
X
= k1 ar,r + k2 br,r
r=1 r=1
n
X n
X
= k1 ar,r + k2 br,r
r=1 r=1
= k1 tr ([ai,j ]) + k2 tr ([bi,j ]) ,
Recuerde que
Teorema 1.23 Sea S = {v1 , . . . , vn } una base para el espacio vectorial V . Sea W
un segundo espacio vectorial y sea T = {w1 , . . . , wn } una sucecin de vectors en W .
Entonces existe una nica transformacin lineal f : V W satisfaciendo
f (vi ) = wi
para i = 1, . . . , n.
Ejercicio 1.24 Demuestre de memoria el Teorema 1.23.
Una til consecuencia de este resultado es el siguiente.
Teorema 1.25 Supongamos que el espacio vectorial V es una suma directa V =
V1 V2 de dos subespacios y sea f1 : V1 W y f2 : V2 W dos transformaciones
lineales. Entonces existe una nica transformacin lineal f : V W extendiendo f1 , f2 ,
es decir, satisfaciendo
f (u) = f1 (u) si u V1 ;
= f2 (u) si u V2 .
Demostracin Use bases de V1 y V2 para former una base de V , ahora aplique el
Teorema 1.23.
Aqu otro resultado til.
Teorema 1.26 Sean V y W dos espacios vectorial de dimensin finite sobre K con
n = dimK V y m = dimK W . Suponga que S = {v1 , . . . , vn } y T = {w1 , . . . , wm } son
bases para V y W respectivamente. Entonces existe una nica transformacin lineal
f : V W con las siguientes propiedades:
1.. Si n m entonces
f (vj ) = wj para j = 1, . . . , n.
El resultado siguiente provee una manera conveniente de decidir si dos espacios vec-
torial son isomorfos: simplemente mostrando que ellos poseen la misma dimensin.
Teorema 1.27 Sean V y W espacios vectorial de dimensin finita sobre el campo K.
Entonces existe un isomorfismo V W si y slo si dimK V = dimK W .
Demostracin Si existe un isomorfismo f : V W , entonces dimK V = dimK W por
el Corolario 1.16. Para el recproco, si dimK V = dimK W entonces por el Teorema 1.26
(5..) existe un isomorfismo V W .
donde ([u1 ] , [u2 ] ) es una matriz cuyas columnas estn formadas por los vectores [u1 ]
y [u2 ] , es decir,
3 3
([u1 ] , [u2 ] ) = .
2 1
Esta matriz es llamada matriz de cambio de base y en el Teorema 1.30 se demuestra
que siempre existe y que adems es invertible.
Ejercicio 1.29 Considere el espacio R2 [X] con las siguientes dos bases: = 1, X, X 2
y = 1 + X, X + X 2 , 1 + X 2 . Halla una matriz cambio de base.
V
[]1 []2
Kn o A
Kn
Entonces A es invertible, y para todo v V tenemos que
[v]1 = A [v]2 .
[v]1 = [x1 w1 + x2 w2 + + xn wn ]1
= x1 [w1 ]1 + x2 [w2 ]1 + + xn [wn ]1 .
El Teorema 1.30 muestra que la matriz A cumple con las propiedades descritas al
comienzo de la seccin. Ahora, escribimos una definicin formal.
(C(1 , 2 ))i,j = ij
para cada 1 i, j n.
1.3 La matriz de cambio de base 17
Ejemplo 1.32 Sea V = R3 . Consideremos las bases 1 = E = {(1, 0, 0), (0, 1, 0), (0, 0, 1)}
y 2 = {(1, 1, 1), (1, 1, 0), (1, 0, 0)}. Para construir la matriz C(1 , 2 ) R33 , comen-
zamos por escribir los elementos de 1 como combinacin lineal de los de vectores de
2 :
(1, 0, 0) = 0(1, 1, 1) + 0(1, 1, 0) + 1(1, 0, 0),
(0, 1, 0) = 0(1, 1, 1) + 1(1, 1, 0) + (1)(1, 0, 0)
(0, 0, 1) = 1(1, 1, 1) + (1)(1, 1, 0) + 0(1, 0, 0)
Entonces, la matriz de cambio de base es:
0 0 1
C(1 , 2 ) = 0 1 1
1 1 0
Una pregunta que surge es la de la unicidad de la matriz de cambio de base: dadas
dos bases 1 y 2 , la matriz C(1 , 2 ) que hemos definido transforma coordenadas en
la base 1 en coordenadas en la base 2 . Existir alguna otra matriz en Knn con esta
misma propiedad? El resultado que probamos a continuacin nos asegura que no.
Proposicin 1.33 Sean A, B Knn . Si Ax = Bx para todo x Kn , entonces
A = B.
Demostracin Sea E = {e1 , . . . , en } la base cannica de Kn . Por hiptesis, Aej = Bej
para cada 1 j n. Pero
n
X n
X
(Aej )i = Ai,h (ej )h = Ai,j y (Bej )i = Bi,h (ej )h = Bi,j
h=1 h=1
V
[]1 []3
[]2
v
Kn / Kn /( K n
C(1 ,2 ) C(2 ,3 ) 8
C(1 ,3 )
18 Transformaciones lineales y matrices
V
[]1 []2
C(2 ,1 )
w '
Kn q 8K
n
C(1 ,2 )
C(2 , 1 ) = C(1 , 2 )1 .
Para terminar, probaremos algunos resultados que relacionan matrices inversibles con
cambios de base.
V ^
f
/W
[] []1
[]
Kn / Km
[] f []1
A[v] = [f (v)]
0
..
.
[vi ] =
1 = ei .
.
..
0
De modo que,
[ei ]1
= vi .
Por lo tanto,
[] f []1
(ei ) = ([] f ) (vi )
= ([] ) (f (vi ))
= [f (vi )] .
satisface
A[v] = [f (v)]
para toda v V .
Pn
Demostracin Sea x V y sea [x] = (x1 , . . . , xn ), es decir, x = i=1 xi vi . Para cada
1 i n, sea Ci la i-sima columna de A. Por definicin, Ci = [f (vi )] . Entonces
A[x] = x1 C1 + + xn Cn
= x1 [f (v1 )] + + xn [f (vn )]
" n #
X
= xi f (vi ) = [f (x)] .
i=1
V
f
/W
[]1 []2
Kn / Km
[f ]1 2
Si f : V V y 1 = 2 = , denotaremos [f ] = [f ] .
Entonces
1 2 1
[f ]1 2 = .
1 3 0
Observacin 1.42 Si consideramos la transformacin lineal asociada a una matriz
A Knm , fA : Km Kn definida por fA (x) = Ax, entonces, a partir de la Definicin
1.40, la matriz de fA en las bases cannicas E y E 0 de Km y Kn respectivamente resulta
ser [fA ]EE 0 = A.
1.5 Matrices asociadas con suma y producto por escalar de transformaciones lineales
21
1.. [f + g] 0 = [f ] 0 + [g] 0 .
2.. [f ] 0 = [f ] 0 para K.
transformaciones lineales.
gf
f
/W g (/
V U
[]1 []2 []3
Kn / Km / 6 Kr
[f ]1 2 [g]2 3
[gf ]1 2
Entonces
[g f ]1 3 = [g]2 3 [f ]1 2 .
Demostracin Sean n =dim V , m =dim W y r =dim U . Entonces [g]2 3 Krm y
[f ]1 2 Kmn , con lo que [g]2 3 [f ]1 2 Krn . Adems [g f ]1 3 Krn . As que
ambas matrices son del mismo tamao. Para cada x V se tiene que
[g]2 3 [f ]1 2 [x]1 = [g]2 3 [f (x)]2
= [g (f (x))]3
= [(g f )(x)]3
= [g f ]1 3 [x]1
Luego, [g]2 3 [f ]1 2 = [g f ]1 3 (Porque?).
Corolario 1.47 Sean V y W dos K-espacios vectoriales de dimensin finita, y sean
1 y 2 bases de V y W respectivamente. Sea f : V W un isomorfismo.
f 1
|
V
f
/W
[]1 []2
Kn b / Km
[f ]1 2
[f ]1
1 2
1
Entonces [f 1 ]2 1 = ([f ]1 2 ) .
Ejercicio 1.48 Demuestra el Corolario 1.47.
C(10 ,1 ) V
f
/W C(2 ,20 )
[]1 []2
[f ]1 2
V /W
24 Transformaciones lineales y matrices
Entonces
[f ]10 20 = C(2 , 20 )[f ]1 2 C(10 , 1 ).
Demostracin Se tiene que f = idW f idV . Aplicando dos veces el resultado dado
en la Proposicin 1.46 y el hecho que la matriz de la transformacin lineal identidad en
un par de bases coincide con la matriz de cambio de base entre las mismas, se obtiene
[f ]10 20 = [idW f idV ]10 20
= [idW f ]1 20 [idV ]10 1
= [idW ]2 20 [f ]1 2 [idV ]10 1
= C(2 , 20 )[f ]1 2 C(10 , 1 ).
que es lo que se quera probar.
Observe que la Proposicin 1.53 nos dice que [f ]10 20 [f ]1 2
Ejercicios
1.1 Responda las siguientes preguntas y justifique su respuesta.
a). Existir algn monomorfismo f : R3 R2 ?
b). Existir algn epimorfismo f : R2 R3 ?
1.2 Sea K un campo y sea T : K Kn una funcin lineal. Demuestre que T = 0 o T
es inyectiva.
1.3 La transformacin lineal f : C4 C3 dada por:
x1
x2 2x1 + x2 + x3
fx3 = x1 + 3x2 + x3 x4
3x1 + x2 + 2x3 2x4
x4
no es inyectiva. Halle x, y C4 tales que f (x) = f (y) con x 6= y.
1.4 La transformacin lineal f : C4 C3 dada por:
x1
x2 2x1 + x2 + 3x3 4x4
gx3 = x1 + 3x2 + 4x3 + 3x4
x1 + 2x2 + x3 + 7x4
x4
no es suprayectiva. Halle w C3 tal que no existe u C4 tal que g(u) = w.
1.5 Sea T : R2 [X] R4 [X] dada por T (p(X)) = X 2 p(X). Halla una base de Im T .
Es T suprayectiva?
1.6 Sea f : V W una transformacin lineal entre dos espacios vectoriales de dimen-
sin finita.
a). Demuestre que si dim V < dim W , entonces f no puede ser suprayectiva.
b). Demuestre que si dim V > dim W , entonces f no puede ser inyectiva.
1.7 Sea V un K-espacio vectorial y sea f : V V una transformacin lineal. Se dice
que f es nilpotente si s N tal que f s = 0.
Ejercicios 25
1.22 Sea T : R2 R2 dada por T (x, y) = (2x, 3x 7y). Sean la base cannica de
R2 , y la base {(1, 1) , (2, 0)} . Calcule [T ] y [T ] . Encuentre una matriz A tal
que A1 [T ] A = [T ] .
1.23 Demuestre que la relacin ser semejantes es una relacin de equivalencia en el
conjunto de matrices de n n con entradas en un campo K.
Definicin 1.55 Sea V un K-espacio vectorial. Un funcional lineal en V es una
transformacin lineal de V en el campo K. El espacio dual de V , denotado V , es
el conjunto de todos los funcionales lineales en V .
Ejemplo 1.56 Sea V = R2 . Un funcional lineal en V es la funcin T : R2 R
dada por T (x, y) = 2x 5y.
Definicin 1.57 Sea V un K-espacio vectorial de dimensin finita, y sea =
{v1 , . . . , vn } una base de V . La base dual de , denotada , es la sucesin
{1 , . . . , n } donde i es el funcional lineal en V dado por
i (1 v1 + + vn ) = i .
Ejemplo 1.58 Sea V = R2 , y sea la base cannica. Entonces 1 (x, y) = x y
2 (x, y) = y.
1.24 Sea V = R2 , y sea E la base cannica. Sea T (x, y) = 5x 6y. Escriba a T como
combinacin lineal de la base dual de E.
1.25 Sea V un K-espacio vectorial de dimensin finita, y sea = {v1 , . . . , vn } una base
de V . Entonces la base dual de es una base de V .
1.26 Sea V un K-espacio vectorial de dimensin finita. El doble dual de V , denotado
V , es el dual de V .
a). Para cada v V , sea ev : V K dada por ev (T ) = T (v). Demuestre que
ev V .
b). Sea E : V V dada por E(v) = ev . Demuestre que E es un isomorfismo,
llamado el isomorfismo natural entre V y su doble dual.
2
Teoria Espectral
Una matriz A Knn se dice diagonalizable si existe una matriz C GL(n, K) tal
que CAC 1 es una matriz diagonal.
En otras palabras, una matriz diagonalizable es una matriz que es semejante a una
matriz diagonal. La nocin correspondiente para transformaciones lineales es la siguien-
te:
Definicin 2.1 Sea V un K-espacio vectorial de dimensin finita, y sea f : V V
una transformacin lineal. Se dice que f es diagonalizable o diagonal si existe una base
de V tal que [f ] es diagonal.
Teniendo en cuenta que la semejanza de matrices es una relacin de equivalencia
deducimos que: Sea V un K-espacio vectorial de dimensin finita y sea f : V V una
transformacin lineal. Entonces f es diagonalizable si y slo si [f ] es diagonalizable
para toda base de V .
En esta seccin consideramos el problema de determinar si una matriz es semejante
a una matriz diagonal. Y ms generalmente, determinar si una transformacin lineal es
diagonalizable o no.
pueden usar para calcular la funcin exponencial exp(A) de una matriz cuadrada A,
que es importante para ecuaciones diferenciales.
Ejemplo 2.4 Sean P (x) = x2 7x + 10, y
3 1
A= .
7 0
Calculemos la matriz P (A) en tres maneras diferentes.
1.. A2 7A + 10I,
2.. (A 7I)A + 10I,
3.. (A 2I)(A 5I).
Solucin:
9 4
P (A) = .
28 3
Ejercicio 2.5 Sean P (x) = x2 8x + 12 y
3 5 7
A = 1 4 8
3 1 2
Halle P (A).
as que los vectores del eje x son dilatados bajo fA por un factor 2.
3.. Suponga que Ax = 3x, entonces
1 1
(3I2 A)x = 0, es decir, x = 0.
0 0
p(t) = c(t 1 ) (t n ),
donde c 6= 0 y las races k son nicos salvo el orden en el cual aparecen. Es til escribir
(t )(t ) = t2 ( + )t + = t2 (2 Re )t+ | |2 ,
p(t) = (t 1 )(t 2 ) (t n ),
2.2 Valores propios y vectores propios 31
Ejemplo 2.8 Sea p(t) un polinomio complejo de grad 3. Suponga que p(t) = t3
6t2 + at 6, donde a C, y tambin que 1 es una raz de p(t). Halla las otras races de
p(t).
Solucin. Supongamos que las otras races son y . Entonces por la Proposicin 2.7,
+ + 1 = (6), es decir, = 5 ;
tambin,
(1)()() = (1)3 (6), es decir, = 6.
(5 ) = 6, es decir, 2 5 + 6 = 0.
Las races de este polinomio son 2, 3, de donde obtenemos que las races de p(t) son
1, 2, 3.
Spec(f ) := K | I f no es invertible .
cuyo conjunto de soluciones es h(1, 1)i. Luego el conjunto de los autovectores asociados
2.3 Polinomio caracterstico 33
= {(1, i), (1, i)} es una base de C2 formada por autovectores de A, entonces A es
diagonalizable en C22 .
Queremos definir el polinomio caracterstico asociado a un endomorfismo de un espa-
cio vectorial de dimensin finita. Para eso, veremos que dos matrices semejantes tienen
el mismo polinomio caracterstico.
Proposicin 2.20 Sea A Knn y sea C GL(n, K). Entonces
CAC 1 = A .
Demostracin Se tiene que
CAC 1 = det (X In CAC 1 )
= det (CX In .C 1 CAC 1 )
= det (C(X In A)C 1 )
= det (X In A)
= A .
W = S1 + S2 + + Sr = {s1 + + sr | si Si , 1 i r}.
x = 0 + + 0 + x + 0 + + 0,
x = s1 + + sj1 + 0 + sj+1 + + sr .
Como en la suma directa de dos subespacios, en este caso tambin es posible obtener
una base del espacio suma uniendo bases de cada uno de los sumandos.
36 Teoria Espectral
1 0 0 2 1
0 1 0 1 3
0 0 1 4 0
0 0 0 1 7
0 0 0 7 2
1 0 0 2 1
0 1 0 1 3
I3 B
0 0 1 4 0 =
02,3 C
0 0 0 1 7
0 0 0 7 2
r+1 v = 1 v1 + + r vr ,
Ejercicio 2.41 Calcular los valores propios y sus multiplicidades algebraica y geom-
trica de cada una de las siguientes matrices:
7 1 0 7 1 0 7 0 0
0 7 1 , 0 7 0 , 0 7 0 ,
0 0 7 0 0 7 0 0 7
4 0 0 0 4 0 0 0 4 1 0 0
0 6 1 0 0 6 1 0 0 4 0 0
0 0 6 1 , 0 0 6 0 , 0 0 6 1 .
0 0 0 6 0 0 0 6 0 0 0 6
A = (X 1 )a1 (X r )ar .
Pr Pr
Como dim Ei ai para cada 1 i r, de la igualdad i=1 dim Ei = i=1 ai se
deduce que dim Ei = ai para cada 1 i r.
(3..) (1..) Para cada 1 i r sea i una base de Ei . Por la Proposicin 2.32,
Lr
= ri=1 i es una base de i=1 Ei Kn . Ahora,
r
X r
X r
X
| B |= | i |= dim Ei = ai = gr(A )
i=1 i=1 i=1
Lr Lr
de donde dim ( i=1 Ei ) = dim K n . Luego i=1 Ei = K n y entonces es una base
(formada por autovectores de A) de Kn . En consecuencia, A es diagonalizable.
(P Q)(A) = P (A)Q(A).
De aqu,
m+s
X X
(P Q)(A) = Pi Qj Ak .
k=0 i+j=k
Pi Ai Qj Aj = Pi Qj Ai+j .
A (A) = 0,
adj(B)B = det(B)I,
adj(I A) (I A) = det(I A) I = A () I.
El espectro de p(A) coincide con el conjunto de los valores del polinomio p(X) en el
espectro de A. Vamos a demostrar esta afirmacin en el caso general.
44 Teoria Espectral
Teorema 2.52 (del mapeo espectral) Sea V un espacio vectorial complejo de dimen-
sin finita, sean T Hom(V, V ) y p(X) un polinomio con coeficientes complejos. En-
tonces:
Spec(p(T )) = p(Spec(T )),
donde p(Spec(T )) = { C | Spec(T ) tal que = p()}.
Demostracin El caso cuando p(X) es una constante es trivial (y se deja como ejer-
cicio). Consideremos el caso cuando deg(p(X)) 1. Primero, supongamos que
p(Spec(T )) y demostremos que Spec(p(T )). La condicin p(Spec(T )) significa
que = p() para algn Spec(T ). El polinomio p(Z) tiene como raz a y por
lo tanto, (Z ) | (p(Z) ). Esto es, existe un polinomio q(Z) tal que
p(Z) = (Z )q(Z).
De aqu,
p(T ) I = (T I)q(T ).
La transformacin T I es lineal y no invertible. Aplicando la Proposicin 2.50,
p(T ) I no es invertible. Esto es, Spec(p(T )).
Para probar el recproco, vamos a suponer que / p(Spec(T )) y demostraremos que
/ Spec(p(T )). Consideremos el polinomio p(Z) . Por el Teorema Fundamental del
lgebra, dicho polinomio se puede factorizar en factores lineales:
p(Z) = c0 (Z 1 )(Z 2 ) (Z d ),
donde d = deg(p(Z)) y c0 es el coeficiente lder de p(Z). Al evaluar obtenemos que
p(j ) = para toda j {1, 2, . . . , m}. Demostraremos que 1 , 2 , . . . , d / Spec(T ).
En efecto, si suponemos que j Spec(T ) para algn j {1, 2, . . . , d}, entonces =
p(j ) p(Spec(T )) que contradice a la hiptesis. As que 1 , 2 , . . . , d
/ Spec(T ).
Entonces
I p(T ) = c0 (T 1 I)(T 2 I) (T d I).
Todos los factores del lado derecho son invertibles, por eso I p(T ) tambin lo es. Lo
ltimo significa que / Spec(p(T )).
Observe que la primera parte de la demostracin del Teorema del maleo espectral
no usa la hiptesis que el espacio vectorial sea complejo. Por lo tanto, en el caso de
cualquier campo, siempre es vlida la contencin:
Spec(p(T )) ( p(Spec(T )),
Vamos a construir un ejemplo real para mostrar esto. Consideremos la transformacin
lineal T : R2 R2 cuya matriz en la base cannica E es:
0 1
[T ]E = .
1 0
El polinomio caracterstico de T es 2 + 1, y de aqu, Spec(T ) = . Sea p(X) = 0, el
polinomio cero. Entonces p(T ) = 0, la transformacin lineal cero y Spec(p(T )) = {0}.
En este caso,
Spec(p(T )) = {0} ( = p(Spec(T )).
2.7 El polinomio mnimo 45
Lema 2.54 Sea A Knn . Existe un polinomio p K[X], p 6= 0, tal que p(A) = 0.
2
Demostracin Consideremos el conjunto {In , A, A2 , . . . , An } Knn . Este conjunto
es linealmente dependiente, puesto que tiene n2 +1 elementos y dim(Knn ) = n2 . Luego,
Pn2
existen a0 , a1 , . . . , an2 K no todos nulos, tales que i=0 ai Ai = 0. Sea p K[X] el
Pn2
polinomio p = i=0 ai X i . Entonces p = 0 y p(A) = 0.
Para cada matriz, distinguimos un polinomio particular entre todos los polinomios
que la anulan: el de grado mnimo y mnico. Veamos que para toda matriz existe un
polinomio con estas propiedades y que es nico:
Dada una matriz A Knn , el conjunto de todos los polinomios que anulan a A
puede caracterizarse a partir de su polinomio minimal mA .
Como mA es de grado mnimo entre los polinomios que anulan a A, no puede ser
deg(r) < deg(mA ) y, por lo tanto, r = 0.
Como sucede en el caso del polinomio caracterstico, vemos que dos matrices seme-
jantes tienen el mismo polinomio mnimo.
Lema 2.58 Sean A, B Knn , A B. Entonces p(A) p(B) para todo p K[X].
En particular, p(A) = 0 si y solamente si p(B) = 0.
Pr
Demostracin Sea p K[X], p = i=0 ai X i . Si A B, existe C GL(n, K) tal que
A = CBC 1 , y entonces
r
X r
X
p(A) = p(CBC 1 ) = ai (CBC 1 )i = ai CB i C 1
i=0 i=0
r
!
X
=C ai B i C 1 = C p(B) C 1 .
i=0
mA (A) = 0 mA (B) = 0 mB | mA
mB (B) = 0 mB (A) = 0 mA | mB
pero esto no vale para ningn valor de b R. Luego, deg(me1 ) 2. Buscamos entonces
un polinomio p R[X] mnico de grado 2: p = X 2 + aX + b. En este caso
Am v + am1 Am1 v + + a2 A2 v + a1 Av + a0 v = 0.
Adems, como mv es de grado mnimo entre los polinomios que satisfacen p(v) = 0,
se tiene que {v, Av, . . . , Am1 v} es un conjunto linealmente independiente. Luego, para
hallar el polinomio mnimo de v, un primer paso consiste en buscar el mnimo m N
tal que {v, Av, . . . , Am v} es linealmente dependiente. Si Am v = a0 v a1 Av
am1 Am1 v, entonces mv = X m + am1 X m1 + + a1 X + a0 .
Al igual que para el polinomio mnimo de una matriz, fijada una matriz A, todo
polinomio que anula a un vector dado resulta ser mltiplo de su polinomio mnimo.
Luego,
mA = mcm{(X 1)2 , X 1, X 2} = (X 1)2 (X 2)}.
mA = mcm{mv1 , . . . , mvn }
= mcm{X 1 , . . . , X 1 , . . . , X r , . . . , X r }
= (X 1 )(X 2 ) (X r ).
Supongamos que {v, Av, . . . , Ak v} es un conjunto linealmente independiente, pero {v, Av, . . . , Ak v, Ak+1 v}
es linealmente dependiente. Luego Aj v hv, Av, . . . , Ak vi para todo j N y S =
{v, Av, A2 v, . . . , Ak v} resulta ser una base de S. Adems, deg(mv ) = k + 1, o sea, mv
es de la forma
mv = X k+1 + ak X k + + a1 X + a0 .
0 0 0 a0
..
1 0 . a1
[TA ]S = 0 1 . . .
.. ..
. .
. .
.. ..
0 ak1
0 0 1 ak
Ejemplo 2.70 (continuacin del Ejemplo 2.69) Notar que si A Rnn satisface
0 0 1
Ak = In , A no es necesariamente diagonalizable sobre R. Por ejemplo, A = 1 0 0
0 1 0
cumple que A = I3 , pero A no es diagonalizable, puesto que mA = (X 1)(X 2 +X +1),
3
Ejercicios
2.1 Analizar la validez de las siguientes afirmaciones:
a). Si A Rnn inversible, entonces 0 no es autovalor de A.
b). Si A Rnn es inversible y x es un autovector de A, entonces x es un autovector
de A1 .
c). Si A Rnn con n impar, entonces A admite un autovalor real.
2.2 Hallar los autovalores de las siguientes matrices:
1 1 1 1
1 1 1 1
a). 1 1 1 1 Rnn
. . . .
.. .. .. . . ...
1 1 1 1
2 1 2 1 2 1
1 2 1 2 1 2
2 1 2 1 2 1
b). R66
1 2 1 2 1 2
2 1 2 1 2 1
1 2 1 2 1 2
2.3 Suponga que es un autovalor de la matriz A con autovector correspondiente x.
Entonces si k es un entero positivo, demuestre que k es un autovalor de la matriz
Ak con autovector correspondiente x.
2.4 Calcular el polinomio caracterstico, los autovalores y los autovectores de la matriz
A en cada uno de los siguientes casos (a R):
(Analizar por separado los casos K = R y K = C)
1 3
a). .
3 1
0 2 1
b). 2 0 3 .
1 3 0
a 1 1
c). 1 a 1 .
1 1 a
1 0 0
d ). a 1 0 .
0 a 1
52 Teoria Espectral
0, 1, 1, 2, 3, 5, 8, 13, 21, 34, 55, 89, 144, 233, 377, 610, 987, 1597, 2584, 4181,
6765, 10946, 17711, ...
Ejemplo 3.4 Se puede comprobar que las funciones definidas a continuacin son
productos internos sobre los espacios vectoriales correspondientes:
((x1 , . . . , xn ), (y1 , . . . , yn )) = x1 y1 + + xn yn .
((x1 , . . . , xn ), (y1 , . . . , yn )) = x1 y1 + + xn yn .
Ejemplo 3.5 Sean u = (2 + 3i, 5 + 2i, 3 + i) y v = (1 + 2i, 4 + 5i, 5i). Hallar hu, vi
usando el producto cannico en C2 .
Solucin. Tenemos
hx, yi = x1 y1 + x1 y2 + x2 y1 + 5x2 y2 .
es un producto interno.
Como deja evidente los Ejemplos 3.4 y 3.6, dado un espacio vectorial V es posible
definir distintos productos internos sobre V . En el ejemplo siguiente veremos una familia
de productos internos en R2 .
((x1 , x2 ), (y1 , y2 )) = x1 y1 x1 y2 x2 y1 + x2 y2 .
Esto implica que |hv, wi|2 kvk2 kwk2 , de donde se obtiene la desigualdad buscada.
4.. En primer lugar, observamos que
kv + wk2 = hv + w, v + wi
= hv, vi + hv, wi + hv, wi + hw, wi
= kvk2 + 2 Rehv, wi + kwk2 .
Ejercicio 3.11 Demuestre que |hx, yi|2 = hx, xi hy, yi si y solamente si x, y son
linealmente dependientes.
para toda x, y V .
2.. Sea (V, h, i) un C-espacio vectorial con producto interno. Entonces para cada v, w
V se tiene:
1 1 i i
hv, wi = kv + wk2 kv wk2 + kv + iwk2 kv iwk2 .
4 4 4 4
Demostracin 1.. Si V es un R-espacio vectorial, entonces kv + wk2 = kvk2 + 2hv, wi +
kwk2 y kv wk2 = kvk2 2hv, wi + kwk2 . Entonces
1 1 1 1
kv + wk2 kv wk2 = hv, wi hv, wi = hv, wi.
4 4 2 2
2.. Anlogamente, si V es un C-espacio vectorial, entonces
1 1
kv + wk2 kv wk2 = Rehv, wi
4 4
Por otro lado, kv + iwk2 = kvk2 + 2 Rehv, iwi + kiwk2 = kvk2 + 2 Imhv, wi + kwk2
y, similarmente, kv?iwk2 = kvk2 2 Imhv, wi + kwk2 , lo que implica que
i i
kv + iwk2 kv iwk2 = i Imhv, wi.
4 4
La identidad del enunciado se obtiene haciendo hv, wi = Rehv, wi + i Imhv, wi.
1.. d(v, w) 0 v, w V.
2.. d(v, w) = 0 v = w.
3.. d(v, w) = d(w, v) v, w V.
4.. d(v, z) d(v, w) + d(w, z) v, w, z V.
De aqu:
1
1 0 3
G(1, x, x2 ) = 0 1
3 0
1 1
3 0 5
G(v1 , . . . , vn )T = G(v1 , . . . , vn ).
Proposicin 3.23 Sea V un R-(o C-) espacio vectorial de dimensin finita y sea h, i
un producto interno sobre V . Sea una base de V . Entonces, para cada v, w V , se
tiene que
hv, wi = [v] G()[w]T .
Pn Pn
Demostracin Sea = {v1 , . . . , vn }. Supongamos que v = i=1 i vi y w = i=1 i vi .
Entonces
* n + * +
X n
X Xn n
X Xn n
X
hv, wi = i vi , j vj = i vi , j vj = i j hvi , vj i .
i=1 j=1 i=1 j=1 i=1 j=1
3.2 Ortogonalidad
En esta seccin generalizaremos la nocin conocida de perpendicularidad en R2 y
algunas propiedades que se basan en esta nocin, a espacios vectoriales con producto
interno arbitrarios.
Definicin 3.34 Sea (V, h, i) un espacio vectorial con producto interno. Se dice que
{v1 , . . . , vr } V es un conjunto ortogonal si hvi , vj i = 0 para toda i 6= j. El conjunto
se dice ortonormal si es ortogonal y adems kvi k = 1 para cada 1 i r.
Ejemplo 3.35 En Rn (o Cn ) con el producto interno cannico, la base cannica es
un conjunto ortonormal:
hei , ej i = 0 si i 6= j.
3.2 Ortogonalidad 63
Entonces
hv, vj i
j = .
kvj k2
Demostracin Para cada 1 j r, calcule directamente el producto interno hv, vj i.
Corolario 3.43 Sea (V, h, i) un espacio vectorial con producto interno. Sea {v1 , . . . , vr }
V un conjunto ortonormal y sea v una combinacin lineal de los vectores {v1 , . . . , vr }:
r
X
v= j vj .
j=1
Entonces
j = hv, vj i.
Ejercicio 3.44 Escriba una prueba del Corolario 3.43.
Teorema 3.45 Sea (V, h, i) un espacio vectorial con producto interno. Sea {v1 , . . . , vr }
V un conjunto ortogonal de V con vi 6= 0 para cada 1 i r. Entonces {v1 , . . . , vr } V
es un conjunto linealmente independiente.
Demostracin Supongamos que
r
X
j vj = 0.
j=1
Corolario 3.46 Sea (V, h, i) un espacio vectorial con producto interno. Sea {v1 , . . . , vr }
V un conjunto ortonormal de V. Entonces {v1 , . . . , vr } V es un conjunto linealmente
independiente.
3.3 El proceso de ortogonalizacin de Gram-Schmidt 65
Ejercicio 3.48 Sea (V, h, i) un espacio vectorial con producto interno y {v1 , . . . , vr }
V un conjunto ortonormal de V . Demuestre que:
con > 1. Hallar una base de R2 ortogonal para este producto interno.
Solucin. Elegimos un vector en R2 , por ejemplo, (1, 0). Buscamos un vector ortogonal
a ste para el producto interno dado, es decir, un vector (y1 , y2 ) R2 tal que
0 = (1, 0), (y1 , y2 ) = y1 y2 ,
por ejemplo, (y1 , y2 ) = (1, 1). Entonces {(1, 0), (1, 1)} es una base ortogonal de R2 .
La proposicin siguiente asegura que todo espacio vectorial de dimensin finita con
producto interno tiene una base ortogonal. Ms an, su demostracin da un procedi-
miento recursivo, conocido como el mtodo de ortogonalizacin de Gram-Schmidt, que
permite obtener una base ortogonal del espacio a partir de una base cualquiera del
mismo.
`(v1 , . . . , vk ) = `(z1 , . . . , zk ).
para cada 1 k n.
Se tiene que
1.. `(z1 , . . . , zr , zr+1 ) = `(z1 , . . . , zr , vr+1 ) = `(v1 , . . . , vr , vr+1 ),
2.. para cada j r:
* r
+
X hvr+1 , zi i
hzr+1 , zj i = vr+1 zi , zj
i=1
kzi k2
r
X hvr+1 , zi i
= hvr+1 , zj i hzi , zj i
i=1
kzi k2
hvr+1 , zj i
= hvr+1 , zj i hzj , zj i
kzj k2
= 0.
De esta manera, al concluir el n-simo paso se obtiene una base ortogonal {z1 , . . . , zn }
de V que adems satisface `(z1 , . . . , zk ) = `(v1 , . . . , vk ) para cada 1 k n.
Corolario 3.52 Sea (V, h, i) un espacio vectorial con producto interno y sea {v1 , . . . , vn }
una base de V . Existe un base ortonormal = {w1 , . . . , wn } de V tal que
`(v1 , . . . , vk ) = `(w1 , . . . , wk ).
para cada 1 k n.
Corolario 3.54 Sea (V, h, i) un espacio vectorial de dimensin finita con producto
interno, y sea S un subespacio de V , S 6= {0}. Entonces existe una base ortonormal
de V que contiene una base ortonormal de S.
`(w1 , . . . , wr ) = `(s1 , . . . , sr ) = S.
La comprobacin:
1
4 2
4 2 1 2 25 0 0
2 1 2
G(z1 , z2 , z3 ) = 2 1 2 4
1
= 0 25 0 .
2 4
1 2 4 2 0 0 25
2 4 2
Ejemplo 3.58 Dada la base = {(1, 0, i), (1, 1, 2+i), (0, 0, 1)} de C3 , ortonormalizarla
usando el mtodo de Gram-Schmidt.
Solucin. Denotaremos por v1 = (1, 0, i), v2 = (1, 1, 2 + i) y v3 = (0, 0, 1).
Comenzamos tomando z1 como el primer vector de la base: z1 = (1, 0, i).
Construimos ahora z2 aplicando la frmula (3.1) para r = 1:
hv2 , z1 i h(1, 1, 2 + i), (1, 0, i)i
z2 = v2 z1 = (1, 1, 2 + i) (1, 0, i)
kz1 k2 k(1, 0, i)k2
= (1, 1, 2 + i) (1 i)(1, 0, i)
= (i, 1, 1).
Finalmente, hallamos z3 aplicando nuevamente la frmula (3.1) para r = 2:
hv3 , z1 i hv3 , z2 i
z3 = v3 z1 z2
kz1 k2 kz2 k2
h(0, 0, 1), (1, 0, i)i h(0, 0, 1), (i, 1, 1)i
= (0, 0, 1) (1, 0, i) (i, 1, 1)
k(1, 0, i)k2 k(i, 1, 1)k2
i 1
= (0, 0, 1) + (1, 0, i) (i, 1, 1)
2 3
i 1 1
=( , , ).
6 3 6
El conjunto {z1 , z2 , z3 } es una base ortogonal de C3 . Dividiendo cada vector por su
norma, obtenemos
z1 1 1 i
w1 = = (1, 0, i) = , 0, .
kz1 k 2 2 2
z2 1 i 1 1
w2 = = (i, 1, 1) = , , .
kz2 k 3 3 3 3
!
z3 i 1 1 6i 6 6
w3 = = 6 , , = , , .
kz3 k 6 3 6 6 3 6
tales que {w1 , w2 , w3 } es una base ortonormal de C3 que cumple `(v1 ) = `(w1 ) y
`(v1 , v2 ) = `(w1 , w2 ).