Sie sind auf Seite 1von 74

ALGEBRA LINEAL II

Dr. Vctor Manuel Bautista Ancona

Diciembre 2011
ndice general

Prefacio pg. v
Introduccin 1
1. Transformaciones lineales y matrices 8
1.1. Transformaciones lineales inyectivas y suprayectivas 8
1.2. Isomorfismos y transformaciones inversas 11
1.3. La matriz de cambio de base 15
1.4. La matriz asociada a una transformacin lineal 19
1.5. Matrices asociadas con suma y producto por escalar de transfor-
maciones lineales 21
1.6. Matriz asociada a la composicin de transformaciones lineales 21
1.7. El isomorfismo entre el espacio vectorial de las matrices y el
espacio vectorial de las transformaciones lineales 22
1.8. Equivalencia y semejanza entre matrices asociadas a la misma
transformacin lineal 23
Ejercicios 24
2. Teoria Espectral 28
2.1. Polinomios de matrices y de operadores lineales 28
2.2. Valores propios y vectores propios 29
2.2.1. Otra aproximacin: puntos fijos y dilatacin de vectores 29
2.2.2. Algunos hechos utiles sobre raices de polinomios 30
2.2.3. Definiciones bsicas 31
2.3. Polinomio caracterstico 33
2.4. Una caracterizacin de matrices diagonalizables 35
2.4.1. Suma directa de subespacios 35
2.4.2. El complemento de Schur 36
2.4.3. Espacios de autovectores y diagonalizacin 37
2.5. Triangulacin de operadores lineales 40
2.6. El Teorema de Cayley-Hamilton 41
2.6.1. Polinomios con coeficientes matriciales 41
2.6.2. El Teorema del Mapeo Espectral 43
2.7. El polinomio mnimo 45
2.7.1. El polinomio mnimo de una matriz 45
2.7.2. El polinomio mnimo de un vector 47
iv ndice general

2.7.3. Cmo hallar el polinomio minimal de un vector 48


2.7.4. Un criterio de diagonalizacin usando el polinomio mnimo 49
Ejercicios 51
3. Espacios con producto interno 55
3.1. Producto Interno 55
3.1.1. Definicin y Ejemplos 55
3.1.2. Norma de un vector 57
3.1.3. Distancia entre vectores 59
3.1.4. ngulo entre dos vectores 60
3.1.5. Matriz de Gram de un producto interno en una base de
vectores 60
3.2. Ortogonalidad 62
3.2.1. Conjuntos ortogonales y ortonormales 62
3.3. El proceso de ortogonalizacin de Gram-Schmidt 65
3.4. Complemento ortogonal 68
Prefacio

El lgebra Lineal es una herramienta bsica para casi todas las ramas de la matem-
tica as como para disciplinas afines tales como la fsica, la ingeniera y la computacin,
entre otras.
Estas notas, basadas en la materia lgebra Lineal II destinada a alumnos de la
Licenciaturas en: actuara, enseanza de las matemticas y matemticas de la Facultad
de Matemticas de la Universidad Autma de Yucatn, pretenden, entre tantos buenos
textos de lgebra lineal existentes, ser slo una introduccin bsica al tema que se ajusta
a los contenidos curriculares del curso y, al mismo tiempo, una gua de estudios para
los alumnos.
Las notas presuponen conocimientos previos de lgebra lineal: solucin y anlisis de
sistemas de ecuaciones lineales; clculo y propiedades de determinantes; definiciones,
propiedades y los resultados ms importantes de espacios vectoriales; y kernel, imagen,
rango y nulidad de transformaciones lineales.
Al inicio de estas notas, hacemos un breve resumen de algunos resultados, definiciones
y propiedades de los espacios vectoriales y las transformaciones lineales..
Si el lector tiene algn comentario, correccin, sugerencias, etc., por favor envale un
correo electrnico al autor.

Copyright: Victor Bautista Ancona, 2011-2012.

Licencia: Creative Commons Attribution-Share Alike 3.0 License

Correo electrnico: vbautista@uady.mx.

Este material est parcialmente financiado por el Consejo Nacional de Ciencia y Tec-
nologa.
Introduccin

Se presenta un breve resumen y algunos resultados nuevos los cuales son los requisitos
mnimos para continuar la lectura del captulo siguiente.

Espacios Vectoriales
Definicin 0.1 Sea K un campo. Un espacio vectorial sobre K (o un K-espacio), es
una tupla (V, +, ) tal que:

1.. + : V V V es una funcin llamada suma.


2.. v + u = u + v para todos v, u V .
3.. (v + u) + w = v + (u + w) para todos v, u, w V .
4.. Existe un nico vector 0 V tal que v + 0 = v para todo v V .
5.. Para todo v V existe un nico vector v, tal que v + (v) = 0.
6..  : K V V es una funcin llamada la multiplicacin escalar.
7.. a  (v + u) = (a  v) + (a  u) para todo a K, v, u V .
8.. (a + b)  v = (a  v) + (b  v) para todo a, b K, v V .
9.. (ab)  v = a  (b  v)para todo a, b K, v V .
10.. (1K )  v = v para todo v V .

Los elementos de un espacio vectorial son llamados vectores. Usualmente escribimos kv


en lugar de k  v.

Ejemplo 0.2 Sea K un campo.

1.. Z1 = {0} es un K-espacio va f  0 = 0 para toda k K.


2.. Sea n N. Entonces Kn es un K-espacio via k  (a1 , . . . , an ) = (ka1 , . . . , ka n) para
toda k, a1 , . . . , an K.
3.. El anillo K[x] de polinomios con coeficientes en K es un K-espacio via

k  (a0 + a1 x + + an xn ) = (ka0 ) + (ka1 )x + + (kan )xn

para toda k, a1 . . . . , an K.

Definicin 0.3 Sea K un campo y V un K-espacio. Sea L = (v1 , . . . , vn ) V n una


lista de vectores en V .
2 Introduccin

1.. L es llamado K-linealmente independiente si


a1 v1 + a2 v2 + + an vn = 0V
para algunas a1 , a2 , . . . , an K implica que a1 = a2 = = an = 0K .
2.. Sea (a1 , a2 , . . . , an ) Kn . Entonces a1 v1 + a2 v2 + + an vn es llamada una K-
combinacin lineal de L.
genK (L) = hLi = {a1 v1 + a2 v2 + + an vn | (a1 , . . . , an ) Kn }
es llamado el K-espacio generado por L. As que genK (L) consiste de todas las K-
combinaciones lineales de L. Consideremos 0V una combinacin lineal de la lista
vaca ( ) y as genK ( ) = {0V }.
3.. Decimos que L genera V , si V = genK (L), esto es, cada vector en V es una combi-
nacin lineal de L.
4.. Decimos que L es una base de V si L es linealmente independiente y genera V .
5.. Decimos que L es linealmente dependiente si no es linealmente independiente, esto
es, si existen k1 , . . . , kn K, no todos cero tales que
k1 v1 + k2 v2 + + kn vn = 0V .

Ejemplo 0.4 1.. Hagamos ei = (0K, . . . , 0K , 1K , 0K , . . . , 0K ) Kn donde el 1K est en


la posicin i. Entonces (e1 , e2 , . . . , en ) es una base para Kn , llamada la base cannica
(o estndar) de Kn .

2.. 1K , x, x2 , . . . , xn es una base para Kn [x], donde Kn [x] es el conjunto de todos los
polinomios con coeficientes en K de grado a lo ms n.
3.. La lista vaca ( ) es una base para Z1 .

Lema 0.5 Sea K un campo, V un K-espacio vectorial y L = (v1 , . . . , vn ) una lista


de vectores en V . Entonces L es una base de V si y solamente si cada v V existen
k1 , . . . , kn K nicos tales que
Xn
v= k i vi .
i=1

Demostracin () Suponga que L es una base. Entonces L genera a V , y para cada


v V existen k1 , . . . , kn K con
n
X
v= ki v i .
i=1

Supongamos que existen tambin l1 , . . . , ln K con


n
X
v= li v i .
i=1

Entonces
n
X n
X n
X
v= (ki li )vi = k i vi li vi = v v = 0V .
i=1 i=1 i=1

Dado que L es linealmente independientes concluimos que ki li = 0K y de aqu ki = li


para toda 1 i n. As que los ki0 s son nicos.
Introduccin 3

() Suponga que cada v V es una nica combinacin lineal de L. Entonces


claramente L genera V . Sea k1 , . . . , kn K con
n
X
v= ki vi = 0V .
i=1

Dado que tambin tenemos


n
X
v= 0K vi = 0V
i=1

de la hiptesis de unicidad obtenemos k1 = = kn = 0K . De aqu, L es linealmente


independiente y de aqu, una base para V .

Lema 0.6 Sea K un campo y V un K-espacio. Sea L = (v1 , . . . , vn ) una lista de


vectores en V . Supongamos que existe 1 i n tales que vi es combinacin lineal de
(v1 , . . . , vi1 , vi+1 , . . . , vn ). Entonces L es linealmente dependiente.

Demostracin Por hiptesis,

vi = k1 v1 + + ki1 vi1 + ki+1 vi+1 + + kn vn

para algunas kj K. De aqu

k1 v1 + + ki1 vi1 + (1K )vi + ki+1 vi+1 + + kn vn = 0V

y L es linealmente dependiente.

Definicin 0.7 Un espacio vectorial V sobre un campo K se dice que es finitamente


dimensional si V tiene una base finita. El tamao (nmero de elementos) de cualquier
base es la dimensin de V sobre K y se denota dimK V .

Lema 0.8 Sea K un campo, V un K-espacio y L = (v1 , v2 , . . . , vn ) una lista finita de


vectores en V . Entonces las siguientes afirmaciones son equivalentes:

1.. L es una base para V .


2.. L es una lista generadora minimal, esto es, L genera a V pero para toda 1 i n,

(v1 , . . . , vi1 , vi+1 , . . . , vn )

no genera a V .
3.. L es una lista linealmente independiente maximal, esto es, L es linealmente inde-
pendiente, pero para toda v V , (v1 , v2 , . . . , vn , v) es linealmente dependiente.

Demostracin (a) (b) Dado que L es base, genera a V . Dado que L es lineal-
mente independiente, el Lema 0.6 implica que vi no pertenece al espacio generado de
(v1 , . . . , vi1 , vi+1 , . . . , vn ) y de aqu, (v1 , . . . , vi1 , vi+1 , . . . , vn ) no genera a V .
(a) (c) Sea v V . Dado que L genera a V , v es una combinacin lineal de L y
de aqu, por el Lema 0.6 (v1 , v2 , . . . , vn , v) es linealmente dependiente.
(b) (a) Por hiptesis, L genera a V as que nicamente necesitamos mostrar que
Pn
L es linealmente independiente. Supongamos que no. Entonces i=1 ki vi = 0V para
4 Introduccin

algunos k1 , k2 . . . , kn K, no todos 0K . Sin prdida de generalidad, asumamos que


k1 6= 0K . De aqu,
n
!
X
1
v1 = k1 k i vi .
i=2
Pn
Sea v V . Entonces v = i=1ai vi para algunas ai K y de aqu
n
!! n
X X
1
v = a1 k1 k i vi + ai vi
i=2 i=2
n
X
ai k11 ai vi .

=
i=2

De aqu, (v2 , . . . , vn ) generan a V , una contradiccin.


(b) (c) Por hiptesis, L es linealmente independiente, as que solamente tenemos
que probar que L genera a V . Sea v V . Por hiptesis, (v1 , v2 , . . . , vn , v) es linealmente
dependiente y de aqu
n
!
X
ai vi + av = 0V
i=1

para algunos a1 , . . . , an , a K no todos cero. Si a = 0K , entonces dado que L es


linelamente independiente, ai = 0K para toda 1 i n, una contradiccin. Por lo
tanto, a 6= 0K y
n
X
a1 ai vi .

v=
i=1

De aqu, L genera a V .

Transformaciones Lineales
Definicin 0.9 Sea K un campo y V, W dos K-espacios. Una transformacin K-lineal
de V a W es una funcin
f :V W
tal que

f (u + v) = f (u) + f (v) para todo u, v V .


f (kv) = kf (v) para todo k K y v V .
Estas dos condiciones juntas son equivalentes a la siguiente nica condicin

f (k1 u + k2 v) = k1 f (u) + k2 f (v) para todo k1 , k2 K u, v V .


Si V = W entonces la transformacin lineal recibe el nombre de operador K-lineal.
Para una transformacin K-lineal f : V W , siempre tenemos que f (0V ) = 0W .
El siguiente ejemplo introduce un tipo importante de transformacin lineal asociada
a una matriz.
Introduccin 5

Ejemplo 0.10 Si A Mmn (K) es una matriz de m n. Defina fA : Kn Km por


la regla
fA (x) = Ax.
Entonces para s, t K y u, v Kn ,
fA (su + tv) = A (su + tv) = sAu + tAv = sfA (u) + tfA (v) .
De aqu, fA es lineal. Y llamamos a fA la transformacin lineal inducido por A.
Observe que los vectores de la base cannica e1 , . . . , en (vistos como vectores columna)
satisfacen
fA (ej ) = j sima columna de A,
de aqu,
A = (fA (e1 ) | fA (e2 ) | | fA (en )) = [Ae1 , Ae2 , . . . , Aen ] .
Ahora, fcilmente se sigue que fA (e1 ) , fA (e2 ) , . . . , fA (en ) generan Im fA dado que
cada elemento del ltimo es una combinacin lineal de fA (e1 ) , fA (e2 ) , . . . , fA (en ).
Teorema 0.11 Sea f : V W y g : U V dos transformacin lineales entre los
K-espacios vectorial U, V, W . Entonces la composicin f g : U W es tambin una
transformacin lineal.
Demostracin Para s, t K y u1 , u2 U tenemos que mostrar que
(f g) (su1 + tu2 ) = s (f g) (u1 ) + t (f g) (u2 ) .
Usando el hecho que f y g son lineales tenemos
(f g) (su1 + tu2 ) = f (g (su1 + tu2 ))
= f (sg (u1 ) + tg (u2 ))
= sf (g (u1 )) + tf (g (u2 ))
= s (f g) (u1 ) + t (f g) (u2 ) .

Sean V y W dos K-espacios vectoriales. El conjunto de todas las transformaciones


lineales f : V W ser denotado por HomK (V, W ) (en la literatura, tambin es
denotado por L (V, W )).
Teorema 0.12 HomK (V, W ) es un K-espacio vectorial con las operaciones definidas
de la siguiente manera:
+: HomK (V, W ) HomK (V, W ) HomK (V, W )
(f, g) 7 f +g
donde f + g HomK (V, W ) es tal que f + g : V W, (f + g) (v) 7 f (v) + g (v) para
v V. Y
: K L (V, W ) HomK (V, W )
(s, f ) 7 sf
donde sf HomK (V, W ) es tal que sf : V W, (sf ) (v) = sf (v).
6 Introduccin

Demostracin f + g abre sumas: sean v, u V . Tenemos que


(f + g)(v + u) = f (v + u) + g(v + u)
= [f (v) + f (u)] + [g(v) + g(u)]
= f (v) + g(v) + f (u) + g(u)
= (f + g)(v) + (f + g)(u).
f + g saca escalares:
(f + g)(av) = f (av) + g(av) = af (v) + ag(v)
= a[f (v) + g(v)] = a[(f + g)(v)];
por lo tanto, f + g es una transformacin lineal. Hagamos lo mismo con sf . sf abre
sumas: sean v, u V . Tenemos que:
(sf )(v + u) = s[f (v + u)] = s[f (v) + f (u)]
= sf (v) + sf (u) = (sf )(v) + (sf )(u).
sf saca escalares:
(sf )(bv) = s[f (bv)] = s[bf (v)] = [sb]f (v)
= [bs]f (v) = b[sf (v)] = b[(sf )(v)];
por lo tanto, sf es una transformacin lineal. Finalmente, el hecho de que con estas
operaciones de suma y multiplicacin por escalares HomK (V, W ) sea un K-espacio vec-
torial, se sigue de que las propiedades necesarias para HomK (V, W ) se heredan de V y
W . Por ejemplo, f + g = g + f porque f (v) + g(v) = g(v) + f (v).
Definicin 0.13 Sea f : V W una transformacin lineal. Entonces
El kernel (o ncleo o espacio nulo) de f es el subconjunto de V :
ker (f ) = {v V | f (v) = 0}
La imagen de f es el subconjunto de W :
Im (f ) = {w W | existe v V, w = f (v)}
= {f (v) | v V } .
Teorema 0.14 Sea f : V W una transformacin lineal. Entonces
1.. ker(f ) 6K V,
2.. Im(f ) 6K W.
Demostracin (1) Sean s1 , s2 K y v1 , v2 ker(f ). Debemos mostrar que s1 v1 +s2 v2
ker(f ), es decir, que f (s1 v1 + s2 v2 ) = 0. Dado que f es una transformacin lineal y
f (v1 ) = f (v2 ) = 0, tenemos
f (s1 v1 + s2 v2 ) = s1 f (v1 ) + s2 f (v2 )
= s1 0 + s2 0
= 0,
de aqu, s1 v1 + s2 v2 ker(f ). De aqu, ker(f ) es un subespacio de V .
(2) Ejercicio.
Introduccin 7

Definicin 0.15 Sea f : V W una transformacin lineal. Entonces el rango de f


es
rango (f ) = dim Im (f ) ,
y la nulidad de f es
nulidad (f ) = dim ker (f ) .
Teorema 0.16 (El teorema del rango-nulidad) Sea f : V W una transformacin
lineal con V de dimensin finita. Entonces
dim V = rango (f ) + nulidad (f ) .
Demostracin Escojamos una base del ker(f ), digamos {u1 , . . . , uk }. Note que nulidad(f ) =
k. Extendemos la base del ker(f ) a una base de V , digamos, {u1 , . . . , uk , uk+1 , . . . , un }
donde n = dim V. Ahora, para s1 , . . . , sn K,
f (s1 u1 + s2 u2 + + sn un ) = s1 f (u1 ) + s2 f (u2 ) + + sn f (un )
= s1 0 + + sk 0 + sk+1 f (uk+1 ) + + sn f (un )
= sk+1 f (uk+1 ) + + sn f (un )
Esto muestra que Im(f ) es generado por los vectores f (uk+1 ) , . . . , f (un ). De hecho,
esta ltima expresion es nicamente cero cuando s1 u1 +s2 u2 + +sn un ker(f ) lo cual
pasa si sk+1 = = sn = 0. De aqu, los vectores f (uk+1 ) , . . . , f (un ) son linealmente
independientes y de aqu, forman una base para Im(f ). De aqu, rango(f ) = n k y el
resultado se sigue.
1
Transformaciones lineales y matrices

1.1 Transformaciones lineales inyectivas y suprayectivas


Recordemos la definicin de funciones inyectivas y suprayectivas.

Definicin 1.1 Una funcin f : X Y es:

inyectiva (o una inyeccin o uno-a-uno) si para x1 , x2 X,


f (x1 ) = f (x2 ) implica que x1 = x2 ,

suprayectiva (o una suprayeccin o sobre) si para cada y Y existe una x X para


la cual y = f (x).

Para transformaciones lineales, podemos decidir de una mejor manera cuando una
transformacin es inyectiva o suprayectiva.

Teorema 1.2 Sea f : V W una transformacin lineal.

1.. f es inyectiva si y solamente si ker f = {0}.


2.. f es suprayectiva si y solamente si Im f = W .

Demostracin 1.. Note que f (0) = 0. De aqu, si f es inyectiva entonces f (v) = 0


implica que v = 0, es decir, ker f = {0}.
Recprocamente, supongamos que ker f = {0}, v1 , v2 V y f (v1 ) = f (v2 ). Dado
que f es lineal,
f (v1 v2 ) = f (v1 + (1) v2 )
= f (v1 ) + (1) f (v2 )
= f (v1 ) f (v2 )
=0
de aqu, f (v1 v2 ) = 0 y de aqu, v1 v2 = 0, i.e. v1 = v2 . Esto muestra que f es
inyectiva.
2.. Es inmediato de la definicin de suprayectividad.

Usando Teorema 1.2, podemos reescribir el Teorema del rango-nulidad.

Teorema 1.3 Sea f : V W una transformacin lineal.


1.1 Transformaciones lineales inyectivas y suprayectivas 9

1.. f es inyectiva si y solamente si nulidad(f ) = 0.


2.. f es suprayectiva si y solamente si rango (f ) = dim W .

Ejercicio 1.4 Demostrar el Teorema 1.3.

Corolario 1.5 Sea f : V W una transformacin lineal con V y W espacios


vectoriales sobre K de dimensin finita. Entonces:

1.. si f es una inyectiva, entonces dimK V dimK W ;


2.. si f es suprayectiva, entonces dimK V dimK W.

Demostracin Usamos el Teorema de la dimensin y el Teorema 1.2.

1.. Dado que Im f es un subespacio de W , tenemos dim Im f dim W , de aqu, si f


es inyectiva,

dim V = rango (f ) dim W.

2.. Si f es suprayectiva tenemos

dim V > rango (f ) = dim W.

Ms an,

Corolario 1.6 Sea dim V = dim W = n. Entonces, una transformacin lineal f :


V W es inyectiva si y solamente si es suprayectiva.

Demostracin f es inyectiva si y slo si nulidad(f ) = 0 si y solamente si n = rango (f )


si y solamente si Im f = W si y solamente si f es suprayectiva.

La propiedad ms importante de una transformacin lineal T : V W es que T est


completamente determinada por su efecto sobre una base para V . El siguiente ejemplo
demuestra lo que esto significa:

Ejemplo 1.7 Suponga que T es una transformacin lineal de R2 a R2 [X] tal que
   
1 2
T = 2 3X + X 2 y T = 1 X 2.
1 3
   
1 a
Halle T yT .
2 b
   
1 1
Solucin. Observe que = , es una base. (Porqu?). Entonces
1 2
     
a 1 2
= (3a 2b) + (b a) ,
b 1 3
10 Transformaciones lineales y matrices

de modo que
      
a 1 2
T = T (3a 2b) + (b a)
b 1 3
   
1 2
= (3a 2b)T + (b a)T
1 3
= (3a 2b)(2 3x + x2 ) + (b a)(1 x2 )
= (5a 3b) + (9a + 6b)X + (4a 3b)X 2 .

La demostracin del teorema general es bastante directa (de hecho, el argumento se


us en la prueba del Teorema 0.16):

Teorema 1.8 Sea f : V W una transformacin lineal y sea S = {v1 , . . . , vn } un


conjunto generador para V . Entonces f (S) = {f (v1 ), . . . , f (vn )} genera a Im f .

Demostracin Sea w Im f . Por definicin, existe v V tal que f (v) = w. Dado que
S genera a V , existen escalares 1 , . . . , n tales que

v = 1 v1 + + n vn

Al aplicar f y usando su linealidad, obtenemos

w = f (v) = f (1 v1 + + n vn ) = 1 f (v1 ) + + n f (vn ).

Esto concluye la prueba.

Ahora mostramos que las transformaciones lineales inyectivas conservan independen-


cia lineal.

Corolario 1.9 Sea f : V W una transformacin lineal inyectiva. Si S =


{v1 , . . . , vk } es un conjunto linealmente independiente en V , entonces

f (S) = {f (v1 ) , . . . , f (vk )}

es un conjunto linealmente independiente en W .

Demostracin Sean 1 , . . . , k escalares tales que

1 f (v1 ) + + k f (vk ) = 0.

Entonces, de la linealidad de f tenemos

f (1 v1 + + f vk ) = 0

De aqu, 1 v1 + + f vk ker f , y por la inyectividad de f se sigue que 1 v1 + +


f vk = 0. Ya que {v1 , . . . , vk } es un conjunto linealmente independiente, ci = 0 para
toda i. Por lo tanto, f (S) es linealmente independiente.

Corolario 1.10 Sea dim V = dim W = n. Entonces una transformacin lineal in-
yectiva f : V W mapea una base para V en una base para W . En otras palabras, si
S = {v1 , . . . , vn } es una base para V , entonces f (S) = {f (v1 ) , . . . , f (vn )} es una base
para W.
1.2 Isomorfismos y transformaciones inversas 11

Demostracin Si S = {v1 , . . . , vn } es es linealmente independiente en V , por el Co-


rolario 1.9, f (S) = {f (v1 ) , . . . , f (vn )} es linealmente independiente en W . Solo resta
probar que f (S) genera a W. Ya que f es inyectiva, entonces f es suprayectiva y del
Teorema 1.8 se sigue el resultado.

1.2 Isomorfismos y transformaciones inversas


Recordemos la siguiente definicin de funciones en general:
Definicin 1.11 Una funcin f : X Y es biyectiva (o una biyeccin o una corres-
pondecia uno-a-uno) si es inyectiva y suprayectiva.
y el siguiente teorema:
Proposicin 1.12 La funcin f : X Y es una biyeccin si y solamente si existe
una funcin inversa Y X la cual es la nica funcin h : Y X que satisface
h f = IdX , f h = IdY .
Si tal inversa existe es usual denotarla por f 1 : Y X, y entonces tenemos
f 1 f = IdX , f f 1 = IdY .
Entonces
Teorema 1.13 Let f : V W una transformacin lineal biyectiva. Entonces la
funcin inversa f 1 : W V es una transformacin lineal.
Demostracin Sean k1 , k2 K y w1 , w2 W . Tenemos que mostrar que
f 1 (k1 w1 + k2 w2 ) = k1 f 1 (w1 ) + k2 f 1 (w2 ).
Los siguientes clculos hacen eso:
f f 1 (k1 w1 + k2 w2 ) k1 f 1 (w1 ) k2 f 1 (w2 ) = f f 1 (k1 w1 + k2 w2 ) f k1 f 1 (w1 ) k2 f 1 (w2 )
 

= IdW (k1 w1 + k2 w2 ) f k1 f 1 (w1 ) k2 f 1 (w2 )




= (k1 w1 + k2 w2 ) k1 f f 1 (w1 ) k2 f f 1 (w2 )




= (k1 w1 + k2 w2 ) (k1 IdW (w1 ) k2 IdW (w2 ))


= (k1 w1 + k2 w2 ) (k1 w1 + k2 w2 )
= 0.

Dado que f es inyectiva esto significa que


f 1 (k1 w1 + k2 w2 ) k1 f 1 (w1 ) k2 f 1 (w2 ) = 0.
obteniendo la frmula deseada.
Definicin 1.14 Una transformacin lineal f : V W la cual es una funcin biyec-
tiva es llamado un isomorfismo de V a W , y decimos que los espacios vectoriales son
isomorfos.
12 Transformaciones lineales y matrices

Note que para un isomorfismo f : V W , la inversa f 1 : W V es tambin un


isomorfismo.
Teorema 1.15 Sea f : V W una transformacin lineal. Entonces f es biyectiva si
y solamente si ker f = {0} y rango f = dim V .
Demostracin Se sigue del Teorema 1.3.
Corolario 1.16 Sea f : V W una transformacin lineal con V y W espacios
vectoriales sobre K de dimensin finita. Entonces si f es una biyeccin, entonces dimK
V = dimK W .
Demostracin Se sigue del Corolario 1.5.
Ejemplo 1.17 Sea K un campo. Para n 1, considere el espacio vectorial Mn (K).
Defina la funcin traza tr : Mn (K) K por
n
X
tr ([ai,j ]) = ar,r = a1,1 + a2,2 + + an,n .
r=1

Muestra que tr es una transformacin lineal y halla bases para su kernel y su imagen.
Solucin: Para [ai,j ], [bi,j ] Mn (K) y k1 , k2 K tenemos
tr (k1 [ai,j ] + k2 [bi,j ]) = tr ([k1 ai,j + k2 bi,j ])
Xn
= (k1 ar,r + k2 br,r )
r=1
n
X n
X
= k1 ar,r + k2 br,r
r=1 r=1
n
X n
X
= k1 ar,r + k2 br,r
r=1 r=1
= k1 tr ([ai,j ]) + k2 tr ([bi,j ]) ,

de aqu, tr es una transformacin lineal.


Note que dimK Mn (K) = n2 y que la dimK K = 1. Tambin, para k K,

k 0 0
tr ... ... .. = k.

.
0 0 0
Esto muestra que Im tr = K, i.e., tr es suprayectiva e Im tr = K tiene como base {1}.
Por el Teorema del rango-nulidad,
nulidad tr = dimK ker tr = n2 1.
Ahora las matrices E rs (r, s = 1, . . . , n 1, r 6= s) y E rr E (r+1)(r+1) (r = 1, . . . , n 1)
viven en el ker tr y son linealmente independientes. Ellas son
n(n 1) + (n 1) = (n + 1)(n 1) = n2 1.
y de aqu, forman una base del ker tr.
1.2 Isomorfismos y transformaciones inversas 13

Ejercicio 1.18 Sea K un campo y sean m, n 1. Considere la funcin transpuesta


T
() : Mmn (K) Mnm (K)
definida por
[ai,j ]T = [aj,i ].
T
Muestra que () es una transformacin lineal la cual es un isomorfismo. Cul es la
inversa?
Ejercicio 1.19 Sean m, n 1. Considere la funcin Hermitiana conjugada

() : Mmn (C) Mnm (C)
definida por
[ai,j ] = [aj,i ].
Muestra que si Mmn (C) y Mnm (C) son vistos como espacios vectoriales reales, en-

tonces () es una transformacin lineal la cual es un isomorfismo.
Ejercicio 1.20 Para todas las matrices complejas P Mlm (C) y Q Mmn (C),

(P Q) = Q P .
Definicin 1.21 Una matriz compleja B Mn (C) es llamada

Hermitiana si B = B,
Anti-hermitiana si B = B.
Trabajemos un poco con las bases y los vectores de coordenadas.
Lema 1.22 Sean V y W dos espacios vectoriales de dimensin finita sobre K, y sea
S = {v1 , v2 , . . . , vn } una base para V . Supongamos que f : V W es una transforma-
cin lineal. Entonces
1.. si f (v1 ), f (v2 ), . . . , f (vn ) son linealmente independientes en W , entonces f es una
inyeccin.
2.. si f (v1 ), . . . , f (vn ) genera a W , entonces f es suprayectiva.
3.. si f (v1 ), . . . , f (vn ) forma una base para W , entonces f es biyectiva.
Demostracin 1.. La ecuacin
f (s1 v1 + + sn vn ) = 0
es equivalente a
s1 f (v1 ) + + sn f (vn ) = 0
y as, si los vectores f (v1 ), . . . , f (vn ) son lineamente independentes, entonces esta
ecuacin tiene solucin nica s1 = = sn = 0. Esto muestra que Ker f = {0} y
por el Teorema 1.2 tenemos que f es inyectiva.
2.. Im f W contiene a cada vector de la forma
f (t1 v1 + + tn vn ) = t1 f (v1 ) + + tn f (vn )
con t1 , . . . , tn K. Si los vectores f (v1 ), . . . , f (vn ) generan W , esto muestra que
W Im f y de aqu f es suprayectiva.
14 Transformaciones lineales y matrices

3.. Se sigue al combinar (1..) y (2..)

Recuerde que
Teorema 1.23 Sea S = {v1 , . . . , vn } una base para el espacio vectorial V . Sea W
un segundo espacio vectorial y sea T = {w1 , . . . , wn } una sucecin de vectors en W .
Entonces existe una nica transformacin lineal f : V W satisfaciendo
f (vi ) = wi
para i = 1, . . . , n.
Ejercicio 1.24 Demuestre de memoria el Teorema 1.23.
Una til consecuencia de este resultado es el siguiente.
Teorema 1.25 Supongamos que el espacio vectorial V es una suma directa V =
V1 V2 de dos subespacios y sea f1 : V1 W y f2 : V2 W dos transformaciones
lineales. Entonces existe una nica transformacin lineal f : V W extendiendo f1 , f2 ,
es decir, satisfaciendo
f (u) = f1 (u) si u V1 ;
= f2 (u) si u V2 .
Demostracin Use bases de V1 y V2 para former una base de V , ahora aplique el
Teorema 1.23.
Aqu otro resultado til.
Teorema 1.26 Sean V y W dos espacios vectorial de dimensin finite sobre K con
n = dimK V y m = dimK W . Suponga que S = {v1 , . . . , vn } y T = {w1 , . . . , wm } son
bases para V y W respectivamente. Entonces existe una nica transformacin lineal
f : V W con las siguientes propiedades:

1.. Si n m entonces
f (vj ) = wj para j = 1, . . . , n.

2.. Si n > m entonces


f (vj ) = wj cuando j = 1, . . . , m y f (vj ) = 0 si j > m.
Ms an, f satisface:
3.. si n m entonces f es inyectiva;
4.. si n > m entonces f es suprayectiva;
5.. si m = n entonces f es un isomorfismo.
Demostracin 1.. Comenzamos con la sucesin w1 , . . . , wn , podemos aplicar el Teore-
ma 1.23 para mostrar que existe una nica transformacin lineal f : V W con las
propiedades establecidas.
2.. Comenzamos con la sucesin w1 , . . . , wm , 0, . . . , 0 de longitud n, podemos aplicar el
Teorema 1.23 para mostrar que existe una nica transformacin lineal f : V W
con las propiedades establecidas.
1.3 La matriz de cambio de base 15

3.. , 4.., 5.. se sigue del Lema 1.22.

El resultado siguiente provee una manera conveniente de decidir si dos espacios vec-
torial son isomorfos: simplemente mostrando que ellos poseen la misma dimensin.
Teorema 1.27 Sean V y W espacios vectorial de dimensin finita sobre el campo K.
Entonces existe un isomorfismo V W si y slo si dimK V = dimK W .
Demostracin Si existe un isomorfismo f : V W , entonces dimK V = dimK W por
el Corolario 1.16. Para el recproco, si dimK V = dimK W entonces por el Teorema 1.26
(5..) existe un isomorfismo V W .

1.3 La matriz de cambio de base


Dadas dos bases de un mismo K-espacio vectorial V de dimensin finita, cada ele-
mento de V tiene asociados dos vectores de coordenadas (generalmente distintos), uno
en cada una de las bases. Con la ayuda de cierta matriz, llamada de cambio de base, se
pueden obtener las coordenadas de un vector con respecto a una base de V a partir de
las coordenadas del vector en otra base.
Ejemplo 1.28 Considere el espacio R2 y las siguientes dos bases:
    
1 2
= u1 = , u2 =
2 1
y
    
1 1
= v1 = , v2 = .
0 1
 
1
Halle [x] dado que [x] = .
3
Solucin: Ya que x = u1 + 3u2 , escribimos u1 y u2 en trminos de v1 y v2 y obtenemos
las coordenadas de x con respecto a :
u1 = 3v1 + 2v2 ,
u2 = 3v1 v2 .
De donde, haciendo las sustituciones y reduciendo los trminos comunes, tenemos
x = u1 + 3u2 = (3v1 + 2v2 ) + 3(3v1 v2 ) = 6v1 v2 .
Por lo tanto,
 
6
[x] = .
1
Observemos los clculos hechos en el Ejemplo 1.28 desde una perspectiva diferente:
Ya que x = u1 + 3u2 se tiene:
 
1
[x] = [u1 + 3u2 ] = [u1 ] + 3[u2 ] = ([u1 ] , [u2 ] )
3
16 Transformaciones lineales y matrices

donde ([u1 ] , [u2 ] ) es una matriz cuyas columnas estn formadas por los vectores [u1 ]
y [u2 ] , es decir,
 
3 3
([u1 ] , [u2 ] ) = .
2 1
Esta matriz es llamada matriz de cambio de base y en el Teorema 1.30 se demuestra
que siempre existe y que adems es invertible.

Ejercicio 1.29 Considere el espacio R2 [X] con las siguientes dos bases: = 1, X, X 2
y = 1 + X, X + X 2 , 1 + X 2 . Halla una matriz cambio de base.

Teorema 1.30 Sea V un K-espacio vectorial de dimensin n, y sean 1 = {v1 , . . . , vn }


y 2 = {w1 , . . . , wn } bases ordenadas de V . Sea A la matriz de n n cuya columna
i-sima es el vector coordenada de wi con respecto a la base 1 .

V
[]1 []2

 
Kn o A
Kn
Entonces A es invertible, y para todo v V tenemos que

[v]1 = A [v]2 .

A la matriz A se le llama la matriz de cambio de base de 2 a 1 .

Demostracin Sea v un vector arbitrario en V . Sea X = (x1 , . . . , xn ) el vector de


coordenadas de v con respecto a la base ordenada 2 . Queremos demostrar que AX es
el vector de coordenadas de v con respecto a la base 1 . Es un ejercicio mostrar que

[v]1 = [x1 w1 + x2 w2 + + xn wn ]1
= x1 [w1 ]1 + x2 [w2 ]1 + + xn [wn ]1 .

La ltima expresin es justamente el producto AX desglosado por columnas.


Procedamos a demostrar que la matriz A es invertible. Afirmamos que el sistema
homogneo AX = 0 tiene una solucin nica (la trivial). En efecto, si X es solucin
de dicho sistema, el vector v cuyo vector de coordenadas con respecto a la base 2 es
X cumple que [v]1 = AX = 0. Es un Ejercicio mostrar que v debe ser el vector cero,
por lo que X tambin es el vector columna cero. Se sigue que la matriz A debe ser
invertible.

El Teorema 1.30 muestra que la matriz A cumple con las propiedades descritas al
comienzo de la seccin. Ahora, escribimos una definicin formal.

Definicin 1.31 Sea V un K -espacio vectorial de dimensin n, y sean 1 = v1 , . . . , vn


y 2 = w1 , . . . , wn bases de V . Para cada 1 j n,sean ij K (1 i n) tales que
Pn
vj = i=1 ij wi . Se llama matriz de cambio de base de 1 a 2 , y se denota por
C(1 , 2 ) Knn , a la matriz definida por

(C(1 , 2 ))i,j = ij

para cada 1 i, j n.
1.3 La matriz de cambio de base 17

Ejemplo 1.32 Sea V = R3 . Consideremos las bases 1 = E = {(1, 0, 0), (0, 1, 0), (0, 0, 1)}
y 2 = {(1, 1, 1), (1, 1, 0), (1, 0, 0)}. Para construir la matriz C(1 , 2 ) R33 , comen-
zamos por escribir los elementos de 1 como combinacin lineal de los de vectores de
2 :
(1, 0, 0) = 0(1, 1, 1) + 0(1, 1, 0) + 1(1, 0, 0),
(0, 1, 0) = 0(1, 1, 1) + 1(1, 1, 0) + (1)(1, 0, 0)
(0, 0, 1) = 1(1, 1, 1) + (1)(1, 1, 0) + 0(1, 0, 0)
Entonces, la matriz de cambio de base es:

0 0 1
C(1 , 2 ) = 0 1 1
1 1 0
Una pregunta que surge es la de la unicidad de la matriz de cambio de base: dadas
dos bases 1 y 2 , la matriz C(1 , 2 ) que hemos definido transforma coordenadas en
la base 1 en coordenadas en la base 2 . Existir alguna otra matriz en Knn con esta
misma propiedad? El resultado que probamos a continuacin nos asegura que no.
Proposicin 1.33 Sean A, B Knn . Si Ax = Bx para todo x Kn , entonces
A = B.
Demostracin Sea E = {e1 , . . . , en } la base cannica de Kn . Por hiptesis, Aej = Bej
para cada 1 j n. Pero
n
X n
X
(Aej )i = Ai,h (ej )h = Ai,j y (Bej )i = Bi,h (ej )h = Bi,j
h=1 h=1

para cada 1 i n, de donde Ai,j = Bi,j para todo 1 i, j n. Luego, A = B.


Del Teorema 1.30 y la Proposicin 1.33 se desprende:
Observacin 1.34 Dadas dos bases 1 y 2 de un espacio vectorial V de dimensin
n, la matriz C(1 , 2 ) es la nica matriz en Knn que verifica C(1 , 2 )[x]1 = [x]2
para todo x V . Esta observacin nos dice que si una matriz A verifica A[x]1 = [x]2
para todo x V , entonces necesariamente A = C(1 , 2 ).
Utilizando la Observacin 1.34, es fcil probar las igualdades que enunciamos a con-
tinuacin.
Corolario 1.35 Sea V un K-espacio vectorial de dimensin finita, y sean 1 , 2 y 3
bases de V . Entonces:

V
[]1 []3
[]2
v 
Kn / Kn /( K n
C(1 ,2 ) C(2 ,3 ) 8

C(1 ,3 )
18 Transformaciones lineales y matrices

C(1 , 3 ) = C(2 , 3 )C(1 , 2 ).

V
[]1 []2
C(2 ,1 )
w '
Kn q 8K
n

C(1 ,2 )

C(2 , 1 ) = C(1 , 2 )1 .

Ejercicio 1.36 Demostrar el Corolario 1.35.

Para terminar, probaremos algunos resultados que relacionan matrices inversibles con
cambios de base.

Proposicin 1.37 Sea A GL(n, K). Existen bases 1 , 2 de Kn tales que A =


C(1 , 2 ).

Demostracin Supongamos que Ai,j = aij para cada 1 i n, 1 j n. Sea


Pn Pn
2 = E = {e1 , . . . , en }, la base cannica de K , y sea 1 = { i=1 ai1 ei , . . . , i=1 ain ei }.
Veamos que 1 es una base de Kn , para lo cual basta ver que 1 es un conjunto lineal-
Pn Pn
mente independiente (Porqu?). Supongamos que j=1 j ( i=1 aij ei ) = 0. Entonces
!
X n X n Xn Xn n
X X n
0= j aij ei = j aij ei = j aij ei ,
j=1 i=1 i=1 j=1 i=1 j=1
Pn
de donde j=1 j aij = 0 para cada 1 i n, o equivalentemente,

1
A ... = 0

Como A es invertible, esto implica que 1 = = n = 0. Luego 1 es linealmente


independiente y, en consecuencia, una base de Knn .
Es claro que C(1 , E) = A.

Proposicin 1.38 Sea A GL(n, K) y sea una base de Kn . Entonces:

1.. Existe una base 1 de Kn tal que A = C(1 , ).


2.. Existe una base 2 de Kn tal que A = C(, 2 ).

Demostracin 1.. Se prueba en forma anloga a la Proposicin 1.37, reemplazando la


base cannica E por la base dada.
2.. Por la parte (1..), dadas A1 GL(n, K) y la base de Kn , existe una base 2 de
Kn tal que A1 = C(2 , ). En consecuencia, A = C(2 , )1 = C(, 2 ).
1.4 La matriz asociada a una transformacin lineal 19

1.4 La matriz asociada a una transformacin lineal


Uno de los primeros ejemplos de transformaciones lineales que hemos visto son aqu-
llas de la forma f : Kn Km , f (x) = Ax con A Kmn (cuando quede claro por el
t
contexto, suprimiremos el signo de t, escribiendo Ax en lugar de (Axt ) ).
En esta seccin veremos que toda transformacin lineal entre espacios vectoriales de
dimensin finita puede representarse de esta manera. Para esto, utilizaremos de manera
fundamental el hecho de que fijada una base de un K-espacio vectorial V de dimensin
finita n, se tiene un isomorfismo entre V y Kn tomando coordenadas en dicha base.
En esta seccin todos los espacios vectoriales considerados sern de dimensin finita.
Si V y W son K-espacios vectoriales de dimensin n y m respectivamente, una trans-
formacin lineal f : V W queda unvocamente determinada por los n vectores de
W que son los valores de f en una base cualquiera de V (digamos ) . Adems, fijada
una base de W (digamos ), estos n vectores quedan determinados por medio de sus
vectores de coordenadas en Km . El siguiente diagrama resume la situacin:

V ^
f
/W

[] []1
[]
 
Kn / Km
[] f []1

Sabemos que [] f []1 n


es una transformacin lineal de K a K
m
por lo tanto, debe
ser una transformacin lineal del tipo TA para alguna matriz A. Pero, cual es sta?
Primero, observe que la matriz A que buscamos, debe tener la siguiente propiedad:

A[v] = [f (v)]

Ahora, si = {v1 , . . . , vn } es una base para V , entonces

0

..
.

[vi ] =
1 = ei .

.
..
0

De modo que,
[ei ]1
= vi .

Por lo tanto,
 
[] f []1
(ei ) = ([] f ) (vi )
= ([] ) (f (vi ))
= [f (vi )] .

En resumen, tenemos el siguiente teorema:


20 Transformaciones lineales y matrices

Teorema 1.39 Sean V y W dos espacios vectoriales de dimensin finita sobre K;


y dos bases de V y W respectivamente, con = {v1 , . . . , vn }. Si f : V W es una
transformacin lineal, entonces la matriz A de m n definida por

A = ([f (v1 )] , . . . , [f (vn )] )

satisface
A[v] = [f (v)]

para toda v V .
Pn
Demostracin Sea x V y sea [x] = (x1 , . . . , xn ), es decir, x = i=1 xi vi . Para cada
1 i n, sea Ci la i-sima columna de A. Por definicin, Ci = [f (vi )] . Entonces

A[x] = x1 C1 + + xn Cn
= x1 [f (v1 )] + + xn [f (vn )]
" n #
X
= xi f (vi ) = [f (x)] .
i=1

Del Teorema 1.39 tenemos la siguiente definicin:

Definicin 1.40 Sean V y W dos K-espacios vectoriales de dimensin finita. Sean


1 = {v1 , . . . , vn } una base de V y 2 = {w1 , . . . , wm } una base de W . Sea f : V W
P
una transformacin lineal. Supongamos que f (vj ) = i=1 j wj (1 j n). Se llama
matriz de f en las bases 1 , 2 , y se denota [f ]1 2 , a la matriz en Kmn definida por
([f ]1 2 )i,j = ij para cada 1 i m, 1 j n.

V
f
/W
[]1 []2
 
Kn / Km
[f ]1 2

Si f : V V y 1 = 2 = , denotaremos [f ] = [f ] .

Ejemplo 1.41 Sea f : R3 R2 , dada por f (x1 , x2 , x3 ) = (x1 + 2x2 x3 , x1 + 3x2 ),


y sean 1 y 2 las bases cannicas de R3 y R2 respectivamente. Se tiene que

f (1, 0, 0) = (1, 1), f (0, 1, 0) = (2, 3), f (0, 0, 1) = (1, 0).

Entonces
 
1 2 1
[f ]1 2 = .
1 3 0
Observacin 1.42 Si consideramos la transformacin lineal asociada a una matriz
A Knm , fA : Km Kn definida por fA (x) = Ax, entonces, a partir de la Definicin
1.40, la matriz de fA en las bases cannicas E y E 0 de Km y Kn respectivamente resulta
ser [fA ]EE 0 = A.
1.5 Matrices asociadas con suma y producto por escalar de transformaciones lineales
21

Observacin 1.43 Sea V un K-espacio vectorial de dimensin n, y sean 1 y 2


bases de V . Entonces [idV ]1 2 = C(1 , 2 ), la matriz de cambio de base de 1 a 2 .
(ver Definicin 1.31). Mediante el uso de las matrices introducidas en la Definicin 1.40
y de vectores de coordenadas, toda transformacin lineal puede representarse como la
multiplicacin por una matriz fija.

1.5 Matrices asociadas con suma y producto por escalar de


transformaciones lineales
Recuerde que HomK (V, W ) = {f : V W | f es una transformacin lineal } es un
espacio vectorial sobre K.
El siguiente resultado nos d luz sobre el comportamiento de las matrices asociadas
cuando consideramos elementos de HomK y su estructura algebraica.

Proposicin 1.44 Sean V y W dos K-espacios vectoriales de dimensin finita, con


dim V = n y dim W = m. Sean y 0 bases de V y W respectivamente. Sean f, g
HomK (V, W ). Entonces:

1.. [f + g] 0 = [f ] 0 + [g] 0 .
2.. [f ] 0 = [f ] 0 para K.

Demostracin 1.. Observemos que la j-sima columna de la matriz [f + g] 0 es:

[(f + g)(vj )] 0 = [f (vj ) + g(vj )] 0 = [f (vj )] 0 + [g(vj )] 0 ,

es decir, la suma de las j-simas columnas de [f ] 0 y [g] 0 . Luego [f + g] 0 =


[f ] 0 + [g] 0 .
2.. Es completamente anlogo a (1..).

Ejercicio 1.45 Concluye la prueba de la Proposicin 1.44.

1.6 Matriz asociada a la composicin de transformaciones


lineales
La composicin de dos transformaciones lineales se traduce como la multiplicacin de
sus matrices.

Proposicin 1.46 Sean V, W y U tres K-espacios vectoriales de dimensin finita.


Sean 1 , 2 y 3 bases de V, W y U respectivamente. Sean f : V W y g : W U
22 Transformaciones lineales y matrices

transformaciones lineales.
gf

f
/W g (/
V U
[]1 []2 []3
  
Kn / Km / 6 Kr
[f ]1 2 [g]2 3

[gf ]1 2

Entonces
[g f ]1 3 = [g]2 3 [f ]1 2 .
Demostracin Sean n =dim V , m =dim W y r =dim U . Entonces [g]2 3 Krm y
[f ]1 2 Kmn , con lo que [g]2 3 [f ]1 2 Krn . Adems [g f ]1 3 Krn . As que
ambas matrices son del mismo tamao. Para cada x V se tiene que
[g]2 3 [f ]1 2 [x]1 = [g]2 3 [f (x)]2
= [g (f (x))]3
= [(g f )(x)]3
= [g f ]1 3 [x]1
Luego, [g]2 3 [f ]1 2 = [g f ]1 3 (Porque?).
Corolario 1.47 Sean V y W dos K-espacios vectoriales de dimensin finita, y sean
1 y 2 bases de V y W respectivamente. Sea f : V W un isomorfismo.
f 1

|
V
f
/W
[]1 []2
 
Kn b / Km
[f ]1 2

[f ]1
1 2

1
Entonces [f 1 ]2 1 = ([f ]1 2 ) .
Ejercicio 1.48 Demuestra el Corolario 1.47.

1.7 El isomorfismo entre el espacio vectorial de las matrices y el


espacio vectorial de las transformaciones lineales
Fijados dos K-espacios vectoriales V y W , tiene sentido considerar el conjunto de
todas las transformaciones lineales de V en W . En el caso en que ambos V y W son
K-espacios vectoriales de dimensin finita, dim V = n y dim W = m, este K-espacio
vectorial resulta ser isomorfo a Knm .
1.8 Equivalencia y semejanza entre matrices asociadas a la misma transformacin lineal
23

Proposicin 1.49 Sean V y W dos K-espacios vectoriales de dimensin finita, con


dim V = n y dim W = m. Sean y 0 bases de V y W respectivamente. Entonces la
funcin T : HomK (V, W ) Kmn definida por T (f ) = [f ] 0 es un isomorfismo.
Demostracin Supongamos que B = {v1 , . . . , vn } y 0 = {w1 , . . . , wm }. Observe que
la Proposicin 1.44 nos dice que T es una transformacin lineal (Porqu?).
Para mostrar que T es un isomorfismo, sea f HomK (V, W ) tal que T (f ) = 0, es
decir, [f ] 0 = 0. Entonces, Im(f ) = {0}, de donde f = 0, lo cual nos dice que T es
inyectiva. Ahora, sea A Kmn . Consideramos fA : V W definida por [fA (x)] =
 t
A[x]t para cada x V . Se tiene que fA HomK (V, W ) y T (fA ) = [fA ] 0 = A y T
es sobre. Ahora se sigue el resultado.
Se sigue de la Proposicin 1.49 que:
Corolario 1.50 Sean V y W dos K-espacios vectoriales de dimensin finita, con
dimK V = n y dimK W = m. Entonces, dimK (HomK (V, W )) = mn.
Ejercicio 1.51 Demostrar el Corolario 1.50.

1.8 Equivalencia y semejanza entre matrices asociadas a la


misma transformacin lineal
En esta seccin estudiamos la relacin que hay entre las matrices que representan a
una misma transformacin lineal.
Definamos en Kmn una relacin de equivalencia denominada equivalencia de
matrices. Decimos que A es equivalente a B, denotado A B, si existen matrices
invertibles P y Q de m m y n n, respectivamente, tales que:
A = P BQ.
Ejercicio 1.52 Demostrar que es una relacin de equivalencia.
Se denota por Kmn / el conjunto de todas las clases de equivalencia bajo esta
relacin.
Conclumos esta seccin mostrando cmo se puede obtener a partir de la matriz de una
transformacin lineal f : V W en un par de bases 1 y 2 de V y W respectivamente,
la matriz de la misma transformacin lineal en cualquier otro par de bases 10 y 20 de
dichos espacios.
Proposicin 1.53 Sean V y W dos K-espacios vectoriales de dimensin finita. Sean
1 , 10 bases de V y 2 , 20 bases de W .
[f ] 0 0
VO
1 2
/W
O a
[] 0 [] 0
1 2

C(10 ,1 ) V
f
/W C(2 ,20 )

[]1 []2
 [f ]1 2 
V /W
24 Transformaciones lineales y matrices

Entonces
[f ]10 20 = C(2 , 20 )[f ]1 2 C(10 , 1 ).
Demostracin Se tiene que f = idW f idV . Aplicando dos veces el resultado dado
en la Proposicin 1.46 y el hecho que la matriz de la transformacin lineal identidad en
un par de bases coincide con la matriz de cambio de base entre las mismas, se obtiene
[f ]10 20 = [idW f idV ]10 20
= [idW f ]1 20 [idV ]10 1
= [idW ]2 20 [f ]1 2 [idV ]10 1
= C(2 , 20 )[f ]1 2 C(10 , 1 ).
que es lo que se quera probar.
Observe que la Proposicin 1.53 nos dice que [f ]10 20 [f ]1 2

Ejercicios
1.1 Responda las siguientes preguntas y justifique su respuesta.
a). Existir algn monomorfismo f : R3 R2 ?
b). Existir algn epimorfismo f : R2 R3 ?
1.2 Sea K un campo y sea T : K Kn una funcin lineal. Demuestre que T = 0 o T
es inyectiva.
1.3 La transformacin lineal f : C4 C3 dada por:

x1
x2 2x1 + x2 + x3
fx3 = x1 + 3x2 + x3 x4

3x1 + x2 + 2x3 2x4
x4
no es inyectiva. Halle x, y C4 tales que f (x) = f (y) con x 6= y.
1.4 La transformacin lineal f : C4 C3 dada por:

x1
x2 2x1 + x2 + 3x3 4x4
gx3 = x1 + 3x2 + 4x3 + 3x4

x1 + 2x2 + x3 + 7x4
x4
no es suprayectiva. Halle w C3 tal que no existe u C4 tal que g(u) = w.
1.5 Sea T : R2 [X] R4 [X] dada por T (p(X)) = X 2 p(X). Halla una base de Im T .
Es T suprayectiva?
1.6 Sea f : V W una transformacin lineal entre dos espacios vectoriales de dimen-
sin finita.
a). Demuestre que si dim V < dim W , entonces f no puede ser suprayectiva.
b). Demuestre que si dim V > dim W , entonces f no puede ser inyectiva.
1.7 Sea V un K-espacio vectorial y sea f : V V una transformacin lineal. Se dice
que f es nilpotente si s N tal que f s = 0.
Ejercicios 25

a). Probar que si f es nilpotente, entonces f no es ni monomorfismo ni epimorfismo.


b). Si V es de dimensin n probar que f es nilpotente si y solamente si f n = 0.
(Sugerencia: considerar si las inclusiones Ker (f i ) Ker (f i+1 ) son estrictas o
no).
c). Sea = {v1 , . . . vn } una base de V . Se define la transformacin lineal f : V V
de la siguiente forma:

vi+1 si 1 i n 1
f (vi ) =
0 si i = n
Probar que f n = 0 y f n1 6= 0.
d ). Si V = Rn , para cada i, 2 i n, construir una transformacin lineal nilpo-
tente f : Rn Rn tal que f i = 0 y f i1 = 0.
1.8 Para cada Ti : R2 R2 , diga si es o no un isomorfismo:
a). T1 (x, y) = (x, 0).
b). T2 (x, y) = (0, y).
c). T3 (x, y) = (y, 0).
d ). T4 (x, y) = (y, x).
1.9 Determina si los siguientes enunciados son verdadero o falso. (Justifique su res-
puesta exhibiendo una prueba o dando un contraejemplo.)
a). Sean T, F : V W transformaciones lineales. Si T + F es un isomorfismo,
entonces T y F son isomorfismos.
b). Sea T : V W una transformacin lineal, y sea a un escalar no nulo. Si aT es
un isomorfismo, entonces T es un isomorfismo.
c). Sean T : V W y F : W Z transformaciones lineales. Si la composicin
F T es un isomorfismo, entonces T y U son isomorfismos.
d ). Sean T : V W y F : W Z funciones. Si la composicin F T es un
isomorfismo, y T es un isomorfismo, entonces F es un isomorfismo.
e). Sean T : V W y F : W Z funciones. Si la composicin F T es un
isomorfismo, y F es un isomorfismo, entonces T es un isomorfismo.
1.10 Suponga que U y V son espacios isomorfos. Demuestra que existen infinitos iso-
morfismos entre U y V .
1.11 Determine si la transformacin lineal S : R3 [X] M22 (R) dada por
 
2 3 a + 4b + c + 2d 4a b + 6c d
S(a + bX + cX + dX ) =
a + 5b 2c + 2d a + 2c + 5d
es:
a). inyectiva.
b). suprayectiva.
c). biyectiva.

1.12 Muestre que HomK (V, W ) es isomorfo a HomK K dim V , K dim W . Puedes dar el
isomorfismo de manera explcita?
1.13 Halla lo siguiente:
a). HomK ({0} , W ) donde W es cualquier espacio vectorial de dimensin finita.
b). HomK (V, {0}) donde V es cualquier espacio vectorial de dimensin finita.
26 Transformaciones lineales y matrices
   
x y
1.14 Sea T : R2 R2 la funcin lineal dada por T = . Demuestre que
y x
la transformacin
 lineal T c1R2 es un isomorfismo para todo nmero real c.
2 1
1.15 Sean P = y la base cannica de R2 . Halle una base 0 de R2 de
7 4
tal manera que P sea la matriz cambio de base de la base a la base 0 .
1.16 Sea T : R22 R22 el operador lineal dado por T (A) = BA AB, donde
1 1
B= . Determine [T ] , donde es la base cannica de R22 .
1 1
   
1 1
1.17 Sean = , y 0 = {1, 1 + t} bases de R2 y R [t]2 , respectiva-
1 1
 
3 4
mente. Sea T : R2 R [t]2 una funcin lineal tal que [T ] 0 = .
2 3
 1
2 3 4
a). Determine una funcin lineal F : R [t]2 R tal que [F ] 0 = .
2 3
b). Verifique que F es la inversa de la funcin T.
1.18 Sean 1 = {v1 , v2 , v3 } una base de R3 y 2 = {w1 , w2 , w3 , w4 } una base de R4 .
Sea f : R3 R4 la transformacin lineal tal que
1 2 1

1 1 1
[f ]1 2 =
2
.
1 4
3 2 5
a). Hallar f (3v1 + 2v2 v3 ). Cules son sus coordenadas en la base 2 ?
b). Hallar una base de ker(f ) y una base de Im(f ).
c). Describir el conjunto f 1 (w1 3w3 w4 ).
 
1.19 a). Sea tr : HomK (V, V ) K el mapeo definido por tr(f ) = tr [f ] . Probar que
tr(f ) no depende de la base elegida. A tr(f ) se llama la traza de f .
b). Probar que tr : HomK (V, V ) K es una transformacin lineal.
1.20 Sean = {v1 , v2 , v3 }, U = {v1 + v3 , v1 + 2v2 + v3 , v2 + v3 } y U 0 = {w1 , w2 , w3 }
bases de R3 , y sea E la base cannica de R3 , es decir, E = {e1 , e2 , e3 }. Sea
f : R3 R3 la transformacin lineal tal que

1 1 3 1 1 0
[f ]E = 2 1 1 y [f ]U U 0 = 0 1 1 .
3 2 1 0 0 1
Determinar U 0 .
Definicin 1.54 Sean A y B dos matrices de nn con entradas en un campo K.
Decimos que A y B son semejantes (o conjugadas) si existe una matriz invertible
P tal que B = P AP 1 .
1.21 Sean K = R y V el espacio vectorial de los polinomios en R de grado menor o
0
igual a 3. Sea T : V  V dada T (p(x)) = p (x) (la derivada del polinomio
por
2 3
p (x)). Demuestre que 1, x, x , x forman una base de V , y calcule la matriz de
T con respecto a esta base.
Ejercicios 27

1.22 Sea T : R2 R2 dada por T (x, y) = (2x, 3x 7y). Sean la base cannica de
R2 , y la base {(1, 1) , (2, 0)} . Calcule [T ] y [T ] . Encuentre una matriz A tal
que A1 [T ] A = [T ] .
1.23 Demuestre que la relacin ser semejantes es una relacin de equivalencia en el
conjunto de matrices de n n con entradas en un campo K.
Definicin 1.55 Sea V un K-espacio vectorial. Un funcional lineal en V es una
transformacin lineal de V en el campo K. El espacio dual de V , denotado V , es
el conjunto de todos los funcionales lineales en V .
Ejemplo 1.56 Sea V = R2 . Un funcional lineal en V es la funcin T : R2 R
dada por T (x, y) = 2x 5y.
Definicin 1.57 Sea V un K-espacio vectorial de dimensin finita, y sea =
{v1 , . . . , vn } una base de V . La base dual de , denotada , es la sucesin
{1 , . . . , n } donde i es el funcional lineal en V dado por
i (1 v1 + + vn ) = i .
Ejemplo 1.58 Sea V = R2 , y sea la base cannica. Entonces 1 (x, y) = x y
2 (x, y) = y.
1.24 Sea V = R2 , y sea E la base cannica. Sea T (x, y) = 5x 6y. Escriba a T como
combinacin lineal de la base dual de E.
1.25 Sea V un K-espacio vectorial de dimensin finita, y sea = {v1 , . . . , vn } una base
de V . Entonces la base dual de es una base de V .
1.26 Sea V un K-espacio vectorial de dimensin finita. El doble dual de V , denotado
V , es el dual de V .
a). Para cada v V , sea ev : V K dada por ev (T ) = T (v). Demuestre que
ev V .
b). Sea E : V V dada por E(v) = ev . Demuestre que E es un isomorfismo,
llamado el isomorfismo natural entre V y su doble dual.
2
Teoria Espectral

Una matriz A Knn se dice diagonalizable si existe una matriz C GL(n, K) tal
que CAC 1 es una matriz diagonal.
En otras palabras, una matriz diagonalizable es una matriz que es semejante a una
matriz diagonal. La nocin correspondiente para transformaciones lineales es la siguien-
te:
Definicin 2.1 Sea V un K-espacio vectorial de dimensin finita, y sea f : V V
una transformacin lineal. Se dice que f es diagonalizable o diagonal si existe una base
de V tal que [f ] es diagonal.
Teniendo en cuenta que la semejanza de matrices es una relacin de equivalencia
deducimos que: Sea V un K-espacio vectorial de dimensin finita y sea f : V V una
transformacin lineal. Entonces f es diagonalizable si y slo si [f ] es diagonalizable
para toda base de V .
En esta seccin consideramos el problema de determinar si una matriz es semejante
a una matriz diagonal. Y ms generalmente, determinar si una transformacin lineal es
diagonalizable o no.

2.1 Polinomios de matrices y de operadores lineales


Ejemplo 2.2 Si A Mn (R) y P (x) = 3x2 + 5x + 7, entonces P (A) se define como
3A2 + 5A + + 7In .
Definicin 2.3 Sea A Mn (Kn ) una matriz cuadrada y sea P un polinomio con
coeficientes pertenecientes a K:
d
X
P (x) = ck xk = c0 + c1 x + c2 x2 + + cd xd
k=0

con c0 , c1 , c2 , . . . , cd K. Entonces P (A) es la matriz definida mediante la frmula:


d
X
P (A) = ck Ak = c0 In + c1 A + c2 A2 + + cd Ad
k=0

Los polinomios de matrices hacen un gran papel en la teora espectral de transfor-


maciones lineales o de operadores lineales. En particular, polinomios de matrices se
2.2 Valores propios y vectores propios 29

pueden usar para calcular la funcin exponencial exp(A) de una matriz cuadrada A,
que es importante para ecuaciones diferenciales.
Ejemplo 2.4 Sean P (x) = x2 7x + 10, y
 
3 1
A= .
7 0
Calculemos la matriz P (A) en tres maneras diferentes.
1.. A2 7A + 10I,
2.. (A 7I)A + 10I,
3.. (A 2I)(A 5I).
Solucin:
 
9 4
P (A) = .
28 3
Ejercicio 2.5 Sean P (x) = x2 8x + 12 y

3 5 7
A = 1 4 8
3 1 2
Halle P (A).

2.2 Valores propios y vectores propios


2.2.1 Otra aproximacin: puntos fijos y dilatacin de vectores
Sea K un campo y A Knn una matrix cuadrada. Sabemos sue exist una transfor-
macin lineal asocial a la matrix A, denotada por fA : Fn Fn dada por fA (x) = Ax.
De manera natural, podemos preguntarnos cuales vectores son fijados por fA , es decir,
cuales vectores satisfacen la ecuacin fA (x) = x.
Por supuesto, 0 siempre es fijado as que podemos hacernos la misma pregunta con
el requerimiento extra de que x sea distinto de cero. Usualmente, no hay tales vectores,
pero una situacin ligeramente m general puede ocurrir si A dilata algunos vectores
distintos de cero, es decir, fA (x) = x para alguna K. Esto es lo mismo que pedir
que fA envie todos los vectores en alguna linea atravs del origen atravs de esa linea.
Por supuesto, tal linea es un subespecie 1-dimensional de Kn .
 
2 1
Ejemplo 2.6 Sea K = R y considere la matriz de 2 2 A = .
0 3
1.. Muestra que la transformacin lineal fA : R2 R2 no fija cualquier vector distinto
de cero.
2.. Muestra que A dilata todos los vectores del eje x por un factor 2.
3.. Halla todos los vectores no cero los cuales dilata fA por un factor 3.
Solucin.
30 Teoria Espectral

1.. Suponga sue un vector x R2 sarisface que Ax = x, entonces tambin satisface la


ecuacin homognea
 
2 1
(I2 A)x = 0, es decir, x = 0.
0 3

Pero la nica solucin de esto es x = 0.


2.. Tenemos
      
2 1 x 2x x
= =2 ,
0 3 0 0 0

as que los vectores del eje x son dilatados bajo fA por un factor 2.
3.. Suponga que Ax = 3x, entonces
 
1 1
(3I2 A)x = 0, es decir, x = 0.
0 0

El conjunto de todas las soluciones de esto es la linea L = {(t, t) | t R}.

2.2.2 Algunos hechos utiles sobre raices de polinomios


Recuerde sue cada polinomio sobre los complejos (sue contienen a los reales) p(t)
C[t] de grado positivo n admite una factorizacin en polinomios lineales

p(t) = c(t 1 ) (t n ),

donde c 6= 0 y las races k son nicos salvo el orden en el cual aparecen. Es til escribir

c(t 1 )r1 (t m )rm ,

donde 1 , . . . , m son las races complejas distintas de p(t). Entonces rk 1 es llamada


la multiplicidad algebraica de las ra k . Esta factorizacin es inca salvo el orden en
el cual aparecen las raices.
Cuando p(t) es un polinomio real, es decir, p(t) R[t], las raices complejas son de
dos tipos: races reales y races no reales las cuales aparecen en parejas de conjugados.
De aqu, para tal polinomio real tenemos

p(t) = c(t 1 ) (t r )(t 1 )(t 1 ) (t s )(t s ),

donde 1 , . . . , r son las races reales (posiblemente con repeticin) y 1 , 1 , . . . , s , s


son las races no reales las cuales ocurren en parejas de complejos conjugados. Para un
nmero complejo no real ,

(t )(t ) = t2 ( + )t + = t2 (2 Re )t+ | |2 ,

donde Re es la parte real de y | | es el mdulo de .

Proposicin 2.7 Sea p(t) = tn + an1 tn1 + + a1 t + a0 C[t] es un polinomio


mnico complejo el cual se factoriza completamente como

p(t) = (t 1 )(t 2 ) (t n ),
2.2 Valores propios y vectores propios 31

donde 1 , . . . , n son races complejas, ocurriendo con multiplicidad. Las siguientes


frmulas se aplican para la suma y el producto de esas races:
n
X n
Y
i = 1 + + n = an1 , i = 1 n = (1)n a0 .
i=1 i=1

Ejemplo 2.8 Sea p(t) un polinomio complejo de grad 3. Suponga que p(t) = t3
6t2 + at 6, donde a C, y tambin que 1 es una raz de p(t). Halla las otras races de
p(t).
Solucin. Supongamos que las otras races son y . Entonces por la Proposicin 2.7,

+ + 1 = (6), es decir, = 5 ;

tambin,
(1)()() = (1)3 (6), es decir, = 6.

De aqu encontramos que

(5 ) = 6, es decir, 2 5 + 6 = 0.

Las races de este polinomio son 2, 3, de donde obtenemos que las races de p(t) son
1, 2, 3.

2.2.3 Definiciones bsicas


Sea V un K-espacio vectorial de dimensin n y sea f : V V una transformacin
lineal diagonalizable. Luego, existe una base = {v1 , . . . , vn } de V tal que [f ] es
diagonal:


1 0 0
..
0 2 .
[f ] =
. ..

.. ..
. . 0
0 0 0 n

Entonces, para cada 1 i n, f (vi ) = i vi .


Recprocamente, si para una base = {v1 , . . . , vn } de V y 1 , . . . , n K se cumple
que f (vi ) = i vi para cada 1 i n, la matriz [f ] es diagonal y, en consecuencia, f
es diagonalizable.
Esto nos lleva a la siguiente definicin:

Definicin 2.9 Sea V un K-espacio vectorial, y sea f : V V una transformacin


lineal. Se dice que v V , v 6= 0, es un autovector de f si existe K tal que f (v) = v.
El elemento K se llama un autovalor de f .

Ejercicio 2.10 Sea V un K-espacio vectorial, y sea f : V V una transformacin


lineal y sea un autovalor de f . Entonces el subespacio ker (I f ) se llama subespacio
propio correspondiente al autovalor . Muestre que ste, efectivamente es un subespacio
de V .
32 Teoria Espectral

Definicin 2.11 Sea V un K-espacio vectorial de dimensin finita, y sea f : V V


una transformacin lineal. El espectro de f denotado por Spec(f ) se define como el
conjunto de todos los K tales que I f no es invertible:

Spec(f ) := K | I f no es invertible .

Observe que Spec(f ) coincide con el conjunto de los valores propios de f .

Usando estas definiciones, el razonamiento anterior se puede reescribir de esta forma:

Proposicin 2.12 Sea V un K-espacio vectorial de dimensin n y sea f : V V


una transformacin lineal. Entonces f es diagonalizable si y solamente si existe una
base de V formada por autovectores de f .

La mismas nociones se pueden definir para matrices: Dada A Knn , se le puede


asociar una transformacin lineal fA : Kn Kn definida por fA (x) = Ax. Notese
que [fA ]E = A, donde E es la base cannica de Kn . Entonces v Kn , v 6= 0, es un
autovector de fA de autovalor si y solamente si Av = v.

Definicin 2.13 Sea A Knn . Se dice que v Kn , v 6= 0, es un autovector de A si


existe K tal que Av = v. El elemento K que verifica la condicin anterior se
llama un autovalor de A.

Podemos dar tambin un resultado anlogo a la Proposicin 2.12 para matrices:

Proposicin 2.14 Sea A Knn . Entonces A es diagonalizable si y solamente si


existe una base de Kn formada por autovectores de A.
 
2 3
Ejemplo 2.15 Decidir si A = es diagonalizable.
2 1
Solucin. En virtud de la proposicin 2.14, basta buscar los autovectores
   de  A, es decir,
x 1 x 1
los vectores x = (x1 , x2 ) R2 tales que (x1 , x2 ) 6= (0, 0) y A = para algn
x2 x2
R. Para esto, buscaremos en primer trmino los elementos R para los cuales el
sistema Ax = x tiene solucin no trivial (autovalores de A) y despus, para cada uno
de los valores hallados, los vectores (x1 , x2 ) R2 que son soluciones del sistema lineal
correspondiente. Observemos que
    
2 3 x1 0
Ax = x (I2 A)x = 0 =
2 1 x2 0

Este sistema homogneo tiene solucin no trivial si y solamente si el determinante de


su matriz asociada es 0, o sea, si y solamente si 2 3 4 = 0. Luego, los autovalores
de A son = 1 y = 4.
Busquemos ahora los autovectores correspondientes a cada autovalor: Para = 1,
queda el sistema
    
3 3 x1 0
=
2 2 x2 0

cuyo conjunto de soluciones es h(1, 1)i. Luego el conjunto de los autovectores asociados
2.3 Polinomio caracterstico 33

a = 1 es h(1, 1)i {(0, 0)}. Para = 4, el sistema es


    
2 3 x1 0
=
2 3 x2 0
cuyo conjunto de soluciones es h(3, 2)i. Luego el conjunto de los autovectores asociados
a = 4 es h(3, 2)i {(0, 0)}. En consecuencia, A es diagonalizable, puesto que =
{(1, 1), (3, 2)} es una base de R2 formada por autovectores de A. Ms an, si C =
C(E, ) se tiene que
 
1 1 0
CAC =
0 4

3 0 0
Ejercicio 2.16 Decidir si A = 1 3 0 es diagonalizable en R33 .
0 0 3

2.3 Polinomio caracterstico


Como vimos en la seccin anterior, un mtodo para determinar si una matriz es
diagonalizable consiste en buscar sus autovalores y luego ver si se puede armar una
base de autovectores.
Sea A Knn y sea K. Se tiene que:
es un autovalor de A x Kn {0} tal que Ax = x.
El sistema Ax = x tiene solucin no trivial.
El sistema ( In A)x = 0 tiene solucin no trivial.
det( In A) = 0.
Definicin 2.17 Sea A Knn . Se llama polinomio caracterstico de A, y se denota
A , al polinomio A = det(X In A) K[X].
Si A Knn , A resulta ser un polinomio mnico (Un polinomio mnico tiene como
su coeficiente lider el 1, es decir, el coeficiente del monomio de grado mayor es 1) de
grado n (notemos que en la matriz XIn A, slo aparece n veces X y que el signo del
trmino (X a11 ) (X ann ) en el determinante es 1). Por lo anterior, tenemos:
Proposicin 2.18 Sea A Knn y sea K. Entonces es autovalor de A si y
slo si es raz del polinomio caracterstico de A.
 
0 1
Ejemplo 2.19 Decidir si A = es diagonalizable en Q22 , R22 y C22 .
1 0
Solucin. Los autovalores de A son las races del polinomio:
 
X 1
A = det = X 2 + 1.
1 X
Como este polinomio no tiene races en Q ni en R, resulta que A no es diagonalizable
en Q22 ni en R22 . Considerada como matriz en C22 , los autovalores de A son i
y i, y los autovectores asociados son h(1, i)i {(0, 0)} y h(1, i)i {(0, 0)}. Como
34 Teoria Espectral

= {(1, i), (1, i)} es una base de C2 formada por autovectores de A, entonces A es
diagonalizable en C22 .
Queremos definir el polinomio caracterstico asociado a un endomorfismo de un espa-
cio vectorial de dimensin finita. Para eso, veremos que dos matrices semejantes tienen
el mismo polinomio caracterstico.
Proposicin 2.20 Sea A Knn y sea C GL(n, K). Entonces
CAC 1 = A .
Demostracin Se tiene que
CAC 1 = det (X In CAC 1 )
= det (CX In .C 1 CAC 1 )
= det (C(X In A)C 1 )
= det (X In A)
= A .

Definicin 2.21 Sea V un K-espacio vectorial de dimensin finita, y sea f : V V


una transformacin lineal. Se define el polinomio caracterstico de f como f = [f ] ,
donde es una base cualquiera de V .
Como en el caso de matrices, se tiene que: Sea V un K-espacio vectorial de dimensin
finita. Sea f : V V una transformacin lineal y sea K. Entonces es autovalor
de f si y slo si es raz de f .
Ejercicio 2.22 Calcule los autovalores de las matrices A y B = AT A, donde
 

A=

Ejercicio 2.23 Sea A Rnn una matriz de probabilidad, esto es, Ai,j 0 para todos
i, j {1, . . . , n} y la suma de las entradas de cada columna es 1. Demuestre que 1 es
un autovalor de A.
SUGERENCIA: Adivina un autovector de A.
Ejercicio 2.24 Sea A Knn . Demuestre que
AT = A .
Ejercicio 2.25 Sea A Knn . Demuestre que Spec(AT ) = Spec(A).
Ejercicio 2.26 Sean A, B Knn tales que In AB es invertible. Demuestre que
In BA tambin es invertible, y
(In BA)1 = I + B(I AB)1 A.
Ejercicio 2.27 Sean A, B Knn . Demuestre que Spec(AB) = Spec(BA).
SUGERENCIA: Considerar por separado los casos = 0 y 6= 0. En el caso 6== 0
usar el resultado del ejercicio anterior sobre la invertibilidad de In AB y In BA.
2.4 Una caracterizacin de matrices diagonalizables 35

2.4 Una caracterizacin de matrices diagonalizables


2.4.1 Suma directa de subespacios
Para lo que sigue, vamos a necesitar generalizar la nocin de suma directa de dos
subespacios de un K-espacio vectorial al caso de cualquier cantidad finita de subespacios.

Definicin 2.28 Sea V un K-espacio vectorial y sean S1 , S2 , . . . , Sr subespacios de


V . Se define la suma de S1 , S2 , . . . , Sr como

W = S1 + S2 + + Sr = {s1 + + sr | si Si , 1 i r}.

Ejercicio 2.29 Con la notacin de la Defincin 2.28, demuestra que W es un subes-


pacio de V .

Definicin 2.30 Sea V un K-espacio vectorial y sean S1 , S2 , . . . , Sr subespacios de V .


Se dice que S1 , S2 , . . . , Sr estn en suma directa si, para cada w W = S1 +S2 + +Sr
existen nicos si Si , 1 i r, tales que w = s1 + + sr . En este caso se dice que
W es la suma directa de los subespacios S1 , S2 , . . . , Sr , y se denota como:
r
M
W = S1 S2 Sr = Si .
i=1

Vamos a dar una definicin equivalente de la suma directa de varios subespacios:

Proposicin 2.31 Sea V un K-espacio vectorial y sean S1 , S2 , . . . , Sr subespacios de


V . Son equivalentes:
Lr
1.. W = i=1 Si
2.. W = S1 + S2 + + Sr y para cada 1 j r, se tiene que

Sj (S1 + + Sj1 + Sj+1 + Sr ) = {0}.

Demostracin (1..) (2..) Sea 1 j r. Sea x Sj (S1 + +Sj1 +Sj+1 +Sr ).


Entonces

x = 0 + + 0 + x + 0 + + 0,
x = s1 + + sj1 + 0 + sj+1 + + sr .

Por la unicidad de la escritura en la suma directa, se sigue que x = 0.


(2..) (1..) Por hiptesis, existen s1 , . . . , sr con si Si para 1 i r tales que
Pr Pr Pr 0 0
w = i=1 si . Supongamos que w = i=1 si = i=1 si con si , si Si para cada
1 i r. Entonces, para cada 1 j r, se tiene que
r
X
sj s0j = (s0i si ).
i=1
i6=j
Pr
Como sj s0j Sj y 0
i=1 (si si ) es una suma donde cada s0i si Si , de la hiptesis
i6=j
se deduce que sj s0j = 0. Luego, sj = s0j .

Como en la suma directa de dos subespacios, en este caso tambin es posible obtener
una base del espacio suma uniendo bases de cada uno de los sumandos.
36 Teoria Espectral

Proposicin 2.32 Sea V un K-espacio vectorial y sean S1 , S2 , . . . , Sr subespacios de


V . Para cada 1 i r, sea i una base de Si . Son equivalentes:
Lr
1.. W = i=1 Si
2.. = 1 2 r es una base de W .

2.4.2 El complemento de Schur


Con frecuencia es conveniente considerar que una matriz est compuesta de algunas
submatrices ms pequenias. Al introducir rectas verticales y horizontales en una matriz,
se le puede partir en bloques. Hay una forma natural de partir matrices, en particular
aquellas que surgen en ciertas aplicaciones. Por ejemplo, considere la matriz:

1 0 0 2 1

0 1 0 1 3

0 0 1 4 0

0 0 0 1 7
0 0 0 7 2

Parece natural partir A como


1 0 0 2 1
0 1 0 1 3  
I3 B
0 0 1 4 0 =

02,3 C


0 0 0 1 7
0 0 0 7 2

donde I3 es la matriz identidad de 3 3, B es una matriz de 3 2, 02,3 es la matriz


cero de 2 3 y C es una matriz de 2 2. De esta forma, podemos ver a A como una
matriz de 2 2 cuyas entradas son ellas mismas matrices.
Cuando se multiplican matrices, con frecuencia, se gana una ventaja al verlas como
matrices participadas. Esto frecuentemente no slo revela las estructuras subyacentes,
sino que usualmente acelera los clculos, en especial cuando las matrices son grandes y
tienen muchos bloques de ceros. Es evidente que la multiplicacin de matrices partici-
padas es igual que la multiplicacin ordinaria de matrices. Para verificar esto, comience
considerando algunos casos de matrices participadas. Cada una da origen a una forma
diferente de ver el producto de dos matrices.
Para el caso del clculo de determinantes, en la situacin general, no tenemos mucha
ganancia si particionamos la matriz. De hecho, en general, podramos pensar que si
 
P Q
A=
R S

donde P, Q, R, S son todas cuadradas, entonces

det A = ( det P )( det S) ( det Q)( det S).

Sin embargo, tenemos algunos resultados particulares si A se puede particionar y


2.4 Una caracterizacin de matrices diagonalizables 37

dejarla en su forma forma triangular (superior) en bloques. Esto es,


 
P Q
A=
0 S
donde P y Q son matrices cuadradas. La determinante satisface:
Proposicin 2.33 Si A est en su forma triangular (superior) en bloques, es decir,
 
P Q
A= .
0 S
Entonces
det A = ( det P )( det S).
Como dijimos antes, resultados generales que involucren el clculo de la determinan-
te de matrices participadas no existen. Sin embargo, el complemento de Schur nos
permite hallar un resultado casi general:
Teorema 2.34 Si A es una matriz particionada de la forma
 
P Q
A=
R S
donde P, Q, R, S son todas matrices cuadradas y P es inversible. Entonces:
det A = ( det P )( det S RP 1 Q).
La matriz S RP 1 Q se llama el complemento de Schur de P en A.

2.4.3 Espacios de autovectores y diagonalizacin


Dado un autovalor de una matriz A Knn , el conjunto de los autovectores de
autovalor no es un subespacio de Kn , puesto que, por definicin, 0 no es un autovector
de A. Sin embargo, podemos considerar el siguiente subespacio que consiste en agregar
el vector 0 a ese conjunto:
Definicin 2.35 Sea A Knn y sea un autovalor de A. Se define
E = {v Kn | Av = v} = {v Kn | (In A)v = 0}.
Observamos que E es un subespacio de Kn , puesto que es el conjunto de soluciones
de un sistema lineal homogneo.
Proposicin 2.36 Sea A Knn y sean 1 , , r autovalores distintos de A. En-
tonces E1 , , Er estn en suma directa.
Demostracin Lo probaremos por induccin en la cantidad r de autovalores conside-
rados.
Para r = 2: Sean 1 y 2 autovalores distintos de A. Si v E1 E2 , se tiene que
Av = 1 v y Av = 2 v, de donde (1 2 )v = 0. Como 1 2 = 0, resulta que v = 0.
Issai Schur (1875-1941) naci en Bielorrusia pero pas la mayor parte de su vida en Alemania. Es
conocido principalmente por su trabajo fundamental acerca de la teora de representaciones de
grupos, pero tambin trabaj en teora de nmeros, anlisis y otras reas.
38 Teoria Espectral

Luego, E1 E2 = {0} y la suma es directa.


Supongamos ahora que el resultado vale para el caso de r autovalores distintos, y sean
1 , , r , r+1 autovalores distintos de A. Debemos probar que para cada 1 i r+1,
Pr+1
Ei j=1 Ej = {0}. Sin prdida de generalidad, supongamos que i = r + 1.
j6=i P 
r
Sea v Er+1 j=1 Ej . Entonces, existen vj Ej (1 j r) tales que
v = v1 + + vr . Multiplicando esta igualdad por la matriz A, tenemos

r+1 v = 1 v1 + + r vr ,

pero si la multiplicamos por r+1 , se tiene

r+1 v = r+1 v1 + + r+1 vr .

Restando miembro a miembro,

0 = (1 r+1 )v1 + + (r r+1 )vr .

Como por hiptesis inductiva, los subespacios Ej (1 j r) estn en suma directa,


el vector cero se escribe de forma nica como suma de ceros. Luego, (j r+1 )vj = 0
para cada1 j r y, por lo tanto, vj = 0 para cada 1 j r,con lo cual v = 0.

Ya vimos que todo autovalor de una matriz A es raz de su polinomio caracte-


rstico. Ahora veremos que siempre existe una relacin entre la dimensin de E y la
multiplicidad de como raz de A .

Definicin 2.37 Sea A Knn y un autovalor de A. La mulltiplicidad algebraica


de se define como la multiplicidad de la raz del polinomio caracterstico A , esto
es, como
mx {k {1, , n} | (x )k divide a A }.

Definicin 2.38 Sea A Knn y un autovalor de A. La mulltiplicidad geomtrica


de se define como la dimensin de E .

Existe una relacin entre la multiplicidad algebraica y la multiplicidad geomtrica de


un autovalor.

Proposicin 2.39 Sea A Knn y un autovalor de A. Entonces la multiplicidad


geomtrica de es menor o igual a la multiplicidad algebraica de .

Demostracin Sea r la multiplicidad algebraica de y s la multiplicacidad geomtrica


de . Definamos fA : Kn Kn la transformacin lineal definida por fA (x) = Ax. Ya
que s = dim(E ), sea {v1 , , vs } una base de E . Escojamos vs+1 , , vn Kn tales
que = {v1 , , vs , vs+1 , , vn } es una base de Kn . Se tiene que
ss

z }| {
0 0

0 0


[fA ] = .. .. . . .. N
. .

. .

0 0
0 M
2.4 Una caracterizacin de matrices diagonalizables 39

de donde, por la Proposicin 2.33, tenemos


ss

z }| {
X 0 0

0 X 0


fA = det .. .. .. .. N
.

. . .

0 0 X
0 XIns M
s
= (X ) det (XIns M )
= (X )s Q(X)

Por hiptesis, A = (X )r P (X) con P (X) K[X] tal que P () 6= 0. Entonces

(X )s Q(X) = fA = A = (X )r P (X) con P () 6= 0,

de donde s r, es decir, la multiplicidad geomtrica de es menor o igual a la multi-


plicidad algebraica de .

Ejercicio 2.40 Sea A Knn y un autovalor de A de multiplicidad algebraica


igual a 1. Entonces su multiplicidad geomtrica tambin es igual a 1.

Ejercicio 2.41 Calcular los valores propios y sus multiplicidades algebraica y geom-
trica de cada una de las siguientes matrices:

7 1 0 7 1 0 7 0 0
0 7 1 , 0 7 0 , 0 7 0 ,
0 0 7 0 0 7 0 0 7

4 0 0 0 4 0 0 0 4 1 0 0
0 6 1 0 0 6 1 0 0 4 0 0
0 0 6 1 , 0 0 6 0 , 0 0 6 1 .

0 0 0 6 0 0 0 6 0 0 0 6

El siguiente teorema establece condiciones necesarias y suficientes sobre los subespa-


cios E asociados a los autovalores de una matriz para que sta sea diagonalizable.

Teorema 2.42 Sea A Knn y sean 1 , . . . , r todos los autovalores de A en K, con


i 6= j si i 6= j. Son equivalentes:

1.. A es diagonalizable en Knn .


Lr n
2.. i=1 Ei = K .
3.. A = (X 1 )a1 (X r )ar y ai =dim Ei para cada 1 i r.

Demostracin (1..) (2..) Si A es diagonalizable en Knn , existe una base =


{v1 , . . . , vn } de Kn formada por autovectores de A. Para cada vj , existe i, con
1 i r, tal que vj es autovector de A de autovalor i (porque 1, . . . , r son todos
los autovalores de A), es decir vj Ei para algn 1 i r, lo que implica que
Lr Lr
vj i=1 Ei . En consecuencia, Kn = hv1 , . . . , vn i = i=1 Ei .
(2..) (3..) Sea ai la multiplicidad algebraica de i , por la Proposicin 2.39, para
40 Teoria Espectral
Lr
cada 1 i r, dim Ei ai . Si Kn = i=1 Ei se tiene que
r
X r
X
n = dim Kn = dim Ei ai gr(A ) = n.
i=1 i=1

Luego, en la cadena anterior, son todas igualdades. En particular:


Pr
La igualdad i=1 ai = gr(A ) implica que A se puede factorizar como producto de
polinomios de grado 1 en K[X]:

A = (X 1 )a1 (X r )ar .
Pr Pr
Como dim Ei ai para cada 1 i r, de la igualdad i=1 dim Ei = i=1 ai se
deduce que dim Ei = ai para cada 1 i r.

(3..) (1..) Para cada 1 i r sea i una base de Ei . Por la Proposicin 2.32,
Lr
= ri=1 i es una base de i=1 Ei Kn . Ahora,
r
X r
X r
X
| B |= | i |= dim Ei = ai = gr(A )
i=1 i=1 i=1
Lr Lr
de donde dim ( i=1 Ei ) = dim K n . Luego i=1 Ei = K n y entonces es una base
(formada por autovectores de A) de Kn . En consecuencia, A es diagonalizable.

Ejemplo 2.43 Decidir si


1

1 0 0
1 1 0 1
R44
A=
0 0 1 1
0 0 0 2
es diagonalizable.
Solucin: Calculemos A = (X 1)3 (X 2). Para el autovalor 1 se tiene que

E1 = {x R4 | (I4 A)x = 0} = h(0, 1, 0, 0), (0, 0, 1, 0)i,

de donde dim E1 = 2 < 3 =la multiplicidad algebraica de 1. El teorema anterior implica


que A es no diagonalizable.

2.5 Triangulacin de operadores lineales


Se ha demostrado ya que una condicin necesaria y suficiente para que una matriz
(o un operador lineal) sea diagonalizable es que se pueda encontrar una base formada
por vectores propios. Sin embargo, esto no siempre es posible, y en este caso, lo que se
hace es tratar de triangular la matriz.

Definicin 2.44 Sea V un espacio vectorial de dimensin finita sobre un campo K.


Diremos que un operador lineal T sobre V es triangulable si existe una base para V
tal que la matriz de T en la base es triangular. Una matriz A es triangulable si TA es
triangulable.
2.6 El Teorema de Cayley-Hamilton 41

Teorema 2.45 Una matriz A Knn es triangulable si y solamente si existe una


matriz invertible P tal que P AP 1 es una matriz triangular.
Demostracin Primero, supongamos que A Knn es triangulable, es decir, TA :
Kn Kn es triangulable. Entonces, existe una base de Kn tal que [TA ] es triangular.
Sea E la base cannica de Kn . Entonces existe una matriz invertible P tal que [TA ] =
P [TA ]E P 1 . Pero [TA ]E = A. Luego, [TA ] = P AP 1 es triangular.
Ahora, supongamos que existe una matriz invertible P tal que P AP 1 = S es una
matriz triangular. Entonces, [TA ]E = A y de aqu P [TA ]E P 1 = S. Luego, S y [TA ]E
son matrices semejantes y por lo tanto, existe una base de Kn tal que S = [TA ] . As,
TA es triangulable y en consecuencia, A lo es.
En el siguiente captulo, una vez que veamos el proceso de ortogonalizacin de Gram-
Schmidth, mostraremos cmo hacer una triangulacin usando la descomposicin de
Schur.

2.6 El Teorema de Cayley-Hamilton


2.6.1 Polinomios con coeficientes matriciales
Definicin 2.46 Sean P0 , . . . , Pm Knn . Entonces la expresin
P () := P0 + P1 + P2 2 + + Pm m ,
se llama polinomio con coeficientes matriciales. Si A Knn , entonces se pone
P der (A) = P0 + P1 A + P2 A2 + + Pm Am ,
P izq (A) = P0 + AP1 + A2 P2 + + Am Pm .
En vez de P der (A) escribimos simplemente P (A).
Trabajando con polinomios con coeficientes matriciales, hay que tener mucho cuidado.
Mostremos un ejemplo de polinomios P, Q con coeficientes matriciales tales que
(P Q)(A) 6= P (A)Q(A).
Sean
     
1 0 0 1 0 0
P () = , Q() = , A= .
0 1 0 0 1 0
Entonces
     
0 1 1 0 0 0
(P Q)() = , (P Q)(A) = , P (A)Q(A) = .
0 0 0 0 0 1
Lema 2.47 Sean P y Q polinomios con coeficientes matriciales:
m
X s
X
P () = Pi i , Q() = Qj j ,
i=0 j=0
nn nn
donde Pi , Qj K , y sea A K una matriz que conmuta con todos los coeficientes
del polinomio Q:
Qj A = AQj
42 Teoria Espectral

para toda j {0, . . . , s}. Entonces

(P Q)(A) = P (A)Q(A).

Demostracin Recordamos la definicin del producto de polinomios:



m+s
X X
(P Q)() = Pi Qj k .
k=0 i+j=k

De aqu,

m+s
X X
(P Q)(A) = Pi Qj Ak .
k=0 i+j=k

Por otro lado,


m
! s
X X X
P (A)Q(A) = Pi Ai Qj Aj = Pi Ai Qj Aj .
i=0 j=0 0im
0jn

Juntando los sumandos en grupos con i + j = k podemos escribir el resultado de la


siguiente manera:

m+s
X X
P (A)Q(A) = Pi Ai Qj Aj .
k=0 i+j=k

Ahora usamos la condicin que A conmuta con Qj :

Pi Ai Qj Aj = Pi Qj Ai+j .

De all obtenemos que:



m+s
X X
P (A)Q(A) = Pi Qj Ak = (P Q)(A).
k=0 i+j=k

Teorema 2.48 (Cayley-Hamilton) Sea A Kn . Entonces

A (A) = 0,

donde A () = det(I A) es el polinomio caracterstico de A.

Demostracin Sabemos que para toda matriz cuadrada B se tiene

adj(B)B = det(B)I,

donde adj(B) es la matriz adjunta clsica de B o sea la matriz de cofactores conjugada.


Apliquemos este resultado a la matriz I A:

adj(I A) (I A) = det(I A) I = A () I.

La expresin adj(I A) se puede tratar como un polinomio con coeficientes matriciales.


2.6 El Teorema de Cayley-Hamilton 43

Aplicamos el Lema 2.47 con P () = adj(I A) y Q() = I A. Notemos que los


coeficientes de Q son I y A, y estas matrices conmutan con A. Entonces

A (A) = P (A)Q(A) = P (A) (I A A) = 0.

Corolario 2.49 Sea V un espacio vectorial sobre K, dim(V ) = n < + y sea T


Hom(V, V ). Entonces T (T ) = 0.

2.6.2 El Teorema del Mapeo Espectral


Recordemos que en un espacio vectorial V de dimensin finita, para una T Hom(V, V ),
podemos definir la determinante de T como

det(T ) = det ([T ] )

donde es cualquier base de V .

Proposicin 2.50 Sea V un espacio vectorial sobre K de dimensin finita, sean


T1 , T2 , . . . , Tm Hom(V, V ). Hagamos T = T1 T2 Tm . Entonces T es invertible
si y solamente si Tj es invertible para toda j {1, 2, . . . , m}.

Demostracin Por la frmula del determinante del producto,

det(T ) = det(T1 )det(T2 ) det(Tm )

Ahora, recuerde que T es invertible si y solamente si det(T ) es distinto de cero. El


producto es distinto de cero si y solamente si cada uno de los mltiplos es distinto de
cero. Esto completa la demostracin.

Antes de dar el resultado importante de esta subseccin consideremos un ejemplo que


ilustra ste resultado en el caso de matrices diagonales.

Ejemplo 2.51 Sea



4 0 0
A = diag(4, 1, 2) = 0
1 0
0 0 2

y consideremos p(X) = X 2 X + 3. Entonces



15 0 0
2
p(A) = A A + 3I = 0 5
0 = diag(15, 5, 5) = diag(p(4), p(1), p(2)).
0 0 5

Comparamos los espectros de A y p(A):

Spec(A) = {4, 1, 2}, Spec(p(A)) = {15, 5} = {p(4), p(1), p(2)}.

El espectro de p(A) coincide con el conjunto de los valores del polinomio p(X) en el
espectro de A. Vamos a demostrar esta afirmacin en el caso general.
44 Teoria Espectral

Teorema 2.52 (del mapeo espectral) Sea V un espacio vectorial complejo de dimen-
sin finita, sean T Hom(V, V ) y p(X) un polinomio con coeficientes complejos. En-
tonces:
Spec(p(T )) = p(Spec(T )),
donde p(Spec(T )) = { C | Spec(T ) tal que = p()}.
Demostracin El caso cuando p(X) es una constante es trivial (y se deja como ejer-
cicio). Consideremos el caso cuando deg(p(X)) 1. Primero, supongamos que
p(Spec(T )) y demostremos que Spec(p(T )). La condicin p(Spec(T )) significa
que = p() para algn Spec(T ). El polinomio p(Z) tiene como raz a y por
lo tanto, (Z ) | (p(Z) ). Esto es, existe un polinomio q(Z) tal que
p(Z) = (Z )q(Z).
De aqu,
p(T ) I = (T I)q(T ).
La transformacin T I es lineal y no invertible. Aplicando la Proposicin 2.50,
p(T ) I no es invertible. Esto es, Spec(p(T )).
Para probar el recproco, vamos a suponer que / p(Spec(T )) y demostraremos que
/ Spec(p(T )). Consideremos el polinomio p(Z) . Por el Teorema Fundamental del
lgebra, dicho polinomio se puede factorizar en factores lineales:
p(Z) = c0 (Z 1 )(Z 2 ) (Z d ),
donde d = deg(p(Z)) y c0 es el coeficiente lder de p(Z). Al evaluar obtenemos que
p(j ) = para toda j {1, 2, . . . , m}. Demostraremos que 1 , 2 , . . . , d / Spec(T ).
En efecto, si suponemos que j Spec(T ) para algn j {1, 2, . . . , d}, entonces =
p(j ) p(Spec(T )) que contradice a la hiptesis. As que 1 , 2 , . . . , d
/ Spec(T ).
Entonces
I p(T ) = c0 (T 1 I)(T 2 I) (T d I).
Todos los factores del lado derecho son invertibles, por eso I p(T ) tambin lo es. Lo
ltimo significa que / Spec(p(T )).
Observe que la primera parte de la demostracin del Teorema del maleo espectral
no usa la hiptesis que el espacio vectorial sea complejo. Por lo tanto, en el caso de
cualquier campo, siempre es vlida la contencin:
Spec(p(T )) ( p(Spec(T )),
Vamos a construir un ejemplo real para mostrar esto. Consideremos la transformacin
lineal T : R2 R2 cuya matriz en la base cannica E es:
 
0 1
[T ]E = .
1 0
El polinomio caracterstico de T es 2 + 1, y de aqu, Spec(T ) = . Sea p(X) = 0, el
polinomio cero. Entonces p(T ) = 0, la transformacin lineal cero y Spec(p(T )) = {0}.
En este caso,
Spec(p(T )) = {0} ( = p(Spec(T )).
2.7 El polinomio mnimo 45

Ejercicio 2.53 Verifique si se cumple o no el Teorema del mapeo espectral para el


polinomio f (X) = X 2 y la matriz

7 0 0
A = 0 0 1 .
0 1 0

2.7 El polinomio mnimo


En lo que sigue, a cada matriz le asociaremos un polinomio. Este polinomio, entre
otras propiedades, nos dar un nuevo criterio para decidir si la matriz es diagonalizable.

2.7.1 El polinomio mnimo de una matriz


Dada una matriz A Knn nos interesa considerar polinomios p K[X] que anulen
a A, es decir, tales que p(A) = 0. El siguiente resultado asegura que para cualquier
matriz existe un polinomio no nulo con esta propiedad.

Lema 2.54 Sea A Knn . Existe un polinomio p K[X], p 6= 0, tal que p(A) = 0.
2
Demostracin Consideremos el conjunto {In , A, A2 , . . . , An } Knn . Este conjunto
es linealmente dependiente, puesto que tiene n2 +1 elementos y dim(Knn ) = n2 . Luego,
Pn2
existen a0 , a1 , . . . , an2 K no todos nulos, tales que i=0 ai Ai = 0. Sea p K[X] el
Pn2
polinomio p = i=0 ai X i . Entonces p = 0 y p(A) = 0.

Para cada matriz, distinguimos un polinomio particular entre todos los polinomios
que la anulan: el de grado mnimo y mnico. Veamos que para toda matriz existe un
polinomio con estas propiedades y que es nico:

Existencia. Sea H = {deg(p) | p K[X], p 6= 0, p(A) = 0} N. Por el Lema 2.54,


H 6= . Luego, H tiene un elemento mnimo r. Entonces existe un polinomio q 6= 0
de grado r tal que q(A) = 0 y q es mnico (si no lo fuera, bastara con dividir por su
coeficiente lder).
Unicidad. Supongamos que existe un polinomio q 0 K[X] mnico, q 0 6= q, tal que
deg(q 0 ) = r y q 0 (A) = 0. Entonces (q 0 q)(A) = 0 y deg(q 0 q) < r, puesto que q y
q 0 son ambos mnicos, lo que contradice que r es el mnimo de H.

Definicin 2.55 Sea A Knn . Llamaremos polinomio mnimo de A, y lo notaremos


mA , al polinomio mnico de grado mnimo que anula a A.
 
1 0
Ejemplo 2.56 Sea A . Calcular mA .
1 1
Solucin. Puesto que {I2 , A} es linealmente independiente, no existe p R[X] tal que
deg(p) = 1 y p(A) = 0. Buscamos entonces p = X 2 + aX + b que anule a A, para lo
46 Teoria Espectral

cual estudiamos la independecia lineal de {I2 , A, A2 }.


     
2 1 0 1 0 1 0
A + aA + bI2 = 0 +a +b =0
2 1 1 1 0 1
1 a + b = 0 y 2 + a = 0
a = 2, b = 1.

Luego, mA = X 2 + 2X + 1. (Observe que, en este caso, mA coincide con A .)

Dada una matriz A Knn , el conjunto de todos los polinomios que anulan a A
puede caracterizarse a partir de su polinomio minimal mA .

Proposicin 2.57 Sea A Knn y sea p K[X]. Entonces p(A) = 0 si y solamente


si mA divide a p.

Demostracin Si mA | p, existe q K[X] tal que p = mA q. Luego

p(A) = (mA q)(A) = mA (A)q(A) = 0 q(A) = 0.

Recprocamente, por el algoritmo de la divisin en K[X], existen polinomios q, r K[X]


tales que p = mA q + r con r = 0 o deg(r) < deg(mA ). Se tiene que

0 = p(A) = mA (A)q(A) + r(A) = 0 q(A) + r(A) = r(A).

Como mA es de grado mnimo entre los polinomios que anulan a A, no puede ser
deg(r) < deg(mA ) y, por lo tanto, r = 0.

Como sucede en el caso del polinomio caracterstico, vemos que dos matrices seme-
jantes tienen el mismo polinomio mnimo.

Lema 2.58 Sean A, B Knn , A B. Entonces p(A) p(B) para todo p K[X].
En particular, p(A) = 0 si y solamente si p(B) = 0.
Pr
Demostracin Sea p K[X], p = i=0 ai X i . Si A B, existe C GL(n, K) tal que
A = CBC 1 , y entonces
r
X r
X
p(A) = p(CBC 1 ) = ai (CBC 1 )i = ai CB i C 1
i=0 i=0
r
!
X
=C ai B i C 1 = C p(B) C 1 .
i=0

Luego, p(A) p(B).

Proposicin 2.59 Sean A, B Knn , A B. Entonces mA = mB .

Demostracin Por el lema 2.58 y la Proposicin 2.57,

mA (A) = 0 mA (B) = 0 mB | mA
mB (B) = 0 mB (A) = 0 mA | mB

Puesto que mA y mB son ambos mnichos, resulta que mA = mB .


2.7 El polinomio mnimo 47

Este resultado implica que si T : V V es una transformacin lineal definida en


un K-espacio vectorial V de dimensin finita, y consideramos la matriz de T en dos
bases de V distintas, los polinomios mnimos de estas dos matrices coinciden. Esto nos
permite dar la siguiente definicin de polinomio mnimo para transformaciones lineales:
Definicin 2.60 Sea V un espacio vectorial sobre K de dimensin finita, y sea una
base de V . Sea T : V V una transformacin lineal. Se define el polinomio minimal
de T como mT = m[T ] .
El siguiente resultado muestra que las races del polinomio mnimo de una matriz son
sus autovalores.
Proposicin 2.61 Sea A Knn , y sea mA el polinomio mnimo de A. Sea K.
Entonces es autovalor de A si y solamente si es raz de mA .
Demostracin Sea un autovalor de A. Por el algoritmo de divisin en K[X] existen
q K[X] y r K tales que mA = q(X ) + r. Entonces
0 = mA (A) = q(A)(A In ) + r In .
Como es autovalor de A, existe v Kn , v 6= 0, tal que Av = v. Se tiene que
0 = q(A) (A In ) v + r v = q(A) (Av v) + r v = q(A) 0 + r v = r v,
es decir, r v = 0. Como v 6= 0, debe ser r = 0. En consecuencia, mA = q (X ),
y entonces es raz de mA . Recprocamente, sea K una raz de mA . Entonces
mA = (X ) q y, por lo tanto, 0 = mA (A) = (A In ) q(A). Observamos que
q(A) 6= 0, puesto que deg(q) = deg(mA ) 1. En consecuencia, existe w Kn tal que
q(A) w 6= 0. Sea v = q(A) w. Entonces
(A In ) v = (A In ) q(A) w = 0 w = 0,
de donde es un autovalor de A.

2.7.2 El polinomio mnimo de un vector


Sea A Knn y sea v Kn . Dado p K[X], definimos p(v) = p(A)v. Diremos que
p anula a v si p(v) = 0.
Observe que si A Knn y mA es el polinomio mnimo de A. Entonces, para cada
v K n , se tiene que
mA (v) = mA (A) v = 0 v = 0.
Luego, para cada v Kn existe un polinomio mnico que anula a v.
Definicin 2.62 Sea A Knn y sea v Kn . El polinomio mnimo de v, que
denotaremos mv , es el polinomio mnico de grado mnimo que anula a v.
La existencia y unicidad de un polinomio que cumple las condiciones de la definicin
se prueban en forma anloga a lo hecho para el polinomio mnimo de una matriz.
Ejemplo 2.63 Sea A Knn y sea v Kn un autovector de A de autovalor .
Entonces mv = X .
48 Teoria Espectral
 
1 0
Ejemplo 2.64 Sea A = R22 , y sea e1 = (1, 0). Calculamos me1 :
1 1
Comenzamos buscando un polinomio mnico p = X + b R[X] de grado 1 tal que
p(e1 ) = 0: Observamos que

p(e1 ) = 0 (A + bI2 )e1 = 0 Ae1 + be1 = 0 (1, 1) + (b, 0) = (0, 0),

pero esto no vale para ningn valor de b R. Luego, deg(me1 ) 2. Buscamos entonces
un polinomio p R[X] mnico de grado 2: p = X 2 + aX + b. En este caso

p(e1 ) = 0 (A2 + aA + bI2) e1 = 0


(A2 e1 + aAe1 + be1 = 0
(1, 2) + a(1, 1) + b(1, 0) = (0, 0)
1 a + b = 0 y 2 + a = 0
a = 2, b = 1.

Luego, el polinomio mnimo de e1 es p = X 2 + 2X + 1.

2.7.3 Cmo hallar el polinomio minimal de un vector


Sea A Knn y sea v Kn . Si mv = X m + am1 X m1 + + a2 X 2 + a1 X + a0 es
el polinomio mnimo de v, entonces

Am v + am1 Am1 v + + a2 A2 v + a1 Av + a0 v = 0.

Adems, como mv es de grado mnimo entre los polinomios que satisfacen p(v) = 0,
se tiene que {v, Av, . . . , Am1 v} es un conjunto linealmente independiente. Luego, para
hallar el polinomio mnimo de v, un primer paso consiste en buscar el mnimo m N
tal que {v, Av, . . . , Am v} es linealmente dependiente. Si Am v = a0 v a1 Av
am1 Am1 v, entonces mv = X m + am1 X m1 + + a1 X + a0 .
Al igual que para el polinomio mnimo de una matriz, fijada una matriz A, todo
polinomio que anula a un vector dado resulta ser mltiplo de su polinomio mnimo.

Proposicin 2.65 Sean A Knn , v Kn y p K[X]. Entonces p(v) = 0 si y


solamente si mv divide a p. En particular, mv divide a mA .

Demostracin Dado p K[X] se tiene que p = mv q + r con q, r K[X], r = 0 o


deg(r) < deg(mv ). En consecuencia,

p(v) = p(A) v = mv (A) q(A) v + r(A) v = q(A). 0 + r(v) = r(v),

de donde p(v) = 0 si y solamente si r(v) = 0. Como mv es de grado mnimo entre los


polinomios que anulan a v, resulta que r(v) = 0 si y solamente si r = 0, es decir, si y
solamente si mv | p.

La siguiente proposicin muestra cmo calcular el polinomio mnimo de una matriz


A Knn a partir de los polinomios mnimos de los vectores de una base de Kn .

Proposicin 2.66 Sea A Knn y sea = {v1 , . . . , vn } una base de Kn . Entonces


mA = mcm{mvi | i = 1, . . . , n} donde mcm denota el mnimo comn mltiplo.
2.7 El polinomio mnimo 49

Demostracin Sea p = mcm{mvi | i = 1, . . . , n}. Por la Proposicin 2.65, mvi | mA


para cada 1 i n. Luego, p | mA . Por otro lado, como mvi | p para cada 1 i n,
se tiene que p(A) vi = 0 para cada 1 i n. Sea v Kn y sean 1 , . . . , n K tales
Pn
que v = i=1 i vi . Entonces
n
! n
X X
p(A) v = p(A) i vi = i p(A) vi = 0.
i=1 i=1

En consecuencia, se tiene que p(A) Knn satisface p(A) v = 0 para toda v Kn y,


por lo tanto, p(A) = 0. Luego, mA | p. Como mA y p son dos polinomios mnicos que
se dividen mutuamente, mA = p .

1 0 0
Ejemplo 2.67 Calculemos mA para A = 1 1 0. Primero, consideremos E =
0 0 2
3
{e1 , e2 , e3 } la base cannica de R . Por la Proposicin 2.66, mA = mcm{me1 , me2 , me3 }.
Busquemos entonces los polinomios mnimos de cada uno de los vectores de la base E:

me1 : Vemos que {e1 , Ae1 } = {e1 , e1 + e2 } es un conjunto linealmente independiente,


pero {e1 , Ae1 , A2 e1 } = {e1 , e1 + e2 , e1 + 2e2 } no lo es. Adems, 0 = (e1 + 2e2 ) 2(e1 +
e2 ) + e1 = A2 e1 2Ae1 + e1 , de donde me1 = X 2 2X + 1 = (X?1)2 .
me2 : Como Ae2 = e2 , entonces me2 = X 1.
me3 : Como Ae3 = 2e3 , entonces me3 = X 2.

Luego,
mA = mcm{(X 1)2 , X 1, X 2} = (X 1)2 (X 2)}.

2.7.4 Un criterio de diagonalizacin usando el polinomio mnimo


En primer lugar, notemos lo siguiente: si A Knn y A K[X] es el polinomio
caracterstico de A. Entonces, si A se factoriza linealmente en K[X] y tiene todas
sus races simples (es decir, todas sus races son de multiplicidad 1), entonces A es
diagonalizable. En efecto, si A = (X?1 ) (X?n ), con i 6= j para cada i 6= j, A
tiene n autovalores distintos. Adems, para cada 1 i n, existe vi Kn autovector de
A de autovalor i . Puesto que E1 , , En estn en suma directa, {v1 , . . . , vn } resulta
una base de Kn formada por autovectores de A, y por lo tanto, A es diagonalizable.
La recproca de este resultado no es cierta, es decir, A puede tener races mltiples y,
de todas formas, A ser diagonalizable. Basta considerar, por ejemplo, la matriz A = In .
Sin embargo, es posible dar una condicin necesaria y suficiente para la diagonaliza-
cin, considerando la factorizacin del polinomio mnimo de la matriz.

Proposicin 2.68 Sea A Knn . Entonces A es diagonalizable en Knn si y sola-


mente si mA tiene todas sus races en K y son simples.

Demostracin Supongamos que A es diagonalizable. Sean 1 , , r los autovalores


de A, con i 6= j si i 6= j y sea {v1 , , vn } una base de autovectores de A. Si mv
50 Teoria Espectral

denota el polinomio mnimo del vector v para la matriz A, se tiene que:

mA = mcm{mv1 , . . . , mvn }
= mcm{X 1 , . . . , X 1 , . . . , X r , . . . , X r }
= (X 1 )(X 2 ) (X r ).

En consecuencia, mA tiene todas las races en K y son simples.


Recprocamente, supongamos que mA = (X 1 )(X 2 ) (X r ) con i 6= j
si i 6= j. Entonces 1 , , r son todos los autovalores de A en K. Veamos que Kn =
ri=1 Ei , donde Ei = {x Kn | Ax = i x}. Sea v Kn {0}. Consideremos el
subespacio
S = hv, Av, A2 v, . . . , Am v, . . .i Kn .

Supongamos que {v, Av, . . . , Ak v} es un conjunto linealmente independiente, pero {v, Av, . . . , Ak v, Ak+1 v}
es linealmente dependiente. Luego Aj v hv, Av, . . . , Ak vi para todo j N y S =
{v, Av, A2 v, . . . , Ak v} resulta ser una base de S. Adems, deg(mv ) = k + 1, o sea, mv
es de la forma
mv = X k+1 + ak X k + + a1 X + a0 .

Por la construccin de S, si x S resulta que Ax S. Sea TA : S S la transformacin


lineal definida por TA (x) = Ax. Se tiene que

0 0 0 a0

..
1 0 . a1

[TA ]S = 0 1 . . .
.. ..
. .

. .
.. ..

0 ak1
0 0 1 ak

Observamos que TA = det(XIk+1 [TAS ) = X k+1 + ak X k + + a1 X + a0 = mv .


Puesto que mv | mA y, por hiptesis, mA tiene todas sus races en K y son simples,
resulta que TA = mv tiene todas sus races en K, son simples y son algunos de los
autovalores de A. Concluimos que TA es diagonalizable sobre S. Adems, si TA =
(X i1 ) . . . (X ik+1 ), como v S, existen vi1 , . . . , vik+1 autovectores de TA (donde
vij es un autovector de autovalor ij ) tales que v = vi1 + + vik+1 . Pero si vij es
un autovector de TA de autovalor ij , entonces es un autovector de A con el mismo
autovalor. En consecuencia v ri=1 Ei . Como v Kn era arbitrario, resulta que
Kn = ri=1 Ei y A es diagonalizable.

A continuacin presentamos un ejemplo en el que mostramos cmo puede aplicarse


este resultado para determinar si una matriz es diagonalizable.

Ejemplo 2.69 Sea A Cnn tal que Ak = In para algn k N. Entonces A es


diagonalizable.
Solucin. Por hiptesis, Ak In = 0, con lo que el polinomio X k 1 anula a A. En
consecuencia, mA | X k 1. Como X k 1 tiene todas sus races en C y son simples,
entonces mA tambin. Luego, A es diagonalizable.
Ejercicios 51

Ejemplo 2.70 (continuacin del Ejemplo 2.69) Notar que si A Rnn satisface

0 0 1
Ak = In , A no es necesariamente diagonalizable sobre R. Por ejemplo, A = 1 0 0
0 1 0
cumple que A = I3 , pero A no es diagonalizable, puesto que mA = (X 1)(X 2 +X +1),
3

que no tiene todas sus races en R.

Ejercicios
2.1 Analizar la validez de las siguientes afirmaciones:
a). Si A Rnn inversible, entonces 0 no es autovalor de A.
b). Si A Rnn es inversible y x es un autovector de A, entonces x es un autovector
de A1 .
c). Si A Rnn con n impar, entonces A admite un autovalor real.
2.2 Hallar los autovalores de las siguientes matrices:
1 1 1 1

1 1 1 1

a). 1 1 1 1 Rnn

. . . .
.. .. .. . . ...

1 1 1 1

2 1 2 1 2 1
1 2 1 2 1 2

2 1 2 1 2 1

b). R66
1 2 1 2 1 2

2 1 2 1 2 1
1 2 1 2 1 2
2.3 Suponga que es un autovalor de la matriz A con autovector correspondiente x.
Entonces si k es un entero positivo, demuestre que k es un autovalor de la matriz
Ak con autovector correspondiente x.
2.4 Calcular el polinomio caracterstico, los autovalores y los autovectores de la matriz
A en cada uno de los siguientes casos (a R):
(Analizar por separado los casos K = R y K = C)
 
1 3
a). .
3 1

0 2 1
b). 2 0 3 .
1 3 0

a 1 1
c). 1 a 1 .
1 1 a

1 0 0
d ). a 1 0 .
0 a 1
52 Teoria Espectral

2.5 Sea f : R3 R3 la transformacin lineal definida por:

f (x, y, z) = (x 2y + 2z, y, x 3y 4z).

a). Encontrar una base de R3 tal que [f ] sea diagonal.


n
1 2 2
b). Calcular 0 1 0 para toda n N.
1 3 4
SUGERENCIA: Si A, B Knn y C GL(n, K) son matrices tales que A =
CBC 1 entonces Ak = CB k C 1 para todo k N.

1 2 2
c). Existe una matriz P R33 tal que P 2 = 0 1 0 .
1 3 4
2.6 Considere la matriz

1 0 1 1
0 1 1 1
C=
1
.
1 1 0
1 1 0 1

a). Muestre que Spec(C) = {3, 1, 1}.


b). Suponga que A es una matrix cuadrada y es un autovalor de A. Sea q(X) un
polinomio en la variable X. Entonces q() es un autovalor de la matriz q(A) is
an eigenvalue of A.
c). Usando C construya una matriz D de 4 4 tal que Spec(D) = {4, 0, 2}.
SUGERENCIA: Interpole un polinomio que envie un espectro a otro y aplique
(b).
2.7 Verdadero o Falso: (Justifique su respuesta)
a). Cada operador lineal en un espacio vectorial de dimensin n tiene n autovalores
distintos.
b). Si una matriz tiene un autovector, entonces tiene un nmero infinito de auto-
valores.
c). Existe una matriz cuadrada real sin autovalores reales.
d ). Existe una matriz cuadrada sin autovalores complejos.
e). Matrices similares tienen los mismos autovalores.
f ). Matrices similares tienen los mismos autovalores.
g). La suma de dos autovectores de una matriz A es siempre un autovector.
h). La suma de dos autovectores de una matriz A correspondendientes al mismo
autovalor es siempre un autovector.
i ). Sea A una matriz de n n. Si A es diagonalizable, tambin lo es AT .
2.8 Sabemos que el polinomio caracterstico de una matriz cuadrada de n n tiene
grado n. Pruebe que el coeficiente de X n en el polinomio caracterstico es (1)n .
2.9 Suponga que A es una matriz cuadrada. Demuestre que el trmino constante de
A es igual a la determinante de A.
2.10 Suponga que A es una matriz cuadrada. Probar que un vector no puede ser un
autovector de A para dos diferentes autovalores.
Ejercicios 53

Definicin 2.71 Recuerde que la adjunta de una matriz A es la matriz A =


(A)T . Suponga que U es una matriz cuadrada de nn tal que U U = In . Entonces
decimos que U es una matriz unitaria.
2.11 Suponga que U es una matriz unitaria con autovalor . Probar que tiene mdulo
1, es decir | |= 1. Esto dice que todos los autovalores de una matriz unitaria
viven en el
 circulo
 del plano complejo.
a b
2.12 Sea A = K22 . Determinar todos los a, b, c K para los cuales A es
0 c
diagonalizable.
22
2.13 Probar que toda matriz A C es diagonalizable o bien es semejante a una
0
matriz del tipo .
1

2.14 Se sabe que la matriz A R22 tiene a (1, 1) como autovector de autovalor 2
y, adems, A Q[X]. Decidir si A es diagonalizable en R22 .
2.15 Sea A una matriz de 5 5 con 3 autovalores (sin contar mulltiplicidades). Su-
ponga que sabemos que un espacio propio tiene dimensin 3. Puedes decir si A es
diagonalizable?
2.16 Sea V un espacio vectorial sobre C y sea P Hom(V, V ) tal que P 2 = P . De-
muestre que
Spec(P ) {0, 1}.
2.17 Sea V un espacio vectorial sobre C y sea P Hom(V, V ) tal que P 2 = P , P 6= 0,
P 6= I. Demuestre que
Spec(P ) = {0, 1}.
2.18 Sea V un espacio vectorial sobre C y sea T Hom(V, V ) tal que T 2 = I. Demuestre
que
Spec(T ) { 1, 1}.
2.19 Sea V un espacio vectorial sobre C y sea T Hom(V, V ) tal que T m = 0 para
algn m {1, 2, . . .}. Demuestre que
Spec(T ) = {0}.
2.20 En matemticas, la sucesin de Fibonacci (a veces mal llamada serie de Fibo-
nacci) es la siguiente sucesin infinita de nmeros naturales:

0, 1, 1, 2, 3, 5, 8, 13, 21, 34, 55, 89, 144, 233, 377, 610, 987, 1597, 2584, 4181,
6765, 10946, 17711, ...

La sucesin inicia con 0 y 1, y a partir de ah cada elemento es la suma de los


dos anteriores.
A cada elemento de esta sucesin se le llama nmero de Fibonacci. Esta sucesin
fue descrita en Europa por Leonardo de Pisa, matemtico italiano del siglo XIII
tambin conocido como Fibonacci. Tiene numerosas aplicaciones en ciencias de la
computacin, matemticas y teora de juegos. Tambin aparece en configuraciones
biolgicas, como por ejemplo en las ramas de los rboles, en la disposicin de las
hojas en el tallo, en la flora de la alcachofa y en el arreglo de un cono.
54 Teoria Espectral

La sucecin de Fibonacci puede ser descrita de manera recursiva por

a0 = 0, a1 = 1, , a2 = 1, ..., an+1 = an + an1 , n 1


En el siguiente ejercicio ilustraremos una aplicacin de los autovalores y la
diagonalizacin para determinar una expressn cerrada para un trmino arbitrario
de esta sucecin.
a). Verifica que para cualquier n 1, la frmula recursiva de Fibonacci establece
que
    
an 0 1 an1
=
an+1 1 1 an
b). Demuestre que
   n  
an 0 1 a0
=
an+1 1 1 a1

 
0 1
c). Muestre que A = tiene como autovalores = 1+2 5 y = 12 5 que
1 1

satisfacen + = 1, =1, 1+ = 2 , 1 + = 2 y = 5. Muestra
1 1
que los autovectores son: y

d ). Halla una matriz S invertible tal que A = SDS 1 con D diagonal. Halla An
usando esta relacin.
e). Demuestra que
n n
   
an 1
=
an+1 n+1 n+1
f ). Concluye que
1  
an = (1 + 5)n (1 5)n
2n 5
3
Espacios con producto interno

En este captulo, se generalizarn las nociones geomtricas de distancia y perpendi-


cularidad, conocidas en R2 y en R3 , a otros espacios vectoriales. En este captulo, slo
se considerarn espacios vectoriales sobre R o sobre C.

3.1 Producto Interno


Algunas nociones geomtricas en R2 y en R3 pueden definirse a partir del produc-
to escalar. La definicin que sigue es una generalizacin del producto escalar a otros
espacios vectoriales.

3.1.1 Definicin y Ejemplos


Definicin 3.1 Sea V un espacio vectorial sobre R (respectivamente C). Un producto
interno sobre V es una funcin P hi : V V R (respectivamente C) que cumple:

1.. Para cada R (respectivamente C), y v, w, z V


(v + w, z) = (v, z) + (w, z)
(v, z) = (v, z)
2.. (v, w) = (w, v) v, w V . (Note que esta condicin implica que para cada v V
, (v, v) = (v, v), es decir que (v, v) R.)
3.. (v, v) > 0 si v 6= 0.

Si es un producto interno, escribiremos (v, w) = hv, wi.

Definicin 3.2 A un espacio vectorial real (respectivamente complejo) provisto de


un producto interno se lo llama un espacio eucldeo (respectivamente espacio unitario).

De las condiciones (1..) y (2..) de la definicin de producto interno se deduce que


si : V V R (respectivamente C) es un producto interno, para cada R
(respectivamente C), y v, w, z V se tiene que:

(v, w + z) = (v, w) + (v, z),


(v, w) = (v, w).
56 Espacios con producto interno

Ejercicio 3.3 Demuestre la frmula


* m n
+ m X
n
X X X
j uj , k wk = j k huj , wk i.
j=1 k=1 j=1 k=1

Ejemplo 3.4 Se puede comprobar que las funciones definidas a continuacin son
productos internos sobre los espacios vectoriales correspondientes:

Producto interno cannico en Rn :

((x1 , . . . , xn ), (y1 , . . . , yn )) = x1 y1 + + xn yn .

Producto interno cannico en Cn :

((x1 , . . . , xn ), (y1 , . . . , yn )) = x1 y1 + + xn yn .

Dada B Cmn , denotamos por B Cnm a la matriz transpuesta conjugada de


B, es decir, a la matriz definida por (B )ij = Bji . Se define : Cmn Cmn C
como
(A, B) = tr(A B ).

Si a < b R y C[a, b] = {f : [a, b] R |f es continua}, se define : C[a, b]C[a, b]


R como
Z a
(f, g) = f (x)g(x)dx.
b

Ejemplo 3.5 Sean u = (2 + 3i, 5 + 2i, 3 + i) y v = (1 + 2i, 4 + 5i, 5i). Hallar hu, vi
usando el producto cannico en C2 .
Solucin. Tenemos

hu, vi = (2 + 3i)(1 + 2i) + (5 + 2i)(4 + 5i) + (3 + i)(0 + 5i)


= (2 + 3i)(1 2i) + (5 + 2i)(4 5i) + (3 + i)(0 5i)
= (8 i) + (10 33i) + (5 + 15i)
= 3 19i.

Ejercicio 3.6 Muestre que en R2 el siguiente

hx, yi = x1 y1 + x1 y2 + x2 y1 + 5x2 y2 .

es un producto interno.

Como deja evidente los Ejemplos 3.4 y 3.6, dado un espacio vectorial V es posible
definir distintos productos internos sobre V . En el ejemplo siguiente veremos una familia
de productos internos en R2 .

Ejemplo 3.7 Sea : R2 R2 R definida por

((x1 , x2 ), (y1 , y2 )) = x1 y1 x1 y2 x2 y1 + x2 y2 .

Hallar todos los valores de R para los cuales es un producto interno.

Solucin. Es inmediato verificar que, para cualquier R se cumplen las condiciones


3.1 Producto Interno 57

(1..) y (2..) de la definicin de producto interno. Veamos para qu valores de se cumple


la condicin (3..). Se tiene que
(f, g) = x21 2x1 x2 + x22
= x21 2x1 x2 + x22 + ( 1)x22
= (x1 x2 )2 + ( 1)x22
De esta igualdad se deduce que (v, v) > 0 v 6= 0 > 1.
En consecuencia, es un producto interno si y solamente si > 1.
Ejercicio 3.8 Demuestre que la funcin Poln (C) Poln (C) C definida por:
n
X
hP (t), Q(t)i = ak bk ,
k=0
Pn Pn
donde P (t) = k=0 ak tk y Q(t) = k=0 bk t
k
es un producto interno en Poln (C).

3.1.2 Norma de un vector


La nocin que sigue generaliza la de longitud de un vector en R2 o R3 .
Definicin 3.9 Sea (V, h, i) un espacio vectorial sobre R (respectivamente C) con
producto interno y sea v V. Se define la norma de v asociada a h, i (y se denota kvk)
como
p
kvk = hv, vi.
Proposicin 3.10 Sea (V, h, i) un espacio vectorial con producto interno.
1.. Para cada v V , kvk 0, y kvk = 0 si y solamente si v = 0.
2.. Sean R (respectivamente C) y v V . Entonces kvk = || kvk.
3.. (Desigualdad de Cauchy-Schwartz.) Si v, w V , entonces
|hv, wi| kvk kwk.
4.. (Desigualdad del tringulo.) Si v, w V , entonces
kv + wk kvk + kwk.
Demostracin 1.. Se sigue inmediatamente de la definicin de norma.
2.. Se sigue inmediatamente de la definicin de norma.
3.. Si w = 0, no hay nada que hacer. Supongamos entonces que w 6= 0. Se tiene que
* +
hv, wi hv, wi
0 v w, v w
kwk2 kwk2
* + * +
hv, wi hv, wi hv, wi
= v, v w w, v w
kwk2 kwk2 kwk2
hv, wi hv, wi hv, wi hv, wi
= hv, vi 2
hv, wi 2
hw, vi + hw, wi
kwk kwk kwk2 kwk2
|hv, wi|2
= kvk2 .
kwk2
58 Espacios con producto interno

Esto implica que |hv, wi|2 kvk2 kwk2 , de donde se obtiene la desigualdad buscada.
4.. En primer lugar, observamos que

kv + wk2 = hv + w, v + wi
= hv, vi + hv, wi + hv, wi + hw, wi
= kvk2 + 2 Rehv, wi + kwk2 .

Entonces, teniendo en cuenta que Rehv, wi |hv, wi y aplicando la desigualdad de


Cauchy-Schwartz, resulta que

kv + wk2 kvk2 + 2|hv, wi| + kwk2


kvk2 + 2kvkkwk + kwk2
= (kvk + kwk)2 ,

de donde se deduce que kv + wk kvk + kwk.

Ejercicio 3.11 Demuestre que |hx, yi|2 = hx, xi hy, yi si y solamente si x, y son
linealmente dependientes.

La desigualdad de Cauchy-Schwartz vista en ciertos espacios vectoriales con producto


interno nos permite obtener distintas propiedades:

Ejercicio 3.12 Sean f, g C[a, b]. Entonces


Z ! 21 ! 12
b Z b Z b
2 2
f (x)g(x)dx f (x)dx g (x)dx .


a a a

Ejercicio 3.13 Demuestre que la norma asociada a un producto interno satisface la


siguiente propiedad conocida como la identidad de paralelogramo:

kx + yk2 + kx yk2 = 2(kxk2 + kyk2 ).

para toda x, y V .

En general, se puede definir una norma en un espacio vectorial V sobre R o C como


una funcin k k : V R que cumpla las condiciones (1..), (2..) y (4..) de la proposicin
3.10. En ese caso decimos que (V, k k) es un espacio normado. Una norma cualquiera
en este sentido puede no provenir de un producto interno (es decir, puede no haber
ningun producto interno tal que la norma asociada sea k k). Un ejemplo de esto es la
norma infinito en Rn , definida por k(x1 , . . . , xn )k = mx{|x1 |, . . . , |xn |}.
Dada una norma, se puede decidir si proviene o no de un producto interno, ya que
ste se puede recuperar a partir de su norma asociada:

Proposicin 3.14 (Identidades de polarizacin) 1.. Sea (V, h, i) un R-espacio vec-


torial con producto interno. Entonces para cada v, w V se tiene:
1 1
hv, wi = kv + wk2 kv wk2 .
4 4
3.1 Producto Interno 59

2.. Sea (V, h, i) un C-espacio vectorial con producto interno. Entonces para cada v, w
V se tiene:
1 1 i i
hv, wi = kv + wk2 kv wk2 + kv + iwk2 kv iwk2 .
4 4 4 4
Demostracin 1.. Si V es un R-espacio vectorial, entonces kv + wk2 = kvk2 + 2hv, wi +
kwk2 y kv wk2 = kvk2 2hv, wi + kwk2 . Entonces
 
1 1 1 1
kv + wk2 kv wk2 = hv, wi hv, wi = hv, wi.
4 4 2 2
2.. Anlogamente, si V es un C-espacio vectorial, entonces
1 1
kv + wk2 kv wk2 = Rehv, wi
4 4
Por otro lado, kv + iwk2 = kvk2 + 2 Rehv, iwi + kiwk2 = kvk2 + 2 Imhv, wi + kwk2
y, similarmente, kv?iwk2 = kvk2 2 Imhv, wi + kwk2 , lo que implica que
i i
kv + iwk2 kv iwk2 = i Imhv, wi.
4 4
La identidad del enunciado se obtiene haciendo hv, wi = Rehv, wi + i Imhv, wi.

Una norma cualquiera estar asociada a un producto interno si y solamente si la


funcin que se obtiene mediante estas identidades resulta un producto interno. En lo
que sigue, slo se considerarn normas asociadas a productos internos.

3.1.3 Distancia entre vectores


A partir de la definicin de norma de un vector, podemos definir la nocin de distancia
entre dos vectores.

Definicin 3.15 Sea V un R- (o C-) espacio vectorial con producto interno h, i. Se


define d : V V R como d(v, w) = kv wk.

Utilizando las propiedades de la norma se puede verificar que la funcin d satisface


las siguientes propiedades:

1.. d(v, w) 0 v, w V.
2.. d(v, w) = 0 v = w.
3.. d(v, w) = d(w, v) v, w V.
4.. d(v, z) d(v, w) + d(w, z) v, w, z V.

Dados vectores v, w V se dice que d(v, w) es la distancia (o mtrica) entre v y w.


Dado un conjunto no vaco cualquiera X, puede definirse una distancia en X como
cualquier funcin d : X X R que cumpla las cuatro propiedades anteriores. En ese
caso decimos que (V, d) es un espacio mtrico. Una distancia cualquiera en este sentido
puede no provenir de ninguna norma. En lo que sigue, slo trabajaremos con distancias
asociadas a normas asociadas a productos internos.
60 Espacios con producto interno

Observacin 3.16 En resumen, un espacio vectorial real o complejo con un producto


interno h, i se puede considerar como un espacio normado con la norma
p
kxk := hx, xi

y como un espacio mtrico con la mtrica


p
d(x, y) := kx yk = hx y, x yi.

La norma se puede expresar a travs de la mtrica mediante la frmula

kxk = d(x, 0),

y el producto interno se puede expresar a travs de la norma mediante la identidad de


polarizacion.

3.1.4 ngulo entre dos vectores


Sea (V, h, i) un espacio eucldeo. La desigualdad de Cauchy-Schwartz establece que
para todo par de vectores v, w V se tiene que hv, wi| kvk kwk. Si v, w 6= 0, resulta
entonces que
hv, wi
1 1.
kvk kwk
Esto nos permite introducir la siguiente nocin de ngulo entre dos vectores:

Definicin 3.17 Sea (V, h, i) un espacio eucldeo y sean v, w V no nulos. Se


define el ngulo entre v y w como el nico nmero real = (v, w) [0, ] tal que
hv,wi
cos() = kvkkwk .

Observamos que si es el ngulo entre v y w, entonces

kv + wk2 = hv + w, v + wi = kvk2 + 2hv, wi + kwk2


= kvk2 + 2 cos()kvk kwk + kwk2 ,

que es la frmula conocida como teorema del coseno.

Ejercicio 3.18 En el espacio Rn con el producto interno cannico consideremos dos


vectores: u = e1 = (1, 0, . . . , 0) es un lado del cubo unitario, v = (1, 1, . . . , 1) es la
diagonal de este cubo. Calcule el ngulo entre (u, v). Calcule el lmite de (u, v)
cuando n .

3.1.5 Matriz de Gram de un producto interno en una base de


vectores
Si V es un espacio vectorial de dimensin finita con un producto interno h, i, fijada
una base de V , vamos a construir una matriz asociada al producto interno y a dicha
base.

Definicin 3.19 Sea V un R-(respectivamente C-) espacio vectorial de dimensin


finita, sea h, i un producto interno sobre V y sea = {v1 , . . . , vn } una base de V. Se
3.1 Producto Interno 61

define la matriz de Gram del producto interno h, i en la base = {v1 , v2 , . . . , vn } como


la matriz
G() = G(v1 , . . . , vn )i,j = hvi , vj i.

Ejemplo 3.20 En el espacio Pol2 (R) con el producto interno


Z 1
1
hf (t), g(t)i = f (t)g(t)dt
2 1

y la base cannica {1, t, t2 }. Calculear la matriz de Gram.


Solucin. Primero, calculamos todos los productos internos:

h1, 1i = 1, h1, xi = 0, h1, x2 i = 31 ,


hx, 1i = 0, hx, xi = 13 , hx, x2 i = 0,
hx2 , 1i = 13 , hx2 , xi = 0, hx2 , x2 i = 51 ,

De aqu:
1
1 0 3
G(1, x, x2 ) = 0 1
3 0
1 1
3 0 5

Ejercicio 3.21 En el caso real, la matriz de Gram es simtrica:

G(v1 , . . . , vn )T = G(v1 , . . . , vn ).

Ejercicio 3.22 En el caso complejo, la matriz de Gram es hermitiana, es decir,


T
G(v1 , . . . , vn ) = G(v1 , . . . , vn ).

Proposicin 3.23 Sea V un R-(o C-) espacio vectorial de dimensin finita y sea h, i
un producto interno sobre V . Sea una base de V . Entonces, para cada v, w V , se
tiene que
hv, wi = [v] G()[w]T .
Pn Pn
Demostracin Sea = {v1 , . . . , vn }. Supongamos que v = i=1 i vi y w = i=1 i vi .
Entonces
* n + * +
X n
X Xn n
X Xn n
X
hv, wi = i vi , j vj = i vi , j vj = i j hvi , vj i .
i=1 j=1 i=1 j=1 i=1 j=1

Por otro lado, teniendo en cuenta que [v] = (1 , . . . , n ) y [w] = (1 , . . . , n ), resulta


que

n
X   X n Xn
hv, wi = [v] G()[w]T = i G()[w]T = i hvi , vj ij .
i,j
i=1 i=1 j=1

Luego hv, wi = [v] G()[w]T .


62 Espacios con producto interno

3.2 Ortogonalidad
En esta seccin generalizaremos la nocin conocida de perpendicularidad en R2 y
algunas propiedades que se basan en esta nocin, a espacios vectoriales con producto
interno arbitrarios.

3.2.1 Conjuntos ortogonales y ortonormales


Definicin 3.24 Sea (V, h, i) un espacio vectorial con producto interno. Dos vectores
v, w V se dicen ortogonales (o perpendiculares) si hv, wi = 0 y lo denotamos por v w.
Es siguiente ejercicio muestra que la ortogonalidad de dos vectores es una relacin
binaria simtrica. Es una relacin de equivalencia?
Ejercicio 3.25 Sean x, y V tales que x y. Muestre que y x.
Observacin 3.26 (Teorema de Pitgoras) Si v, w V son vectores ortogonales,
entonces kv + wk2 = kvk2 + kwk2 .
Definicin 3.27 Sea v V y sea X V . Decimos que v es ortogonal al conjunto X
y escribimos v X si v es ortogonal a cualquier vector del conjunto X, es decir,
v X x X, v x.
Ejercicio 3.28 Sea V un espacio vectorial con producto interno. Muestre que 0 V.
Ejercicio 3.29 Cul vector es ortogonal a si mismo?. Es decir, halle todos los vectores
u V que cumplen con la propiedad u u.
Ejercicio 3.30 Sea u V tal que u V .Demuestre que u = 0.
Resumiendo los resultados de los Ejercicios 3.28 y 3.30 obtenemos:
Proposicin 3.31 (Criterio de la ortogonalidad de un vector a todo el espacio) Sea
V un espacio vectorial con producto interno y u V . Entonces
u V u = 0.
Ejercicio 3.32 Sea X V con V un espacio producto interno y sea v V . Entonces
las siguientes condiciones son equivalentes:
v hXi v X.
Definicin 3.33 Sea (V, h, i) un espacio vectorial con producto interno. Un vector
v V se dice unitario (o normalizado) si kvk = 1. Si v V {0}, entonces el vector
v
kvk est normalizado.

Definicin 3.34 Sea (V, h, i) un espacio vectorial con producto interno. Se dice que
{v1 , . . . , vr } V es un conjunto ortogonal si hvi , vj i = 0 para toda i 6= j. El conjunto
se dice ortonormal si es ortogonal y adems kvi k = 1 para cada 1 i r.
Ejemplo 3.35 En Rn (o Cn ) con el producto interno cannico, la base cannica es
un conjunto ortonormal:
hei , ej i = 0 si i 6= j.
3.2 Ortogonalidad 63

kei k2 = hei , ei i = 1 para cada 1 i n.


Ejemplo 3.36 En R2 con el producto interno cannico, el conjunto {(1, 1), (1, 1)}
es un conjunto ortogonal,
pues h(1, 1), (1,1)i = 0. Este conjunto no es ortonormal,
ya que k(1, 1)k = 2 6= 1 y k(1, 1)k = 2 6= 1. A partir de este conjunto podemos
hallar uno que es ortonormal dividiendo
n  cada uno  de ellos
 oentre su norma, es decir,
1
, 1 1 1
normalizamos. Entonces el conjunto 2 2
, 2 , 2 es ortonormal.

Ejemplo 3.37 Los siguientes vectores a1 , a2 , a3 forman un sistema ortogonal en R4 :


a1 = (1, 1, 1, 1), a2 = (1, 1, 1, 1), a3 = (2, 1, 2, 1).
Calculemos los productos internos:
ha1 , a1 i = 4, ha1 , a2 i = 0, ha1 , a3 i = 0,
ha2 , a1 i = 4, ha2 , a2 i = 0, ha1 , a3 i = 0,
ha3 , a1 i = 4, ha3 , a2 i = 0, ha3 , a3 i = 10,
Normalizando los vectores a1 , a2 , a3 obtenemos un conjunto ortonormal:
1 1 1 1 1 1 1 1 2 1 2 1
a1 = ( , , , ), a2 = ( , , , ), a3 = ( , , , ).
2 2 2 2 2 2 2 2 10 10 10 10
Ejercicio 3.38 Muestre que el siguiente conjunto de vectores en R4 es ortogonal y
normalcelo:
a1 = (1, 2, 3, 1), a2 = (1, 3, 2, 1), a3 = (8, 3, 1, 1).
Ejercicio 3.39 En el espacio vectorial complejo C([, ], C) con el producto interno:
Z
hf (x), g(x)i = f (x)g(x)dx

consideremos las funciones


ek (x) = eikx = cos(kx) + i sen(kx).
Muestre que el sistema (ek )kZ es ortonormal.
Ejercicio 3.40 (El Teorema de Pitgoras generalizado) Sea a1 , . . . , am un conjunto
ortogonal en el espacio producto interno V . Demuestre que
2
X m Xm
a = kak k2 .

k

k=1 k=1

Si (V, h, i) es un espacio vectorial con producto interno, la matriz de Gram asociada


a h, i en una base ortogonal (u ortonormal) de V es particularmente simple:
Observacin 3.41 Si (V, h, i) es un espacio vectorial de dimensin n con producto
interno, entonces = {v1 , . . . , vn } es una base de V ortogonal para h, i si y solamente
si
hv1 , v1 i

0 0
0 hv2 , v2 i 0
G(v1 , . . . , vn ) = .

. .
. . . ..
. . . .
0 0 hvn , vn i
64 Espacios con producto interno

En particular, es una base ortonormal de V si y solamente si


0 0

1
0 1 0
G(v1 , . . . , vn ) = . .. = In .

.. . .
.. . . .
0 0 1
Si se tiene una base ortogonal de un subespacio, las coordenadas en esta base de cual-
quier vector del subespacio pueden encontrarse fcilmente usando el producto interno:
Proposicin 3.42 Sea (V, h, i) un espacio vectorial con producto interno. Sea {v1 , . . . , vr }
V un conjunto ortogonal tal que vi 6= 0 para cada 1 i r y sea v una combinacin
lineal de los vectores {v1 , . . . , vr }:
r
X
v= j vj .
j=1

Entonces
hv, vj i
j = .
kvj k2
Demostracin Para cada 1 j r, calcule directamente el producto interno hv, vj i.

Corolario 3.43 Sea (V, h, i) un espacio vectorial con producto interno. Sea {v1 , . . . , vr }
V un conjunto ortonormal y sea v una combinacin lineal de los vectores {v1 , . . . , vr }:
r
X
v= j vj .
j=1

Entonces
j = hv, vj i.
Ejercicio 3.44 Escriba una prueba del Corolario 3.43.
Teorema 3.45 Sea (V, h, i) un espacio vectorial con producto interno. Sea {v1 , . . . , vr }
V un conjunto ortogonal de V con vi 6= 0 para cada 1 i r. Entonces {v1 , . . . , vr } V
es un conjunto linealmente independiente.
Demostracin Supongamos que
r
X
j vj = 0.
j=1

Aplicamos la Proposicin 3.43 con v = 0, para cada 1 j r:


h0, vj i
j = = 0.
kvj k2

Corolario 3.46 Sea (V, h, i) un espacio vectorial con producto interno. Sea {v1 , . . . , vr }
V un conjunto ortonormal de V. Entonces {v1 , . . . , vr } V es un conjunto linealmente
independiente.
3.3 El proceso de ortogonalizacin de Gram-Schmidt 65

Ejercicio 3.47 Escriba una prueba del Corolario 3.46.

Ejercicio 3.48 Sea (V, h, i) un espacio vectorial con producto interno y {v1 , . . . , vr }
V un conjunto ortonormal de V . Demuestre que:

1.. Sean v y w una combinacin lineal de los vectores {v1 , . . . , vr }, entonces:


r
X
hv, wi = hv, vi ihw, vi i
i=1

2.. Sea v una combinacin lineal de los vectores {v1 , . . . , vr }, entonces:


r
! 21
X
kvk = |hv, vi i|2
i=1

3.3 El proceso de ortogonalizacin de Gram-Schmidt


En lo que sigue, intentaremos encontrar bases ortonormales en un espacio vectorial
de dimensin finita con producto interno. Comenzaremos haciendo esto en un ejemplo.

Ejemplo 3.49 Se considera en R2 el producto interno definido por




(x1 , x2 ), (y1 , y2 ) = x1 y1 x1 y2 x2 y1 + x2 y2

con > 1. Hallar una base de R2 ortogonal para este producto interno.
Solucin. Elegimos un vector en R2 , por ejemplo, (1, 0). Buscamos un vector ortogonal
a ste para el producto interno dado, es decir, un vector (y1 , y2 ) R2 tal que


0 = (1, 0), (y1 , y2 ) = y1 y2 ,

por ejemplo, (y1 , y2 ) = (1, 1). Entonces {(1, 0), (1, 1)} es una base ortogonal de R2 .

Ejercicio 3.50 Ortonormaliza la base hallada en el Ejemplo 3.49.

La proposicin siguiente asegura que todo espacio vectorial de dimensin finita con
producto interno tiene una base ortogonal. Ms an, su demostracin da un procedi-
miento recursivo, conocido como el mtodo de ortogonalizacin de Gram-Schmidt, que
permite obtener una base ortogonal del espacio a partir de una base cualquiera del
mismo.

Teorema 3.51 (Mtodo de ortogonalizacin de Gram-Schmidt) Sea (V, h, i) un es-


pacio vectorial con producto interno y sea {v1 , . . . , vn } una base de V . Existe un base
ortogonal = {z1 , . . . , zn } de V tal que

`(v1 , . . . , vk ) = `(z1 , . . . , zk ).

para cada 1 k n.

Demostracin Construiremos los vectores de la base recursivamente:

Tomamos z1 = v1 , que satisface `(z1 ) = `(v1 ).


66 Espacios con producto interno

Buscamos z2 V con hz2 , z1 i = 0 y tal que `(z1 , z2 ) = `(v1 , v2 ). Esta segunda


condicin se cumple si y solamente si z2 es de la forma z2 = av1 + bv2 con b 6= 0.
Podemos suponer entonces que b = 1, es decir, z2 = v2 + av1 y buscar a de manera
que se cumpla la primera condicin:

0 = hz2 , z1 i = hv2 + av1 , v1 i = hv2 , v1 i + ahv1 , v1 i,

lo que implica que


hv2 , v1 i
a= .
kv1 k2
Luego, el vector
hv2 , v1 i hv2 , v1 i
z2 = v2 v1 = v2 z1
kv1 k2 kv1 k2
satisface las condiciones requeridas.
Supongamos construidos z1 , . . . , zr V tales que
1.. hzi , zj i = 0 si i 6= j.
2.. `(z1 , . . . , zk ) = `(v1 , . . . , vk ) para toda 1 k r.
Consideramos el vector
r
X hvr+1 , zi i
zr+1 = vr+1 zi . (3.1)
i=1
kzi k2

Se tiene que
1.. `(z1 , . . . , zr , zr+1 ) = `(z1 , . . . , zr , vr+1 ) = `(v1 , . . . , vr , vr+1 ),
2.. para cada j r:
* r
+
X hvr+1 , zi i
hzr+1 , zj i = vr+1 zi , zj
i=1
kzi k2
r
X hvr+1 , zi i
= hvr+1 , zj i hzi , zj i
i=1
kzi k2
hvr+1 , zj i
= hvr+1 , zj i hzj , zj i
kzj k2
= 0.

Luego, zr+1 satisface las condiciones requeridas.

De esta manera, al concluir el n-simo paso se obtiene una base ortogonal {z1 , . . . , zn }
de V que adems satisface `(z1 , . . . , zk ) = `(v1 , . . . , vk ) para cada 1 k n.

Corolario 3.52 Sea (V, h, i) un espacio vectorial con producto interno y sea {v1 , . . . , vn }
una base de V . Existe un base ortonormal = {w1 , . . . , wn } de V tal que

`(v1 , . . . , vk ) = `(w1 , . . . , wk ).

para cada 1 k n.

Ejercicio 3.53 Redacte una prueba del Corolario 3.52.


3.3 El proceso de ortogonalizacin de Gram-Schmidt 67

Corolario 3.54 Sea (V, h, i) un espacio vectorial de dimensin finita con producto
interno, y sea S un subespacio de V , S 6= {0}. Entonces existe una base ortonormal
de V que contiene una base ortonormal de S.

Demostracin Sea {s1 , . . . , sr } una base de S. Existen vr+1 , . . . , vn V tales que


= {s1 , . . . , sr , vr+1 , . . . , vn } es una base de V . Aplicando el proceso de Gram-Schmidt
a se obtiene una base ortonormal 0 = {w1 , . . . , wr , wr+1 , . . . , wn } de V que satisface

`(w1 , . . . , wr ) = `(s1 , . . . , sr ) = S.

En consecuencia, {w1 , . . . , wr } es una base ortonormal de S incluida en la base orto-


normal 0 de V .

Ejemplo 3.55 Aplique la ortogonalizacin de Gram-Schmidt al siguiente conjunto de


vectores {v1 , v2 , v3 } :

v1 = (4, 2, 1, 2), v2 = (6, 3, 4, 8), v3 = (5, 5, 3, 4).

Usando la matriz de Gram compruebe que el sistema de vectores {z1 , z2 , z3 } que se


obtiene al final es ortogonal.
Solucin.

Comenzamos tomando z1 como el primer vector de la base: z1 = (4, 2, 1, 2).


Construimos ahora z2 aplicando la frmula (3.1) para r = 1:
hv2 , z1 i h(6, 3, 4, 8), (4, 2, 1, 2)i
z2 = v2 2
z1 = (6, 3, 4, 8) (4, 2, 1, 2)
kz1 k k(4, 2, 1, 2)k2
= (6, 3, 4, 8) + 2(4, 2, 1, 2)
= (2, 1, 2, 4).
Finalmente, hallamos z3 aplicando nuevalmente la frmula (3.1) para r = 2:
hv3 , z1 i hv3 , z2 i
z3 = v3 z1 z2
kz1 k2 kz2 k2
h(5, 5, 3, 4), (4, 2, 1, 2)i h(5, 5, 3, 4), (2, 1, 2, 4)i
= (5, 5, 3, 4) (4, 2, 1, 2) (2, 1, 2, 4)
k(4, 2, 1, 2)k2 k(2, 1, 2, 4)k2
= (5, 5, 3, 4) (1)(4, 2, 1, 2) (1)(2, 1, 2, 4)
= (1, 2, 4, 2).

La comprobacin:
1

4 2
4 2 1 2 25 0 0
2 1 2
G(z1 , z2 , z3 ) = 2 1 2 4
1
= 0 25 0 .
2 4
1 2 4 2 0 0 25
2 4 2

Ejercicio 3.56 Ortogonalizar el siguiente conjunto de vectores en R4 :

v1 = (2, 4, 5, 2), v2 = (6, 5, 1, 6), v3 = (10, 13, 4, 3).

Ejercicio 3.57 Ortonormalizar el siguiente conjunto de vectores en R4 :

v1 = (5, 1, 1, 3), v2 = (9, 3, 3, 7), v3 = (7, 1, 1, 1), v4 = (5, 5, 1, 5).


68 Espacios con producto interno

Ejemplo 3.58 Dada la base = {(1, 0, i), (1, 1, 2+i), (0, 0, 1)} de C3 , ortonormalizarla
usando el mtodo de Gram-Schmidt.
Solucin. Denotaremos por v1 = (1, 0, i), v2 = (1, 1, 2 + i) y v3 = (0, 0, 1).
Comenzamos tomando z1 como el primer vector de la base: z1 = (1, 0, i).
Construimos ahora z2 aplicando la frmula (3.1) para r = 1:
hv2 , z1 i h(1, 1, 2 + i), (1, 0, i)i
z2 = v2 z1 = (1, 1, 2 + i) (1, 0, i)
kz1 k2 k(1, 0, i)k2
= (1, 1, 2 + i) (1 i)(1, 0, i)
= (i, 1, 1).
Finalmente, hallamos z3 aplicando nuevamente la frmula (3.1) para r = 2:
hv3 , z1 i hv3 , z2 i
z3 = v3 z1 z2
kz1 k2 kz2 k2
h(0, 0, 1), (1, 0, i)i h(0, 0, 1), (i, 1, 1)i
= (0, 0, 1) (1, 0, i) (i, 1, 1)
k(1, 0, i)k2 k(i, 1, 1)k2
i 1
= (0, 0, 1) + (1, 0, i) (i, 1, 1)
2 3
i 1 1
=( , , ).
6 3 6
El conjunto {z1 , z2 , z3 } es una base ortogonal de C3 . Dividiendo cada vector por su
norma, obtenemos
 
z1 1 1 i
w1 = = (1, 0, i) = , 0, .
kz1 k 2 2 2
 
z2 1 i 1 1
w2 = = (i, 1, 1) = , , .
kz2 k 3 3 3 3
!

 
z3 i 1 1 6i 6 6
w3 = = 6 , , = , , .
kz3 k 6 3 6 6 3 6

tales que {w1 , w2 , w3 } es una base ortonormal de C3 que cumple `(v1 ) = `(w1 ) y
`(v1 , v2 ) = `(w1 , w2 ).

3.4 Complemento ortogonal

Das könnte Ihnen auch gefallen