Sie sind auf Seite 1von 57

Indice general

Diagonalizaci
on
En general ser
an de dimensi
on finita a menos que se diga lo contrario
Vectores y valores propios
Definici
on. Para T : V V una transformacion lineal (con V no
necesariamenre de dimensi
on finita) un elemento x de V distinto de cero
y un escalar en K se llaman un vector propio de T , si T (x) = x. Es
decir, es un valor propio si existe x 6= 0, tal que T (x) = x, x es un
vector propio si existe K tal que T (x) = x.
Definici
on. Para T : V V una transformacion lineal (con V no necesariamente de dimensi
on finita) y K un valor propio, definimos
E = {x V |T (x) = x} como el espacio propio de T .
Proposici
on 1. Sean T : V V un operador y un valor propio.
Entonces E es un subespacio.
Demostraci
on Primero T (0) = 0 = 0, entonces 0 E . Sean
x, y E y a K,
T (x + ay) = T (x) + aT (y)
= x + ay
= (x + ay)
Por lo que x + ay E y E es un subespacio de V.
Definici
on. Para un operador T en V y un valor propio , definimos a
la multiplicidad geometrica de como la dimension de E .
Ejemplos
3

Diagonalizacion
1. T : V V dada por T (x) = 0 tiene como valor propio a 0 y
E0 = V .
2. T : R2 R2 una rotaci
on por un
angulo que no sea m
ultiplo de
, T no tiene valores propios.
3. T : R2 R2 dada por T (x, y) = (2x, 5y) tiene como valores
propios 2 y -5 con E2 el eje x y E5 el eje y.
4. D : R[x] R[x], con D(p) = p0 0 es un valor propio con E0 =
P0 (R) los polinomios de grado menor o igual a 0.
5. D : (R) (R), con D(f ) = f 0 1 es un valor propio con
E1 , < ex > generalizando para R, E < ex > .

El siguiente es un criterio muy u


til para saber si un escalar K es
un valor propio.
Proposici
on 2. Sea T un operador en V (no necesariamente de dimensi
on finita) y K. es un valor propio de T si y s
olo si nuc(T 1V ) 6=
0
Demostraci
on
) Si es un valor propio de T entonces existe v V con v 6= 0 tal
que T (v) = v, por lo que (T 1V )(v) = 0 y nuc(T 1V ) 6= 0.
) Si nuc(T 1V ) 6= 0 entonces existe v nuc(T 1V ) con v 6= 0,
por lo que (T 1V )(v) = 0 y T (v) = v.
Proposici
on 3. Sea T un operador en V . Son equivalentes:
1. es un valor propio de T
2. nuc(T 1V ) 6= 0
3. T 1V es no invertible
Demostraci
on
Ejercicio.
Sin la hip
otesis de la dimensi
on finita, la equivalencia anterior no es
necesariamente cierta, por ejemplo
Si V = K[x] y T (p) = p0 , tenemos que 0 es valor propio, pero T no
es invertible.
Pero en general se tiene que 1. o 2. implican 3.

0. Vectores y valores propios


5
Recordando que si T es un operador en V (no necesariamente de
dimensi
on finita) y n N definimos
T 0 = 1V
T n+1 = T T n
por lo que para p K[x] un polinomio con coeficientes n K, si
p(x) = a0 + a1 x1 + ... + an xn
definimos
p(T ) = a0 1V + a1 T + ... + an T n
Proposici
on 4. Sean T un operador en V (no necesariamente de dimensi
on finita) y un valor propio. Entonces:
1. K es un valor propio de T n , para n N
2. Para a K, es un valor propio de aT
3. Para p K[x], p() es un valor propio de p(T )
Demostraci
on
Ejercicio.
Definici
on. Un operador T en V (no necesariamente de dimension finita)
es nilpotente si existe n N tal que T n = 0.
Proposici
on 5. Si T es un operador en V (no necesariamente de dimensi
on finita), T es nilpotente y un valor propio entonces es 0.
Demostraci
on Por hip
otesis existe n N T n = 0, por lo que n es
un valor propio del operador 0, por lo que n = 0 y de aqu = 0.
Identificamos a K n con Mn1 (K) y recordamos que toda matriz A
Mn (K) define un operador en K n , TA : K n K n dado por TA (x) = Ax.
Cuando hablemos de los valores propios o vectores propios de una matriz
A nos referiremos a los valores propios y vectores propios de TA .

Diagonalizacion
Polinomio Caracterstico
El polinomio caracterstico de un operador T en V , lo definimos como
pT () = det([T 1V ] )

donde es una base ordenada, notemos que pT () = det([T ] I)


donde I es la matriz identidad. Hay que ver que el polinomio caracterstico
no depende de la elecci
on de la base , as que consideremos otra base
ordenada
pT ()det([T ] I)
=det([1V ] )det([T ] I)det([1V ] )
=det([1V ] ([T ] I)[1V ] )
=det([T ] I)
Usamos el hecho de que el determinante abre la multiplicacion y
([1V ] )1 = [1V ] .
Proposici
on 6. Si T es un operador en V , el coeficiente principal de su
polinomio caracterstico es (1)n donde n es la dimensi
on de V .
Demostraci
on Por inducci
on sobre n
Sea una base ordenada de V y A = [T ] .
Si n = 1, pT () = det(A I) = A11 .
Ahora el paso inductivo
pT () =det(A I)
=

n+1
X

(1)n+1+i (A I)n+1i det((A\


I)n+1i

i=1

n
X

(1)n+1+i An+1i det((A\


I)n+1i )

i=1

+ (An+1n+1 )det((A\
I)n+1n+1 )
Observemos que

0. Polinomio Caracterstico
7

det((A\
I)n+1i ) =

sgn( )

Sn

n
Y

((A\
I)n+1i )j (j)

j=1

Qn

\
I)n+1i )j (j) es un polinomio de grado a lo mas
\
n. Por otro lado det((A I)
) = det(An+1n+1 I) = pT
()
por lo que

j=1 ((A

n+1n+1

A
n+1n+1

por hip
otesis de inducci
on tiene coeficiente principal (1)n , por lo que

(An+1n+1 )det(An+1n+1 I) tiene coeficiente principal (1)n+1 , por


lo observado anteriormente los dem
as polinomios tienen grado menor o
igual a n, por lo que el coeficiente principal debe ser (1)n+1 .
Corolario 1. Sea T un operador en V y dimV = n, entonces pT = n.
La utilidad del polinomio caracterstico se sigue de la siguiente observaci
on.
Observaci
on Para T un operador en V y una base de V , tenemos
que x V es un vector propio de T si y s
olo si [x] es un vector propio
de [T ] . Tambien K es un valor propio de T si y solo si es un valor
propio de [T ] .
Demostraci
on
Ejercicio.
Recordando que es un valor propio de T si y solo si T IV es no
invertible, tenemos que es un valor propio de T si y solo si [T ] I es
no invertible y esto u
ltimo es equivalente a que det([T ] I) = 0. Por
lo que llegamos a que es un valor propio de T si y solo si pT () = 0. El
problema de encontrar valores propios se lleva a encontrar races de un
polinomio.
Ejemplo 1. Sea T : K 2 K 2 dado por T (x, y) = (x + y, x y) y
consideramos = {(1, 0), (0, 1)}, no hay que complicarnos la vida puesto

Diagonalizacion

que cualquier base funciona, en general elegiremos la canonica




1 1
[T ] =
1 1


1
1
pT () =det
1
1
=(1 )(1 ) 1
= 1 + + 2 1

=2 2 = ( 2)( + 2)

Las races del polinomio caracterstico son 2, 2 y por lo tanto


son valores propios. Queremos encontrar un vector propio para cada valor
propio, es decir, un elemento no cero de nuc(T IV ), es decir, buscamos
una soluci
on no trivial


   
1
x
0
=
1
y
0

Primero en el caso de = 2
1
1

(1 2)x +
y = 0
x + (1 2)y = 0

Haciendo
x
=
1,
encontramos
que
y
=
2

1.
Verificando
T
(1,
21 =

( 2, 2 2) = 2(1, 2 1) En el caso de = 2


(1 + 2)x +
y = 0
x + (1 + 2)y = 0

De nuevo
= 1 2, calculando
elegimos
x = 1y llegamos
a que y
T (1, 1 2) = ( 2, 2 + 2) = 2(1, 1 2).
Lo
unico que necesitamos en este ejemplo es que 2 K, en el caso
de Z3 esto no se da 02 = 0, 12 = 1 y 22 = 1.


Diagonalizaci
on
Definici
on. Una matriz D Mn (K) la llamamos diagonal si Dij = 0
siempre que i 6= j, es decir, una matriz cuadrada es diagonal si fuera de
su diagonal solo toma el valor 0.

0. Diagonalizaci
on
9

1
0

 
0
1
,
1
0

 
0
1
,
0
0


0
2

Definici
on. Un operador T en V es diagonalizable si existe una base
de V tal que [T ] es una matriz diagonal.
Proposici
on 7. Para T un operador en V son equivalentes
1. T es diagonalizable
2. Existe base de V de vectores propios
Demostraci
on
1. 2.) Si T es diagonalizable existe tal que [T ] es diagonal.
Si ponemos = {v1 , ..., vn }, tenemos que [T (vi )] = [T ] [vi ] , si
calculamos su jesima coordenada tenemos
[T (vi )]j1 =([T ] [vi ] )j1
=
=

n
X

[T ]jk [vi ]k1

k=1
n
X

[T ]jj jk ki

k=1

=[T ]jj ji
Lo que quiere decir que T (vi ) = [T ]ii vi .
2. 1.) Si existe una base = {v1 , ..., vn } de vectores propios con
T (vi ) = i vi , lo que quiere decir que [T ]ij = [T (vj )]ii = 0, si i 6= j.
Para llevar esto a
un m
as al lenguaje de matrices, recordamos que dos
matrices A, B representan al mismo operador si existe Q GLn (K) tal
que A = QBQ1 , cuando esto pasa decimos que son semejantes, damos
naturalmente la siguiente definici
on.
Definici
on. Una matriz cuadrada es diagonalizable si es semejante a una
matriz diagonal.
Proposici
on 8. Para T un operador en V , son equivalentes
1. T es diagonalizable
2. Para toda base de V , tal que [T ] es diagonalizable

10

Diagonalizacion
3. Existe base de V , tal que [T ] es diagonalizable
Demostraci
on

1. 2.) Si T es diagonalizable, existe base de V tal que [T ] es


diagonal, sea una base de V , [1V ] [T ] [1V ] = [T ] , y como [1V ] es
invertible con inversa [1V ] , tenemos que [T ] es semejante a una matriz
diagonal.
2. 3.) Obvio.
3. 1.) Si [T ] es diagonalizable, entonces existe Q GLn (K)
con Q[T ] Q1 = D con D una matriz diagonal. Consideramos que Q
representa un operador que podemos poner Q = [S] para alg
un operador
S en V , notemos que Q1 = [s1 ] , de aqu [ST S 1 ] = D por lo que
tenemos que si = {v1 , ..., vn } entonces ST S 1 (vi ) = Dii vi , por lo que
T (S 1 (vi )) = Dii (S 1 (vi )), es decir S 1 (v1 ), ..., S 1 (vn ) son vectores
propios y como S 1 es un isomorfismo, son una base de vectores propios.

Recordatorio de Suma Directa
Pn
Sean Vi V i = 1, ..., n subespacios, la suma i=1 Vi es el subespacio
formado por los elementos de la forma v1P+ ... + vn con vi Vi para toda
n
i = 1, ..., n. Diremos que el
directa, si
Psubespacio i=1 Vi es una sumaL
n
para cada i = 1, ..., n Vi j6=i Vj = 0 y lo denotaremos por i=1 Vi .
Proposici
on 9. Sean Vi V y dim(V
Pn i = 1, ..., n. La suma
Pni ) = mi para
de los Vi es directa si y s
olo si dim( i=1 Vi ) = i=1 .
Demostraci
on
Ejercicio.
Pk
olo si para
Proposici
on 10. Sean Vi V . i=1 Vi es suma directa si y s
Sk
cualesquiera i Vi linealmente independiente, i=1 i es linealmente
independiente. En este caso la uni
on siempre resutar
a ajena.
Proposici
on 11. Sea T un operador en V , v1 , ..., vn vectores propios
de 1 , ..., n con i 6= j si i 6= j, entonces v1 , ..., vn son linealmente
independientes.

0. Recordatorio de Suma Directa


11
Demostraci
on
Por inducci
on sobre n.
Si n = 0, el conjunto de vectores es vaco y por lo tanto linealmente
independiente.
Si n = 1, v1 es linealmente independiente por ser distinto de cero.
Suponemos v
alido para n, y suponemos que v1 , ..., vn+1 son linealmente dependientes, como v1 , ..., vn son linealmente independientes entonces
vn+1 = 1 v1 + ... + n vn
Aplicando T y multiplicando por n+1 obtenemos las siguientes dos igualdades.
n+1 vn + 1 =1 v1 + ... + n n vn
n+1 vn + 1 =n+1 v1 + ... + n n+1 vn
despejando obtenemos
1 (1 n+1 )v1 + ... + n (n n+1 )vn = 0
Por hip
otesis de inducci
on
i (i n+1 ) = 0
pero i n+1 6= 0 por hip
otesis, por lo que i = 0 para i = 1, ..., n lo
que implica que vn+1 = 0! contradiciendo el hecho de que vn+1 era un
vector propio. 
Corolario 2. Sea T un operador en V con dimV = n y n valores propios
diferentes. Entonces T es diagonalizable.
Demostraci
on. Para cada i existe un vector propio vi , el conjunto
{v1 , ..., vn } es linealmente independiente y junto con la hipotesis de que
dimV = n tenemos que v1 , ..., vn es una base de vectores propios de V.
Corolario 3. Sean T un operador en V y 1 , ..., n valores propios de T
diferentes entre s. Entonces la suma de los Ei es directa.
Demostraci
on
P
Sea vi Ei j6=i Ej entonces vi = v1 + ... + vi1 + vi+1 + ... + vk
con vj Ej para j = 1, ..., k entonces despejando a 0 tenemos que
v1 , ..., vk son linealmente dependientes por lo que la u
nica manera que
esto paseP
y no se contradiga la proposici
on anterior es que v1 = 0, por lo
que Ei | j6=i Ej = 0.

12

Diagonalizacion

Definici
on. Un polinomio p K[x] se escinde en K, si existen , 1 , ..., k
K (no necesariamente diferentes) tales que p(x) = (x 1 )...(x k ).
Proposici
on 12. Sea T un operador en V diagonalizable entonces pT se
escinde.
Demostraci
on Sea una base de V de vectores propios, entonces
[T ] = D es una matriz diagonal, por lo que pT () = det(D I) =
(D11 )...(Dnn ) = (1)n ( D11 )...( Dnn )
Definici
on. Para T un operador en V y un valor propio de T definimos la multiplicidad algebraica de como la multiplicidad de en el
polinomio caracterstico pT , es decir, el mayor k tal que (x )k |pT (x).
Proposici
on 13. Sea T un operador en V tal que pT se
P escinde en K y
mi la multiplicidad algebraica de i entonces dimV =
mi .
Proposici
on 14. Sea T un operador en V y un valor propio de T ,
entonces la multiplicidad geometrica de es menor o igual a la multiplicidad algebraica de .
Demostraci
on. Sea {v1 , ..., vk } una base de E ,y la extendemos

A1 A2
a una de V , = {v1 , ..., vk , ..., vn } entonces [T ] =
donde
0 A3
A1 = I Mk (k), A2 Mknk (k), A3 Mnk (k) y 0 Mnkk (k)
pT (x) =det([T ] xI)
=det(A1 xI)det(A3 xI)
=(1)k (x )k det(A3 xI)
por lo que (x )k |pT (x).
Proposici
on 15. Sea T un operador en V con dimV = n, tal que pT se
escinde en K y 1 , ..., k los valores propios de T (diferentes) entonces
son equivalentes:
1. T es diagonalizable
2. La multiplicidad algebraica coincide con la geometrica para todo
valor propio.
Demostraci
on.

0. Polinomio Mnimo

13

1. 2.) Si T es diagonalizable existe una base de vectores propios


Sk
llamamos i = Ei , notamos que = i=1 i , es la union ajena de
los i . Calculando
n =||
=

k
X

|i |

i=1

k
X

dim(Ei )

i=1

n
Pk

De aqu i=1 dim(Ei ) = n.


Si llamamos mi a la multiplicidad algebraica de i , sabemos que
Pk
i=1 mi = n. Por lo que dim(Ei ) = mi para todaSi = 1, ..., k.
k
2. 1.) Sea i una base de Ei , entonces = i=1 i , por hipotesis
es linealmente independiente entonces
|| =

k
X

|i |

i=1

k
X

dim(Ei )

i=1

k
X

mi

i=1

=n
Por lo que es base y de vectores propios. 
Polinomio Mnimo
Recordemos que para T un operador en V le habamos dado un sentido a p(T ) donde p es un polinomio en K[x]. Sin profundizar mucho,
recordemos de cursos pasados que en un anillo conmutativo R, si definimos a divide a b, para a, b R, como que existe c R tal que ac = b, esta
relaci
on nos da un preorden, es decir, la relaci
on es reflexiva y transitiva.
Todo esto para dar la siguiente definici
on.

14

Diagonalizacion

Definici
on. Sea T un operador de V , el polinomio mnimo de T , pT ,
lo definimos como el mnimo polinomio m
onico de K[x] distinto de cero,
que con el preorden mencionado anteriormente hace que pT (T ) = 0.
Proposici
on 16. Sea T un operador en V , entonces pT existe y es u
nico.
Demostraci
on. Sea n = dimV , entonces dim(End(V )) = n2 por lo
n2
que 1V , T, ..., T son n2 +1 vectores que deben ser linealmente dependien2
tes por lo que existen a0 , ..., an2 K tales que a0 1V +a1 T +...+an2 T n =
2
0 con alg
un ai 6= 0 por lo que p(x) = a0 +a1 x+...+an2 xn es un polinomio
que anula a T .
Ahora consideramos
I = {q N|q K[x] con q 6= 0 y q(T ) = 0}
Claramente I N y p I, por lo que I 6= , ahora por el principio
del buen orden existe un mnimo en m I, ese m es el grado de un
polinomio f distinto de cero que anula a T , ahora veamos que es mnimo
con respecto al preorden de la divisibilidad.
Sea g K[x] tal que g(T ) = 0, g 6= 0 y m g entonces por el
algoritmo de la divisi
on en polinomios existen h, r K[x] tales que
g = f h + r con r < f = m
Valuando en T
0 = g(T ) =f (T )h(T ) + r(T )
=0 h(T ) + r(T )
=r(T )
por lo que r(T ) = 0 si r es un natural tendramos que r I!
contradiciendo que f es mnimo, por lo que r = y r = 0. As que
g = f h y f |h. La siguiente observaci
on nos dara el truco de la unicidad,
ya que tenemos el grado m, todos los polinomios de grado m que anulan
a T son mnimos, pero si f y f 0 son dos polinomios que cumplen esto,
entonces existe a K tal que af = f 0 . Como f |f 0 existe h K[x]
f h = f 0 , pero m = (f 0 ) = (f h) = (f ) + (h) = m + (h) de donde
(h) = 0, por lo que h = a con a K. El regreso tambien se vale, es
decir, si f tiene grado m, f (T ) = 0 y a K entonces af tiene grado m
y af (T ) = 0. Por que el conjunto de polinomios de grado m que anulan
a T , todos son m
ultiplos por un escalar.

0. Subespacios T invariantes

15

Sabemos que existe al menos un polinomio f tal que f (T ) = 0 y f =


m. Si f no es m
onico entonces su coeficiente principal a es distinto de cero,
por lo que a1 f es m
onico y cumple lo deseado, por lo que llamemos pT =
1
a f . Si f es otro polinomio m
onico que cumple lo deseado, entonces
pT = bf 0 con b K, pero pT , bf 0 tienen el mismo coeficiente principal,
en este caso el de pT es 1 y el de bf 0 es b, por lo que b = 1 y pT = f 0 , es
decir, pedirle que sea m
onico le da unicidad. 
Corolario 4. Si T es un operador en V con dimV = n entonces (pT )
n2 .
Observaci
on. Si T es el operador cero, entonces pT (x) = x.
Ejemplos
1. Sea T : K 2 K 2 dado por T (x, y) = (y, x), notemos que T 2 =
1K 2 por lo que T 2 1K 2 = 0, en este caso pT (x) = x2 1 =
(x 1)(x + 1), es f
acil observar que ni x 1 ni x + 1 anula a T .
Ahora un peque
no c
alculo para plantear cierta conexion


1
pT () = det
= 2 1 = pT ()
1
2. Sea T : K[x] K[x], dado por T (f ) = f 0 , y veamos que T no
tiene polinomio mnimo, puede ser confuso pero no imposible,
sea p K[x] un polinomio para que anule a T , se necesita que
p(T ) = 0, es decir, que p(T )(f ) = 0, siendo mas explcitos, si
p(x) = a0 + a1 x + ... + an xn ,
p(T )(f ) = a0 f + a1 f 0 + ... + an f (n)
donde f (i) denota la iesima derivada, por lo que pedir que
p(T )(f ) = 0 es pedir que a0 f +a1 f 0 +...+an f (n) = 0 si tomamos el
caso particular de f = xn entonces p(T )(xn ) = b0 +b1 x+...+bn xn
donde bi = ani (ni)! con i = 0, ..., n que si pedimos que K = R
o C, vemos que p(T )(xn ) 6= 0 al menos que p originalmente fuese
cero, por lo cual T no tiene polinomio mnimo. . . . . . . . . . .
Subespacios T invariantes
Definici
on. Sea T un operador en V y W V , decimos que W es un
espacio T invariante, W T V , si T (V ) V . Pedir esta propiedad hace
sentido en que para W T V tenemos que T |W es un operador en W .

16

Diagonalizacion
Ejemplos.
1. 0 T V
2. nucT T V
3. V T V
4. imT T V

Proposici
on 17. Sea T un operador en V y W T V , entonces pT |W |pT .
Demostraci
on.
Sea una base de W y la completamos a una base de V , entonces


[T ] A
[T ] =
0
B
por lo que
pT () =det([T ] I)
=det([T ] I)det(B I)
=pT |W ()det(B I)
de aqu pT |W ()|pT ().
Proposici
on 18. Sea TQun operador en V con V =
m
Vi T V , entonces pT = i=1 pT |vi .

Lm

i=1

Vi donde

Demostraci
on.
Ejercicio
Observaci
on. Para T un operador en V , W T V y f K[x],
f (T |W ) = f (T )|W
Ejercicio
Proposici
on 19. Sea T un operador en V con W T V entonces
pT |W |pT .
Demostraci
on.
pT (T |W ) = pT (T )|W = 0|W = 0 por la minimalidad de pT |W , concluimos que pT |W |pT .
Definici
on. Para T un operador en V y x V definimos < x >T como
el subespacio generado por {T n (x)|n N}, lo llamaremos el subespacio
T cclico generado por x.
Proposici
on 20. Sea T un operador en V entonces pT = mcm{pT |<x>T |x
V }.

0. Subespacios T invariantes

17

Demostraci
on.
Primero ponemos
pT = mcn{pT |<x>T |x V }
de la proposici
on anterior tenemos
pT |<x>T |pT x V
es decir, pT es un m
ultiplo com
un, de lo que se sigue que m|pT .
Por la parte de ser un com
un m
ultiplo tenemos que pT<x>T |m, para
toda x V . As que existe hx tal que pT<x>T hx = m, valuando T (x) en
la igualdad anterior
m(T )(x) =(hx (T ) pT<x>T (x))(x)
=hx (T )(pT<x>T (T (x)))
=hx (T )(0)
=0
Es decir, m anula a T , por lo que pT<x>T |m. Como los dos son monicos
y se dividen entre s, no queda m
as que sean iguales. 
Lema 1. Sea T un operador en V con dimV = n y < x >T = V para
alg
un V , entonces x, T (x), ..., T n1 (x) es una base de V .
Demostraci
on.
Si para alg
un r N+ ,
T r (x) < x, T (x), ..., T r1 (x) >
entonces {T k (x)|k N} {x, T (x), ..., T r1 } por lo que V <
x, T (x), ..., T r1 (x) > y de aqu que x, T (x), ..., T r1 (x) genere, del curso
pasado sabemos que r n.
Dentro del mismo contexto sabemos que existe al menos un r con la
propiedad antes mencionada, en caso contrario tendramos que para todo
k N+ T k (x) <
/ x, T (x), ..., T k1 (x) > por lo que {x, T (x), ..., T k1 (x)}
sera linealmente independiente para toda k N resultando en que V
sera de dimensi
on infinita.

18

Diagonalizacion
Lo anterior es para poder definir
s = mn{r N+ |T r (x) < x, T (x), ..., T r1 (x) >}

y que este exista dado que el conjunto es no vaco. Tengamos en


cuenta que para s tambien se tiene s n.
Por como se eligi
o s, x, T (x), ..., T s1 (x) es linealmente independiente
por lo que s n, de aqu s = n. Como ya se haba notado, de aqu se
deduce el hecho de que x, T (x), ..., T n1 (x) es base. 
En la demostraci
on anterior usamos mucho el hecho de que si tenemos
un conjunto linealmente independiente S, entonces S {x} es linealmente
independiente si y solo si x <
/ S >.
Teorema 1. Sea T un operador en V con dimV = n y V =< x >T para
alg
un x V , entonces pT = pT .
Demostraci
on
Por la proposici
on anterior = {x, T (x), ..., T n1 (x)} es base de V .
Calculando [T ] tenemos

0
1


[T (x)] = 0
..
.
0

0
0


[T 2 (x)] = 1
..
.
0

0. Subespacios T invariantes

19


0
0


[T n2 (x)] = 0
..
.
1
y si T n (x) = a0 x + a1 T (x) + ... + an1 T n1 (x) entonces

a0
a1
..
.

[T n (x)] =

an1
Por lo que

0
1

[T ] = 0
..
.

0
0
1
..
.

..
.

0
0
0
..
.

a0
a1
a2
..
.

an1

Ahora

PT () = det 0
..
.
0
Calculando tenemos

1
..
.

..
.

0
0
0
..
.

a0
a1
a2
..
.

an1

20

Diagonalizacion

pT () = det 0
..
.

1
..
.

..
.

0
0
0
..
.

an1

0 1

1 0
0
1

0
n+1
0
1
+(1)
a0 det
..
..
..
.
.
.
0
0
0
0

a0
a1
a2
..
.

..
.

0
0
0

Como ejercicio queda demostrar que el u


ltimo determinante vale 1.
Notemos que el pen
ultimo determinante tiene la misma forma que el
original, por lo que repitiendo el proceso llegamos a que
pT () = (1)n (n an1 n1 ... a1 a0 )
Evaluando x en pT (T ) tenemos
pT (T )(x) = (1)n (T n (x) an1 T n1 (x)... a1 T (x) a0 x) = 0
De este hecho se sigue que pT (T )(T i (x)) = 0 para i = 0, ..., n 1 por
lo que PT (T ) anula a y por lo tanto anula a V , de aqu pT (T ) = 0 y
pT |pT .
Ahora si ponemos a pT () = b0 + b1 + ... + bm1 m1 + con m n
y evaluamos a T y evaluamos a T tenemos que
0 = pT (T ) = b0 1V + bT + ... + bm1 T m1 +
en particular valdra para x. Si m < n, entonces b0 x + b1 T (x) + ... +
bm1 T m1 (x) + T m (x) = 0, lo cual contradice la independencia lineal de
x, T (x), ..., T m (x), por lo que m = n y como pT |pT tenemos que pT = apT
con a K, como pT es m
onico y el coeficiente principal de pT es 1, se
sigue el resultado. 

0. Subespacios T invariantes

21

Teorema 2 (Cayley-Hamilton). Sea T un operador en V , entonces pT (T ) =


0, es decir, pT |pT .
Demostraci
on
Sabemos que para x V
pT |<x>T = pT |<x>T
y que
pT |<x>T |pT
por lo que pT |<x>T |pT , es decir, pT es un com
un m
ultiplo de pT |<x>T
corriendo por x V , y como pT es el mnimo com
un m
ultiplo pT |pT .
Proposici
on 21. Sea T un operador en V . T es diagonalizable si y solo
si pT (x) = (x 1 )...(x k ) con 1 , ..., k diferentes entre s.
Demostraci
on
) Como T es base, existe base de vectores propios, consideremos
q(x) = (x 1 )...(x k )
donde 1 , ..., k son los distintos valores propios de T , tomemos v ,
entonces T (v) = j para alg
un j de 1 a k, entonces
q(T )(v) =((x 1 )...(x j1 )(x j+1 )...(x k ))(T ) ((x j )(T ))(v)
=((x 1 )...(x j1 )(x j+1 )...(x k ))(T )(T (v) j v)
=((x 1 )...(x j1 )(x j+1 )...(x k ))(T )(0)
=0
Por lo que q(T ) anula a toda la base y as que q(T ) = 0 y de
aqu pT |q. Por otro lado
pT (j )v = pT (T )(v) = 0

22

Diagonalizacion

y como v es un vector propio es distinto de cero por lo que pT (j ) = 0


y de aqu que los j sean races de pT , por lo que q|pT , ahora como los
dos son m
onicos y se dividen entre s q = pT .
) Si pT (x) = (x 1 )...(x k ) con 1 , ..., k diferentes. La demostraci
on se har
a por inducci
on sobre k y hacemos la observacion que por
el teorema anterior los i son valores propios de T .
Base: Si k = 1, entonces 0 = pT (T ) = (x 1 )(T ) = T 1V por lo
que T = 1V y obviamente T es diagonalizable.
Si k = 2 entonces 0 = pT (T ) = (T 1 1V )(T 2 1V ). Por el algoritmo
de la divisi
on tenemos
x 1 = (x 2 )1 + (2 1 )
de aqu
((x 1 ) (x 2 ))(2 1 )1 = 1
Por lo que aplicando T , tenemos
((T 1 1V ) (T 2 1V ))(2 1 )1 = 1V
Para todo v V
(T 2 1V )((2 1 )1 (T 1 1V )(v)) =(2 1 )1 (T 2 1V )(T 1 1V )(v)
=(2 1 )1 0(v)
=0
entonces (2 1 )1 (T 1 1V )(v) E2 .
An
alogamente (2 1 )1 (T 2 1V )(v) E1 .
Con lo anterior, para toda v V
v = (2 1 )1 (T 1 1V )(v) (2 1 )1 (T 2 1V )(v)
por lo que v E1 + E2 de aqu V = E1 + E2 .

0. Subespacios T invariantes

23

Para cuando k > 2 y se vale para k, primero notemos que por hipotesis de inducci
on S = T |Pk E es diagonalizable por lo que pS (x) =
i=1
i
(x 1 )...(x k ) por hip
otesis de inducci
on, por otro lado pS (x) y
(x k+1 son coprimos por lo que existen f, g K[x]
1 = pS f + (x k+1 )g
Sea v V ,
pS (T ) (x k+1 g(T )(v) =gpS (T )(x k+1 )(T )(v)
=gpT (T )(v)
=0
Por lo que ((x k+1 )g)(T )(v) nucpS (T ).
Pk
Af. nucpS (T ) i=1 Ei . Ejercicio
Por otro lado
(x k+1 ) (pS f )(T )(v) =pT f (T )(v)
=f (T )(pT (T )(v))
=f (T )(0)
=0
Por lo que pS f (T )(v) Ek+1 .
P

k
As para toda v V , v
E
+ Ek+1 .

i
i=1
Pk+1
Por lo que V = i=1 Ei .

Formas Bilineales
Definici
on. Una forma bilineal en un Kespacio V es na funcion B :
V V K tal que:
Para x, x0 , y, y 0 V y K,
1. B(x + x0 , y) = B(x, y) + B(x0 , y)
2. B(x, y + y 0 ) = B(x, y) + B(x, y 0 )
3. (B(x, y) = B(x, y) = B(x, y)
esto es que sea lineal en cada variable.
Ejemplos
1. V = K n con n natural
B(
x, y) =

n
X

xi yi

i=1

2. V = I([a, b]) las funciones integrables en el intervalo ([a, b]) con


b

Z
B(f, g) =

f (x)g(x)dx
a

3. V = K n y A Mn (K)
B(
x, y) = x
A
yt
Definici
on. Para V un Kespacio, Bil(V ) es el conjunto de todas las
formas bilineales sobre K.
25

26

Formas Bilineales

Proposici
on 22. Para V un Kespacio, Bil(V ) es un Kespacio.
Demostraci
on
Notemos que Bil(V ) K V V y como K vV es un Kespacio basta
ver que Bil(V ) es un subespacio.
Primero 0(v, w) = 0 es una forma bilineal, por lo tanto 0 Bil(V ).
Despues sean B, B 0 Bil(V ) y K. Para x, x0 , y, y 0 V y K
(B + B 0 )(x + x0 , y) =B(x + x0 , y) + B 0 (x + x0 , y)
=B(x, y) + B 0 (x0 , y) + (B 0 (x, y) + B(x0 , y))
=B(x, y) + B(x0 , y) + B 0 (x, y) + B 0 (x0 , y)
=(B + B 0 )(x, y) + (B + B 0 )(x0 , y)
An
alogamente
(B + B 0 )(x, y 0 ) = (B + B 0 )(x, y) + (B + B 0 )(x, y 0 )
Tambien
(B + B 0 )(x, y) =B(x, y) + B 0 (x, y)
=B(x, y) + B 0 (x, y)
=(B + B 0 )(x, y)
An
alogamente
(B + B 0 )(x, y) = (B + B 0 )(x, y)
Por lo tanto B + B 0 Bil(V )
Por lo tanto Bil(V ) es un Ksubespacio y espacio en su propio
derecho.
Del ejemplo 3 se tiene que las matrices representan algunas formas
bilineales por lo que es natural preguntar si representa a todas, sobreentendiendo que hablamos del caso de dimensi
on finita.

27
Definici
on. Sea B : V V K una forma bilineal sobre V con V de
dimensi
on finita y = {v1 , ..., vn } una base de V , definimos la matriz
asociada a la forma B para la base como
ij = B(vi , vj )
B
si no hay riesgo a confusi
on omitiremos la base, es decir nos queda
remos con B
Proposici
on 23. Sea B Bil(V ) y = {v1 , ..., vn } una base de V ,
.
entonces B(v, w) = [v]t B[w]
Demostraci
on
Para ver esto fijamos v V y basta ver que

[B(v, )] = [v]t B
Calculando

ij =
([v]t B)
=
=

n
X

kl
[v]t1k B

k=1
n
X

[v]tik B(vk , vj )

k=1
n
X

B([v]tik vk , vj )

k=1

=B(

n
X

[v]tik vk , vj )

k=1

=B(v, vj )
=[B(v, )]j
Proposici
on 24. Sea : Bil(V ) Mn (K) para alguna base finita de
V , entonces es un isomorfismo.

28

Formas Bilineales
Demostraci
on
Ponemos a = {v1 , ..., vn }.
Primero veamos que es lineal.
Sean B, B 0 Bil(V ) y K
\0 )ij =(B + B 0 )(vi , vj )
(BB
=B(vi , vj ) + B 0 (vi , vj )
ij + B0 ij
=B

Ahora demostraremos que es lineal dando la inversa : Mn (K)


Bil(V ) ponemos A := (A) y definimos
A (v, w) = [v]t A[w]
Notemos que es lineal, para A, A0 Mn (K) y K
A+A0 (v, w) =[x]t (A + A0 )[w]
=[x]t A[w] + [x]t A0 [w]
=A (v, w) + A0 (v, w)
Comprobemos que son inversas
Sea B Bil(V )

B (v, w) =[v]t B[w]
=B(v, w)
por la proposici
on anterior.
B = B
Sea A Mn (K),

29

(c
A )ij =A (vi , vj )
=[vi ]t A[vj ]
=(it Aj )ij
=

n
X

(it A)ik kj

k=1

=(it A)ij
=

n
X

t
ik
Akj

k=1

=Aij
(c
A ) = A
El resultado anterior contesta la pregunta de si las formas bilineales
son representadas por las matrices y m
as a
un lo hacen de manera u
nica
y lineal.
Definici
on. Una forma bilineal B es simetrica si B(v, w) = B(w, v).

es simetrica.
Proposici
on 25. B es simetrica si y solo si B
Demostraci
on

Sea = {v1 , ..., vn } la base en la que esta B.


ij =B(vi , vj )
B
=B(vj , vi )
ji
=B
es simetrica, entonces
Si B

30

Formas Bilineales


B(v, w) =[v]t B[w]
t [w]tt
=[v]t B

)t
=([w]t B[v]

=[w]t B[v]
Definici
on. Una forma bilineal es antisimetrica si B(v, w) = B(w, v).
es antisimetrica.
Proposici
on 26. B es antisimetrica si y solo si B
Demostraci
on
Tarea.
Definici
on. B Bil(V ) es alternante si B(v, v) = 0.
Proposici
on 27. Si 1 + 1 6= 0, entonces son equivalentes
1. B es alternante.
2. B es antisimetrica.
Demostraci
on
) 0 = B(v + w, v + w) = B(v, v) + B(v, w) + B(w, v) + B(w, w) =
B(v, w) + B(w, v)
Por lo que B(v, w) = B(w, v)
) Si B(v, v) = B(v, v) entonces 2B(v, v) = 0
Por lo que B(v, v) = 0.
Observaci
on. De la demostraci
on se sigue que aunque 1 + 1 = 0,
alternante implica antisimetrica.
Observaci
on. En el caso de que 1 + 1 = 0, se tiene que 1 = 1, por
lo que

31

B(v, w) = B(w, v) = B(w, v)


ser antisimetrico es lo mismo que ser simetrico.
es antisimetriProposici
on 28. B Bil(V ) es alternante si y solo si B

ca y Bii = 0.
Demostraci
on
Sea = {v1 , ..., vn }
ij = B(vi , vj ) = B(vj , vi ) = B
t
) B

ij

ii = B(vi , vi ) = 0
B
)

B(v, v) =[v]t B[v]
=
=

n
X
k=1
n
X

1k [v]
([v]t B)
k1
n
X
jk )[v]
( [v]tij B
k1

k=1 j=1

n k1
X
X

jk [v] +
[v]tij B
k1

k=1 j=1

n k1
X
X
k=1 j=1

n
n
X
X

jk [v]
[v]tij B
k1

k=1 j=k+1

jk [v] +
[v]tij B
k1

n
n
X
X

t )[v]tt
[v]ij (B
jk
k1

k=1 j=k+1

=0.
Ejercicio. Sean SB(V ) = {B BIl(V )|B es simetrica} y AB(V ) =
{B Bil(V )|B es antisimetrica}. Si 1 + 1 6= 0 entonces Bil(V ) =
SB(V ) AB(V ).
Ahora veamos que relaci
on existe si cambiamos la base, si tenemos
y B
.
= {v1 , ..., vn } y = {w1 , ..., wn }, c
omo est
an relacionados B
Pn
Si ponemos wj = i=1 ij vi , entonces

32

Formas Bilineales

B(wi , wj ) =
=

n
X
k=1
n
X

ki B(vi , wj )
n
X

ki B(vi , vj )mj

k=1 m=1

S donde S = [IV ] .
= S t B
Por lo que B
Veamos que si calculamos el determinante
) =det(S t B
S)
det(B
)
=det(S)2 det(B
Como cualquier matriz invertible se puede usar como un cambio de
base, el conjunto de todos los determinantes que se le pueden asociar a
una forma bilineal B son todos los m
ultiplos de los otros por un cuadrado
del campo K.
Definici
on. El discriminante de B una forma bilineal lo definimos por

dis(B) = {a2 det(B)|a


K}
notemos que por lo observado anteriormente no depende de la elec
ci
on de una base particular para B
Si dis(B) 6= {0} diremos que B es una forma no degenerada.
Definici
on. Definimos el radical izquierdo de B Bil(V )
radL (B) = {v V |w V B(v, w) = 0}
y el radical derecho por
radR (B) = {v B|w V B(w, v) = 0}

33
Proposici
on 29. Sea V de dimensi
on finita, son equivalentes para B
Bil(V ):
1. B es no degenerada.
2. radL (B) = {0}
3. radR (B) = {0}
Demostraci
on
1. 2. Si radL (B) 6= {0}, entonces existe v radL (B) con v 6= 0,
por lo que existe una base = {v1 , v2 , ..., vn } con v1 = v. Notemos que la
tiene en su primer columna todas las entradas cero por hipotematriz B
) = 0, por lo que dis(B) = {0}! contradiciendo el
sis. Por lo que det(B
hecho de que B fuese no degenerada.
3. 1. Supongamos que no se cumple que B no es no degenerada,
= 0, elegimos una base de V , por lo que de lo u
por lo que det(B)
ltimo
[v] = 0 de aqu que para todo
se sigue existe V con v 6= 0, tal que B
[v] = 0 de donde v radR (B) por lo que
w V B(w, v) = [w]t B
6= {0}.
radR (B) 6= {0}! por lo tanto det(B)
Definici
on. Una forma bilineal se llama reflexiva si B(v, w) = 0 implica
B(w, v) = 0.
Definici
on. Si B es una forma bilineal reflexiva diremos que v es ortogonal a w si B(v, w) = 0 y lo denotaremos por v w,notemos que pedir
que B sea reflexiva es para que la relaci
on sea reflexiva.
Definici
on. Para S V y B una forma bilineal reflexiva, definimos el
complemento ortogonal de S para B como S = {v V |B(v, w) = 0
para todo w S}.
Proposici
on 30. Sea B una forma bilineal reflexiva, S, T V . Entonces:
1. S V

34

Formas Bilineales
2. S S
3. Si S T entonces T S
4. S =< S >

Definici
on. Sea B una forma bilineal reflexiva y W V , el radical de
W en B lo definimos como radB (W ) = W W . Diremos que W es un
subespacio no degenerado si radB (W ) = 0.

Proposici
on 31. Sea B una forma bilineal reflexiva en V un espacio
de dimensi
on finita y W un subespacio no degenerado de V , entonces
V = W W .
Demostraci
on
Por hip
otesis W W = 0. Para ver que V = W + W demostraremos que dimV = dimW + dimW . Pongamos que dimV = n y
dimW = k y consideremos una base de W , {v1 , ..., vk } y extendamosla
a una base de V con los elementos {vk+1 , ...,P
vn }. Tomamos v W y
n
lo expresamos como combinaci
on lineal v = i=1P
i vi , tenemos por un
n
lado que B(vi , v) = 0 para i = 1, ..., k entonces j=1 j B(vi , vj ) = 0
Pn
= 0 para i = 1, ..., k por lo que [v]
para i = 1, ..., k de aqu j=1 j B
ij
es anulado por la matriz de k n formada por los primeros k renglones
, entonces dimW n k por el teorema de la dimension, de
de B
aqu dimW + dimW n k + k = n.
W + W = W.
Formas Cuadr
aticas
Definici
on. El grado de un monomio en n variables xk11 xk22 ...xknn lo definimos como k1 + k2 + ... + kn .

Definici
on. Una forma cuadr
atica naria sobre un campo K es un polinomio p en n variables tal que es una combinacion lineal de monomio
de grado 2.

0. Formas Cuadr
aticas

35

Ejemplos
1. p(x, y, z) = xy + yz + z 2
2. p(x, y) = x2 + xy + y 2
3. p(x) = 2x2
4. p(x, y, z, w) = zw + w2 + x2 + yx
Observaci
on. Si consideramos una matriz A en Mn (K), p(x) =
xAxt es un polinomio en n variables, m
as a
un
p(x) =

n
X

x1i (Axt )i1

i=1

n
X

n
X
x1i (
Aij xtj1 )

i=1
j=1
n
n
XX

x1i Aij xij

i=1 j=1
n X
n
X

Aij xi xj

i=1 j=1

que es una combinaci


on lineal de polinomios monicos de grado dos,
por lo que p es una forma cuadr
atica.
Dos matrices pueden inducir la misma forma cuadratica, por ejemplo

A=


1
0

1
1

 
x
p(x, y) = x y A
y
 
 x
= x+y x
y


=x2 + xy + xy
=x2 + 2xy

36

Formas Bilineales


B=

q(x, y) = x
= x


2
0

1
0

 
x
y B
y
 
 x
2x
y


=x2 + 2xy
Supondremos que 1 + 1 6= 0.
Para una forma cuadr
atica q, en n variables

q(x) =

n X
i
X

aij xi xj

i=1 j=1

podemos poner a aij = aji , de este modo la matriza Aq dada por



Aij =

aij
2
aii

si i 6= j
si i = j

induce a la forma cuadr


atica q 0 es decir xAq xt = q(x). Definimos
QFn (K) el conjunto de formas cuadr
aticas en n variables sobre K.
Proposici
on 32. QFn (K) K[x1 , ..., xn ].
Proposici
on 33. Hay un isomorfismo entre SMn (K), las matrices simetricas de n n y QFn (K).
Demostraci
on
Definimos : SMn (K) QFn (K) por (A) = qA donde qA (x) =
xAxt y : QFn (K) SMn (K) (q) = Aq como se describio anteriormente.
 2Aij
Pn Pn
si i 6= j
2
Primero qA (x) = i=1 j=1 Aij xi xj por lo que (AqA )ij =
Aii
si i = j

0. Formas Cuadr
aticas

37

lo que lleva a que (AqA )ij = Aij .


Por lo que A = AqA .
Por otro lado,

qAq (x) =
=

n X
n
X
i=1 j=1
n X
n
X
i=1 j=1

n X
i
X

Aqij xi xj
n

X
aij
xi xj +
aii x2i
2
i=1
aij xi xj

i=1 j=1

=q(x).
Tambien, toda forma cuadr
atica q QFn (K) induce una forma bilineal simetrica en Bil(K n )
Bq (x, y) =

1
(q(x + y) q(x) q(y))
2

y toda forma bilineal B induce una forma cuadratica


qB (x) = B(x, x)
Ejercicio

Operadores Normales. Supondremos que K = C y que V es un


Kespacio de dimensi
on finita con producto interior < , >.
Definici
on. T un operador en V se llama normal si T T = T T .

Proposici
on 34. Sea T un operador normal en V . Entonces C es
es valor propio de T .
un valor propio de T si y solo si

38

Formas Bilineales
Demostraci
on

Sea v V con v 6= 0 y T (v) = v entonces T (v) v = 0,


entonces < T 1V (v), Y 1V (v) >= 0
entonces < v, (T 1V )(v) >= 0
entonces < v, (T 1V )(T 1V ) (v) >= 0
entonces < (T 1V ) (v), (T 1V ) (v) >= 0
V )(v), (T 1
V )(v) >= 0
entonces < (T 1

entonces T (v) = (v).


= .
Para el regreso solo basta recordar que (T ) = T y
Proposici
on 35. Sea T un operador normal en V 6= 0 entonces T es
diagonalizable.
Demostraci
on
Sean 1 , ..., k los distintos valores propios de T , entonces
k
M

Ei V

i=1

si la contenci
on es propia entonces

W =

M
k


Ei

6= 0

i=1

Consideremos w W y v Ei , entonces
< T (w), v >= < w, T (v) >
iv >
= < w,
= < w, v >
= 0
=0
Por lo que T (w) W .

0. Formas Cuadr
aticas

39

Ahora pT |W |pT , como pT |W C[x], pT |W tiene una raz , por lo que


existe
 x W V , con x 6= 0 T (x) = T |W (x) = x, lo que implica que
Lk
x
i=1 Ei !.
Por lo que la contenci
on no puede ser propia, por lo tanto V =
E
.
i=1 i

Lk

Observaci
on. Si T = f (T ) con f C[x], entonces T es normal.

Proposici
on 36. Sea T un operador en V entonces T es normal si y
solo si T tiene una base ortogonal de vectores propios.
Demostraci
on
Si T es normal entonces T es diagonalizable por lo que V =
i=1 Ei donde los i son los distintos valores propios de T , consideramos una base ortogonal i en Ei , sean vi i y vj j , entonces
Lk

i < vi , vj >= < i vi , vj >


= < T (vi ), vj >
= < vi , T (vj ) >
j vj >
= < vi ,
=j < vi , vj >
Si < vi , vj >6= 0 entonces i 6= j ! por lo que < vi , vj > y de aqu se
Sk
tiene que = i=1 i es una base ortogonal de vectores propios.
) Si V tiene una base ortogonal de vectores propios entonces tiene
una base ortonormal de vectores propios, por lo que [T ] es diagonal y
[T ] = [T]t pero por ser diagonal [T ] = [T] . Claramente [T ] [T ] =
[T ] [T ] . Por lo que T T = T T .

40

Formas Bilineales
Operadores Autoadjuntos

Ahora cambiemos a C por R y recordemos que un operador T en V


se llama autoadjunto si T = T .

Proposici
on 37. Sea T un operador autoadjunto en V entonces T es
diagonalizable.
Demostraci
on
Consideremos base de V y n = dimV , entonces podemos pensar
V como Rn y a Rn metido en Cn m
as a
un esto extiende [T ] como
transformaci
on lineal de Rn en Rn a una de Cn en Cn .
Como [T ] es un operador sobre C, tiene al menos un valor propio
es un valor propio de [T ] , pero por hipotesis T = T ,
C, m
as a
un

por lo que y son valores propios de [T ] entonces existe v Cn con


v 6= 0 y

v =[T ] v
=[T ] v

=v
por lo que R. Por lo que T tiene todos
como v 6= 0 entonces = ,
sus valores propios reales. Sean 1 , ..., k los diferentes valores propios de
Lk
on propia definimos
T , si i=1 Ei V es una contenci

W =

M
k
i=1

Sea w W y v Ei , entonces


Ei

6= 0

0. Operadores Unitarios

41

< t(w), v >= < w, T (v) >


= < w, v >
= < w, v >
=0
Por lo que W es T invariante y por la unicidad del adjunto tenemos
que T |W = (T |W ) . Por lo que su w 6= 0 T |W sera autoadjunto pudiendo
encontrar un valor propio de T |W !.
Corolario 5. Toda matriz simetrica en R es diagonalizable.
Operadores Unitarios
Un operador se llama unitario si preserva el producto interior.
Proposici
on 38. Sea T un operador normal en C V entonces T es unitario si y solo si V tiene una base ortonormal de vectores propios con
valores propios de norma 1.
Demostraci
on
) Primero existe una base ortonormal de vectores propios, mas
a
un para v
1 =||v||
=||T (v)||
=||v||
=||||v||
=||
) Sea = {v1 , ..., vn } la base de la hip
otesis, como T () = {T (v1 ), ..., T (vn )} =
{1 v1 , ..., n vn } que es un conjunto ortonormal, entonces T es unitario.


42

Formas Bilineales
Teorema Espectral
Aqu nos olvidaremos de la hip
otesis de dimension finita.

Definici
on. Si T es un operador en V , y V = W U a modo de que si
v V se ve como v = w + u con w W y u U , entonces
T (v) = w
en este caso se le llamar
a a T la proyecci
on de W atraves de U y se
QW
denotar
a por U .
Ejemplos
OX,
por lo que
1. R2 = OX

OY
Y

(x, y) = (x, 0)

OX

OY
OX
(x, y) = (0, y)

2. Consideremos para a R , la = {(x, ax) R2 |x R},


la
la
0x
(x, y) =0x
((x y/a, 0) + (y/a, y))

=(x y/a, 0)
3. Si HI 6= 0, P (K) = {f K K |f es par } y I(K) = {f K K |f es
I(K)
(x)
impar} entonces K K = I(K) P (K) P (K) (f )(x) = f (x)f
2
Proposici
on 39. Sea T un operador en V entonces T es una proyecci
on
si y solo si T es idempotente.

0. Teorema Espectral

43

Demostraci
on
)
) Si T es idempotente entonces
V =imT nucT
imT
T =nucT

W
Definici
on. Llamaremos a una proyecci
on ortogonal U
si U = W y

W
= W , en este caso denotaremos a la proyeccion por W .

Recordemos que si V tiene dimensi


on finita para todo subespacio W
se da que W = W
Proposici
on 40. Sea T un operador en V entonces T es una proyecci
on
ortogonal si y solo si T es idempotente y normal.
Demostraci
on
) Sea T = W para W V . Sean v, w V tales que v = v1 + v2 y
w = w1 + w2 con v1 , w1 W y v2 , w2 W
< W (v), w >= < v1 , w1 + w2 >
= < v1 , w1 > + < v1 , w2 >
= < v1 , w1 >
< v, W (w) >= < v1 + v2 , w1 >
= < v1 , w1 > + < v1 , w2 >
= < v1 , w1 >

Por lo que < W (v), w >=< v, W (w) > de aqu W = W


por lo
que T es autoadjunto y por lo tanto normal.

) Se tienen que demostrar dos cosas, nucT = (imT ) y que imT =


(imT ) .
Primero nucT = (imT )

44

Formas Bilineales

) Sea v nucT , entonces v = 0 o v es un vector propio de cero, en


el segundo caso tenemos que es un vector propio de T con valor propio
cero conjugado, que es cero, por lo que nucT = nucT . (Esto porque T
es normal).
Sea w V , entonces
< v, T (w) >=< T (v), w >=< 0, w >= 0
Por lo que v (imT ) .
) Sea w (imT ) entonces t(w) imT calculando

< T (w), T (w) >= < w, T T (w) >


= < w, T (T (w)) >
=0
Por lo que T (w) = 0, por lo tanto (imT ) = nucT .
Para la segunda parte siempre tenemos que imT (imT ) . Por lo
que sea v (imT ) , sabemos que como T es idmpotente v = T (v) +
(v T (v)), ahora v T (v) nucT = (imT ) entonces < v, v T (v) >=
0(v (imT ) ). Por otro lado T (v) imT (imT ) . Por lo que
< T (v), v T (v) >= 0, de esto que

< v T (v), v T (v) >= < v, v T (v) > < T (v), v T (v) >
=0
De aqu v T (v) = 0 por lo que T (v) = v, esto es que v imT , por
lo tanto imT = (imT ) .
Proposici
on 41. Sea W V con W = W , entonces W (v) es el
elemento de W m
as cercano a v.

0. Teorema Espectral

45

Demostraci
on
Primero v = W (v) + (v W (v)) y v W (v) nucT = (imT ) =
W .
Ahora

||v w||2 = < v w, v w >


= < W (v) + (v W (v)) w, W (v) + (v W (v)) w >
= < W (v) w, W (v) w > + < v W (v), v W (v) >
=||W (v) w||2 + ||v W (v)||2
||v W (v)||2
lo que implica que ||v w|| ||v W (v)||

Teorema 3 (Teorema Espectral). Sea T un operador en V de dimensi


on
finita. Si T es normal, si K = C y autoajunto, si K = R con 1 , ..., k
los diferentes valores de T y Ti = Ei entonces
1. Si Ei =

j6=1

Ej entonces (Ei ) = Ei

2. Ti Tj = ij Ti
3. 1V =
4. T =

Pk

i=1

Pk

i=1

Ti

i Ti

Demostraci
on
Primero notemos que como T es diagonalizable V =

Lk

i=1

Ei

1. T es autoadjunto entonces T es normal. Ahora sean v Ei y


w Ej con i 6= j, entonces

46

Formas Bilineales

i < v, w >= < i v, w >


= < T (v), w >
= < v, T (w) >
j w >
= < v,
=j < v, w >
entonces (i j ) < v, w >= 0 como i j 6= 0 entonces <
v, w >= 0. Con esto tenemos que Ei (Ej ) , si i 6= j esto implica que
Ej (Ej ) . Como tenemos que V = Ej Ej y V = Ej (Ej )
llegamos a que dimEj = dim((Ej ) ) que unido con la contencion anterior llegamos a que Ej = (Ej ) , por lo que Ej = (Ej ) = (Ej ) .
2. Como Ti es una proyecci
on Ti Ti = Ti . Ahora si i 6= j, Tj (Ti (v)) =
Tj (Ei ) = Tj ((Ei ) ) = 0.
Lk
3. Como V =
i=1 Ei entonces todo v V es de la forma v =
Pk
v
con
v

E
por
lo que Ti (v) = Ei (v) = vi , as
i
i
i=1 i
k
X

Ti (v) =

i=1

k
X

vi = v

i=1

4. Siguiendo con lo establecido


k
X
T (v) =T (
vi )
i=1

k
X

T (vi )

i=1

k
X

i vi

i=1

k
X
i=1

i Ti (v).

0. Teorema Espectral

47

Corolario 6. Sea T un operador normal en C V entonces T es autoadjunto si y solo si todo valor propio de T es real.
Demostraci
on
) Sea un valor propio de T y v un vector propio de entonces

v =T (v)
=T (v)

=v

entonces = .
) Como

T =(

k
X

i Ti )

i=1

k
X

iT

i=1

Como las proyecciones son autoadjuntas

k
X
i=1

=T 

i Ti

48

Formas Bilineales
Triangulaci
on Compleja
Aqu regresemos a la hip
otesis de dimensi
on finita.

Teorema 4 (Descomposici
on de Schur). Sea T un operador en C V , entonces existe una base tal que [T ] es triangular superior.
Demostraci
on
Como pT C[x] entonces tiene al menos un valor propio 1 , descomponemos a V = E1 E1 .
Ahora consideramos bases ortonormales 10 y 100 de Ei y Ei , por
lo que 1 = 10 100 es una base ortonormal de V , mas a
un

[T ]1 =

A01
A02

1 I
0

Si A02 es triangular el proceso termina, si no considero T2 : E1


el operador inducido por A02 , as T2 tiene un valor propio 2 6= 1 ,
consideramos 20 y 200 bases de E2 y E2 (en E1 ) para obtener 2 =
20 200 .
E1

Tenemos que
[A02 ]2 =

2
0

a21
A22

Por lo que si llamamos 2 = 1 2 tenemos que

[T ]2

1 I
= 0
0

A12
2 I
0

A22
A32
A42

Si A4 es triangular ya terminamos, si no repretimos el proceso. 


Observaci
on. Como se construye se tiene que es una base ortonormal.

Captulo 1

Forma Can
onica de Jordan

Definici
on. Sea T un operador en V y un valor propio de T , entonces
v V es un vector propio generalizado, si v 6= 0 y existe n N tal que
(T 1V )n (v) = 0.
Observaci
on. Si p = mn{n N|(T 1V )n (v) = 0} entonces
p1
(T 1V ) (v) es un vector propio del valor propio .
Notemos que p no puede ser cero, pues en dicho caso (T 1V )0 = 1V ,
lo cual implicara que v = 0.
Definici
on. Sea T un operador en V y v V un vector propio generalizado de T con valor propio . Si p = mn{n N|(T 1V (v) = 0}
entonces llamaremos a {(T 1(v), ..., (T 1)(v), v} un ciclo de vectores propios generalizado generado por v, y a p se le llama la longitud del
ciclo.

Proposici
on 42. Sea T un operador en V y un ciclo de vectores propios generalizado generado por v entonces es linealmente independiente.
Demostraci
on
Por inducci
on sobre
Si p = 1, entonces = {v} es linealmente independiente.
La hip
otesis de inducci
on ser
a
49

50

Forma Canonica de Jordan

Los ciclos de longitud p son linealmente independientes, as sea


un ciclo de longitus p generado por v con valor propio y sea ai V
escalares tales que
p1
X

ai (T 1)i (v) = 0

i=0

aplicando (T 1) tenemos
p1
X

ai (T 1)i+1 (v) = 0

i=0

que implica

0=

p2
X

i+1

ai (T 1)

i=0

(v) =

p1
X

ai1 (T 1)(v)

i=1

pero este es una combinaci


on lineal del ciclo generado por (T 1)(v)
que es de longitud p 1 as que a0 , ..., ap2 = 0, por lo que llegamos a que
ap1 (T 1)p1 (v) = 0 como (T 1)p1 (v) 6= 0 entonces ap1 = 0.
Definici
on. A una matriz J Mn (K) la llamaremos un bloque de Jordan si

1
0
Jij =

Ejemplo


1 1
1. J =
0 2

3 1
2. J = 0 3
0 0

0
1
3

si j = i + 1
si j =
6 i + 1, i
si i = j

51
Proposici
on 43. Sea T un operador en V , con un ciclo de vectores
propios generalizado generado por y de longitud p = dimV , entonces [T ]
es un bloque de Jordan.
Demostraci
on
Por la proposici
on y la dimensi
on, es base. Siguiente
= {(T 1)p1 (v), ..., (T 1)(v), v}
(T 1)(T 1)p1 (v) = 0
lo que implica que T ((T 1)p1 (v)) = v.
T (v) =T (v) v + v
=1 (T 1)(v) + v

T ((T 1)(v)) =T 2 (v) T (v)


=(T 2 (v) 2T (v) + 2 v) + (T (v) v)
=1 (T 1)2 (v) + (T 1)(v)

k  
X
k
T ((T 1) )(v) =T (
T ()ki (v))
i
k

i=0

k  
X
k
i=0

k+1
X
i=0

T i+1 ()k1 (v)


k  
X
k+1
k
T ()ki (v) +
T ?i ()ki (v)
i
i

=1 (T 1)

k+1

i=0
k

(v) + (T 1) (v)

por lo tanto [T ] es un bloque de Jordan. 

52

Forma Canonica de Jordan

Definici
on. Sea un valor propio de T un operador en V , definimos
K = {v V |n N(T 1)n (v) = 0}
es decir K es el conjunto de los valores propios generalizados de .

Proposici
on 44. Sea T un operador en V y un valor propio de T ,
entonces K V .
Demostraci
on
Sea x, y K entonces existen p, q N tales que (T )p (x) = 0 =
(T )q (y).
Tomamos r = m
ax{p, q}, entonces
(T )r (x + y) =(T )r (x) + (T )r (y)
=0 + 0
=0
Por lo que x + y K .
Para K, (T )p (x) = (T )p (x) = 0 = 0.
Proposici
on 45. Sea T un operador en V tal que [T ] es un bloque de
Jordan, entonces es un ciclo de vectores propios generalizados.
Demostraci
on
Sea = {v, ..., vn } y ponemos a vn = v y = [T ]11 .
Primero observamos que T (vi ) = vi +vi1 para i = 2, ..., n y T (v1 ) =
v1 .
De esto T (vi ) vi = vi1 .
Recursivamente tenemos que (T )ni (v) = vi .

53
Definici
on. Una matriz A Mn (K) es una forma canonica de Jordan
si es una matriz diagonal de matrices, a modo que la matriz Aii sea un
bloque de Jordan.

Definici
on. Sea T un operador en V y una base de V , si [T ] es una
forma can
onica de Jordan, a la llamaremos una forma de Jordan.

Corolario 7. Sea T un operador en V y una base de V . Entonces


es una base de Jordan si y solo si es la uni
on (ordenada) de ciclos de
valores propios generalizados.

Proposici
on 46. Sea T un operador en V y 1 , ..., k distintos valores
propios de T , entonces
Kj

X


Ki = 0

j = 1, ...k

i6=j

Demostraci
on

P
Sean x Kj
i6=j Ki con x 6= 0, entonces x = vj Kj y
P
Pk
x = i6=j vi con vi Ki , entonces 0 = i=1 vi .
Sea pi el mnimo natural (T )pi (vi ) = 0 y se aplica (T 1 )p1 ...(T
j1 )pj1 (T j+1 )pj+1 ...(T k )pk de ambos lados, lo que resulta en
0 = (T j )pj1 (vj )
Pero por lo visto anteriormente, (T j )pj1 (vj ) es un vector
propio! por lo que no puede ser cero.
Por lo tanto x = 0.
Corolario 8. Sea T un operador en V , entonces todo vector propio generalizado tiene un u
nico valor propio.

54

Forma Canonica de Jordan

Proposici
on 47. Sea T un operador en V con valor propio y sean
Si = {(T )pi 1 (vi )..., (vi )} ciclos de vectores propios asociados a de
longitud pi y generados por vi con i = 1, ..., k.
Si = {(T )p1 1 (v1 ), ..., (T )pk1 (vk )} son linealmente independientes conPk elementos, entonces S = ki=1 Si es linealmente inden
pendiente con i=1 pi elementos.
Demostraci
on
Sin perdida de generalidad podemos suponer que p1 p2 ... pk ,
as que hacemos inducci
on sobre pk .
Si pk = 1, entonces
k
[

Si ={v1 , ..., vk }

i=1

={(T )p1 1 (v1 ), ..., (T )pk1 (vk )}


que por hip
otesis tiene k elementos y es linealmente independiente.
Supongamos que es cierto para cuando pk < n y que pk = n.
Llamemos Di0 = {(T )pi 1 (vi ), ..., (T )(vi )} que es el ciclo generado por (T )(vi ) y tiene longitud pi 1, porPhipotesis de induccion
n
S 0 = ki=1 Si0 es linealmente independiente y tiene i=1 (pi 1) elementos.
Aparte
k
[

Si =

i=1

k
[

Si ) {vi , ..., vk }

i=1

con (ki=1 Si ) {v1 , ..., vk } = , as que

k
[
i=1

Si | =

k
k
X
X
(pi 1) + k =
pi
i=1

i=1

Sea 0 =
on lineal de los elementos de S,
sS as s una combinaci
aplicando T obtenemos

55

0=

as (T )(s)

sS

as (T )(s) +

as (T )(s)

sS\

pero para los elementos de


(T )(s) = 0
As que tenemos
0=

as (T )(s)

sS\

pero los (T )(s) son elementos de S 0 por lo que as = 0 s S\.


P
Por lo que se llega a 0 = s as s, pero por hipotesis son linealmente
independientes as que as = 0 s .
Teorema 5. Sea T un operador en V tal que pT su polinomio caracterstico se escinde, entonces existe una base de Jordan para T .
Demostraci
on
Sea n = dimV y la demostraci
on se har
a por induccion sobre n.
Si n = 1, toda matriz de 1 1 es una matriz diagonal y por lo tanto
una forma can
onica de Jordan.
Supongamos que se vale para cuando el espacio tiene dimension menor a n y se har
a por casos.
caso 1) Si r = dim(imT ) < n (i.e. ranT < n)
Como siempre se tiene que imT T V , entonces consideramos el
operador T 0 : imT imT dado por T 0 = T |imT .
Por hip
otesis de inducci
on existe base de Jordan para T 0 .

56

Forma Canonica de Jordan

Como es la uni
on de ciclos de vectores propios, consideramos Si =
{T pi 1 (vi ), ..., vi } los ciclos correspondientes al valor propio 0 con i =
1, ..., k.
Como vi imT wi V tal que T (wi ) = vi por lo que podemos
considerar los siguientes ciclos
Si0 = {T pi (wi ), ..., wi }
con i = 1, ..., k, S 0 = ki=1 Si0 .
Recordemos que A = {T p1 (w1 ), ...T pk (wk )} es un conjunto de vectores propios correspondientes al cero, es decir, es un subconjunto del
n
ucleo de T , adem
as es linealmente independiente por que A , ahora
A se puede extender a una base A B con A B 6= .
Haciendo cuentas
|A| = k,

|A B| = dim(nucT ) = nulT = n ranT = n r

Por lo que |B| = n r k, recordemos que tiene r elementos y


ponemos = (\S 0 ) S 0 B, esta es la base que buscamos, si ponemos
|S| = p
|B| =|\S 0 | + |S 0 | + |B|
=(r p) + (p + k) + (n r k)
=m
Para ver que es linealmente independiente solo basta ver que los
elementos del n
ucleo son ciclos de vectores propios de longitud 1 y por la
proposici
on anterior es linealmente independiente y por su cardinalidad
es base.
caso2) Si ranT = n.
Sea un valor propio de T , el cual existe por que pT se escinde,
entonces ran(T 1) < n por lo que existe base de Jordan para la cual
[T 1] = A es una forma can
onica de Jordan, entonces [T ] = A[1]
es una forma can
onica de Jordan. 

57
Corolario 9. Sea T un operador en VC , entonces existe una base de
Jordan para T .
Corolario 10. Sea T un operador en VC , entonces existe base de V
tal que [T ] es triangular superior.
Proposici
on 48. Sea T un operador en V con pT que se escinde. Si
1 , ..., k son los distintos valores propios de T con la multiplicidad algebraica de i mi y una base de Jordan para T . Si ponemos i = Ki
para i = 1, ..., k. Entonces
Lk
1. V = i=1 Ki
2. i es una base para Ki
3. Ki T V para i = 1, ..., k
4. dim(Ki ) = mi para i = 1, ..., k
5. Ki = nuc(T 1)mi para i = 1, ..., k
6. T es diagonalizable si y solo si E1 = Ki para i = 1, ..., k

Das könnte Ihnen auch gefallen