Beruflich Dokumente
Kultur Dokumente
entonces
T ui ) = i ui ;
i = 1 2 . . . n
esto es, T ui ) es un mltiplo escalar de ui . Este hecho da informacin inmediata acerca de la transformacin
lineal T . Por ejemplo, la imagen de T es el espacio generado por los vectores ui para los cuales i = 0
y el ncleo de T es el espacio generado por los restantes vectores ui . En la seccin 3.2 se respondern las
preguntas: Para qu transformaciones lineales T existe una tal base ? y si existe, Cmo encontrarla?.
Las respuestas a estas preguntas estn directamente ligadas a los conceptos de valor propio y vector propio,
los cuales sern abordados en la seccin 3.1. Se ver en esta seccin, de que el clculo de los valores propios y
los vectores propios de una transformacin lineal T se reduce al clculo de los valores propios y los vectores
propios de una cierta matriz A. Por otro lado, en las secciones 3.3 y 3.4 se consideraran los conceptos de valor
propio, vector propio y diagonalizacin de matrices simtricas, los cuales son particularmente importantes
en la teora y en aplicaciones del lgebra lineal.
3.1.
Un problema que se presenta con frecuencia en el lgebra lineal y sus aplicaciones es el siguiente: Dado un
espacio vectorial U y dada una transformacin lineal T : U U , encontrar valores de un escalar para
los cuales existan vectores u = 0 tales que T u) = u. Tal problema se denomina un problema de valores
propios (la gura 3.1 ilustra las posibles situaciones). En esta seccin se ver cmo resolver dicho problema.
3.1. Denicin. Sean U un espacio vectorial y T : U U una transformacin lineal. Se dice que el escalar
es un valor propio de T , si existe un vector u = 0 de U tal que T u) = u. A dicho vector no nulo u se
le llama un vector propio de T correspondiente al valor propio , o se dice que es -vector de T .
Nota. Los valores propios se denominan tambin eigenvalores o valores caractersticos y los vectores propios
se denominan tambin eigenvectores.
Diagonalizacin de matrices
u
T(u)= u
T(u)= u
>1
0<<1
T(u)= 0
<0
=0
x + 3y
y .
Ahora, si x = 0, entonces se tiene que = 2 y por lo tanto y = x. Esto quiere decir que todos los vectores
de la forma
u = x y) = x x); x R x = 0
son 2-vectores propios de T. En efecto:
T [x x)] = 2x 2x) = 2x x) .
De otro lado, si x = 0 y y = 0 entonces = 3. Esto quiere decir que todos los vectores de la forma
u = x y) = 0 y); y R y = 0
T u1 + u2 ) = T u1 ) + T u2 ) = u1 + u2 ) .
Diagonalizacin de matrices
y
,
T(u)= 3(0,y)
,
u= (0,y)
u= (x,x)
T(u)= 2(x,x)
Figura 32 Vectores propios de T x y) = 2x x + 3y)
2. Si u S) y R entonces
Esto es, u S).
T u) = T u) = u) .
3.4. Denicin. Sean U un espacio vectorial, T : U U una transformacin lineal y un valor propio de
T.
1. El subespacio de U S) mencionado en el teorema anterior, se denomina espacio propio asociado
al valor propio .
2. La dimensin de S) se denomina multiplicidad geomtrica del valor propio .
3.5. Nota. Sean U un espacio vectorial, T : U U una transformacin lineal, una base ordenada
para U y A = [T ] la matriz de la transformacin T referida a la base . Entonces para cada u U
se tiene [T u)] = A [u] ver teorema 1.42). En particular, u es un -vector propio de T si y slo si
u = 0 y A [u] = [T u)] = [u] = [u] . Esto es, u es un -vector propio de T si y slo si u = 0
y A [u] = [u] . Por esta razn, y porque resulta en otros contextos, consideramos a continuacin los
conceptos particulares de valor propio y vector propio de una matriz cuadrada A.
3.6. Denicin. Sea A una matriz cuadrada de orden n.
1. Se dice que el escalar es un valor propio de A, si existe un vector n 1, x = 0 tal que Ax = x.
2. Si es un valor propio de A y si el vector n 1, x = 0 es tal que Ax = x. Entonces se dice que
x es un vector propio de A correspondiente al valor propio , o que x es un -vector de A.
En el caso especial de la transformacin lineal; A : Rn Rn ; x y = Ax esta la denicin anterior
concuerda con la denicin 3.1 (vase la seccin 1.3). De otro lado, segn la denicin anterior y la nota
3.5, se puede entonces enunciar el siguiente teorema.
3.7. Teorema. Sean U un espacio vectorial, T : U U una transformacin lineal, B una base ordenada
para U y A = [T ] .
1. es un valor propio de T sii es un valor propio de A.
33
Diagonalizacin de matrices
a11
a12
a13
a1n
a21
a
a
a
22
23
2n
a32
a33
a3n
pA ) = |A I| = a31
=0
..
..
..
.
.
..
.
.
.
.
.
a
a
a
a
n1
n2
n3
nn
Aunque uno puede estudiar espacios vectoriales donde los escalares son nmeros complejos, en estas notas slo consideramos los valores propios de como escalares reales, salvo que se exprese lo contrario. No sobra mencionar, que en cursos
avanzados de espacios vectoriales, la nica restriccin para los escalares es que sean elementos de un sistema matemtico
llamado cuerpo o campo.
2El teorema fundamental del lgebra establece que toda ecuacin polinmica de grado n, con coecientes complejos,
tiene exactamente n ra ces complejas, contadas con sus multiplicidades.
34
Diagonalizacin de matrices
Paso 3
1
1
1
3 1
pA ) = |A I| = 1
1
2
3 1
3
1 1 1 1 1
= 1 )
1
1
2
=
1 )2 3 + 2) 1 ) + 1)
1 )2 3 + 2) = 1 )2 2).
1 2 1
0 0
0
Donde R es la forma escalonada reducida de la matriz A 1 I (Teorema 1.8).
Las soluciones del sistema A 1 I)x = 0 son,
3 2
2
x1
x = 4 x2 5 = 4
x3
En consecuencia,
82
39
< 1 =
= U1 = 4 1 5
:
;
1
1 2 2
0 0
0
Donde R es la forma escalonada reducida de la matriz A 2 I. Las soluciones del sistema A 2 I)x = 0
35
Diagonalizacin de matrices
3 2
3
2
3
0
x1
0
4 x2 5 = 4 x3 5 = x3 4 1 5
x3
x3
1
2
U2
x3 R.
82
39
< 0 =
= U2 = 4 1 5
:
;
1
0
1
A=
.
1
0
1
pA ) = |A I| =
= 2 + 1
1
y se resuelve la ecuacin caracterstica de A pA ) = |A I| = 0
pA ) = 2 + 1 = + i) i)
sii
= i = i.
Puesto que las soluciones de la ecuacin caracterstica de A no son reales, entonces A no tiene valores
propios y por lo tanto no tiene vectores propios, en el sentido considerado en este texto.
3.13. Ejemplo. Sea T : P2 P2 la transformacin lineal denida por:
De acuerdo con el teorema 3.7(1); los valores propios de la transformacin lineal T son los valores propios
de la matriz A los cuales son, segn el ejemplo 3.11 1 = 1 y 2 = 2.
De otro lado, del ejemplo 3.11 se sabe que U = {x1 } es una base de S1 ) y que U2 = {x2 } es
una base de S2 ), donde
2
2
3
3
1
0
x1 = 4 1 5
y
x2 = 4 1 5 .
1
1
Como se estableci en el teorema 3.7(2), estos son respectivamente, los vectores de coordenadas respecto a
la base (vase apartado 1.2.2) de los vectores de P2 ;
u1 = 1 + x + x2
36
u2 = x + x2 .
Diagonalizacin de matrices
dientes al valor propio 1 = 1 y U2 = {u2 } = x + x2 es una base del espacio de vectores propios de T
correspondientes al valor propio 2 = 2.
Terminamos esta seccin con dos resultados que involucran matrices semejantes. El primero de ellos relaciona
los polimomios caractersticos de matrices semenjantes y el segundo relaciona los vectores propios de dichas
matrices.
3.14. Teorema. Si A y B son matrices semejantes, entonces los polinomios caracter sticos de A y B son
iguales, y por consiguiente, las matrices A y B tienen los mismos valores propios.
Demostracin Si A y B son matrices semejantes, entonces existe una matriz invertible P tal que
B = P 1 AP. De aqu:
pB )
=
=
=
=
=
=
=
|B I|
1
P AP P 1 P
1
P A I)P
|P 1 | |A I| |P |
|P 1 | |P | |A I|
|A I|
pA ).
3.15. Nota. El converso del teorema anterior no es cierto; o sea, si A y B son matrices con el mismo polinomio caracterstico, no necesariamente A y B son matrices semejantes. Para mostrar esto, basta considerar
el siguiente ejemplo.
3.16. Ejemplo. Las matrices
A=
1
0
0
1
B=
1
3
0
1
tienen el mismo polinomio caracterstico; expl citamente se tiene que pA ) = pB ) = 1)2 . Sin
embargo, A y B no son matrices semejantes, pues para cualquier matriz invertible P de orden 2 se tiene
que:
P 1 AP = P 1 IP = P 1 P = I = B.
3.17. Proposicin. Si A y B = P 1 AP son matrices semejantes, entonces x es un vector propio de A
sii P 1 x es un vector propio de B.
Demostracin Por denicin se tiene
Ax = x
AIx = x
AP P 1 x = x
P 1 AP P 1 x = P 1 x
37
Diagonalizacin de matrices
31 Ejercicios
En los ejercicios 1 al 1, responda verdadero o falso, justicando su respuesta:
1. El Polinomio p) = 3+22 +43 puede ser el polinomio caracterstico de una matriz A 33 .
2. Si p) = 3 + 42 5 + 2 es el polinomio caracterstico de una matriz A 33 , entonces
|A| =2 2. 3
2
3
1
3 1 1
3. x = 4 1 5 es un vector propio de M = 4 7 5 1 5
0
6 6 2
4. = 1 es un valor propio de la matriz M anterior.
5. Sea A una matriz cuadrada de orden n. Si C es una matriz cuadrada de orden n invertible, entonces
las matrices A C 1 AC y CAC 1 tienen el mismo polinomio caracterstico.
6. Si la matriz A satisface la igualdad: A2 = 3A 2I entonces los posibles valores propios de A son
1 = 1, 2 = 2.
En los ejercicios 7 al 15 demuestre la armacin correspondiente.
Si es un valor propio de A, entonces n es un valor propio de An n = 1 2 3 . . ..
Si x es un vector propio de A, entonces x es un vector propio de An n = 1 2 3 . . ..
= 0 es un valor propio de una matriz A sii |A| = 0.
Si A es una matriz invertible y es un valor propio de A, entonces 1 es un valor propio de A1 .
Si A y C son matrices cuadradas de orden n y si C es invertible entonces las matrices A AT C 1 AC,
CAC 1 C 1 AT C y CAT C 1 tienen el mismo polinomio caracterstico.
12. Si T es una matriz triangular superior, entonces los valores propios de T son los elementos de la
diagonal principal de T.
13. Si A y B son matrices cuadradas del mismo orden, entonces AB y BA tienen los mismos valores
propios (sugerencia: Analice los casos = 0 es un valor propio de AB y = 0 es un valor propio
de AB).
14. Sean 1 2 . . . n los diferentes valores propios de una matriz A y sean 1 2 . . . m son los
diferentes valores propios de una matriz B, entonces los diferentes valores propios de una matriz
de la forma
A C
M=
B
7.
8.
9.
10.
11.
son 1 2 . . . n , 1 2 . . . m .
15. Si A es una matriz cuadrada de orden n, entonces pA ) = |A I| es un polinomio de grado n
en la variable que tiene la forma:
pA ) = a0 + a1 + a2 2 + + 1)n n .
=
=
|A I|
siendo mii (i = 1 2 3) los menores principales de la matriz A. (Sugerencia: plantee una matriz
general A = aij )33 y use las deniciones correspondientes).
17. Para cada una de las siguientes matrices: encuentre el polinomio caracterstico, los varolres propios
y los correspondientes espacios propios asociados.
38
Diagonalizacin de matrices
i)
iii)
v)
vii)
ix)
M=
M=
1
2
2
1
1
0
1
M =4 3
6
2
3
M =4 1
3
2
2
6 5
6
M =4
0
0
3.2. Diagonalizacin
1
1
3
5
6
1
3
1
4
3
0
0
3
3
3 5
4
3
1
1 5
1
0
0
1
2
M=
iv)
M=
vi)
viii)
3
0
0 7
7
2 5
2
ii)
x)
3.2.
1
2
0
2
0
2
2
0
3
M = 4 7
6
1
5
6
2
M =4 0
0
1
1
2
0
6 2
6
M =4
0
0
2
1
0
0
3
1
1 5
2
3
0
1 5
4
0
0
1
2
3
0
0 7
7
1 5
4
Diagonalizacin
En esta seccin se responderan las preguntas siguientes: Dado un espacio vectorial U y dada una transformacin lineal T : U U Existe una base de U tal que [T ] es una matriz diagonal? y si existe cmo
encontrar una tal base?
Como se estableci en el teorema 1.48(2), si T : U U es una transformacin lineal, 1 y 2 son bases
ordenadas de U A = [T ] y P = [I]2 , entonces D = [T ]2 2 = P 1 AP esto es, las matrices A y D
son semejantes.
Esta consideracin permite formular las preguntas anteriores en trminos de matrices, as: Dada una matriz
cuadrada A, Existe una matriz diagonal D semejante a la matriz?, en otros trminos, existir una matriz
invertible P tal que P 1 AP = D sea una matriz diagonal? y si existe cmo encontrar una tal matriz P ?
3.18. Denicin. Sea A una matriz cuadrada. Se dice que A es diagonalizable si A es semejante a una
matriz diagonal.
3.19. Teorema. Sea A una matriz cuadrada de orden n. Si existen n vectores propios de A linealmente
independientes, entonces A es diagonalizable; esto es, existe una matriz invertible P tal que P 1 AP = D
es una matriz diagonal. Adems, los vectores columna de P son los vectores propios de A y los elementos
de la diagonal de D son los correspondientes valores propios de A.
Demostracin Sean 1 2 . . . n los n valores propios de A los cuales no son necesariamente
diferentes y sean x1 x2 . . . xn , vectores propios de A linealmente independientes, correspondientes respectivamente a cada uno de dichos valores propios.
Sea ahora P la matriz cuya jsima columna es el vector propio xj j = 1 2 . . . n, la cual particionamos
como sigue:
P = x1 x2 xn .
Puesto que las columnas de P son linealmente independientes, entonces P es invertible (teorema 1.56).
39
3.2. Diagonalizacin
Diagonalizacin de matrices
Ahora,
AP
=
=
x1
Ax1
x1
x2
Ax2
x2
xn
xn
PD
Axn
2
1
6
6 0
6 .
4 ..
0
1 x1
0
2
..
.
0
2 x2
3
0
0 7
7
.. 7
..
.
. 5
3
n xn
Donde D es la matriz diagonal indicada arriba. Por lo tanto, P 1 AP = D y el teorema queda demostrado.
El rec proco de este resultado tambin es vlido y est dado por el siguiente teorema. La demostracin se
deja como ejercicio.
3.20. Teorema. Sea A una matriz cuadrada de orden n. Si A es diagonalizable, es decir, si existe una
matriz invertible P tal que P 1 AP = D es una matriz diagonal, entonces existen n vectores propios de A
linealmente independientes. Adems, los vectores columna de P son vectores propios de A y los elementos
de la diagonal de D son los correspondientes valores propios de A.
2
3
4 1
2
4
6
5 6 5 es diagonalizable y encuentre una matriz
3.21. Ejemplo. Verique que la matriz A =
6
3 4
invertible P tal que P 1 AP = D sea una matriz diagonal. Para tal n, veamos que A tiene 3 vectores
propios linealmente independientes. En efecto:
El polinomio caracterstico de A est dado por
pA ) = |A I| = 6
6
1
5
3
2
6
4
= 2)2 1).
La ecuacin caracterstica de A pA ) = |A I| = 0 tiene entonces como solucin a = 2 (de multiplicidad 2) y a = 1 (de multiplicidad 1). Estos escalares son pues, los valores propios de A.
El paso siguiente es determinar los vectores propios asociados:
Los 2-vectores propios de A son las soluciones no nulas del sistema de ecuaciones A 2I)x = 0 y los
1-vectores propios de A son las soluciones no nulas del sistema de ecuaciones A 1I)x = 0. Es decir, se
debe resolver sistemas homogneos de ecuaciones cuyas matrices de coecientes son respectivamente:
2
3
2
3
2 1
2
3 1
2
4
5
4
6
3 6
6
4 6 5 .
A 2I =
y A 1I =
6
3 6
6
3 5
Es fcil vericar que las soluciones del sistema homogneo A 2I)x = 0 son los vectores de la forma
3 2 1
3
2
x x3
x1
2 2
5
x2
x = 4 x2 5 = 4
x3
x3
2
3
2
3
1
1
1 4
5
4
0 5 x2 x3 R
x2 2 + x3
=
2
0
1
40
Diagonalizacin de matrices
3.2. Diagonalizacin
en consecuencia,
U
es una base para S1 ) = S2).
82
3 2
39
1 =
< 1
4
5
4
2
0 5
= U2 =
:
;
0
1
De otra parte, se encuentra que las soluciones del sistema A 1I)x = 0 son los vectores de la forma
3 2 1
3
2
2
3
1
x1
3 x3
1 4
5
5
4
4
x2
x3
3 5 x3 R.
x=
=
= x3
3
x3
x3
3
En consecuencia,
U2
es una base para S2 ) = S1).
Ahora, los vectores
82
39
< 1 =
= U1 = 4 3 5
:
;
3
2
2
3
3
3
1
1
1
4
4
4
5
5
2 x2 =
0
3 5
x1 =
y x3 =
0
1
3
son vectores propios de A correspondientes a los valores propios 2 2 y 1, respectivamente, y son linealmente
independientes como se comprueba fcilmente.
De acuerdo con el teorema 3.19, la matriz A es diagonalizable. Por otro lado, segn la demostracin del
teorema, la matriz
3
2
1 1 1
4
2
0
3 5
P = x1 x2 x3 =
0
1
3
es invertible y es tal que:
2
AP = D = 4 0
0
1
A = 4 1
1
1
3
2
0
2
0
3
0
0 5.
1
3
1
1 5
0
no es diagonalizable, pues vimos en dicho ejemplo, que la matriz A tiene dos valores propios: 1 = 1 y
2 = 2, y que
82
82
39
39
< 1 =
< 0 =
U1 = 4 1 5
y
U2 = 4 1 5
:
:
;
;
1
1
son bases para los espacios propios asociados, respectivamente. As que A slo tiene dos vectores propios
linealmente independientes.
3.2. Diagonalizacin
Diagonalizacin de matrices
Demostracin La demostracin se har utilizando induccin sobre el nmero k de vectores del conjunto C.
Si C = {x1 }, entonces C es linealmente independiente, pues x1 = 0.
El teorema es cierto para cuando k = 2. En efecto: Si
(3.1)
1 x1 + 2 x2 = 0
2 1 x1 + 2 2 x2 = 0.
1 1 x1 + 2 2 x2 = 0.
Puesto que x1 = 0 entonces 2 1 )1 = 0. Dado que 1 = 2 se tiene entonces que 1 = 0. Reemplazando este valor de 1 en (3.1) se llega a que 2 x2 = 0 pero x2 = 0 entonces 2 = 0.
Suponga ahora que el teorema es cierto para cuando k = j y verique que el teorema es cierto para
cuando k = j+1. Si
(3.4)
1 x1 + 2 x2 + . . . + j xj + j+1 xj+1 = 0
De otro lado, por hiptesis del teorema los escalares 1 . . . j j+1 son diferentes, entonces se obtiene que
1 = 2 = . . . = j = 0. Reemplazando estos valores en 3.4 se llega a que j+1 xj+1 = 0 pero xj+1 = 0
1
A=4 0
0
2
4
0
3
3
5 5
6 33
pA ) = |A I| = 1)3 1) 4) 6) = 0.
Diagonalizacin de matrices
3.2. Diagonalizacin
De acuerdo con los teoremas 3.19 y 3.20, dada la matriz cuadrada A de orden n; existe una matriz invertible
P tal que P 1 AP = D es una matriz diagonal sii A tiene n vectores propios linealmente independientes.
Adems, si existe una tal matriz P , los vectores columna de P son vectores propios de A y los elementos de
la diagonal de D son los valores propios de A. Quedan as contestadas las preguntas propuestas al comienzo
de esta seccin sobre la diagonalizacin de matrices. El siguiente teorema responde a las preguntas sobre
diagonalizacin pero formuladas en el contexto de las transformaciones lineales.
3.26. Teorema. Sea U un espacio de dimensin n y sea T : U U una transformacin lineal. Existe
una base ordenada 2 de U tal que [T ]2 2 = D es una matriz diagonal sii T tiene n vectores propios
linealmente independientes. Adems, si 2 = {u1 u2 . . . un } es una base ordenada de U tal que
2
3
1 0 0
6 0 2 0 7
6
7
[T ]2 2 = D = 6 .
..
.. 7
..
4 ..
.
.
. 5
0
0 n
Demostracin Puesto que las matrices asociadas a transformaciones lineales y referidas a bases
arbitrarias son semejantes, y puesto que el polinomio caracterstico de matrices semejantes es el mismo (ver
teorema 3.14), se puede considerar una base arbitraria 1 para U .
Sea pues A = [T ] la matriz de la transformacin T referida a dicha base 1 , Existe una base ordenada
2 de U tal que D = [T ]2 2 = [I]1
2 A [I]2 es una matriz diagonal sii A es semejante a una matriz
diagonal. Ahora por los teoremas 3.19 y 3.20; A es semejante a una matriz diagonal si y slo si A tiene n
vectores propios linealmente independientes, lo cual equivale a que T tenga n vectores propios linealmente
independientes (ver el apartado 1.2.2)
Adems, si 2 = {u1 u2 . . . un } es una base ordenada
2
1
6 0
6
[T ]2 2 = D = 6 .
4 ..
0
de U tal que
0
1
..
.
0
..
.
0
0
..
.
1
3
7
7
7
5
3
2
6 5
4
3.2. Diagonalizacin
Diagonalizacin de matrices
son vectores propios linealmente independientes de A, correspondientes respectivamente a los valores propios
2 2 y 1. Tales vectores x1 x2 y x3 son los correspondientes vectores de coordenadas, respecto a la base 1 ,
de los vectores u1 u2 y u3 de P2 para
u1 = 1 + 2x;
u2 = 1 + x2
u3 = 1 + 3x + 3x2 .
Ahora, los valores propios de T son los valores propios de A (ver teorema 3.7), esto es, los diferentes
valores propios de T son 1 = 2 y 2 = 1. De otro lado, por lo establecido en el apartado 1.2.2, u1 u2 y
u3 son vectores propios de T linealmente independientes, correspondientes a los valores propios 2 2 y 1,
respectivamente. En consecuencia, de acuerdo con el teorema anterior, 2 = {u1 u2 u3 } es una base para
P2 tal que:
2
3
2 0 0
4
0 2 0 5.
[T ]2 2 = D =
0 0 1
Como se ha visto, dada una matriz cuadrada A de orden n existe una matriz invertible P tal que P 1 AP =
D es una matriz diagonal sii existen n vectores propios de A linealmente independientes. En el caso en
que A no posea n vectores propios linealmente independientes, es posible, bajo cierta condicin, que A sea
semejante a una matriz triangular superior T ; es decir, que A sea semejante a una matriz T = [tij ]nn para
la cual tij = 0 si i > j. El siguiente teorema explicita esta armacin.
3.28. Teorema. Sea A una matriz cuadrada (real) de orden n. Todas las soluciones de la ecuacin caracterstica de A son reales sii existe una matriz invertible P (real) tal que P 1 AP = T es una matriz
triangular superior. Adems, si existe una tal matriz P , entonces los elementos de la diagonal de T son los
valores propios de A.
Demostracin =) La demostracin en este sentido se har, utilizando induccin sobre el orden
n de la matriz A. Para cuando n = 2 la implicacin es verdadera. En efecto, de la hiptesis se sigue que
A tiene dos valores propios (reales) los cuales no son necesariamente distintos. Sea 1 un valor propio de
A. Existe por lo tanto un vector 2 1 x1 = 0 tal que Ax1 = 1 x1 . Por el teorema1.21(3), existe un vector
2 1 x2 = 0 tal que = {x1 x2 } es una base para 21 . Ahora, la matriz P = [ x1 x2 ] es invertible;
escribamos a P 1 particionada por las as:
y1
y1 y2 12
P 1 =
y2
entonces se tiene que
P 1 AP =
es una matriz triangular superior.
y1
y2
x1
x2
y1 Ax2
y2 Ax2
=T
Supongamos ahora que la implicacin es verdadera para cuando n = j 1 y demostremos que sta es
verdadera cuando n = j j 3. Sea A una matriz cuadrada de orden j para la cual todas las soluciones
de su ecuacin caracterstica son reales. De sto se sigue que A tiene j valores propios (reales) los cuales
no son necesariamente distintos. Sea 1 un valor propio de A. Existe por lo tanto un vector j 1 x1 = 0
tal que Ax1 = 1 x1 . Por el teorema 1.21(3), existen j 1 vectores x2 x3 . . . xj de j1 tales que
= {x1 x2 x3 . . . xj } es una base para j1 . Ahora por el teorema 1.56, la matriz
x1 x2 xj = x1 M
P1 =
es invertible. Escribamos la inversa P 1 as:
y1
P11 =
N
y1 1j y N j1)j .
44
Diagonalizacin de matrices
Entonces se tiene
P11 AP1 =
3.2. Diagonalizacin
y1
N
x1
1
0
y1 AM
N AM
1
0
B
C
= T1
De sto se sigue, que todas las soluciones de la ecuacin caracterstica de la matriz cuadrada de orden j 1,
C, son reales. Por hiptesis de induccin, existe una matriz invertible Q tal que Q1 CQ = T2 es una matriz
triangular superior. Sea ahora:
P2 =
Q
entonces se tiene que la matriz invertible P = P1 P2 es tal que
1 B
1
1 BQ
1
BQ
=T
=
=
1
Q CQ
T2
La demostracin de la otra implicacin y de la segunda armacin del teorema quedan como ejercicio
para el lector.
pA ) = 1)2 2) = 0 sii 1 = 1 2 = 2 .
De otro lado, como lo establecimos en el ejemplo 3.22, la matriz A no es diagonalizable, pues A slo posee
dos vectores propios linealmente independientes. En particular:
2
2
3
3
1
0
x1 = 4 1 5
y
x2 = 4 1 5
1
1
Por el teorema anterior, existe una matriz invertible P tal que P 1 AP = T es una matriz triangular
superior. Para encontrar una tal matriz P , basta proporcionar un vector x3 tal que = {x1 x2 x3 } sea
una base para 31 ; el vector
2
3
0
x3 = 4 2 5
3
sirve para tal efecto. Ahora bien, la matriz
2
3
1 0 0
4
1 1 2 5
P = x1 x2 x3 =
1 1 3
45
3.2. Diagonalizacin
Diagonalizacin de matrices
1
AP = T = 4 0
0
0
2
0
3
1
2 5
1
De acuerdo con el teorema anterior, si A es una matriz cuadrada (real) cuyos valores propios no son todos
reales entonces, no puede existir una matriz invertible P (real) tal que P 1 AP = T sea una matriz triangular
superior. Ahora bien, como se ha mencionado se pueden estudiar espacios vectoriales donde los escalares
sean nmeros complejos (ver pis de pgina de la pgina 34) y se pueden obtener resultados ms generales.
En particular, se tiene que para toda matriz cuadrada A (real o compleja) existe una matriz invertible P
(real o compleja) tal que P 1 AP = T sea una matriz triangular superior. Este resultado se tiene, gracias
a la propiedad importante del sistema de los nmeros complejos que establece, que todo polinomio de
grado n con coecientes reales o complejos tiene exactamente n races reales o complejas, contadas sus
multiplicidades. En el teorema siguiente se establece este resultado sin demostracin. Quien desee estudiar
sobre ste, puede consultar las secciones 5.5 y 5.6 de [1].
3.30. Teorema. Para toda matriz cuadrada A (real o compleja) existe una matriz invertible P (real o
compleja) tal que P 1 AP = T es una matriz triangular superior. Adems, los elementos de la diagonal de
T son las soluciones de la ecuacin caracterstica de A.
3.31. Ejemplo. Considere la matriz (real)
2
La ecuacin caracterstica de A es
1
A=4 0
0
pA ) = |A I|
=
=
0
0
1
3
0
1 5.
0
1)2 + 1)
1) i) + i) = 0 .
4
0 i
i 5
P = x1 x2 x3 =
0
1 1
46
Diagonalizacin de matrices
3.2. Diagonalizacin
AP
1
4 0
0
2
1
4 0
0
0
i/2
i/2
0
i
0
32
0
1
i/2 5 4 0
i/2
0
3
0
0 5=D
i
0
0
1
32
0
1
1 54 0
0
0
0
i
1
3
0
i 5
1
32 Ejercicios
En los ejercicios 1 al 1 responda verdadero o falso, justicando su respuesta:
1. Si una matriz cuadrada A es diagonalizable, entonces existen innitas matrices invertibles P tales
que P 1 AP = D es una matriz diagonal.
2. Si A es una matriz 3 3con valores propios 1 = 1 2 = 2 y 3 = 3 entonces A es diagonalizable,
det A = 6 y TrA) = 4.
3. Si A es una matriz invertible y es un valor propio de A entonces = 0 y 1/)es un valor propio
de A1 .
En los ejercicios 4 al 7 demuestre la armacin correspondiente
4. Sea A nn tal que pA ) = 1)n 1 ) 2 ) n ), Demuestre que: (i) |A| =
1 2 n y (ii) Tr A = 1 + 2 + + n .
5. Sea A una matriz cuadrada n n tal que
n
X
|aij |
|aii | >
j=ij=1
x1
es un -vector propio
b) Demuestre que si x1 es un -vector propio de A entonces x =
de M.
7. Si A es una matriz n n tal que A2 = mA entonces
Tr A = mA).
(Sug.: considere (i) A) = 0 (ii) A) = n y (ii) 0 < A) < n, use el teorema 3.28)
8. Considere cada una de las matrices M del problema 17 de la seccin de ejercicios 3.1. Encuentre,
si es posible, una matriz invertible P tal que P 1 M P sea una matriz diagonal
9. Sea T : P2 P2 la transformacin lineal denida por
Diagonalizacin de matrices
3.3.
En esta seccin se limitar el estudio de los conceptos de valor propio, vector propio y diagonalizacin a
matrices simtricas. Dos resultados importantes que se vern en esta seccin son los siguientes: (i) Todas
las soluciones de la ecuacin caracterstica de toda matriz simtrica (real) son reales, y (ii) Toda matriz
simtrica (real) es diagonalizable, y ms an, diagonalizable en una forma especial.
Como se ver en el captulo 4, los valores propios de una matriz simtrica se utilizan como criterio para
decidir cundo una forma cuadrtica es positivamente (negativamente) denida (semidenida) o indenida.
Como se estableci al nal de la seccin anterior, uno puede estudiar espacios vectoriales donde los escalares son nmeros complejos. nicamente en la demostracin del teorema 3.32, se utilizarn los hechos
siguientes que involucran nmeros complejos.
1. El conjugado del nmero complejo z = a + bi a b R, se denota por z y se dene as: z = a bi.
2. Un nmero complejo z es real sii z = z.
3. La matriz conjugada de la matriz compleja n n, A, se de nota por A y cuyos componentes son
Aij = Aij i j = 1 2 . . . n.
4. Para todo vector complejo n 1 x, se tiene: x T x = xT x y x T x = 0 sii x = 0.
5. Para toda matriz cuadrada A con componentes complejas; |A| = 0 sii existe un vector x = 0 con
componentes complejas, tal que Ax = 0.
3.32. Teorema. Sea A una matriz (real) cuadrada de orden n. Si A es una matriz simtrica, entonces
todas las soluciones de la ecuacin caracterstica de A: pA ) = |A I| = 0 son reales. Esto es, A tiene
n valores propios (reales) los cuales no son necesariamente diferentes.
Demostracin Si pA ) = |A I| = 0 entonces por (5), existe un vector x = 0 tal que:
(3.1)
Ax = x
Ax = x .
x T Ax = x T x
xT Ax = xT x
x T x = xT x .
)x T x = 0.
) = 0
o sea,
= .
Diagonalizacin de matrices
3.33. Teorema. Si 1 2 . . . k son los valores propios diferentes de una matriz simtrica A y si x1 x2 . . . xk
son vectores propios de A correspondientes a los valores propios 1 2 . . . k , respectivamente, entonces
el conjunto de vectores C = {x1 x2 . . . xk } es ortogonal.
Demostracin Se debe demostrar que xi ; xj = xTi xj = 0 si i = j para i j = 1 2 . . . k
Por la hiptesis se tiene que:
(3.5)
Axi
i xi
(3.6)
Axj
j xj .
(3.7)
puesto que xTj Axi = xTj Axi )T = xTi AT xj = xTi Axj de (3.7) se sigue que:
xTj xi = j xTi xj .
(3.8)
es ortogonal, pues:
2
1
14
2
P =
3
2
2
2
1
=P .
3
2
1 5
2
3
3 2
3 2
2
2
1 2
2
1 0 0
1
2
1 5 4 2 2 1 5 = 4 0 1 0 5 = I.
PP
3
1 2
2 1 2
0 0 1
2
1
14
2
=P =
3
2
Demostracin La matriz P =
2
PTP
xT1
6
6 T
6 x2
6
6 .
6 ..
6
4
xTn
x1
x2
xn
2 T
x1 x1
6
7
6 T
7
6 x2 x1
7
6
7
7 [x1 x2 xn ] = 6
..
6
7
.
6
7
4
5
3
xTn x1
xT1 x2
xT1 xn
xT2 x2
..
.
..
.
xT2 xn
..
.
xTn x2
xTn xn
3
7
7
7
7
7
7
7
5
lo cual equivale a que = {x1 x2 . . . xn } es una base ortonormal de n1 (ver seccin 1.2.3).
49
Diagonalizacin de matrices
3.37. Teorema. Si es un valor propio de una matriz simtrica, entonces las multiplicidades algebraica
y geomtrica de son iguales.
Demostracin Sea A una matriz simtrica de orden n y sea un valor propio de A. Supongamos que
la multiplicidad geomtrica de es r. Por el teorema 1.33, existe una base ortonormal = {x1 x2 . . . xr }
del espacio de vectores propios asociados a S ). Si r = n la matriz P = [ x1 x2 xn ] es
ortogonal (proposicin 3.36), y de acuerdo con el teorema 3.19,
P T AP = P 1 AP = D = I .
Ahora, las matrices A y D tienen igual polinomio caracterstico:
pA ) = pD ) = | I I| = )n .
De esto se sigue que es un valor propio de A con multiplicidad algebraica r = n.
De otra parte, si r < n, existen nr vectores y1 y2 . . . ynr de n1 tales que = {x1 . . . xr y1 . . . ynr }
es una base ortonormal de n1 (teorema 1.34). Por la proposicin 3.36, la matriz
P =
x1
x2
xr
y1
y2
ynr
=
=
=
XT
YT
I
X T AY
Y T AY
B
.
C
B
C
I
B
CT
por lo tanto B = y
T =
Puesto que las matrices A y T son semejantes, entonces tienen el mismo polinomio caracterstico:
pA ) = pT ) = |T I| = )r |C I| .
De esto se sigue, que es un valor propio de A con multiplicidad algebraica k r. Veamos que k = r. Si
k > r entonces se debe tener que |C I| = 0 y por lo tanto existe un vector n r) 1 w = 0 tal que
Cw = w.
50
Diagonalizacin de matrices
u=P
. Es decir,
2
6
6
6
6
6
6
6
[x1 x2 xr y1 y2 ynr ] 6
6
6
6
6
6
4
0
0
..
.
0
w1
w2
..
.
wnr
w1 y1 + w2 y2 + wnr ynr .
3
7
7
7
7
7
7
7
7
7
7
7
7
7
5
/ x1 x2 . . . xr
Esto es, el vector u y1 y2 . . . ynr y u
I
=P
PTP
Au = P
w
= P
=P
Cw
w
= u .
= P
w
Esto indica, que B = {x1 x2 . . . xr ur+1 } es un conjunto de r + 1 vectores propios linealmente independientes correspondientes al valor propio , lo cual contradice el hecho de que la multiplicidad geomtrica
de sea r.
3.38. Teorema. Si A es una matriz simtrica de orden n entonces A tiene n vectores propios ortogonales,
y por tanto, linealmente independientes.
Demostracin Sean 1 2 . . . k los diferentes valores propios de A. Supongamos que la multiplicidad algebraica de i es mi mi = 1 2 . . . k; esto es, supongamos que
pA ) = 1)n 1 )m 2 )m2 k )mk
donde m1 + m2 + + mk = n.
=
=
es ortogonal.
U1 U2 Uk
La demostracin del siguiente corolario es consecuencia inmediata del teorema 3.38 y del teorema 3.19.
3.39. Corolario. Toda matriz simtrica es diagonalizable.
3.40. Denicin. Sea A una matriz cuadrada. Se dice que A es ortogonalmente diagonalizable si existe un
matriz ortogonal P tal que P T AP = D es una matriz diagonal.
51
Diagonalizacin de matrices
3.41. Teorema. Si A es una matriz simtrica, entonces A es ortogonalmente diagonalizable; esto es, existe
una matriz ortogonal P tal que P T AP = D es una matriz diagonal. Ms an, las columnas de la matriz P
son los vectores propios de A y los elementos de la diagonal de D son los valores propios de A.
Demostracin Sea A es una matriz simtrica de orden n, entonces A tiene n vectores propios
ortonormales x1 x2 . . . xn (teorema 3.38). Supongamos que stos corresponden a los valores propios
1 2 . . . n respectivamente. La matriz P = [ x1 x2 xn ] es ortogonal (proposicin 3.36), y de
acuerdo con la demostracin del teorema 3.19, se tiene que
2
6
6
P T AP = P 1 AP = D = 6
4
1
0
..
.
0
0
2
..
.
0
..
.
0
0
..
.
n
7
7
7.
5
El recproco del teorema 3.41 tambin es vlido y est dado por el siguiente
3.42. Teorema. Si una matriz A es ortogonalmente diagonalizable, entonces A es simtrica.
Demostracin Por hiptesis, existe una matriz ortogonal P que diagonaliza a la matriz A esto es,
se tiene que P T AP = D, siendo D una matriz diagonal. De aqu que:
A = P DP T = P DT P T )T = P DP T )T = AT
o sea, A es una matriz simtrica.
5
A=4 2
2
2
2
4
3
2
4 5
2 33
encontre una matriz ortogonal P tal que P T AP = D sea una matriz diagonal.
Para ello se debe encontrar tres vectores propios de A ortonormales. El polinomio caracterstico de A
pA ) = |A I| est dado por:
5
2
2
2
4 = + 3) 6)2 .
pA ) = |A I| = 2
2
4
2
sii = 3
=6
Diagonalizacin de matrices
Es fcil vericar, que las soluciones del sistema homogneo A + 3I)x = 0 son los vectores de la forma:
2
3 2 1
3
2
3
x1
1
2 x3
1 4
4
5
5
4
x2
x3
2 5 ; x3 R.
x=
=
= x3
2
x3
x3
2
En consecuencia,
b3
b = U
U
82
39
< 1 =
= 4 2 5
:
;
2
es una base para S1 ) = S3). Aplicando el proceso de ortogonalizacin de Gram-Scmidt a esta base
(vea el teorema 1.33), se llega a que:
8 2
39
1 =
<
1
b3 =
b = U
4 2 5
U
:3
;
2
De otra parte, se encuentra que las soluciones del sistema homogneo A 6I)x = 0 son los vectores de la
forma:
3 2
3
2
x1
2x2 + 2x3
4
5
5
4
x2
x2
x =
=
x3
x3
2
3
2
3
2
2
= x2 4 1 5 +x3 4 0 5 ; x2 x3 R.
0
1
En consecuencia,
b2
U
82
3 2
39
2 =
< 2
b6 = 4 1 5 4 0 5
=U
:
;
0
1
es una base para S2 ) = S6). Aplicando el proceso de ortogonalizacin de Gram-Schmidt a esta base se
llega a que:
8
2
2
3
39
2
2 =
<
1 4
1 4
b
b
5
1
4 5
U2 = U6 =
: 5
;
3 5
0
5
es una base ortonormal de S2 ) = S6).
8 2
2
2
3
39
3
2
2 =
1
<
14
1
1
2 5 4 1 5 4 4 5
=
:3
;
5
3 5
0
5
2
es un conjunto ortonormal de vectores propios de A. Ahora, segn la demostracin del teorema 3.41, la
matriz,
3
2
2
2
1
6 3
5
3 5 7
7
6
7
6 2
4
1
7
P =6
6 3
5
3 5 7
7
6
5
4 2
2
0
3
3 5
53
Diagonalizacin de matrices
P AP = P
AP = D = 4
3
0
0
3
0
0 5.
6
0
6
0
3.44. Teorema. Sea A una matriz simtrica de orden n. Supongamos que A que tiene p (0 p n)
valores propios, no necesariamente diferentes, estrictamente positivos y (0 n) valores propios, no
necesariamente diferentes, estrictamente negativos. Entonces existe una matriz invertible P tal que:
3
2
Ip
T
P AP = 4 I 5 .
Ip
Q AQ = 4
entonces p = p y = .
Demostracin Sean 1 2 . . . los valores propios de A estrictamente positivos (no necesariamente distintos) y sean x1 x2 . . . xp vectores propios ortonormales de A asociados respectivamente a
tales valores propios. Sean adems 1 2 . . . los valores propios de A estrictamente negativos (no necesariamente distintos) y y1 y2 . . . y vectores propios ortonormales de A asociados a dichos valores propios
negativos y sean z1 z2 . . . z = np+), vectores propios ortonormales de A asociados al valor propio
nulo (0). Segn la demostracin del teorema 3.41, la matriz M , cuyas columnas son los correspondientes
vectores propios organizados adecuadamente, es ortogonal. Es decir, la matriz
M = [ x1
x2
xp
y1
y2
z1
z2
z ]
es ortogonal. De otro lado, se tiene que M T AM = D es una matriz diagonal con los valores propios en su
diagonal y dispuestos as:
2
3
Dp
T
M AM = D = 4 D 5
donde:
3
3
2
2
1 0 0
1 0 0
6 0 2 0 7
6 0 2 0 7
7
7
6
6
D = 6 .
..
.. 7 y D = 6 ..
..
.. 7 .
.
..
.
.
4 .
4 .
.
.
.
. 5
.
. 5
0
0 p
0
0
Sea ahora D la matriz diagonal:
3
2
Dp
4
D 5
D =
I
donde
2 1
3
0
6
7
1
6
7
1
7
6 0
0
7
6
2
7 y.
D = 6
6
7
..
..
..
..
6
7
.
.
.
.
6
7
4
1 5
0
0
p
p
54
Diagonalizacin de matrices
6
6
6
6
D = 6
6
6
6
4
1
1
0
..
.
0
D DD
M AM D = 4
Ip
4
..
1
2
..
.
Dp Dp Dp
3
7
7
7
7
7
7
7
7
5
..
.
1
p
D D D
5.
Ip
T
P AP = 4 I
I I
5.
Para la unicidad suponga ahora que las matrices invertibles P y Q son tales que:
3
3
2
2
Ip
Ip
T
T
5
4
4
I
I 5 .
P AP =
y
Q AQ =
[ x1
x2
[ y1
y2
8
T
>
>xi Axi = 1
>
>
>
>
>
>
>
>xT Axj = 0
>
< i
>
>
>
yiT Ayi 0
>
>
>
>
>
>
>
>
:yT Ay = 0
j
i
xp
yp
xp+1
yp +1
xn ] y
yn ]
si
i = 1 2 . . . p
si
i = j i j = 1 2 . . . n)
si
i = p + 1 p + 2 . . . n
si
i = j i j = 1 2 . . . n).
C = {x1 x2 . . . xp yp +1 yp +2 . . . yn }
1 x1 + . . . + p xp + 1 yp +1 + . . . + np yn = 0
entonces el vector
U
1 x1 + 2 x2 + . . . + p xp
1 yp +1 2 yp +2 . . . np yn
55
Diagonalizacin de matrices
es tal que:
U T AU
1 x1 + . . . + p xp )T A1 x1 + . . . + p xp )
21 + 22 + . . . + 2p 0
y
U T AU
1 yp +1 + . . . + np yn )T A1 yp +1 + . . . + np yn )
2
T
yn Ayn 0
12 ypT +1 Ayp +1 + 22 ypT +2 Ayp +2 + . . . + np
Ip
(iii)
si 0 < p < n y = 0.
I
si 0 < < n y p = 0.
(iv)
Ip
(v)
si 0 < p < n y 0 < < n y p + = n.
I
2
3
Ip
(vi) 4 I 5 si 0 < p < n y 0 < < n y p + < n.
(vii) sii A = .
1
A = 4 2
0
2
0
2
3
0
2 5
1
encuentre una matriz invertible P tal que P T AP sea una matriz diagonal con las caractersticas que se
establecen en el teorema anterior.
56
Diagonalizacin de matrices
Efectuando los clculos pertinentes se encuentra que los valores propios de A son: 1 = 3 2 = 3 y
3 = 0 y que la matriz ortogonal:
2
3
2 1 2
14
2 2 1 5
M=
3
1 2
2
es tal que
3
M AM = D = 4 0
0
T
6
6
D = 6
4
3
0
DT M T AM D
2 1
0
0
6
3
6
1
6 0
0
4
3
0
0
1
2
3
1
0
0
4 0 1
0 5
0
0
0
32 3
76
76
0
76
56
4
0
7
7
0 7
5
1
0
3
0
32
1
7 6 3
76
0 7
76
0
54
0
0
0
1
3
0
7
7
0 7
5
0
I1
0
I1
P AP = 4 0
0
T
3
0
3
0
0 5.
0
0
3
0
3
0
0 5.
0
En relacin con la primera parte del teorema 3.44 (ver su demostracin) y tal como aparece en el ejemplo
anterior, un mtodo para calcular una de tales matrices P consiste en encontrar una matriz ortogonal M
que diagonalice a la matriz A y despus postmultiplicar a M por una matriz diagonal conveniente D .
A continuacin damos otro mtodo para calcular, simultneamente, una de tales matrices P y la matriz
P T AP. El mtodo se basa en el hecho de que la matriz P es invertible y por ende se puede expresar como
producto de un nmero nito de matrices elementales (vase teorema 1.9(2)); esto es, P = E1 E2 Ek
donde E1 E2 Ek son matrices elementales. As que una forma de calcular la matriz
P T AP = EkT E2T E1T A E1 E2 Ek
consiste en efectuar una sucesin de operaciones elementales en las las de A y la misma sucesin de
operaciones elementales en las columnas de A (vase teorema 1.6), hasta lograr lo deseado. Esta misma
sucesin de operaciones elementales en las las de la matriz identidad I da P T . El siguiente ejemplo ilustra
el mtodo para encontrar una tal matriz P .
3.46. Ejemplo. Para la matriz simtrica
A=4
1
2
3
2
5
4
57
3
3
4 5
9
Diagonalizacin de matrices
encontre una matriz invertible P tal que P T AP sea una matriz diagonal con las caractersticas que se
establecen en el teorema 3.44.
Se forma entonces la matriz
3
1
2 3 1 0 0
5 4 0 1 0 5 .
[A|I ]=4 2
3 4
9 0 0 1
Se efectua entonces, en las las de la matriz A | I , las operaciones elementales; E1T ; multiplicar
los elementos de la primera la por = 2 y sumar los resultados con los correspondientes elementos de
la segunda la, E2T ; multiplicar los elementos de la primera la por = 3 y sumar los resultados con los
correspondientes elementos de la tercera la. As se obtiene la matriz
[ E2T E1T A
E2T E1T I ] = [ A1
B1 ]
luego se efectuan las mismas operaciones elementales en las columnas de la matriz A1 para obtener:
[ E2T E1T A
Se tiene:
E2T E1T I ] = [ A1
E1 E 2 |
2
1
[ A1 | B1 ] = 4 0
0
2
1
2
3
2
0
1
| B1 ] = 4 0
0
0
1
2
0
2
0
A1
1
2
3
1
2
3
B1 ] .
3
0
0 5
1
0
1
0
3
0
0 5.
1
0
1
0
Se efectua ahora, en las las de la matriz [ A1 | B1 ] , la operacin elemental; E3T ; multiplicar los
elementos de la segunda la por = 2 y sumar los resultados con los correspondientes elementos de la
tercera la. As se obtiene la matriz
[ E3T E2T E1T AE1 E2
B2 ]
B2 ] .
luego se realiza la misma operacin elemental en las columnas de la matriz A2 para obtener:
Se tiene entonces:
1
[ A2 | B2 ] = 4 0
0
y
[
A2
1
| B2 ] = 4 0
0
0
1
0
0
1
0
0
2
4
0
0
4
1
2
7
1
2
7
0
1
2
0
1
2
3
0
0 5
1
3
0
0 5.
1
Finalmente, se efectua en las las de la matriz [ A2 | B2 ] la operacin elemental; E4T ; multiplicar los
elementos de la tercera la por = 1/2. As se obtiene la matriz
[ E4T E3T E2T E1T AE1 E2 E3
B3 ]
luego se realiza la misma operacin elemental en las columnas de la matriz A3 para obtener:
i
h
[ E4T E3T E2T E1T AE1 E2 E3 E4 | E4T E3T E2T E1T I ] = A3 | B3 .
Se tiene:
1
6
[ A3 | B3 ] = 4 0
0
0
1
0
0
58
1
2
7
2
0
1
1
3
0
0 7
5
1
2
Diagonalizacin de matrices
1
6
[ A3 | B3 ] = 4 0
0
0
1
0
0
1
2
7
2
0
1
1
3
0
0 7
5
1
2
= B3 =
es tal que
1
6
= 4 2
7
2
1
P AP = D = A3 = 4 0
0
0
1
1
3
0
0 7
5
1
2
3
0
0 5.
1
0
1
0
Se puede decir entonces, que la matriz A tiene dos valores estrictamente positivos y un valor propio estrictamente negativo.
3.47. Nota. En relacin con el mtodo ilustrado en el ejemplo anterior, si todos los elementos de la diagonal
principal de la matriz simtrica A = [aij ]nn son nulos y si aij = 0 i = j, entonces sumando la la j a la la
i y la columna j a la columna i se obtiene una matriz simtrica A = M T AM con 2aij en el lugar isimo
de la diagonal principal de A . Una vez hecho esto, se sigue el proceso descrito en el ejemplo anterior.
3.48. Ejemplo. Para la matriz simtrica
A=
0
1
1
0
encuentre una matriz invertible P tal que P T AP sea una matriz diagonal con las caractersticas que se
establecen en el teorema 3.44.
Se forma ahora la matriz:
0
1
[ MT A
[A|I ]=
1
0
1
0
0
1
luego se efectua la misma operacin elemental en las columnas de la matriz M T A para obtener la matriz:
M T AM | M T I = A | M T
Se tiene:
[ MT A | MT I ] =
[ A | M T ] =
1
1
2
1
59
1
0
1
0
1
0
1
0
1
1
1
1
Diagonalizacin de matrices
Ahora se realiza, en las las de la matriz [ A | M T ], la operacin elemental; E1T ; multiplicar los
elementos de la primera la por = 12 y sumar los resultados con los correspondientes elementos de la
segunda la. As se obtiene la matriz
[ E1T A
E1T M T ] = [ A1
B1 ]
luego se realiza la misma operacin elemental en las columnas de la matriz A1 para obtener:
[ E1T A E1
Se tiene:
[ A1 | B1 ] =
A1
E1T M T ] = [ A1
|
"
2
0
| B1 ] =
h
1
1
"
1
1
1
1
2
1
1
0
1
2
i
B1 ] .
1
1
2
y
#
T T T
E3 E2 E1 A E1 | E3T E2T E1T M T = A2 | B2
Se efectua ahora en las las de la matriz
A1
B1
luego se realizan las mismas operaciones elementales en las columnas de la matriz A2 para obtener:
[ E3T E2T E1T A E1 E2 E3
Se tiene:
2
2
6
6
[ A2 | B2 ] = 6
4
0
6
6
[ A2 | B2 ] = 6
4
es tal que
6
6
=6
4
2
P T AP = D = A3 = 4
B2 ] .
1 3
2 7
7
7
1 5
1 3
2 7
7
7
1 5
2
1
2
0
1 3
2 7
7
7
1 5
5.
0 1
Se puede decir, que la matriz A tiene un valor estrictamente positivo y un valor propio estrictamente
negativo.
60
Diagonalizacin de matrices
33 Ejercicios
Para los ejercicios 1 al 7 responda verdadero o falso, justicando su respuesta:
1.
2.
3.
4.
5.
6.
1
1
7. La matriz P =
es ortogonal.
1 1
A B
In
In
yP =
9. Sean A B nn M =
In In
B A
1
1
= P.
a) Verique que P
2
b) Calcule P 1 M P y concluya que det M = detA + B) detA B).
c) Use (b) para mostrar que
pM ) = detM I) = detA + B) I) detA B) I) .
0
Q1
6 0 Q2
0 7
7
6
Q=6 .
..
.. 7 .
..
4 ..
.
.
. 5
0
0 Qm
es tambin ortogonal .
12. Sea x un -vector propio de A y sea y un -vector propio de AT , donde = entonces x y son
vectores ortogonales (sugerencia: vea la demostracin del teorema 3.33).
13. Si A es una matriz simtrica idempotente n n entonces:
n
n X
X
aij )2 .
A) = Tr A =
i=1 j=1
14.
15.
16.
17.
Diagonalizacin de matrices
18. Sean A B matrices simtricas de igual orden. Suponga adems que A2 = A y que los valores
propios de B son positivos, entonces:
ABA) = A) = Tr A
(sugerencia: Utilice los ejercicios (15) y (13) y el Teorema 1.53(4)).
19. Si A = [aij ]nn es una matriz simtrica tal que
aii >
n
X
j=1 j=i
|aij |
para todo i = 1 2 . . . n entonces todos los valores propios de A son positivos. (Sugerencia: suponga 0 es un valor propio de A y utilice el ejercicio (5) de la seccin 3.2 para llegar a una
contradiccin).
20. Para cada una de las siguientes matrices encuentre una matriz ortogonal P , tal que P T M P sea
una matriz diagonal. D en cada caso Tr M y A).
i)
M=
1
2
2
5
ii)
1
M = 4 1
0
3
0
0 5
1
1
0
0
3
2
3
2 1 1
1 1 1
1 1 5
iii) M = 4 1 2 1 5 iv) M = 4 1
1 1 2
1 1
1
2
3
2
3
4 2 2
4 4 2
v) M = 4 2 3 0 5 vi) M = 4 4 4 2 5
2 0 5
2 2 1
21. Para cada una de las siguientes matrices encuentre una matriz invertible Q, tal que QT M Q sea de
la forma
3
2
0
0
Ip
4 0 I 0 5 .
0
0
0
i)
iii)
v)
1
M = 4 1
0
2
1
M =4 2
0
2
2
M =4 1
1
1
1
0
2
0
0
1
1
1
3
0
0 5
1
3
0
0 5
1
3
1
1 5
5
ii)
iv)
vi)
0
M =4 1
1
2
M =4
2
M =4
1
2
2
1
0
1
0
2
1
1
2
1
2
4
2
3
1
2 5
1
3
1
1 5
1
3
1
2 5
8
62
Diagonalizacin de matrices
3.4.
En esta seccin se ver un par de teoremas sobre diagonalizacin simultnea de matrices simtricas, los cuales
son tiles en estadstica. En particular el teorema 3.51 se utiliza en la demostracin de la independencia de
dos ciertas formas cuadrticas (ver teorema 4.5.3 de [4]).
3.49. Teorema (Diagonalizacin simultnea). Sean A y B matrices simtricas de orden n. Si todos los
valores propios de A son estrictamente positivos, entonces existe una matriz invertible Q tal que QT AQ = In
y QT BQ = D es una matriz diagonal. Adems, los elementos de la diagonal de D, son las soluciones de la
ecuacin |B A| = 0 las cuales son reales.
Demostracin Puesto que todos los valores propios de A son estrictamente positivos, se sigue del
teorema 3.41, que existe una matriz invertible P tal que P T AP = In . Sea ahora C = P T BP. La matriz
C es simtrica pues, C T = P T BP )T = P T B T P = P T BP = C. Ahora bien, en virtud del teorema 3.32,
existe una matriz ortogonal M tal que M T CM = D es una matriz diagonal con los valores propios de C
en su diagonal principal. En consecuencia:
M T P T AP M = M T In M = M T M = In
y
M T P T BP M = M T CM = D ;
esto es, la matriz Q = P M es tal que QT AQ = In y QT BQ = D es una matriz diagonal. De otro lado, como
se ha expresado, los elementos de la diagonal de D son los valores propios de C, los cuales segn el teorema
3.32 son reales. Esto es, los elementos de la diagonal de D son la soluciones de la ecuacin |C I| = 0.
En vista de que la matriz P es invertible se tiene:
9
|C I| = |P T BP P T AP |
=
sii |B A| = 0
;
= |P T | |B A| |P | = 0
lo cual termina la demostracin del teorema.
simtricas
3
0
2 5
y
2
5
B=4 4
4
4
8
4
3
4
4 5 .
4
Efectuando
los clculos correspondientes se encuentra que los valores propios de A son: 1 = 1 2 = 3 + 5
y 3 = 3 5, los cuales son estrictamente positivos y que la matriz invertible
3
2
1 0
0
7
6
1 7
1
6
P =6 0
7
4
2
2 5
0 0
1
es tal que
P AP = I3
5
C = P BP = 4 2
2
T
63
2
2
4
3
2
4 5 .
2
Diagonalizacin de matrices
6
6
6
6
6
M =6
6
6
6
4
1
3
2
3
2
3
3
2
3 5 7
7
7
4 7
7
7
3 5 7
7
7
2 5
3 5
3
M T CM = D = 4 0
0
0
6
0
6
6
6
6
6
Q = PM = 6
6
6
6
4
es tal que
1
Q AQ = 4 0
0
T
0
1
0
3
0
0 5
1
1
3
2 5
2
3
3
0
0 5.
6
3
2
3 5 7
7
7
3 7
7
7
3 5 7
7
7
5 5
3 5
2
3
Q BQ = D = 4 0
0
T
0
6
0
3
0
0 5.
6
El siguiente teorema indica, que cuando dos matrices simtricas del mismo orden conmutan entre si, se
puede incluso encontrar una diagonalizacin simultnea ortogonal, en forma ms precisa tenemos.
3.51. Teorema (Diagonalizacin ortogonal simultnea). Sean A y B matrices simtricas de orden n. AB =
BA sii existe una matriz ortogonal P tal que P T AP y P T BP son matrices diagonales, cuyos elementos de
la diagonal son respectivamente los valores propios de A y B.
Demostracin =) En virtud del teorema 3.41, existe una matriz ortogonal R tal que:
2
3
1 Ik
6
7
2 Ik2
6
7
RT AR = D = 6
7
.
.
..
.
.
.
.
4
5
.
.
.
.
. . . m Ikm
donde los i son los diferentes valores propios de A y ki es la multiplicidad geomtrica (algebraica) del valor
propio i , i = 1 2 . . . m.
Sea ahora C = RT BR. Puesto que por hiptesis AB = BA entonces
DC = RT ARRT BR = RT BAR = RT BRRT AR = CD.
Particionando la matriz C convenientemente se puede escribir:
64
Diagonalizacin de matrices
DC
CD
6
6
6
4
1 Ik
..
.
2 Ik2
..
.
..
.
1 C12
1 C11
6 2 C21
2 C22
6
6
..
..
4
.
.
m Cm1 m Cm2
2
C12
C11
6 C21 C22
6
6 .
..
...
4 ..
.
Cm1 Cm2
2
2 C12
1 C11
6 1 C21 2 C22
6
6
..
..
4
.
.
1 Cm1 2 Cm2
..
.
m Ikm
..
.
32
7
7
7
5
6
6
6
4
C12
C22
..
.
Cm2
C11
C21
..
.
Cm1
3
1 C1m
2 C2m 7
7
7
..
5
.
m Cmm
32
C1m
1 Ik
6
C2m 7
2 Ik2
76
76
..
..
...
54
.
.
Cmm
3
m C1m
m C2m 7
7
7.
..
..
5
.
.
m Cmm
..
.
..
.
C1m
C2m
..
.
Cmm
..
.
m Ikm
3
7
7
7
5
3
7
7
7
5
C11
6
7
C22
7
6
C=6 .
7.
..
..
..
5
4 ..
.
.
.
Cmm
Como la matriz C es simtrica, cada una de las matrices Cii i = 1 2 . . . m, es simtrica, por tanto existe
una matriz ortogonal Qi tal que QTi Cii Qi = Di es una matriz diagonal. Sea a hora:
2
Q1
6
6
Q=6 .
4 ..
..
.
Q2
..
.
..
.
Qm
7
7
7.
5
La matriz Q es ortogonal (vase ejercicio 11) y es tal que QT CQ = D es una matriz diagonal. Tambin se
tiene que QT DQ = D; es decir,
QT RT ARQ = D
QT RT BRQ = D .
Ya que las matrices R y Q son ortogonales, entonces la matriz P = RQ es ortogonal (vea el ejercicio 10) y
es tal que P T AP y P T BP son matrices diagonales semejantes a A y a B respectivamente.
=) Supongamos que existe una matriz ortogonal P tal que P T AP = D1 y P T BP = D2 son matrices diagonales. Puesto que D1 D2 = D2 D1 entonces:
P T AP P T BP = P T BP P T AP
de donde AB = BA.
3.52. Ejemplo. En este ejemplo se siguen los pasos hechos en la demostracin del teorema anterior en el
sentido =). La vericacin de los clculos numricos queda a cargo del lector.
65
Diagonalizacin de matrices
1
6 1
6
A=4
0
0
1
1
0
0
3
0
0 7
7
0 5
1
0
1
0
0
3 2
0
1 I
6
0 7
7=6
0 5 4
0
0
1
0
1
6 0
6
B=4
0
0
0
1
0
0
3
0
0 7
7
2 5
5
0
0
2
2
son tales que AB = BA. Los valores propios de la matriz A son 1 = 0 de multiplicidad algebraica k1 = 1
2 = 1 de multiplicidad algebraica k2 = 2 y 3 = 2 de multiplicidad algebraica k3 = 1. La matriz ortogonal
2
3
1/ 2 0 0 1/ 2
6
7
6
7
1/ 2 7
6 1/ 2 0 0
7
R=6
6
7
0
1 0
0 7
6
4
5
0
0 1
0
es tal que:
0
6 0
T
6
R AR = D = 4
0
0
2
1
6 0
T
6
R BR = C = 4
0
0
La matriz ortogonal
es tal que
2/ 5
1/ 5
1/ 5
2/ 5
1
6 0
QT CQ = 6
4 0
0
2
0
1
0
0
1 0
6 0 1
T
6
Q DQ = 4
0 0
0 0
En consecuencia, la matriz ortogonal
2
1/ 2
6
6
6 1/ 2
P = RQ = 6
6
6 0
4
0
3 2
0
C11
6
0 7
7=6
0 5 4
0
2
5
0
6
6
6 0
Q=6
6
6 0
4
0
0
2
2
0
0
0
1
0
0
0
6
0
0
0
1
0
2
7
Q
7
0 7 6 1
7=6
7 4
0 7
5
1
2 I
3 I
C22
C33
Q2
3
0
0 7
7 = QT RT ARQ = D .
0 5
2
0
2/ 5
1/ 5
1/ 5
2/ 5
66
1/ 2
1/ 2
0
0
7
7
5
7
7.
5
7
7
5
Q3
3
0
0 7
7 = QT RT BRQ = D
0 5
1
3
7
7
7
7
7
7
5
Diagonalizacin de matrices
1 Ik
6
7
2 Ik2
6
7
RT A1 R = D = 6
7
..
..
..
..
4
5
.
.
.
.
m Ikm
RT Ai RRT A1 R = RT Ai A1 R = RT A1 Ai R
RT A1 RRT Ai R = DCi
Ci1
6
C
i2
6
Ci = 6 .
..
..
4 ..
.
.
..
.
Cim
7
7
7 i = 2 3 . . . s + 1 .
5
RT Ai RRT Aj R = RT Ai Aj R
RT Aj Ai R = RT Aj RRT Ai R = Cj Ci .
Q1
6 Q2
7
7
6
Q=6 .
.
.. 7 .
.
..
..
4 ..
. 5
Qm
La matriz Q es ortogonal y es tal que QT Ci Q = Di es una matriz diagonal. Tambin se tiene que QT DQ =
D. As que:
y
QT RT A1 RQ = D .
QT RT Ai RQ = Di i = 2 3 . . . s + 1
67
Diagonalizacin de matrices
2 1
A1 =
1 2
A2 =
3
4
4
3
A3 =
5
6
6
5
2
1
1 4
R=
2
1
es tal que
RT A1 R
D1 =
RT A2 R
D2 =
RT A3 R
D3 =
1
1
1
0
3
5
0
3
1
0
0
7
11
34 Ejercicios
1. Si A y B son dos matrices simtricas invertibles de igual orden tales que AB = BA, demuestre
entonces existe una matriz ortogonal P tal que P T AP P T BP P T ABP P T AB 1 P P T A1 BP y
P T A1 B 1
2P son matrices diagonales.
3
2
3
1 2 3
1 4 1
5
5 5
4 5
2. Sean A = 4 2
y
B = 4 4 14
3
5 11
1
4
6
a) Verique que todos los valores propios de A son positivos, encontrando una matriz invertible
P tal que P T AP = I.
b) En una matriz invertible M tal que M T AM = I y M T BM = D sea una matriz diagonal.
3. Considere la matrices
2
1
S1 = 4 2
0
2
5
0
3
0
0 5
4
68
2
S2 = 4 3
0
3
6
0
3
0
0 5
4
Diagonalizacin de matrices
3
3 2 0
4
2 2 0 5
S3 =
0
0 8
a) Verique que todos los valores propios de S1 son positivos, encontrando una matriz invertible
P tal que P T S1 P = I.
b) Haga A = P T S2 P y B = P T S3 P .. Verique que AB = BA y encuentre una matriz ortogonal
Q tal que QT AQ = D1 y QT BQ = D2 son matrices diagonales.
c) Concluya que la matriz invertible M = P Q, siendo P y Q como antes, es tal que M T S1 M = I
y M T AM = D1 y M T BM = D2 son matrices diagonales.
69