Sie sind auf Seite 1von 39

CAPTULO 3

Valores propios y vectores propios Diagonalizacin


Este captulo consta de cuatro secciones. Con el n de dar una idea de lo que se har en las dos primeras
secciones, se considerar un espacio vectorial U y una transformacin lineal T : U U. Ahora; si existe
una base ordenada = {u1 u2 . . . un } de U tal que [T ] es una matriz diagonal, es decir,
3
2
1 0 0
6 0 2 0 7
7
6
[T ] = D = 6 .
..
.. 7
..
4 ..
.
.
. 5
0
0 n

entonces

T ui ) = i ui ;

i = 1 2 . . . n

esto es, T ui ) es un mltiplo escalar de ui . Este hecho da informacin inmediata acerca de la transformacin
lineal T . Por ejemplo, la imagen de T es el espacio generado por los vectores ui para los cuales i = 0
y el ncleo de T es el espacio generado por los restantes vectores ui . En la seccin 3.2 se respondern las
preguntas: Para qu transformaciones lineales T existe una tal base ? y si existe, Cmo encontrarla?.
Las respuestas a estas preguntas estn directamente ligadas a los conceptos de valor propio y vector propio,
los cuales sern abordados en la seccin 3.1. Se ver en esta seccin, de que el clculo de los valores propios y
los vectores propios de una transformacin lineal T se reduce al clculo de los valores propios y los vectores
propios de una cierta matriz A. Por otro lado, en las secciones 3.3 y 3.4 se consideraran los conceptos de valor
propio, vector propio y diagonalizacin de matrices simtricas, los cuales son particularmente importantes
en la teora y en aplicaciones del lgebra lineal.

3.1.

Valores propios y vectores propios

Un problema que se presenta con frecuencia en el lgebra lineal y sus aplicaciones es el siguiente: Dado un
espacio vectorial U y dada una transformacin lineal T : U U , encontrar valores de un escalar para
los cuales existan vectores u = 0 tales que T u) = u. Tal problema se denomina un problema de valores
propios (la gura 3.1 ilustra las posibles situaciones). En esta seccin se ver cmo resolver dicho problema.
3.1. Denicin. Sean U un espacio vectorial y T : U U una transformacin lineal. Se dice que el escalar
es un valor propio de T , si existe un vector u = 0 de U tal que T u) = u. A dicho vector no nulo u se
le llama un vector propio de T correspondiente al valor propio , o se dice que es -vector de T .
Nota. Los valores propios se denominan tambin eigenvalores o valores caractersticos y los vectores propios
se denominan tambin eigenvectores.

3.1. Valores propios y vectores propios


T(u)= u

Diagonalizacin de matrices
u

T(u)= u

T(u)= u

>1

0<<1

T(u)= 0

<0

=0

Figura 31 Interpretacin geomtrica de vector propio


3.2. Ejemplo. Calcule los valores propios de la transformacin lineal T : R2 R2 , dada por T x y) =
2x x + 3y).
De acuerdo con la denicin anterior; el escalar es un vector propio T sii existe un vector u = x y) = 0
de R2 tal que T [x y)] = 2x x + 3y) = x y) lo que equivale a que exista un vector u = x y) = 0 de
R2 que satisfaga el sistema
2x

x + 3y

y .

Ahora, si x = 0, entonces se tiene que = 2 y por lo tanto y = x. Esto quiere decir que todos los vectores
de la forma
u = x y) = x x); x R x = 0
son 2-vectores propios de T. En efecto:
T [x x)] = 2x 2x) = 2x x) .
De otro lado, si x = 0 y y = 0 entonces = 3. Esto quiere decir que todos los vectores de la forma
u = x y) = 0 y); y R y = 0

son 3-vectores propios de T. En efecto:


T [0 y)] = 0 3y) = 30 y) .

La gura 3.2 ilustra el ejemplo anterior.


En el ejemplo anterior observamos que a cada vector propio de T le corresponde un nmero innito de
vectores propios (todo un subespacio de U R2 sin el vector nulo). Esto es vlido en general, tal como se
establece en la proposicin siguiente.
3.3. Proposicin. Sean U un espacio vectorial, T : U U una transformacin lineal y un valor propio
de T . El conjunto S) de todos los -vectores propios de T junto con el vector , es un subespacio de U.
Demostracin De acuerdo con la denicin de transformacin lineal, as como de vector y valor
propio se tiene:
1. Si u1 S) y u2 S) entonces

T u1 + u2 ) = T u1 ) + T u2 ) = u1 + u2 ) .

Esto es, u1 + u2 S).


32

Diagonalizacin de matrices

3.1. Valores propios y vectores propios

y
,
T(u)= 3(0,y)

,
u= (0,y)

u= (x,x)

T(u)= 2(x,x)
Figura 32 Vectores propios de T x y) = 2x x + 3y)
2. Si u S) y R entonces
Esto es, u S).

T u) = T u) = u) .

De acuerdo con el teorema 1.15, S) es un subespacio vectorial de U.

3.4. Denicin. Sean U un espacio vectorial, T : U U una transformacin lineal y un valor propio de
T.
1. El subespacio de U S) mencionado en el teorema anterior, se denomina espacio propio asociado
al valor propio .
2. La dimensin de S) se denomina multiplicidad geomtrica del valor propio .
3.5. Nota. Sean U un espacio vectorial, T : U U una transformacin lineal, una base ordenada
para U y A = [T ] la matriz de la transformacin T referida a la base . Entonces para cada u U
se tiene [T u)] = A [u] ver teorema 1.42). En particular, u es un -vector propio de T si y slo si
u = 0 y A [u] = [T u)] = [u] = [u] . Esto es, u es un -vector propio de T si y slo si u = 0
y A [u] = [u] . Por esta razn, y porque resulta en otros contextos, consideramos a continuacin los
conceptos particulares de valor propio y vector propio de una matriz cuadrada A.
3.6. Denicin. Sea A una matriz cuadrada de orden n.
1. Se dice que el escalar es un valor propio de A, si existe un vector n 1, x = 0 tal que Ax = x.
2. Si es un valor propio de A y si el vector n 1, x = 0 es tal que Ax = x. Entonces se dice que
x es un vector propio de A correspondiente al valor propio , o que x es un -vector de A.
En el caso especial de la transformacin lineal; A : Rn Rn ; x y = Ax esta la denicin anterior
concuerda con la denicin 3.1 (vase la seccin 1.3). De otro lado, segn la denicin anterior y la nota
3.5, se puede entonces enunciar el siguiente teorema.
3.7. Teorema. Sean U un espacio vectorial, T : U U una transformacin lineal, B una base ordenada
para U y A = [T ] .
1. es un valor propio de T sii es un valor propio de A.
33

3.1. Valores propios y vectores propios

Diagonalizacin de matrices

2. u U es un -vector propio de T sii x = [u]BB es un -vector propio de A.


Dicho teorema garatiza entonces, que el clculo de los valores y vectores propios de una transformacin
lineal se reduce al clculo de los valores y vectores propios de una cierta matriz A. En lo que sigue, se ver
cmo calcular los valores y vectores propios de una matriz.
Sea A una matriz n n. Por denicin, el escalar es un valor propio de A sii existe un vector n 1 x = 0
tal que Ax = x lo cual equivale a que el sistema homogneo de ecuaciones lineales A I)x = 0 tenga
una solucin no trivial x = 0. Ahora por el teorema 1.56 del captulo 1, el sistema de ecuaciones lineales
A I)x = 0 tiene una solucin x = 0 sii |A I| = 0. En consecuencia, el escalar es un valor propio
de A sii

a11
a12
a13

a1n

a21
a
a

a
22
23
2n

a32
a33

a3n
pA ) = |A I| = a31
=0

..
..
..
.
.
..
.

.
.
.
.

a
a
a

a
n1

n2

n3

nn

La expresin pA ) = |A I| es un polinomio en de grado n (ejercicio 15), el cual se puede escribir en


la forma:
pA ) = |A I| = a0 + a1 + a2 2 + + an1 n1 + 1)n n .
En el caso particular de matrices 3 3 se tiene adems (ejercicio 16), de que el polinomio caracterstico
est dado por
pA ) = |A I| = 3 + TrA)2 m11 + m22 + m33 ) + detA)
siendo mii , (i = 1 2 3) los menores principales de la matriz A (denicin ??).
3.8. Denicin. Sea A una matriz cuadrada
1. El polinomio caracterstico de A est dado por pA ) = |A I|.
2. La ecuacin caracterstica de A est dada por pA ) = |A I| = 0.
El siguiente teorema resume buena parte de la discusin anterior.
3.9. Teorema. Sea A una matriz cuadrada de orden n
1. El escalar es un valor propio de A sii es una solucin (real) de la ecuacin caracterstica de
A.
2. A tiene a lo ms n valores propios (reales)2.[?]
3.10. Denicin. Sea A una matriz cuadrada y un valor propio de A. La multiplicidad algebraica de
es k si es una raz del polinomio caracterstico de A de multiplicidad k.
El siguiente algoritmo, recoge entonces un esquema para calcular los valores propios y los vectores propios
de una matriz A.
Paso 1
Paso 2

Se determina el polinomio caracterstico pA ) = |A I| .


Se resuelve la ecuacin caracterstica pA ) = |A I| = 0. Las soluciones (reales) de sta, son
los valores propios de A.

Aunque uno puede estudiar espacios vectoriales donde los escalares son nmeros complejos, en estas notas slo consideramos los valores propios de como escalares reales, salvo que se exprese lo contrario. No sobra mencionar, que en cursos
avanzados de espacios vectoriales, la nica restriccin para los escalares es que sean elementos de un sistema matemtico
llamado cuerpo o campo.
2El teorema fundamental del lgebra establece que toda ecuacin polinmica de grado n, con coecientes complejos,
tiene exactamente n ra ces complejas, contadas con sus multiplicidades.

34

Diagonalizacin de matrices
Paso 3

3.1. Valores propios y vectores propios

Para cada valor propio de la matriz A, se resuelve el sistema de ecuaciones A I)x = 0.


Las soluciones no nulas de este sistema son los vectores propios de A.

3.11. Ejemplo. Determine los valores propios y vectores propios de la matriz


2
3
1 1 1
A = 4 1 3 1 5 .
1 2
0

Se determina inicialmente, el polinomio caracterstico de A pA ) = |A I| . Para ello se desarrolla el


determinante |A I| por cofactores por la primera la (vase el teorema 1.3)

1
1
1

3 1
pA ) = |A I| = 1
1
2

3 1

3
1 1 1 1 1
= 1 )

1
1
2
=

1 )2 3 + 2) 1 ) + 1)

1 )2 3 + 2) = 1 )2 2).

De aqu se tiene, que = 1 = 2 son las soluciones de la ecuacin caracterstica pA ) = |A I| = 0. =


1 y = 2 so pues los valores propios de A con multiplicidades algebraicas k = 2 y k = 1 respectivamente.
Ahora se calculan los vectores propios de A. Los 1vectores propios de A son las soluciones no nulas del
sistema de ecuaciones lineales A 1 I)x = 0. Dicho sistema se resuelve usando el mtodo de eliminacin
de Gauss-Jordan (vase el teorema 1.55 ).
2
3 2
3
0 1 1
1 0 1
4
5
4
1 2 1
0 1 1 5 = R
A1I =

1 2 1
0 0
0
Donde R es la forma escalonada reducida de la matriz A 1 I (Teorema 1.8).
Las soluciones del sistema A 1 I)x = 0 son,
3 2
2
x1
x = 4 x2 5 = 4
x3

En consecuencia,

por lo tanto, los vectores de la forma:


3
2
3
1
x3
x3 5 = x3 4 1 5
x3 R.
x3
1

82
39
< 1 =
= U1 = 4 1 5
:
;
1

es una base para S1 ) = S1) y la multiplicidad geomtrica del valor propio 1 = 1 es 1.


De otro lado, los 2vectores propios de A son las soluciones no nulas del sistema de ecuaciones lineales
A 2 I)x = 0. Procediendo como en el clculo anterior, se tiene:
2
3 2
3
1 1 1
1 0
0
4
5
4
1 1 1
0 1 1 5 = R
A2I =

1 2 2
0 0
0
Donde R es la forma escalonada reducida de la matriz A 2 I. Las soluciones del sistema A 2 I)x = 0
35

3.1. Valores propios y vectores propios


son los vectores de la forma:
x
En consecuencia,

Diagonalizacin de matrices

3 2
3
2
3
0
x1
0
4 x2 5 = 4 x3 5 = x3 4 1 5
x3
x3
1
2

U2

x3 R.

82
39
< 0 =
= U2 = 4 1 5
:
;
1

es una base para S2 ) = S2) y la multiplicidad geomtrica del valor propio 2 = 2 es 1.


En el ejemplo anterior, la multiplicidad geomtrica del valor propio 1 = 1 es menor que su correspondiente
multiplicidad algebraica y la multiplicidad geomtrica del valor propio 2 = 2 es igual que su correspondiente
multiplicidad algebraica (ver el ejercicio 3.3 de la seccin de ejercicios 3.3).
3.12. Ejemplo. Calcule los valores y vectores propios de la matriz

0
1
A=
.
1
0

Para ello se encuentra el polinomio caracterstico de A pA ) = |A I| .


1
pA ) = |A I| =
= 2 + 1
1
y se resuelve la ecuacin caracterstica de A pA ) = |A I| = 0
pA ) = 2 + 1 = + i) i)

sii

= i = i.

Puesto que las soluciones de la ecuacin caracterstica de A no son reales, entonces A no tiene valores
propios y por lo tanto no tiene vectores propios, en el sentido considerado en este texto.
3.13. Ejemplo. Sea T : P2 P2 la transformacin lineal denida por:

T a + bx + cx2 = a + b c) + a + 3b c)x + a + 2b)x2


Determine los valores y los vectores propios de la transformacin.

Sea = 1 x x2 la base cannica de P2 , se tiene entonces que:


2
3
1 1 1
4
1 3 1 5 .
[T ] = A =
1 2
0

De acuerdo con el teorema 3.7(1); los valores propios de la transformacin lineal T son los valores propios
de la matriz A los cuales son, segn el ejemplo 3.11 1 = 1 y 2 = 2.
De otro lado, del ejemplo 3.11 se sabe que U = {x1 } es una base de S1 ) y que U2 = {x2 } es
una base de S2 ), donde
2
2
3
3
1
0
x1 = 4 1 5
y
x2 = 4 1 5 .
1
1

Como se estableci en el teorema 3.7(2), estos son respectivamente, los vectores de coordenadas respecto a
la base (vase apartado 1.2.2) de los vectores de P2 ;
u1 = 1 + x + x2

36

u2 = x + x2 .

Diagonalizacin de matrices

3.1. Valores propios y vectores propios

En consecuencia; U = {u1 } = 1 + x + x2 es una base del espacio de vectores propios de T correspon

dientes al valor propio 1 = 1 y U2 = {u2 } = x + x2 es una base del espacio de vectores propios de T
correspondientes al valor propio 2 = 2.
Terminamos esta seccin con dos resultados que involucran matrices semejantes. El primero de ellos relaciona
los polimomios caractersticos de matrices semenjantes y el segundo relaciona los vectores propios de dichas
matrices.
3.14. Teorema. Si A y B son matrices semejantes, entonces los polinomios caracter sticos de A y B son
iguales, y por consiguiente, las matrices A y B tienen los mismos valores propios.
Demostracin Si A y B son matrices semejantes, entonces existe una matriz invertible P tal que
B = P 1 AP. De aqu:
pB )

=
=
=
=
=
=
=

|B I|

1
P AP P 1 P
1

P A I)P
|P 1 | |A I| |P |

|P 1 | |P | |A I|
|A I|
pA ).

3.15. Nota. El converso del teorema anterior no es cierto; o sea, si A y B son matrices con el mismo polinomio caracterstico, no necesariamente A y B son matrices semejantes. Para mostrar esto, basta considerar
el siguiente ejemplo.
3.16. Ejemplo. Las matrices
A=

1
0

0
1

B=

1
3

0
1

tienen el mismo polinomio caracterstico; expl citamente se tiene que pA ) = pB ) = 1)2 . Sin
embargo, A y B no son matrices semejantes, pues para cualquier matriz invertible P de orden 2 se tiene
que:
P 1 AP = P 1 IP = P 1 P = I = B.
3.17. Proposicin. Si A y B = P 1 AP son matrices semejantes, entonces x es un vector propio de A
sii P 1 x es un vector propio de B.
Demostracin Por denicin se tiene
Ax = x

AIx = x
AP P 1 x = x
P 1 AP P 1 x = P 1 x

Tomando B = P AP se tiene entonces que: x = es un -vector propio de A si y slo si P 1 x = es un

-vector propio de B = P 1 AP.

37

3.1. Valores propios y vectores propios

Diagonalizacin de matrices

31 Ejercicios
En los ejercicios 1 al 1, responda verdadero o falso, justicando su respuesta:
1. El Polinomio p) = 3+22 +43 puede ser el polinomio caracterstico de una matriz A 33 .
2. Si p) = 3 + 42 5 + 2 es el polinomio caracterstico de una matriz A 33 , entonces
|A| =2 2. 3
2
3
1
3 1 1
3. x = 4 1 5 es un vector propio de M = 4 7 5 1 5
0
6 6 2
4. = 1 es un valor propio de la matriz M anterior.
5. Sea A una matriz cuadrada de orden n. Si C es una matriz cuadrada de orden n invertible, entonces
las matrices A C 1 AC y CAC 1 tienen el mismo polinomio caracterstico.
6. Si la matriz A satisface la igualdad: A2 = 3A 2I entonces los posibles valores propios de A son
1 = 1, 2 = 2.
En los ejercicios 7 al 15 demuestre la armacin correspondiente.
Si es un valor propio de A, entonces n es un valor propio de An n = 1 2 3 . . ..
Si x es un vector propio de A, entonces x es un vector propio de An n = 1 2 3 . . ..
= 0 es un valor propio de una matriz A sii |A| = 0.
Si A es una matriz invertible y es un valor propio de A, entonces 1 es un valor propio de A1 .
Si A y C son matrices cuadradas de orden n y si C es invertible entonces las matrices A AT C 1 AC,
CAC 1 C 1 AT C y CAT C 1 tienen el mismo polinomio caracterstico.
12. Si T es una matriz triangular superior, entonces los valores propios de T son los elementos de la
diagonal principal de T.
13. Si A y B son matrices cuadradas del mismo orden, entonces AB y BA tienen los mismos valores
propios (sugerencia: Analice los casos = 0 es un valor propio de AB y = 0 es un valor propio
de AB).
14. Sean 1 2 . . . n los diferentes valores propios de una matriz A y sean 1 2 . . . m son los
diferentes valores propios de una matriz B, entonces los diferentes valores propios de una matriz
de la forma

A C
M=
B

7.
8.
9.
10.
11.

son 1 2 . . . n , 1 2 . . . m .
15. Si A es una matriz cuadrada de orden n, entonces pA ) = |A I| es un polinomio de grado n
en la variable que tiene la forma:
pA ) = a0 + a1 + a2 2 + + 1)n n .

(Sugerencia: usar induccin sobre n).


16. Si A es una matriz cuadrada de orden 3, entonces el polinomio caracterstico de A, pA ) = |A I|,
tiene la forma
pA )

=
=

|A I|

3 + TrA)2 m11 + m22 + m33 ) + detA)

siendo mii (i = 1 2 3) los menores principales de la matriz A. (Sugerencia: plantee una matriz
general A = aij )33 y use las deniciones correspondientes).
17. Para cada una de las siguientes matrices: encuentre el polinomio caracterstico, los varolres propios
y los correspondientes espacios propios asociados.
38

Diagonalizacin de matrices
i)

iii)

v)

vii)

ix)

M=

M=

1
2

2
1
1
0

1
M =4 3
6
2

3
M =4 1
3
2

2
6 5
6
M =4
0
0

3.2. Diagonalizacin

1
1

3
5
6
1
3
1
4
3
0
0

3
3
3 5
4

3
1
1 5
1
0
0
1
2

M=

iv)

M=

vi)

viii)

3
0
0 7
7
2 5
2

ii)

x)

3.2.

1
2

0
2

0
2

2
0

3
M = 4 7
6

1
5
6

2
M =4 0
0

1
1
2

0
6 2
6
M =4
0
0

2
1
0
0

3
1
1 5
2

3
0
1 5
4

0
0
1
2

3
0
0 7
7
1 5
4

Diagonalizacin

En esta seccin se responderan las preguntas siguientes: Dado un espacio vectorial U y dada una transformacin lineal T : U U Existe una base de U tal que [T ] es una matriz diagonal? y si existe cmo
encontrar una tal base?
Como se estableci en el teorema 1.48(2), si T : U U es una transformacin lineal, 1 y 2 son bases
ordenadas de U A = [T ] y P = [I]2 , entonces D = [T ]2 2 = P 1 AP esto es, las matrices A y D
son semejantes.
Esta consideracin permite formular las preguntas anteriores en trminos de matrices, as: Dada una matriz
cuadrada A, Existe una matriz diagonal D semejante a la matriz?, en otros trminos, existir una matriz
invertible P tal que P 1 AP = D sea una matriz diagonal? y si existe cmo encontrar una tal matriz P ?
3.18. Denicin. Sea A una matriz cuadrada. Se dice que A es diagonalizable si A es semejante a una
matriz diagonal.
3.19. Teorema. Sea A una matriz cuadrada de orden n. Si existen n vectores propios de A linealmente
independientes, entonces A es diagonalizable; esto es, existe una matriz invertible P tal que P 1 AP = D
es una matriz diagonal. Adems, los vectores columna de P son los vectores propios de A y los elementos
de la diagonal de D son los correspondientes valores propios de A.
Demostracin Sean 1 2 . . . n los n valores propios de A los cuales no son necesariamente
diferentes y sean x1 x2 . . . xn , vectores propios de A linealmente independientes, correspondientes respectivamente a cada uno de dichos valores propios.
Sea ahora P la matriz cuya jsima columna es el vector propio xj j = 1 2 . . . n, la cual particionamos
como sigue:

P = x1 x2 xn .

Puesto que las columnas de P son linealmente independientes, entonces P es invertible (teorema 1.56).
39

3.2. Diagonalizacin

Diagonalizacin de matrices

Ahora,
AP

=
=

x1

Ax1

x1

x2
Ax2

x2

xn

xn

PD

Axn
2

1
6
6 0
6 .
4 ..
0

1 x1

0
2
..
.
0

2 x2
3
0
0 7
7
.. 7
..
.
. 5
3

n xn

Donde D es la matriz diagonal indicada arriba. Por lo tanto, P 1 AP = D y el teorema queda demostrado.

El rec proco de este resultado tambin es vlido y est dado por el siguiente teorema. La demostracin se
deja como ejercicio.
3.20. Teorema. Sea A una matriz cuadrada de orden n. Si A es diagonalizable, es decir, si existe una
matriz invertible P tal que P 1 AP = D es una matriz diagonal, entonces existen n vectores propios de A
linealmente independientes. Adems, los vectores columna de P son vectores propios de A y los elementos
de la diagonal de D son los correspondientes valores propios de A.
2
3
4 1
2
4
6
5 6 5 es diagonalizable y encuentre una matriz
3.21. Ejemplo. Verique que la matriz A =
6
3 4
invertible P tal que P 1 AP = D sea una matriz diagonal. Para tal n, veamos que A tiene 3 vectores
propios linealmente independientes. En efecto:
El polinomio caracterstico de A est dado por

pA ) = |A I| = 6
6

1
5
3

2
6
4

= 2)2 1).

La ecuacin caracterstica de A pA ) = |A I| = 0 tiene entonces como solucin a = 2 (de multiplicidad 2) y a = 1 (de multiplicidad 1). Estos escalares son pues, los valores propios de A.
El paso siguiente es determinar los vectores propios asociados:
Los 2-vectores propios de A son las soluciones no nulas del sistema de ecuaciones A 2I)x = 0 y los
1-vectores propios de A son las soluciones no nulas del sistema de ecuaciones A 1I)x = 0. Es decir, se
debe resolver sistemas homogneos de ecuaciones cuyas matrices de coecientes son respectivamente:
2
3
2
3
2 1
2
3 1
2
4
5
4
6
3 6
6
4 6 5 .
A 2I =
y A 1I =
6
3 6
6
3 5
Es fcil vericar que las soluciones del sistema homogneo A 2I)x = 0 son los vectores de la forma
3 2 1
3
2
x x3
x1
2 2
5
x2
x = 4 x2 5 = 4
x3
x3
2
3
2
3
1
1
1 4
5
4
0 5 x2 x3 R
x2 2 + x3
=
2
0
1
40

Diagonalizacin de matrices

3.2. Diagonalizacin

en consecuencia,
U
es una base para S1 ) = S2).

82
3 2
39
1 =
< 1
4
5
4
2
0 5
= U2 =
:
;
0
1

De otra parte, se encuentra que las soluciones del sistema A 1I)x = 0 son los vectores de la forma
3 2 1
3
2
2
3
1
x1
3 x3
1 4
5
5
4
4
x2
x3
3 5 x3 R.
x=
=
= x3
3
x3
x3
3

En consecuencia,

U2
es una base para S2 ) = S1).
Ahora, los vectores

82
39
< 1 =
= U1 = 4 3 5
:
;
3

2
2
3
3
3
1
1
1
4
4
4
5
5
2 x2 =
0
3 5
x1 =
y x3 =
0
1
3

son vectores propios de A correspondientes a los valores propios 2 2 y 1, respectivamente, y son linealmente
independientes como se comprueba fcilmente.
De acuerdo con el teorema 3.19, la matriz A es diagonalizable. Por otro lado, segn la demostracin del
teorema, la matriz
3
2
1 1 1

4
2
0
3 5
P = x1 x2 x3 =
0
1
3
es invertible y es tal que:

2
AP = D = 4 0
0

3.22. Ejemplo. La matriz del ejemplo 3.11,

1
A = 4 1
1

1
3
2

0
2
0

3
0
0 5.
1

3
1
1 5
0

no es diagonalizable, pues vimos en dicho ejemplo, que la matriz A tiene dos valores propios: 1 = 1 y
2 = 2, y que
82
82
39
39
< 1 =
< 0 =
U1 = 4 1 5
y
U2 = 4 1 5
:
:
;
;
1
1

son bases para los espacios propios asociados, respectivamente. As que A slo tiene dos vectores propios
linealmente independientes.

3.23. Teorema. Si 1 2 . . . k son los valores propios diferentes de una matriz A y si x1 x2 . . . xk


son vectores propios de A correspondientes a los valores propios 1 2 . . . k , respectivamente, entonces
C = {x1 x2 . . . xk } es un conjunto linealmente independiente.
41

3.2. Diagonalizacin

Diagonalizacin de matrices

Demostracin La demostracin se har utilizando induccin sobre el nmero k de vectores del conjunto C.
Si C = {x1 }, entonces C es linealmente independiente, pues x1 = 0.
El teorema es cierto para cuando k = 2. En efecto: Si
(3.1)

1 x1 + 2 x2 = 0

premultiplicando (3.1) por el escalar 2 se obtiene:


(3.2)

2 1 x1 + 2 2 x2 = 0.

De otra parte; premultiplicando (3.1) por la matriz A se llega a:


(3.3)

1 1 x1 + 2 2 x2 = 0.

Restando (3.3) de (3.2) se obtiene:


2 1 )1 x1 = 0.

Puesto que x1 = 0 entonces 2 1 )1 = 0. Dado que 1 = 2 se tiene entonces que 1 = 0. Reemplazando este valor de 1 en (3.1) se llega a que 2 x2 = 0 pero x2 = 0 entonces 2 = 0.
Suponga ahora que el teorema es cierto para cuando k = j y verique que el teorema es cierto para
cuando k = j+1. Si
(3.4)

1 x1 + 2 x2 + . . . + j xj + j+1 xj+1 = 0

premultiplicando (3.4) por el escalar j+1 se obtiene:


(3.5)

j+1 1 x1 + j+1 2 x2 + . . . + j+1 j xj + j+1 j+1 xj+1 = 0

De otra parte; premultiplicando (3.4) por la matriz A se llega a:


(3.6)

1 1 x1 + 2 2 x2 + . . . + j j xj + j+1 j+1 xj+1 = 0.

Restando (3.6) de (3.5) se obtiene:


j+1 1 )1 x1 + j+1 2 )2 x2 + . . . + j+1 j )j xj = 0.

Por hiptesis de induccin se tiene

j+1 1 )1 = j+1 2 )2 = . . . = j+1 j )j = 0 .

De otro lado, por hiptesis del teorema los escalares 1 . . . j j+1 son diferentes, entonces se obtiene que
1 = 2 = . . . = j = 0. Reemplazando estos valores en 3.4 se llega a que j+1 xj+1 = 0 pero xj+1 = 0

entonces j+1 = 0. El teorema queda entonces demostrado.


La prueba del siguiente corolario es consecuencia inmediata de los teoremas 3.23 y 3.19.
3.24. Corolario. Sea A una matriz cuadrada de orden n. Si A posee n valores propios distintos, entonces
A es diagonalizable.
3.25. Ejemplo. La matriz

1
A=4 0
0

2
4
0

3
3
5 5
6 33

es diagonalizable. En efecto, la ecuacin caracterstica de A es:

pA ) = |A I| = 1)3 1) 4) 6) = 0.

De esto se sigue que A tiene tres valores propios distintos, a saber: 1 = 1 2 = 4 y 3 = 6.


42

Diagonalizacin de matrices

3.2. Diagonalizacin

De acuerdo con los teoremas 3.19 y 3.20, dada la matriz cuadrada A de orden n; existe una matriz invertible
P tal que P 1 AP = D es una matriz diagonal sii A tiene n vectores propios linealmente independientes.
Adems, si existe una tal matriz P , los vectores columna de P son vectores propios de A y los elementos de
la diagonal de D son los valores propios de A. Quedan as contestadas las preguntas propuestas al comienzo
de esta seccin sobre la diagonalizacin de matrices. El siguiente teorema responde a las preguntas sobre
diagonalizacin pero formuladas en el contexto de las transformaciones lineales.
3.26. Teorema. Sea U un espacio de dimensin n y sea T : U U una transformacin lineal. Existe
una base ordenada 2 de U tal que [T ]2 2 = D es una matriz diagonal sii T tiene n vectores propios
linealmente independientes. Adems, si 2 = {u1 u2 . . . un } es una base ordenada de U tal que
2
3
1 0 0
6 0 2 0 7
6
7
[T ]2 2 = D = 6 .
..
.. 7
..
4 ..
.
.
. 5
0
0 n

es una matriz diagonal, entonces ui es un i -vector propio de T, o sea T ui ) = i ui i = 1 2 . . . n.

Demostracin Puesto que las matrices asociadas a transformaciones lineales y referidas a bases
arbitrarias son semejantes, y puesto que el polinomio caracterstico de matrices semejantes es el mismo (ver
teorema 3.14), se puede considerar una base arbitraria 1 para U .
Sea pues A = [T ] la matriz de la transformacin T referida a dicha base 1 , Existe una base ordenada
2 de U tal que D = [T ]2 2 = [I]1
2 A [I]2 es una matriz diagonal sii A es semejante a una matriz
diagonal. Ahora por los teoremas 3.19 y 3.20; A es semejante a una matriz diagonal si y slo si A tiene n
vectores propios linealmente independientes, lo cual equivale a que T tenga n vectores propios linealmente
independientes (ver el apartado 1.2.2)
Adems, si 2 = {u1 u2 . . . un } es una base ordenada
2
1
6 0
6
[T ]2 2 = D = 6 .
4 ..
0

de U tal que
0
1
..
.
0

..
.

0
0
..
.
1

3
7
7
7
5

es una matriz diagonal, entonces, de acuerdo con la denicin de la matriz [T ]2 2 T ui ) = i ui ; o sea,


ui es un i -vector propio de T , i = 1 2 . . . n.

3.27. Ejemplo. Considere la transformacin lineal T : P3 P3 denida por:

T a + bx + cx2 = 4a b + 2c) + 6a + 5b 6c)x + 6a + 3b 4c)x2 .

Encuentre una base ordenada 2 de U = P2 tal que [T ]2 2 = D es una matriz diagonal.


Sea 1 = {1 x x} la llamada base cannica de P2 entonces:
2
4 1
5
A = [T ] = 4 6
6
3

3
2
6 5
4

que es la matriz del ejemplo 3.21. De dicho ejemplo se sabe que


2
2
3
3
2
3
1
1
1
4
5
4
4
5
2 x2 =
0
3 5
y x3 =
x1 =
0
1
3
43

3.2. Diagonalizacin

Diagonalizacin de matrices

son vectores propios linealmente independientes de A, correspondientes respectivamente a los valores propios
2 2 y 1. Tales vectores x1 x2 y x3 son los correspondientes vectores de coordenadas, respecto a la base 1 ,
de los vectores u1 u2 y u3 de P2 para
u1 = 1 + 2x;

u2 = 1 + x2

u3 = 1 + 3x + 3x2 .

Ahora, los valores propios de T son los valores propios de A (ver teorema 3.7), esto es, los diferentes
valores propios de T son 1 = 2 y 2 = 1. De otro lado, por lo establecido en el apartado 1.2.2, u1 u2 y
u3 son vectores propios de T linealmente independientes, correspondientes a los valores propios 2 2 y 1,
respectivamente. En consecuencia, de acuerdo con el teorema anterior, 2 = {u1 u2 u3 } es una base para
P2 tal que:
2
3
2 0 0
4
0 2 0 5.
[T ]2 2 = D =
0 0 1
Como se ha visto, dada una matriz cuadrada A de orden n existe una matriz invertible P tal que P 1 AP =
D es una matriz diagonal sii existen n vectores propios de A linealmente independientes. En el caso en
que A no posea n vectores propios linealmente independientes, es posible, bajo cierta condicin, que A sea
semejante a una matriz triangular superior T ; es decir, que A sea semejante a una matriz T = [tij ]nn para
la cual tij = 0 si i > j. El siguiente teorema explicita esta armacin.
3.28. Teorema. Sea A una matriz cuadrada (real) de orden n. Todas las soluciones de la ecuacin caracterstica de A son reales sii existe una matriz invertible P (real) tal que P 1 AP = T es una matriz
triangular superior. Adems, si existe una tal matriz P , entonces los elementos de la diagonal de T son los
valores propios de A.
Demostracin =) La demostracin en este sentido se har, utilizando induccin sobre el orden
n de la matriz A. Para cuando n = 2 la implicacin es verdadera. En efecto, de la hiptesis se sigue que
A tiene dos valores propios (reales) los cuales no son necesariamente distintos. Sea 1 un valor propio de
A. Existe por lo tanto un vector 2 1 x1 = 0 tal que Ax1 = 1 x1 . Por el teorema1.21(3), existe un vector
2 1 x2 = 0 tal que = {x1 x2 } es una base para 21 . Ahora, la matriz P = [ x1 x2 ] es invertible;
escribamos a P 1 particionada por las as:

y1
y1 y2 12
P 1 =
y2
entonces se tiene que

P 1 AP =
es una matriz triangular superior.

y1
y2

x1

x2

y1 Ax2
y2 Ax2

=T

Supongamos ahora que la implicacin es verdadera para cuando n = j 1 y demostremos que sta es
verdadera cuando n = j j 3. Sea A una matriz cuadrada de orden j para la cual todas las soluciones
de su ecuacin caracterstica son reales. De sto se sigue que A tiene j valores propios (reales) los cuales
no son necesariamente distintos. Sea 1 un valor propio de A. Existe por lo tanto un vector j 1 x1 = 0
tal que Ax1 = 1 x1 . Por el teorema 1.21(3), existen j 1 vectores x2 x3 . . . xj de j1 tales que
= {x1 x2 x3 . . . xj } es una base para j1 . Ahora por el teorema 1.56, la matriz

x1 x2 xj = x1 M
P1 =
es invertible. Escribamos la inversa P 1 as:

y1

P11 =
N

y1 1j y N j1)j .
44

Diagonalizacin de matrices
Entonces se tiene
P11 AP1 =

3.2. Diagonalizacin

y1
N

x1

es una matriz triangular superior por bloques.

1
0

y1 AM
N AM

1
0

B
C

= T1

Ahora, las matrices A y T1 tienen el mismo polinomio caracterstico (teorema 3.14):


pA ) = p ) = 1 ) |C I| .

De sto se sigue, que todas las soluciones de la ecuacin caracterstica de la matriz cuadrada de orden j 1,
C, son reales. Por hiptesis de induccin, existe una matriz invertible Q tal que Q1 CQ = T2 es una matriz
triangular superior. Sea ahora:

P2 =
Q
entonces se tiene que la matriz invertible P = P1 P2 es tal que

1 B
1

P 1 AP = P21 P11 AP1 P2 =


1
Q
C
Q

1 BQ
1
BQ
=T
=
=
1
Q CQ

T2

es una matriz triangular superior.

La demostracin de la otra implicacin y de la segunda armacin del teorema quedan como ejercicio
para el lector.

3.29. Ejemplo. Todas las soluciones de la ecuacin


2
1
A = 4 1
1
son reales, pues:

caracterstica de la matriz del ejemplo 3.22


3
1 1
3 1 5
2
0 33

pA ) = 1)2 2) = 0 sii 1 = 1 2 = 2 .
De otro lado, como lo establecimos en el ejemplo 3.22, la matriz A no es diagonalizable, pues A slo posee
dos vectores propios linealmente independientes. En particular:
2
2
3
3
1
0
x1 = 4 1 5
y
x2 = 4 1 5
1
1

son vectores propios linealmente independientes correspondientes a los valores propios 1 = 1 y 2 = 2,


respectivamente.

Por el teorema anterior, existe una matriz invertible P tal que P 1 AP = T es una matriz triangular
superior. Para encontrar una tal matriz P , basta proporcionar un vector x3 tal que = {x1 x2 x3 } sea
una base para 31 ; el vector
2
3
0
x3 = 4 2 5
3
sirve para tal efecto. Ahora bien, la matriz
2
3
1 0 0

4
1 1 2 5
P = x1 x2 x3 =
1 1 3
45

3.2. Diagonalizacin

Diagonalizacin de matrices

es invertible y es tal que


P
es una matriz triangular superior.

1
AP = T = 4 0
0

0
2
0

3
1
2 5
1

De acuerdo con el teorema anterior, si A es una matriz cuadrada (real) cuyos valores propios no son todos
reales entonces, no puede existir una matriz invertible P (real) tal que P 1 AP = T sea una matriz triangular
superior. Ahora bien, como se ha mencionado se pueden estudiar espacios vectoriales donde los escalares
sean nmeros complejos (ver pis de pgina de la pgina 34) y se pueden obtener resultados ms generales.
En particular, se tiene que para toda matriz cuadrada A (real o compleja) existe una matriz invertible P
(real o compleja) tal que P 1 AP = T sea una matriz triangular superior. Este resultado se tiene, gracias
a la propiedad importante del sistema de los nmeros complejos que establece, que todo polinomio de
grado n con coecientes reales o complejos tiene exactamente n races reales o complejas, contadas sus
multiplicidades. En el teorema siguiente se establece este resultado sin demostracin. Quien desee estudiar
sobre ste, puede consultar las secciones 5.5 y 5.6 de [1].
3.30. Teorema. Para toda matriz cuadrada A (real o compleja) existe una matriz invertible P (real o
compleja) tal que P 1 AP = T es una matriz triangular superior. Adems, los elementos de la diagonal de
T son las soluciones de la ecuacin caracterstica de A.
3.31. Ejemplo. Considere la matriz (real)
2

La ecuacin caracterstica de A es

1
A=4 0
0

pA ) = |A I|

=
=

0
0
1

3
0
1 5.
0

1)2 + 1)

1) i) + i) = 0 .

De esto se sigue que A slo tiene un valor propio real, a saber, 1 = 1.


En este caso no es posible que exista una matriz invertible P (real) tal que P 1 AP = T sea una matriz triangular superior. Sin embargo, en el contexto de los espacios vectoriales donde los escalares son
nmeros complejos, se puede decir, que A tiene tres valores propios complejos 1 = 1 2 = i y 3 = i .
Efectuando, en este contexto, los clculos pertinentes, se encuentra que
2
3
2
3
2
3
1
0
0
y
x3 = 4 i 5
x1 = 4 0 5 x2 = 4 i 5
0
1
1
son tres vectores propios complejos de A linealmente independientes correspondientes a los valores propios
complejos 1 = 1 2 = i y 3 = i respectivamente. As que la matriz compleja:
2
3
1
0 0

4
0 i
i 5
P = x1 x2 x3 =
0
1 1
46

Diagonalizacin de matrices

3.2. Diagonalizacin

es invertible y es tal que


P

AP

1
4 0
0
2
1
4 0
0

0
i/2
i/2
0
i
0

32
0
1
i/2 5 4 0
i/2
0
3

0
0 5=D
i

0
0
1

32
0
1
1 54 0
0
0

0
i
1

3
0
i 5
1

es una matriz diagonal, y por lo tanto, es una matriz triangular superior.

32 Ejercicios
En los ejercicios 1 al 1 responda verdadero o falso, justicando su respuesta:
1. Si una matriz cuadrada A es diagonalizable, entonces existen innitas matrices invertibles P tales
que P 1 AP = D es una matriz diagonal.
2. Si A es una matriz 3 3con valores propios 1 = 1 2 = 2 y 3 = 3 entonces A es diagonalizable,
det A = 6 y TrA) = 4.
3. Si A es una matriz invertible y es un valor propio de A entonces = 0 y 1/)es un valor propio
de A1 .
En los ejercicios 4 al 7 demuestre la armacin correspondiente
4. Sea A nn tal que pA ) = 1)n 1 ) 2 ) n ), Demuestre que: (i) |A| =
1 2 n y (ii) Tr A = 1 + 2 + + n .
5. Sea A una matriz cuadrada n n tal que
n
X
|aij |
|aii | >
j=ij=1

para todo i = 1 2 . . . n, entonces A es invertible. (Sugerencia: suponga que existe un vector x =


ax{|x1 | |x2 | . . . |xn |}. Despeje aii xi en
[ x1 x2 xn ]T = 0 tal que Ax = 0 y que |xi | = m
la i-sima ecuacin del sistema Ax = 0, tome valor
absoluto y llegue a una contradiccin).
A C
.
6. Sean A nn ; B mm ; C nm y M =
B
a) Describa el conjunto de valores propios de M en trminos de los valores propios de A y de B.
(Sugerencia: calcule pA ) = detM I)).

x1
es un -vector propio
b) Demuestre que si x1 es un -vector propio de A entonces x =

de M.
7. Si A es una matriz n n tal que A2 = mA entonces
Tr A = mA).

(Sug.: considere (i) A) = 0 (ii) A) = n y (ii) 0 < A) < n, use el teorema 3.28)
8. Considere cada una de las matrices M del problema 17 de la seccin de ejercicios 3.1. Encuentre,
si es posible, una matriz invertible P tal que P 1 M P sea una matriz diagonal
9. Sea T : P2 P2 la transformacin lineal denida por

T [a + bx + cx2 ] = a b + 4c) + 3a + 2b c)x + 2a + b c)x2 .

a) Calcule los valores propios y los vectores propios.


b) D, si existe, una base ordenada C de P2 tal que [T ]CC sea una matriz diagonal.
47

3.3. Matrices simtricas

Diagonalizacin de matrices
3.3.

Diagonalizacin de matrices simtricas

En esta seccin se limitar el estudio de los conceptos de valor propio, vector propio y diagonalizacin a
matrices simtricas. Dos resultados importantes que se vern en esta seccin son los siguientes: (i) Todas
las soluciones de la ecuacin caracterstica de toda matriz simtrica (real) son reales, y (ii) Toda matriz
simtrica (real) es diagonalizable, y ms an, diagonalizable en una forma especial.
Como se ver en el captulo 4, los valores propios de una matriz simtrica se utilizan como criterio para
decidir cundo una forma cuadrtica es positivamente (negativamente) denida (semidenida) o indenida.
Como se estableci al nal de la seccin anterior, uno puede estudiar espacios vectoriales donde los escalares son nmeros complejos. nicamente en la demostracin del teorema 3.32, se utilizarn los hechos
siguientes que involucran nmeros complejos.
1. El conjugado del nmero complejo z = a + bi a b R, se denota por z y se dene as: z = a bi.
2. Un nmero complejo z es real sii z = z.
3. La matriz conjugada de la matriz compleja n n, A, se de nota por A y cuyos componentes son
Aij = Aij i j = 1 2 . . . n.
4. Para todo vector complejo n 1 x, se tiene: x T x = xT x y x T x = 0 sii x = 0.
5. Para toda matriz cuadrada A con componentes complejas; |A| = 0 sii existe un vector x = 0 con
componentes complejas, tal que Ax = 0.
3.32. Teorema. Sea A una matriz (real) cuadrada de orden n. Si A es una matriz simtrica, entonces
todas las soluciones de la ecuacin caracterstica de A: pA ) = |A I| = 0 son reales. Esto es, A tiene
n valores propios (reales) los cuales no son necesariamente diferentes.
Demostracin Si pA ) = |A I| = 0 entonces por (5), existe un vector x = 0 tal que:

(3.1)

Ax = x

de esto se sigue que, (ver (3) y (2)):


(3.2)

Ax = x .

Ahora, premultiplicando (3.1) por x T y (3.2) por xT se tiene


(3.3)

x T Ax = x T x

xT Ax = xT x

puesto que x T Ax = x T Ax)T = xT AT x = xT Ax de (3.3) se sigue que:


(3.4)

x T x = xT x .

De (4) se tiene que x T x = xT x por lo tanto, de (3.4) se concluye que :


Ya que x = 0, de (4) se tiene que

)x T x = 0.
) = 0

o sea,

= .

en consecuencia, por (2), es un nmero real.

En lo que resta de estas notas, no se har ms referencia al sistema de nmeros complejos.


El teorema 3.23 establece que, para cada matriz cuadrada A, los vectores propios correspondientes a valores
propios diferentes son linealmente independientes. Para matrices simtricas se tiene un resultado ms fuerte.
Este resultado se establece en el teorema siguiente.
48

Diagonalizacin de matrices

3.3. Matrices simtricas

3.33. Teorema. Si 1 2 . . . k son los valores propios diferentes de una matriz simtrica A y si x1 x2 . . . xk
son vectores propios de A correspondientes a los valores propios 1 2 . . . k , respectivamente, entonces
el conjunto de vectores C = {x1 x2 . . . xk } es ortogonal.
Demostracin Se debe demostrar que xi ; xj = xTi xj = 0 si i = j para i j = 1 2 . . . k
Por la hiptesis se tiene que:
(3.5)

Axi

i xi

(3.6)

Axj

j xj .

Ahora, premultiplicando (3.5) por xTj y a (3.6) por xTi se obtiene


xTj Axi = i xTj xi

(3.7)

xTi Axj = j xTi xj

puesto que xTj Axi = xTj Axi )T = xTi AT xj = xTi Axj de (3.7) se sigue que:
xTj xi = j xTi xj .

(3.8)

Ya que xTj xi = xTi xj de (3.8) se concluye que:


i j )xTi xj = 0.

Ahora bien, los valores propios son distintos, entonces xTi xj = 0, si i = j i j = 1 2 . . . k.


3.34. Denicin. Se dice que una matriz cuadrada P es ortogonal, si P es invertible y P
3.35. Ejemplo. La matriz

es ortogonal, pues:

2
1
14
2
P =
3
2

2
2
1

=P .

3
2
1 5
2

3
3 2
3 2
2
2
1 2
2
1 0 0
1
2
1 5 4 2 2 1 5 = 4 0 1 0 5 = I.
PP
3
1 2
2 1 2
0 0 1

3.36. Proposicin. Una matriz P = x1 x2 xn es ortogonal sii el conjunto = {x1 x2 . . . xn }


constituye una base ortonormal de n1 .
T

2
1
14
2
=P =
3
2

Demostracin La matriz P =
2
PTP

xT1
6
6 T
6 x2
6
6 .
6 ..
6
4

xTn

x1

x2

xn

es ortogonal sii P T P = I. Ahora bien,

2 T
x1 x1
6
7
6 T
7
6 x2 x1
7
6
7
7 [x1 x2 xn ] = 6
..
6
7
.
6
7
4
5
3

xTn x1

xT1 x2

xT1 xn

xT2 x2
..
.

..
.

xT2 xn
..
.

xTn x2

xTn xn

Es fcil entonces observar, que P T P = I si y slo si se cumple que:


(
1 si
i=
j
;
i j = 1 2 . . . n
xTi xj =
0 si
i=j

3
7
7
7
7
7
7
7
5

lo cual equivale a que = {x1 x2 . . . xn } es una base ortonormal de n1 (ver seccin 1.2.3).
49

3.3. Matrices simtricas

Diagonalizacin de matrices

3.37. Teorema. Si es un valor propio de una matriz simtrica, entonces las multiplicidades algebraica
y geomtrica de son iguales.

Demostracin Sea A una matriz simtrica de orden n y sea un valor propio de A. Supongamos que
la multiplicidad geomtrica de es r. Por el teorema 1.33, existe una base ortonormal = {x1 x2 . . . xr }
del espacio de vectores propios asociados a S ). Si r = n la matriz P = [ x1 x2 xn ] es
ortogonal (proposicin 3.36), y de acuerdo con el teorema 3.19,
P T AP = P 1 AP = D = I .
Ahora, las matrices A y D tienen igual polinomio caracterstico:
pA ) = pD ) = | I I| = )n .
De esto se sigue que es un valor propio de A con multiplicidad algebraica r = n.
De otra parte, si r < n, existen nr vectores y1 y2 . . . ynr de n1 tales que = {x1 . . . xr y1 . . . ynr }
es una base ortonormal de n1 (teorema 1.34). Por la proposicin 3.36, la matriz
P =

x1

x2

xr

y1

y2

ynr

es ortogonal. Considere ahora la matriz T = P T AP = P 1 AP es decir, la matriz:


T

=
=
=

XT
YT
I

X T AY
Y T AY

B
.
C

Puesto que A es simtrica, T T = P T AP )T = P T AT P = P T AP = T o sea

B
C

I
B

CT

por lo tanto B = y
T =

Puesto que las matrices A y T son semejantes, entonces tienen el mismo polinomio caracterstico:
pA ) = pT ) = |T I| = )r |C I| .
De esto se sigue, que es un valor propio de A con multiplicidad algebraica k r. Veamos que k = r. Si
k > r entonces se debe tener que |C I| = 0 y por lo tanto existe un vector n r) 1 w = 0 tal que
Cw = w.
50

Diagonalizacin de matrices

3.3. Matrices simtricas

Considere ahora el vector no nulo u n1 dado por u = P

u=P

. Es decir,
2

6
6
6
6
6
6
6
[x1 x2 xr y1 y2 ynr ] 6
6
6
6
6
6
4

0
0
..
.
0
w1
w2
..
.
wnr

w1 y1 + w2 y2 + wnr ynr .

3
7
7
7
7
7
7
7
7
7
7
7
7
7
5

/ x1 x2 . . . xr
Esto es, el vector u y1 y2 . . . ynr y u

De otro lado, el vector u, es un -vector propio de A. En efecto,

I
=P
PTP
Au = P
w

= P
=P
Cw
w

= u .
= P
w

Esto indica, que B = {x1 x2 . . . xr ur+1 } es un conjunto de r + 1 vectores propios linealmente independientes correspondientes al valor propio , lo cual contradice el hecho de que la multiplicidad geomtrica

de sea r.
3.38. Teorema. Si A es una matriz simtrica de orden n entonces A tiene n vectores propios ortogonales,
y por tanto, linealmente independientes.

Demostracin Sean 1 2 . . . k los diferentes valores propios de A. Supongamos que la multiplicidad algebraica de i es mi mi = 1 2 . . . k; esto es, supongamos que
pA ) = 1)n 1 )m 2 )m2 k )mk

donde m1 + m2 + + mk = n.

Por el teorema anterior, la multiplicidad geomtrica de i es mi , i = 1 . . . k. Sean ahora:


U1 = {x11 . . . x1m } Uk = {xk1 . . . xkmk }

bases ortogonales de S1 ) Sk ) respectivamente. Entonces por el teorema 3.33, el conjunto de n


vectores propios de A:
U

=
=

es ortogonal.

U1 U2 Uk

{x11 . . . x1m x21 . . . x2m2 . . . xk1 . . . xkmk }

La demostracin del siguiente corolario es consecuencia inmediata del teorema 3.38 y del teorema 3.19.
3.39. Corolario. Toda matriz simtrica es diagonalizable.
3.40. Denicin. Sea A una matriz cuadrada. Se dice que A es ortogonalmente diagonalizable si existe un
matriz ortogonal P tal que P T AP = D es una matriz diagonal.
51

3.3. Matrices simtricas

Diagonalizacin de matrices

3.41. Teorema. Si A es una matriz simtrica, entonces A es ortogonalmente diagonalizable; esto es, existe
una matriz ortogonal P tal que P T AP = D es una matriz diagonal. Ms an, las columnas de la matriz P
son los vectores propios de A y los elementos de la diagonal de D son los valores propios de A.
Demostracin Sea A es una matriz simtrica de orden n, entonces A tiene n vectores propios
ortonormales x1 x2 . . . xn (teorema 3.38). Supongamos que stos corresponden a los valores propios
1 2 . . . n respectivamente. La matriz P = [ x1 x2 xn ] es ortogonal (proposicin 3.36), y de
acuerdo con la demostracin del teorema 3.19, se tiene que
2

6
6
P T AP = P 1 AP = D = 6
4

1
0
..
.
0

0
2
..
.
0

..
.

0
0
..
.
n

7
7
7.
5

El recproco del teorema 3.41 tambin es vlido y est dado por el siguiente
3.42. Teorema. Si una matriz A es ortogonalmente diagonalizable, entonces A es simtrica.
Demostracin Por hiptesis, existe una matriz ortogonal P que diagonaliza a la matriz A esto es,
se tiene que P T AP = D, siendo D una matriz diagonal. De aqu que:
A = P DP T = P DT P T )T = P DP T )T = AT
o sea, A es una matriz simtrica.

3.43. Ejemplo. Para la matriz simtrica:

5
A=4 2
2

2
2
4

3
2
4 5
2 33

encontre una matriz ortogonal P tal que P T AP = D sea una matriz diagonal.
Para ello se debe encontrar tres vectores propios de A ortonormales. El polinomio caracterstico de A
pA ) = |A I| est dado por:

5
2
2

2
4 = + 3) 6)2 .
pA ) = |A I| = 2
2
4
2

Se requiere ahora resolver la ecuacin caracterstica de A pA ) = |A I| = 0. Pero dado que


pA ) = + 3) 6)2 = 0

sii = 3

=6

se tiene entonces, que los diferentes valores propios de A son 1 = 3 y 2 = 6.


Por denicin, los 3)-vectores propios de A son las soluciones no nulas del sistema de ecuaciones lineales
A + 3I) x = 0 y los 6-vectores propios de A son las soluciones no nulas del sistema de ecuaciones lineales
A 6I)x = 0. Se tiene entonces:
2
3
2
3
8
2
2
1
2
2
4
5
4
2
5 4
2 4 4 5 .
A + 3I =
y
A 6I =
2 4
5
2 4 4
52

Diagonalizacin de matrices

3.3. Matrices simtricas

Es fcil vericar, que las soluciones del sistema homogneo A + 3I)x = 0 son los vectores de la forma:
2
3 2 1
3
2
3
x1
1
2 x3
1 4
4
5
5
4
x2
x3
2 5 ; x3 R.
x=
=
= x3
2
x3
x3
2

En consecuencia,

b3
b = U
U

82
39
< 1 =
= 4 2 5
:
;
2

es una base para S1 ) = S3). Aplicando el proceso de ortogonalizacin de Gram-Scmidt a esta base
(vea el teorema 1.33), se llega a que:
8 2
39
1 =
<
1
b3 =
b = U
4 2 5
U
:3
;
2

es una base ortonormal de S1 ) = S3).

De otra parte, se encuentra que las soluciones del sistema homogneo A 6I)x = 0 son los vectores de la
forma:
3 2
3
2
x1
2x2 + 2x3
4
5
5
4
x2
x2
x =
=
x3
x3
2
3
2
3
2
2
= x2 4 1 5 +x3 4 0 5 ; x2 x3 R.
0
1
En consecuencia,

b2
U

82
3 2
39
2 =
< 2
b6 = 4 1 5 4 0 5
=U
:
;
0
1

es una base para S2 ) = S6). Aplicando el proceso de ortogonalizacin de Gram-Schmidt a esta base se
llega a que:
8
2
2
3
39
2
2 =
<
1 4
1 4
b
b
5
1
4 5
U2 = U6 =
: 5
;
3 5
0
5
es una base ortonormal de S2 ) = S6).

Segn la demostracin del teorema 3.38,


b U
b2
U =U

8 2
2
2
3
39
3
2
2 =
1
<
14
1
1
2 5 4 1 5 4 4 5
=
:3
;
5
3 5
0
5
2

es un conjunto ortonormal de vectores propios de A. Ahora, segn la demostracin del teorema 3.41, la
matriz,
3
2
2
2
1

6 3
5
3 5 7
7
6
7
6 2
4
1
7

P =6
6 3
5
3 5 7
7
6
5
4 2
2

0
3
3 5
53

3.3. Matrices simtricas

Diagonalizacin de matrices

es ortogonal tal que


T

P AP = P

AP = D = 4

3
0
0

3
0
0 5.
6

0
6
0

3.44. Teorema. Sea A una matriz simtrica de orden n. Supongamos que A que tiene p (0 p n)
valores propios, no necesariamente diferentes, estrictamente positivos y (0 n) valores propios, no
necesariamente diferentes, estrictamente negativos. Entonces existe una matriz invertible P tal que:
3
2

Ip
T
P AP = 4 I 5 .

Si adems existe otra matriz invertible Q tal que


2

Ip
Q AQ = 4

entonces p = p y = .

Demostracin Sean 1 2 . . . los valores propios de A estrictamente positivos (no necesariamente distintos) y sean x1 x2 . . . xp vectores propios ortonormales de A asociados respectivamente a
tales valores propios. Sean adems 1 2 . . . los valores propios de A estrictamente negativos (no necesariamente distintos) y y1 y2 . . . y vectores propios ortonormales de A asociados a dichos valores propios
negativos y sean z1 z2 . . . z = np+), vectores propios ortonormales de A asociados al valor propio
nulo (0). Segn la demostracin del teorema 3.41, la matriz M , cuyas columnas son los correspondientes
vectores propios organizados adecuadamente, es ortogonal. Es decir, la matriz
M = [ x1

x2

xp

y1

y2

z1

z2

z ]

es ortogonal. De otro lado, se tiene que M T AM = D es una matriz diagonal con los valores propios en su
diagonal y dispuestos as:
2
3
Dp

T
M AM = D = 4 D 5


donde:
3
3
2
2
1 0 0
1 0 0
6 0 2 0 7
6 0 2 0 7
7
7
6
6
D = 6 .
..
.. 7 y D = 6 ..
..
.. 7 .
.
..
.
.
4 .
4 .
.
.
.
. 5
.
. 5
0
0 p
0
0
Sea ahora D la matriz diagonal:
3
2

Dp

4
D 5
D =

I
donde
2 1
3

0
6
7
1
6
7
1
7
6 0

0
7
6

2
7 y.
D = 6
6
7
..
..
..
..
6
7
.
.
.
.
6
7
4
1 5
0
0
p
p
54

Diagonalizacin de matrices

3.3. Matrices simtricas


2

6
6
6
6

D = 6
6
6
6
4

1
1
0

..
.
0

D DD

M AM D = 4

Ip
4

..

La matriz D es invertible y es tal que:

1
2
..
.

Dp Dp Dp

3
7
7
7
7
7
7
7
7
5

..
.
1
p

D D D

5.

En consecuencia, la matriz invertible P = M D es tal que:


2

Ip
T
P AP = 4 I

I I

5.

Para la unicidad suponga ahora que las matrices invertibles P y Q son tales que:
3
3
2
2

Ip
Ip
T
T
5
4
4
I
I 5 .
P AP =
y
Q AQ =

Lo que se quiere probar ahora es que = y = .

Para ello se escribe las matrices P y Q particionadas por columnas as:

Por hiptesis se tiene que:

[ x1

x2

[ y1

y2

8
T
>
>xi Axi = 1
>
>
>
>
>
>
>
>xT Axj = 0
>
< i

>
>
>
yiT Ayi 0
>
>
>
>
>
>
>
>
:yT Ay = 0
j
i

Ahora, el conjunto de vectores de n1 :

xp
yp

xp+1
yp +1

xn ] y
yn ]

si

i = 1 2 . . . p

si

i = j i j = 1 2 . . . n)

si

i = p + 1 p + 2 . . . n

si

i = j i j = 1 2 . . . n).

C = {x1 x2 . . . xp yp +1 yp +2 . . . yn }

es linealmente independiente. En efecto, si

1 x1 + . . . + p xp + 1 yp +1 + . . . + np yn = 0
entonces el vector
U

1 x1 + 2 x2 + . . . + p xp

1 yp +1 2 yp +2 . . . np yn
55

3.3. Matrices simtricas

Diagonalizacin de matrices

es tal que:
U T AU

1 x1 + . . . + p xp )T A1 x1 + . . . + p xp )

21 + 22 + . . . + 2p 0

y
U T AU

1 yp +1 + . . . + np yn )T A1 yp +1 + . . . + np yn )

2
T
yn Ayn 0
12 ypT +1 Ayp +1 + 22 ypT +2 Ayp +2 + . . . + np

Por lo tanto U T AU = 0. De esto se sigue que 1 = 2 = . . . = p = 0. En consecuencia,


1 yp +1 + 2 yp +2 + . . . + np yn = 0 .
Puesto que la matriz Q es invertible, los vectores yp +1 yp +2 . . . yn son linealmente independientes, y
por lo tanto, 1 = 2 = . . . = np = 0.
Ahora bien, como la dimensin del espacio vectorial n1 es n y C es un conjunto linealmente independiente de p + n p ) vectores en n1 , entonces por el teorema 1.42(2):
p + n p ) n

o sea, p p . Argumentando en forma similar se demuestra que p p de donde p = p .


De otro lado, de la hiptesis, se tiene que
A) = p + = p +
por lo tanto = .

Nota. En la parte (1) del teorema anterior se tiene que P T AP es igual a:


(i) In si p = n.
(ii) In si = n.

Ip
(iii)
si 0 < p < n y = 0.

I
si 0 < < n y p = 0.
(iv)

Ip

(v)
si 0 < p < n y 0 < < n y p + = n.
I
2
3

Ip
(vi) 4 I 5 si 0 < p < n y 0 < < n y p + < n.

(vii) sii A = .

3.45. Ejemplo. Para la matriz simtrica


2

1
A = 4 2
0

2
0
2

3
0
2 5
1

encuentre una matriz invertible P tal que P T AP sea una matriz diagonal con las caractersticas que se
establecen en el teorema anterior.
56

Diagonalizacin de matrices

3.3. Matrices simtricas

Efectuando los clculos pertinentes se encuentra que los valores propios de A son: 1 = 3 2 = 3 y
3 = 0 y que la matriz ortogonal:
2
3
2 1 2
14
2 2 1 5
M=
3
1 2
2
es tal que

3
M AM = D = 4 0
0
T

Ahora, la matriz diagonal

6
6
D = 6
4

es invertible y es tal que:


D DD

3
0

DT M T AM D
2 1

0
0
6
3
6
1
6 0

0
4
3
0
0
1
2
3
1
0
0
4 0 1
0 5
0
0
0

o sea, la matriz invertible P = M D es tal que

32 3
76
76
0
76
56
4
0

7
7
0 7
5
1

0
3
0

32

1
7 6 3
76
0 7
76
0
54
0
0

0
1

3
0

7
7
0 7
5

0
I1
0

I1
P AP = 4 0
0
T

3
0

3
0
0 5.
0

0
3
0

3
0
0 5.
0

En relacin con la primera parte del teorema 3.44 (ver su demostracin) y tal como aparece en el ejemplo
anterior, un mtodo para calcular una de tales matrices P consiste en encontrar una matriz ortogonal M
que diagonalice a la matriz A y despus postmultiplicar a M por una matriz diagonal conveniente D .
A continuacin damos otro mtodo para calcular, simultneamente, una de tales matrices P y la matriz
P T AP. El mtodo se basa en el hecho de que la matriz P es invertible y por ende se puede expresar como
producto de un nmero nito de matrices elementales (vase teorema 1.9(2)); esto es, P = E1 E2 Ek
donde E1 E2 Ek son matrices elementales. As que una forma de calcular la matriz
P T AP = EkT E2T E1T A E1 E2 Ek

consiste en efectuar una sucesin de operaciones elementales en las las de A y la misma sucesin de
operaciones elementales en las columnas de A (vase teorema 1.6), hasta lograr lo deseado. Esta misma
sucesin de operaciones elementales en las las de la matriz identidad I da P T . El siguiente ejemplo ilustra
el mtodo para encontrar una tal matriz P .
3.46. Ejemplo. Para la matriz simtrica

A=4

1
2
3

2
5
4
57

3
3
4 5
9

3.3. Matrices simtricas

Diagonalizacin de matrices

encontre una matriz invertible P tal que P T AP sea una matriz diagonal con las caractersticas que se
establecen en el teorema 3.44.
Se forma entonces la matriz

3
1
2 3 1 0 0
5 4 0 1 0 5 .
[A|I ]=4 2
3 4
9 0 0 1

Se efectua entonces, en las las de la matriz A | I , las operaciones elementales; E1T ; multiplicar
los elementos de la primera la por = 2 y sumar los resultados con los correspondientes elementos de
la segunda la, E2T ; multiplicar los elementos de la primera la por = 3 y sumar los resultados con los
correspondientes elementos de la tercera la. As se obtiene la matriz
[ E2T E1T A

E2T E1T I ] = [ A1

B1 ]

luego se efectuan las mismas operaciones elementales en las columnas de la matriz A1 para obtener:
[ E2T E1T A
Se tiene:

E2T E1T I ] = [ A1

E1 E 2 |
2

1
[ A1 | B1 ] = 4 0
0

2
1
2

3
2
0

1
| B1 ] = 4 0
0

0
1
2

0
2
0

A1

1
2
3
1
2
3

B1 ] .
3
0
0 5
1

0
1
0

3
0
0 5.
1

0
1
0

Se efectua ahora, en las las de la matriz [ A1 | B1 ] , la operacin elemental; E3T ; multiplicar los
elementos de la segunda la por = 2 y sumar los resultados con los correspondientes elementos de la
tercera la. As se obtiene la matriz
[ E3T E2T E1T AE1 E2

E3T E2T E1T I ] = [ A2

[ E3T E2T E1T AE1 E2 E3 |

E3T E2T E1T I ] = [ A2

B2 ]

B2 ] .

luego se realiza la misma operacin elemental en las columnas de la matriz A2 para obtener:
Se tiene entonces:

1
[ A2 | B2 ] = 4 0
0

y
[

A2

1
| B2 ] = 4 0
0

0
1
0
0
1
0

0
2
4
0
0
4

1
2
7
1
2
7

0
1
2
0
1
2

3
0
0 5
1

3
0
0 5.
1

Finalmente, se efectua en las las de la matriz [ A2 | B2 ] la operacin elemental; E4T ; multiplicar los
elementos de la tercera la por = 1/2. As se obtiene la matriz
[ E4T E3T E2T E1T AE1 E2 E3

E4T E3T E2T E1T I ] = [ A3

B3 ]

luego se realiza la misma operacin elemental en las columnas de la matriz A3 para obtener:
i
h
[ E4T E3T E2T E1T AE1 E2 E3 E4 | E4T E3T E2T E1T I ] = A3 | B3 .

Se tiene:

1
6
[ A3 | B3 ] = 4 0
0

0
1

0
0

58

1
2
7
2

0
1
1

3
0
0 7
5
1
2

Diagonalizacin de matrices

3.3. Matrices simtricas

1
6
[ A3 | B3 ] = 4 0
0

0
1

0
0

1
2
7
2

0
1
1

3
0
0 7
5
1
2

As que la matriz invertible


P

= B3 =

E4T E3T E2T E1T

es tal que

1
6
= 4 2
7
2

1
P AP = D = A3 = 4 0
0

0
1
1

3
0
0 7
5
1
2

3
0
0 5.
1

0
1
0

Se puede decir entonces, que la matriz A tiene dos valores estrictamente positivos y un valor propio estrictamente negativo.
3.47. Nota. En relacin con el mtodo ilustrado en el ejemplo anterior, si todos los elementos de la diagonal
principal de la matriz simtrica A = [aij ]nn son nulos y si aij = 0 i = j, entonces sumando la la j a la la
i y la columna j a la columna i se obtiene una matriz simtrica A = M T AM con 2aij en el lugar isimo
de la diagonal principal de A . Una vez hecho esto, se sigue el proceso descrito en el ejemplo anterior.
3.48. Ejemplo. Para la matriz simtrica
A=

0
1

1
0

encuentre una matriz invertible P tal que P T AP sea una matriz diagonal con las caractersticas que se
establecen en el teorema 3.44.
Se forma ahora la matriz:

0
1

[ MT A

[A|I ]=

1
0

1
0

0
1

Se efectua, en las las de la matriz, [ A | I ] la operacin elemental M T ; sumar los elementos de la


segunda la con los correspondientes elementos de la primera la. As se obtiene la matriz
MT I ]

luego se efectua la misma operacin elemental en las columnas de la matriz M T A para obtener la matriz:

M T AM | M T I = A | M T
Se tiene:

[ MT A | MT I ] =

[ A | M T ] =

1
1

2
1

59

1
0

1
0

1
0

1
0

1
1

1
1

3.3. Matrices simtricas

Diagonalizacin de matrices

Ahora se realiza, en las las de la matriz [ A | M T ], la operacin elemental; E1T ; multiplicar los
elementos de la primera la por = 12 y sumar los resultados con los correspondientes elementos de la
segunda la. As se obtiene la matriz
[ E1T A

E1T M T ] = [ A1

B1 ]

luego se realiza la misma operacin elemental en las columnas de la matriz A1 para obtener:
[ E1T A E1
Se tiene:

[ A1 | B1 ] =

A1

E1T M T ] = [ A1

|
"

2
0

| B1 ] =
h

1
1

"

1
1

1
1
2

1
1

0
1

2
i

B1 ] .

1
1
2

y
#

las operaciones elementales; E2T ; multiplicar los

elementos de la primera la por = 12 , y, E3T ; multiplicar los elementos de la segunda la por = 2 .


As se obtiene la matriz

T T T
E3 E2 E1 A E1 | E3T E2T E1T M T = A2 | B2
Se efectua ahora en las las de la matriz

A1

B1

luego se realizan las mismas operaciones elementales en las columnas de la matriz A2 para obtener:
[ E3T E2T E1T A E1 E2 E3

Se tiene:

2
2
6
6
[ A2 | B2 ] = 6
4
0

As que la matriz invertible

6
6
[ A2 | B2 ] = 6
4

E3T E2T E1T M T ] = [ A2


0

P T = B2 = E3T E2T E1T M T

es tal que

6
6
=6
4
2

P T AP = D = A3 = 4

B2 ] .

1 3

2 7
7
7
1 5

1 3

2 7
7
7
1 5

2
1

2
0

1 3

2 7
7
7
1 5

5.
0 1
Se puede decir, que la matriz A tiene un valor estrictamente positivo y un valor propio estrictamente
negativo.

60

Diagonalizacin de matrices

3.3. Matrices simtricas

33 Ejercicios
Para los ejercicios 1 al 7 responda verdadero o falso, justicando su respuesta:
1.
2.
3.
4.
5.
6.

Si A y B son matrices simtricas de orden n entonces la matriz AB es simtrica.


Sean A y B matrices simtricas de orden n. AB es simtrica sii AB = BA.
Si P es una matriz ortogonal, entonces P 1 tambin es ortogonal.
Si P es una matriz ortogonal, entonces P T tambin es ortogonal.
Si P es una matriz ortogonal, entonces |P | = 1.
Una matriz P de tamao nn es ortogonal sii los vectores la de P conforman una base ortonormal
de Rn .

1
1
7. La matriz P =
es ortogonal.
1 1

En los ejercicios 8 al 1 demuestre la armacin da correspondiente


8. Si es un valor propio de una matriz A entonces la multiplicidad geomtrica de es menor o
igual que la multiplicidad algebraicade . (sugerencia:
vea
la demostracin del teorema 3.37).

A B
In
In
yP =
9. Sean A B nn M =
In In
B A
1
1
= P.
a) Verique que P
2
b) Calcule P 1 M P y concluya que det M = detA + B) detA B).
c) Use (b) para mostrar que
pM ) = detM I) = detA + B) I) detA B) I) .

10. Si P y Q son matrices ortogonales, entonces P Q es una matriz ortogonal.


11. Si Q1 Q2 . . . Qm son matrices ortogonales, entonces la matriz
3
2
0

0
Q1
6 0 Q2

0 7
7
6
Q=6 .
..
.. 7 .
..
4 ..
.
.
. 5
0
0 Qm

es tambin ortogonal .
12. Sea x un -vector propio de A y sea y un -vector propio de AT , donde = entonces x y son
vectores ortogonales (sugerencia: vea la demostracin del teorema 3.33).
13. Si A es una matriz simtrica idempotente n n entonces:
n
n X
X
aij )2 .
A) = Tr A =
i=1 j=1

14.
15.
16.

17.

(Sugerencia: Utilice el teorema 3.44 y el corolario 2.17)


Sea a n1 un vector no nulo. Entonces A = aT a)1 aaT es una matriz simtrica de rango 1 y
es tal que A2 = A.
Si A es una matriz simtrica tal que todos los valores propios son positivos, entonces existe una
matriz invertible M tal que A = M T M. (Sugerencia: utilice el teorema 3.44(1))
Si A es una matriz simtrica tal que todos los valores propios son positivos, entonces existe una
matriz triangular superior e invertible, T , tal que A = T T T. (Sugerencia: utilice induccin sobre el
orden n de la matriz A).
Si A es una matriz simtrica de orden n que tiene p valores propios positivos p < n) y n p valores
propios nulos, entonces existe una matriz no invertible M tal que A = M T M. (Sugerencia: utilice
el teorema 3.44(1)).
61

3.3. Matrices simtricas

Diagonalizacin de matrices

18. Sean A B matrices simtricas de igual orden. Suponga adems que A2 = A y que los valores
propios de B son positivos, entonces:
ABA) = A) = Tr A
(sugerencia: Utilice los ejercicios (15) y (13) y el Teorema 1.53(4)).
19. Si A = [aij ]nn es una matriz simtrica tal que
aii >

n
X

j=1 j=i

|aij |

para todo i = 1 2 . . . n entonces todos los valores propios de A son positivos. (Sugerencia: suponga 0 es un valor propio de A y utilice el ejercicio (5) de la seccin 3.2 para llegar a una
contradiccin).
20. Para cada una de las siguientes matrices encuentre una matriz ortogonal P , tal que P T M P sea
una matriz diagonal. D en cada caso Tr M y A).

i)

M=

1
2

2
5

ii)

1
M = 4 1
0

3
0
0 5
1

1
0
0

3
2
3
2 1 1
1 1 1
1 1 5
iii) M = 4 1 2 1 5 iv) M = 4 1
1 1 2
1 1
1
2
3
2
3
4 2 2
4 4 2
v) M = 4 2 3 0 5 vi) M = 4 4 4 2 5
2 0 5
2 2 1

21. Para cada una de las siguientes matrices encuentre una matriz invertible Q, tal que QT M Q sea de
la forma
3
2
0
0
Ip
4 0 I 0 5 .
0
0
0
i)

iii)

v)

1
M = 4 1
0
2

1
M =4 2
0
2

2
M =4 1
1

1
1
0
2
0
0
1
1
1

3
0
0 5
1

3
0
0 5
1

3
1
1 5
5

ii)

iv)

vi)

0
M =4 1
1
2

M =4
2

M =4

1
2
2

1
0
1

0
2
1

1
2
1

2
4
2

3
1
2 5
1

3
1
1 5
1

3
1
2 5
8

22. Considere las matrices del ejercicio anterior:


T
I, encuentre
a) Si QT M Q =
una matriz invertible P tal que M = P P.
Ip 0
encuentre una matriz no invertible P tal que M = P T P.
b) Si QT M Q =
0 0

62

Diagonalizacin de matrices
3.4.

3.4. Diagonalizacin simultnea

Diagonalizacin simultnea de matrices simtricas

En esta seccin se ver un par de teoremas sobre diagonalizacin simultnea de matrices simtricas, los cuales
son tiles en estadstica. En particular el teorema 3.51 se utiliza en la demostracin de la independencia de
dos ciertas formas cuadrticas (ver teorema 4.5.3 de [4]).
3.49. Teorema (Diagonalizacin simultnea). Sean A y B matrices simtricas de orden n. Si todos los
valores propios de A son estrictamente positivos, entonces existe una matriz invertible Q tal que QT AQ = In
y QT BQ = D es una matriz diagonal. Adems, los elementos de la diagonal de D, son las soluciones de la
ecuacin |B A| = 0 las cuales son reales.
Demostracin Puesto que todos los valores propios de A son estrictamente positivos, se sigue del
teorema 3.41, que existe una matriz invertible P tal que P T AP = In . Sea ahora C = P T BP. La matriz
C es simtrica pues, C T = P T BP )T = P T B T P = P T BP = C. Ahora bien, en virtud del teorema 3.32,
existe una matriz ortogonal M tal que M T CM = D es una matriz diagonal con los valores propios de C
en su diagonal principal. En consecuencia:
M T P T AP M = M T In M = M T M = In
y
M T P T BP M = M T CM = D ;
esto es, la matriz Q = P M es tal que QT AQ = In y QT BQ = D es una matriz diagonal. De otro lado, como
se ha expresado, los elementos de la diagonal de D son los valores propios de C, los cuales segn el teorema
3.32 son reales. Esto es, los elementos de la diagonal de D son la soluciones de la ecuacin |C I| = 0.
En vista de que la matriz P es invertible se tiene:
9
|C I| = |P T BP P T AP |
=
sii |B A| = 0
;
= |P T | |B A| |P | = 0
lo cual termina la demostracin del teorema.

3.50. Ejemplo. Considere las matrices


2
1 0
A=4 0 4
0 2

simtricas
3
0
2 5
y
2

5
B=4 4
4

4
8
4

3
4
4 5 .
4

Efectuando
los clculos correspondientes se encuentra que los valores propios de A son: 1 = 1 2 = 3 + 5
y 3 = 3 5, los cuales son estrictamente positivos y que la matriz invertible
3
2
1 0
0
7
6
1 7
1
6
P =6 0
7
4
2
2 5
0 0
1
es tal que

P AP = I3

5
C = P BP = 4 2
2
T

63

2
2
4

3
2
4 5 .
2

3.4. Diagonalizacin simultnea

Diagonalizacin de matrices

Por el ejemplo 3.43 se sabe que

6
6
6
6
6
M =6
6
6
6
4

es ortogonal y es tal que

1
3

2
3

2
3

3
2

3 5 7
7
7
4 7
7

7
3 5 7
7
7
2 5

3 5

3
M T CM = D = 4 0
0

0
6
0

En consecuencia, la matriz invertible

6
6
6
6
6
Q = PM = 6
6
6
6
4

es tal que

1
Q AQ = 4 0
0
T

0
1
0

3
0
0 5
1

1
3

2 5

2
3

3
0
0 5.
6
3
2

3 5 7
7
7
3 7
7
7
3 5 7
7
7
5 5

3 5
2

3
Q BQ = D = 4 0
0
T

0
6
0

3
0
0 5.
6

El siguiente teorema indica, que cuando dos matrices simtricas del mismo orden conmutan entre si, se
puede incluso encontrar una diagonalizacin simultnea ortogonal, en forma ms precisa tenemos.
3.51. Teorema (Diagonalizacin ortogonal simultnea). Sean A y B matrices simtricas de orden n. AB =
BA sii existe una matriz ortogonal P tal que P T AP y P T BP son matrices diagonales, cuyos elementos de
la diagonal son respectivamente los valores propios de A y B.

Demostracin =) En virtud del teorema 3.41, existe una matriz ortogonal R tal que:
2
3

1 Ik
6
7

2 Ik2
6
7
RT AR = D = 6
7
.
.
..
.
.
.
.
4
5
.
.
.
.

. . . m Ikm

donde los i son los diferentes valores propios de A y ki es la multiplicidad geomtrica (algebraica) del valor
propio i , i = 1 2 . . . m.
Sea ahora C = RT BR. Puesto que por hiptesis AB = BA entonces
DC = RT ARRT BR = RT BAR = RT BRRT AR = CD.
Particionando la matriz C convenientemente se puede escribir:
64

Diagonalizacin de matrices

DC

CD

6
6
6
4

3.4. Diagonalizacin simultnea

1 Ik

..
.

2 Ik2
..
.

..
.

1 C12
1 C11
6 2 C21

2 C22
6
6
..
..
4
.
.
m Cm1 m Cm2
2
C12
C11
6 C21 C22
6
6 .
..
...
4 ..
.
Cm1 Cm2
2
2 C12
1 C11
6 1 C21 2 C22
6
6
..
..
4
.
.
1 Cm1 2 Cm2

..
.
m Ikm

..
.

32
7
7
7
5

6
6
6
4

C12
C22
..
.
Cm2

C11
C21
..
.
Cm1
3

1 C1m
2 C2m 7
7
7
..
5
.
m Cmm
32
C1m

1 Ik
6
C2m 7
2 Ik2
76
76
..
..
...
54
.
.
Cmm

3
m C1m
m C2m 7
7
7.
..
..
5
.
.
m Cmm

..
.

..
.

C1m
C2m
..
.
Cmm

..
.
m Ikm

3
7
7
7
5

3
7
7
7
5

Ya que DC = CD y i = j , si i = j, entonces se tiene que Cij = 0, si i = j y por tanto


3
2

C11
6

7
C22
7
6
C=6 .
7.
..
..
..
5
4 ..
.
.
.

Cmm

Como la matriz C es simtrica, cada una de las matrices Cii i = 1 2 . . . m, es simtrica, por tanto existe
una matriz ortogonal Qi tal que QTi Cii Qi = Di es una matriz diagonal. Sea a hora:
2

Q1
6
6
Q=6 .
4 ..

..
.

Q2
..
.

..
.
Qm

7
7
7.
5

La matriz Q es ortogonal (vase ejercicio 11) y es tal que QT CQ = D es una matriz diagonal. Tambin se
tiene que QT DQ = D; es decir,
QT RT ARQ = D

QT RT BRQ = D .

Ya que las matrices R y Q son ortogonales, entonces la matriz P = RQ es ortogonal (vea el ejercicio 10) y
es tal que P T AP y P T BP son matrices diagonales semejantes a A y a B respectivamente.
=) Supongamos que existe una matriz ortogonal P tal que P T AP = D1 y P T BP = D2 son matrices diagonales. Puesto que D1 D2 = D2 D1 entonces:
P T AP P T BP = P T BP P T AP
de donde AB = BA.

3.52. Ejemplo. En este ejemplo se siguen los pasos hechos en la demostracin del teorema anterior en el
sentido =). La vericacin de los clculos numricos queda a cargo del lector.
65

3.4. Diagonalizacin simultnea

Las matrices simtricas:

Diagonalizacin de matrices

1
6 1
6
A=4
0
0

1
1
0
0

3
0
0 7
7
0 5
1

0
1
0
0

3 2
0
1 I
6
0 7
7=6
0 5 4

0
0
1
0

1
6 0
6
B=4
0
0

0
1
0
0

3
0
0 7
7
2 5
5

0
0
2
2

son tales que AB = BA. Los valores propios de la matriz A son 1 = 0 de multiplicidad algebraica k1 = 1
2 = 1 de multiplicidad algebraica k2 = 2 y 3 = 2 de multiplicidad algebraica k3 = 1. La matriz ortogonal
2

3
1/ 2 0 0 1/ 2
6
7

6
7
1/ 2 7
6 1/ 2 0 0
7
R=6
6
7
0
1 0
0 7
6
4
5
0
0 1
0
es tal que:

0
6 0
T
6
R AR = D = 4
0
0
2

1
6 0
T
6
R BR = C = 4
0
0
La matriz ortogonal

es tal que

2/ 5

1/ 5

1/ 5

2/ 5

1
6 0
QT CQ = 6
4 0
0
2

0
1
0
0

1 0
6 0 1
T
6
Q DQ = 4
0 0
0 0
En consecuencia, la matriz ortogonal
2

1/ 2
6

6
6 1/ 2
P = RQ = 6
6
6 0
4
0

3 2
0
C11
6
0 7
7=6
0 5 4

0
2
5
0

6
6
6 0
Q=6
6
6 0
4
0

0
2
2
0

0
0
1
0

0
0
6
0
0
0
1
0

2
7
Q
7
0 7 6 1
7=6
7 4
0 7

5
1

2 I

3 I

C22

C33

Q2

3
0
0 7
7 = QT RT ARQ = D .
0 5
2
0

2/ 5

1/ 5

1/ 5

2/ 5

66

1/ 2

1/ 2
0
0

7
7
5

7
7.
5

7
7
5
Q3

3
0
0 7
7 = QT RT BRQ = D
0 5
1

3
7
7
7
7
7
7
5

Diagonalizacin de matrices

3.4. Diagonalizacin simultnea

es tal que P T AP = D y P T BP = D son matrices diagonales.


3.53. Corolario. Sean A1 A2 . . . Ak matrices simtricas de orden n. Una condicin necesaria y suciente
para que exista una matriz ortogonal P tal que P T Ai P sea una matriz diagonal para cada i = 1 2 . . . k es
que Ai Aj = Aj Ai para cada i y j; i j = 1 2 . . . k.
Demostracin (=) La demostracin de esta parte del teorema se har utilizando induccin sobre
el nmero de matrices k. Para cuando k = 2 el corolario es cierto por el teorema anterior. Suponga ahora
que el corolario es cierto para cuando k = s; se quiere demostrar que el corolario es cierto para cuando
k = s + 1. Sean pues A1 A2 . . . As+1 matrices simtricas de orden n tales que Ai Aj = Aj Ai para cada i
y j; i j = 1 2 . . . s + 1. Por el teorema 3.41 existe una matriz ortogonal R tal que
2
3

1 Ik
6
7

2 Ik2
6
7
RT A1 R = D = 6
7
..
..
..
..
4
5
.
.
.
.

m Ikm

donde los , = 1 2 . . . m son los diferentes valores propios de A1 y k es la multiplicidad geomtrica


(algebraica) del valor propio .
Ahora, para cada i (i = 2 3 . . . s + 1) se toma la matriz Ci = RT Ai R. Puesto que por hiptesis
A1 Ai = Ai A1 , entonces
Ci D

RT Ai RRT A1 R = RT Ai A1 R = RT A1 Ai R

RT A1 RRT Ai R = DCi

para i = 2 3 . . . s + 1. De esto se sigue que:


2

Ci1
6

C
i2
6
Ci = 6 .
..
..
4 ..
.
.

..
.
Cim

7
7
7 i = 2 3 . . . s + 1 .
5

Ahora, como Ai Aj = Aj Ai para todo i y todo j; i j = 2 3 . . . s + 1, entonces:


Ci Cj

RT Ai RRT Aj R = RT Ai Aj R

RT Aj Ai R = RT Aj RRT Ai R = Cj Ci .

De esto se sigue que para cada = 1 2 . . . m.


Ci Cj = Cj Ci .
De otra parte, como la matriz Ci es simtrica, entonces la matriz Ci es simtrica para cada i = 2 3 . . . s+1
y cada = 1 2 . . . m. Por lo anterior y por la hiptesis de induccin; para cada , existe una matriz
ortogonal Q tal que
QTi Ci Qi = D
es una matriz diagonal. Sea ahora:
3
2

Q1
6 Q2
7
7
6
Q=6 .
.
.. 7 .
.
..
..
4 ..
. 5

Qm

La matriz Q es ortogonal y es tal que QT Ci Q = Di es una matriz diagonal. Tambin se tiene que QT DQ =
D. As que:
y
QT RT A1 RQ = D .
QT RT Ai RQ = Di i = 2 3 . . . s + 1
67

3.4. Diagonalizacin simultnea

Diagonalizacin de matrices

Puesto que R y Q son matrices ortogonales, entonces la matriz P = RQ es ortogonal. En consecuencia, la


matriz ortogonal P es tal que P T Ai P es una matriz diagonal para i = 2 3 . . . s + 1.
(Necesidad:) Supongamos ahora que existe una matriz ortogonal P tal que P T Ai P = Di es una matriz diagonal para cada i = 1 2 . . . k. Puesto que Di Dj = Dj Di para todo i y todo j, i j = 1 2 . . . k,
entonces
P T Ai P P T Aj P = P T Aj P P T Ai P
de donde se tiene que Ai Aj = Aj Ai para todo i y todo j; i j = 1 2 . . . k.
3.54. Ejemplo. Las matrices simtricas

2 1
A1 =

1 2

A2 =

3
4

4
3

A3 =

5
6

6
5

son tales que Ai Aj = Aj Ai , i = 1 2.


La matriz ortogonal

2
1
1 4
R=
2
1

es tal que

RT A1 R

D1 =

RT A2 R

D2 =

RT A3 R

D3 =

1
1

1
0

3
5
0
3

1
0

0
7

11

es decir, la matriz ortogonal R diagonaliza de manera simultnea a las matrices A1 A2 y A3 .

34 Ejercicios
1. Si A y B son dos matrices simtricas invertibles de igual orden tales que AB = BA, demuestre
entonces existe una matriz ortogonal P tal que P T AP P T BP P T ABP P T AB 1 P P T A1 BP y
P T A1 B 1
2P son matrices diagonales.
3
2
3
1 2 3
1 4 1
5
5 5
4 5
2. Sean A = 4 2
y
B = 4 4 14
3
5 11
1
4
6
a) Verique que todos los valores propios de A son positivos, encontrando una matriz invertible
P tal que P T AP = I.
b) En una matriz invertible M tal que M T AM = I y M T BM = D sea una matriz diagonal.
3. Considere la matrices
2

1
S1 = 4 2
0

2
5
0

3
0
0 5
4

68

2
S2 = 4 3
0

3
6
0

3
0
0 5
4

Diagonalizacin de matrices

3.4. Diagonalizacin simultnea

3
3 2 0
4
2 2 0 5
S3 =
0
0 8
a) Verique que todos los valores propios de S1 son positivos, encontrando una matriz invertible
P tal que P T S1 P = I.
b) Haga A = P T S2 P y B = P T S3 P .. Verique que AB = BA y encuentre una matriz ortogonal
Q tal que QT AQ = D1 y QT BQ = D2 son matrices diagonales.
c) Concluya que la matriz invertible M = P Q, siendo P y Q como antes, es tal que M T S1 M = I
y M T AM = D1 y M T BM = D2 son matrices diagonales.

69

Das könnte Ihnen auch gefallen