Sie sind auf Seite 1von 43

148 – Matemáticas 1

Unidad IV

Álgebra Lineal

Prof: José Antonio Abia Vian Grados de Ing. Industrial : Curso 2012–2013
149 – Matemáticas 1 : Álgebra Lineal

Capı́tulo 13

Espacios vectoriales reales


13.1 Espacios vectoriales

Definición 276.- Un espacio vectorial real V es un conjunto de elementos denominados vectores, junto con
dos operaciones, una que recibe el nombre de “suma de vectores” y otra que recibe el nombre de “producto de
vectores por números reales” o “producto por escalares”, que verifican las siguientes propiedades:
(1) u + v ∈ V ; ∀ u, v ∈ V .

(2) u + v = v + u ; ∀ u, v ∈ V .
(3) u + ( v + w ) = ( u + v ) + w ; ∀ u, v , w ∈ V .
(4) Existe un vector, llamado vector cero y denotado por 0 , tal que: 0 + u = u + 0 = u ; ∀u ∈V.
(5) Para cada u ∈ V , existe un vector de V , llamado opuesto de u y denotado por −u , tal que
u + ( −u ) = 0 .
(6) k u ∈ V ; ∀k ∈ R y ∀ u ∈ V .
(7) k( u + v ) = k u + k v ; ∀ k ∈ R y ∀ u, v ∈ V .
(8) (k + l)u = k u + l u ; ∀ k, l ∈ R y ∀ u ∈ V .

(9) (kl) u = k(l u ) ; ∀ k, l ∈ R y ∀ u ∈ V .


(10) 1 u = u ; ∀u ∈V.
Por ser los escalares de R , se dice que V es un R -espacio vectorial. Se pueden considerar espacios vectoriales
sobre otros cuerpos de escalares, como C .
Ejemplo Los conjuntos Rn , los conjuntos de polinomios Pn [X] = {P (X) ∈ R[X] : gr(P ) ≤ n} y los conjuntos
de matrices reales Mm×n = {matrices de tamaño m×n } , con las operaciones usuales en cada uno de ellos, son
espacios vectoriales reales.
Propiedades 277.- Algunas propiedades que se deducen de las anteriores son:

(i) 0 u = 0 . (ii) k 0 = 0 . (iii) (−1)u = −u .


(iv) k u = 0 ⇐⇒ k = 0 ó u = 0 .
(v) El vector cero de un espacio vectorial es único.

(vi) El vector opuesto de cada vector del espacio vectorial es único. .

13.2 Subespacios vectoriales

Definición 278.- Un subconjunto W de un espacio vectorial V se dice que es un subespacio vectorial de


V , si W es un espacio vectorial con las operaciones definidas en V .
Como W ⊆ V , todos los vectores de W verifican las propiedades 2 a 5 y 7 a 10, por tanto es suficiente
probar que las operaciones suma y producto por escalares son internas en W , es decir, que se verifican las
propiedades (1) y (6) en W :

(1∗ ) u + v ∈ W ; ∀ u, v ∈ W ( 6∗ ) k u ∈ W ; ∀ u ∈ W y ∀k ∈ R
Estas dos propiedades son equivalentes a la propiedad única:

Prof: José Antonio Abia Vian Grados de Ing. Industrial : Curso 2012–2013
150 – Matemáticas 1 : Álgebra Lineal 13.3 Base y dimensión

k u + l v ∈ W ; ∀ u , v ∈ W y ∀ k, l ∈ R.
Nota: Es claro, que si W es un subespacio de V , entonces 0 ∈ W .

Ejemplo P2 [X] es un subespacio de P4 [X] , pues es un subconjunto suyo y si P (X), Q(X) ∈ P2 [X] , el grado de
kP (X) + lQ(X) es gr(kP + lQ) = máx{gr(kP ), gr(lQ)} ≤ máx{gr(P ), gr(Q)} ≤ 2 , por lo que está en P2 [X] .
Sin embargo, {P (X) : gr(P ) = 2} no es un subespacio de P4 [X] , por dos razones: primero, porque no contiene
al polinomio cero; y segundo, no verifica la propiedad (1∗ ) ya que X2 y 2X − X2 son polinomios del conjunto
pero su suma X2 + (2X − X2 ) = 2X es un polinomio de grado 1 que no está en el conjunto. 4

Definición 279.- Se dice que un vector v ∈ V es una combinación lineal de los vectores v1 , v2 , . . . , vn si,
y sólo si, ∃ c1 , c2 , . . . , cn ∈ R tales que v = c1 v1 + c2 v2 + · · · + cn vn .

Definición 280.- Dado un conjunto de vectores S = { v1 , v2 , . . . , vk } de un espacio vectorial V , llamaremos


subespacio lineal generado por S y que denotaremos por lin S ó lin{v1 , v2 , . . . , vk } , al conjunto de
todas las combinaciones lineales que se pueden formar con los vectores de S :
n o
lin S = lin{v1 , v2 , . . . , vk } = c1 v1 + c2 v2 + · · · + ck vk : ∀ ci ∈ R
y se dirá que S genera lin S o que v1 , v2 , . . . , vk generan lin S .

Naturalmente lin S es un subespacio vectorial de V y, de hecho, es el más pequeño que contiene a los
vectores de S (ver ejercicio 13.217).
Definición 281.- Dado un conjunto S = {v1 , v2 , . . . , vk } de vectores del espacio vectorial V , la ecuación
vectorial c1 v1 + c2 v2 + · · · + ck vk = 0 tiene al menos una solución, a saber: c1 = c2 = · · · = ck = 0 . Si esta
solución es única, entonces se dice que S es un conjunto linealmente independiente (o que los vectores
de S son linealmente independientes). Si existen otras soluciones, entonces se dice que S es linealmente
dependiente (los vectores son linealmente dependientes).

Ejemplo El vector 2X − X2 de P2 [X] está generado por los vectores X − 1 y X2 − 2 


:
 −λ − 2µ = 0
2X − X2 = λ(X − 1) + µ(X2 − 2) = λX − λ + µX2 − 2µ = (−λ − 2µ) + λX + µX2 =⇒ λ=2
µ = −1

luego 2X − X2 = 2(X − 1) + (−1)(X2 − 2) .
Ejemplo Los polinomios X + 2 y X2 de P2 [X] son linealmente independientes: si λ(X + 2) + µX2 = 0 (al
polinomio cero), se tiene que 0 = λ(X + 2) + µX2 = 2λ + λX + µX2 =⇒ 2λ = 0 , λ = 0 y µ = 0 , ya que los
coeficientes de ambos polinomios deben coincidir. 4

Nota: Si los vectores { v1 , v2 , . . . , vk } son linealmente dependientes, al menos uno de ellos se puede escribir
como una combinación lineal de los restantes; y si son linealmente independientes ninguno de ellos puede ser
generado por los restantes. Es decir, se tiene la siguiente caracterización para que un conjunto de dos o más
vectores sea linealmente dependiente (ver ejercicio 13.218):

“Un conjunto de dos o más vectores es linealmente dependiente si, y sólo si, al menos uno
de los vectores es una combinación lineal de los restantes.”

13.3 Base y dimensión

Lema 282.- Si vn+1 = c1 v1 + · · · + cn vn , entonces lin{ v1 , . . . , vn , vn+1 } = lin{ v1 , . . . , vn } .


Es fácil asumir que este resultado es cierto, ya que cualquier combinacion lineal de los n + 1 vectores puede
reconvertirse a una combinación lineal de los n primeros, por simple sustitución. En otras palabras, puede
reducirse el número de generadores mientras haya dependencia lineal, lo que nos lleva a:
Definición 283.- Sean V un espacio vectorial y S un conjunto finito de vectores de V . Diremos que S es
una base de V si:
a) S es linealmente independiente y b) S genera a V

Prof: José Antonio Abia Vian Grados de Ing. Industrial : Curso 2012–2013
151 – Matemáticas 1 : Álgebra Lineal 13.3 Base y dimensión

Observación: El comentario anterior a esta definición nos indica la manera de reducir un conjunto generador
del espacio a una base.
Igualmente, podemos construir una base a partir de un conjunto linealmente independiente de vectores: si
S es linealmente independiente y lin S 6= V , tomando v ∈ V pero que v ∈ / lin S , el conjunto S ∪ { v } es
linealmente independiente (ver el Lema 284 siguiente); y ası́, se añaden vectores a S hasta generar V .

Lema 284.- Si S es un conjunto linealmente independiente de vectores de V y v ∈ V −lin S , entonces S∪{v }


es linealmente independiente. .

De cierta forma, estamos diciendo que una base tiene el menor número posible de generadores y el mayor
número posible de vectores linealmente independientes (ver Lema 285 siguiente); luego ¿no tendrá una base un
número fijo de vectores? La respuesta la proporciona el Teorema de la base.
Lema 285.- Sean V un espacio vectorial y B una base de V formada por n vectores. Entonces cualquier
conjunto { v1 , v2 , . . . , vm } de vectores de V, con m > n, es linealmente dependiente. .

Teorema de la base 286.- Cualesquiera dos bases de un espacio vectorial tienen el mismo número de elemen-
tos.
Demostración:
La demostración es muy sencilla si tenemos en cuenta el Lema anterior, pues si B1 es una base de n elementos
y B2 es una base de m elementos, por ser B1 base y B2 linealmente independiente, m 6> n y por ser B2 base
y B1 linealmente independiente n 6> m, luego n = m .

Definición 287.- Un espacio vectorial V se dice de dimensión finita si tiene un conjunto finito de vectores
que forman una base, y llamaremos dimensión de V , dim V , al número de vectores de cualquier base de V .
Al espacio vectorial V = {0 } le consideramos de dimensión finita, de dimensión cero, aún cuando no tiene
conjuntos linealmente independientes.
Si no existe un conjunto finito de este tipo, se dice que V es de dimensión infinita (y no nos son ajenos pues
R[X] es un espacio vectorial de dimensión infinita).
Ejemplo P2 [X] = {P (X) ∈ R[X] : gr(P ) ≤ 2} tiene dimensión 3, pues B = {1, X, X2 } forman una base. En
general, dim(Pn [X]) = n + 1 y B = {1, X, . . . , Xn } es una base suya.
Ejemplo 288 Los conjuntos Rn = R×R×· · ·×R = {(x1 , . . . , xn ) : xi ∈ R, ∀ i} con las operaciones habi-
tuales de suma y producto por escalares
x + y = (x1 , . . . , xn ) + (y1 , . . . , yn ) = (x1 + y1 , . . . , xn + yn )
λx = λ(x1 , . . . , xn ) = (λx1 , . . . , λxn )
son espacios vectoriales con dim Rn = n , ya que cualquier vector x ∈ Rn puede escribirse de la forma
x = (x1 , x2 , . . . , xn ) = x1 (1, 0, . . . , 0) + x2 (0, 1, . . . , 0) + · · · + xn (0, 0, . . . , 1)
y este conjunto de vectores
n o
B = e1 = (1, 0, . . . , 0), e2 = (0, 1, . . . , 0), . . . , en = (0, 0, . . . , 1)
es linealmente independiente. A esta base se la denomina base canónica de Rn . 4
Conocer a priori la dimensión de un espacio facilita la obtención de bases:
Proposición 289.- Si V es un espacio vectorial, con dim V = n . Entonces, un conjunto de n vectores de V
es base de V ,
a) si el conjunto es linealmente independiente, o b) si genera a V . .

13.3.1 Coordenadas en una base


Definición 290.- Sean V un espacio vectorial de dimensión finita y B = {v1 , v2 , . . . , vn } una base de V .
Para cada vector v ∈ V , se llaman coordenadas de v en la base B a los n únicos números reales
c1 , c2 , . . . , cn tales que v = c1 v1 + c2 v2 + · · · + cn vn .
Fijando un orden para los vectores de la base, el vector de Rn , de las coordenadas de v en B se denota
por ( v )B = (c1 , c2 , . . . , cn ) y más usualmente por [v ]B cuando lo escribimos como vector columna en las
operaciones con matrices: [ v ]B = (c1 , c2 , . . . , cn )t .

Prof: José Antonio Abia Vian Grados de Ing. Industrial : Curso 2012–2013
152 – Matemáticas 1 : Álgebra Lineal 13.3 Base y dimensión

Ejemplo Si B = { v1 , v2 , v3 } es una base de V y v = v1 − v2 + 2 v3 , se tiene que


(v )B = (1, −1, 2) ( v1 )B = (1, 0, 0) ( v2 )B = (0, 1, 0) ( v3 )B = (0, 0, 1)
o también        
1 1 0 0
[v]B =  −1  [v1 ]B =  0  [v2 ]B =  1  [v3 ]B =  0  4
2 0 0 1

Nota: Al usar vectores de coordenadas, es imprescindible mantener el orden de los vectores. Si, en el ejemplo
anterior, tomamos como base B1 = { v2 , v3 , v1 } , tenemos que (v )B1 = (−1, 2, 1) que es un vector de
coordenadas distinto de (v )B = (1, −1, 2) .

Fijada una base, la unicidad de las coordenadas asigna a cada vector de V un único vector de Rn , de manera
que disponer de las coordenadas es, en el fondo, disponer del vector. Además, se cumple (ver ejercicio 13.225):

[ v + w ]B = [v ]B + [ w ]B y [λ v ]B = λ[v ]B , luego [λ1 v1 +· · ·+λn vn ]B = λ1 [ v1 ]B + · · · + λn [vn ]B

y con esto, no es dificil probar que:

v ∈ lin{v1 , . . . , vk } ⊆ V ⇐⇒ [v]B ∈ lin{[v1 ]B , . . . , [vk ]B } ⊆ Rn


{v1 , . . . , vk } lin. independiente en V ⇐⇒ {[v1 ]B , . . . , [vk ]B } lin. independiente en Rn
{v1 , . . . , vn } base de V ⇐⇒ {[v1 ]B , . . . , [vn ]B } base de Rn

por lo que se puede trabajar sobre las coordenadas en lugar de sobre los vectores.

13.3.2 Espacios de las filas y las columnas de una matriz


De lo anterior, tenemos que independientemente del espacio vectorial en que nos encontremos, fijada una base,
podemos trasladar todo el trabajo operativo sobre los vectores de Rn ; por lo que resulta muy interesante conocer
esta sección.
 
a11 a12 . . . a1n
 a21 a22 . . . a2n 
Definición 291.- Consideremos la matriz Am×n =  . ..  .
 
..
 .. . ... . 
am1 am2 . . . amn
Los m vectores de Rn : r1 = (a11 , . . . , a1n ) , r2 = (a21 , . . . , a2n ) , . . . , rm = (am1 , . . . , amn ) , se denominan
vectores fila de A y al subespacio lineal generado por ellos, Ef (A) = lin{ r1 , r2 , . . . , rm }, espacio de las
filas de A. Por supuesto Ef (A) ⊆ Rn .
Los n vectores de Rm : c1 = (a11 , . . . , am1 ), c2 = (a12 , . . . , am2 ) , . . . , cn = (a1n , . . . , amn ) , se denominan
vectores columna de A y el subespacio lineal generado por ellos, Ec (A) = lin{c1 , c2 , . . . , cn }, espacio de
las columnas de A. Por supuesto Ec (A) ⊆ Rm .

Proposición 292.- Si A es una matriz de tamaño m×n , entonces las operaciones elementales sobre las filas
(resp. columnas) de A no cambian el espacio de las filas (resp. columnas) de A.
Demostración:
Puesto que hacer operaciones elementales sobre las filas es hacer combinaciones lineales de los vectores fila, el
subespacio lineal generado es el mismo. (Igual para las columnas.)

Corolario 293.- Sea A una matriz, entonces:


a) Los vectores no nulos de una forma escalonada de la matriz A , forman una base de Ef (A) .

b) Los vectores no nulos de una forma escalonada de la matriz At , forman una base de Ec (A) .
Demostración:
Basta probar que los vectores no nulos de una forma escalonada son linealmente independientes, pero eso se
comprueba fácilmente ya que debajo de cada elemento principal sólo hay ceros.

Prof: José Antonio Abia Vian Grados de Ing. Industrial : Curso 2012–2013
153 – Matemáticas 1 : Álgebra Lineal 13.4 Cambios de base

Teorema 294.- Sea A una matriz de tamaño m×n , entonces: dim(Ef (A)) = dim(Ec (A)) .
Demostración:
El resultado es inmediato, teniendo en cuenta que rg(A) = rg(At ) , y que el rango coincide con el número de
vectores no nulos en la forma escalonada, ası́ como el resultado anterior.

Estos resultados nos permiten usar el método de Gauss, y por lo tanto nos ofrecen un operativo sencillo, para
comprobar cuando un conjunto de vectores es linealmente independiente y para obtener bases.

Ejemplo ¿Los vectores X − 1 , X + 1 y X2 − 1 de P2 [X] son linealmente independientes?


Tomemos la base B = {1, X, X2 } de P2 [X] , entonces formamos por filas la matriz:
       
(X − 1)B −1 1 0 F2 +F1 −1 1 0 F + 1 F −1 1 0
F3 −F1
A =  (X + 1)B  =  1 1 0  −→  0 2 0  3−→ 2 2
 0 2 0
2
(X − 1)B −1 0 1 0 −1 1 0 0 1

Por lo anterior, los vectores fila de la última matriz son linealmente independientes y dim Ef (A) = 3 . En
consecuencia, los tres vectores fila de la matriz A inicial que generan Ef (A) son también base, luego linealmente
independientes y los polinomios del enunciado también son linealmente independientes.
Además, forman una base de P2 [X] (¿por qué?). 4

13.4 Cambios de base


Puesto que las coordenadas están referidas a una base, al cambiar la base de trabajo, habrá que cambiar a las
coordenadas en la nueva base. Pero este proceso puede realizarse fácilmente, teniendo en cuenta lo siguiente:
Definición 295.- Sean B1 = { u1 , u2 , . . . , un } y B2 = { v1 , v2 , . . . , vn } son bases de un espacio vectorial
V . Recibe el nombre de matriz de transición o matriz de cambio de la base B1 a la base B2 , la matriz
de dimensiones n×n , que por columnas es
 
P = [u1 ]B2 [u2 ]B2 ··· [un ]B2 ,

es decir, la columna i-ésima está constituida por las coordenadas en la base B2 , del vector ui de la base B1 .

En otras palabras, la matriz de cambio de base tiene por columnas las coordenadas en la base de llegada de
los vectores de la base de partida.
El porqué la matriz de paso se contruye ası́, puede observarse en la prueba de la proposición siguiente:
Proposición 296.- Sea P la matriz de paso de una base B1 en otra base B2 de un espacio V . Entonces:
1.- ∀ x ∈ V se tiene que [ x ]B2 = P · [ x ]B1 .
2.- P es inversible y su inversa, P −1 , es la matriz de paso de la base B2 a la base B1 .
Demostración:
Sea B1 = {u1 , u2 , . . . , un } y sea x = c1 u1 + c2 u2 + · · · + cn un . Entonces, Apartado 1:
 
c1
  c 
 2
P [x]B1 = [u1 ]B2 [u2 ]B2 · · · [un ]B2  . 
 .. 
cn
= c1 [u1 ]B2 + c2 [u2 ]B2 + · · · + cn [un ]B2 = [c1 u1 + c2 u2 + · · · + cn un ]B2 = [x]B2

Apartado 2: como los vectores de la base B1 son linealmente independientes, sus vectores de coordenadas en
la base B2 también lo son. Luego las columnas de P son vectores linealmente independientes y rg(P ) = n ,
por lo que P es inversible.
Además, [ x ]B2 = P [ x ]B1 =⇒ P −1 [x ]B2 = P −1 P [x ]B1 =⇒ P −1 [ x ]B2 = [ x ]B1 y P −1 es la matriz
de cambio de la base B2 en la base B1 .

Prof: José Antonio Abia Vian Grados de Ing. Industrial : Curso 2012–2013
154 – Matemáticas 1 : Álgebra Lineal 13.5 Espacios vectoriales con producto interior

Ejemplo Consideremos las bases B = {1, X, X2 } y B1 = {X − 1, X + 1, X2 − 1} de P2 [X] .


La matriz de paso de la base B1 a la base B será:
   −1 1 −1

  −1 1 −1 2 2 2
P = [X − 1]B [X + 1]B [X2 − 1]B =  1 1 0  y P −1 =  12 12 1
2

0 0 1 0 0 1

la matriz de paso de B a B1 .

Ejemplo Consideremos en R3 la base canónica Bc = { e1 = (1, 0, 0), e2 = (0, 1, 0), e3 = (0, 0, 1)} y la base
B1 = { v1 = (1, 0, −1), v2 = (2, −1, 1), v3 = (0, −1, 1)} .
Como v1 = 1(1, 0, 0) + 0(0, 1, 0) − 1(0, 0, 1) = e1 − e3 , se tiene que ( v1 )Bc = (1, 0, −1) ; y lo mismo para
los otros vectores, luego la matriz de paso de la base B1 a la base Bc será:
   −1
  1 2 0 1 2 0
P = [v1 ]Bc [v2 ]Bc [v3 ]Bc =  0 −1 −1  y P −1 =  0 −1 −1 
−1 1 1 −1 1 1

la matriz de paso de la base Bc a la base B1 . 4

Nota: A la vista del ejemplo anterior, obtener las coordenadas de un vector de Rn en la base canónica de Rn
es inmediato, pues ( x )Bc = x . Pero ¡ciudado!, al trabajar con vectores de Rn no hay que confundir el vector
con las coordenadas en una base, pues la igualdad anterior únicamente es cierta en la base canónica.

13.5 Espacios vectoriales con producto interior


13.5.1 Producto interior. Norma. Distancia
Definición 297.- Un producto interior en un espacio vectorial real V es una función que a cada par de
vectores u , v ∈ V le asocia un número real, que denotaremos por h u , v i , de tal manera que se cumplen las
siguientes propiedades:
1.- h u , v i = h v , u i; ∀ u , v ∈ V .

2.- h u + v , w i = hu , w i + h v , w i ; ∀ u , v , w ∈ V .
3.- hk u , v i = khu , v i ; ∀ u , v ∈ V y ∀ k ∈ R.
4.- h u , u i ≥ 0 ; ∀ u ∈ V y h u , u i = 0 ⇐⇒ u = 0 .

Otra propiedades que se deducen de las anteriores son:

1.- h 0, u i = 0 2.- hu , v + w i = h u , v i + hu , w i 3.- hu , k v i = kh u , v i

Ejemplo Considerar en P2 [X] , la función hP (X), Q(X)i = P (1)Q(1) + P 0 (1)Q0 (1) + P 00 (1)Q00 (1) .
(1) hP (X), Q(X)i = P (1)Q(1) + P 0 (1)Q0 (1) + P 00 (1)Q00 (1)
= Q(1)P (1) + Q0 (1)P 0 (1) + Q00 (1)P 00 (1) = hQ(X), P (X)i
     
(2) hP (X) + R(X), Q(X)i = P (1) + R(1) Q(1) + P 0 (1) + R0 (1) Q0 (1) + P 00 (1) + R00 (1) Q00 (1)
   
= P (1)Q(1)+P 0 (1)Q0 (1)+P 00 (1)Q00 (1) + R(1)Q(1)+R0 (1)Q0 (1)+R00 (1)Q00 (1)
= hP (X), Q(X)i + hR(X), Q(X)i
0 0 00 00
(3) hkP (X), Q(X)i = kP
 (1)Q(1) + kP (1)Q (1) + kP (1)Q (1)

= k P (1)Q(1) + P 0 (1)Q0 (1) + P 00 (1)Q00 (1) = khP (X), Q(X)i

Prof: José Antonio Abia Vian Grados de Ing. Industrial : Curso 2012–2013
155 – Matemáticas 1 : Álgebra Lineal 13.5 Espacios vectoriales con producto interior

 2  2  2
(4) hP (X), P (X)i = P (1)P (1) + P 0 (1)P 0 (1) + P 00 (1)P 00 (1) = P (1) + P 0 (1) + P 00 (1) ≥ 0 .
Y, se da la igualdad si y sólo si, P (1) = P 0 (1) = P 00 (1) = 0 . Entonces, sea P (X) = a + bX + cX2 , de donde
P (X) = b + 2cX y P 00 (X) = 2c; de las igualdades se
0
tiene:
a+b+c=0 
P (1) = P 0 (1) = P 00 (1) = 0 ⇐⇒ b + 2c = 0 ⇐⇒ a = b = c = 0 ⇐⇒ P (X) = 0 .
2c = 0

Luego tenemos un producto interno definido en P2 [X] . 4
A partir de un producto interior sobre un espacio V se definen los conceptos de norma, distancia y ángulo.
Definición 298.- Si V es un espacio vectorial con producto interior, entonces la norma (o longitud o
módulo) de un vector v ∈ V se denota mediante k v k y se define como
p
kv k = + h v , v i.

La distancia entre dos vectores u y v de V se denota mediante d( u , v ) y se define como


p
d(u , v ) = k u − v k = + h u − v , u − v i.

Desigualdad de Cauchy-Schwarz 299.- Para todo u , v ∈ V, espacio con producto interior, se tiene
2 2
hu, vi2 ≤ kuk kvk o en la forma |hu, vi| ≤ kuk kvk . .

Propiedades básicas de la norma 300.- Propiedades básicas de la distancia 301.-

1.- k u k ≥ 0 ; ∀ u ∈ V 1.- d(u , v ) ≥ 0 ; ∀ u , v ∈ V


2.- k u k = 0 ⇐⇒ u = 0 2.- d(u , v ) = 0 ⇐⇒ u = v
3.- kk u k = |k| ku k; ∀ u ∈ V y ∀ k ∈ R 3.- d(u , v ) = d( v , u ) ; ∀ u , v ∈ V

4.- k u + v k ≤ ku k+kv k ; ∀ u , v ∈ V 4.- d(u , v ) ≤ d( u , w )+d( w , v ) ; ∀ u , v , w ∈ V

La prueba de estas propiedades es análoga a la de las propiedades del módulo colplejo.


Observación: Sean V un espacio con producto interior y B = { u1 , . . . , un } una base de V . Tomemos dos
vectores v = a1 u1 + · · · + an un y w = b1 u1 + · · · + bn un , entonces

hv, wi = ha1 u1 + · · · + an un , wi = a1 hu1 , wi + · · · + an hun , wi


= a1 hu1 , b1 u1 + · · · + bn un i + · · · + an hun , b1 u1 + · · · + bn un i
= a1 hu1 , u1 ib1 + · · · + a1 hu1 , un ibn + · · · + an hun , u1 ib1 + · · · + an hun , un ibn
  
hu1 , u1 i · · · hu1 , un i b1
= a1 · · · an 
 .. .. ..   ..  t
. . .   .  = (v)B QB [w]B = [v]B QB [w]B
hun , u1 i · · · hun , un i bn

luego, fijada una base, un producto interior se puede obtener a partir de las coordenadas en la base. La matriz
QB obtenida se denomina matriz de Gram o matriz métrica. Por las propiedades del producto interior, QB
es simétrica y los elementos de la diagonal positivos.

13.5.1.1 El espacio euclı́deo n -dimensional Rn

Definición 302.- Sobre el espacio vectorial Rn definimos la función que a cada x , y ∈ Rn le asocia
n
P
hx , y i = x · y = (x1 , . . . , xn ) · (y1 , . . . , yn ) = x1 y1 + · · · + xn yn = xi yi
i=1
Como puede comprobarse fácilmente dicha función es un producto interior, el que se conoce como producto
interior euclı́deo o producto escalar euclı́deo (ya usado en R2 y R3 ).
Este producto interior da lugar a la norma y distancia euclı́deas, ya conocidas:
p p
kx k = x21 + · · · + x2n y d( x , y ) = k x − y k = (x1 − y1 )2 + · · · + (xn − yn )2 .
Se llama espacio euclı́deo n -dimensional a Rn con el producto interior euclı́deo.

Prof: José Antonio Abia Vian Grados de Ing. Industrial : Curso 2012–2013
156 – Matemáticas 1 : Álgebra Lineal 13.5 Espacios vectoriales con producto interior

Nota: Si la matriz métrica del producto interior en la base B , QB , es la identidad, el producto interior se
reduce al producto escalar euclı́deo de los vectores de coordenadas. Esto ocurre precisamente para las bases
ortonormales que se estudian en la siguiente sección.

13.5.2 Ortogonalidad

Definición 303.- Si u y v son vectores distintos de cero de un espacio con producto interior, como conse-
cuencia de la desigualdad de Cauchy-Schwarz se tiene que −1 ≤ khuukk,v i
v k ≤ 1 y, por tanto, existe un único
ángulo, θ , tal que
hu, v i
cos θ = , con 0 ≤ θ ≤ π
ku k kv k

Definición 304.- En un espacio vectorial con producto interior, dos vectores u y v se dicen que son orto-
gonales si h u , v i = 0 . Suele denotarse por u ⊥ v .
Si u es ortogonal a todos los vectores de un conjunto W , se dice que u es ortogonal a W .
Se dice que S = {v1 , v2 , . . . , vk } es un conjunto ortogonal si los vectores son ortogonales dos a dos, es
decir, si vi ⊥ vj para todo i 6= j .

Ejemplo Los vectores de la base canónica de R3 con el producto escalar euclı́deo son ortogonales entre si,
pero no lo son si el producto interior definido es: h v , w i = v1 w1 + v1 w2 + v2 w1 + 2v2 w2 + v3 w3 . (Pruébese
que es un producto interior). En efecto: he1 , e2 i = h(1, 0, 0), (0, 1, 0)i = 0 + 1 + 0 + 0 + 0 = 1 6= 0 . 4

Nota: Si dos vectores son ortogonales, el ángulo que forman es de π radianes (los famosos 90 grados). De hecho,
en Rn con el producto escalar euclı́deo, la ortogonalidad coincide con la perpendicularidad.
Una curiosidad:
Teorema general de Pitágoras 305.- Si u y v son dos vectores ortogonales de un espacio vectorial con
producto interior, entonces
2 2 2
ku + v k = ku k + kv k .

Este resultado, de fácil comprobación, se reduce en R2 con el producto escalar al Teorema de Pitágoras.
También es sencillo probar el resultado siguiente (ver ejercicio 13.232):
Proposición 306.- Si w ⊥ {v1 , v2 , . . . , vk }, entonces w ⊥ lin{v1 , v2 , . . . , vk } .

Mucho más interesante es el siguiente, que relaciona ortogonalidad e independencia:


Teorema 307.- Si S = { v1 , v2 , . . . , vk } un conjunto finito de vectores no nulos, ortogonales dos a dos,
entonces S es linealmente independiente. .

13.5.2.1 Bases ortonormales. Proceso de Gram-Schmidt

Definición 308.- Sean V un espacio vectorial de dimensión n con producto interior. Se dice que la base
B = { v1 , v2 , . . . , vn } es una base ortonormal de V , si B es un conjunto ortogonal y kvi k = 1 , ∀ i .
n   o
√1 , √1 , √ −1 √1
Ejemplo Las bases canónica y B1 = 2 2 2
, 2
son ortonormales en R2 con el producto escalar

euclı́deo. La base B2 = {(2, 0), (0, − 2)} es ortonormal para el producto interior hx, yi = x14y1 + x22y2 . 4

Teorema 309.- Si B = { v1 , v2 , . . . , vn }es una base ortonormal para un  espacio V con producto interior,
entonces ∀ v ∈ V se tiene que ( v )B = hv , v1 i, h v , v2 i, . . . , h v , vn i . Es decir,
v = hv , v1 i v1 + h v , v2 i v2 + · · · + h v , vn i vn ,
Demostración:
Si v = c1 v1 + · · · + ci vi + · · · + cn vn , para cada i , se tiene que

hv, vi i = hc1 v1 + · · · + ci vi + · · · + cn vn , vi i
2
= c1 hv1 , vi i + · · · + ci hvi , vi i + · · · + cn hvn , vi i = ci hvi , vi i = ci kvi k = ci

Prof: José Antonio Abia Vian Grados de Ing. Industrial : Curso 2012–2013
157 – Matemáticas 1 : Álgebra Lineal 13.6 Ejercicios

Es decir, en una base ortonormal, la obtención de cordenadas puede resultar más sencilla. Pero no sólo eso, si
no que también se tiene:
Teorema 310.- Si P es la matriz de paso de una base ortonormal B1 a otra base ortonormal B2 , entonces
P es una matriz ortogonal (es decir, P −1 = P t ).
La prueba es puramente operativa, usando la definición de matriz de paso y el apartado b) del ejercicio 13.235
(ver también el ejercicio 13.240).
Definición 311.- Sean V un espacio vectorial con producto interior, W subespacio de V y B =
{ w1 , w2 , . . . , wk } una base ortonormal de W . Para cada v ∈ V , llamaremos proyección ortogonal
de v sobre W al vector de W
ProyW ( v ) = h v , w1 iw1 + hv , w2 iw2 + · · · + h v , wk i wk .
Al vector v −ProyW ( v ) se le llama componente ortogonal de v sobre W .
El vector proyección ortogonal no depende la base ortonormal elegida, es decir, tomando cualquier base or-
tonormal se obtiene el mismo vector. La prueba puede encontrarse en el Anexo 1, pág. 157, tras la demostración
del Lema 312 siguiente.
Lema 312.- Sean V un espacio vectorial con producto interior, W un subespacio de V y B una base orto-
normal de W . Entonces para cada v ∈ V , el vector v − ProyW (v ) es ortogonal a W . .

Proceso de ortonormalización de Gram-Schmidt 313.- Sean V un espacio vectorial con producto interior y
de dimensión finita. Vamos a describir este proceso que construye a partir de una base B = {v1 , v2 , . . . , vn }
una base ortonormal B ∗ = { u1 , u2 , . . . , un } .
Demostración:
v1
1 a etapa.- Como v1 6= 0 por ser de B , el vector u1 = tiene norma 1 y lin{ u1 } = lin{v1 }.
k v1 k
2 a etapa.- Sea W1 = lin{ u1 } , por el Lema anterior, el vector v2 − ProyW1 ( v2 ) es ortogonal a W1 , en
particular a u1 , y es distinto del vector 0 pues ProyW1 ( v2 ) ∈ W1 y v2 ∈
/ W1 = lin{ v1 } , entonces tiene que

v2 − ProyW1 ( v2 ) v2 − h v2 , u1 i u1
v2 − ProyW ( v2 ) = k v2 − h v2 , u1 i u1 k ∈ lin{v1 , v2 }
u2 =
1

es ortogonal a u1 y tiene norma 1. Además, lin{u1 , u2 } = lin{ v1 , v2 } .


3 a etapa.- Sea ahora W2 = lin{u1 , u2 }, como antes, el vector v3 − ProyW2 ( v3 ) es ortogonal a W2 , en
particular a u1 y u2 , y es distinto del vector 0 , pues ProyW2 (v3 ) ∈ W2 y v3 ∈ / W2 = lin{ v1 , v2 },
entonces se tiene que

v3 − ProyW2 ( v3 ) v3 − h v3 , u1 i u1 − h v3 , u2 i u2
v3 − ProyW ( v3 ) = kv3 − h v3 , u1 i u1 − h v3 , u2 i u2 k ∈ lin{ v1 , v2 , v3 }
u3 =
2

es ortogonal a u1 y u2 , y tiene norma 1. Además, lin{u1 , u2 , u3 } = lin{ v1 , v2 , v3 } .


n a etapa.- Con la repetición del proceso se ha construido un conjunto ortonormal de n vectores no nulos,
B ∗ = { u1 , u2 , . . . , un }, tal que lin B ∗ = lin B = V . Luego B ∗ es una base ortonormal de V .

13.6 Ejercicios
13.212 Determinar si son espacios vectoriales los siguientes conjuntos:
a) R2 con las operaciones: (x, y) + (x0 , y 0 ) = (x + x0 , y + y 0 ) y k(x, y) = (2kx, 2ky) .
b) A = {(x, 0) : x ∈ R} con las operaciones usuales de R2 .
c) R2 con las operaciones: (x, y) + (x0 , y 0 ) = (x + x0 + 1, y + y 0 + 1) y k(x, y) = (kx, ky) .
d) El conjunto de los números reales estrı́ctamente positivos, R+ −{0} , con las operaciones: x+x0 = xx0
y kx = xk .

Prof: José Antonio Abia Vian Grados de Ing. Industrial : Curso 2012–2013
158 – Matemáticas 1 : Álgebra Lineal 13.6 Ejercicios

13.213 ¿Cuáles de los siguientes conjuntos son subespacios vectoriales de R3 ó R4 ?

a) {(a, 1, 1) ∈ R3 : a ∈ R} ⊆ R3 b) {(a, b, c) ∈ R3 : b = a + c} ⊆ R3
c) {(a, b, c, d) ∈ R4 : a + 2d = 7} ⊆ R4 d) {(a, b, c, d) ∈ R4 : ba = 0} ⊆ R4

13.214 Sean v1 = (2, 1, 0, 3) , v2 = (3, −1, 5, 2) y v3 = (−1, 0, 2, 1) vectores de R4 . ¿Cuáles de los vectores
(2, 3, −7, 3) , (0, 0, 0, 0) , (1, 1, 1, 1) y (−4, 6, −13, 4) , están en lin{v1 , v2 , v3 } ?

13.215 ¿Para qué valores reales de λ los vectores v1 = (λ, −1 −1 −1 −1 −1 −1


2 , 2 ) v2 = ( 2 , λ, 2 ) y v3 = ( 2 , 2 , λ) forman
3
un conjunto linealmente dependiente en R ?

13.216 Dados tres vectores linealmente independientes u , v y w , demostrar que u + v , v + w y w + u son


también linealmente independientes.
13.217 Sea V un espacio vectorial y S = { v1 , . . . , vk } un conjunto de vectores de V . Probar que:

a) lin S es un subespacio vectorial de V .


b) Si W es un subespacio de V que contiene a los vectores de S , entonces lin S ⊆ W .

13.218 Probar que si los vectores v1 , . . . , vk son linealmente dependientes, al menos uno de ellos se puede
escribir como una combinación lineal de los restantes.
13.219 Determinar la dimensión de los siguientes subespacios de R4 :

a) Todos los vectores de la forma (a, b, c, 0) .


b) Todos los vectores de la forma (a, b, c, d) con d = a + b y c = a − b.
c) Todos los vectores de la forma (a, b, c, d) con a = b = c = d .

13.220 Demostrar que los vectores solución de un sistema no homogéneo compatible, AX = B , de m ecuaciones
con n incógnitas no forman un subespacio de Rn . ¿Qué ocurre si el sistema es homogéneo, es decir, si
B = 0?
13.221 Sean E y F subespacios de un espacio V . Probar que: E ∩ F = {v ∈ V : v ∈ E y v ∈ F } es un
subespacio de V .
13.222 Considerar en R4 los conjuntos de vectores:
A = {(1, 2, −1, 3), (0, 1, 0, 3)} B = {(1, −1, 1, 0), (2, 3, 1, 2), (0, 0, 0, 1)}
a) Hallar las dimensiones de lin(A) y de lin(B) , y encontrar una base
b) Hallar las ecuaciones paramétricas de lin(A) y de lin(B) .
c) Hallar las ecuaciones cartesianas de lin(A) y de lin(B) .
d) Hallar la dimensión de lin(A) ∩ lin(B) .

13.223 Consideremos en el espacio vectorial R3 la base B = { u1 , u2 , u3 } . Sea E el subespacio engendrado por


los vectores
v1 = u1 + 3 u3 , v2 = 2u1 − 3u2 + u3 , v3 = 4u1 − 3 u2 + 7 u3 .
Sea F el subespacio engendrado por los vectores
w1 = u1 + u2 + u3 , w2 = 2u1 + 3 u2 + 4 u3 , w3 = 3u1 + 4 u2 + 5 u3 .
Hallar una base de E , una base de F , el subespacio E ∩ F y una base de E ∩ F .

13.224 Sea M2×2 el espacio vectorial de las matrices cuadradas de orden 2 sobre R y sea E el subconjunto de
 
a b+c
M2×2 formado por las matrices de la forma con a, b, c ∈ R .
−b + c a

a) Demostrar que E es un subespacio vectorial.


     
1 0 0 1 0 1
b) Probar que las matrices A1 = , A2 = y A3 = , forman una base de E .
0 1 −1 0 1 0

13.225 Sea B una base de un espacio vectorial V de dimensión n . Demostrar que el conjunto { v1 , v2 , . . . , vn }
es una base de V si, y sólo si el conjunto {[v1 ]B , [ v2 ]B , . . . , [ vn ]B } es una base de Rn .

Prof: José Antonio Abia Vian Grados de Ing. Industrial : Curso 2012–2013
159 – Matemáticas 1 : Álgebra Lineal 13.6 Ejercicios

13.226 En una cierta base { u1 , u2 , u3 , u4 } de un espacio vectorial V , un vector w tiene por coordenadas
(3, 1, 2, 6) . Hallar las coordenadas de W en otra base { v1 , v2 , v3 , v4 } cuyos vectores verifican que
v1 = u1 + u2 , v2 = 2 u4 − u1 , v3 = u2 − u3 y v4 = 2 u1 − u2 .
13.227 En R3 se consideran las bases B = {v1 = (2, 0, 0), v2 = (0, −1, 2), v3 = (0, 0, −3)} y la base canónica
Bc = {e1 , e2 , e3 }. Hallar las coordenadas respecto de la base B del vector x = 4e1 + e2 − 5 e3 .

13.228 Se consideran en R3 las bases B = {u1 , u2 , u3 } y B 0 = {v1 , v2 , v3 }, siendo


u1 = (−3, 0, −3) , u2 = (−3, 2, −1) , u3 = (1, 6, −1) y
v1 = (−6, −6, 0) , v2 = (−2, −6, 4) , v3 = (−2, −3, 7) .
a) Hallar la matriz de paso de B a B 0 .
b) Calcular la matriz de coordenadas, [ w ]B , siendo w = (−5, 8, −5) .
c) Calcular [ w ]B 0 de dos formas diferentes

13.229 Sean u = (u1 , u2 , u3 ) y v = (v1 , v2 , v3 ) . Determinar si hu , v i = u1 v1 − u2 v2 + u3 v3 define un producto


interior en R3 .
13.230 a) Encontrar dos vectores de R2 con norma euclı́dea uno y cuyo producto interior euclı́deo con (−2, 4)
sea cero.
b) Demostrar que hay un número infinito de vectores en R3 con norma euclı́dea uno y cuyo producto
interior euclı́deo con (−1, 7, 2) es cero.
−1
13.231 Sean a = ( √15 , √ 5
) y b = ( √230 , √330 ) . Demostrar que { a, b } es ortonormal si R2 tiene el producto
interior h u , v i = 3u1 v1 + 2u2 v2 donde u = (u1 , u2 ) y v = (v1 , v2 ) , y que no lo es si R2 tiene el producto
interior euclı́deo.
13.232 Sea V un espacio con producto interior. Demostrar que si w es ortogonal a cada uno de los vectores
v1 , v2 , . . . , vk entonces es ortogonal a lin{v1 , v2 , . . . , vk }.

13.233 Considera R3 con el producto interior euclideo. Utiliza el proceso de Gram-Schmidt para transformar, en
cada caso, la base { u1 , u2 , u3 } en una base ortonormal.
a) u1 = (1, 1, 1) , u2 = (−1, 1, 0) , u3 = (1, 2, 1) .
b) u1 = (1, 0, 0) , u2 = (3, 7, −2) , u3 = (0, 4, 1) .

13.234 Sea R3 con el producto interior h u , v i = u1 v1 + 2u2 v2 + 3u3 v3 . Utilizar el proceso de Gram-Schmidt
para transformar la base formada por los vectores u1 = (1, 1, 1) , u2 = (1, 1, 0) y u3 = (1, 0, 0) en una
base ortonormal.

13.235 Sea B = { v1 , v2 , v3 } una base ortonormal de un espacio V con producto interior. Probar que:
2
a) k w k = hw , v1 i2 + hw , v2 i2 + hw , v3 i2 ; ∀w ∈V.
b) h u , w i = (u )B · (w )B = [u ]tB [ w ]B ; ∀ u, w ∈ V .

13.236 Tomemos en R4 el producto interior euclideo. Expresar el vector w = (−1, 2, 6, 0) en la forma w = w1 +


w2 donde, w1 esté en el subespacio W generado por los vectores u1 = (−1, 0, 1, 2) y u2 = (0, 1, 0, 1) ,
y w2 sea ortogonal a W .
13.237 Suponer que R4 tiene el producto interior euclideo.

a) Hallar un vector ortogonal a u1 = (1, 0, 0, 0) y u4 = (0, 0, 0, 1) , y que forme ángulos iguales con los
vectores u2 = (0, 1, 0, 0) y u3 = (0, 0, 1, 0) .
b) Hallar un vector x de longitud 1, ortogonal a u1 y a u2 , tal que el coseno del ángulo entre x y
u3 sea el doble del coseno del ángulo entre x y u4 .
13.238 Hallar la distancia del vector u = (1, 1, 1, 1) de R4 al subespacio generado por los vectores v1 = (1, 1, 1, 0)
y v2 = (1, 1, 0, 0) .

Prof: José Antonio Abia Vian Grados de Ing. Industrial : Curso 2012–2013
160 – Matemáticas 1 : Álgebra Lineal 13.6 Ejercicios

13.239 Dados los vectores x = (x1 , x2 , x3 ) e y = (y1 , y2 , y3 ) de R3 , demostrar que la expresión h x , y i =


2x1 y1 + 2x2 y2 + x3 y3 + x1 y2 + x2 y1 define un producto interior.
Encontrar una base { u1 , u2 , u3 } ortonormal respecto al producto interior anterior tal que u2 y u3
tengan igual dirección y sentido que los vectores (0, 1, 0) y (0, 0, 1) , respectivamente.

13.240 Probar que una matriz A de orden n es ortogonal si, y sólo si sus vectores fila forman un conjunto
ortonormal en Rn .

Prof: José Antonio Abia Vian Grados de Ing. Industrial : Curso 2012–2013
161 – Matemáticas 1 : Álgebra Lineal

Capı́tulo 14

Aplicaciones lineales
14.1 Definición. Núcleo e imagen

Definición 314.- Sea f : V −→ W una aplicación entre los espacios vectoriales reales V y W . Se dice que f
es una aplicación lineal si:

(1) f (u + v ) = f ( u ) + f ( v ); ∀ u , v ∈ V, (2) f (k u ) = kf (u ); ∀ u ∈ V y ∀ k ∈ R.

Estas dos propiedades se pueden reunir en:


f (k u + l v ) = kf ( u ) + lf ( v ); ∀ u , v ∈ V, ∀ k, l ∈ R.
y, en general, se tiene:
f (k1 u1 + k2 u2 + · · · + kr ur ) = k1 f (u1 ) + k2 f ( u2 ) + · · · + kr f ( ur ) ∀ ui ∈ V, ∀ ki ∈ R
Si V = W la aplicación lineal también se dice que es un operador lineal.

Ejemplos 315 Las siguientes aplicaciones son aplicaciones lineales


1.- f : V −→ V definida por f (v ) = 2v :
f (λv + µw ) = 2(λ v + µw ) = λ2 v + µ2 w = λf ( v ) + µf ( w )
 
    x1
0 −1 1 0 1 1
2.- Dada A = , la aplicación f : R3 −→ R2 con f (x ) = Ax =  x2  :
1 0 −1 1 0 −1
x3
f (λ x + µy ) = A(λ x + µ y ) = A(λ x ) + A(µy ) = λA x + µAy = λf ( x ) + µf ( y ) 4

Proposición 316.- Si f : V −→ W es una aplicación lineal, entonces:


a) f ( 0 ) = 0; b) f (−v ) = −f (v ); ∀v ∈V

Definición 317.- Dada una aplicación lineal f : V −→ W , se define el núcleo o ker(nel) de f , que se denota
por ker(f ) ó ker f , como el conjunto:

ker f = {v ∈ V : f (v ) = 0 }

y se define la imagen de f , que se denota por Img(f ) ó Img f (a veces f (V ) ), como el conjunto

Img f = {w ∈ W : ∃v ∈ V tal que w = f ( v )}

El ker f es un subespacio vectorial de V y la Img f es subespacio vectorial de W (ver ejercicio 14.242).

Definición 318.- Si f : V −→ W es una aplicación lineal, entonces la dimensión del núcleo se denomina la
nulidad de f y la dimensión de la imagen de f se denomina el rango de f .

Proposición 319.- Sea f : V −→ W es una aplicación lineal y B = {v1 , v2 , . . . , vn } una base de V , entonces
Img f = lin{f ( v1 ), f ( v2 ), . . . , f (vn )}
Demostración:
En efecto, todo v ∈ V puede escribirse como v = k1 v1 + k2 v2 + · · · + kn vn , luego

f ( v ) = f (k1 v1 + k2 v2 + · · · + kn vn ) = k1 f (v1 ) + k2 f (v2 ) + · · · + kn f (vn )

En consecuencia, si w ∈ Img f , w = f ( v ) = k1 f ( v1 ) + k2 f ( v2 ) + · · · + kn f ( vn ) , para algún v .

Prof: José Antonio Abia Vian Grados de Ing. Industrial : Curso 2012–2013
162 – Matemáticas 1 : Álgebra Lineal 14.2 Matrices de una aplicación lineal

Ejemplo Tomemos el ejemplo 2) de los Ejemplos 315 anteriores:


ker f = { x ∈ R3 : f (x ) = 0 } = {x ∈ R3 : A x = 0 }
luego son las soluciones del sitema de ecuaciones lineales AX = 0 . Como son los vectores de la forma (z, −z, z) ,
para cualquier valor de z ∈ R , se tiene que ker f = {(z, −z, z) ∈ R3 : z ∈ R} = lin{(1, −1, 1)}.
Para la imagen: tomemos en R3 la base canónica, entonces
Img f = lin{f ( e1 ), f (e2 ), f ( e3 )} = lin{A e1 , Ae2 , Ae3 } = lin{(0, 1), (−1, 0), (1, −1)} = lin{(0, 1), (−1, 0)} = R2
pues (1, −1) = (−1)(0, 1) + (−1)(−1, 0) . Se tiene además, que dim(ker f ) = 1 y dim(Img f ) = 2 . 4
No por casualidad, sucede que dim(ker f ) + dim(Img f ) = 1 + 2 = 3 = dim R3 :
Teorema de la dimensión 320.- Si f : V −→ W es una aplicación lineal entre espacios vectoriales,
dim V = dim(ker f ) + dim(Img f )
Demostración:
Si la dim(ker f ) = n = dim V , entonces ker f = V , y f ( v ) = 0 ∀ v ∈ V , luego Img f = {0 } que tiene
dimensión cero, por lo que se cumple
dim(ker f ) + dim(Img f ) = dim V (n + 0 = n)
Si la dim(ker f ) = r < n, tomemos Bker = { u1 , . . . , ur } una base del ker f ⊆ V que podemos completar con
n − r vectores hasta una base de V , BV = { u1 , . . . , ur , vr+1 , . . . , vn }, y el conjunto imagen será por tanto
n o
Img f = lin f (u1 ), . . . , f (ur ), f (vr+1 ), . . . , f (vn )
n o n o
= lin 0, . . . , 0, f (vr+1 ), . . . , f (vn ) = lin f (vr+1 ), . . . , f (vn )

Si probamos que el conjunto formado por esos n − r vectores es linealmente independiente, será una base de la
Img f y habremos probado que
dim(ker f ) + dim(Img f ) = dim V ( r + n−r = n )
como querı́amos. Veamoslo: por ser f una aplicación lineal,

λr+1 f ( vr+1 ) + · · · + λn f (vn ) = 0 ⇐⇒ f (λr+1 vr+1 + · · · + λn vn ) = 0 ⇐⇒ λr+1 vr+1 + · · · + λn vn ∈ ker f

luego en la base Bker se expresa con λr+1 v r+1 + · · · + λn vn = µ1 u1 + · · · + µr ur , para ciertos µi . Luego
−µ1 u1 − · · · − µr ur + λr+1 v r+1 + · · · + λn vn = 0
y −µ1 = · · · = −µr = λr+1 = · · · = λn = 0 por formar esos vectores una base de V . En particular, con
λr+1 = · · · = λn = 0 se prueba que el conjunto {f (v r+1 ), . . . , f (vn )} es un conjunto linealmente independiente
de vectores, que por ser también generador de la Img f es una base de ella.

14.2 Matrices de una aplicación lineal

Teorema 321.- Sean V y W espacios vectoriales con dim V = n y dim W = m , y sea f : V −→ W , una
aplicación lineal. Si B1 = { v1 , v2 , . . . , vn } es una base de V y B2 = { w1 , w2 , . . . , w m } una base de W ,
entonces la matriz  
Am×n = [f (v1 )]B2 [f (v2 )]B2 · · · [f (vn )]B2

es la única matriz que verifica que [f (v )]B2 = A[ v ]B1 , para cada v ∈ V .


Demostración:
Todo v ∈ V se escribe de forma única como una combinación lineal de los vectores de la base, v =
k1 v1 + k2 v2 + · · · + kn vn , luego su imagen f ( v ) = k1 f ( v1 ) + k2 f ( v2 ) + · · · + kn f ( vn ) .
Como los vectores f ( v1 ) , f ( v2 ) , . . . , f ( vn ) son de W , sean sus coordenadas en la base B2 :
 
 f (v1 ) = (a11 , a21 , . . . , am1 ) 
 B2 f (v1 ) = a11 w1 + a21 w2 + · · · + am1 wm



  

 f (v ) = (a12 , a22 , . . . , am2 ) f (v2 ) = a12 w1 + a22 w2 + · · · + am2 wm

2
B2 ⇐⇒
·····················
· · · · · · · · · · · · · · · · · · · · ·

 

f (v ) = a 1n w1 + a2n w2 + · · · + amn w m
  
n

 f (vn )

= (a1n , a2n , . . . , amn )
B2

Prof: José Antonio Abia Vian Grados de Ing. Industrial : Curso 2012–2013
163 – Matemáticas 1 : Álgebra Lineal 14.2 Matrices de una aplicación lineal

Entonces, sustituyendo en f (v ) , se tiene


f (v) = k1 (a11 w1 + a21 w2 + · · · + am1 wm ) + k2 (a12 w1 + a22 w2 + · · · + am2 wm )
+ · · · · · · · · · · · · · · · · · · + kn (a1n w1 + a2n w2 + · · · + amn wm )
= (k1 a11 + k2 a12 + · · · + kn a1n )w1 + (k1 a21 + k2 a22 + · · · + kn a2n )w2
+ · · · · · · · · · · · · · · · · · · + (k1 am1 + k2 am2 + · · · + kn amn )wm
por tanto, las coordenadas de f ( v ) en la base B2 son
  a · · · a1n
 
11 a12 k1

k1 a11 + k2 a12 + · · · + kn a1n
 k1 a21 + k2 a22 + · · · + kn a2n   a21 a22 · · · a2n  k2 
[f ( v )]B2 = =  = A[ v ]B1
 
  .. .. . ..
··············· · · · ..
 
. . .
  
k1 am1 + k2 am2 + · · · + kn amn am1 am2 · · · amn kn
y A, tiene por columnas las coordenadas en la base B2 de las imágenes de los vectores de la base B1 .

Definición 322.- Sean B1 una base de V , B2 base de W y f : V −→ W una aplicación lineal. A la única
matriz A, tal que [f ( v )]B2 = A[v ]B1 , para cada v ∈ V , se le llama matriz de f respecto de las bases
B1 y B2 .
Si f : V −→ V es un operador lineal y consideramos que tenemos la misma base B en el espacio de partida
y en el de llegada, entonces se habla de matriz de f respecto de la base B .

Ejemplo Sea f : P2 [X] −→ P1 [X] dada por f (P (X)) = P 0 (X) . Sean B1 = {1, X, X2 } y B2 = {1, X} bases
respectivas de P2 [X] y P1 [X] . Entonces, comof (1) = 0, f (X) = 1 y f (X2 ) = 2X se tiene que
0 1 0
A = [f (1)]B2 [f (X)]B2 [f (X2 )]B2 =

es la matriz de f asociada a B1 y B2 .
0 0 2
En efecto  
  a  
2 2 0 1 0 b
f (a + bX + cX ) = b + 2cX y A[a + bX + cX ]B1 =  b  = = [b + 2cX]B2 4
0 0 2 2c
c

Observación 323.- Si f : V −→ W es una aplicación lineal y A la matriz de f respecto de B1 y B2 , entonces


n o n o n o
ker f = v ∈ V : f (v ) = 0 = v ∈ V : [f ( v )]B2 = [0 ]B2 = v ∈ V : A[v ]B1 = 0
luego las coordenadas en la base B1 de los vectores del ker f son las soluciones del sistema homogéneo Ax = 0 .
n o n o
w ∈ Img f = lin f (v1 ), f ( v2 ), . . . , f (vn ) ⇐⇒ [ w ]B2 ∈ lin [f ( v1 )]B2 , [f ( v2 )]B2 , . . . , [f ( vn )]B2
luego el espacio de las columnas de la matriz A, Ec (A) , está compuesto por las coordenadas en la base B2 de
los vectores de la Img f . En consecuencia, dim(Img f ) = dim Ec (A) = rg(A) .

Ejemplo Sean
 B1 =  {v1 , v2 , v3 } base de V , B2 = { w1 , w2 , w3 } base de W , f : V −→ W aplicación
1 0 1
lineal y A =  −1 1 1  la matriz de f asociada a B1 y B2 . Encontrar una base de ker f y otra de Img f .
1 1 3
Como A[v ]B1 = [f ( v )]B2 , v0 ∈ ker f ⇐⇒ A[v0 ]B1 = 0 , luego resolviendo el sistema AX = 0 :
          
1 0 1 1 0 1 1 0 1  x = −z x −1
A =  −1 1 1  −→  0 1 2  −→  0 1 2  =⇒ y = −2z =⇒ [v0 ]B1 =  y  = z  −2 
1 1 3 0 1 2 0 0 0 z=z z 1

el vector (−1, −2, 1) genera las coordenadas en B1 de los vectores del ker f . Luego ker f = lin{−v1 −2 v2 + v3 } .
Además, dim(ker f ) = 1 luego dim(Img f ) = 3 − 1 = 2 = rg(A) . Y una base de la imagen se obtendrá de
una base del espacio de las columnas de A (para operar sobre las columnas de A, operamos es las filas de At ):
 t      
1 0 1 1 −1 1 1 −1 1 1 −1 1
At =  −1 1 1  =  0 1 1  −→  0 1 1  −→  0 1 1 
1 1 3 1 1 3 0 2 2 0 0 0
luego los vectores (1, −1, 1) y (0, 1, 1) generan las coordenadas en la base B2 de los vectores de la Img f . En
consecuencia, Img f = lin{w1 − w2 + w3 , w2 + w3 } . 4

Prof: José Antonio Abia Vian Grados de Ing. Industrial : Curso 2012–2013
164 – Matemáticas 1 : Álgebra Lineal 14.2 Matrices de una aplicación lineal

Observación 324.- Pueden obtenerse de una sola vez una base para ker(f ) y otra para la Img(f ) . Basta para
ello, tener en cuenta que las operaciones elementales realizadas sobre las columnas de la matriz, son operaciones
sobre los vectores imagen.
 
1 2 −1 1 0 1
 −1 1 −2 2 1 0 
Ejemplo Sea A =   2 −1 −1 −1 1 −1  la matriz de la aplicación f : V −→ W , referida a las bases

1 6 −9 7 4 0
B1 = { v1 , v2 , v3 , v4 , v5 , v6 } y B2 = { w1 , w2 , w3 , w4 } . Para obtener una base de la imagen, hacemos
operaciones elementales en las filas de At (en las columnas de A):
     
1 −1 2 1 : C1 1 −1 2 1 : C1 1 −1 2 1 : C1
 2 1 −1 6 : C2  FF23−2F
 0 3 −5 4 : C2 − 2C1 
+F1
1    0 1 −3 0 : C6 −C1 
  F4 −F 1
 
t
 −1 −2 −1 −9 : C 3 
 F6 −F 1 
 0 −3 1 −8 : C3 + C 1  2
 F ↔F 6  0 −3
 1 −8 : C3 +C1 
A =   −→  0 3 −3 6 : C4 − C1  −→  0 3 −3 6 : C4 −C1 
 
 1 2 −1 7 : C4     
 0 1 1 4 : C5   0 1 1 4 : C5   0 1 1 4 : C5 
1 0 −1 1 : C6 0 1 −3 0 : C6 − C1 0 3 −5 4 : C2 −2C1
   
1 −1 2 1 : C1 1 −1 2 1 : C1
F3 +3F2
F4 −3F2
 0 1 −3 0 : C6 − C1   0 1 −3 0 : C6 − C1 
F5 −F2
   
F6 −3F2  0 0 −8 −8 : C 3 + C 1 + 3(C 6 − C 1 )  F 3 ↔F 
5  0 0 4 4 : C 5 − C6 + C 1

−→    −→  
 0 0 6 6 : C 4 − C 1 − 3(C 6 − C 1 ) 
  0 0 6 6 : C 4 + 2C 1 − 3C 6 

 0 0 4 4 : C5 − (C6 − C1 )   0 0 −8 −8 : C3 − 2C1 + 3C6 
0 0 4 4 : C2 − 2C1 − 3(C6 − C1 ) 0 0 4 4 : C2 + C1 − 3C6
 
1 −1 2 1 : C1
F4 − 3 F3  0
2 1 −3 0 : C6 − C1 
F5 +2F3  
F6 −F3  0 0 4 4 : C5 − C6 + C1 
−→   1 3 3

 0 0 0 0 : C 4 + C
2 1 − C
2 6 − C
2 5 

 0 0 0 0 : C3 + C6 + 2C5 
0 0 0 0 : C2 − 2C6 − C5

La matriz final es escalonada, luego las tres primeras filas son linealmente independientes, pero éstas en realidad
son: C1 = [fn( v1 )]B2 , C6 −C1 = [f ( v6 )]B2 −[f ( v1 )]oB2 = [f ( v6 − v1 )]B2 y C5 −C6 +C1 = [f (v5 − v6 + v1 )]B2 .
Por lo que f ( v1 ), f (v6 − v1 ), f ( v5 − v6 + v1 ) es base de Img(f ) ( rg(A) = dim(Img f ) = 3 ).
Las tres filas restantes de la matriz son cero, en realidad:

0 = C4 + 12 C1 − 32 C6 − 32 C5 = [f (v4 + 12 v1 − 32 v6 − 23 v5 )]B2
0 = C3 + C6 + 2C5 = [f (v3 + v6 + 2v5 )]B2
0 = C2 − 2C6 − C5 = [f (v2 − 2v6 − v5 )]B2

luego los vectores v4 + 12 v1 − 32 v6 − 32 v5 , v3 +v6 +2v5 y v2 −2v6 −v5 son vectores de ker(f ) . Como
son linealmente independientes (ver justificación en Anexo 1, pág 185) y dim(ker f ) = 6 − dim(Img f ) = 3 ,
forman una base del ker(f ) .

Definición 325.- Si f : Rn −→ Rm es una aplicación lineal, a la matriz de f asociada a las bases canónicas de
Rn y Rm , se le llama la matriz estándar.

Definición 326.- Para cada matriz Am×n , la aplicación f : Rn −→ Rm definida por f (x ) = Ax es lineal y A
es la matriz estándar de f . Se dice que f es una aplicación matricial.

14.2.1 Composición de aplicaciones lineales


Aplicación y función tienen el mismo significado (aunque esta última denominación es la que suele usarse en los
temas de Cálculo) por lo que la definición siguiente no debe plantear sorpresas:
Definición 327.- Sean f : V −→ W y g: W −→ U aplicaciones lineales. Llamaremos aplicación compuesta
de f y g , a la aplicación g ◦ f : V −→ U definida por

(g ◦ f )(v ) = g(f (v )), ∀ v ∈ V.

Prof: José Antonio Abia Vian Grados de Ing. Industrial : Curso 2012–2013
165 – Matemáticas 1 : Álgebra Lineal 14.3 Teorema de Semejanza

Proposición 328.- Sean f : V −→ W y g: W −→ U aplicaciones lineales, con dim V = n , dim W = m y


dim U = p , y sean B1 , B2 y B3 bases de V , W y U , respectivamente. Entonces:

a) g ◦ f es una aplicación lineal.


b) Si Am×n es la matriz asociada a f respecto de las bases B1 y B2 , y Cp×m es la matriz asociada a g
respecto de B2 y B3 , entonces CAp×n es la matriz asociada a g ◦ f respecto de las bases B1 y B3 .
Demostración:
a) (g ◦ f )(λu + µv) = g(f (λu + µv)) = g(λf (u) + µf (v)) = λg(f (u)) + µg(f (v))
= λ(g ◦ f )(u) + µ(g ◦ f )(v).

b) Teniendo en cuenta que [g( w )]B3 = C[w ]B2 y [f ( v )]B2 = A[ v ]B1 ,

[(g ◦ f )(v)]B3 = [g(f (v))]B3 = C[f (v)]B2 = CA[v]B1 ; ∀ v ∈ V.

14.3 Teorema de Semejanza

Proposición 329.- Sea f : V −→ W una aplicación lineal entre espacios vectoriales, B1 y B1∗ dos bases de V
y B2 y B2∗ dos bases de W . Si A1 es la matriz de f asociada a las bases B1 y B2 , P la matriz de cambio
de base la base B1∗ a la base B1 y Q la matriz de cambio de base de B2 a B2∗ ; entonces la matriz, A∗ , de f
asociada a las bases B1∗ y B2∗ viene dada por

A∗ = QAP
Demostración:
QAP [ v ]B1∗ = QA[v ]B1 = Q[f ( v )]B2 = [f ( v )]B2∗ = A∗ [ v ]B2∗ , ∀v ∈V. Luego A∗ = QAP .

Teorema de semejanza 330.- Sean f : V −→ V , un operador lineal, A1 la matriz de f respecto de una base
B1 de V , A2 la matriz de f respecto de otra base B2 y P la matriz de paso de B2 a B1 . Entonces

A2 = P −1 A1 P

Observación: Una manera de recordar bien este proceso es tener en cuenta los diagramas siguientes, donde la
obtención de las nuevas matrices se reduce a la búsqueda de caminos alternativos:
f f
V −→ W V −→ V
A A
1
B1 −→ B2 B1 −→ B1

A = QAP ↑ | ↑ | A2 = P −1 A1 P
P
| ↓ Q P P −1
| ↓
A∗ A
B1∗ −→ B2∗ 2
B2 −→ B2

No hay que olvidar, que las matrices se operan en orden inverso (las matrices multiplican a los vectores por la
izquierda, sucesivamente). Obviamente, el Teorema de Semejanza es un caso particular de la Proposición 329.

Definición 331.- Dadas dos matrices A y B de orden n , se dice que A y B son semejantes si existe una
matriz P inversible tal que B = P −1 AP .

Corolario 332.- Dos matrices A y B son semejantes si y sólo si representan al mismo operador lineal respecto
a dos bases.

Corolario 333.- Si A y B son matrices semejantes, entonces tienen el mismo rango.

Prof: José Antonio Abia Vian Grados de Ing. Industrial : Curso 2012–2013
166 – Matemáticas 1 : Álgebra Lineal 14.4 Ejercicios

14.4 Ejercicios
14.241 Determinar si las siguientes aplicaciones son o no lineales:
√ √
a) f : R2 −→ R2 definida por f (x, y) = ( 3 x, 3 y)
b) f : R3 −→ R2 definida por f (x, y, z) = (2x + y, 3y − 4z) .
 
a b
c) f : M2×2 −→ R definida por f = a2 + b2 .
c d

14.242 Sea f : V −→ W una aplicación lineal.

a) Probar que ker f es un subespacio de V


b) Probar que Img f es un subespacio de W

14.243 Sean V un espacio vectorial y T : V −→ V la aplicación lineal tal que T (v ) = 3v . ¿Cuál es el núcleo de
T ? ¿Cuál es la imagen de T ?.
14.244 Sea A una matriz de tamaño 5 × 7 con rango 4 .

a) ¿Cuál es la dimensión del espacio de soluciones de Ax = 0 ?.


b) ¿ Ax = b tiene solución para todo b de R5 ? ¿Por qué?.

 
1 3 4 x
14.245 Sea T : R3 −→ R3 la aplicación lineal dada por la fórmula T (x, y, z) =  3 4 7   y  .
−2 2 0 z
a) Demostrar que el núcleo de T es una recta y encontrar sus ecuaciones paramétricas.
b) Demostrar que la imagen de T es un plano y hallar su ecuación (cartesiana).

14.246 Sea B = { v1 = (1, 2, 3), v2 = (2, 5, 3), v3 = (1, 0, 10)} una base de R3 y f : R3 −→ R2 una aplicación
lineal para la que f ( v1 ) = (1, 0) , f (v2 ) = (0, 1) y f ( v3 ) = (0, 1) .
a) Encontrar una matriz de la aplicación f indicando las bases a las que está asociada.
b) Calcular f ( v3 − v2 − 2 v1 ) y f (1, 1, 1) .

14.247 Encontrar la matriz estándar de cada una de las aplicaciones lineales siguientes:
     
    x1 x4 x1  
x1 x1 + 2x2 + x3  x2   x1   x2  x4 − x1
a) f  x2  =  x1 + 5x2  b) f 
 x3  =  x3
  
  x3  = x1 + x2
c) f    
x3 x3 x2 − x3
x4 x1 − x3 x4

Encontrar una base del nucleo y otra de la imagen, para cada una de ellas
14.248 Sea T : R3 −→ W la proyección ortogonal de R3 sobre el plano W que tiene por ecuación x + y + z = 0 .
Hallar una fórmula para T y calcular T (3, 8, 4) .

14.249 Se dice que una aplicación lineal es inyectiva si a cada vector de la imagen le corresponde un único
original (es decir, si f ( u ) = f (v ) =⇒ u = v ). Demostrar que f es inyectiva si y sólo si ker f = { 0} .

14.250 Sea T : R2 −→ R3 la transformación lineal definida por T (x1 , x2 ) = (x1 + 2x2 , −x1 , 0) .

a) Encontrar
n la matriz de la aplicación
o T en las n
bases: o
B1 = u1 = (1, 3), u2 = (−2, 4) y B2 = v1 = (1, 1, 1), v2 = (2, 2, 0), v3 = (3, 0, 0) .
b) Usar la matriz obtenida en el apartado anterior para calcular T (8, 3) .
    
a11 a12 −1 2 a11 a12
14.251 Sea f : M2×2 −→ M2×2 definida por: f = y sean las bases Bc
a21 a22 0 1 a21 a22
(hace 
el papel 
de    y B de M2×2
la canónica) :        
1 0 0 1 0 0 0 0 1 0 0 2 0 1 0 0
Bc = , , , B= , , ,
0 0 0 0 1 0 0 1 0 0 1 0 2 0 0 1

Prof: José Antonio Abia Vian Grados de Ing. Industrial : Curso 2012–2013
167 – Matemáticas 1 : Álgebra Lineal 14.4 Ejercicios

a) Demostrar que f es lineal.


b) ¿Cuál será el tamaño de la matriz de f asociada a la base Bc ? Hallarla.
c) Hallar el núcleo y la imagen de f ası́ como sus dimensiones y bases.
d) Hallar la matriz de f respecto de la base B .
 
3 −2 1 0
14.252 Sea A =  1 6 2 1  la matriz de la aplicación lineal T : R4 −→ R3 respecto de las bases:
−3 0 7 1
n o
B = v1 = (0, 1, 1, 1), v2 = (2, 1, −1, −1), v3 = (1, 4, 1, −2), v4 = (6, 9, 4, 2) y
n o
B 0 = w1 = (0, 8, 8), w2 = (−7, 8, 1), w3 = (−6, 9, 1) .

a) Hallar [T (v1 )]B 0 , [T ( v2 )]B 0 , [T ( v3 )]B 0 y [T (v4 )]B 0 .


b) Encontrar T (v1 ) , T (v2 ) , T (v3 ) y T ( v4 ) .
c) Hallar T (2, 2, 0, 0) .
  
2 2 x1 x1 + 7x2
14.253 Sea T : R −→ R la aplicación lineal definida por T = .
x2 3x1 + 4x2
Hallar la matriz de T respecto de la base B y aplicar el teorema de semejanza para calcular la matriz de
T respecto de la base nB 0 , siendo o n o
B = u1 = (2, 2), u2 = (4, −1) y B 0 = v1 = (1, 3), v2 = (−1, −1) .

14.254 Probar que si A y B son matrices semejantes entonces det(A) = det(B) .

14.255 Probar que si A y B son matrices semejantes entonces A2 y B 2 también lo son.

14.256 Dado el operador lineal T : R3 −→ R3 tal que [T (x)]B = A[x]B siendo:


 
−2 a 1 n o
A =  1 −2a 1  y B = u1 = (1, −1, 0), u2 = (0, 1, −1), u3 = (−1, 0, 0)
1 a −2
a) Calcular los subespacios ker(T ) y Img(T ) según los valores de a.
b) Hallar la matriz estándar de T .

14.257 Sean f : V −→ W una aplicación lineal y S = { v1 , v2 , . . . , vn } un conjunto de vectores de V . Probar


que si el conjunto {f ( v1 ), f ( v2 ), . . . , f ( vn )} es linealmente independiente, entonces S es linealmente
independiente.
¿Es cierto el recı́proco? Justificar la respuesta.
   
x1 λx1 + µx2 + x3
14.258 Sea T : R3 −→ R3 la aplicación lineal T =  x2  =  x1 + λµx2 + x3  . Se pide:
x3 x1 + µx2 + λx3

a) Encontrar los valores de λ y µ para los cuáles la imagen de T sea R3 . ¿Quién es en ese caso el
núcleo?
b) Para λ = 1 , encontrar una base del núcleo.
c) Sea λ = 1 y µ = 0 . Se pide:
(c.1) Encontrar
n la matriz de T respecto de la base o
B = u1 = (−1, 0, 1), u2 = (0, 1, 0), u3 = (4, 1, 2) .
n o
(c.2) Dada la base B1 = v1 = (1, 1, 2), v2 = (1, 1, 0), v3 = (−1, 1, −1) , encontrar la matriz de paso
de B a B1 .
(c.3) Encontrar la matriz de T en la base B1 aplicando el teorema de semejanza.

14.259 Sea T : R3 −→ R2 una aplicación lineal tal que:


   
 0   1  
x + 2y + z = 0 0 2
(i) ker(T ) = (ii) T  0  = (iii) T  0  =
2x + y + z = 0 1 1
1 1

Prof: José Antonio Abia Vian Grados de Ing. Industrial : Curso 2012–2013
168 – Matemáticas 1 : Álgebra Lineal 14.4 Ejercicios

a) Obtener una matriz asociada a T , indicando respecto a que bases.


b) Calcular las ecuaciones paramétricas de la imagen del subespacio x + y + z = 0 .
n o n
14.260 Sean Bp = p1 , p2 , p3 , p4 una base de P3 [X] (polinomios de grado menor o igual a 3), B1 = v1 =
o
(0, 1, 0), v2 = (1, 1, 1), v3 = (0, 0, 1) una base de R3 y f : P3 [X] −→ R3 una aplicación lineal verificando:

(i) f (p1 ) = f (2p2 +p4 ) = f (p2 −p3 ) (ii) f (p2 ) = v1 +v3 −v2 (iii) f (p4 ) = (3, 3, 2)

a) Encontrar Ap1 la matriz de la aplicación f en las bases Bp y B1 .


 
−1 1 0
b) ¿Es  1 0 0  la matriz de paso, Pc1 , de la base canónica de R3 a B1 ? Justificar la respuesta
−1 0 1
y, en caso negativo, hallar Pc1 .
n o
c) Sea Bq = q1 = X − X3 , q2 = X2 − 1, q3 = 1 − X, q4 = X2 + X otra base de P3 [X] para la cuál, las
 
2 0 0 0  
 1 3 2 0  6 5 3 0
matrices Mqp =   3 1 0 −3  son respectivamente, la matriz de
 −1 −2 −1 0  y Aq1 =

3 3 2 1
0 0 0 −1
paso de Bq a Bp y la matriz de f en las bases Bq y B1 . Con estos nuevos datos, ¿cómo se puede
comprobar que la matriz Ap1 calculada antes es la correcta?
d) Hallar bases de ker(f ) e Img(f ) , obteniendo los vectores concretos que las forman.
n o
e) Probar que B2 = w1 = (−1, 2, 1), w2 = (0, −1, −1), w3 = (2, 1, 0) es base de R3 y obtener la
matriz de paso, P21 , de la base B2 en la base B1 .
f) A partir de las matrices anteriores, dar la expresión del cálculo de las matrices:
? Ap2 de la aplicación f en las bases Bp y B2
? Mpq de paso de la base Bp en la base Bq
? Aq2 de la aplicación f en las bases Bq y B2
g) ¿Pueden conocerse los vectores que forman Bp ? ¿Cómo?, de ser posible o, ¿por qué no?

Prof: José Antonio Abia Vian Grados de Ing. Industrial : Curso 2012–2013
169 – Matemáticas 1 : Álgebra Lineal

Capı́tulo 15

Diagonalización
15.1 Valores y vectores propios
15.1.1 Planteamiento del problema
Problema general de diagonalización Dado un operador lineal f sobre un espacio vectorial V , nos
planteamos el problema de cuándo es posible encontrar una base de V respecto de la cuál la matriz de f sea
diagonal. Si A es la matriz del operador f con respecto a una determinada base B , el planteamiento anterior
es equivalente a preguntarse cuándo existe un cambio de base tal que la matriz del operador en la nueva base
B∗ sea diagonal. Esa nueva matriz viene dada por P −1 AP , donde P es la matriz de paso de la nueva base B∗
a la base B (Teorema de Semejanza).

Problema de la diagonalización ortogonal Dado un operador lineal f sobre un espacio vectorial V con
producto interior, nos planteamos el problema de cuándo es posible encontrar una base ortonormal de V respecto
de la cuál la matriz de f sea diagonal. Si V es un espacio con producto interior y las bases son ortonormales
entonces se tendrá que P será ortogonal.
Podemos pues formular los dos problemas anteriores en términos de matrices.
1.- Dada una matriz cuadrada A, ¿existe una matriz P inversible tal que P −1 AP sea diagonal?

2.- Dada una matriz cuadrada A, ¿existe una matriz ortogonal P tal que P t AP sea diagonal?

Definición 334.- Se dice que una matriz A cuadrada es diagonalizable si existe una matriz P inversible tal
que P −1 AP es diagonal. En ese caso se dice que P diagonaliza a la matriz A.
Si existe una matriz ortogonal P tal que P −1 AP es diagonal, entonces se dice que A es diagonalizable
ortogonalmente y que P diagonaliza ortogonalmente a A.

15.1.2 Valores y vectores propios

Supongamos que la matriz An×n es diagonalizable y sea D la matriz diagonal. Entonces:


∃ P inversible tal que P −1 AP = D o, equivalentemente, ∃ P inversible tal que AP = P D
Si denotamos por p1 , p2 , . . . , pn a las columnas de P , las matrices son
   
AP = A p1 p2 ··· pn = Ap1 Ap2 ··· Apn

· · · p1n λ1 0 · · · 0 · · · λn p1n
    
p11 p12 λ1 p11 λ2 p12
 p21 p22 · · · p2n  0 λ2 · · · 0   λ1 p21 λ2 p22 · · · λn p2n   
PD =  = .  = λ1 p1 λ2 p2 · · · λn pn
    
.. .. .. ..  .. .. . . . .. .. ..
 . . . .  . . . ..   .. . . . 
pn1 pn2 · · · pnn 0 0 · · · λn λ1 pn1 λ2 pn2 · · · λn pnn

y, como son iguales: Api = λi pi , para todo i = 1, . . . , n . Es decir, han de existir n vectores linealmente
independientes pi ( P es inversible) y n números λi que lo verifiquen.

Definición 335.- Si A es una matriz de orden n , diremos que λ es un valor propio, valor caracterı́stico,
eigenvalor o autovalor de A si existe algún p ∈ Rn , p 6= 0 , tal que Ap = λp .
Del vector p diremos que es un vector propio, vector caracterı́stico, eigenvector o autovector de
A correspondiente al valor propio λ .
Del comentario anterior, obtenemos la primera caracterización para la diagonalización de la matriz:
Teorema 336.- Sea A una matriz de orden n , entonces:
A es diagonalizable ⇐⇒ A tiene n vectores propios linealmente independientes

Prof: José Antonio Abia Vian Grados de Ing. Industrial : Curso 2012–2013
170 – Matemáticas 1 : Álgebra Lineal 15.2 Diagonalización

Demostración:
Por lo anterior, se tiene que: A es una matriz diagonalizable ⇐⇒
⇐⇒ ∃ P inversible y D diagonal tal que AP = P D
⇐⇒ ∃ P inversible y D diagonal tal que
   
AP = Ap1 Ap2 · · · Apn = λ1 p1 λ2 p2 · · · λn pn = PD

⇐⇒ existen n vectores linealmente independientes tales que Ap1 = λ1 p1 , . . . , Apn = λn pn


⇐⇒ A tiene n vectores propios linealmente independientes

En consecuencia, el problema de la diagonalización se reduce a la busqueda de los vectores propios de la


matriz, y comprobar si de entre ellos pueden tomarse n linealmente independientes.

15.2 Diagonalización
La primera simplificación de la búsqueda se produce, no sobre los vectores propios, sino sobre los autovalores
correspondientes:
Teorema 337.- Si A es una matriz de orden n , las siguientes proposiciones son equivalentes:
a) λ es un valor propio de A.

b) El sistema de ecuaciones (λI − A)x = 0 tiene soluciones distintas de la trivial.


c) det(λI − A) = 0 .
Demostración:
λ es un valor propio de A ⇐⇒ existe un vector x ∈ Rn , x 6= 0 , tal que A x = λ x ⇐⇒ el sistema
λ x − Ax = (λI − A)x = 0 tiene soluciones distintas de la trivial ⇐⇒ |λI − A| = 0

Definición 338.- Sea A una matriz de orden n . Al polinomio en λ de grado n , P(λ) = |λI − A| , se le
denomina polinomio caracterı́stico de la matriz A.
Si λ nun valor propio de A, llamaremos
o espacio caracterı́stico de A correspondiente a λ al conjunto
V (λ) = x ∈ Rn : (λI − A)x = 0 . Es decir, V (λ) es el conjunto formado por todos los vectores propios de
A correspondientes a λ , más el vector cero.
Ası́ pues, los autovalores son las raices del polinomio carácterı́stico y los vectores propios, los vectores
distintos de cero del espacio caracterı́stico asociado.
Observación 339.- V (λ) es un subespacio y dim V (λ) ≥ 1 :
En efecto, es un subespacio por ser el conjunto de soluciones de un sistema homogéneo y como λ es valor
propio de A, existe x 6= 0 en
n V (λ) , luego lin{x } ⊆ V o
(λ) y 1 = dim(lin{ x }) ≤ dim V (λ) .
Además, dim V (λ) = dim x ∈ Rn : (λI − A) x = 0 = n − rg(λI − A) .

Antes de seguir: en el estudio realizado hasta ahora, hemos buscado la diagonalización de matrices, separándolo
del operador lineal que aparece en el planteamiento inicial del problema. Sin embargo, todo lo anterior (y lo
siguiente) es válido y aplicable en los términos del operador. Pueden verse los resultados que lo justifican en el
Anexo 1, pág 186.
Teorema 340.- Sean v1 , v2 , . . . , vk vectores propios de una matriz A asociados a los valores propios λ1 ,
λ2 , . . . , λk respectivamente, siendo λi 6= λj , ∀ i 6= j . Entonces el conjunto de vectores { v1 , v2 , . . . , vk } es
linealmente independiente. .

Corolario 341.- Una matriz de orden n con n autovalores distintos, es diagonalizable.


Demostración:
Si la matriz tiene n autovalores distintos λ1 , λ2 , . . . , λn y de cada espacio caracterı́stico V (λk ) podemos
tomar un vector propio vk 6= 0 , tenemos n vectores propios, v1 , v2 , . . . , vn que son, por el resultado
anterior, linealmente independientes.

Prof: José Antonio Abia Vian Grados de Ing. Industrial : Curso 2012–2013
171 – Matemáticas 1 : Álgebra Lineal 15.2 Diagonalización

Proposición 342.- Sea A de orden n y λk un autovalor de A de multiplicidad mk . Entonces

1 ≤ dim V (λk ) ≤ mk . .

Teorema fundamental de la diagonalización 343.- Sea A una matriz de orden n . Entonces A es diagonali-
zable si y sólo si se cumplen las condiciones:

1.- El polinomio caracterı́stico tiene n raices reales. Es decir, |λI − A| = (λ − λ1 )m1 · · · (λ − λk )mk con
m1 + m2 + · · · + mk = n .
2.- Para cada espacio caracterı́stico V (λi ) , se cumple que dim V (λi ) = mi . .

Aunque omitimos aquı́ la demostración por ser demasiado técnica (puede verse en el Anexo 2), en ella se aporta
el método para encontrar los n vectores propios linealmente independientes necesarios en la diagonalización:
Si dim V (λi ) = mi para todo i = 1, . . . , k y m1 + · · · + mk = n , podemos tomar de cada V (λi ) los mi
vectores de una base para conseguir el total de n vectores.

 
0 0 4
Ejemplo 344 Para la matriz A =  0 4 0  , su polinomio caracterı́stico es:
4 0 0
λ
0 −4
λ −4

P (λ) = |λI − A| = 0 λ − 4 0 = (λ − 4)
= (λ − 4)(λ2 − 42 ) = (λ − 4)2 (λ + 4)
−4 −4 λ
0 λ
luego los autovalores de A son λ1 = 4 con m1 = 2 y λ2 = −4 con m2 = 1 . Como λ1 , λ2 ∈ R y m1 + m2 =
2 + 1 = 3 = n , se cumple la primera condición del Teorema.
Veamos el punto 2: como 1 ≤ dim V (−4) ≤ m2 = 1 la condición dim V (−4) = 1 se cumple de manera
inmediata (y se cumple siempre para cualquier
 autovalor
 con multiplicidad
 1). Para el otro autovalor, λ1 = 4 :

4 0 −4 4 0 −4
dim V (4) = 3 − rg(4I − A) = 3 − rg  0 0 0  = 3 − rg  0 0 0  = 3 − 1 = 2 = m1
−4 0 4 0 0 0
luego también se cumple y, en consecuencia, la matriz diagonaliza.
Como los elementos de V (4) son las soluciones del sistema homogéneo (4I − A)X = 0 , tenemos que
V (4) = lin{(1, 0, 1), (0, 1, 0)} ; y los elementos V (−4) las soluciones del sistema (−4I − A)X = 0 , tenemos
que V (−4) = lin{(1, 0, −1)}. En consecuencia, los tres vectores son autovectores y linealmente independientes,
cumpliéndose que:
 −1     
1 0 1 0 0 4 1 0 1 4 0 0
P −1 AP =  0 1 0   0 4 0   0 1 0  =  0 4 0  = D 4
1 0 −1 4 0 0 1 0 −1 0 0 −4
 
0 2 4
Ejemplo La matriz A =  0 4 0  tiene por polinomio caracterı́stico P (λ) = (λ − 4)2 (λ + 4) , luego tiene
4 2 0
por autovalores λ1 = 4 con m1 = 2 y λ2 = −4 con m2 = 1 .
Como m1 + m2 = 2 + 1 = 3 se cumple el primer punto; y por ser m2 = 1 , también se cumple que
dim V (−4) = 1 .Veamos para 
el otro autovalor:
 
4 −2 −4 4 −2 −4
rg(4I −A) = rg  0 0 0  = rg  0 0 0  = 2 = 3−dim V (4) luego dim V (4) = 3−2 = 1 6= m1 = 2 .
−4 −2 4 0 −4 0
En consecuencia, la matriz A no diagonaliza.
(Si dim V (4) = 1 y dim V (−4) = 1 de cada uno de ellos podemos conseguir, a lo más, un vector propio lineal-
mente independiente; luego en total, podremos conseguir a lo más dos autovectores linealmente independientes.
No conseguimos los tres necesarios, luego no diagonaliza.) 4

Prof: José Antonio Abia Vian Grados de Ing. Industrial : Curso 2012–2013
172 – Matemáticas 1 : Álgebra Lineal 15.3 Diagonalización ortogonal

15.3 Diagonalización ortogonal

Teorema 345.- Sea A una matriz de orden n , entonces son equivalentes:


1.- A es diagonalizable ortogonalmente.
2.- A tiene un conjunto de n vectores propios ortonormales.
Demostración:
En efecto, A es diagonalizable ortogonalmente ⇐⇒ existe P ortogonal tal que P t AP = D (con D diagonal)
⇐⇒ existe P ortogonal tal que AP = P D .
Si llamamos p1 , p2 , . . . , pn a los vectores columnas de P , éstos vectores
 son ortonormales
 y lo anterior es
λ1 0 · · · 0
 0 λ2 · · · 0 
lo mismo que escribir Ap1 = λ1 p1 , . . . , A pn = λn pn , supuesto que D =  . . . .  , y como al ser
 
 .. .. . . .. 
0 0 · · · λn
P inversible se tiene que p1 , p2 , . . . , pn son linealmente independientes y por tanto no nulos ⇐⇒ A tiene
n vectores propios ortonormales.

Lema 346.- Si A es una matriz simétrica, entonces los vectores propios que pertenecen a valores propios
distintos son ortogonales.
Demostración:
Sean λ1 y λ2 valores propios distintos de una matriz simétrica A y sean u y v vectores propios correspon-
dientes a λ1 y λ2 respectivamente.
Tenemos que probar que u t v = 0 . (Notar que u t Av es un escalar).
Se tiene que u t Av = (u t Av )t = v t Au = v t λ1 u = λ1 v t u = λ1 u t v ,
y por otra parte que u t Av = u t λ2 v = λ2 u t v ,
por tanto λ1 u t v = λ2 u t v ⇒ (λ1 − λ2 ) u t v = 0 y como λ1 − λ2 6= 0 , entonces u t v = 0 .

Teorema fundamental de la diagonalización ortogonal 347.- Una matriz A de orden n es diagonalizable


ortogonalmente si y sólo si A es simétrica. .

El Lema 346 y el resaltado que apostilla el Teorema fundamental de diagonalización 343 nos indican la manera
de encontrar los n vectores propios ortonormales linealmente independientes:
Si tomamos en cada V (λi ) los vectores de una base ortonormal, conseguiremos el total de n vectores
ortonormales.
 
0 0 4
Ejemplo La matriz A =  0 4 0  del Ejemplo 344, es simétrica luego diagonaliza ortogonalmente y
4 0 0
V (4) = lin{(1, 0, 1), (0, 1, 0)} y V (−4) = lin{(1, 0, −1)} .
Si tomamos una base ortonormal en cada uno de ellos, por ejemplo V (4) = lin{( √12 , 0, √12 ), (0, 1, 0)} y
−1
V (−4) = lin{( √12 , 0, √ 2
)} , los tres vectores juntos forman un conjunto ortonormal, cumpliéndose que:

√1
t 
0 √12
  √1
0 √12
   
2 0 0 4 2 4 0 0
P t AP =  0 1 0   0 4 0   0 1 0  =  0 4 0  = D 4
√1 0 √−1 √1 0 √−1
2 2
4 0 0 2 2
0 0 −4

15.4 Ejercicios
15.261 Hallar los polinomios caracterı́sticos, los valores propios y bases de los espacios caracterı́sticos de las
siguientes matrices:    
  5 6 2 4 0 1
−2 −7
a) b)  0 −1 −8  c)  −2 1 0 
1 2
1 0 −2 −2 0 1

Prof: José Antonio Abia Vian Grados de Ing. Industrial : Curso 2012–2013
173 – Matemáticas 1 : Álgebra Lineal 15.4 Ejercicios

15.262 Sea T : M2×2 −→ M2×2 el operador lineal  definido


 por:
 
a b 2c a+c
T =
c d b − 2c d
Hallar los valores propios de T y bases para los subespacios caracterı́sticos de T .
15.263 Demostrar que λ = 0 es un valor propio de una matriz A si y sólo si A es no inversible.

15.264 Probar que el término constante del polinomio caracterı́stico P (λ) = |λI − A| de una matriz A de orden
n es (−1)n det(A) .

15.265 Demostrar que si λ es un valor propio de A entonces λ2 es un valor propio de A2 .

15.266 Estudiar si son o no diagonalizables las siguientes matrices y en caso de que lo sean hallar una matriz P
−1
tal que
 P AP =D con D matriz diagonal:  
3 0 0   −1 4 −2
−14 12
a)  0 2 0  b) c)  −3 4 0 
−20 17
0 1 2 −3 1 3
   
x1 2x1 − x2 − x3
15.267 Sea T : R3 −→ R3 el operador lineal T  x2  =  x1 − x3  . Hallar una base de R3 respecto
x3 −x1 + x2 + 2x3
de la cual la matriz de T sea diagonal.
15.268 Sea P1 [X] el espacio vectorial de los polinomios de grado menor o igual a 1. Sea T : P1 [X] −→ P1 [X] el
operador lineal T (a0 + a1 X) = a0 + (6a0 − a1 )X. Hallar una base de P1 [X] respecto de la cual la matriz de
T sea diagonal.
15.269 Sea A una matriz de orden n y P una matriz inversible de orden n . Probar que (P −1 AP )k = P −1 Ak P ,
para k = 2 y k = 3 . Deducir de ello que es cierto ∀k ∈ N .
 
40 1 0
15.270 Calcular A siendo A = .
−1 2

15.271 Estudiar la diagonalizabilidad de la matriz A , dada en función de los parámetros a y b, siendo A=


 
5 0 0
 0 −1 a  . En los casos posibles diagonalizarla.
3 0 b

15.272 Hallar una matriz P que diagonalice ortogonalmente a A y calcular P −1 AP para cada una de las
siguientes matrices:  
  5 −2 0 0
  2 −1 −1
−7 24  −2 2 0 0 
a) b)  −1 2 −1  c)  
24 7  0 0 5 −2 
−1 −1 2
0 0 −2 2

15.273 Probar que A y At tienen los mismos valores propios siendo A una matriz de orden n .

15.274 Sea A una matriz de orden n inversible, demostrar que los valores propios de A−1 son los inversos de los
valores propios de A .
15.275 Sea A una matriz de orden n ortogonal, probar que todos los valores propios de A son uno o menos uno.

15.276 Se sabe que (1, 0, 0) , (1, 1, 0) , (0, 1, 0) y (0, 0, 1) son vectores propios de una matriz de orden 3 y que hay
vectores de R3 que no lo son. Calcular todos los vectores propios de la matriz.

un = 3un−1 + 3vn−1
15.277 Se dan las siguientes ecuaciones de recurrencia: . Utilizar la diagonalización para
vn = 5un−1 + vn−1
calcular un y vn en función de n , sabiendo que u0 = v0 = 1 .
15.278 Los dos primeros términos de una sucesión son a0 = 0 y a1 = 1 . Los términos siguientes se generan a
partir de ak = 2ak−1 + ak−2 ; k ≥ 2 . Hallar a127 .

15.279 El propietario de una granja para la crı́a de conejos observó en la reproducción de éstos que:

Prof: José Antonio Abia Vian Grados de Ing. Industrial : Curso 2012–2013
174 – Matemáticas 1 : Álgebra Lineal 15.4 Ejercicios

i). Cada pareja adulta (con capacidad reproductora) tiene una pareja de conejos cada mes.
ii). Una pareja recién nacida tarda dos meses en tener la primera descendencia.
Si partimos de una pareja adulta y siendo an el número de parejas nacidas en el n -ésimo mes (a0 = 0 ),
se pide:
a) Obtener una fórmula recurrente para an en función de términos anteriores.
√ √
(1 + 5)n − (1 − 5)n
b) Probar que an = √
2n 5
an+1
c) Calcular, si existe: lı́m .
n→∞ an

15.280 Sea el determinante n×n siguiente:




3 1 0 0
··· 0 0

1 3 1 0
··· 0 0

0 1 3 1
··· 0 0
Dn =
0 0 1 3
··· 0 0
.. .. .. .. .. .. ..

. . . .
. . .

0 0 0 0 · · · 3 1
0 0 0 0 ··· 1 3

Dar una expresión de Dn en función de los determinantes de tamaño menor que n y obtener las ecuaciones
de recurrencia para hallar su valor.
15.281 Determinar para qué valores de a, by c son diagonalizables
 simultáneamente
 las matrices
1 a b 1 a b
A= 0 2 c  y B= 0 1 c 
0 0 2 0 0 2
 
c 2a 0
15.282 Estudiar para qué valores de a , b y c es diagonalizable la matriz A =  b 0 a 
0 2b −c
 
a −a 0
15.283 Dada la matriz A =  −a a 0  . Estudiar para qué valores de a y b la matriz A es diagonalizable.
b 0 2b

15.284 Sea f : R3 −→ R3 el operador lineal cuya matriz asociada a la base canónica es:
 
m 0 0
A= 0 m 1 
1 n m

a) Determinar para qué valores de m y n existe una base de R3 de tal forma que la matriz en esa base
sea diagonal. En los casos que f sea diagonalizable calcular una base en la cuál la matriz de f sea
diagonal.
b) Si n = 0 , observando la matriz A y sin hacer ningún cálculo, determinar un valor propio y un vector
propio asociado a dicho valor propio, razonando la respuesta.
 
−1 0 0 0
 a −1 0 0 
15.285 Dada la matriz A =   . Encontrar para qué valores de los parámetros a, b, c, d, e, f ∈ R
 b d 1 1 
c e f 1
la matriz A es diagonalizable. Para dichos valores encontrar las matrices P y D tales que P −1 AP = D ,
donde D es una matriz diagonal.
15.286 En R4 consideramos el subconjunto: S = {(x1 , x2 , x3 , x4 ) / x2 − x4 = 0}. Sea T : R4 −→ R4 el operador
lineal que verifica:
(i) ker(T ) = { x ∈ R4 / < x , y >= 0, ∀y ∈ S} .
(ii) T (1, 0, 0, 0) = (−1, 3, 1, −2) .

Prof: José Antonio Abia Vian Grados de Ing. Industrial : Curso 2012–2013
175 – Matemáticas 1 : Álgebra Lineal 15.4 Ejercicios

(iii) T (1, 1, 1, 1) = (−3, m, n, p) .



x1 + x2 + x3 + x4 = 0
(iv) El subespacio solución del sistema: es el conjunto de vectores propios
x2 + 2x3 + 2x4 = 0
correspondientes a un mismo valor propio de T.
Se pide:
a) Probar que S es un subespacio vectorial de R4 .
b) Hallar ker(T ) .
c) Encontrar una base para el subespacio de vectores propios de la propiedad (iv).
d) Una matriz de T , indicando las bases de referencia.

15.287 Sean f : R4 −→ R4 un operador lineal, y B = {e 1 , e 2 , e 3 , e 4 } la base canónica de R4 , verificando lo


siguiente:
(i) f ( e 1 ) ∈ H = {x ∈ R4 / x2 = 0}
(ii) f ( e 2 ) ∈ S = { x ∈ R4 / x2 = 1 y x4 = 0}
(iii) f ( e 3 ) = (α, β, 1, −2) ; f (e 4 ) = (1, 0, −2, γ)

 2x1 + x2 + 2x3 − 2x4 = 0
(iv) ker f es el conjunto de soluciones del sistema: 3x1 + 3x2 + x3 + x4 = 0
x1 − x2 − x3 + 3x4 = 0

(v) Las ecuaciones implı́citas de la imagen de f son y1 − 2y3 − y4 = 0 .


(vi) El operador f es diagonalizable.
Hallar una matriz de f , indicando las bases de referencia.

Prof: José Antonio Abia Vian Grados de Ing. Industrial : Curso 2012–2013
176 – Matemáticas 1 : Álgebra Lineal

Capı́tulo 16

Formas cuadráticas
Aunque, pueda parecernos que vamos a estudiar un nuevo concepto, un caso particular de las formas cudráticas
ya ha sido estudiado, pues el cuadrado de la norma de un vector no es más que una forma cuadrática (como
veremos definida positiva). Aquı́, las estudiaremos de forma general.

Definición 348.- Sean V un espacio vectorial de dimensión n y B una base V . Si (x1 , . . . , xn ) = [x]tB y
aij ∈ R , con 1 ≤ i, j ≤ n , se denomina forma cuadrática sobre V a toda función polinómica Q: V −→ R de
la forma
  
a11 a12 · · · a1n x1
n · · · a2n 
X   a21 a22
  x2 
Q(x) = aij xi xj = x1 x2 · · · xn  .  = [x]tB A [x]B
 
.. .. ..   ..
i,j=1
 .. . . .  . 
an1 an2 · · · ann xn

Es decir, una forma cuadrática es un polinomio homogéneo de grado 2 y n variables.

La escritura de Q en la forma Q( x ) = [ x ]tB A [ x ]B se denomina expresión matricial de la forma cuadrática.


De hecho, se puede expresar siempre mediante una matriz simétrica ya que
n
A+At
X
[x ]tB A [x ]B = aij xi xj = [x ]tB 2 [ x ]B
i,j=1

A+At t At +(At )t At +A
y la matriz S = 2 es simétrica (S t = ( A+A t
2 ) = 2 = 2 = S) . En efecto:
X n
Si en la expresión de la forma cuadrática, Q(x) = aij xi xj , consideramos los pares de sumandos de la
i,j=1
forma aij xi xj y aji xj xi , se tiene que
aij + aji aij + aji
aij xi xj + aji xj xi = (aij + aji )xi xj = xi xj + xj xi = sij xi xj + sji xj xi
2 2
Luego hemos probado el siguiente resultado:
Proposición 349.- Toda forma cuadrática Q sobre V , se puede expresar matricialmente como

Q(x) = [x]tB A[x]B

donde A es una matriz simétrica.

Definición 350.- Es esa matriz simétrica A, la matriz asociada a la forma cuadrática Q en la base B

Ejemplo Para la forma cuadrática Q(x) = x2 + 2xy + 2y 2 + 3yz + 5z 2 también tenemos que
Q(x) = x2 + 2xy + 2y 2 + 3yz + 5z 2 = x2 + xy + yx + 2y 2 + 23 yz + 32 zy + 5z 2
luego      
1 2 0 x 1 1 0 x
Q( x ) = (x, y, z)  0 2 3   y  = (x, y, z)  1 2 23   y  = [x ]tB A [ x ]B
0 0 5 z 0 32 5 z
y la matriz simétrica A es la matriz de Q en la base B . 4

Teorema 351.- Sean B y B 0 dos bases de V , P la matriz de paso de B 0 a B y A la matriz simétrica de Q


en la base B . Entonces, la matriz de Q en la base B 0 , A0 , se obtiene de
A0 = P t AP

Prof: José Antonio Abia Vian Grados de Ing. Industrial : Curso 2012–2013
177 – Matemáticas 1 : Álgebra Lineal 16.1 Diagonalización de una forma cuadrática

Demostración:
Como P es matriz de cambio de base verifica que [x]B = P [x]B 0 , y , sustituyendo en Q, tenemos que

Q(x) = [x]tB A[x]B = (P [x]B 0 )t A(P [x]B 0 ) = [x]tB 0 (P t AP )[x]B 0 ∀x ∈V

luego A0 = P t AP y es también simétrica A0t = (P t AP )t = P t At (P t )t = P t AP = A0 .

Definición 352.- Dos matrices simétricas se dice que son congruentes cuando son matrices asociadas a la
misma forma cuadrática en distintas bases.
Es decir, A y A0 simétricas son congruentes, si existe P inversible tal que A0 = P t AP .

Nota: Las matrices congruentes no son, en general, semejantes (sólo coinciden congruencia y semejanza cuando
la matriz P es ortogonal, P t = P −1 ).

16.1 Diagonalización de una forma cuadrática


La matriz asociada a una forma cuadrática es simétrica, y una matriz simétrica es diagonalizable ortogonalmente,
luego siempre podemos obtener una matriz congruente con la inicial que sea diagonal.

16.1.1 Diagonalización ortogonal

Sea B una base de V y Q(x) = [x]tB A [x]B la expresión matricial de una forma cuadrática sobre V . Puesto
que A es simétrica, existe una base B∗ tal que la matriz P de cambio de base de B∗ a B es ortogonal y
D = P −1 AP = P t AP , con D diagonal
es decir, que D y A son congruentes (además de semejantes). Luego en B∗ , se tiene que

Q(x) = [x]tB∗ P t AP [x]B∗ = [x]tB∗ D [x]B∗ = λ1 y12 + . . . + λn yn2

es decir, la forma cuadrática se expresará como una suma de cuadrados, donde (y1 , . . . , yn ) = [x]tB∗ y λ1 , . . . , λn
son los valores propios de A .

Ejemplo 353 Reducir asuma de cuadrados


   la forma cuadrática Q(x) 1= xy + yz .
0 12 0 x λ −
1 2 0

1 1  1
Q(x) = (x, y, z) 2 0 2
 y  y |λI − A| = − 2 λ − 2 = (λ − √12 )(λ + √12 )λ

0 12 0 z 0 −1 λ
2  √1
0 0

2
−1 −1
luego √12 , √ 2
y 0 son los valores propios de A. Entonces, A es congruente con D =  0 √ 2
0  , y existirá,
0 0 0
por tanto, una base B∗ en la cual Q(x) = [x ]tB∗ D[ x]B∗ = √12 x2∗ − √12 y∗2 . 4

16.1.2 Diagonalización mediante operaciones elementales


La diagonalización ortogonal, propuesta para hallar una matriz asociada a la forma cuadrática que sea diagonal,
puede ser dificil de llevar a cabo (o imposible en ocasiones) pues supone encontrar las raices de un polinomio.
Sin embargo, como se buscan matrices diagonales que sean congruentes y no es necesario que también sean
semejantes, es posible disponer de otros métodos más sencillos pero igualmente eficaces para obtener una matriz
diagonal.
El más interesante para nosotros, se basa de nuevo en hacer operaciones elementales sobre la matriz. La idea
del método es la siguiente: haciendo operaciones elementales en las filas de la matriz podemos conseguir una
matriz triangular inferior, pero como necesitamos que la matriz obtenida sea simétrica (debe ser congruente
con la inicial), después de cada operación que hagamos en las filas repetiremos la misma operación sobre las
columnas. Tras cada doble paso (operacion sobre las filas y misma operación sobre las columnas) la matriz
obtenida será simétrica y congruente con la inicial y, al final obtendremos la matriz diagonal.

Prof: José Antonio Abia Vian Grados de Ing. Industrial : Curso 2012–2013
178 – Matemáticas 1 : Álgebra Lineal 16.2 Rango y signatura de una forma cuadrática. Clasificación

La justificación no es dificil si usamos las matrices elementales que representan a cada operación elemental
(ver la subsección 4.2.1 sobre matrices elementales en la página 27), pues: si E es una matriz elemental, la
matriz EA realiza la operación elemental sobre las filas de A y tomando la traspuesta de A, EAt realiza la
operación sobre las columnas de A. Entonces: la matriz E(EA)t realiza la operación sobre las columnas de la
matriz en la que ya hemos realizado la operación de las filas; pero como E(EA)t = EAt E t = EAE t (por ser
A simétrica), esta matriz es simétrica y congruente con A (pues E es inversible). Luego repitiendo el proceso
hasta obtener una matriz diagonal:

D = Ek Ek−1 · · · E1 A E1t · · · Ek−1


t
Ekt = (Ek Ek−1 · · · E1 ) A (Ek Ek−1 · · · E1 )t = P t A(P t )t = P t AP

que será congruente con A pues P es inversible al ser producto de inversibles.


Podemos utilizar el siguiente procedimiento para diagonalizar la matriz A y obtener la matriz del cambio
de base simultáneamente.
Diagonalización congruente mediante operaciones elementales 354.- Se sitúa a la derecha de A la matriz
I del mismo orden que A, (A | I) y efectuamos en A las mismas operaciones elementales en sus filas y en sus
columnas y en la matriz identidad sólo en sus columnas, al cabo de un número finito de pasos obtendremos
(D | P ) .
(Si en I efectuamos las operaciones en las filas, al final obtendremos (D | P t ) en lugar de P .)

Ejemplo 355 Se considera Q(x) = 2x2 + 2xy + 2yz + 3z 2 una forma cuadrática sobre R3 , reducir Q a suma
de cuadrados y hallar la matriz del cambio de base.
 
2 1 0
Solución: Si x = (x, y, z) , se tiene que A=  1 0 1  , es la matriz de Q en la base canónica. Para obtener
0 1 3
una matriz congruente con A que sea diagonal, hacemos el proceso de (A|I) → (D|P ) , detallando la primera
vez como deben darse los pasos de efectuar cada operación:
     
2 1 0 1 0 0 2 1 0 1 0 0 2 0 0 1 0 0
−1 −1
 A 1 A  A 1 A
(A|I) =  1 0 1 0 1 0  → F2 − 2 F1 →  0 2 1 0 1 0  → C2 − 2 C1 →  0 2 1 0 1 0 
0 1 3 0 0 1 0 1 3 0 0 1 0 1 3 0 0 1
 A A
 
2 0 0 1 −1  F3A + 2F2A  2 0 0 1 −1
  
2
0   2
−1
 I 1 I −1
→ C2 − 2 C1 →  0 2 1 0 1 0  → C 3 + 2C 2 −1
→  0 2 0 0 1 2  = (D|P )
I I
0 1 3 0 0 1  C3 + 2C2 
  0 0 5 0 0 1

1 − 21 −1
  
2 0 0
Tenemos entonces la matriz diagonal, D =  0 − 21 0  , y la matriz, P =  0 1 2  , de paso de
n o 0 0 5 0 0 1
−1 t
la base B∗ = (1, 0, 0), ( 2 , 1, 0), (−1, 2, 1) a la canónica, que verifican que P AP = D . Por tanto, si
(x∗ , y∗ , z∗ ) = [x]tB∗ , se tiene que Q(x) = 2x2∗ − 12 y∗2 + 5z∗2 . 4

16.2 Rango y signatura de una forma cuadrática. Clasificación


Hemos visto distintos métodos de encontrar matrices diagonales asociadas a una forma cuadrática, por lo que
existirán también distintas matrices diagonales. Sin embargo, todas ellas tienen algunas cosas en común: tienen
el mismo número de elementos distintos de cero en la diagonal (el mismo rango) y tienen el mismo número de
elementos positivos y de elementos negativos en la diagonal (la misma signatura).
En este capı́tulo veremos como estos valores permanecen invariantes para cualquier diagonalización que
hagamos, lo que nos permitirá, posteriormente, dar una clasificación de las formas cuadráticas.
Teorema 356.- Dos matrices congruentes tienen el mismo rango.
Demostración:
Sea A una matriz simétrica de rango n y A0 = P t AP con P inversible. Consideremos la aplicación lineal
f : Rn −→ Rn dada por f (x ) = Ax , luego A es la matriz de f en la base canónica, Bc . Como P es inversible,
sus columnas forman una base B 0 de Rn y P es la matriz de cambio de base de B 0 a Bc ; y como (P t )−1 es
inversible, sus columnas forman una base B 00 de Rn y (P t )−1 es la matriz de cambio de base de B 00 a Bc , por
lo que P t es la matriz de paso de Bc a B 00 .

Prof: José Antonio Abia Vian Grados de Ing. Industrial : Curso 2012–2013
179 – Matemáticas 1 : Álgebra Lineal 16.2 Rango y signatura de una forma cuadrática. Clasificación

Entonces, la matriz A0 = P t AP es la matriz de la aplicación f asociada a las bases B 0 y B 00 , pues

A0 [ x ]B 0 = P t AP [ x ]B 0 = P t A[ x ]Bc = P t [f ( x )]Bc = [f ( x )]B 00

por lo que A0 y A son matrices asociadas a la misma aplicación lineal, luego rg(A) = rg(A0 ) .

Definición 357.- Llamaremos rango de una forma cuadrática, al rango de cualquier matriz simétrica asociada
a la forma cuadrática en alguna base.

Observación: Del teorema anterior, se deduce entonces que dos cualesquiera matrices diagonales asociadas a
la misma forma cuadrática tienen el mismo número de elementos en la diagonal distintos de cero, –pues este
número es el rango de la matriz diagonal–.
Teorema de Sylvester o Ley de inercia 358.- Si una forma cuadrática se reduce a la suma de cuadrados en
dos bases diferentes, el número de términos que aparecen con coeficientes positivos, ası́ como el número de
términos con coeficientes negativos es el mismo en ambos casos. .

Definición 359.- Sea Q una forma cuadrática y D una matriz diagonal asociada a Q. Se define como
signatura de Q al par Sig(Q) = (p, q) donde p es el número de elementos positivos en la diagonal de D y q
es el número de elementos negativos de la misma.

16.2.1 Clasificación de las formas cuadráticas


Definición 360.- Se dice que una forma cuadrática Q es
a) Nula si Q(x) = 0 para todo x.
b) Definida positiva si Q(x) > 0 , para todo x no nulo.

c) Semidefinida positiva si Q(x) ≥ 0 , para todo x y Q no es nula ni definida positiva.


d) Definida negativa si Q(x) < 0 , para todo x no nulo.
e) Semidefinida negativa si Q(x) ≤ 0 , para todo x y Q no es nula ni definida negativa.
f) Indefinida si Q(x) alcanza tanto valores positivos como negativos, es decir, si ∃ x1 6= 0 tal que
Q( x1 ) > 0 y ∃ x2 6= 0 tal que Q( x2 ) < 0 .

Para las formas cuadráticas sobre R2 , podemos dar una representación de ellas usando superficies en R3
asignando a z el valor de la forma cuadrática en (x, y) , es decir, haciendo z = d1 x2 + d2 y 2 . Con estas premisas,
hemos realizado la figura 16.1 que aparece en la página 180.
Teorema de clasificación 361.- Sea Q una forma cuadrática en un espacio vectorial de dimensión n . Se
verifica:
a) Q es nula ⇐⇒ Sig(Q) = (0, 0)
b) Q es definida positiva ⇐⇒ Sig(Q) = (n, 0) .

c) Q es semidefinida positiva ⇐⇒ Sig(Q) = (p, 0) con 0 < p < n .


d) Q es definida negativa ⇐⇒ Sig(Q) = (0, n) .
e) Q es semidefinida negativa ⇐⇒ Sig(Q) = (0, q) con 0 < q < n .
f) Q es indefinida ⇐⇒ Sig(Q) = (p, q) con 0 < p, q . .

Ejemplo Las formas cuadráticas de los ejemplos 353 y 355 anteriores son ambas indefinidas, pues en el
primer ejemplo Q( x) = √12 x2∗ − √12 y∗2 en una base, luego Sig(Q) = (1, 1) . En el segundo ejemplo, se escribe
Q( x ) = 2x2∗ − 12 y∗2 + 5z∗2 en una base y Sig(Q) = (2, 1) .
Un ejemplo de forma cuadrática definida positiva, lo tenemos con el cuadrado de la norma de un vector
(ver la observación de la página 155 sobre la expresión matricial de un producto interior), pues se verifica que
2
Q( v ) = kv k = h v , v i > 0 si v 6= 0 . 4

Prof: José Antonio Abia Vian Grados de Ing. Industrial : Curso 2012–2013
180 – Matemáticas 1 : Álgebra Lineal 16.3 Ejercicios

Fig. 16.1. Gráficas de las formas cuadráticas de R2 : definida positiva, definida negativa, indefinida, semidefinida positiva,
semidefinida negativa y nula

Para finalizar –y aunque puede obtenerse sin mucho coste una matriz diagonal mediante operaciones elementales–
damos, sin demostración, una proposición que puede ser útil por su versión práctica, pues engloba varios
resultados para clasificar una forma cuadrática usando la matriz inicial:

Proposición 362.- Sea Q una forma cuadrática y A su matriz asociada. Denotemos por ∆k , el k -ésimo
menor principal de A, para cada 1 ≤ k ≤ n :
a11 · · · a1k
a11 a12
∆1 = |a11 | ∆2 = ··· ∆k = ... . . . ... ··· ∆n = |A|

a21 a22
ak1 · · · akk
Entonces:

a) Q es definida positiva si, y sólo si, ∆k > 0 , para 1 ≤ k ≤ n .


b) Q es definida negativa si, y sólo si, (−1)k ∆k > 0 , para 1 ≤ k ≤ n .
c) Si ∆n = det(A) 6= 0 y no se está en alguno de los casos anteriores, entonces Q es indefinida.

d) Si existe i tal que aii ≤ 0 (resp. aii ≥ 0 ), entonces Q no es definida positiva (resp. no es definida
negativa).
e) Si existen i y j , con i 6= j , tales que aii = 0 y aij 6= 0 , entonces Q es indefinida.

16.3 Ejercicios
16.288 Clasificar cada una de las formas cuadráticas siguientes, y reducir a suma de cuadrados:
a) Q(x) = x2 + y 2 + z 2 − (xz + xy + yz) .
b) Q(x) = x2 + y 2 + z 2 − 4(xz + xy + yz) .
c) Q(x) = 8x2 + 6y 2 + 3z 2 + 4xy + 8xz + 4yz .
d) Q(x) = x2 + 2y 2 + z 2 + 2xy + xz .

Prof: José Antonio Abia Vian Grados de Ing. Industrial : Curso 2012–2013
181 – Matemáticas 1 : Álgebra Lineal 16.3 Ejercicios

e) Q(x) = x2 + 2xy + 3y 2 + 4xz + 6yz + 5z 2 .


f) Q(x) = 3x2 + 4y 2 + 5z 2 + 4xy − 4yz .
g) Q(x) = 2x2 + 5y 2 + 5z 2 + 4xy − 4yz − 8zx.
h) Q(x) = x2 + y 2 + 2z(x cos α + y sen α) .

16.289 Sean las formas cuadráticas Qi : Rn −→ R dadas por Qi ( x ) = x t Ai x , con


 x = (x1, . . . , xn ) , siendo 
    5 −2 0 −1 2 0 0 0
1 1 0 3 −2 1  −2 2 0 1   1 3 2 0 
A1 =  1 0 1  A2 =  1 6 2  A3 = 
  A4 = 
 
0 3 1 −2  −1 −2 −1 0 
−1 0 0 −3 0 7
0 0 −2 2 0 0 0 −1
Obtener, para cada Qi , la matriz asociada a la base canónica del espacio correspondiente, una matriz
diagonal congruente y la base respecto de la que es diagonal.
 
6 5 3 0
16.290 Sean B1 y B2 bases respectivas de los espacios V y W y sea A =  3 1 0 −3  la matriz de una aplica-
3 3 2 1
cion lineal f : V −→ W en las bases B1 y B2 . Tomemos Q: V −→ R dada por Q( v ) = [f ( v )]tB2 [f ( v )]B2 .
a) ¿Cuales son las dimensiones de V y W ?
b) Obtener la matriz de Q en la base B1 y comprobar que es una forma cuadrática.
c) ¿Cuál es su clasificación?

16.291 Clasificar, según los valores de m , la familia de formas cuadráticas:

Q(x) = x2 + y 2 + z 2 + 2m(xy + xz).


 
a 0 c
16.292 Se considera la familia de formas cuadráticas Q(x) = xt Ax, siendo A =  0 a + c 0  . Utilizando dos
c 0 a
métodos diferentes, expresar Q como suma de cuadrados.
 
a 1 1
16.293 Sea A =  1 a 1  .
1 1 a

a) Para a = 3 , encontrar P que diagonalice a A.


b) Para a = 3 , calcular (5A)10 .
c) Sea Q(x) = xt Ax , clasificar Q según los valores de a.
 
a b 0 n o
16.294 Sean A =  b a b  y B = v1 = (1, 1, 1), v2 = (1, −1, 0), v3 = (0, 1, −1) . Se pide
0 b a

a) Clasificar la forma cuadrática Q(x) = [x]tB A[x]B , según los valores de a y b.


b) Para a = 0 y b = 1 , hallar una base B 0 tal que Q(x) = [x]tB 0 D[x]B 0 , con D diagonal.
 
a 0 b
16.295 Sea A =  0 a 0
b 0 a

a) ¿Para qué valores de a y de b es Q(x) = xt Ax > 0 , ∀ x 6= 0 ?


b) Si a = −1 y ∀ b, reducir Q a suma de cuadrados.
c) Si a = −1 , ¿para qué valores de b es Q(x) < 0 , ∀ x 6= 0 ?

16.296 Sea Q: Rn −→ R una forma cuadrática no nula cuya matriz asociada en la base canónica es A.
a) Si λ ∈ R − {0}, probar que Q(x ) y Q(λ x ) tienen el mismo signo.
b) Para que valores de λ ∈ R es cierto que Q(λ x ) = λ Q(x ) .
c) Deducir de lo anterior, que en general no es cierta la igualdad Q( x + y ) = Q( x ) + Q( y ) .

Prof: José Antonio Abia Vian Grados de Ing. Industrial : Curso 2012–2013
182 – Matemáticas 1 : Álgebra Lineal 16.3 Ejercicios

d) Si la forma cuadrática Q0 : Rn −→ R tiene a A0 como matriz en la base canónica, ¿cuál será la matriz
de la forma cuadrática (Q + Q0 )(x ) = Q(x ) + Q0 ( x ) ?

16.297 Sea A la matriz de orden n asociada a una forma cuadrática definida positiva y P una matriz de orden
n.
a) Si P es inversible, probar que la matriz P t AP es definida positiva.
b) Si P es no inversible, probar que la matriz P t AP es semidefinida positiva.

Prof: José Antonio Abia Vian Grados de Ing. Industrial : Curso 2012–2013
183 – Matemáticas 1 : Álgebra Lineal

Anexo 4: Demostraciones

Álgebra lineal
Espacios vectoriales
Demostración de: Propiedades 277 de la página 149

Propiedades 277.- Algunas propiedades que se deducen de las anteriores son:

(i) 0u = 0 . (ii) k 0 = 0 . (iii) (−1)u = −u .

(iv) k u = 0 ⇐⇒ k = 0 ó u = 0 .
(v) El vector cero de un espacio vectorial es único.
(vi) El vector opuesto de cada vector del espacio vectorial es único.
Demostración:

(i) Como 0u = (0 + 0)u = 0u + 0u , si sumamos a cada lado de la igualdad el opuesto de 0u , tenemos que
0 u + (−0 u ) = 0u + 0 u + (−0u ) luego 0 = 0u + 0 = 0u .
(ii) Como k 0 = k( 0 + 0 ) = k 0 + k 0 , si sumamos a cada lado de la igualdad el opuesto de k 0 , tenemos que
k 0 + (−k 0 ) = k 0 + k 0 + (−k 0 ) luego 0 = k 0 + 0 = k 0 .

(v) Si w verifica que w + u = u , entonces w + u + (−u ) = u + (−u ) de donde w + 0 = 0 y w = 0 .


En consecuencia, el vector cero es único.
(vi) Si w verifica que w + u = 0 , entonces w + u +(−u ) = 0 +( −u ) de donde w + 0 = −u y w = −u .
En consecuencia, el vector opuesto es único.

(iii) Veamos que (−1)u es el opuesto u : u + (−1)u = 1u + (−1)u = (1 + (−1))u = 0u = 0 .


1 1
(iv) Si k u = 0 y k 6= 0 , entonces kku = k 0 = 0 . Luego 0 = k1 k u = ( k1 k)u = 1u = u .
La implicación en el otro sentido es evidente por (i) y (ii).

Demostración de: Lema 284 de la página 151

Lema 284.- Si S es un conjunto linealmente independiente de vectores de V y v ∈ V −lin S , entonces S∪{ v }


es linealmente independiente.
Demostración:
Sea S = { u1 , u2 , . . . , ur } es un conjunto linealmente independiente de vectores V y sea v ∈ V que no
pertenece a lin S . Entonces, en la igualdad vectorial

λ1 u1 + λ2 u2 + · · · + λr ur + λ v = 0 h 16.1i

el coeficiente λ debe ser cero, pues si no lo es, podemos despejar v = − λλ1 u1 − λλ2 u2 − · · · − λλr ur y v
estarı́a generado por los vectores de S , lo que no es cierto. Ahora bien, como λ = 0 , la ecuación 16.1 se reduce
a λ1 u1 + λ2 u2 + · · · + λr ur = 0 y en consecuencia, todos los λi son cero por ser los vectores ui linealmente
independientes.

Demostración de: Lema 285 de la página 151

Lema 285.- Sean V un espacio vectorial y B una base de V formada por n vectores. Entonces cualquier
conjunto { v1 , v2 , . . . , vm } de vectores de V , con m > n, es linealmente dependiente.

Prof: José Antonio Abia Vian Grados de Ing. Industrial : Curso 2012–2013
184 – Matemáticas 1 : Álgebra Lineal Anexo 4

Demostración:
Sea B = { w1 , w2 , . . . , wn } la base de V . Cada vector vk del conjunto { v1 , v2 , . . . , vm } puede expresarse
como combinación lineal de los vectores de B , en la forma
vk = ak1 w1 + ak2 w2 + · · · + akn wn , para cada k = 1, . . . , m
El conjunto es linealmente dependiente si la ecuación λ1 v1 + λ2 v2 + · · · + λm vm = 0 tiene múltiples
soluciones. Sustituyendo:
0 = λ1 (a11 w1 + a12 w2 + · · · + a1n wn ) + λ2 (a21 w1 + a22 w2 + · · · + a2n wn )
+ · · · + λm (am1 w1 + am2 w2 + · · · + amn wn )
= (λ1 a11 + λ2 a21 + · · · + λm am1 )w1 + (λ1 a12 + λ2 a22 + · · · + λm am2 )w2
+ · · · + (λ1 a1n + λ2 a2n + · · · + λm amn )wn
Como B es un conjunto linealmente independiente de vectores, se tiene el sistema lineal

λ1 a11 + λ2 a21 + · · · + λm am1 = 0 
λ1 a12 + λ2 a22 + · · · + λm am2 = 0

··· ··· = 0 

λ1 a1n + λ2 a2n + · · · + λm amn = 0

que tiene m incógnitas (los λk ) y n ecuaciones, con m > n, por lo que no tiene solución única.

Demostración de: Proposición 289 de la página 151

Proposición 289.- Si V es un espacio vectorial, con dim V = n . Entonces, un conjunto de n vectores de V es


base de V ,
a) si el conjunto es linealmente independiente, o b) si genera a V .
Demostración:
Sea S el conjunto de n vectores.
Si S es linealmente independiente, tiene que generar V , pues si no: podrı́an añadirse vectores linealmente
independientes con lo anteriores hasta formar una base de V (existirı́a al menos un vector vn+1 ∈ V − lin S ,
tal que S ∪ {vn+1 } es linealmente independiente, ver comentarios previos al Lema 285 anterior) que tendrı́a
al menos n + 1 vectores, lo que es absurdo.
Análogamente si S genera V , tiene que ser linealmente independiente, pues si no: podrı́an eliminarse
vectores dependientes de S hasta conseguir una base que tendrı́a menos de n vectores (Lema 282), lo que
también es absurdo.

Demostración de: Desigualdad de Cauchy-Schwarz 299 de la página 155

Desigualdad de Cauchy-Schwarz 299.- Para todo u , v ∈ V, espacio con producto interior, se tiene
2 2
h u , v i2 ≤ ku k k v k o en la forma |hu , v i| ≤ k u k kv k .
Demostración:
2 2
Si v = 0 , es claro que 0 = h u , 0 i2 ≤ ku k k0 k = 0 , ∀ u ∈ V .
Si v 6= 0 , para todo k ∈ R , se verifica que
2
0 ≤ ku − k v k = h u − k v , u − k v i = h u , u i − 2kh u , v i + k 2 h v , v i
hu, vi
en particular, para k = hv, vi . Luego

hu, vi hu, vi2 hu, vi2 hu, vi2


0 ≤ hu, ui − 2 hu, vi + hv, vi = hu, ui − 2 +
hv, vi hv, vi2 hv, vi hv, vi
2
hu, vi 2 hu, vi2
= hu, ui − = kuk − 2
hv, vi kvk
hu, vi2 2 2 2
de donde kvk2
≤ ku k y por consiguiente hu, vi2 ≤ ku k kvk .

Demostración de: Teorema 307 de la página 156

Prof: José Antonio Abia Vian Grados de Ing. Industrial : Curso 2012–2013
185 – Matemáticas 1 : Álgebra Lineal Anexo 4

Teorema 307.- Si S = {v1 , v2 , . . . , vk } un conjunto finito de vectores no nulos, ortogonales dos a dos, entonces
S es linealmente independiente.
Demostración:
Veamos que en la igualdad λ1 v1 + · · · + λi vi + · · · + λk vk = 0 , cada λi tiene que ser cero:

0 = hvi , 0i = hvi , λ1 v1 + · · · + λi vi + · · · + λk vk i = λ1 hvi , v1 i + · · · + λi hvi , vi i + · · · + λk hvi , vk i


2
= 0 + · · · + λi hvi , vi i + · · · + 0 = λi kvi k

como vi 6= 0 , su norma no es cero por lo que tiene que ser λi = 0 .

Demostración de: Lema 312 de la página 157

Lema 312.- Sean V un espacio vectorial con producto interior, W un subespacio de V y B una base ortonormal
de W . Entonces para cada v ∈ V , el vector v −ProyW (v ) es ortogonal a cada vector de W .
Demostración:
Por la Proposición 306, para probar que un vector es ortogonal a todos los vectores de un subespacio, basta
probarlo para los vectores de una base. Sea B = { w1 , w2 , . . . , wk }, para cada wi de B , por ser B ortonormal,
h wi , wi i = 1 y h wi , wj i = 0 , si i 6= j , entonces

hv−ProyW (v), wi i = hv − hv, w1 iw1 − · · · − hv, wi iwi − · · · − hv, wk iwk , wi i


= hv, wi i − hv, w1 ihw1 , wi i − · · · − hv, wi ihwi , wi i − · · · − hv, wk ihwk , wi i
= hv, wi i − 0 − · · · − hv, wi i · 1 − · · · − 0 = hv, wi i − hv, wi i = 0

Luego es ortogonal a los vectores de B y, por consiguiente, a todos los vectores de W .

Unicidad de la proyección ortogonal.- Sea V un espacio con producto interior y W un subespacio de V . Para
cada v ∈ V , la proyección ortogonal de v en W no depende de la base ortonormal elegida.
Es decir, si B1 = { u1 , u2 , . . . , uk } y B2 = { v1 , v2 , . . . , vk } son dos bases ortonormales de W , entonces,
para cada v ∈ V , los vectores
(1)
ProyW (v) = w1 = hv, u1 iu1 + hv, u2 iu2 + · · · + hv, uk iuk
(2)
ProyW (v) = w2 = hv, v1 iv1 + hv, v2 iv2 + · · · + hv, vk ivk

son el mismo.
Demostración:
Como w1 es una proyección ortogonal de v sobre W , el vector w1 ∈ W y el vector v − w1 es ortogonal a
W y, por la misma razón, el vector w2 ∈ W y el vector v − w2 es ortogonal a W .
Entonces, el vector (v − w1 ) − ( v − w2 ) = w2 − w1 cumple que: es ortogonal a todos los vectores de
W por ser diferencia de dos vectores ortogonales a W ; y también es un vector de W por ser diferencia de dos
vectores de W . En consecuencia, es ortogonal a si mismo y h w2 − w1 , w2 − w1 i = 0 , luego es el vector 0 ;
por lo que w1 = w2 y la proyección ortogonal no depende de la base.

Aplicaciones lineales
Justificación del método descrito en la Observación 324, de la página 164

Usaremos en la justificación el mismo ejercicio del ejemplo, pero la prueba es válida en cualquier caso.
t
Haciendo las operaciones  elementales sobre la matriz A , que tiene por filas las [f (vi )]B2 , hemos obtenido la
[f (v1 )]B2

 [f (v6 − v1 )]B2 
[f (v 5 − v6 + v1 )]B2 
 
matriz que tiene por filas  1 3 3  . Luego si repetimos las mismas operaciones
 [f (v 4 + v
2 1
− v
2 6
− v )]
2 5 B2 
 [f (v3 + v6 + 2v5 )]B2 
[f (v2 − 2v6 − v5 )]B2

Prof: José Antonio Abia Vian Grados de Ing. Industrial : Curso 2012–2013
186 – Matemáticas 1 : Álgebra Lineal Anexo 4

   
[v1 ]B1 [v1 ]B1

 [v2 ]B1 


 [v6 − v1 ]B1 

 [v3 ]B1   [v5 − v6 + v1 ]B1 
sobre la matriz J que tiene por filas   obtendrı́amos K = 
 [v4 + 1 v1 − 3 v6 − 3 v5 ]B1
.

 [v4 ]B1 
  2 2 2


 [v5 ]B1   [v3 + v6 + 2v5 ]B1 
[v6 ]B1 [v2 − 2v6 − v5 ]B1
Ahora bien, como la matriz J es la identidad, que tiene rango 6, la matriz K también tiene rango 6, por lo
que sus filas son linealmente independientes y en consecuencia los tres últimos vectores (los vectores de ker(f ) )
también son linealmente independientes.

Diagonalización
Justificación de la observación en Antes de seguir de la página 170

Definición.- Sea f : V −→ V un operador lineal, diremos que un escalar λ es un valor propio de f si existe
un vector v ∈ V , diferente de cero, tal que f (v) = λv .
Al vector v se le denomina vector propio de f correspondiente a λ .

Teorema.- Sea f : V −→ V un operador lineal, siendo V un espacio vectorial de dimensión n . Entonces,


existe una base de V con respecto a la cual la matriz de f es diagonal si y sólo si f tiene n vectores propios
linealmente independientes.
Demostración:
Si la matriz de f en la base B = {v1 , v2 , . . . , v1 } es D diagonal, los mismos vectores de la base son vectores
propios y son linealmente independientes, pues:
λ1 0 · · · 0
 
   0 λ2 · · · 0   
[f (v1 )]B [f (v2 )]B ··· [f (vn )]B =D= = λ1 [v1 ]B λ2 [v2 ]B ··· λn [vn ]B
 
.. .. . . . 
 . . . .. 
0 0 · · · λn

Recı́procamente, si tenemos n vectores propios linealmente independientes, la matriz de f respecto de la base


formada con ellos es diagonal.
λ1 0 · · · 0
 
     0 λ2 · · · 0 
[f (v1 )]B [f (v2 )]B ··· [f (vn )]B = λ1 [v1 ]B λ2 [v2 ]B ··· λn [vn ]B =
 
.. .. . . .
. ..

 . . 
0 0 · · · λn

Teorema.- Sean V un espacio vectorial de dimensión n , f : V −→ V un operador lineal y A la matriz de f con


respecto a una base B = {v1 , v2 , . . . , vn } . Entonces:
a) Los valores propios de f son los valores propios de A

b) Un vector v ∈ V es un vector propio de f correspondiente al valor propio λ si y sólo si su matriz de


coordenadas [v]B es un vector propio de A correspondiente a λ .
Demostración:
a) Sea λ un valor propio de f , es decir, ∃v ∈ V , distinto de 0 , tal que f (v) = λv =⇒ [f (v)]B = [λv]B
=⇒ A[v]B = λ[v]B , luego λ es un valor propio de A al ser [v]B 6= 0 .
Sea λ un valor propio de A, entonces ∃x ∈ Rn , x 6= 0 tal que Ax = λx . Si tomamos x∗ = x1 v1 + · · · +
xn vn , siendo x = (x1 , . . . , xn ) , lo anterior quiere decir que A[x∗ ]B = λ[x∗ ]B ⇒ [f (x∗ )]B = [λx∗ ]B ⇒
f (x∗ ) = λx∗ y λ es un valor propio de f ya que x∗ 6= 0

b) v es un vector propio de f correspondiente a λ si y sólo si


f (v) = λv ⇐⇒ [f (v)]B = [λv]B ⇐⇒ A[v]B = λ[v]B
si y sólo si [v]B es un vector propio de A correspondiente a λ .

Prof: José Antonio Abia Vian Grados de Ing. Industrial : Curso 2012–2013
187 – Matemáticas 1 : Álgebra Lineal Anexo 4

Teorema.- Los vectores propios de f correspondientes al valor propio λ , son los vectores distintos de cero del
núcleo de la aplicación λId − f (denotamos por Id la aplicación identidad, Id (v ) = v ).
Llamaremos a dicho núcleo, espacio caracterı́stico de f correspondiente al valor propio λ .
Demostración:
v un vector propio correspondiente a λ ⇐⇒ f (v) = λv ⇐⇒ f (v) = λId (v) ⇐⇒ λId (v) − f (v) = 0 ⇐⇒
(λId − f )(v) = 0 ⇐⇒ v ∈ ker(λId − f ) .

Demostración de: Teorema 340 de la página 170

Teorema 340.- Sean v1 , v2 , . . . , vk vectores propios de una matriz A asociados a los valores propios λ1 ,
λ2 , . . . , λk respectivamente, siendo λi 6= λj , ∀ i 6= j . Entonces el conjunto de vectores { v1 , v2 , . . . , vk } es
linealmente independiente.
Demostración:
Supongamos que v1 , v2 , . . . , vk son linealmente dependientes.
Por definición, un vector propio es distinto de cero, luego el conjunto {v1 } es linealmente independiente.
Sea r el máximo entero tal que {v1 , v2 , . . . , vr } es linealmente independiente. Puesto que hemos supuesto
que { v1 , v2 , . . . , vk } es linealmente dependiente, r satisface que 1 ≤ r < k . Además, por la manera en que
se definió r , {v1 , v2 , . . . , vr , vr+1 } es linealmente dependiente. Por tanto, existen escalares c1 , c2 , . . . , cr+1 ,
al menos uno diferente de cero, tales que

c1 v1 + c2 v2 + · · · + cr+1 vr+1 = 0 . h 16.2i

Multiplicando en ambos lados de la igualdad por A y haciendo las sustituciones


Av1 = λ1 v1 , Av2 = λ2 v2 , . . . , A vr+1 = λr+1 vr+1
se obtiene
c1 λ1 v1 + c2 λ2 v2 + · · · + cr λr vr + cr+1 λr+1 vr+1 = 0 h 16.3i
Multiplicando los dos lados de (16.2) por λr+1 y restándole a (16.3) la ecuación resultante se obtendrá

c1 (λ1 − λr+1 ) v1 + c2 (λ2 − λr+1 ) v2 + · · · + cr (λr − λr+1 )vr = 0 .

Y dado que los vectores v1 , v2 , . . . , vr son linealmente independientes, necesariamente


c1 (λ1 − λr+1 ) = c2 (λ2 − λr+1 ) = · · · = cr (λr − λr+1 ) = 0
Como los λ1 , λ2 , . . . , λr+1 son distintos entre si, se deduce que c1 = c2 = · · · = cr = 0 .
Sustituyendo estos valores en (16.2) resulta que cr+1 vr+1 = 0 , y como vr+1 6= 0 se deduce que cr+1 = 0 ,
lo que contradice el hecho de que al menos uno de los escalares c1 , c2 , . . . , cr+1 debı́a de ser distinto de cero.
Luego los vectores v1 , v2 , . . . , vk han de ser linealmente independientes, que prueba el teorema.

Demostración de: Proposición 342 de la página 171

Proposición 342.- Sea A de orden n y λk un autovalor de A de multiplicidad mk . Entonces

1 ≤ dim V (λk ) ≤ mk .

Demostración:
Como ya observamos anteriormente, dim V (λi ) ≥ 1 .
Supongamos que dim V (λk ) = d , y consideremos el operador lineal f : Rn −→ Rn definido por f ( v ) = A v .
Sea { v1 , . . . , vd } una base del espacio caracterı́stico V (λk ) , que podemos completar hasta obtener una base
de Rn , B = { v1 , . . . , vd , vd+1 , . . . , vn } . La matriz A0 , del operador en la base B , será de la forma
 
A0 = [f (v1 )]B ··· [f (vd )]B [f (vd+1 )]B ··· [f (vn )]B
 
λk ··· 0
 .. .. .
. .. A012

 

 . 

0 · · · λk
 
= λk [v1 ]B ··· λk [v2 ]B [f (vd+1 )]B ··· [f (vn )]B =
 
0 ··· 0

 
.. .
 
· · · .. A022
 
 . 
0 ··· 0

Prof: José Antonio Abia Vian Grados de Ing. Industrial : Curso 2012–2013
188 – Matemáticas 1 : Álgebra Lineal Anexo 4

de donde |λI −A0 | = (λ−λk )d |λI −A022 |. Pero como A y A0 son matrices semejantes, tienen el mismo polinomio
caracterı́stico, y (λ − λk )d |λI − A022 | = |λI − A0 | = |λI − A| = (λ − λk )mk Q(λ) , de donde se obtiene que d ≤ mk ,
pues mk es la multiplicidad de la raı́z.

Demostración de: Teorema fundamental de la diagonalización 343 de la página 171

Teorema fundamental de la diagonalización 343.- Sea A una matriz de orden n . Entonces A es diagonali-
zable si y sólo si se cumplen las condiciones:
1.- El polinomio caracterı́stico tiene n raices reales. Es decir, |λI − A| = (λ − λ1 )m1 · · · (λ − λk )mk con
m1 + m2 + · · · + mk = n .
2.- Para cada espacio caracterı́stico V (λi ) , se cumple que dim V (λi ) = mi .
Demostración:
=⇒ Si A es diagonalizable, la matriz diagonal D y A son semejantes ( D = P −1 AP ) y por tanto poseen
el mismo polinomio caracterı́stico, luego P (λ) = |λI − A| = |λI − D| = (λ − λ1 )m1 · · · (λ − λk )mk , donde los
λi ∈ R son los valores de la diagonal de D y mi el número de veces que se repite. Por tanto, P (λ) tiene todas
sus raices reales y, por ser de grado n , m1 + m2 + · · · + mk = n .
Además, por ser A y D matrices semejantes, también lo son λI − A y λI − D , para todo λ ∈ R , pues
P −1 (λI − A)P = λP −1 IP − P −1 AP = λI − D , de donde rg(λI−A) = rg(λI−D) , para todo λ . Entonces, para
cada autovalor λi se tiene que rg(λi I − A) = rg(λi I − D) = n − mi y, en consecuencia, que dim V (λi ) = mi .
⇐= Si |λI − A| = (λ − λ1 )m1 · · · (λ − λk )mk , con m1 + m2 + · · · + mk = n , y dim V (λi ) = mi para cada
i = 1, . . . , k , consideremos en cada V (λi ) una base Bi , de la forma
n o n o n o
B1 = p , . . . , pm , B2 = p , . . . , pm , . . . , Bk = pk , . . . , pkmk

Tomemos entonces B = B1 ∪B2 ∪· · ·∪Bk , un conjunto de n vectores propios de A, si vemos que son linealmente
independientes, tendremos que A es diagonalizable.
Planteemos una combinación lineal igualada a cero:
0 = β11 p + · · · + β1m1 pm + β21 p + · · · + β2m2 pm + · · · + βk1 pk + · · · + βkmk pkmk
= (β11 p + · · · + β1m1 pm ) + (β21 p + · · · + β2m2 pm ) + · · · + (βk1 pk + · · · + βkmk pkmk )
= v1 + v2 + · · · + vk
siendo vj = βj1 pj + · · · + βjmj pjmj ∈ V (λj ) , para cada j = 1, . . . , k .
Los vectores v1 , v2 , . . . , vk son vectores de espacios caracterı́sticos correspondientes, respectivamente, a
los valores propios distintos λ1 , λ2 , . . . , λk y por tanto, si no son cero, son linealmente independientes. Pero
la combinación lineal v1 + v2 + · · · + vk = 0 nos indicarı́a que son dependientes, luego la única forma de
eliminar esa contradicción es que vj = 0 , ∀j = 1, 2, . . . , k ; de donde, si 0 = vj = βj1 pj + · · · + βjmj pjmj ,
han de ser todos βj1 = βj2 = · · · = βjmj = 0 por ser Bj una base. Como es cierto para cada j , se tiene que
βji = 0 , ∀ i, j , con lo que B es linealmente independiente.

Demostración de: Teorema fundamental de la diagonalización ortogonal 347 de la página 172

Teorema fundamental de la diagonalización ortogonal 347.- Una matriz A de orden n es diagonalizable or-
togonalmente si y sólo si A es simétrica. .
Demostración:
=⇒ A es diagonalizable ortogonalmente =⇒ ∃P ortogonal y D diagonal tal que P t AP = D =⇒ ∃P
ortogonal y D diagonal tal que A = P DP t =⇒ At = (P DP t )t = P DP t = A =⇒ A es simétrica.
⇐= Sea A simétrica, veamos que es diagonalizable. Primero, que todos los valores propios de A son reales:
Sea λ ∈ C un valor propio de A , entonces existe x = (x1 , . . . , xn ) 6= 0 ( xj ∈ C) tal que Ax = λ x . Por
ser A real, su polinomio caracterı́stico es real y el conjugado de λ, λ, es también autovalor de A; además,
tomando conjugados en la igualdad anterior, se tiene que A x = Ax = λ x . Entonces, son iguales los valores
n
X n
X 2
xt Ax = xt (Ax) = xt (λx) = λxt x = λ xj xj = λ |xj |
j=1 j=1
n
X
t t t t t t t 2
x Ax = (x A)x = (x A )x = (Ax) x = (λx) x) = λx x = λ |xj |
j=1

Prof: José Antonio Abia Vian Grados de Ing. Industrial : Curso 2012–2013
189 – Matemáticas 1 : Álgebra Lineal Anexo 4

n
P 2
y, al ser x 6= 0 , |xj | 6= 0 por lo que λ = λ y λ ∈ R. En consecuencia, si todos los autovalores de A son
j=1
reales, el polinomio caracterı́stico de A tiene las n raices reales.
Veamos ahora que para cada λj se verifica que dim V (λj ) = mj .
Sean dim V (λj ) = d y Bj = { x1 , . . . , xd } una base ortonormal de V (λj ) que ampliamos hasta una base
ortonormal de Rn , B = { x1 , . . . , xd , xd+1 , . . . , xn } .
Consideremos el operador lineal f : Rn −→ Rn dado por f ( x ) = Ax , luego A es la matriz de f en la base
canónica que es ortonormal y si A0 es la matriz de f en la base B y P la matriz de paso de B a la canónica,
P es ortogonal y A0 = P t AP . Como A es simétrica, A0 tambien lo será pues (A0 )t = (P t AP )t = P t At (P t )t =
P t AP = A0 .
 
0
A = [f (x )]
1 B · · · [f (x )]
d B [f (x d+1 B)] · · · [f (x )]
n B
 
λj · · · 0
 .. . . ..
. . A012 

  .

 
 0 · · · λj 
= λj [x1 ]B · · · λj [x2 ]B [f (xd+1 )]B · · · [f (xn )]B =   0 ··· 0


 
 . .
 .. · · · .. A0 

22
0 ··· 0

donde A012 = 0 , puesto que A0 es simétrica y A022 cuadrada de orden n − d . Luego la matriz λj I − A0 nos
queda
   
λj − λj · · · 0 0 ··· 0
 .. .. ..   .. . . .. 

 . . . 0   .
  . . 0 

0
 0 · · · λ j − λ j
  0 · · · 0 
λj I − A = 

 =  0 ··· 0
  
 0 · · · 0  


 .. .. 0 
  .
. .
. 0 

 . ··· . λj I − A22  . · · · . λj I − A22
0 ··· 0 0 ··· 0

por lo que rg(λj I −A0 ) = rg(λj I −A022 ) . Por ser A y A0 semejantes rg(λj I −A) = rg(λj I −A0 ) (ver demostración
del Teorema 343), y se tiene que rg(λj I −A022 ) = rg(λj I −A) = n−dim V (λj ) = n−d por lo que |λj I − A022 | =6 0.
Entonces, |λI − A| = |λI − A0 | = (λ − λj )d |λI − A022 | , con |λj I − A022 | =
6 0 , luego d = mj .
En resumen, A diagonaliza, y tomando una base ortonormal de cada uno de los espacios caracterı́sticos,
tendremos n vectores propios de norma 1 y, que por el Lema 346, son ortogonales entre sı́.

Formas cuadráticas
Demostración de: Teorema de Sylvester o Ley de inercia 358 de la página 179

Teorema de Sylvester o Ley de inercia 358.- Si una forma cuadrática se reduce a la suma de cuadrados en
dos bases diferentes, el número de términos que aparecen con coeficientes positivos, ası́ como el número de
términos con coeficientes negativos es el mismo en ambos casos.
Demostración:
Supongamos que respecto a una base B1 = { b1 , b2 , . . . , bn } la matriz de la forma cuadrática Q es una matriz
diagonal y tiene p elementos positivos y s elementos negativos en su diagonal principal, luego la expresión de
la forma cuadrática será

Q(x ) = a1 x21 + · · · + ap x2p − ap+1 x2p+1 − · · · − ap+s x2p+s

con ai > 0 para todo i , y (x1 , . . . , xp , xp+1 , . . . , xp+s , xp+s+1 , . . . , xn ) = [x ]tB1 ; y que respecto a otra base
B2 = {d1 , d2 , . . . , dn } la matriz de la forma cuadrática es también diagonal con q elementos positivos y r
negativos, por lo que Q se expresará en la forma

Q( x ) = c1 y12 + · · · + cq yq2 − cq+1 yq+1


2 2
− · · · − cq+r yq+r

con ci > 0 para todo i, e (y1 , . . . , yq , yq+1 , . . . , yq+r , yq+r+1 , . . . , yn ) = [x ]tB2 .

Prof: José Antonio Abia Vian Grados de Ing. Industrial : Curso 2012–2013
190 – Matemáticas 1 : Álgebra Lineal Anexo 4

Por el teorema 356 anterior, sabemos que las matrices congruentes tienen el mismo rango, luego tienen que
ser p + s = q + r . Veamos que p = q , con lo que tendremos también que s = r .
Si p 6= q , uno de ellos es mayor que el otro, supongamos que es p > q y consideremos los conjuntos de
vectores { b1 , . . . , bp } y { dq+1 , . . . , dn } . Si p > q , el conjunto {b1 , . . . , bp , dq+1 , . . . , dn } tiene p+(n−q) =
n + (p − q) > n vectores y, por lo tanto, es un conjunto linealmente dependiente y en la igualdad
λ1 b1 + · · · + λp bp + µq+1 dq+1 + · · · + µn dn = 0
alguno de los coeficientes no es cero. Entonces, el vector
λ1 b1 + · · · + λp bp = −µq+1 dq+1 − · · · − µn dn = x
no es el cero (si es cero, todos los λi son cero por ser los bi de B1 , y todos los µj = 0 por ser los dj ∈ B2 ),
con algún λi y algún µj distintos de cero. Tenemos ası́ que
[x ]tB1 = (λ1 , . . . , λp , 0, . . . , 0) y [x ]tB2 = (0, . . . , 0, −µq+1 , . . . , −µn )
pero calculando Q( x ) respecto a las dos bases obtenemos
Q(x) = a1 λ21 + · · · + ap λ2p − ap+1 0 − · · · − ap+s 0 = a1 λ21 + · · · + ap λ2p > 0
Q(x) = c1 0 + · · · + cq 0 − cq+1 (−µq+1 )2 − · · · − cq+r (−µq+r )2 + 0(−µq+r+1 )2 + · · · + 0(−µn )2
= −cq+1 (−µq+1 )2 − · · · − cq+r (−µq+r )2 ≤ 0
lo que no puede ser. Por tanto deben ser p = q y s = r , es decir, las dos matrices diagonales tienen el mismo
número de elementos positivos y negativos.

Demostración de: Teorema de clasificación 361 de la página 179

Teorema de clasificación 361.- Sea Q una forma cuadrática en un espacio de dimensión n . Se verifica:
a) Q es nula ⇐⇒ Sig(Q) = (0, 0)
b) Q es definida positiva ⇐⇒ Sig(Q) = (n, 0) .
c) Q es semidefinida positiva ⇐⇒ Sig(Q) = (p, 0) con 0 < p < n .
d) Q es definida negativa ⇐⇒ Sig(Q) = (0, n) .
e) Q es semidefinida negativa ⇐⇒ Sig(Q) = (0, q) con 0 < q < n .
f) Q es indefinida ⇐⇒ Sig(Q) = (p, q) con 0 < p, q .
Demostración:
Sea B = {v1 , . . . , vn } una base en la cual, la expresión de Q es Q(x ) = d1 x21 + d2 x22 + · · · + dn x2n
donde (x1 , . . . , xn ) = [ x ]tB . Luego, Q(vi ) = di , para todo i = 1, . . . , n , ya que los vectores de B tiene por
coordenadas [ v1 ]tB = (1, 0, 0, . . . , 0) , [ v2 ]tB = (0, 1, 0, . . . , 0) , . . . , [vn ]tB = (0, 0, 0, . . . , 1) . Entonces:
a) Si Q( x ) = 0 , para todo x , se tiene que di = Q(vi ) = 0 , para todo i, luego Sig(Q) = (0, 0) .
Reciprocamente, si di = 0 para todo i , entonces Q(x ) = 0 para todo x .
b) Si Q( x ) > 0 para todo x 6= 0 , se tiene que di = Q(vi ) > 0 , para todo i, luego Sig(Q) = (n, 0) .
Recı́procamente, si di > 0 para todo i , entonces Q(x ) > 0 para todo x 6= 0 .
c) Si Q(x ) ≥ 0 para todo x 6= 0 , es di = Q( vi ) ≥ 0 para todo i. Como no es nula existe algún dj > 0 y
como no es definida positiva existe algún dk = 0 , luego Sig(Q) = (p, 0) con 0 < p < n .
Recı́procamente, si di ≥ 0 para todo i, con algún dj > 0 y algún dk = 0 , se tiene que Q( x ) ≥ 0 para
todo x , que Q( vj ) = dj > 0 , por lo que no es nula, y que Q(vk ) = dk = 0 , por lo que no es definida
positiva.
d) y e) Análogos a los casos de definida y semidefinida positiva.
f) Por ser indefinida, Q( x ) 6≥ 0 para todo x , luego di 6≥ 0 para todo i , por lo que existirá un dj < 0
y Q( x ) 6≤ 0 para todo x , luego di 6≤ 0 para todo i por lo que existirá un dk > 0 . En consecuencia,
Sig(Q) = (p, q) con p, q > 0 .
Recı́procamente, si existe dj < 0 y dk > 0 , serán Q( vj ) = dj < 0 y Q( vk ) = dk > 0 , luego es indefinida.

Prof: José Antonio Abia Vian Grados de Ing. Industrial : Curso 2012–2013

Das könnte Ihnen auch gefallen